JP6515704B2 - Lane detection device and lane detection method - Google Patents

Lane detection device and lane detection method Download PDF

Info

Publication number
JP6515704B2
JP6515704B2 JP2015128090A JP2015128090A JP6515704B2 JP 6515704 B2 JP6515704 B2 JP 6515704B2 JP 2015128090 A JP2015128090 A JP 2015128090A JP 2015128090 A JP2015128090 A JP 2015128090A JP 6515704 B2 JP6515704 B2 JP 6515704B2
Authority
JP
Japan
Prior art keywords
lane
line
vehicle
candidate
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015128090A
Other languages
Japanese (ja)
Other versions
JP2017010464A (en
Inventor
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015128090A priority Critical patent/JP6515704B2/en
Publication of JP2017010464A publication Critical patent/JP2017010464A/en
Application granted granted Critical
Publication of JP6515704B2 publication Critical patent/JP6515704B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、例えば、車線を検出する車線検出装置及び車線検出方法に関する。   The present invention relates to, for example, a lane detection device that detects a lane and a lane detection method.

車両のドライバの運転を支援するなどの目的で、車両に搭載されたカメラにより車両の周囲を撮影して得られる画像から、車両の周囲にある様々な物体または道路標示などを検出する技術が研究されている。   Research on technology to detect various objects or road markings around the vehicle from images obtained by photographing the surroundings of the vehicle with a camera mounted on the vehicle for the purpose of assisting the driver of the vehicle etc. It is done.

例えば、車両の周囲が写った画像から、車線境界線、車道中央線または車道外側線といった、車線または車道の境界を表す区画線を検出することで、自車両が走行中の車線を検出する技術が研究されている。その検出結果は、例えば、自車両が走行中の車線からはみ出したことを検知して、ドライバに警告するために利用される。なお、以下では、このような区画線を、便宜上、車線区画線と呼ぶ。   For example, a technique for detecting a lane in which the vehicle is traveling by detecting a lane line, a road center line, or a road outside line that represents a lane or road boundary from an image of the surroundings of the vehicle. Is being studied. The detection result is used, for example, to detect that the vehicle has run out of the lane in which it is traveling and to warn the driver. Hereinafter, such a dividing line is referred to as a lane dividing line for the sake of convenience.

しかし、道路には、車線区画線と平行して、減速を促すための補助線が設けられることがある。このような補助線は、例えば、破線で描画される場合の車線区画線よりも、個々のブロックが短い破線(以下、短破線と呼ぶ)として描画される。補助線が設けられている場合には、道路の延伸方向に沿って複数の平行な線が存在することになる。そこで、そのような複数の線が存在する場合でも、車線区画線を検出できる技術が提案されている(例えば、特許文献1〜3を参照)。   However, in parallel with the lane markings, the road may be provided with an auxiliary line for promoting deceleration. Such an auxiliary line is drawn, for example, as a broken line (hereinafter referred to as a short broken line) in which each block is shorter than a lane marking in the case of drawing the broken line. If an auxiliary line is provided, a plurality of parallel lines will be present along the extension direction of the road. Therefore, techniques have been proposed that can detect lane markings even when such multiple lines exist (see, for example, Patent Documents 1 to 3).

例えば、特許文献1に開示された車両用画像処理装置は、エッジ抽出によって自車の走行する車線の片側に複数の道路区画線候補が検出された場合には、各候補のエッジ周期を比較して最も連続線に近い候補を道路区画線と判定する。   For example, when a plurality of road division line candidates are detected on one side of the lane on which the vehicle travels by edge extraction, the image processing apparatus for a vehicle disclosed in Patent Document 1 compares the edge cycles of the respective candidates. The candidate closest to the continuous line is determined as the road division line.

また、特許文献2に開示された車線変位補正システムは、認識された車線位置より算出される認識レーン幅に基づいて、少なくとも一つのレーン幅種を算出するとともに、レーン幅種の出現頻度に応じて主レーン幅を特定する。そしてこの車線変位補正システムは、両側の車線が認識された場合、認識レーン幅と、少なくとも一つのレーン幅種と、主レーン幅とに基づいて、主たる車線と補助車線との位置的関係を判断し、その判断結果に応じて車線位置を補正する。   Further, the lane displacement correction system disclosed in Patent Document 2 calculates at least one lane width type based on the recognized lane width calculated from the recognized lane position, and according to the appearance frequency of the lane width type. Identify the main lane width. The lane displacement correction system determines the positional relationship between the main lane and the auxiliary lane based on the recognition lane width, the at least one lane width type, and the main lane width when the lanes on both sides are recognized. And correct the lane position according to the judgment result.

さらに、特許文献3に開示された道路形状推定装置は、道路の路面を撮影した画像から複数のエッジ線を検出し、それらのエッジ線のうち一つ以上のエッジ線を連結して複合エッジ線を生成する。この道路形状推定装置は、道路の中央に最も近い内側複合エッジ線の情報に基づいて、路面を撮影したカメラの横方向オフセットと道路幅とを含む、道路の道路形状パラメータを求める。そしてこの道路形状推定装置は、内側複合エッジ線と、その内側複合エッジ線の外側に位置する外側複合エッジ線との距離に基づいて補正量を求め、横方向オフセット及び道路幅をその補正量を用いて補正する。   Furthermore, the road shape estimation device disclosed in Patent Document 3 detects a plurality of edge lines from an image obtained by photographing the road surface of the road, and connects one or more edge lines among those edge lines to form a composite edge line. Generate The road shape estimation apparatus obtains road shape parameters of the road including the lateral offset of the camera that has photographed the road surface and the road width based on the information of the inner composite edge line closest to the center of the road. Then, the road shape estimation device obtains a correction amount based on the distance between the inner composite edge line and the outer composite edge line located outside the inner composite edge line, and calculates the lateral offset and the road width as the correction amount. Use to correct.

特開2004−310522号公報JP, 2004-310522, A 特開2002−163642号公報Japanese Patent Application Laid-Open No. 2002-163642 特開2013−120458号公報JP, 2013-120458, A

特許文献1に記載の技術では、車線区画線を正確に特定するためには、画像上で車線区画線と補助線とが識別可能であり、かつ、車線区画線と補助線のエッジ周期の違いが識別可能であることが求められる。しかしながら、車両に搭載されるカメラの解像度が不十分な場合、画像上で車線区画線と補助線とが識別できないことがある。特に、車両に搭載されたカメラが広角カメラである場合、車両から離れた領域に対応する、画像上での範囲が小さくなるので、そのような領域に含まれる車線区画線と補助線とを識別することは困難である。   In the technique described in Patent Document 1, in order to accurately identify a lane line, the lane line and the auxiliary line can be distinguished on the image, and the edge period difference between the lane line and the auxiliary line Are required to be identifiable. However, when the resolution of the camera mounted on the vehicle is insufficient, the lane markings and the auxiliary lines may not be distinguishable on the image. In particular, when the camera mounted on the vehicle is a wide-angle camera, the range on the image corresponding to the area away from the vehicle becomes smaller, so the lane markings and the auxiliary lines included in such an area are identified. It is difficult to do.

また、補助線は常に設けられるものではないので、補助線が設けられている車線と、補助線が設けられていない車線がある。一方、特許文献2に記載の技術では、レーン幅種の出現頻度を主レーン幅の特定に利用しているため、補助線の有無が切り替わることに対応できない。   Further, since the auxiliary line is not always provided, there are lanes provided with the auxiliary line and lanes provided with no auxiliary line. On the other hand, in the technique described in Patent Document 2, the appearance frequency of the lane width type is used to specify the main lane width, so it can not cope with the switching of the presence or absence of the auxiliary line.

さらに、実際の補助線は、摩耗などによってかすれていることがあり、このような場合、道路が写った画像上で補助線の検出が困難となる。また、補助線を形成するブロック同士が近接しているため、画像上で補助線が短破線ではなく実線のように見えることがある。このような場合、特許文献3に記載の技術では、補助線が内側複合線として検出されないことがあり、その結果として、車線区画線の位置が誤認識されるおそれがあった。   Furthermore, the actual auxiliary line may be blurred due to wear or the like, and in such a case, it is difficult to detect the auxiliary line on the image in which the road is photographed. In addition, since the blocks forming the auxiliary line are close to each other, the auxiliary line may appear as a solid line instead of a short broken line on the image. In such a case, in the technique described in Patent Document 3, the auxiliary line may not be detected as the inner composite line, and as a result, there is a possibility that the position of the lane marking may be misrecognized.

一つの側面では、本発明は、車両の周囲を撮影して得られる画像からその車両が走行中の車線を正確に検出できる車線検出装置を提供することを目的とする。   In one aspect, the present invention aims to provide a lane detection device capable of accurately detecting the lane in which the vehicle is traveling from an image obtained by photographing the surroundings of the vehicle.

一つの実施形態によれば、車線検出装置が提供される。この車線検出装置は、車両が走行している車線の形状を表す第1の車線形状パラメータを記憶する記憶部と、車両に搭載された撮像部により生成された、車両の周囲が写った画像上で車線の境界を表す車線区画線の候補となる区画線候補を検出する区画線候補検出部と、区画線候補に基づいて車線の形状を表す第2の車線形状パラメータを算出する車線形状パラメータ算出部と、区画線候補が表す車線区画線の位置を、車線の幅を拡大する方向へ変更するか否かにより車線の形状を表す複数のモデルを生成するモデル生成部と、複数のモデルのうち、第1の車線形状パラメータが表す車線の形状と最も類似するモデルを特定するモデル特定部と、第2の車線形状パラメータを特定されたモデルに対応する車線の形状を表すように補正し、補正された第2の車線形状パラメータを第1の車線形状パラメータとして記憶部に記憶する補正部とを有する。   According to one embodiment, a lane detection device is provided. The lane detection device includes a storage unit for storing a first lane shape parameter representing the shape of a lane in which the vehicle is traveling, and an image on the image of the surroundings of the vehicle generated by an imaging unit mounted on the vehicle. A lane line candidate detection unit that detects lane line candidates that are candidates for lane lane lines that represent lane boundaries and lane shape parameter calculation that calculates a second lane shape parameter that indicates the lane shape based on the lane line candidates And a model generation unit that generates a plurality of models representing the shape of the lane by changing the position of the lane markings represented by the markings and the lane markings in the direction of expanding the width of the lane; , A model identification unit for identifying a model most similar to the lane shape represented by the first lane shape parameter, and a second lane shape parameter corrected to represent the lane shape corresponding to the identified model And a correction unit to be stored in the storage unit the second lane shape parameters as the first lane shape parameter.

車両の周囲を撮影して得られる画像からその車両が走行中の車線を正確に検出できる。   The lane in which the vehicle is traveling can be accurately detected from an image obtained by photographing the surroundings of the vehicle.

(a)及び(b)は、車線区画線及び補助線を検出することが困難な画像の一例を示す図である。(A) And (b) is a figure which shows an example of an image in which it is difficult to detect a lane line and an auxiliary line. 車線検出装置の一つの実施形態である運転支援装置が搭載された車両の構成図である。FIG. 1 is a block diagram of a vehicle equipped with a driving support device that is an embodiment of a lane detection device. 一つの実施形態による運転支援装置の概略構成図である。It is a schematic block diagram of the driving assistance device by one embodiment. 制御部の機能ブロック図である。It is a functional block diagram of a control part. カメラにより得られる画像を模式的に示す図である。It is a figure which shows typically the image obtained by a camera. (a)は、図5に示された画像から検出されたエッジ画素の一例を示す図であり、(b)は、(a)に示されたエッジ画素が連結されたエッジ線の一例を示す図である。(A) is a figure which shows an example of the edge pixel detected from the image shown by FIG. 5, (b) shows an example of the edge line to which the edge pixel shown by (a) was connected. FIG. (a)は、領域RR、RLの一例と、抽出されるエッジ線の一例を示す図であり、(b)は、領域RR、RL内でノイズ以外のエッジ線の一例を示す図である。(A) is a figure which shows an example of area | region RR and RL, and an example of the edge line extracted, (b) is a figure which shows an example of edge lines other than noise in area | region RR and RL. 図7(b)に示されたエッジ線の例から求められた複合エッジ線の一例を示す図である。It is a figure which shows an example of the compound edge line calculated | required from the example of the edge line shown by FIG.7 (b). 多重線状態の遷移の一例を表す図である。It is a figure showing an example of a transition of a multiline state. 車線形状を表すパラメータと、画像における車線の見え方のモデルとの関係を示す図である。It is a figure which shows the relationship between the parameter showing a lane shape, and the model of the appearance of the lane in an image. 車線形状のモデルの一例を示す図である。It is a figure which shows an example of the model of a lane shape. 区画線候補判定処理の動作フローチャートである。It is an operation flowchart of division line candidate determination processing. 車線検出処理を含む運転支援処理の動作フローチャートである。5 is an operation flowchart of driving support processing including lane detection processing. 上記の各実施形態またはその変形例による車線検出装置の制御部の各部の機能を実現するコンピュータプログラムが動作することにより、車線検出装置として動作するコンピュータの構成図である。It is a block diagram of the computer which operate | moves as a lane detection apparatus, when the computer program which implement | achieves the function of each part of the control part of the lane detection apparatus by said each embodiment or its modification operate | moves.

以下、図を参照しつつ、車線検出装置について説明する。最初に、車線を正確に検出することが困難な画像の例について説明する。   The lane detection device will be described below with reference to the drawings. First, an example of an image in which it is difficult to accurately detect a lane will be described.

図1(a)は、かすれた車線区画線及び補助線が写っている画像の一例を示す図である。画像100では、車両の近傍において、車両が走行している車線の右側の車線区画線101及び補助線102がかすれており、画像100上で車両近傍における車線区画線101及び補助線102の一部を識別することが困難となっている。さらに、車両の遠方では、画像100上で補助線102の各ブロック及びブロック間の間隔が小さくなるために、各ブロックが連結しているように見える。その結果として、補助線102が、補助線に特有の短破線であることを識別することが困難となっている。   FIG. 1A is a view showing an example of an image in which a blurred lane line and an auxiliary line are shown. In the image 100, the lane line 101 and the auxiliary line 102 on the right side of the lane in which the vehicle is traveling are blurred in the vicinity of the vehicle, and part of the lane line 101 and the auxiliary line 102 in the vicinity of the vehicle on the image 100 It has become difficult to identify Furthermore, in the distance of the vehicle, each block appears to be connected on the image 100 because the distance between the blocks of the auxiliary line 102 is small. As a result, it is difficult to identify that the auxiliary line 102 is a short broken line specific to the auxiliary line.

図1(b)は、補助線のブロック間の間隔が狭いために、画像110において補助線111の各ブロックが繋がっているように見える。そのため、画像110において、補助線111が補助線か車線区画線かを正確に識別することが困難となっている。   In FIG. 1B, the blocks of the auxiliary line 111 appear to be connected in the image 110 because the intervals between the blocks of the auxiliary line are narrow. Therefore, in the image 110, it is difficult to accurately identify whether the auxiliary line 111 is an auxiliary line or a lane line.

このように、1枚の画像からは、車線区画線及び補助線を正確に検出することが困難であり、その結果として、車線を検出することが困難なことがある。そこでこの車線検出装置は、最新の画像から車線区画線の候補を検出し、その候補に基づいて車線の形状を表すモデルを複数作成する。そしてこの車線検出装置は、複数のモデルのうち、直前の画像取得時において検出された車線の形状と最も類似するモデルを特定し、特定したモデルで表された車線形状を、最新の画像取得時での車両に搭載されたカメラから見た車線形状とする。   Thus, it is difficult to accurately detect lane markings and auxiliary lines from one image, and as a result, it may be difficult to detect a lane. Therefore, the lane detection device detects candidates for lane markings from the latest image, and creates a plurality of models representing the shape of the lane based on the candidates. Then, the lane detection device identifies a model most similar to the lane shape detected at the time of image acquisition immediately before among a plurality of models, and acquires the lane shape represented by the identified model as the latest image acquisition time Lane shape seen from the camera mounted on the vehicle.

図2は、車線検出装置の一つの実施形態である運転支援装置が搭載された車両の構成図である。
運転支援装置1は、車両10に搭載され、カメラ2及びディスプレイ3と、ネットワーク4によって互いに接続されている。なお、図2では、説明の都合のため、車両10の形状、サイズ及び運転支援装置1などの配置は、実際のものとは異なっている。
FIG. 2 is a block diagram of a vehicle equipped with a driving support device that is an embodiment of the lane detection device.
The driving assistance device 1 is mounted on a vehicle 10 and is connected to each other by a camera 2 and a display 3 and a network 4. In FIG. 2, for convenience of explanation, the shape and size of the vehicle 10 and the arrangement of the driving support device 1 and the like are different from actual ones.

本実施形態では、運転支援装置1は、カメラ2により車両10の前方を撮影して得られる画像から車両10が走行中の車線を検出する。そして運転支援装置1は、車両10がその車線からはみ出したときに、ディスプレイ3を介してドライバへ警告を発する。なお、運転支援装置1の詳細については後述する。   In the present embodiment, the driving support device 1 detects the lane in which the vehicle 10 is traveling from the image obtained by capturing the front of the vehicle 10 with the camera 2. Then, when the vehicle 10 runs out of the lane, the driving support device 1 issues a warning to the driver via the display 3. The details of the driving support device 1 will be described later.

カメラ2は、撮像部の一例であり、例えば、車両10の車室内に、車両10の前方へ向けて配置され、車両10の前方を表す画像を生成する。そのために、カメラ2は、2次元状に配置された複数の固体撮像素子を有するイメージセンサと、そのイメージセンサ上に車両10の前方の像を結像する結像光学系を有する。   The camera 2 is an example of an imaging unit, and is disposed, for example, in the cabin of the vehicle 10 toward the front of the vehicle 10, and generates an image representing the front of the vehicle 10. To that end, the camera 2 has an image sensor having a plurality of solid-state imaging devices arranged in a two-dimensional manner, and an imaging optical system for forming an image in front of the vehicle 10 on the image sensor.

カメラ2は、例えば、一定の時間間隔(例えば1/30秒)ごとに、車両10の前方の領域を撮影して、その前方の領域が表された画像を生成する。そしてカメラ2は、画像を生成する度に、その画像を、ネットワーク4を介して運転支援装置1へ送信する。   The camera 2 captures an area in front of the vehicle 10, for example, at fixed time intervals (for example, 1/30 seconds), and generates an image in which the area in front of the vehicle 10 is represented. Then, each time the camera 2 generates an image, the camera 2 transmits the image to the driving support device 1 via the network 4.

ディスプレイ3は、表示装置の一例であり、例えば、液晶ディスプレイとすることができる。ディスプレイ3は、車両10の車室内に表示画面がドライバに向くように配置される。例えば、ディスプレイ3は、インストルメントパネル内に配置される。あるいは、ディスプレイ3は、インストルメントパネルと独立して配置されてもよい。そしてディスプレイ3は、運転支援装置1からネットワーク4を介して受信した情報などを表示する。   The display 3 is an example of a display device, and can be, for example, a liquid crystal display. The display 3 is disposed in the compartment of the vehicle 10 so that the display screen faces the driver. For example, the display 3 is disposed in an instrument panel. Alternatively, the display 3 may be arranged independently of the instrument panel. Then, the display 3 displays information and the like received from the driving support device 1 via the network 4.

ネットワーク4は、車両10に搭載された様々な装置間で通信するためのネットワークであり、例えば、コントロールエリアネットワーク(CAN)に準じたネットワークとすることができる。   The network 4 is a network for communicating between various devices mounted on the vehicle 10, and can be, for example, a network based on a control area network (CAN).

図3は、運転支援装置1の概略構成図である。運転支援装置1は、記憶部11と、通信部12と、制御部13とを有する。   FIG. 3 is a schematic block diagram of the driving support device 1. The driving support device 1 includes a storage unit 11, a communication unit 12, and a control unit 13.

記憶部11は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部11は、制御部13で実行される各種コンピュータプログラム、例えば、車線検出を含む、運転支援処理のコンピュータプログラムを記憶する。さらに、記憶部11は、運転支援処理で使用される各種のデータを記憶する。さらに、記憶部11は、カメラ2により生成された画像を一定期間記憶してもよい。   The storage unit 11 includes, for example, semiconductor memories such as electrically rewritable non-volatile memory and volatile memory. The storage unit 11 stores various computer programs executed by the control unit 13, for example, computer programs of driving support processing including lane detection. Furthermore, the storage unit 11 stores various data used in the driving support process. Furthermore, the storage unit 11 may store the image generated by the camera 2 for a certain period.

通信部12は、カメラ2、ディスプレイ3及び車両制御ユニット(図示せず)などとネットワーク4を通じて通信する通信インターフェース及びその制御回路を有する。そして通信部12は、カメラ2からネットワーク4を介して受け取った画像を制御部13へわたす。また通信部12は、制御部13から受け取った警告メッセージをディスプレイ3へ出力する。さらに、通信部12は、車両10の挙動(速度、加速度またはステアリングの回転角など)を検知する各種センサからの情報をネットワーク4を介して受け取って、制御部13へわたしてもよい。   The communication unit 12 includes a communication interface that communicates with the camera 2, the display 3, a vehicle control unit (not shown), and the like through the network 4 and a control circuit thereof. Then, the communication unit 12 passes the image received from the camera 2 via the network 4 to the control unit 13. The communication unit 12 also outputs the warning message received from the control unit 13 to the display 3. Furthermore, the communication unit 12 may receive information from various sensors that detect the behavior of the vehicle 10 (speed, acceleration, rotation angle of steering, etc.) via the network 4 and send it to the control unit 13.

制御部13は、一つまたは複数のプロセッサとその周辺回路を有し、車線検出処理を含む運転支援処理を実行する。   The control unit 13 includes one or more processors and their peripheral circuits, and executes driving support processing including lane detection processing.

図4に、制御部13の機能ブロック図を示す。図4に示すように、制御部13は、区画線候補検出部21と、線種判定部22と、多重線状態更新部23と、車線形状パラメータ算出部24と、モデル生成部25と、区画線候補判定部26と、補正部27と、逸脱判定部28とを有する。制御部13が有するこれらの各部は、例えば、制御部13が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。あるいは、制御部13が有するこれらの各部は、ファームウェアとして実装されてもよい。あるいはまた、制御部13が有するこれらの各部は、専用の回路として実装されてもよい。なお、制御部13が有するこれらの各部のうち、逸脱判定部28以外の各部が車線検出処理に関連する。   FIG. 4 shows a functional block diagram of the control unit 13. As shown in FIG. 4, the control unit 13 includes a lane line candidate detection unit 21, a line type determination unit 22, a multiline state update unit 23, a lane shape parameter calculation unit 24, a model generation unit 25, and a section. A line candidate determination unit 26, a correction unit 27, and a deviation determination unit 28 are included. These units included in the control unit 13 are implemented, for example, as functional modules realized by a computer program executed on a processor included in the control unit 13. Alternatively, these units included in the control unit 13 may be implemented as firmware. Alternatively, these units included in the control unit 13 may be implemented as a dedicated circuit. Note that among the units included in the control unit 13, the units other than the departure determination unit 28 relate to the lane detection process.

区画線候補検出部21は、カメラ2から運転支援装置1が画像を受け取る度に、その画像上に写っている車線区画線の候補である区画線候補を検出する。   Each time the driving support apparatus 1 receives an image from the camera 2, the lane line candidate detection unit 21 detects a lane line candidate that is a candidate for a lane line appearing on the image.

図5は、カメラ2により得られる画像を模式的に示す図である。図5に示されるように、画像500では、車線区画線501及び補助線502は、画像500の垂直方向に沿っている。そして車線区画線501及び補助線502は、一般に、白色または黄色で道路上に描画されるので、周囲の路面よりも明るい。そのため、画像500上で、車線区画線501の輪郭及び補助線502の輪郭は、画像上で水平方向に輝度差を持つエッジとなる。   FIG. 5 is a view schematically showing an image obtained by the camera 2. As shown in FIG. 5, in the image 500, the lane markings 501 and the auxiliary lines 502 are along the vertical direction of the image 500. And since lane markings 501 and auxiliary lines 502 are generally drawn on the road in white or yellow, they are brighter than the surrounding road surface. Therefore, on the image 500, the outline of the lane marking 501 and the outline of the auxiliary line 502 become an edge having a luminance difference in the horizontal direction on the image.

そこで、区画線候補検出部21は、例えば、特開2013−120458号公報に開示されている候補線決定処理と同様の処理を実行することで、区画線候補を検出する。具体的には、区画線候補検出部21は、画像の各画素に対して、sobelフィルタまたはprewittフィルタなどのエッジ検出フィルタを水平方向のエッジを検出するために適用して、エッジ強度を算出する。そして区画線候補検出部21は、エッジ強度の絶対値が所定の閾値以上となる画素を、車線区画線または補助線の輪郭に相当する可能性があるエッジ画素として検出する。   Therefore, the parting line candidate detection unit 21 detects a parting line candidate by executing the same processing as the candidate line determination processing disclosed in, for example, JP 2013-120458A. Specifically, the dividing line candidate detection unit 21 applies an edge detection filter such as a sobel filter or a prewitt filter to each pixel of the image to detect an edge in the horizontal direction to calculate edge strength. . Then, the parting line candidate detection unit 21 detects a pixel for which the absolute value of the edge intensity is equal to or more than a predetermined threshold as an edge pixel that may correspond to the lane line or the outline of the auxiliary line.

エッジ画素が検出されると、区画線候補検出部21は、各エッジ画素に対してラベリング処理を実行することで、エッジ画素が連続するエッジ線を求める。なお、区画線候補検出部21は、検出されたエッジ画素の集合に対してハフ変換を適用することでエッジ線を検出してもよい。   When an edge pixel is detected, the parting line candidate detection unit 21 performs an labeling process on each edge pixel to obtain an edge line in which the edge pixels are continuous. The marking line candidate detection unit 21 may detect an edge line by applying a Hough transform to a set of detected edge pixels.

図6(a)は、図5に示された画像500から検出されたエッジ画素の一例を示す図であり、図6(b)は、図6(a)に示されたエッジ画素が連結されたエッジ線の一例を示す図である。図6(a)に示されるように、各エッジ画素611は、車線区画線501または補助線502の輪郭に沿って検出される。そのため、図6(b)に示されるように、各エッジ線612は、実線で描画された車線区画線全体、あるいは、破線で描画された車線区画線または補助線の一つのブロックの一辺に相当する線となる。なお、図6(a)では、説明の便宜上、個々のエッジ画素611が離れているように各エッジ画素611は表されているが、実際には、同一のエッジ線となる複数のエッジ画素は互いに隣接している。   6 (a) is a diagram showing an example of edge pixels detected from the image 500 shown in FIG. 5, and FIG. 6 (b) is a diagram in which the edge pixels shown in FIG. 6 (a) are connected. It is a figure which shows an example of the edge line. As shown in FIG. 6A, each edge pixel 611 is detected along the outline of the lane marking 501 or the auxiliary line 502. Therefore, as shown in FIG. 6B, each edge line 612 corresponds to the entire lane marking drawn by a solid line, or one side of one block of a lane marking or an auxiliary line drawn by a broken line. It becomes a line to In FIG. 6A, each edge pixel 611 is represented such that each edge pixel 611 is separated for convenience of explanation, but in actuality, a plurality of edge pixels which are the same edge line are Adjacent to each other.

区画線候補検出部21は、検出されたエッジ線のうち、車線区画線または補助線と無関係なエッジ線を削除する。例えば、車両10よりも右側に位置する車線区画線または補助線についての、車両10が走行している車線の中央に近い方(以下では、便宜上、内側と呼ぶ)の輪郭では、その輪郭の右側の方が、その輪郭の左側よりも明るい。逆に、車両10よりも左側に位置する車線区画線または補助線についての、車両10が走行している車線の中央から遠い方の輪郭では、その輪郭の左側の方が、その輪郭の右側よりも明るい。また、本実施形態では、カメラ2は、車両10の前方へ向けて取り付けられているので、カメラ2により得られる画像の右半分に、車両10よりも右側に相当する領域が写り、その画像の左半分に、車両10よりも左側に相当する領域が写っていると想定される。そこで、画像の右半分内に、車両10が走行中の車線の右側の車線区画線または補助線が写っていると想定される領域RRが設定される。同様に、画像の左半分内に、車両10が走行中の車線の左側の車線区画線または補助線が写っていると想定される領域RLが設定される。そして区画線候補検出部21は、検出されたエッジ線のうち、領域RRに含まれ、かつ、エッジ線の右側に隣接する画素の輝度の平均値がエッジ線の左側に隣接する画素の輝度の平均値よりも高いエッジ線を抽出する。同様に、区画線候補検出部21は、検出されたエッジ線のうち、領域RLに含まれ、かつ、エッジ線の左側に隣接する画素の輝度の平均値がエッジ線の右側に隣接する画素の輝度の平均値よりも高いエッジ線を抽出する。   The lane line candidate detection unit 21 deletes an edge line unrelated to the lane line or the auxiliary line among the detected edge lines. For example, in the outline of the lane line or auxiliary line located on the right side of the vehicle 10, which is closer to the center of the lane in which the vehicle 10 is traveling (hereinafter referred to as the inside for convenience) Is brighter than the left side of the contour. On the other hand, in the outline of the lane marking or auxiliary line located on the left side of the vehicle 10, which is farther from the center of the lane in which the vehicle 10 is traveling, the left side of the outline is more than the right side of the outline Too bright. Further, in the present embodiment, since the camera 2 is attached to the front of the vehicle 10, an area corresponding to the right side of the vehicle 10 is shown in the right half of the image obtained by the camera 2. It is assumed that an area corresponding to the left side of the vehicle 10 is shown in the left half. Therefore, in the right half of the image, an area RR is set where it is assumed that a lane line or an auxiliary line on the right side of the lane in which the vehicle 10 is traveling is shown. Similarly, in the left half of the image, an area RL is set in which it is assumed that a lane line or an auxiliary line on the left side of the lane in which the vehicle 10 is traveling is shown. Then, the dividing line candidate detection unit 21 determines that the average value of the brightness of the pixels adjacent to the right of the edge line is included in the region RR among the detected edge lines and the average value of the brightness of the pixels adjacent to the left of the edge line. Extract edge lines higher than the mean value. Similarly, among the detected edge lines, the dividing line candidate detection unit 21 is included in the region RL, and the average value of the luminance of the pixels adjacent to the left side of the edge line is adjacent to the right side of the edge line. Extract edge lines higher than the average value of luminance.

エッジ線が車線区画線の輪郭である場合、そのエッジ線は、ある程度の長さを有する。同様に、エッジ線が補助線の輪郭である場合も、そのエッジ線は、ある程度の長さを有する。ただし、補助線は短破線で表されるので、エッジ線が補助線の輪郭である場合には、エッジ線が破線で表された車線区画線である場合よりも短いと想定される。   If the edge line is a contour of a lane marking, the edge line has a certain length. Similarly, even if the edge line is an outline of the auxiliary line, the edge line has a certain length. However, since the auxiliary line is represented by a short broken line, it is assumed that if the edge line is an outline of the auxiliary line, it is shorter than the case where the edge line is a lane marking represented by a broken line.

そこで、区画線候補検出部21は、抽出したエッジ線のそれぞれについて、実空間での路面に沿った長さを調べ、その長さに応じて、そのエッジ線の種別を実線、破線、短破線、及びノイズの何れかに分類する。そして区画線候補検出部21は、ノイズと分類された非常に短いエッジ線を除外する。   Therefore, the dividing line candidate detection unit 21 examines the length along the road surface in real space for each of the extracted edge lines, and according to the length, the type of the edge line is a solid line, a broken line, or a short broken line And noise. Then, the dividing line candidate detection unit 21 excludes very short edge lines classified as noise.

着目するエッジ線の長さLLは、そのエッジ線の上側端点の画像上での位置を(x1,y1)、下側端点の画像上での位置を(x2,y2)とすると、次式で表される。
ただし、Hは、路面からカメラ2までの高さを表し、fyは、水平方向及び垂直方向の画素サイズを考慮した、垂直方向に関するカメラ2の焦点距離を表す。また、pは、路面に対するカメラ2のピッチ角を表す。そして(cx,cy)は、画像の中心、すなわち、カメラ2の光軸方向に相当する画像上の画素の座標を表す。
Assuming that the position of the upper end point of the edge line on the image is (x1, y1) and the position of the lower end point on the image is (x2, y2), expressed.
Here, H represents the height from the road surface to the camera 2, and fy represents the focal length of the camera 2 in the vertical direction, taking into account the horizontal and vertical pixel sizes. Also, p represents the pitch angle of the camera 2 with respect to the road surface. Then, (cx, cy) represents the center of the image, that is, the coordinates of the pixel on the image corresponding to the optical axis direction of the camera 2.

区画線候補検出部21は、抽出された各エッジ線について、そのエッジ線の長さLLに基づいて、例えば、以下のようにそのエッジ線を分類する。
長さLLが長実線長ThL1以上である場合:エッジ線種別=長実線
長さLLが長実線長ThL1未満、かつ、実線長ThL2以上である場合:エッジ線種別=実線
長さLLが実線長ThL2未満、かつ、破線長ThL3以上である場合:エッジ線種別=破線
長さLLが破線長ThL3未満、かつ、短破線長ThL4以上である場合:エッジ線種別=短破線
長さLLが短破線長ThL4未満である場合:エッジ線種別=ノイズ
なお、ThL1〜ThL4はあらかじめ定められた閾値である。ThL1及びThL2は、車線区画線が破線で表される場合の一つのブロックの長さよりも長い値に設定される。また、ThL3は、車線区画線が破線で表される場合の一つのブロックの長さよりも短い値に設定される。例えば、ThL1=20m、ThL2=5.5m、ThL3=3.6m、ThL4=1mに設定される。なおエッジ線種別は、そのエッジが表す車線区画線または補助線に含まれる一つのブロックの長さに対応する。
For each extracted edge line, the dividing line candidate detection unit 21 classifies the edge line as follows, for example, based on the length LL of the edge line.
When the length LL is longer than the long solid line length ThL1: edge line type = long solid line When the length LL is less than the long solid line length ThL1 and longer than the solid line length ThL2: edge line type = solid line Length LL is the solid line length If less than ThL2 and the broken line length ThL3 or more: edge line type = broken line If the length LL is less than the broken line length ThL3 and the short broken line length ThL4 or more: edge line type = short broken line Length LL is the short broken line When the length is less than ThL4: edge line type = noise Note that ThL1 to ThL4 are predetermined threshold values. ThL1 and ThL2 are set to values longer than the length of one block when the lane markings are represented by broken lines. Further, ThL3 is set to a value shorter than the length of one block when the lane markings are represented by broken lines. For example, ThL1 = 20 m, ThL2 = 5.5 m, ThL3 = 3.6 m, and ThL4 = 1 m. The edge line type corresponds to the length of one block included in the lane markings or auxiliary lines represented by the edge.

図7(a)は、領域RR、RLの一例と、抽出されるエッジ線の一例を示す図である。また図7(b)は、領域RR、RL内でノイズ以外のエッジ線の一例を示す図である。図7(a)に示されるように、画像700の右半分において、車両10の進行方向と略平行、かつ、車両10よりも右側に相当する領域を含むように、領域RRが設定される。同様に、画像700の左半分において、車両10の進行方向と略平行、かつ、車両10よりも左側に相当する領域を含むように、領域RLが設定される。そして検出されたエッジ線のうち、領域RRまたは領域RLに含まれるエッジ線701が抽出される。   FIG. 7A is a diagram showing an example of the regions RR and RL and an example of the edge line to be extracted. FIG. 7B is a diagram showing an example of edge lines other than noise in the regions RR and RL. As shown in FIG. 7A, in the right half of the image 700, the region RR is set so as to include a region substantially parallel to the traveling direction of the vehicle 10 and corresponding to the right side of the vehicle 10. Similarly, in the left half of image 700, region RL is set to include a region substantially parallel to the traveling direction of vehicle 10 and corresponding to the left side of vehicle 10. Then, among the detected edge lines, an edge line 701 included in the area RR or the area RL is extracted.

また、図7(b)に示されるように、画像700において、領域RRまたはRLに含まれるエッジ線のうち、エッジ線種別がノイズでなく、かつ、そのエッジ線の内側よりも外側の輝度の方が高いエッジ線702が抽出される。   Further, as shown in FIG. 7B, in the image 700, among the edge lines included in the region RR or RL, the edge line type is not noise, and of the luminance outside the inside of the edge line. Edge lines 702 that are higher are extracted.

区画線候補検出部21は、領域RR及びRLのそれぞれについて、抽出されたエッジ線を、同一の車線区画線または補助線に対応するように、車両10の進行方向に沿って一列に整列しているエッジ線ごとにグループ化する。そして区画線候補検出部21は、エッジ線のグループを、それぞれ、複合エッジ線とする。   The lane line candidate detection unit 21 aligns the extracted edge lines in one row along the traveling direction of the vehicle 10 so as to correspond to the same lane line or auxiliary line for each of the areas RR and RL. Group by edge line. Then, the parting line candidate detection unit 21 sets groups of edge lines as compound edge lines.

本実施形態では、区画線候補検出部21は、領域RR及びRLについて同様の処理を実行するので、以下では、領域RRについて行われる処理について説明する。区画線候補検出部21は、領域RR内に含まれるエッジ線のうちの何れかを最初に着目するエッジ線とする。その際、区画線候補検出部21は、下端が最も下側に位置するエッジ線、すなわち、車両10に最も近いエッジ線を最初に着目するエッジ線とすることが好ましい。画像上では、車両10に近い位置ほど大きく写るので、画像の下端に近いエッジ線ほど、車線区画線または補助線を正確に表している可能性が高いためである。   In the present embodiment, since the parting line candidate detection unit 21 executes the same processing for the regions RR and RL, the processing to be performed for the region RR will be described below. The dividing line candidate detection unit 21 sets one of the edge lines included in the region RR as an edge line to which attention is first focused. At that time, it is preferable that the parting line candidate detection unit 21 sets an edge line whose lower end is located on the lowermost side, that is, an edge line closest to the vehicle 10 as an edge line to which attention is first focused. On the image, the larger the position closer to the vehicle 10, the larger the edge line closer to the lower end of the image, and the more likely it is that the lane line or the auxiliary line is accurately represented.

区画線候補検出部21は、領域RR内のグループ化されていない他のエッジ線のそれぞれについて、そのエッジ線の下端側の端点と着目するエッジ線の上端側の端点間の路面上の奥行方向の距離差DZ及び奥行方向と直交する方向の距離差DXを算出する。例えば、区画線候補検出部21は、次式に従って、距離差DZ及びDXを算出する。
ここで、cは、車線の曲率を表す。また、fxは、水平方向及び垂直方向の画素サイズを考慮した、水平方向に関するカメラ2の焦点距離を表す。
The dividing line candidate detection unit 21 determines the depth direction on the road surface between the lower end side end point of the edge line and the upper end side end point of the focused edge line for each of the other non-grouped edge lines in the region RR. And the distance difference DX in the direction orthogonal to the depth direction. For example, the dividing line candidate detection unit 21 calculates the distance differences DZ and DX according to the following equation.
Here, c represents the curvature of the lane. Also, fx represents the focal length of the camera 2 in the horizontal direction, taking into account the horizontal and vertical pixel sizes.

区画線候補検出部21は、距離差DZが閾値ThDZ以下であり、かつ、距離差DXが閾値ThDX以下となるエッジ線を特定する。区画線候補検出部21は、特定したエッジ線のエッジ線種別と着目するエッジ線のエッジ線種別が同一であるか、また、着目するエッジ線のエッジ線種別が短破線である場合、その特定したエッジ線を着目するエッジ線と同じグループに含める。そして区画線候補検出部21は、その特定したエッジ線を次の着目するエッジ線とする。なお、閾値ThDZは、例えば、6mに設定され、閾値ThDXは、例えば、10cmに設定される。一方、区画線候補検出部21は、着目するエッジ線と同じグループに他のエッジ線を含める上記の条件を満たすエッジ線が無ければ、着目するエッジ線を含むグループを一つの複合エッジ線とする。そして区画線候補検出部21は、何れの複合エッジ線にも含まれていない他のエッジ線のなかの一つを次に着目するエッジ線とする。例えば、区画線候補検出部21は、何れのグループにも分類されていない他のエッジ線のうち、下端が最も下側に位置するエッジ線を次に着目するエッジ線とする。そして区画線候補検出部21は、その着目するエッジ線を含むグループを新たに作成して、上記と同様のグループ化処理を実行する。   The dividing line candidate detection unit 21 specifies an edge line for which the distance difference DZ is equal to or less than the threshold ThDZ and the distance difference DX is equal to or less than the threshold ThDX. If the edge line type of the identified edge line and the edge line type of the focused edge line are the same or if the edge line type of the focused edge line is a short broken line, the parting line candidate detection unit 21 identifies the edge line type Included edge line in the same group as the focused edge line. Then, the parting line candidate detection unit 21 sets the identified edge line as the next focused edge line. The threshold ThDZ is set to, for example, 6 m, and the threshold ThDX is set to, for example, 10 cm. On the other hand, if there is no edge line satisfying the above condition that includes another edge line in the same group as the focused edge line, the parting line candidate detection unit 21 sets the group including the focused edge line as one compound edge line. . Then, the parting line candidate detection unit 21 sets one of the other edge lines not included in any compound edge line as an edge line to be focused next. For example, among the other edge lines not classified into any group, the dividing line candidate detection unit 21 sets an edge line whose lower end is located on the lowermost side as an edge line to be focused next. Then, the parting line candidate detection unit 21 newly creates a group including the focused edge line, and executes the same grouping processing as described above.

区画線候補検出部21は、何れのグループにも分類されていないエッジ線がなくなるまで、上記のグループ化処理を繰り返すことで、一以上の複合エッジ線を求める。また、区画線候補検出部21は、各複合エッジ線について、その複合エッジ線に含まれるエッジ線のうちの最も長いエッジ線のエッジ線種別を、その複合エッジ線のエッジ線種別とする。あるいは、区画線候補検出部21は、複合エッジ線に含まれるエッジ線のうちの最も下側、すなわち、車両10に最も近いエッジ線のエッジ線種別を、その複合エッジ線のエッジ線種別としてもよい。   The marking line candidate detection unit 21 obtains one or more composite edge lines by repeating the above grouping processing until there are no edge lines not classified into any group. Further, for each compound edge line, the parting line candidate detection unit 21 sets the edge line type of the longest edge line among edge lines included in the compound edge line as the edge line type of the compound edge line. Alternatively, the parting line candidate detection unit 21 sets the edge line type of the edge line closest to the vehicle 10 among the edge lines included in the compound edge line as the edge line type of the compound edge line. Good.

図8は、図7(b)に示されたエッジ線の例から求められた複合エッジ線の一例を示す図である。この例では、領域RR内に二つの複合エッジ線801、802が求められる。また、領域RL内にも、二つの複合エッジ線803、804が求められる。   FIG. 8 is a view showing an example of a composite edge line obtained from the example of the edge line shown in FIG. 7 (b). In this example, two composite edge lines 801 and 802 are determined in the region RR. In addition, two combined edge lines 803 and 804 are also required in the region RL.

複合エッジ線が求められると、区画線候補検出部21は、領域RR及びRLのそれぞれについて、最も内側に位置する複合エッジ線を、車線形状の推定に用いる区画線候補とする。例えば、図8に示された例では、複合エッジ線801と複合エッジ線803が区画線候補となる。区画線候補検出部21は、例えば、領域RR及びRLのそれぞれについて、その領域内の各複合エッジ線について、その複合エッジ線内の最も下側のエッジ線の下端についての車両10の進行方向と直交する方向(以下、水平方向と呼ぶ)の実空間での座標を算出する。そして区画線候補検出部21は、領域RR及びRLのそれぞれについて、その座標が車両10の中心に最も近い複合エッジ線を区画線候補とする。これにより、車両10が走行中の車線についての車線区画線の外側に、隣接する車線の補助線が設けられている場合でも、その補助線が区画線候補に設定されることが抑制される。そのため、その隣接車線の補助線により車線の幅を誤認識することが抑制される。なお、複合エッジ線内で最も下側のエッジ線の下端の画像上の座標を(xs,ys)とすると、その下端の水平方向の実空間での座標Xsは、次式に従って算出される。
ただし、領域RR、すなわち、車両10の右側の複合エッジ線についてはk=1であり、領域RL、すなわち、車両10の左側の複合エッジ線についてはk=-1である。
When the compound edge line is determined, the parting line candidate detection unit 21 sets the compound edge line located at the innermost position as the parting line candidate used for estimation of the lane shape for each of the regions RR and RL. For example, in the example shown in FIG. 8, the composite edge line 801 and the composite edge line 803 are division line candidates. For each of the areas RR and RL, the dividing line candidate detection unit 21 determines, for each composite edge line in the area, the traveling direction of the vehicle 10 with respect to the lower end of the lowermost edge line in the composite edge line. Coordinates in the real space in the orthogonal direction (hereinafter referred to as the horizontal direction) are calculated. Then, the dividing line candidate detection unit 21 sets a compound edge line whose coordinates are closest to the center of the vehicle 10 as dividing line candidates for each of the areas RR and RL. As a result, even when an auxiliary line of an adjacent lane is provided outside the lane line of the lane in which the vehicle 10 is traveling, setting of the auxiliary line as a line candidate is suppressed. Therefore, it is suppressed that the width | variety of a lane is misrecognized by the auxiliary line of the adjacent lane. If the coordinates of the lower end of the lowermost edge line in the compound edge line on the image are (xs, ys), the coordinate Xs in the horizontal real space of the lower end is calculated according to the following equation.
However, k = 1 for the region RR, ie, the compound edge line on the right side of the vehicle 10, and k = −1 for the region RL, ie, the compound edge line on the left side of the vehicle 10.

上記のように、車両10の右側と左側のそれぞれについて、複合エッジ線のうちの最も内側の複合エッジ線が区画線候補に設定される。一方、道路上に、車線区画線と別個に、減速標示といった補助線が設けられる場合、車線区画線よりも内側に補助線が存在する。そのため、画像において車線区画線と補助線の両方が識別可能に写っている場合、区画線候補よりも外側の複合エッジ線が本当の車線区画線を表していると想定される。   As described above, for each of the right side and the left side of the vehicle 10, the innermost composite edge line of the composite edge lines is set as the division line candidate. On the other hand, when an auxiliary line such as a deceleration mark is provided on the road separately from the lane line, the auxiliary line exists inside the lane line. Therefore, it is assumed that the compound edge line outside the candidate for the lane line represents a true lane line if both the lane line and the auxiliary line are identifiably captured in the image.

そこで、区画線候補検出部21は、領域RR及びRLのそれぞれについて、区画線候補よりも、水平方向に沿って外側に、実空間で車線区画線または補助線一本分に相当する探索範囲を設定する。探索範囲[Xmin,Xmax]は、例えば、次式に従って設定される。
ここで、Mmin、Mmaxは、例えば、10cm、50cmに設定される。
Therefore, the dividing line candidate detection unit 21 searches the area corresponding to one lane dividing line or one auxiliary line in real space outside the dividing line candidates in the horizontal direction with respect to each of the areas RR and RL. Set The search range [Xmin, Xmax] is set, for example, according to the following equation.
Here, Mmin and Mmax are set to, for example, 10 cm and 50 cm.

区画線候補検出部21は、車両10の右側、すなわち、領域RRについて、その複合エッジ線に含まれる最も下側のエッジ線の下端の水平方向の座標が探索範囲に含まれる、区画線候補以外の複合エッジ線を抽出する。そして区画線候補検出部21は、抽出した複合エッジ線のうちで、その下端の奥行方向の座標が最も車両10に近い複合エッジ線を特定する。特定された複合エッジ線は、車線区画線の内側の輪郭を表している可能性が高い。そのため、区画線候補検出部21は、特定した複合エッジ線を主区画線として、記憶部11に記憶する。また、区画線候補検出部21は、区画線候補に含まれる最も下側のエッジ線の下端の水平方向の座標と主区画線に含まれる最も下側のエッジ線の下端の水平方向の座標の差を補正量DXRとして記憶部11に記憶する。さらに、区画線候補検出部21は、主区画線の検出回数CSF Rを1インクリメントするとともに、主区画線の検出に連続して失敗した数を表す主区画線ロスト回数CSR Rを0にリセットする。なお、複合エッジ線に含まれる最も下側のエッジ線の下端の水平方向の座標が探索範囲内となる複合エッジ線が存在しない場合には、区画線候補検出部21は、主区画線は無いと判断する。そして区画線候補検出部21は、主区画線の検出に連続して失敗した数を表す主区画線ロスト回数CSR Rを1インクリメントする。区画線候補検出部21は、主区画線の検出回数CSF R及び主区画線ロスト回数CSR Rを記憶部11に記憶する。 The parting line candidate detection unit 21 is other than the parting line candidate in which the horizontal coordinate of the lower end of the lowermost edge line included in the compound edge line is included in the search range on the right side of the vehicle 10, that is, for the region RR. Extract complex edge lines of Then, among the extracted compound edge lines, the parting line candidate detection unit 21 identifies a compound edge line whose coordinate in the depth direction at the lower end is closest to the vehicle 10. The identified composite edge line is likely to represent the inside contour of the lane marking. Therefore, the parting line candidate detection unit 21 stores the identified composite edge line in the storage unit 11 as a main parting line. In addition, the parting line candidate detection unit 21 is configured such that the horizontal coordinate of the lower end of the lowermost edge line included in the parting line candidate and the horizontal coordinate of the lower end of the lowermost edge line included in the main division line stored in the storage unit 11 the difference as a correction amount DX R. Furthermore, the marking line candidate detection unit 21 increments the number of times of detection of the main marking line C SF R by one, and sets the number of times of main marking line loss C SR R representing the number of continuous failures to detect the main marking line to 0. Reset. In the case where there is no compound edge line in which the horizontal coordinate of the lower end of the lowermost edge line included in the compound edge line falls within the search range, the parting line candidate detection unit 21 has no main parting line I will judge. Then, the parting line candidate detection unit 21 increments by one the main parting line lost frequency C SR R representing the number of continuous failures in detection of the main parting line. The lane line candidate detection unit 21 stores the number of times of detection of the main lane line C SF R and the number of times of the main lane line loss C SR R in the storage unit 11.

区画線候補検出部21は、車両10の左側、すなわち、領域RLについても、同様に主区画線を特定する。そして区画線候補検出部21は、車両10の左側についての補正量DXL、主区画線の検出回数CSF L及び主区画線ロスト回数CSR Lをそれぞれ更新し、記憶部11に記憶する。 The dividing line candidate detection unit 21 similarly specifies the main dividing line also on the left side of the vehicle 10, that is, the region RL. Then, the lane line candidate detection unit 21 updates the correction amount DX L for the left side of the vehicle 10, the number of times of detection of the main lane line C SF L and the number of times of the main lane line loss C SR L , and stores them in the storage unit 11.

線種判定部22は、車両10の左右の区画線候補のそれぞれについて、その区画線候補の標示線種別を判定する。標示線種別は、区画線候補が検出された画像からの情報に基づく判定により、区画線候補が補助線か否かを表すものであり、区画線候補が車線区画線か補助線かの最終的な判断結果を表すものではない。標示線種別は、多重線状態の更新に利用される。本実施形態では、線種判定部22は、着目する区画線候補の線種が短破線であり、かつ、その区画線候補に含まれるエッジ線の数Nが2以上である場合、着目する区画線候補の標示線種別は補助線であると判定する。また、線種判定部22は、それ以外の場合、着目する区画候補線の標示線種別は通常線であると判定する。そして線種判定部22は、各区画線候補について、その区画線候補が補助線か通常線かの判定結果を表すフラグを記憶部11に記憶する。   The line type determination unit 22 determines, for each of the left and right dividing line candidates of the vehicle 10, the indication line type of the dividing line candidate. The indication line type indicates whether the division line candidate is an auxiliary line or not by determination based on the information from the image in which the division line candidate is detected, and the final judgment whether the division line candidate is a lane line or an auxiliary line Does not represent the result of The indicator type is used to update the multiline state. In the present embodiment, the line type determination unit 22 determines the section to which attention is paid when the line type of the target division line candidate is a short broken line and the number N of edge lines included in the division line candidate is two or more. The marking line type of the line candidate is determined to be an auxiliary line. Further, in other cases, the line type determination unit 22 determines that the indicator line type of the section candidate line of interest is a normal line. Then, the line type determination unit 22 stores, in the storage unit 11, a flag indicating the determination result as to whether the dividing line candidate is an auxiliary line or a normal line for each dividing line candidate.

表1は、区画線候補のエッジ線種別と区画線候補に含まれるエッジ線の数の組合せと、標示線種別との対応関係を示すテーブルである。
Table 1 is a table showing the correspondence between the combination of the edge line type of the dividing line candidate and the number of edge lines included in the dividing line candidate and the indication line type.

多重線状態更新部23は、カメラ2から画像が得られる度に、車両10の左右のそれぞれについて、車線区画線及び補助線の検出状態を表す多重線状態を更新する。   Every time an image is obtained from the camera 2, the multiple line state update unit 23 updates multiple line states representing the detected states of the lane markings and the auxiliary lines for each of the left and right of the vehicle 10.

一般に、補助線は、ある程度の長さを持つ区間にわたって設けられるので、そのような区間を車両10が走行している場合、連続して得られる複数の画像にわたって補助線が写ることが想定される。このような場合、理想的には、車両10の左右のそれぞれについて、車線区画線と補助線とがカメラ2により撮影された画像に写るので、領域RR及びRLのそれぞれにおいて、複数の複合エッジ線が存在する、すなわち、画像から、多重線が検出される。しかし、実際には、摩耗などにより、補助線がかすれていることがある。このような場合には、車両10が補助線が設けられた区間を走行していても、補助線が写った複数の画像の間に、補助線が写らない画像が得られることがある。そのため、直前までの画像において補助線が検出されており、かつ、最新の画像において補助線が検出されなかったとしても、実際に補助線が設けられた区間が終了したとは限らない。そこで、多重線状態更新部23は、直近の1枚以上の画像における補助線の検出結果と、最新の画像における補助線の検出結果とに応じて、時系列的に多重線の検出状態の変化を記録できるように多重線状態を更新する。なお、以下では、車両10の右側についての多重線状態の更新について説明するが、多重線状態更新部23は、車両10の左側についても同様の処理を行って多重線状態を更新する。   In general, the auxiliary line is provided over a section having a certain length, so when the vehicle 10 is traveling in such a section, it is assumed that the auxiliary line is projected over a plurality of continuously obtained images . In such a case, ideally, for each of the left and right sides of the vehicle 10, the lane markings and the auxiliary lines appear in the image captured by the camera 2. Therefore, in each of the regions RR and RL, a plurality of composite edge lines Is present, ie, multiple lines are detected from the image. However, in practice, the auxiliary wire may be blurred due to wear and the like. In such a case, even if the vehicle 10 travels in a section provided with the auxiliary line, an image in which the auxiliary line is not captured may be obtained among a plurality of images in which the auxiliary line is captured. Therefore, even if an auxiliary line is detected in the images up to immediately before and no auxiliary line is detected in the latest image, the section in which the auxiliary line is actually provided does not necessarily end. Therefore, the multiline state update unit 23 changes the detection state of the multiple line in time series according to the detection result of the auxiliary line in the latest one or more images and the detection result of the auxiliary line in the latest image. Update the multiline state so that you can record In the following, updating of the multiline state on the right side of the vehicle 10 will be described, but the multiline state updating unit 23 performs the same processing on the left side of the vehicle 10 to update the multiline state.

図9は、多重線状態の遷移の一例を表す図である。図9に示されるように、本実施形態では、多重線状態として、4種類の状態901〜904が定義される。状態901(多重線無し)は、多重線が無い状態を表す。状態902(発見)は、多重線が検出された状態を表す。また、状態903(安定)は、多重線が安定的に検出されている状態を表す。そして状態904(ロスト)は、一旦検出された多重線を検出し損ねた状態を表す。各状態から遷移可能な状態及び遷移する条件は予め定められている。例えば、状態901(多重線無し)からは状態902(発見)へ遷移可能となっている。また、状態902(発見)からは状態901(多重線無し)または状態903(安定)へ遷移可能となっている。同様に、状態903(安定)からは、状態902(発見)または状態904(ロスト)へ遷移可能となっている。そして状態904(ロスト)からは、状態901(多重線無し)へ遷移可能となっている。   FIG. 9 is a diagram illustrating an example of the transition of the multiline state. As shown in FIG. 9, in the present embodiment, four types of states 901 to 904 are defined as multiline states. A state 901 (without multiple lines) represents a state without multiple lines. State 902 (discovery) represents the state in which multiple lines have been detected. Further, the state 903 (stable) represents a state in which multiple lines are stably detected. A state 904 (lost) indicates a state in which the multiple line once detected is missed. The states that can be transitioned from each state and the transition conditions are predetermined. For example, from state 901 (without multiple lines), transition to state 902 (discovery) is possible. Also, transition from the state 902 (discovery) to the state 901 (without multiline) or the state 903 (stable) is possible. Similarly, from state 903 (stable), transition to state 902 (discovered) or state 904 (lost) is possible. Then, from state 904 (lost), transition to state 901 (without multiple lines) is possible.

状態901から状態902へ遷移する条件は、最新の画像において検出された区画線候補の標示線種別が補助線であることである。一方、状態901において、最新の画像において検出された区画線候補の標示線種別が通常線である場合、状態901が維持される。   The condition for transition from the state 901 to the state 902 is that the indicator line type of the division line candidate detected in the latest image is an auxiliary line. On the other hand, if the marking line type of the dividing line candidate detected in the latest image is the normal line in the state 901, the state 901 is maintained.

また、状態902から状態901へ遷移する条件は、最新の画像において検出された区画線候補の標示線種別が通常線であることである。一方、状態902から状態903へ遷移する条件は、最新の画像において検出された区画線候補の標示線種別が補助線であり、かつ、その画像の時点での主区画線の検出回数CSF Rが所定の回数閾値ThN1以上となることである。なお、回数閾値ThN1は、例えば、1〜5に設定される。これらの条件が満たされない場合、すなわち、最新の画像において検出された区画線候補の標示線種別が補助線であり、かつ、その画像の時点での主区画線の検出回数CSF Rが回数閾値ThN1未満か主区画線が検出されていない場合、状態902が維持される。 Further, the condition for transitioning from the state 902 to the state 901 is that the marking line type of the division line candidate detected in the latest image is a normal line. On the other hand, the transition condition from state 902 to state 903 is that the indicator line type of the dividing line candidate detected in the latest image is an auxiliary line, and the number of times of detection of the main dividing line at the time of the image C SF R Is equal to or greater than a predetermined number threshold ThN1. The number threshold ThN1 is set to, for example, 1 to 5. If these conditions are not satisfied, that is, the indicator line type of the dividing line candidate detected in the latest image is an auxiliary line, and the number of times of detection of the main dividing line at the time of the image C SF R is the number threshold value If less than ThN1 or the main dividing line is not detected, the state 902 is maintained.

また、状態903から状態902へ遷移する条件は、最新の画像において検出された区画線候補の標示線種別が補助線であり、かつ、主区画線ロスト回数CSR Rが所定の閾値ThN2以上となることである。なお、閾値ThN2は、例えば、20〜60に設定される。一方、状態903から状態904へ遷移する条件は、最新の画像において検出された区画線候補の標示線種別が通常線であることである。これらの条件が満たされない場合、すなわち、最新の画像において検出された区画線候補の標示線種別が補助線であり、かつ、主区画線ロスト回数CSR Rが閾値ThN2未満である場合、状態903が維持される。 The condition for transitioning from state 903 to state 902 is that the indicator line type of the dividing line candidate detected in the latest image is an auxiliary line, and the main dividing line loss frequency C SR R is a predetermined threshold value ThN2 or more. It is to become. The threshold ThN2 is set to, for example, 20 to 60. On the other hand, the condition for transitioning from the state 903 to the state 904 is that the indicator line type of the division line candidate detected in the latest image is a normal line. If these conditions are not satisfied, that is, if the marking line type of the dividing line candidate detected in the latest image is an auxiliary line and the main dividing line loss frequency C SR R is less than the threshold ThN 2, the state 903 Is maintained.

さらに、状態904から状態903へ遷移する条件は、最新の画像において検出された区画線候補の標示線種別が補助線であることである。一方、状態904から状態901へ遷移する条件は、状態904が維持された回数が所定回数以上連続することである。なお、所定回数は、例えば、5〜15に設定される。状態904から状態901へ遷移する場合、多重線状態更新部23は、検出回数CSF Rを0にリセットする。これらの条件が満たされない場合、すなわち、最新の画像において検出された区画線候補の標示線種別が通常線であり、かつ、状態904が維持された回数が所定回数未満である場合、状態904が維持される。そして状態904が維持された回数が1インクリメントされる。 Furthermore, the condition for transitioning from the state 904 to the state 903 is that the indicator line type of the division line candidate detected in the latest image is an auxiliary line. On the other hand, the condition for transition from the state 904 to the state 901 is that the number of times the state 904 is maintained continues for a predetermined number of times or more. The predetermined number of times is set to, for example, 5 to 15. If a transition from state 904 to state 901, multiplet state updating unit 23 resets the number of times of detection C SF R 0. If these conditions are not satisfied, that is, if the marking line type of the dividing line candidate detected in the latest image is a normal line, and the number of times the state 904 is maintained is less than a predetermined number of times, the state 904 is Maintained. Then, the number of times the state 904 is maintained is incremented by one.

多重線状態更新部23は、制御部13がカメラ2から画像を取得する度に、その画像から検出された区画線候補の標示線種別などと直前の多重線状態とに基づき、図9に示された遷移図に従って、車両10の左右それぞれについて、多重線状態を更新する。そして多重線状態更新部23は、車両10の左右それぞれについて、更新された多重線状態を表す情報を記憶部11に記憶する。   Each time the control unit 13 acquires an image from the camera 2, the multiple line state update unit 23 is shown in FIG. 9 based on the marking line type of the division line candidate detected from the image and the preceding multiple line state. The multiline state is updated for each of the left and right of the vehicle 10 according to the transition diagram. Then, the multiple line state update unit 23 stores, in the storage unit 11, information representing the updated multiple line state for each of the left and right of the vehicle 10.

車線形状パラメータ算出部24は、制御部13がカメラ2から画像を取得する度に、その画像について求められた区画線候補に基づいて、車両10が走行している車線の形状を表す車線形状パラメータを算出する。   The lane shape parameter calculation unit 24 is a lane shape parameter that represents the shape of the lane in which the vehicle 10 is traveling, based on the division line candidate obtained for the image each time the control unit 13 acquires an image from the camera 2 Calculate

本実施形態では、車線形状パラメータ算出部24は、車線形状を表すパラメータとして、車線幅W、道路曲率c、カメラ2から車両10が走行中の車線の中心までの距離(以下、中心距離と呼ぶ)e、カメラ2の方位角t、及び、カメラ2の俯角pを算出する。   In the present embodiment, the lane shape parameter calculation unit 24 uses the lane width W, the road curvature c, the distance from the camera 2 to the center of the lane in which the vehicle 10 is traveling (hereinafter referred to as the center distance) E) The azimuth angle t of the camera 2 and the depression angle p of the camera 2 are calculated.

図10は、車線形状を表すパラメータと、画像における車線の見え方のモデルとの関係を示す図である。図10に示されるように、曲率半径R(=1/c)を持ち、幅Wの車線1000が、路面からの高さH、車線1000の中央からの距離eの位置にある原点Oに設けられ、方位角t及び俯角pの方向を向いたカメラ2により撮影された画像1001に写っているとする。なお、図10において、カメラ2の光軸方向がZcで表される。この場合、推定の対象となる道路上の区画線候補に対応する線と、画像上での位置(xi,yi)との関係を表すモデル式は、例えば次式で与えられる。
ただし、画像1001の座標系では、水平座標xについて右向きを正とし、かつ、垂直座標yについて下向きを正とする。そして画像1001の左上端画素を原点(0,0)とする。また、(5)式において、パラメータkは、車両10の右側か左側かを表すパラメータであり、左側であればk=-1、右側であればk=1とする。
FIG. 10 is a diagram showing the relationship between parameters representing the lane shape and a model of how the lane looks in the image. As shown in FIG. 10, a lane 1000 having a radius of curvature R (= 1 / c) and a width W is provided at an origin O located at a height H from the road surface and a distance e from the center of the lane 1000 It is assumed that the image is captured in an image 1001 captured by the camera 2 facing the azimuth angle t and the depression angle p. In FIG. 10, the optical axis direction of the camera 2 is represented by Zc. In this case, a model equation representing the relationship between the line corresponding to the dividing line candidate on the road to be estimated and the position (x i , y i ) on the image is given by, for example, the following equation.
However, in the coordinate system of the image 1001, the right direction of the horizontal coordinate x is positive, and the vertical direction y is positive. Then, the upper left end pixel of the image 1001 is set as the origin (0, 0). Further, in the equation (5), the parameter k is a parameter indicating whether the vehicle 10 is on the right side or the left side, and k = −1 for the left side and k = 1 for the right side.

(5)式は非線形であるため、まず、車線形状パラメータ算出部24は、車線形状のパラメータ(W,c,e,t,p)で(5)式を線形近似する。この線形近似式は次式で表される。
ここで、siは、(xi,yi)についての残差であり、(W0,c0,e0,t0,p0)は、それぞれ、(W,c,e,t,p)の初期値である。この初期値は、例えば、直前の画像取得時における車線形状のパラメータ値とすることができる。
Since the equation (5) is non-linear, first, the lane shape parameter calculator 24 linearly approximates the equation (5) with the parameters (W, c, e, t, p) of the lane shape. This linear approximation is expressed by the following equation.
Where s i is the residual for (x i , y i ), and (W 0, c 0, e 0, t 0, p 0) are the initial values of (W, c, e, t, p) respectively It is. This initial value can be, for example, a parameter value of the lane shape at the time of image acquisition immediately before.

車線形状パラメータ算出部24は、得られた線形近似式に、各区画線候補に含まれる各エッジ線上のエッジ画素の座標(xL i,yL i)、(xR i,yR i)を代入して、最小二乗法でパラメータ解を求める。そして車線形状パラメータ算出部24は、パラメータ解を次の初期値として同様にパラメータ解を求めるように、各パラメータについてのパラメータ解と初期値の差の絶対値である偏差(ΔW,Δc,Δe,Δt,Δp)が閾値以下になるまで処理を繰り返す。そして車線形状パラメータ算出部24は、偏差(ΔW,Δc,Δe,Δt,Δp)が閾値以下となったときのパラメータ値(Wr,cr,er,tr,pr)を、車線形状のパラメータ(W,c,e,t,p)とする。 The lane shape parameter calculation unit 24 calculates the coordinates (x L i , y L i ) and (x R i , y R i ) of the edge pixels on each edge line included in each lane line candidate according to the obtained linear approximation equation. Substituting and finding the parameter solution by the least squares method. Then, the lane shape parameter calculation unit 24 obtains deviations (ΔW, Δc, Δe, which are absolute values of differences between the parameter solutions for the respective parameters and the initial values so that the parameter solutions are similarly obtained as the next initial values. The process is repeated until Δt, Δp) becomes less than or equal to the threshold. Then, the lane shape parameter calculation unit 24 calculates the parameter values (Wr, cr, er, tr, pr) when the deviations (.DELTA.W, .DELTA.c, .DELTA.e, .DELTA.t, .DELTA.p) become equal to or less than the threshold as the lane shape parameter (W). , c, e, t, p).

車線形状パラメータ算出部24は、特開2013−120458号公報に開示されている道路状推定処理の手順と同様の手順を実行することで、この繰り返し演算を実行でき、車線形状のパラメータ(W,c,e,t,p)を求めることができる。あるいは、車線形状パラメータ算出部24は、(5)式または(6)式に対して他の勾配法またはシミュレーティッドアニーリングといった他の最適化手法を適用することで、車線形状のパラメータ(W,c,e,t,p)を求めてもよい。車線形状パラメータ算出部24は、車線形状のパラメータ(W,c,e,t,p)を記憶部11に記憶する。   The lane shape parameter calculation unit 24 can execute this repetitive calculation by executing the same procedure as the procedure of the road state estimation processing disclosed in Japanese Patent Laid-Open No. 2013-120458, and the lane shape parameter (W, c, e, t, p) can be obtained. Alternatively, the lane shape parameter calculation unit 24 applies the lane shape parameter (W, c) by applying another optimization method such as another gradient method or simulated annealing to the equation (5) or (6). , e, t, p) may be obtained. The lane shape parameter calculation unit 24 stores lane shape parameters (W, c, e, t, p) in the storage unit 11.

モデル生成部25は、最新の画像について得られた車線形状のパラメータ(W,c,e,t,p)と補正量とに基づいて、区画線候補が表す車線区画線の位置を、車線の幅を拡大する方向へ変更するか否かにより車線の幅を車線形状を表すモデルを複数生成する。   The model generation unit 25 determines the position of the lane marking represented by the marking candidate based on the lane shape parameters (W, c, e, t, p) obtained for the latest image and the correction amount. Multiple lane widths are generated depending on whether or not the width is changed in the expanding direction.

図11は、車線形状のモデルの一例を示す図である。本実施形態では、4種類のモデル1101〜1104が想定される。モデル1101は、左右の区画線候補1111、1112がともに車線区画線を表している場合に対応する。そのため、モデル1101では、左右の区画線候補がそれぞれ車線区画線とされる。   FIG. 11 is a diagram illustrating an example of a lane shape model. In the present embodiment, four types of models 1101 to 1104 are assumed. The model 1101 corresponds to the case where both of the left and right dividing line candidates 1111 and 1112 represent a lane line. Therefore, in the model 1101, right and left division line candidates are respectively set as lane division lines.

モデル1102は、車両10の右側の区画線候補1112は車線区画線を表しているものの、車両10の左側の区画線候補1111は補助線を表している場合に対応する。そのため、モデル1102では、車両10の右側については区画線候補1112がそのまま車線区画線とされ、一方、車両10の左側については、区画線候補1111から、車両10の左側についての補正量だけ外側へ移動させた線1121が車線区画線とされる。   The model 1102 corresponds to the case where the right dividing line candidate 1112 of the vehicle 10 represents a lane dividing line, but the dividing line candidate 1111 of the left of the vehicle 10 represents an auxiliary line. Therefore, in the model 1102, the lane line candidate 1112 is used as the lane line for the right side of the vehicle 10, while the lane line candidate 1111 for the left side of the vehicle 10 is shifted outward by the correction amount for the left side of the vehicle 10. The moved line 1121 is taken as a lane line.

モデル1103は、車両10の左側の区画線候補1111は車線区画線を表しているものの、車両10の右側の区画線候補1112は補助線を表している場合に対応する。そのため、モデル1103では、車両10の左側については区画線候補1111がそのまま車線区画線とされ、一方、車両10の右側については、区画線候補1112から、車両10の右側についての補正量だけ外側へ移動させた線1122が車線区画線とされる。   The model 1103 corresponds to the case where the lane line candidate 1111 on the left side of the vehicle 10 represents a lane line, while the lane line candidate 1112 on the right side of the vehicle 10 represents an auxiliary line. Therefore, in the model 1103, the lane line candidate 1111 is used as the lane line for the left side of the vehicle 10, while the lane line candidate 1112 for the right side of the vehicle 10 is shifted outward by the correction amount for the right side of the vehicle 10. The moved line 1122 is taken as a lane line.

モデル1104は、左右の区画線候補1111、1112がともに補助線を表している場合に対応する。そのため、モデル1104では、車両10の左右それぞれについて、区画線候補1111、1112から、車両10の左側または右側についての補正量だけ外側へ移動させた線1121、1122が車線区画線とされる。   The model 1104 corresponds to the case where the left and right dividing line candidates 1111 and 1112 both represent auxiliary lines. Therefore, in the model 1104, lines 1121 and 1122 which are moved outward by the correction amount for the left side or the right side of the vehicle 10 from the lane line candidates 1111 and 1112 for the left and right sides of the vehicle 10 are taken as lane line.

モデル生成部25は、各モデルの車線形状のパラメータ(Wp (k),cp (k),ep (k),tp (k),pp (k))に、最新の画像について求められた車線形状のパラメータ(W,c,e,t,p)を代入する。なお、インデックスkは、モデルの種別を表すパラメータであり、k=1である場合、その車線形状のパラメータは、モデル1101(左右とも車線幅の拡大無し)を表す。同様に、k=2である場合、その車線形状のパラメータは、モデル1102(左側について車線幅を拡大)を表す。また、k=3である場合、その車線形状のパラメータは、モデル1103(右側について車線幅を拡大)を表す。そしてk=4である場合、その車線形状のパラメータは、モデル1104(左右とも車線幅を拡大)を表す。 The model generation unit 25 determines the latest image of the lane shape parameters (W p (k) , c p (k) , e p (k) , t p (k) , p p (k) ) of each model. The parameters (W, c, e, t, p) of the obtained lane shape are substituted. The index k is a parameter representing the type of model, and when k = 1, the parameter of the lane shape represents the model 1101 (no enlargement of the lane width on both left and right). Similarly, if k = 2, the lane shape parameter represents model 1102 (expanding the lane width for the left side). Also, if k = 3, the lane shape parameter represents model 1103 (expanding the lane width for the right side). Then, if k = 4, the lane shape parameter represents the model 1104 (both the left and the right expand the lane width).

モデル生成部25は、モデル1102を作成するために、車線形状のパラメータ(Wp (2),cp (2),ep (2),tp (2),pp (2))のうち、車線幅Wp (2)及び中心距離ep (2)を次式に従って補正する。
ここで、LLは、車両10の左側についての補正量である。
The model generation unit 25 generates lane shape parameters (W p (2) , c p (2) , e p (2) , t p (2) , p p (2) ) in order to create the model 1102. Among them, the lane width W p (2) and the center distance e p (2) are corrected according to the following equation.
Here, L L is a correction amount for the left side of the vehicle 10.

同様に、モデル生成部25は、モデル1103を作成するために、車線形状のパラメータ(Wp (3),cp (3),ep (3),tp (3),pp (3))のうち、車線幅Wp (3)及び中心距離ep (3)を次式に従って補正する。
ここで、LRは、車両10の左側についての補正量である。
Similarly, the model generation unit 25 generates lane shape parameters (W p (3) , c p (3) , e p (3) , t p (3) , p p (3 The lane width W p (3) and the center distance e p (3) are corrected according to the following equation.
Here, L R is a correction amount for the left side of the vehicle 10.

また、モデル生成部25は、モデル1104を作成するために、車線形状のパラメータ(Wp (4),cp (4),ep (4),tp (4),pp (4))のうち、車線幅Wp (4)及び中心距離ep (4)を次式に従って補正する。
Further, the model generation unit 25 generates lane shape parameters (W p (4) , c p (4) , e p (4) , t p (4) , p p (4) in order to create the model 1104 ). Lane width W p (4) and center distance e p (4) are corrected according to the following equation.

なお、モデル生成部25は、車両10の右側についての補正量LRを、車両10の右側についての多重線状態が「安定」または「ロスト」である場合には、その時点で記憶部11に記憶されている補正量DXRとする。一方、車両10の右側についての多重線状態が「発見」である場合には、モデル生成部25は、補正量LRを予め設定されたオフセット値とする。同様に、モデル生成部25は、車両10の左側についての補正量LLを、車両10の左側についての多重線状態が「安定」または「ロスト」である場合には、その時点で記憶部11に記憶されている補正量DXLとする。一方、車両10の左側についての多重線状態が「発見」である場合には、モデル生成部25は、補正量LLを、予め設定されたオフセット値とする。このオフセット値は、例えば、補助線と車線区画線間の水平方向の位置の差の一般的な値、例えば、45cmに設定される。 Note that the model generation unit 25 stores the correction amount L R for the right side of the vehicle 10 in the storage unit 11 at that time when the multiple line state for the right side of the vehicle 10 is “stable” or “lost”. the correction amount DX R stored. On the other hand, when the multiple line state about the right side of the vehicle 10 is “discovered”, the model generation unit 25 sets the correction amount L R as a preset offset value. Similarly, if the correction amount L L for the left side of the vehicle 10 is “stable” or “lost” for the left side of the vehicle 10, the model generation unit 25 stores the correction amount L L at that time. It is assumed that the correction amount DX L stored in On the other hand, when the multiple line state of the left side of the vehicle 10 is “discovered”, the model generation unit 25 sets the correction amount L L as a preset offset value. This offset value is set, for example, to a common value, for example 45 cm, of the difference in horizontal position between the auxiliary line and the lane markings.

モデル生成部25は、各車線形状のモデルの車線形状パラメータを記憶部11に記憶する。   The model generation unit 25 stores lane shape parameters of a model of each lane shape in the storage unit 11.

区画線候補判定部26は、車両10の左右のそれぞれについて、最新の画像に基づいて求められた区画線候補のエッジ線種別と多重線状態とに基づいて区画線候補が車線区画線か補助線かを判定する。また、区画線候補判定部26は、区画線候補のエッジ線種別と多重線状態とからは区画線候補が車線区画線か補助線かを判定できない場合、各車線形状のモデルのうち、直前の画像取得時における車線形状と最も類似するモデルを特定する。そして区画線候補判定部26は、特定したモデルに基づいて区画線候補が車線区画線か補助線かを判定する。なお、区画線候補判定部26は、モデル特定部の一例である。   The dividing line candidate determination unit 26 determines whether the dividing line candidate is a lane dividing line or an auxiliary line based on the edge line type of the dividing line candidate and the multiline state determined for each of the left and right of the vehicle 10 based on the latest image. Determine if Further, if the parting line candidate determination unit 26 can not determine whether the parting line candidate is a lane line part or an auxiliary line from the edge line type of the parting line candidate and the multiline state, the parting line candidate determination unit 26 immediately before the lane shape model. Identify the model most similar to the lane shape at the time of image acquisition. Then, the lane line candidate determining unit 26 determines whether the lane line candidate is a lane line or an auxiliary line based on the identified model. The marking line candidate determination unit 26 is an example of a model specification unit.

図12は、区画線候補判定部26により実行される区画線候補判定処理の動作フローチャートである。区画線候補判定部26は、カメラ2から制御部13が画像を取得する度に、この動作フローチャートに従って左右の車線区画線を判定する。なお、この動作フローチャートでは、車両10の右側の車線区画線の判定について説明するが、区画線候補判定部26は、車両10の左側についても同様の動作フローチャートに従って車線区画線を判定すればよい。その際には、以下の動作フローチャートにおける「右」は、「左」と読み替えられる。   FIG. 12 is an operation flowchart of the parting line candidate determination process performed by the parting line candidate determination unit 26. Each time the control unit 13 acquires an image from the camera 2, the lane line candidate determination unit 26 determines the left and right lane line according to the operation flowchart. In this operation flowchart, determination of a lane line on the right side of the vehicle 10 will be described, but the lane line candidate determination unit 26 may determine a lane line according to the same operation flowchart on the left side of the vehicle 10. At that time, “right” in the following operation flowchart is read as “left”.

区画線候補判定部26は、区画線候補のエッジ線種別が長実線か否か判定する(ステップS101)。区画線候補のエッジ線種別が長実線であれば(ステップS101−Yes)、補助線にはそのような長い実線は無いので、区画線候補が車線区画線を表していると想定される。そこで区画線候補判定部26は、区画線候補を車線区画線と判定する(ステップS102)。これにより、区画線候補判定部2は、車線区画線の位置を正確に推定できる。   The marking line candidate determination unit 26 determines whether the edge line type of the marking line candidate is a long solid line (step S101). If the edge line type of the dividing line candidate is a long solid line (step S101-Yes), there is no such long solid line in the auxiliary line, so it is assumed that the dividing line candidate represents a lane line. Therefore, the lane line candidate determination unit 26 determines that the lane line candidate is a lane lane line (step S102). As a result, the lane line candidate determination unit 2 can accurately estimate the position of the lane line.

一方、区画線候補のエッジ線種別が長実線でない場合(ステップS101−No)、区画線候補判定部26は、区画線候補のエッジ線種別が短破線か否か判定する(ステップS103)。区画線候補のエッジ線種別が短破線である場合(ステップS103−Yes)、区画線候補判定部26は、現時点における、車両10の右側の多重線状態が「安定」か否か判定する(ステップS104)。多重線状態が「安定」である場合(ステップS104−Yes)、時系列的に連続して車両10の右側に多重線が検出されているので、短破線である区画線候補は、車線区画線の内側の補助線を表していると想定される。そこで区画線候補判定部26は、区画線候補を、車線区画線の内側に設けられた補助線と判定する(ステップS105)。これにより、区画線候補判定部2は、車線区画線の位置を正確に推定できる。   On the other hand, when the edge line type of the parting line candidate is not a long solid line (step S101-No), the parting line candidate determination unit 26 determines whether the edge line type of the parting line candidate is a short broken line (step S103). If the edge line type of the dividing line candidate is a short broken line (step S103-Yes), the dividing line candidate determination unit 26 determines whether or not the multiple line state on the right side of the vehicle 10 at this time is "stable" (step S104). When the multiline state is "stable" (step S104-Yes), since the multiple line is detected on the right side of the vehicle 10 continuously in time series, the division line candidate which is a short broken line is a lane line It is assumed to represent the inner auxiliary line of. Therefore, the parting line candidate determination unit 26 determines that the parting line candidate is an auxiliary line provided inside the lane line (step S105). As a result, the lane line candidate determination unit 2 can accurately estimate the position of the lane line.

一方、多重線状態が「安定」でない場合(ステップS104−No)、区画線候補が短破線になっているのは、車線区画線がかすれていることに起因している可能性もある。また、ステップS103にて区画線候補のエッジ線種別が短破線でない場合も(ステップS103−No)、区画線候補判定部26は、区画線候補のエッジ線種別からは、区画線候補が車線区画線か補助線かを特定できない。そこで区画線候補判定部26は、前回の画像取得時における車線形状と、各車線形状のモデルとを比較する。そして区画線候補判定部26は、各車線形状のモデルのうち、前回の画像取得時における車線形状に最も類似するモデルを特定する(ステップS106)。   On the other hand, when the multiple line state is not "stable" (step S104-No), the fact that the division line candidate is a short broken line may be attributed to the fading of the lane line. Further, even if the edge line type of the dividing line candidate is not a short broken line at step S103 (No at step S103), the dividing line candidate determination unit 26 determines that the dividing line candidate is a lane section from the edge line type of the division line candidate. I can not identify the line or the auxiliary line. Therefore, the lane line candidate determination unit 26 compares the lane shape at the time of the previous image acquisition with the model of each lane shape. Then, the parting line candidate determination unit 26 specifies a model most similar to the lane shape at the time of the previous image acquisition among the models of each lane shape (step S106).

区画線候補判定部26は、前回の画像取得時における車線形状と最も類似するモデルが、右側について車線幅を拡大するモデル(図11におけるモデル1103または1104)の何れか否か判定する(ステップS107)。前回の画像取得時における車線形状と最も類似するモデルが、右側について車線幅を拡大するモデルの何れかである場合(ステップS107−Yes)、区画線候補判定部26は、区画線候補を車線区画線の内側に設けられた補助線と判定する(ステップS105)。
一方、前回の画像取得時における車線形状と最も類似するモデルが、右側について車線幅を拡大するモデルでない場合(ステップS107−No)、区画線候補判定部26は、区画線候補を車線区画線と判定する(ステップS102)。
ステップS102またはS105の後、区画線候補判定部26は、区画線候補判定処理を終了する。
The lane line candidate determination unit 26 determines whether the model most similar to the lane shape at the time of the previous image acquisition is any of the models (the model 1103 or 1104 in FIG. 11) that enlarges the lane width on the right side (step S107). ). If the model most similar to the lane shape at the time of image acquisition at the previous time is any of the models for expanding the lane width on the right side (step S107-Yes), the parting line candidate determination unit 26 It is determined that the auxiliary line is provided inside the line (step S105).
On the other hand, if the model most similar to the lane shape at the time of image acquisition at the previous time is not a model for enlarging the lane width on the right side (step S107-No), the lane line candidate determination unit 26 determines the lane line candidate as a lane line It determines (step S102).
After step S102 or S105, the parting line candidate determination unit 26 ends the parting line candidate determination process.

なお、ステップS106において、区画線候補判定部26は、例えば、前回の画像取得時における車線形状と各モデル間の類似度を、車両10の左右の車線区画線の水平方向の誤差の和dfとして、次式に従って算出する。そして区画線候補判定部26は、誤差の和dfが最小となるモデルを、前回の画像取得時における車線形状と最も類似するモデルとする。
ここで、Wb、ebは、それぞれ、前回の画像取得時における車線幅及び中心距離である。
In step S106, the dividing line candidate determination unit 26 sets, for example, the similarity between the lane shape and each model at the time of the previous image acquisition as the sum df of horizontal errors of the left and right lane dividing lines of the vehicle 10. Calculated according to the following equation. Then, the lane line candidate determination unit 26 sets a model that minimizes the sum df of errors as a model that is most similar to the lane shape at the time of the previous image acquisition.
Here, W b and e b are the lane width and the center distance at the time of the previous image acquisition, respectively.

区画線候補判定部26は、車両10の左右のそれぞれについて、区画線候補の判定結果を補正部27へ通知する。   The dividing line candidate determining unit 26 notifies the correcting unit 27 of the determination result of dividing line candidates for each of the left and right of the vehicle 10.

補正部27は、車両10の左右のそれぞれについての区画線候補の判定結果に基づいて、最新の画像について得られた車線形状のパラメータ(W,c,e,t,p)のうち、車線幅W及び中心距離eを補正することで、車両10の左右の車線区画線の位置をもとめる。これにより、補正された車線形状のパラメータ(W,c,e,t,p)が、最新の画像取得時における、カメラ2から見た車両10が走行中の車線の形状を表すことができる。   The correction unit 27 determines the lane width among the lane shape parameters (W, c, e, t, p) obtained for the latest image based on the determination result of the dividing line candidate for each of the left and right of the vehicle 10 By correcting W and the center distance e, the positions of the lane lines on the left and right of the vehicle 10 are obtained. Thus, the corrected lane shape parameters (W, c, e, t, p) can represent the shape of the lane in which the vehicle 10 is traveling as viewed from the camera 2 at the time of the latest image acquisition.

補正部27は、車両10の左側の区画線候補が車線区画線を表している場合、左補正量KLを記憶部11に記憶されている補正量DXLとする。一方、車両10の左側の区画線候補が補助線を表している場合、左補正量KLを0とする。同様に、補正部27は、車両10の右側の区画線候補が車線区画線を表している場合、右補正量KRを記憶部11に記憶されている補正量DXRとする。一方、車両10の右側の区画線候補が補助線を表している場合、右補正量KRを0とする。 Correcting unit 27, when the lane line candidate of the left side of the vehicle 10 represents a lane line, a correction amount DX L stored left correction amount K L in the storage unit 11. On the other hand, when the dividing line candidate on the left side of the vehicle 10 represents an auxiliary line, the left correction amount K L is set to zero. Similarly, the correction unit 27, if the right-hand lane line candidate of the vehicle 10 represents a lane line, a correction amount DX R stored right correction amount K R in the storage unit 11. On the other hand, when the dividing line candidate on the right side of the vehicle 10 represents an auxiliary line, the right correction amount K R is set to zero.

補正部27は、次式に従って、車線幅W及び中心距離eを補正する。
補正部27は、補正後の車線幅W及び中心距離eを記憶部11に記憶する。
The correction unit 27 corrects the lane width W and the center distance e according to the following equation.
The correction unit 27 stores the corrected lane width W and the center distance e in the storage unit 11.

逸脱判定部28は、算出された車線形状のパラメータに基づいて、車両10が車線から逸脱したか否かを判定する。例えば、逸脱判定部28は、(W/2-|e|)が車両10の横幅の1/2以下となった場合に、車両10が車線から逸脱したと判定する。そして逸脱判定部28は、車両10が車線をはみ出しているか、あるいは車線をはみ出す可能性が有る場合、ディスプレイ3へ、その旨の警告メッセージを表示させる。あるいは、車両10の車室内にスピーカ(図示せず)が配置されている場合、逸脱判定部28は、スピーカに警報音を出力させてもよい。   The departure determining unit 28 determines whether the vehicle 10 has deviated from the lane based on the calculated lane shape parameter. For example, the departure determining unit 28 determines that the vehicle 10 has deviated from the lane when (W / 2− | e |) becomes equal to or less than 1⁄2 of the width of the vehicle 10. Then, the departure determination unit 28 causes the display 3 to display a warning message to that effect when the vehicle 10 is out of the lane or when there is a possibility of going out of the lane. Alternatively, when a speaker (not shown) is disposed in the compartment of the vehicle 10, the departure determination unit 28 may cause the speaker to output an alarm sound.

図13は、制御部13により実行される、車線検出処理を含む運転支援処理の動作フローチャートである。制御部13は、運転支援装置1がカメラ2から画像を受け取る度に、下記の動作フローチャートにしたがって運転支援処理を実行する。なお、下記のステップS201〜S209のうちのステップS201〜S208が車線検出処理に対応する。   FIG. 13 is an operation flowchart of driving support processing including lane detection processing, which is executed by the control unit 13. Each time the driving support device 1 receives an image from the camera 2, the control unit 13 executes the driving support process according to the following operation flowchart. Note that steps S201 to S208 among the following steps S201 to S209 correspond to the lane detection process.

区画線候補検出部21は、画像上で、車両10の左右の区画線候補を検出する(ステップS201)。さらに、区画線候補検出部21は、区画線候補の外側に主区画線が存在するか否かを判定し、その判定結果に応じて、主区画線の検出回数(CSF R, CSF L)、主区画線ロスト回数(CSR R, CSR L)及び補正量(DXR,DXL)を更新する(ステップS202)。 The dividing line candidate detection unit 21 detects the left and right dividing line candidates of the vehicle 10 on the image (step S201). Furthermore, the parting line candidate detection unit 21 determines whether or not the main parting line exists outside the parting line candidate, and according to the determination result, the number of times of detection of the main parting line (C SF R , C SF L And the number of times that the main dividing line is lost ( CSR R , C SR L ) and the correction amount (DX R , DX L ) are updated (step S202).

線種判定部22は、車両10の左右の区画線候補のそれぞれについて、その区画線候補の標示線種別を判定する(ステップS203)。そして多重線状態更新部23は、車両10の左右のそれぞれについて、各区画線候補の標示線種別、主区画線の検出回数及び主区画線ロスト回数などに基づいて多重線状態を更新する(ステップS204)。   The line type determination unit 22 determines the marking line type of the dividing line candidate for each of the dividing line candidates on the left and right of the vehicle 10 (step S203). Then, the multiple line state update unit 23 updates the multiple line state for each of the left and right sides of the vehicle 10 based on the indicator line type of each division line candidate, the number of times of detection of the main division line, the number of main division line losses, etc. (Step S204).

また、車線形状パラメータ算出部24は、車両10の左右の区画線候補に基づいて、車両10が走行している道路の形状を表す車線形状パラメータ(W,c,e,t,p)を算出する(ステップS205)。そしてモデル生成部25は、車線形状のパラメータ(W,c,e,t,p)と、車両10の左右それぞれの多重線状態と、補正量とに基づいて、車線形状のモデルを複数生成する(ステップS206)。   Further, the lane shape parameter calculation unit 24 calculates lane shape parameters (W, c, e, t, p) representing the shape of the road on which the vehicle 10 is traveling, based on the left and right division line candidates of the vehicle 10 (Step S205). The model generation unit 25 generates a plurality of lane shape models based on the lane shape parameters (W, c, e, t, p), the left and right multiline states of the vehicle 10, and the correction amount. (Step S206).

区画線候補判定部26は、車両10の左右の区画線候補のエッジ線種別、多重線状態、各車線形状のモデル、及び直前の車線形状に基づいて、車両10の左右の区画線候補が車線区画線及び補助線の何れかを表しているかを判定する(ステップS207)。そして補正部27は、その判定結果に基づいて、車線形状のパラメータ(W,c,e,t,p)のうちの車線幅W及び中心距離eを補正する(ステップS208)。   The lane line candidate determination unit 26 determines that the lane line candidates for the left and right sides of the vehicle 10 are lanes based on the edge line types of the lane line candidates for left and right of the vehicle 10, the multiline state, the model of each lane shape, and the last lane shape. It is determined whether the dividing line or the auxiliary line is represented (step S207). Then, the correction unit 27 corrects the lane width W and the center distance e among the lane shape parameters (W, c, e, t, p) based on the determination result (step S208).

逸脱判定部28は、補正後の車線幅W及び中心距離eに基づいて、車両10が走行中の車線から逸脱したか否かを判定し、その判定結果に応じた警告処理を実行する(ステップS209)。その後、制御部13は、運転支援処理を終了する。   The departure determination unit 28 determines whether or not the vehicle 10 has deviated from the lane in which the vehicle 10 is traveling based on the corrected lane width W and the center distance e, and executes warning processing according to the determination result (step S209). Thereafter, the control unit 13 ends the driving support process.

以上に説明してきたように、車線検出装置の一例である運転支援装置は、最新の画像から検出された区画線候補に基づいて、車線形状を表すモデルを複数生成する。そしてこの運転支援装置は、各モデルのうち、直前の画像取得時における車線形状に最も類似するモデルを特定し、そのモデルに基づいて、区画線候補の位置を必要に応じて補正することで、車線区画線の位置を求める。これにより、この運転支援装置は、車線区画線または補助線がかすれていたり、画像上で識別困難となる場合でも、車線を正確に検出できる。   As described above, the driving support apparatus, which is an example of the lane detection apparatus, generates a plurality of models representing the lane shape based on the parting line candidates detected from the latest image. Then, the driving support device identifies a model that is most similar to the lane shape at the time of image acquisition immediately before, of each model, and corrects the position of the dividing line candidate as needed based on the model. Find the position of the lane markings. Thus, the driving support device can accurately detect the lane even if the lane markings or the auxiliary lines are blurred or difficult to distinguish on the image.

上述した実施形態またはその変形例による車線検出装置は、運転支援装置に限定されず、様々な用途に利用される。例えば、車線検出装置は、ドライブレコーダにより記録された動画像を解析して、その動画像中に含まれる各画像に写っている車線を識別するといった用途に適用されてもよい。なお、この場合には、逸脱判定部については省略されてもよい。また、このような用途に適用される場合には、車両に搭載されるカメラは、車両の後方を向けて設置されていてもよい。また、車線検出装置は、例えば、そのような動画像の解析に利用されるコンピュータとして実現されてもよい。   The lane detection device according to the above-described embodiment or the variation thereof is not limited to the driving assistance device, and is used for various applications. For example, the lane detection device may be applied to applications such as analyzing a moving image recorded by a drive recorder and identifying a lane included in each image included in the moving image. In this case, the departure determination unit may be omitted. In addition, when applied to such an application, the camera mounted on the vehicle may be installed facing the rear of the vehicle. In addition, the lane detection device may be realized, for example, as a computer used for analysis of such a moving image.

図14は、上記の各実施形態またはその変形例による車線検出装置の制御部の各部の機能を実現するコンピュータプログラムが動作することにより、車線検出装置として動作するコンピュータの構成図である。   FIG. 14 is a block diagram of a computer that operates as a lane detection device by operating a computer program that implements the functions of the control unit of the lane detection device according to each of the above-described embodiments or the variation thereof.

コンピュータ100は、ユーザインターフェース部101と、通信インターフェース部102と、記憶部103と、記憶媒体アクセス装置104と、プロセッサ105とを有する。プロセッサ105は、ユーザインターフェース部101、通信インターフェース部102、記憶部103及び記憶媒体アクセス装置104と、例えば、バスを介して接続される。   The computer 100 includes a user interface unit 101, a communication interface unit 102, a storage unit 103, a storage medium access device 104, and a processor 105. The processor 105 is connected to the user interface unit 101, the communication interface unit 102, the storage unit 103, and the storage medium access device 104 via, for example, a bus.

ユーザインターフェース部101は、例えば、キーボードとマウスなどの入力装置と、液晶ディスプレイといった表示装置とを有する。または、ユーザインターフェース部101は、タッチパネルディスプレイといった、入力装置と表示装置とが一体化された装置を有してもよい。そしてユーザインターフェース部101は、ユーザの操作に応じて、車線検出処理の対象となる動画像を選択したり、あるいは、車線検出処理を開始させる操作信号をプロセッサ105へ出力する。   The user interface unit 101 includes, for example, an input device such as a keyboard and a mouse, and a display device such as a liquid crystal display. Alternatively, the user interface unit 101 may have a device such as a touch panel display in which an input device and a display device are integrated. Then, the user interface unit 101 selects a moving image to be subjected to the lane detection process or outputs an operation signal for starting the lane detection process to the processor 105 according to the user's operation.

通信インターフェース部102は、コンピュータ100を、ドライブレコーダなどの動画像入力装置(図示せず)と接続するための通信インターフェース及びその制御回路を有してもよい。そのような通信インターフェースは、例えば、High-Definition Multimedia Interface(HDMI)(登録商標)、またはUniversal Serial Bus(ユニバーサル・シリアル・バス、USB)とすることができる。   The communication interface unit 102 may have a communication interface for connecting the computer 100 to a moving image input device (not shown) such as a drive recorder and a control circuit therefor. Such communication interface may be, for example, High-Definition Multimedia Interface (HDMI) (registered trademark) or Universal Serial Bus (Universal Serial Bus, USB).

さらに、通信インターフェース部102は、イーサネット(登録商標)などの通信規格に従った通信ネットワークに接続するための通信インターフェース及びその制御回路を有してもよい。この場合には、通信インターフェース部102は、通信ネットワークに接続された他の機器から、車線検出処理の対象となる動画像を取得し、その動画像をプロセッサ105へ渡す。   Furthermore, the communication interface unit 102 may have a communication interface for connecting to a communication network conforming to a communication standard such as Ethernet (registered trademark) and its control circuit. In this case, the communication interface unit 102 acquires a moving image to be subjected to the lane detection processing from another device connected to the communication network, and passes the moving image to the processor 105.

記憶部103は、例えば、読み書き可能な半導体メモリと読み出し専用の半導体メモリとを有する。そして記憶部103は、プロセッサ105上で実行される、車線検出処理を実行するためのコンピュータプログラム、車線検出処理の対象となる動画像などを記憶する。   The storage unit 103 includes, for example, a readable and writable semiconductor memory and a read-only semiconductor memory. Then, the storage unit 103 stores a computer program for executing the lane detection process, a moving image to be an object of the lane detection process, and the like that are executed on the processor 105.

記憶媒体アクセス装置104は、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体106にアクセスする装置である。記憶媒体アクセス装置104は、例えば、記憶媒体106に記憶されたプロセッサ105上で実行される、車線検出処理用のコンピュータプログラムを読み込み、プロセッサ105に渡す。また記憶媒体アクセス装置104は、車線検出処理の対象となる動画像を記憶媒体106から読み込んでもよい。   The storage medium access device 104 is a device that accesses the storage medium 106 such as, for example, a magnetic disk, a semiconductor memory card, and an optical storage medium. The storage medium access device 104 reads, for example, a computer program for lane detection processing, which is executed on the processor 105 stored in the storage medium 106, and passes it to the processor 105. The storage medium access device 104 may also read from the storage medium 106 a moving image to be subjected to lane detection processing.

プロセッサ105は、上記の各実施形態の何れかまたは変形例による車線検出処理用コンピュータプログラムを実行することにより、動画像に含まれる画像ごとに車線を検出する。そしてプロセッサ105は、その検出結果を記憶部103に保存し、または通信インターフェース部102を介して他の機器へ出力する。   The processor 105 detects the lane for each image included in the moving image by executing the computer program for lane detection processing according to any one of the above-described embodiments or the modification. Then, the processor 105 stores the detection result in the storage unit 103 or outputs the detection result to another device via the communication interface unit 102.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms cited herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the art. It should be understood that the present invention is not to be limited to the construction of any of the examples herein, and to the specific listed examples and conditions relating to showing superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

1 運転支援装置(車線検出装置)
2 カメラ
3 ディスプレイ
4 ネットワーク
10 車両
11 記憶部
12 通信部
13 制御部
21 区画線候補検出部
22 線種判定部
23 多重線状態更新部
24 車線形状パラメータ算出部
25 モデル生成部
26 区画線候補判定部
27 補正部
28 逸脱判定部
100 コンピュータ
101 ユーザインターフェース部
102 通信インターフェース部
103 記憶部
104 記憶媒体アクセス装置
105 プロセッサ
106 記憶媒体
1 Driving support device (lane detection device)
Reference Signs List 2 camera 3 display 4 network 10 vehicle 11 storage unit 12 communication unit 13 control unit 21 division line candidate detection unit 22 line type determination unit 23 multiline state update unit 24 lane shape parameter calculation unit 25 model generation unit 26 division line candidate determination unit 27 correction unit 28 deviation judgment unit 100 computer 101 user interface unit 102 communication interface unit 103 storage unit 104 storage medium access device 105 processor 106 storage medium

Claims (5)

車両が走行している車線の形状を表す第1の車線形状パラメータを記憶する記憶部と、
前記車両に搭載された撮像部により生成された、前記車両の周囲が写った画像上で前記車線の境界を表す車線区画線の候補となる区画線候補を検出する区画線候補検出部と、
前記区画線候補に基づいて前記車線の形状を表す第2の車線形状パラメータを算出する車線形状パラメータ算出部と、
前記区画線候補が表す前記車線区画線の位置を、前記車線の幅を拡大する方向へ変更するか否かにより前記車線の形状を表す複数のモデルを生成するモデル生成部と、
前記複数のモデルのうち、前記第1の車線形状パラメータが表す車線の形状と最も類似するモデルを特定するモデル特定部と、
前記第2の車線形状パラメータを前記特定されたモデルに対応する前記車線の形状を表すように補正し、補正された前記第2の車線形状パラメータを前記第1の車線形状パラメータとして前記記憶部に記憶する補正部と、
を有する車線検出装置。
A storage unit storing a first lane shape parameter representing a shape of a lane in which the vehicle is traveling;
A parting line candidate detection unit for detecting a parting line candidate serving as a candidate for a lane parting line on the image captured by the imaging unit mounted on the vehicle and in which the surroundings of the vehicle are captured;
A lane shape parameter calculation unit that calculates a second lane shape parameter that represents the shape of the lane based on the lane line candidate;
A model generation unit that generates a plurality of models representing the shape of the lane according to whether or not the position of the lane line represented by the lane line candidate is changed in a direction to expand the width of the lane;
A model specification unit that specifies a model that is most similar to the shape of the lane represented by the first lane shape parameter among the plurality of models;
The second lane shape parameter is corrected to represent the shape of the lane corresponding to the specified model, and the corrected second lane shape parameter is stored in the storage unit as the first lane shape parameter. A correction unit to store;
Lane detection device having.
前記区画線候補検出部は、前記画像上でエッジ画素が連結されたエッジ線を複数検出し、前記複数のエッジ線のそれぞれを、前記車両の進路に沿って整列しているグループごとに分類し、前記車両の右側に相当する前記画像上の範囲内の前記グループのうちで前記車両に最も近い位置に相当するグループと、前記車両の左側に相当する前記画像上の範囲内の前記グループのうちで前記車両に最も近い位置に相当するグループとを、それぞれ前記区画線候補とする、請求項1に記載の車線検出装置。   The parting line candidate detection unit detects a plurality of edge lines in which edge pixels are connected on the image, and classifies each of the plurality of edge lines according to groups aligned along the route of the vehicle. A group corresponding to a position closest to the vehicle among the groups within the range corresponding to the right side of the vehicle, and a group within the range on the image corresponding to the left side of the vehicle The lane detection device according to claim 1, wherein a group corresponding to a position closest to the vehicle is set as the division line candidate. 前記モデル特定部は、前記区画線候補に含まれる何れかの前記エッジ線を実空間に投影したときの長さが破線で表される前記車線区画線の一つのブロックよりも長い所定値以上である場合、前記最も類似するモデルによらずに当該区画線候補が前記車線区画線の位置を表すと判定し、
前記補正部は、前記区画線候補が表す前記車線区画線の位置に応じて前記第2の車線形状パラメータを補正する、請求項2に記載の車線検出装置。
The model specifying unit may set a predetermined value longer than one block of the lane markings, the length of which is represented by a broken line when projecting any of the edge lines included in the marking candidates into the real space. In some cases, the lane line candidate is determined to represent the position of the lane line regardless of the most similar model,
The lane detection device according to claim 2, wherein the correction unit corrects the second lane shape parameter in accordance with the position of the lane marking represented by the marking candidate.
前記モデル特定部は、前記区画線候補が少なくとも2本の前記エッジ線を含み、前記少なくとも2本の前記エッジ線のそれぞれについて、当該エッジ線を実空間に投影したときの長さが破線で表される前記車線区画線の一つのブロックよりも短い所定値以下であり、かつ、過去一定期間において、前記区画線候補よりも前記車両から離れた位置に相当する前記画像上の第1の位置に前記グループが第1の所定回数以上検出され、かつ当該第1の位置において前記グループが第2の所定回数以上連続して検出に失敗していない場合、前記最も類似するモデルによらずに前記区画線候補が前記車線区画線よりも前記車線の内側に設けられる補助線の位置を表すと判定し、
前記補正部は、前記区画線候補が表す前記補助線の位置と前記車線区画線の位置との差に応じて前記第2の車線形状パラメータを補正する、請求項2に記載の車線検出装置。
In the model specifying unit, the division line candidate includes at least two of the edge lines, and for each of the at least two edge lines, a length when the edge line is projected to a real space is indicated by a broken line. At a first position on the image which is equal to or less than a predetermined value shorter than one block of the lane markings and which corresponds to a position farther from the vehicle than the markings for a certain period in the past If the group is detected for a first predetermined number of times or more and the group does not fail to continuously detect for a second predetermined number of times or more at the first position, the section is detected regardless of the most similar model It is determined that the line candidate represents the position of an auxiliary line provided inside the lane with respect to the lane line,
The lane detection device according to claim 2, wherein the correction unit corrects the second lane shape parameter in accordance with a difference between the position of the auxiliary line represented by the division line candidate and the position of the lane division line.
車両に搭載された撮像部により生成された、前記車両の周囲が写った画像上で前記車両が走行中の車線の境界を表す車線区画線の候補となる区画線候補を検出し、
前記区画線候補に基づいて前記車両が走行している車線の形状を表す車線形状パラメータを算出し、
前記区画線候補が表す前記車線区画線の位置を、前記車線の幅を拡大する方向へ変更するか否かにより前記車線の形状を表す複数のモデルを生成し、
前記複数のモデルのうち、過去に前記撮像部により生成された画像から求められた過去の車線形状パラメータにより表された前記車線の形状と最も類似するモデルを特定し、
前記車線形状パラメータを前記特定されたモデルに対応する前記車線の形状を表すように補正する、
ことを含む車線検出方法。
A lane line candidate which is a candidate for a lane lane line representing a lane boundary on which the vehicle is traveling is detected on the image, which is generated by an imaging unit mounted on the vehicle, and in which the surroundings of the vehicle are taken;
Calculating a lane shape parameter representing a shape of a lane on which the vehicle is traveling based on the division line candidate;
Generating a plurality of models representing the shape of the lane according to whether or not the position of the lane line represented by the line candidate is changed in a direction in which the width of the lane is expanded;
Among the plurality of models, a model that is most similar to the shape of the lane represented by the past lane shape parameter obtained from the image generated by the imaging unit in the past is specified,
Correcting the lane shape parameter to represent the shape of the lane corresponding to the identified model;
Lane detection method including.
JP2015128090A 2015-06-25 2015-06-25 Lane detection device and lane detection method Active JP6515704B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015128090A JP6515704B2 (en) 2015-06-25 2015-06-25 Lane detection device and lane detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015128090A JP6515704B2 (en) 2015-06-25 2015-06-25 Lane detection device and lane detection method

Publications (2)

Publication Number Publication Date
JP2017010464A JP2017010464A (en) 2017-01-12
JP6515704B2 true JP6515704B2 (en) 2019-05-22

Family

ID=57763753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015128090A Active JP6515704B2 (en) 2015-06-25 2015-06-25 Lane detection device and lane detection method

Country Status (1)

Country Link
JP (1) JP6515704B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116369A (en) * 2017-01-16 2018-07-26 株式会社Soken Lane recognition device
JP2019020957A (en) * 2017-07-14 2019-02-07 株式会社デンソー Detection device
JP6710190B2 (en) 2017-09-29 2020-06-17 クラリオン株式会社 Marking line recognition device
CN110361021B (en) * 2018-09-30 2021-06-22 毫末智行科技有限公司 Lane line fitting method and system
CN113392680B (en) * 2020-03-13 2024-03-05 富士通株式会社 Road identification device and method and electronic equipment
JP7149385B1 (en) 2021-07-12 2022-10-06 株式会社デンソーテン Lane detection device, lane detection method, and lane detection program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4707823B2 (en) * 2000-11-24 2011-06-22 富士重工業株式会社 Lane displacement correction system and lane displacement correction method
JP5799784B2 (en) * 2011-12-06 2015-10-28 富士通株式会社 Road shape estimation apparatus and program

Also Published As

Publication number Publication date
JP2017010464A (en) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6515704B2 (en) Lane detection device and lane detection method
JP4553072B1 (en) Image integration apparatus and image integration method
JP4973736B2 (en) Road marking recognition device, road marking recognition method, and road marking recognition program
US10659762B2 (en) Stereo camera
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
US9336595B2 (en) Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function
JP5943084B2 (en) Image processing apparatus, image processing method, and image processing program
JP2016134764A (en) Vehicular environment recognition device and vehicle behavior control device employing the same
JP2006338272A (en) Vehicle behavior detector and vehicle behavior detection method
JP2018101200A (en) Object detection device
JP2019132664A (en) Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program
JP6651702B2 (en) Object detection device, object detection method, and information processing program
CN111046719A (en) Apparatus and method for converting image
JP5548212B2 (en) Crosswalk sign detection method and crosswalk sign detection device
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
JP2018092354A (en) Object detection apparatus and method for detecting objects
JP2007265292A (en) Road sign database construction device
JP7258632B2 (en) object detector
JP6431299B2 (en) Vehicle periphery monitoring device
JP2016162130A (en) Device and method for detecting pedestrian crossing and computer for pedestrian crossing detection
JP5276032B2 (en) Device for calculating the position of an object
JP2015200976A (en) Movement amount estimation device, movement amount estimation method, and program
JP2005062910A (en) Image recognition device
JP2005170290A (en) Obstacle detecting device
KR20160127264A (en) System for detecting gaze and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190401

R150 Certificate of patent or registration of utility model

Ref document number: 6515704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150