JP2019014407A - Runway recognition device - Google Patents

Runway recognition device Download PDF

Info

Publication number
JP2019014407A
JP2019014407A JP2017134262A JP2017134262A JP2019014407A JP 2019014407 A JP2019014407 A JP 2019014407A JP 2017134262 A JP2017134262 A JP 2017134262A JP 2017134262 A JP2017134262 A JP 2017134262A JP 2019014407 A JP2019014407 A JP 2019014407A
Authority
JP
Japan
Prior art keywords
shape
far
runway
vehicle
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017134262A
Other languages
Japanese (ja)
Other versions
JP6962726B2 (en
Inventor
前田 優
Masaru Maeda
優 前田
俊也 熊野
Toshiya Kumano
俊也 熊野
勇太 吉岡
Yuta Yoshioka
勇太 吉岡
大輔 ▲高▼棹
大輔 ▲高▼棹
Daisuke Takasao
木下 修
Osamu Kinoshita
修 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2017134262A priority Critical patent/JP6962726B2/en
Publication of JP2019014407A publication Critical patent/JP2019014407A/en
Application granted granted Critical
Publication of JP6962726B2 publication Critical patent/JP6962726B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

To provide a technology that is able to accurately recognize a shape of a distant runway even in the case where a shape of a runway near a vehicle cannot be recognized.SOLUTION: An image processing system comprises a noise reduction unit, a moving blur reduction unit, and a similar image specifying unit. Using a noise reduction image and a moving blur noise reduction image obtained by reducing moving blur with respect to the noise reduction image obtained by reducing noise of a captured image input to the image processing system, the similar image specifying unit specifies a similar image, which is similar to an image in which the moving blur is added to the moving blur noise reduction image and similar to the noise reduction image and in which a rough surface is restricted to a degree higher than a predetermined degree. By reducing the moving blur from the similar image, the moving blur reduction unit obtains a processed image in which the moving blur and the noise are reduced from the captured image.SELECTED DRAWING: Figure 1

Description

本開示は、車両の走路を認識する技術に関する。   The present disclosure relates to a technique for recognizing a running path of a vehicle.

車両の自動運転には、自車両の走行する走路、例えば、道路であれば自車両の走行レーンを認識することが求められる。走路の認識は、例えば、カメラ等の撮像装置により得られる撮像画像において走路の区画線である白線を検出し、かかる白線に基づき実行される。自車両の走路が認識されると、走路上における障害物の検出およびブレーキの自動操作や、車線逸脱の推定といった自動運転に必要な動作が実行され得る。そこで、より安定した自動運転の実現のために、現在位置の近傍から遠方までの走路の形状を高精度に認識する技術が望まれる。一般的に、遠方の走路形状は近傍の走路形状に比べて認識の精度は低くなる。そこで、撮像画像において、先ず近傍の走路における白線を検出して近傍の走路形状を認識し、次に撮像画像における遠方領域(一般的には撮像画像の上方領域)において、遠方において白線が存在すると予想される領域を認識した近傍の走路形状に基づき絞り込み、絞り込まれた領域内において白線を検出し、検出された白線に基づき遠方の走路形状を認識する方法が提案されている(特許文献1参照)。   For automatic driving of a vehicle, it is required to recognize the traveling lane of the host vehicle, for example, the traveling lane of the host vehicle if it is a road. The recognition of the runway is executed based on the white line, for example, by detecting a white line that is a marking line of the runway in a captured image obtained by an imaging device such as a camera. When the traveling path of the host vehicle is recognized, operations necessary for automatic driving such as obstacle detection on the traveling path, automatic brake operation, and estimation of lane departure can be performed. Therefore, in order to realize more stable automatic driving, a technique for accurately recognizing the shape of the runway from the vicinity of the current position to the distance is desired. Generally, the accuracy of recognition of a distant track shape is lower than that of a nearby track shape. Therefore, in the captured image, first, a white line in the nearby runway is detected to recognize the shape of the nearby runway, and then in the far area (generally, the upper area of the captured image) in the captured image, there is a white line in the distance. A method has been proposed in which narrowing is performed based on the shape of a nearby road that recognizes an expected area, a white line is detected in the narrowed area, and a far road shape is recognized based on the detected white line (see Patent Document 1). ).

特開2013−196341号公報JP 2013-196341 A

特許文献1の方法では、自車両が交差点を走行している場合等の自車両の近傍の領域において白線が存在しない場合には、近傍の走路形状が認識できない。このため、遠方領域において白線が存在すると予想される領域を絞り込むことができず、遠方の走路形状を精度良く認識できないという問題がある。したがって、車両の近傍の走路形状が認識できない場合にも遠方の走路形状を精度良く認識可能な技術が望まれている。   In the method of Patent Document 1, when there is no white line in a region in the vicinity of the host vehicle such as when the host vehicle is traveling at an intersection, the nearby runway shape cannot be recognized. For this reason, there is a problem in that it is not possible to narrow down the region where the white line is expected to exist in the far region, and it is impossible to accurately recognize the distant road shape. Therefore, there is a demand for a technology that can accurately recognize a distant road shape even when the shape of the road near the vehicle cannot be recognized.

本開示は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   This indication is made in order to solve at least one part of the above-mentioned subject, and can be realized as the following forms.

本開示の一形態によれば、車両に搭載され、前記車両の走路を認識する走路認識装置(100、100a〜100k)が提供される。この走路認識装置は;前記車両に搭載された撮像装置(21)により繰り返し得られる撮像画像に基づき、前記車両の近傍の走路形状である近傍走路形状を繰り返し算出する近傍形状算出部(101)と;算出された前記近傍走路形状に基づき各撮像画像における処理領域(Er1〜Er4、El1〜El4)を設定し、前記処理領域内における前記車両の遠方の走路形状である遠方走路形状を繰り返し算出する遠方形状算出部(102)と;算出された前記近傍走路形状を時系列的に履歴として記憶する近傍形状記憶部(103)と;算出された前記遠方走路形状を時系列的に履歴として記憶する遠方形状記憶部(104)と;を備え;前記遠方形状算出部は、前記近傍走路形状が算出されない場合には、前記近傍走路形状の履歴と、前記遠方走路形状の履歴と、のうち少なくとも一方を用いて、前記処理領域を設定する。   According to one form of the present disclosure, a road recognition device (100, 100a to 100k) that is mounted on a vehicle and recognizes the road of the vehicle is provided. The runway recognition apparatus includes: a neighborhood shape calculation unit (101) that repeatedly calculates a neighborhood runway shape that is a runway shape in the vicinity of the vehicle based on captured images repeatedly obtained by the imaging device (21) mounted on the vehicle; A processing area (Er1 to Er4, El1 to El4) in each captured image is set on the basis of the calculated nearby running path shape, and a far running path shape that is a far running path shape of the vehicle in the processing area is repeatedly calculated. A distant shape calculation unit (102); a vicinity shape storage unit (103) for storing the calculated near-runway shape as a history in a time series; and a calculated far-runway shape as a history in a time series A remote shape storage unit (104); and the remote shape calculation unit, when the near road shape is not calculated, the history of the near road shape, A history of rectangular track shape, using at least one of, sets the processing region.

この形態の走路認識装置によれば、撮像画像を利用して近傍走路形状を算出できない場合には、近傍走路形状の履歴と、遠方走路形状の履歴と、のうち少なくとも一方を用いて処理領域を設定するので、車両の近傍の走路形状が認識できない場合にも遠方の走路形状を精度良く認識できる。   According to the runway recognition apparatus of this embodiment, when the nearby runway shape cannot be calculated using the captured image, the processing region is determined using at least one of the near runway shape history and the far runway shape history. Since it is set, it is possible to accurately recognize a distant road shape even when the road shape near the vehicle cannot be recognized.

本開示は、走路認識装置以外の種々の形態で実現することも可能である。例えば、走路認識装置を備える車両、走路認識方法、走路を認識するためのコンピュータプログラム、かかるコンピュータプログラムを記憶した記憶媒体等の形態で実現することができる。   The present disclosure can also be realized in various forms other than the road recognition device. For example, the present invention can be realized in the form of a vehicle including a road recognition device, a road recognition method, a computer program for recognizing the road, a storage medium storing the computer program, and the like.

本開示の画像処理装置の一実施形態としての走路認識装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the runway recognition apparatus as one Embodiment of the image processing apparatus of this indication. 第1実施形態における近傍走路形状算出処理の手順を示すフローチャート。The flowchart which shows the procedure of the near runway shape calculation process in 1st Embodiment. 撮像画像の一例を示す説明図。Explanatory drawing which shows an example of a captured image. 第1実施形態における遠方走路形状算出処理の手順を示すフローチャート。The flowchart which shows the procedure of the far road shape calculation process in 1st Embodiment. 遠方走路領域の一例を拡大して示す説明図。Explanatory drawing which expands and shows an example of a distant track area. 撮像画像の一例を示す説明図。Explanatory drawing which shows an example of a captured image. 第1実施形態における目標通過点設定処理の手順を示すフローチャート。The flowchart which shows the procedure of the target passage point setting process in 1st Embodiment. 第2実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 2nd Embodiment. 第3実施形態における目標通過点設定処理の手順を示すフローチャート。The flowchart which shows the procedure of the target passage point setting process in 3rd Embodiment. 第4実施形態の走路認識装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the runway recognition apparatus of 4th Embodiment. 第4実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 4th Embodiment. 第5実施形態における目標通過点設定処理の手順を示すフローチャート。The flowchart which shows the procedure of the target passage point setting process in 5th Embodiment. 第6実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 6th Embodiment. 第6実施形態における評価値テーブルの設定内容の一例を示す説明図。Explanatory drawing which shows an example of the setting content of the evaluation value table in 6th Embodiment. 第6実施形態における統合尤度テーブルの設定内容の一例を示す説明図。Explanatory drawing which shows an example of the setting content of the integrated likelihood table in 6th Embodiment. 第7実施形態の走路認識装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the runway recognition apparatus of 7th Embodiment. 第7実施形態における実行判定処理の手順を示すフローチャート。The flowchart which shows the procedure of the execution determination process in 7th Embodiment. 第8実施形態の走路認識装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the runway recognition apparatus of 8th Embodiment. 第8実施形態における設定される処理領域の一例を示す説明図。Explanatory drawing which shows an example of the process area | region set in 8th Embodiment. 第9実施形態における走路認識装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the runway recognition apparatus in 9th Embodiment. 第10実施形態における走路認識装置の概略構成を示すブロック図。A block diagram showing a schematic structure of a runway recognition device in a 10th embodiment. 第11実施形態における走路認識装置の概略構成を示すブロック図。A block diagram showing a schematic structure of a runway recognition device in an 11th embodiment. 第11実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 11th Embodiment. 第12実施形態における走路認識装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the runway recognition apparatus in 12th Embodiment. 第12実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 12th Embodiment. 第12実施形態において自車両の姿勢変化が無い場合のポールまでの測定距離を模式的に示す説明図。Explanatory drawing which shows typically the measurement distance to a pole when there is no attitude change of the own vehicle in 12th Embodiment. 第12実施形態においてノーズダウンが生じた場合のポールまでの距離を撮像画像に基づき測定する様子を模式的に示す説明図。Explanatory drawing which shows typically a mode that the distance to a pole when nose-down arises in 12th Embodiment based on a captured image. 第12実施形態においてノーズダウンが生じた場合のポールまでの距離をミリ波レーダの測定結果に基づき測定する様子を模式的に示す説明図。Explanatory drawing which shows typically a mode that the distance to a pole when nose-down arises in 12th Embodiment based on the measurement result of a millimeter wave radar. 第13実施形態における走路認識装置の概略構成を示すブロック図。A block diagram showing a schematic structure of a runway recognition device in a 13th embodiment. 第14実施形態におけるパターンマッチング処理の手順を示すフローチャート。The flowchart which shows the procedure of the pattern matching process in 14th Embodiment. 第15実施形態における走路認識装置の概略構成を示すブロック図。A block diagram showing a schematic structure of a runway recognition device in a 15th embodiment. 第15実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 15th Embodiment. 第15実施形態において設定される処理領域の一例を示す説明図。Explanatory drawing which shows an example of the process area | region set in 15th Embodiment. 第16実施形態における走路認識装置の概略構成を示すブロック図。A block diagram showing a schematic structure of a runway recognition device in a 16th embodiment. 第16実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 16th Embodiment. ステップS805により決定された白線候補とそのスコア値を示す説明図。Explanatory drawing which shows the white line candidate determined by step S805, and its score value. 第17実施形態における走路認識装置の概略構成を示すブロック図。A block diagram showing a schematic structure of a runway recognition device in a 17th embodiment. 第17実施形態における遠方走路形状算出処理の要部の手順を示すフローチャート。The flowchart which shows the procedure of the principal part of the far road shape calculation process in 17th Embodiment. 第17実施形態における白線候補の正常性の判定例を示す説明図。Explanatory drawing which shows the example of determination of the normality of the white line candidate in 17th Embodiment. 第18実施形態において、白線候補を決定する処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which determines a white line candidate in 18th Embodiment.

A.第1実施形態:
A1.装置構成:
図1に示す本実施形態の走路認識装置100は、図示しない車両に搭載され、かかる車両の走路に認識する。なお、本実施形態において、走路認識装置100が搭載された車両を、「自車両」とも呼ぶ。自車両は、自動運転可能な車両である。自車両は、自動運転と手動運転(運転者による運転)とを切り替えて実行する車両と、これらの2種類の運転のうちの自動運転のみを実行する車両とのいずれであってもよい。走路認識装置100は、図示しないCPUおよびメモリを備えたECU(Electronic Control Unit)10により構成されている。走路認識装置100は、同様に車両に搭載された撮像部21、車速センサ22、ヨーレートセンサ23、および車両制御部31に、それぞれ電気的に接続されている。
A. First embodiment:
A1. Device configuration:
A travel path recognition apparatus 100 of the present embodiment shown in FIG. 1 is mounted on a vehicle (not shown) and recognizes the travel path of the vehicle. In the present embodiment, the vehicle on which the travel path recognition device 100 is mounted is also referred to as “own vehicle”. The own vehicle is a vehicle capable of automatic driving. The own vehicle may be either a vehicle that switches between automatic driving and manual driving (driving by the driver) and a vehicle that executes only automatic driving of these two types of driving. The travel path recognition apparatus 100 is configured by an ECU (Electronic Control Unit) 10 including a CPU and a memory (not shown). Similarly, the travel path recognition device 100 is electrically connected to an imaging unit 21, a vehicle speed sensor 22, a yaw rate sensor 23, and a vehicle control unit 31 that are mounted on the vehicle.

撮像部21は、水平方向に並ぶ2つのカメラ(いわゆるステレオカメラ)により構成されている。各カメラは、集光するレンズおよび受光素子を備え、自車両の前方を撮像して撮像画像を得る。撮像部21は、自車両のイグニッションがオンすると、撮像画像の取得を繰り返し実行する。車速センサ22は、自車両の移動速度を測定する。車速センサ22は、自車両のイグニッションがオンすると、車速の検出を繰り返し実行する。ヨーレートセンサ23は、自車両のヨーレート(回転角速度)を検出する。ヨーレートセンサ23は、自車両のイグニッションがオンすると、ヨーレートの検出を繰り返し実行する。車両制御部31は、車両の動きを制御する。車両制御部31としては、例えば、内燃機関や電動モータなどの駆動機構の動作を制御するECU、電子制御ブレーキシステム(ECB)を制御するECU、車輪の操舵角を制御するECUなどの複数のECUからなる。   The imaging unit 21 includes two cameras (so-called stereo cameras) arranged in the horizontal direction. Each camera includes a condensing lens and a light receiving element, and images the front of the host vehicle to obtain a captured image. When the ignition of the host vehicle is turned on, the imaging unit 21 repeatedly executes captured image acquisition. The vehicle speed sensor 22 measures the moving speed of the host vehicle. The vehicle speed sensor 22 repeatedly detects the vehicle speed when the ignition of the host vehicle is turned on. The yaw rate sensor 23 detects the yaw rate (rotational angular velocity) of the host vehicle. The yaw rate sensor 23 repeatedly executes yaw rate detection when the ignition of the host vehicle is turned on. The vehicle control unit 31 controls the movement of the vehicle. Examples of the vehicle control unit 31 include a plurality of ECUs such as an ECU that controls the operation of a drive mechanism such as an internal combustion engine or an electric motor, an ECU that controls an electronically controlled brake system (ECB), and an ECU that controls the steering angle of a wheel. Consists of.

走路認識装置100が備えるCPUがメモリに記憶されている制御プログラムを実行することにより、走路認識装置100は、近傍形状算出部101、遠方形状算出部102、近傍形状記憶部103、遠方形状記憶部104、および目標通過点設定部105として機能する。   When the CPU included in the travel path recognition apparatus 100 executes a control program stored in the memory, the travel path recognition apparatus 100 includes a near shape calculation unit 101, a far shape calculation unit 102, a near shape storage unit 103, and a far shape storage unit. 104 and the target passing point setting unit 105.

近傍形状算出部101は、後出する近傍走路形状特定処理を実行することにより、撮像部21により繰り返し得られる撮像画像に基づき、自車両の走行する走路であって自車両の近傍の走路の形状(以下、「近傍走路形状」と呼ぶ)を繰り返し算出する。「自車両の近傍」とは、撮像部21よりも進行方向前方の領域のうち、自車両から所定の距離以内の領域を意味する。本実施形態では、自車両の近傍を定義する上述の所定の距離は、7m(メートル)である。なお、7mに限らず任意の距離としてもよい。本実施形態において、「走路の形状」とは、走路の幅と、走路の幅方向の両端の位置と、走路の曲率(曲率半径)とで規定される。したがって、「近傍走路形状を算出する」とは、自車両の走行する走路であって自車両の近傍の走路(以下、「近傍走路」と呼ぶ)の走路の幅と、走路の幅方向の両端の位置と、走路の曲率(曲率半径)とをそれぞれ算出することを意味する。   The neighborhood shape calculation unit 101 executes a neighborhood track shape specifying process that will be described later, and based on the captured images repeatedly obtained by the imaging unit 21, the shape of the track that the vehicle travels and is near the host vehicle. (Hereinafter referred to as “neighboring runway shape”) is repeatedly calculated. “Near the host vehicle” means a region within a predetermined distance from the host vehicle in the region ahead of the imaging unit 21 in the traveling direction. In the present embodiment, the above-mentioned predetermined distance that defines the vicinity of the host vehicle is 7 m (meters). The distance is not limited to 7 m and may be an arbitrary distance. In this embodiment, “the shape of the runway” is defined by the width of the runway, the positions of both ends in the width direction of the runway, and the curvature (curvature radius) of the runway. Therefore, “calculate the shape of the nearby runway” means the runway on which the host vehicle travels, the runway width in the vicinity of the host vehicle (hereinafter referred to as “neighboring runway”), and both ends in the width direction of the runway. And the curvature (curvature radius) of the runway are calculated respectively.

遠方形状算出部102は、後出する遠方走路形状特定処理を実行することにより、自車両の走行予定の走路であって遠方の走路の形状(以下、「遠方走路形状」と呼ぶ)を繰り返し算出する。詳細手順については後述するが、概略を説明すると、遠方形状算出部102は、近傍形状算出部101により算出された近傍走路形状に基づき撮像画像における遠方走路形状を算出するための処理の対象となる領域(以下、単に「処理領域」と呼ぶ)を特定し、かかる処理領域内において遠方走路形状を算出する。「遠方走路形状を算出する」とは、自車両の走行予定の走路であって遠方の走路(以下、「遠方走路」と呼ぶ)の幅と、遠方走路の幅方向の両端の位置と、遠方走路の曲率(曲率半径)とをそれぞれ算出することを意味する。   The distant shape calculation unit 102 repeatedly calculates the shape of the distant road (hereinafter referred to as “distant road shape”) that is the travel path of the host vehicle by executing the far road shape specifying process described later. To do. Although the detailed procedure will be described later, the outline shape calculation unit 102 is a target of processing for calculating the distance road shape in the captured image based on the vicinity road shape calculated by the vicinity shape calculation unit 101. An area (hereinafter simply referred to as a “processing area”) is specified, and a far road shape is calculated within the processing area. “Calculate the shape of the far road” refers to the width of the far road (hereinafter referred to as “far road”), the positions of both ends in the width direction of the far road, This means calculating the curvature (curvature radius) of the runway.

近傍形状記憶部103は、近傍形状算出部101により算出された近傍走路形状を時系列的に履歴として記憶する。具体的には、算出された近傍走路形状を示す各パラメータを、算出時刻と共に記憶する。遠方形状記憶部104は、遠方形状算出部102により算出された遠方走路形状を時系列的に履歴として記憶する。具体的には、算出された遠方走路形状を示す各パラメータを、算出時刻と共に記憶する。   The neighborhood shape storage unit 103 stores the neighborhood track shape calculated by the neighborhood shape calculation unit 101 as a history in time series. Specifically, each parameter indicating the calculated nearby runway shape is stored together with the calculation time. The far shape storage unit 104 stores the far road shape calculated by the far shape calculation unit 102 as a history in time series. Specifically, each parameter indicating the calculated far road shape is stored together with the calculation time.

目標通過点設定部105は、後述する目標通過点設定処理を実行することにより、自車両が目標とする通過点を設定する。この目標通過点は、自車両が自動運転する際に目標とする通過点として利用される。基本的に目標通過点は、近傍走路形状に基づき設定されるが、近傍走路形状の算出精度が低くなる場合には、例外的に遠方走路形状に基づき設定される。このようにしているのは、基本的に近傍走路形状の算出精度は、遠方走路形状の算出精度よりも高いためである。   The target passing point setting unit 105 sets a passing point targeted by the host vehicle by executing a target passing point setting process described later. This target passing point is used as a target passing point when the host vehicle automatically operates. Basically, the target passing point is set based on the near road shape, but is exceptionally set based on the far road shape when the calculation accuracy of the near road shape is low. This is because the calculation accuracy of the near running road shape is basically higher than the calculation accuracy of the far running road shape.

A2.近傍走路形状算出処理:
図2に示す近傍走路形状算出処理は、自車両のイグニッションがオンすると定期的に繰り返し実行される。近傍形状算出部101は、得られた撮像画像における近傍走路のエッジ、より具体的には、近傍走路を区画する区画線のエッジを抽出する(ステップS105)。
A2. Neighborhood road shape calculation processing:
2 is periodically and repeatedly executed when the ignition of the host vehicle is turned on. The neighborhood shape calculation unit 101 extracts the edge of the nearby runway in the obtained captured image, more specifically, the edge of the lane marking that divides the neighborhood runway (step S105).

近傍形状算出部101は、抽出されたエッジを周知のハフ(Hough)変換して直線を検出し(ステップS110)、検出された直線のうちから区画線(白線)候補の直線を算出する(ステップS115)。具体的には、検出された直線のうちから、ハフ変換の投票数が多いものを白線候補として算出する。   The neighborhood shape calculation unit 101 detects a straight line by performing a well-known Hough transform on the extracted edge (step S110), and calculates a straight line of a partition line (white line) candidate from the detected straight line (step S110). S115). Specifically, among the detected straight lines, those having a large number of votes for Hough transform are calculated as white line candidates.

図3に示すように、撮像画像F1には、自車両の走路である車線Ln1と対向車線Ln2とが写っている。撮像画像F1の上方側に位置する遠方走路が含まれる領域(以下、「遠方走路領域」と呼ぶ)Af1と、撮像画像F1の下方側に位置する近傍走路が含まれる領域(以下、「近傍走路領域」と呼ぶ)An1とのうち、近傍走路領域An1において車線Ln1の区画線Lr1、Ll1のエッジが抽出され、それぞれの区画線Lr1、Ll1を表す直線が白線候補として算出される。   As shown in FIG. 3, the captured image F1 includes a lane Ln1 and an opposite lane Ln2 that are the traveling path of the host vehicle. An area including a far road (hereinafter referred to as a “far road area”) Af1 located on the upper side of the captured image F1 and an area including a nearby road located on the lower side of the captured image F1 (hereinafter referred to as “near road) The edge of the lane lines Lr1 and Ll1 of the lane Ln1 is extracted in the nearby track area An1, and the straight lines representing the lane lines Lr1 and Ll1 are calculated as white line candidates.

図2に示すように、近傍形状算出部101は、白線候補の絞り込みを行う(ステップS120)。具体的には、例えば撮影画像における白線候補の周囲の路面に対する、白線候補のコントラストの比率が所定の閾値よりも高いものや、白線候補部分の輝度とその周囲の輝度との差が所定の閾値以上に大きいものに白線候補を限定する。他にも、線の太さ、総延長距離など、様々な特徴を考慮して絞り込んでもよい。そして、車両の中心から左右方向に最も近い1つの白線候補を選択する。   As shown in FIG. 2, the neighborhood shape calculation unit 101 narrows down white line candidates (step S120). Specifically, for example, the ratio of the contrast of the white line candidate to the road surface around the white line candidate in the photographed image is higher than a predetermined threshold, or the difference between the luminance of the white line candidate part and the surrounding luminance is a predetermined threshold. Limit white line candidates to those larger than the above. In addition, it may be narrowed down in consideration of various characteristics such as line thickness and total extension distance. Then, one white line candidate closest to the left-right direction from the center of the vehicle is selected.

近傍形状算出部101は、ステップS120において白線候補が絞り込まれたか否かを判定し(ステップS125)、絞り込まれていない、すなわち白線候補が無いと判定された場合(ステップS125:NO)、上述のステップS105に戻る。これに対して、白線候補があると判定された場合(ステップS125:YES)、近傍形状算出部101は、S120にて絞り込まれた白線候補を構成するエッジ点を、平面座標に変換する(S130)。平面座標とは、路面を平面と仮定したときの座標である。ここでは事前にキャリブレーションで求めた撮像装置を構成するカメラの位置・姿勢の情報(以下、「撮像パラメータ」と呼ぶ)を基に撮影画像上のエッジ点を座標変換する。このようにエッジ点を平面座標上の情報とすることで、過去の撮影画像に基づくエッジ点の座標情報との組み合わせを容易に行うことができるようになる。   The neighboring shape calculation unit 101 determines whether or not the white line candidates are narrowed down in step S120 (step S125). If it is determined that the white line candidates are not narrowed down, that is, there is no white line candidate (step S125: NO), The process returns to step S105. On the other hand, when it is determined that there is a white line candidate (step S125: YES), the neighboring shape calculation unit 101 converts the edge points constituting the white line candidate narrowed down in S120 into plane coordinates (S130). ). The plane coordinates are coordinates when the road surface is assumed to be a plane. Here, the coordinate conversion of the edge point on the captured image is performed based on the position / orientation information (hereinafter, referred to as “imaging parameter”) of the camera constituting the imaging apparatus obtained in advance by calibration. By using the edge point as information on the plane coordinates in this way, it becomes possible to easily combine with the coordinate information of the edge point based on the past captured image.

近傍形状算出部101は、ステップS130で算出した平面座標から、近傍走路形状を算出する(ステップS135)。上述ように、近傍走路形状は、近傍走路についての、走路の幅と、走路の幅方向の両端の位置と、走路の曲率(曲率半径)とを意味する。これらの各パラメータの算出方法は、例えば、特開2013−196341号公報に記載の方法など、周知の方法を採用してもよい。   The neighborhood shape calculation unit 101 calculates the neighborhood track shape from the plane coordinates calculated in step S130 (step S135). As described above, the near runway shape means the width of the runway, the positions of both ends in the width direction of the runway, and the curvature (curvature radius) of the runway. As a calculation method of each of these parameters, for example, a well-known method such as a method described in JP2013-196341A may be adopted.

近傍形状算出部101は、ステップS135で算出された近傍走路形状を、遠方形状算出部102および目標通過点設定部105に出力し、また、算出した時刻と共に近傍形状記憶部103に記憶する(ステップS140)。   The neighborhood shape calculation unit 101 outputs the neighborhood road shape calculated in step S135 to the far shape calculation unit 102 and the target passing point setting unit 105, and stores it in the neighborhood shape storage unit 103 together with the calculated time (step). S140).

A3.遠方走路形状算出処理:
図4に示す近傍走路形状算出処理は、自車両のイグニッションがオンすると定期的に繰り返し実行される。遠方形状算出部102は、所定の時刻に近傍走路形状の入力があるか否かを判定する(ステップS205)。上述のように、近傍走路形状算出処理のステップS140が実行された場合には、「入力あり」と判定される。これに対して、近傍走路形状算出処理のステップS125において白線候補の絞り込みの結果、白線候補が無いと判定された場合、ステップS140は実行されず、所定の時刻に近傍走路形状は、遠方形状算出部102に入力されない。
A3. Distant road shape calculation processing:
The near road shape calculation process shown in FIG. 4 is repeatedly executed periodically when the ignition of the host vehicle is turned on. The distant shape calculation unit 102 determines whether or not there is an input of the near road shape at a predetermined time (step S205). As described above, when step S140 of the nearby running road shape calculation process is executed, it is determined that “input is present”. On the other hand, if it is determined that there are no white line candidates as a result of narrowing down the white line candidates in step S125 of the nearby runway shape calculation process, step S140 is not executed, and the nearby runway shape is calculated as a far-end shape at a predetermined time. It is not input to the part 102.

近傍走路形状の入力があると判定された場合(ステップS205:YES)、遠方形状算出部102は、入力された近傍走路形状を利用して、近傍走路(区画線)を延長させて遠方走路形状を推定する(ステップS210)。遠方形状算出部102は、推定された遠方走路形状に基づき処理領域を設定する(ステップS215)。処理領域とは、遠方走路領域のうち、遠方走路形状を算出する(特定する)際に、区画線のエッジ点を抽出する対象領域として絞り込まれる領域を意味する。換言すると、区画線のエッジ点を抽出して遠方走路形状を算出する処理の対象となる領域を意味する。   When it is determined that there is an input of the near track shape (step S205: YES), the far shape calculation unit 102 extends the near track (division line) by using the input near track shape, and the far track shape. Is estimated (step S210). The far shape calculation unit 102 sets a processing region based on the estimated far road shape (step S215). The processing area means an area narrowed down as a target area from which edge points of lane markings are extracted when calculating (specifying) a far road shape among far road areas. In other words, it means a region to be processed in which the edge point of the lane marking is extracted and the far road shape is calculated.

図5では、図3の撮像画像F1における遠方走路領域Af1を拡大して模式的に示している。図5では、ステップS210において推定された遠方走路形状に基づき、遠方走路領域Af1において2つの処理領域Er1、El1が設定されている。なお、図3にも処理領域Er1、El1が表わされている。以下、これら2つの処理領域Er1、El1の設定方法を説明する。区画線Lr1において、最も手前側の点Pr1と消失点P0から予め定められた距離d1だけ手前の点Pr11とを定める。消失点P0は、2つの区画線Lr1、Ll1が交差する点として求める。次に、定められた2つの点Pr1、Pr11について、それぞれ該当する点を中心として、水平方向に所定の距離の幅を有する2つの辺(短辺)を求め、かかる辺の端同士を区画線Lr1に沿って結んで2つの辺(長辺)を定める。こうして定められた2つの短辺および2つの長辺で囲まれる領域を、処理領域Er1として設定する。同様に、区画線Ll1において、最も手前側の点Pl1と消失点P0から予め定められた距離d1だけ手前の点Pl11とを定める。次に、定められた2つの点Pl1、Pl11について、それぞれ該当する点を中心として、水平方向に所定の距離の幅を有する2つの辺(短辺)を求め、かかる辺の端同士を区画線Ll1に沿って結んで2つの辺(長辺)を定める。こうして定められた2つの短辺および2つの長辺で囲まれる領域を、処理領域El1として設定する。図3および図5に示すように、走路(車線Ln1)が直線状であり、両側の区画線Lr1、Ll1がいずれも直線の場合には、処理領域Er1、El1の形状は、いずれも撮像画像において台形形状となる。   In FIG. 5, the far road area Af1 in the captured image F1 of FIG. 3 is schematically illustrated in an enlarged manner. In FIG. 5, two processing areas Er1 and El1 are set in the far road area Af1 based on the far road shape estimated in step S210. FIG. 3 also shows the processing areas Er1 and El1. Hereinafter, a method for setting these two processing areas Er1 and El1 will be described. On the lane marking Lr1, a point Pr11 that is a distance from the nearest point Pr1 and the vanishing point P0 by a predetermined distance d1 is determined. The vanishing point P0 is obtained as a point where the two partition lines Lr1 and Ll1 intersect. Next, with respect to the two determined points Pr1 and Pr11, two sides (short sides) having a predetermined distance in the horizontal direction are obtained around the corresponding points, and the ends of the sides are defined as a dividing line. Two sides (long sides) are defined by connecting along Lr1. A region surrounded by the two short sides and the two long sides thus determined is set as a processing region Er1. Similarly, on the division line L11, a point P11 that is the nearest side from the point P11 and the vanishing point P0 that is a predetermined distance d1 is determined. Next, with respect to the two determined points Pl1 and Pl11, two sides (short sides) having a predetermined distance in the horizontal direction are obtained with the corresponding point as the center, and the ends of the sides are separated from each other. Two sides (long sides) are defined by connecting along Ll1. A region surrounded by the two short sides and the two long sides thus determined is set as a processing region El1. As shown in FIGS. 3 and 5, when the running road (lane Ln1) is a straight line and the dividing lines Lr1 and Ll1 on both sides are straight lines, the shapes of the processing regions Er1 and El1 are both captured images. It becomes a trapezoid shape.

図4に示すように、処理領域の設定後(ステップS215の後)、遠方形状算出部102は、処理領域内において遠方走路を区画するエッジを抽出する(ステップS220)。その後に実行されるハフ変換(ステップS225)、白線候補算出(ステップS230)、候補絞り込み(ステップS235)、候補の有無の判定(ステップS240)、エッジ点平面変換(ステップS245)は、いずれも上述の近傍走路形状算出処理のステップS110〜S130と同じであるので、詳細な説明を省略する。なお、ステップS240において白線候補が無いと判定された場合(ステップS240:NO)、遠方走路形状算出処理は終了する。   As shown in FIG. 4, after setting the processing area (after step S215), the far shape calculation unit 102 extracts an edge that divides the far road in the processing area (step S220). The Hough transform (step S225), white line candidate calculation (step S230), candidate narrowing down (step S235), determination of presence / absence of candidates (step S240), and edge point plane conversion (step S245) executed thereafter are all described above. Since this is the same as steps S110 to S130 of the nearby runway shape calculation process, detailed description thereof is omitted. In addition, when it determines with there being no white line candidate in step S240 (step S240: NO), a far road shape calculation process is complete | finished.

ステップS245の実行後、遠方形状算出部102は、ステップS240で算出した平面座標から、遠方走路形状を算出する(ステップS250)。かかる算出方法は、上述の近傍走路形状算出処理のステップS135と同様であるので、詳細な説明を省略する。   After execution of step S245, the distant shape calculation unit 102 calculates the distant traveling road shape from the plane coordinates calculated in step S240 (step S250). Since this calculation method is the same as that of step S135 of the above-mentioned neighborhood track shape calculation process, detailed description thereof is omitted.

遠方形状算出部102は、ステップS250で算出された遠方走路形状を、目標通過点設定部105に出力し、また、算出した時刻と共に遠方形状記憶部104に記憶する(ステップS255)。   The far shape calculation unit 102 outputs the far road shape calculated in step S250 to the target passing point setting unit 105, and stores it in the far shape storage unit 104 together with the calculated time (step S255).

上述のステップS205において、所定の時刻に近傍走路形状の入力がないと判定された場合(ステップS205:NO)、遠方形状算出部102は、前回のタイミングで算出された遠方走路形状が遠方形状記憶部104にあるか否かを判定する(ステップS270)。   In step S205 described above, when it is determined that there is no input of a nearby runway shape at a predetermined time (step S205: NO), the far road shape calculation unit 102 stores the far roadway shape calculated at the previous timing as a far shape memory. It is determined whether it exists in the part 104 (step S270).

図6に示す撮像画像F2は、自車両が交差点CRの手前で停車している際に得られた画像の一例である。撮像画像F2には、近傍走路領域An2の下端(手前側端部)に、少しだけ区画線Lr2、Ll2が写っているものの、近傍走路領域An2の下方に写った横断歩道Pd1よりも先には、区画線は写っていない。したがって、この場合、白線候補は絞り込まれず、遠方形状算出部102に近傍走路形状は入力されず、上述のステップS205において所定の時刻に近傍走路形状の入力がないと判定される。なお、撮像画像F2において遠方走路領域Af2には、交差点CRを挟んで存在する横断歩道Pd2と、区画線Lr2、Ll2の続きが写っている。   The captured image F2 illustrated in FIG. 6 is an example of an image obtained when the host vehicle is stopped before the intersection CR. In the captured image F2, although the lane markings Lr2 and Ll2 are slightly shown at the lower end (front end) of the adjacent runway region An2, the pedestrian crossing Pd1 shown below the nearby runway region An2 is ahead. The lane marking is not shown. Therefore, in this case, the white line candidates are not narrowed down, and the near road shape is not input to the far shape calculation unit 102, and it is determined in step S205 described above that there is no input of the near road shape at a predetermined time. In the captured image F2, the distant runway region Af2 includes a pedestrian crossing Pd2 that exists across the intersection CR and a continuation of the lane markings Lr2 and Ll2.

図4に示すように、前回のタイミングで算出された遠方走路形状が遠方形状記憶部104にないと判定された場合(ステップS270:NO)、遠方走路形状算出処理は終了する。これに対し、遠方走路形状の履歴があると判定された場合(ステップS270:YES)、遠方形状算出部102は、遠方形状記憶部104に記憶されている前回の遠方走路形状と、撮像パラメータと、車両の動きを示す情報とに基づき、遠方走路領域において、処理領域を設定する(ステップS275)。車両の動きを示す情報とは、例えば、車速センサ22から得られる自車両の移動速度、ヨーレートセンサ23から得られるヨーレート、車両制御部31から得られる操舵角などを意味する。ステップS275において、遠方形状算出部102は、前回算出された遠方走路形状を、撮像パラメータと車両の動きから補正して今回の(今回の撮像画像における)遠方走路形状を推定する。そして、かかる推定された遠方走路形状から遠方走路領域における区画線を特定し、かかる区画線に基づき処理領域を設定する。区画線に基づく処理領域の設定方法は、上述のステップS215について説明した方法と同じであるので、その詳細な説明を省略する。図6の例では、遠方走路領域Af2に2つの処理領域Er2、El2が設定されている。ステップS275の実行後、上述のステップS220〜S255が実行される。   As illustrated in FIG. 4, when it is determined that the far road shape calculated at the previous timing is not in the far shape storage unit 104 (step S <b> 270: NO), the far road shape calculation process ends. On the other hand, if it is determined that there is a history of the far road shape (step S270: YES), the far shape calculation unit 102 stores the previous far road shape stored in the far shape storage unit 104, the imaging parameters, and the like. Based on the information indicating the movement of the vehicle, a processing area is set in the far road area (step S275). The information indicating the movement of the vehicle means, for example, a moving speed of the host vehicle obtained from the vehicle speed sensor 22, a yaw rate obtained from the yaw rate sensor 23, a steering angle obtained from the vehicle control unit 31, and the like. In step S275, the far shape calculation unit 102 corrects the far road shape calculated last time from the imaging parameters and the motion of the vehicle, and estimates the current far road shape (in the current captured image). Then, the lane marking in the far lane area is specified from the estimated far lane shape, and the processing area is set based on the lane marking. Since the method for setting the processing area based on the lane marking is the same as the method described for step S215 described above, detailed description thereof is omitted. In the example of FIG. 6, two processing areas Er2 and El2 are set in the far road area Af2. After execution of step S275, the above-described steps S220 to S255 are executed.

A4.目標通過点設定処理:
図7に示す目標通過点設定処理は、自車両のイグニッションがオンすると定期的に繰り返し実行される。目標通過点設定部105は、所定の時刻に近傍走路形状の入力があるか否かを判定する(ステップS305)。上述のように、近傍走路形状算出処理は定期的に実行され、ステップS140が実行される場合には、定期的に近傍走路形状が目標通過点設定部105に入力される。他方、近傍走路形状が算出されない場合には、所定時刻に近傍走路形状は目標通過点設定部105に入力されない。
A4. Target passing point setting process:
The target passing point setting process shown in FIG. 7 is repeatedly executed periodically when the ignition of the host vehicle is turned on. The target passing point setting unit 105 determines whether or not there is an input of a nearby runway shape at a predetermined time (step S305). As described above, the near road shape calculation process is periodically executed, and when step S140 is executed, the near road shape is periodically input to the target passing point setting unit 105. On the other hand, if the nearby runway shape is not calculated, the nearby runway shape is not input to the target passing point setting unit 105 at a predetermined time.

近傍走路形状の入力があると判定された場合(ステップS305:YES)、目標通過点設定部105は、近傍走路形状に基づき目標通過点を設定する(ステップS310)。具体的には、目標通過点設定部105は、近傍走路領域における近傍走路の中央点を目標通過点として設定する。例えば、図3の例では、車線Ln1の両端の区画線Lr1、Ll1の水平方向の中央であり、かつ、近傍走路領域An1における奥行方向の中央の点PT1が目標通過点として設定される。   When it is determined that there is an input of a nearby runway shape (step S305: YES), the target passing point setting unit 105 sets a target passing point based on the nearby runway shape (step S310). Specifically, the target passing point setting unit 105 sets the center point of the neighboring runway in the neighboring runway region as the target passing point. For example, in the example of FIG. 3, the center point PT1 in the horizontal direction of the lane markings Lr1 and Ll1 at both ends of the lane Ln1 and the center in the depth direction in the adjacent track area An1 is set as the target passing point.

図7に示すように、上述のステップS305において、近傍走路形状の入力がないと判定された場合(ステップS305:NO)、目標通過点設定部105は、遠方走路形状の入力があるか否かを判定する(ステップS315)。上述の遠方走路形状算出処理のステップS255が実行された場合には、遠方走路形状が目標通過点設定部105に入力される。これに対して、ステップS255が実行されない場合、すなわち、近傍走路形状の入力が無く(ステップS205:NO)、且つ、前回のタイミングで算出された遠方走路形状が無いと判定された場合(ステップS270:NO)、遠方走路形状は目標通過点設定部105に入力されない。   As illustrated in FIG. 7, when it is determined in step S305 described above that there is no input of the near road shape (step S305: NO), the target passing point setting unit 105 determines whether there is an input of the far road shape. Is determined (step S315). When step S <b> 255 of the far road shape calculation process described above is executed, the far road shape is input to the target passing point setting unit 105. On the other hand, when step S255 is not executed, that is, when it is determined that there is no input of the near track shape (step S205: NO) and there is no far track shape calculated at the previous timing (step S270). : NO), the far road shape is not input to the target passing point setting unit 105.

遠方走路形状の入力があると判定された場合(ステップS315:YES)、目標通過点設定部105は、遠方走路形状に基づき目標通過点を設定する(ステップS330)。具体的には、目標通過点設定部105は、遠方走路領域における遠方走路の水平方向の中央であって、最も手前側の点を目標通過点として設定する。例えば、図6の例では、区画線Lr2、Ll2の水平方向に沿った中央であって、遠方走路領域Af2における最も手前側の点PT2が、目標通過点として設定される。   When it is determined that there is an input of the far road shape (step S315: YES), the target passing point setting unit 105 sets a target passing point based on the far road shape (step S330). Specifically, the target passing point setting unit 105 sets a point closest to the far side in the horizontal direction of the far road in the far road area as the target passing point. For example, in the example of FIG. 6, the point PT2 closest to the center in the horizontal direction of the division lines Lr2 and Ll2 and in the far travel area Af2 is set as the target passing point.

上述のステップS310の実行後、または、ステップS330の実行後、または、ステップS315において遠方走路形状の入力がないと判定された場合(ステップS315:NO)、目標通過点設定処理は終了する。   After execution of step S310 described above, after execution of step S330, or when it is determined in step S315 that there is no far road shape input (step S315: NO), the target passing point setting process ends.

以上説明した第1実施形態の走路認識装置100によれば、撮像画像を利用して近傍走路形状を算出できない場合には、前回の遠方走路形状を利用して処理領域が設定されるので、車両の近傍の走路形状が認識できない場合にも遠方の走路形状を精度良く認識できる。加えて、近傍走路形状が出力された場合には、近傍走路形状に基づき目標通過点が設定されるので、精度良く目標通過点を設定できる。また、近傍走路形状が出力されない場合には遠方走路形状に基づき目標通過点が設定されるので、近傍走路形状が出力されない場合であっても目標通過点が設定できないことを避けることができると共に、かかる場合であっても精度良く認識した走路形状に基づき目標通過点を設定できる。このため、精度良く目標通過点を設定できる。   According to the runway recognition device 100 of the first embodiment described above, when the neighborhood runway shape cannot be calculated using the captured image, the processing region is set using the previous far runway shape, so that the vehicle Even if the runway shape in the vicinity of can not be recognized, the far runway shape can be recognized with high accuracy. In addition, when the near runway shape is output, the target pass point is set based on the near runway shape, so that the target pass point can be set with high accuracy. In addition, since the target passing point is set based on the far traveling road shape when the nearby running road shape is not output, it can be avoided that the target passing point cannot be set even when the neighboring traveling road shape is not output, Even in such a case, the target passing point can be set based on the recognized road shape. For this reason, the target passing point can be set with high accuracy.

B.第2実施形態:
第2実施形態の走路認識装置の装置は、第1実施形態の走路認識装置100の装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。第2実施形態の走路形状算出処理は、図8に示すように、ステップS209を追加して実行する点において、図4に示す第1実施形態の走路形状算出処理と異なり、その他の手順は同一である。
B. Second embodiment:
Since the device of the road recognition device of the second embodiment is the same as the device configuration of the road recognition device 100 of the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted. . The runway shape calculation process of the second embodiment is different from the runway shape calculation process of the first embodiment shown in FIG. 4 in that step S209 is added and executed as shown in FIG. It is.

ステップS205において、近傍走路形状の入力がないと判定された場合(ステップS205:YES)、遠方形状算出部102は、予め定められた閾値時間を超えて近傍走路形状の入力が連続してないか否かを判定する(ステップS209)。本実施形態では、予め定められた期間(所定の時間)として、1秒間が設定されている。なお、1秒間に限らず、撮像画像の取得間隔よりも長い任意の時間に設定されてもよい。予め定められた閾値を超えて近傍走路形状の入力が連続してないと判定された場合(ステップS209:YES)、遠方走路形状算出処理は終了する。これに対して、予め定められた閾値を超えて近傍走路形状の入力が連続してないことはない(すなわち、入力がある)と判定された場合(ステップS209:NO)、上述のステップS270が実行される。このように、予め定められた閾値時間を超えて近傍走路形状の入力が連続してない場合に遠方走路形状算出処理を終了するのは、遠方走路形状の履歴を利用した遠方走路形状の算出が長い時間継続したために遠方走路形状の算出精度が低下することを抑制するためである。なお、ステップS209の閾値時間は、請求項における第1期間の下位概念に相当する。   In step S205, when it is determined that there is no input of the near track shape (step S205: YES), the far shape calculation unit 102 does not continuously input the near track shape beyond a predetermined threshold time. It is determined whether or not (step S209). In this embodiment, 1 second is set as a predetermined period (predetermined time). In addition, you may set not only 1 second but the arbitrary time longer than the acquisition interval of a captured image. When it is determined that the input of the adjacent runway shape does not continue beyond the predetermined threshold (step S209: YES), the far runway shape calculation process ends. On the other hand, when it is determined that there is no continuous input of the adjacent track shape exceeding the predetermined threshold (that is, there is an input) (step S209: NO), the above-described step S270 is performed. Executed. As described above, when the input of the adjacent runway shape is not continued beyond the predetermined threshold time, the far runway shape calculation process is terminated by calculating the far runway shape using the history of the far runway shape. This is to prevent the calculation accuracy of the distant traveling road shape from being lowered due to continuing for a long time. Note that the threshold time in step S209 corresponds to a subordinate concept of the first period in the claims.

以上説明した第2実施形態の走路認識装置は、第1実施形態の走路認識装置100と同様な効果を有する。加えて、近傍走路形状が予め定められた期間を超えて連続して算出されない場合には、遠方走路形状の算出を停止するので、遠方走路形状の算出精度が低下することを抑制できる。このため、低い精度で算出された遠方走路形状が履歴として記憶されてしまうことを抑制でき、処理領域の特定精度が低下することを抑制できる。   The travel path recognition apparatus of the second embodiment described above has the same effect as the travel path recognition apparatus 100 of the first embodiment. In addition, since the calculation of the far road shape is stopped when the near road shape is not continuously calculated beyond a predetermined period, it is possible to suppress a decrease in the calculation accuracy of the far road shape. For this reason, it can suppress that the far road shape calculated with low precision is memorize | stored as a log | history, and can suppress that the specific precision of a process area falls.

C.第3実施形態:
第3実施形態の走路認識装置の装置は、第1実施形態の走路認識装置100の装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。第3実施形態の目標通過点設定処理は、図9に示すように、ステップS319、S320を追加して実行する点において、図7に示す第1実施形態の目標通過点設定処理と異なり、その他の手順は同一である。
C. Third embodiment:
Since the device of the road recognition device of the third embodiment is the same as the device configuration of the road recognition device 100 of the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted. . The target passing point setting process of the third embodiment is different from the target passing point setting process of the first embodiment shown in FIG. 7 in that the steps S319 and S320 are added and executed as shown in FIG. The procedure is the same.

図9に示すように、ステップS315において遠方走路形状の入力がないと判定された場合(ステップS315:NO)、目標通過点設定部105は、予め定められた閾値時間(所定の閾値時間)を超えて遠方走路形状の入力がないか否かを判定する(ステップS319)。上述の予め定められた閾値時間(所定の閾値時間)は、本実施形態では、2秒間に設定されている。かかる予め定められた閾値時間を超えて遠方走路形状の入力がないと判定された場合(ステップS319:YES)、目標通過点設定処理は終了する。これに対して、予め定められた閾値時間を超えて遠方走路形状の入力がないことはない(すなわち、閾値時間以内で入力がある)と判定された場合(ステップS319:NO)、目標通過点設定部105は、遠方形状記憶部104に記憶されている遠方走路形状の履歴に基づき今回の遠方走路形状を算出する(ステップS320)。本実施形態では、このステップS320は、図4に示す第1実施形態における遠方走路形状算出処理のステップS275において「前回の遠方走路形状」を「最新の遠方走路形状」に置き換えて実行し、その後ステップS215〜S255を実行する処理を意味する。なお、「最新の遠方走路形状」に限らず、新しい方から数えて所定回数分の遠方走路形状を用いて、例えば、これらの遠方走路形状を平均化して、ステップS275の処理を行い、その後ステップS220〜S225を実行してもよい。すなわち、遠方走路形状の履歴を用いた任意の方法で、今回の遠方走路形状を算出してもよい。また、遠方走路形状の履歴に代えて、または、遠方走路形状の履歴に加えて、近傍走路形状の履歴を用いて今回の遠方走路形状を算出してもよい。例えば、最新の近傍走路形状で特定される区画線を単純に延長(外挿)して遠方走路形状を求め、かかる遠方走路形状を今回の遠方走路形状としてもよい。または、図4に示す遠方走路形状算出処理のステップS210における「(入力された)近傍走路形状」を、「最新の近傍走路形状」に置き換えてステップS210を実行し、その後ステップS220〜S255を実行して今回の遠方走路形状を算出してもよい。さらには、最新の近傍走路形状で特定される区画線を単純に延長(外挿)して求める遠方走路形状と、過去の遠方走路形状との平均値を求め、かかる平均値を図4に示す遠方走路形状算出処理のステップS275における「前回の遠方走路形状」と置き換えてステップS275を実行し、その後ステップS220〜S255を実行して今回の遠方走路形状を算出してもよい。すなわち、一般には、近傍走路形状の履歴と、遠方走路形状の履歴と、のうち少なくとも一方を用いて今回の遠方走路形状の算出する任意の方法を、ステップS320で実行してもよい。ステップS320の実行後、上述のステップS330が実行される。なお、ステップS320の閾値時間は、請求項における第2期間の下位概念に相当する。   As shown in FIG. 9, when it is determined in step S315 that there is no far road shape input (step S315: NO), the target passing point setting unit 105 sets a predetermined threshold time (predetermined threshold time). It is determined whether or not there is no input of the far road shape (step S319). In the present embodiment, the above-described predetermined threshold time (predetermined threshold time) is set to 2 seconds. When it is determined that there is no far road shape input exceeding the predetermined threshold time (step S319: YES), the target passing point setting process ends. On the other hand, when it is determined that there is no input of the far road shape exceeding the predetermined threshold time (that is, there is an input within the threshold time) (step S319: NO), the target passing point The setting unit 105 calculates the current far road shape based on the far road shape history stored in the far shape storage unit 104 (step S320). In this embodiment, this step S320 is executed by replacing the “previous far road shape” with the “latest far road shape” in step S275 of the far road shape calculation process in the first embodiment shown in FIG. It means the process of executing steps S215 to S255. In addition, it is not limited to the “latest far-off road shape”, and for example, these far-runway shapes are averaged using a predetermined number of far-off road shapes counted from the newer side, and then the process of step S275 is performed. S220 to S225 may be executed. That is, the current far road shape may be calculated by an arbitrary method using the history of the far road shape. Further, instead of the history of the far road shape, or in addition to the history of the far road shape, the current far road shape may be calculated using the history of the near road shape. For example, a far road shape may be obtained by simply extending (extrapolating) a lane line specified by the latest neighboring road shape, and the far road shape may be used as the current far road shape. Alternatively, the step S210 is executed by replacing the “(input) near road shape” in step S210 of the far road shape calculation process shown in FIG. 4 with the “latest near road shape”, and then the steps S220 to S255 are executed. Then, the current far road shape may be calculated. Furthermore, the average value of the far road shape obtained by simply extending (extrapolating) the lane line specified by the latest neighboring road shape and the past far road shape is obtained, and the average value is shown in FIG. It is also possible to execute step S275 in place of the “previous far road shape” in step S275 of the far road shape calculation process, and then execute steps S220 to S255 to calculate the current far road shape. That is, in general, any method for calculating the current far road shape using at least one of the history of the near road shape and the history of the far road shape may be executed in step S320. After step S320 is executed, step S330 described above is executed. The threshold time in step S320 corresponds to a subordinate concept of the second period in the claims.

以上説明した第3実施形態の走路認識装置は、第1実施形態の走路認識装置100と同様な効果を有する。加えて、閾値時間を超えて遠方走路形状が入力されない、すなわち、閾値時間を超えて遠方走路形状が算出されない場合には、近傍走路形状の履歴と、遠方走路形状の履歴と、のうち少なくとも一方を用いて今回の遠方走路形状を算出するので、頻繁に遠方走路形状が算出されなくなることを抑制できる。また、遠方走路形状の履歴の量が少なくなって処理領域の特定精度が低下することを抑制できる。他方、遠方走路形状が算出されない期間が閾値時間を超えた場合には、遠方走路形状の算出を停止するので、低い精度で認識される遠方走路形状が履歴として記憶されることを抑制できる。   The travel path recognition apparatus of the third embodiment described above has the same effect as the travel path recognition apparatus 100 of the first embodiment. In addition, if the far road shape is not input beyond the threshold time, that is, if the far road shape is not calculated beyond the threshold time, at least one of the history of the near road shape and the history of the far road shape Since this far-running road shape is calculated using, it is possible to prevent the far-running road shape from being frequently calculated. Moreover, it can suppress that the quantity of the log | history of a distant track shape decreases, and the specific precision of a process area | region falls. On the other hand, when the period during which the far road shape is not calculated exceeds the threshold time, the calculation of the far road shape is stopped, so that the far road shape recognized with low accuracy can be suppressed from being stored as a history.

D.第4実施形態:
図10に示す第4実施形態の走路認識装置100aは、車両位置判定部106として機能する点において、第1実施形態の走路認識装置100と異なる。第4実施形態の走路認識装置100aのその他の構成は、第1実施形態の走路認識装置100と同じであるので、その詳細な説明を省略する。
D. Fourth embodiment:
The road recognition device 100a of the fourth embodiment shown in FIG. 10 is different from the road recognition device 100 of the first embodiment in that it functions as the vehicle position determination unit 106. Since the other structure of the track recognition apparatus 100a of 4th Embodiment is the same as the track recognition apparatus 100 of 1st Embodiment, the detailed description is abbreviate | omitted.

車両位置判定部106は、自車両の現在位置が交差点領域内であるか否かを判定する。交差点領域とは、交差点および交差点の近傍領域を含む領域を意味する。交差点の近傍領域とは、交差点の中央から所定の距離以内の領域を意味し、本実施形態では、交差点の中央から50m以内の領域を意味する。なお、50mに限らず、交差点の近傍であると認められる任意の距離以内の領域を意味してもよい。本実施形態において、車両位置判定部106は、現在位置が交差点領域内であるか否かを、撮像画像に信号機が写っており且つその大きさが所定の大きさ以上であるか否かにより判定する。信号機が所定の大きさ以上に写っている場合には、自車両の位置は交差点内または交差点の近傍に位置する。なお、自車両に搭載されている図示しないナビゲーションシステムにより得られる自車両の位置情報に基づき判定してもよい。   The vehicle position determination unit 106 determines whether or not the current position of the host vehicle is within the intersection area. The intersection area means an area including an intersection and a neighborhood area of the intersection. The neighborhood area of the intersection means an area within a predetermined distance from the center of the intersection, and in this embodiment, means an area within 50 m from the center of the intersection. In addition, you may mean the area | region within the arbitrary distance recognized as being not only 50m but the intersection vicinity. In the present embodiment, the vehicle position determination unit 106 determines whether or not the current position is within the intersection area based on whether or not the traffic light is shown in the captured image and the size is equal to or greater than a predetermined size. To do. When the traffic light is shown to be larger than a predetermined size, the position of the own vehicle is located in or near the intersection. The determination may be made based on the position information of the own vehicle obtained by a navigation system (not shown) mounted on the own vehicle.

図11に示すように、第4実施形態の遠方走路形状算出処理は、ステップS206、S207、S208を追加して実行する点において、第2実施形態の走路形状算出処理と異なり、その他の手順は同一である。   As shown in FIG. 11, the far road shape calculation process of the fourth embodiment is different from the road shape calculation process of the second embodiment in that steps S206, S207, and S208 are added, and the other procedures are as follows. Are the same.

ステップS205において、近傍走路形状の入力がないと判定された場合(ステップS205:YES)、遠方形状算出部102は、自車両の現在位置が交差点領域内であるか否かを判定する(ステップS206)。   In step S205, when it is determined that there is no input of a nearby runway shape (step S205: YES), the far shape calculation unit 102 determines whether or not the current position of the host vehicle is within the intersection area (step S206). ).

自車両の現在位置が交差点領域内でないと判定された場合(ステップS206:NO)、遠方形状算出部102は、上述のステップS209における閾値時間を、通常の時間に設定する(ステップS207)。通常の時間として、本実施形態では1秒間が設定されている。なお、1秒間に限らず、撮像画像の取得間隔よりも長い任意の時間に設定されてもよい。   When it is determined that the current position of the host vehicle is not within the intersection area (step S206: NO), the far shape calculation unit 102 sets the threshold time in step S209 described above to a normal time (step S207). In this embodiment, 1 second is set as the normal time. In addition, you may set not only 1 second but the arbitrary time longer than the acquisition interval of a captured image.

これに対して、自車両の現在位置が交差点領域内であると判定された場合(ステップS206:YES)、遠方形状算出部102は、上述のステップS209の所定の閾値時間を、通常の時間よりも長い時間に設定する(ステップS208)。より長い時間として、本実施形態では2秒間が設定されている。なお、2秒間に限らず、通常の時間よりも長い任意の時間に設定されてもよい。   On the other hand, when it is determined that the current position of the host vehicle is within the intersection area (step S206: YES), the far-field shape calculation unit 102 sets the predetermined threshold time in step S209 described above from the normal time. Is set to a longer time (step S208). In this embodiment, 2 seconds is set as a longer time. The time is not limited to 2 seconds, and may be set to an arbitrary time longer than the normal time.

ステップS207またはS208の実行後、上述のステップS209が実行される。すなわち、遠方形状算出部102は、予め定められた閾値時間を超えて近傍走路形状の入力が連続してないか否かを判定する。第4実施形態では、このステップS209における閾値時間は、ステップS207またはS208により設定される。このように、自車両の現在位置が交差点領域内である場合に、ステップS209における閾値時間、すなわち、遠方走路形状の算出を停止させるか否かを判断する際の基準である、近傍走路形状が連続して入力されない時間を長く設定するのは、以下の理由からである。すなわち、自車両の現在位置が交差点領域内である場合、自車両の走行に伴い短期間の後に近傍走路形状の算出が再開されることが明らかであるため、遠方走路形状の算出を停止しなくてもその後の遠方走路形状の算出への影響は少ないからである。また、このようにすることで、遠方走路形状の算出停止により遠方走路形状の履歴の量がいたずらに減ってしまうことを抑制できるからである。これに対して、自車両の現在位置が交差点領域内でない場合には、近傍走路形状が連続して入力されない場合には、なんらかの問題、例えば、撮像画像の故障や走路認識装置100の故障などが発生している可能性がある。このような場合に遠方走路形状の算出を継続すると、精度が低い遠方走路形状に基づき自動運転が実行されるおそれがあるため、本実施形態では、かかる場合におけるステップS209の閾値時間を通常時間とし、長く設定しないようにしている。   After execution of step S207 or S208, the above-described step S209 is executed. That is, the distant shape calculation unit 102 determines whether or not the input of the nearby runway shape is continued beyond a predetermined threshold time. In the fourth embodiment, the threshold time in step S209 is set in step S207 or S208. As described above, when the current position of the host vehicle is in the intersection area, the threshold time in step S209, that is, a reference for determining whether to stop calculating the far road shape, The reason why the time during which continuous input is not set is set to be long is as follows. That is, when the current position of the host vehicle is within the intersection area, it is clear that the calculation of the nearby track shape will resume after a short period of time as the host vehicle travels, so the calculation of the far track shape is not stopped. However, this is because there is little influence on the calculation of the shape of the far road. Moreover, by doing in this way, it is possible to suppress the amount of the history of the far road shape from being unnecessarily reduced due to the stop calculation of the far road shape. On the other hand, if the current position of the host vehicle is not within the intersection area, if the neighboring runway shape is not continuously input, there is some problem, for example, a malfunction of the captured image or a fault of the runway recognition device 100. It may have occurred. In such a case, if calculation of the far road shape is continued, automatic driving may be performed based on the far road shape with low accuracy. In this embodiment, the threshold time in step S209 in this case is set as the normal time. , Do not set long.

以上説明した第4実施形態の走路認識装置は、第1実施形態および第2実施形態の走路認識装置100と同様な効果を有する。加えて、ステップS209における閾値時間の長さを、自車両の現在位置が交差点領域内であるか否かに応じて設定するので、近傍走路形状が算出されない理由が「自車両が交差点領域内に存在すること」であり、自車両の走行に伴い短期間の後に近傍走路形状の算出が再開されることが明らかである場合には、遠方走路形状の算出が停止されることを抑制して、遠方走路形状の履歴の量が不用意に少なくなることを抑制できる。加えて、自車両の現在位置が交差点領域内でない場合には、交差点領域内である場合に比べて、閾値時間をより短い時間に設定するので、遠方走路形状の誤認識を抑制できる。   The runway recognition apparatus of the fourth embodiment described above has the same effect as the runway recognition apparatus 100 of the first embodiment and the second embodiment. In addition, since the length of the threshold time in step S209 is set according to whether or not the current position of the host vehicle is in the intersection area, the reason why the neighboring runway shape is not calculated is that "the host vehicle is in the intersection area. If it is clear that the calculation of the nearby runway shape will resume after a short period of time as the vehicle travels, the calculation of the far runway shape is suppressed from being stopped, It is possible to suppress the amount of the history of the far road shape from being inadvertently reduced. In addition, when the current position of the host vehicle is not in the intersection area, the threshold time is set to a shorter time than in the intersection area, so that it is possible to suppress erroneous recognition of the far road shape.

E.第5実施形態:
第5実施形態の走路認識装置の装置は、第1実施形態の走路認識装置100の装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。第5実施形態の目標通過点設定処理は、図12に示すように、ステップS316、S317、S318を追加して実行する点において、第3実施形態の目標通過点設定処理と異なり、その他の手順は同一である。
E. Fifth embodiment:
Since the device of the road recognition device of the fifth embodiment is the same as the device configuration of the road recognition device 100 of the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted. . The target passing point setting process of the fifth embodiment is different from the target passing point setting process of the third embodiment in that steps S316, S317, and S318 are added and executed as shown in FIG. Are the same.

図12に示すように、ステップS315において遠方走路形状の入力がないと判定された場合(ステップS315:NO)、目標通過点設定部105は、自車両の現在位置が交差点領域内であるか否かを判定する(ステップS316)。ステップS316は、上述の第4実施形態のステップS206と同様な処理であるので、その詳細な手順の説明を省略する。   As shown in FIG. 12, when it is determined in step S315 that there is no input of the far road shape (step S315: NO), the target passing point setting unit 105 determines whether or not the current position of the host vehicle is within the intersection area. Is determined (step S316). Since step S316 is the same process as step S206 of the fourth embodiment described above, a detailed description of the procedure is omitted.

自車両の現在位置が交差点領域内でないと判定された場合(ステップS316:NO)、目標通過点設定部105は、上述のステップS319における閾値時間を、通常の時間に設定する(ステップS317)。通常の時間として、本実施形態では1秒間が設定されている。なお、1秒間に限らず、撮像画像の取得間隔よりも長い任意の時間に設定されてもよい。   When it is determined that the current position of the host vehicle is not within the intersection area (step S316: NO), the target passing point setting unit 105 sets the threshold time in step S319 described above to a normal time (step S317). In this embodiment, 1 second is set as the normal time. In addition, you may set not only 1 second but the arbitrary time longer than the acquisition interval of a captured image.

これに対して、自車両の現在位置が交差点領域内であると判定された場合(ステップS316:YES)、目標通過点設定部105は、上述のステップS319の所定の閾値時間を、通常の時間よりも長い時間に設定する(ステップS318)。より長い時間として、本実施形態では2秒間が設定されている。なお、2秒間に限らず、通常の時間よりも長い任意の時間に設定されてもよい。   On the other hand, when it is determined that the current position of the host vehicle is in the intersection area (step S316: YES), the target passing point setting unit 105 sets the predetermined threshold time in step S319 described above to a normal time. A longer time is set (step S318). In this embodiment, 2 seconds is set as a longer time. The time is not limited to 2 seconds, and may be set to an arbitrary time longer than the normal time.

ステップS317またはS318の実行後、上述のステップS319が実行される。すなわち、遠方形状算出部102は、予め定められた閾値時間を超えて遠方走路形状の入力が連続してないか否かを判定する。第5実施形態では、このステップS319における閾値時間は、ステップS317またはS318により設定される。このように、自車両の現在位置が交差点領域内である場合に、ステップS319における閾値時間、すなわち、遠方走路形状の算出(推定)を停止させるか否かを判断する際の基準となる、遠方走路形状算出処理の結果としての遠方走路形状が入力されない時間を長く設定する理由は、上述の第4実施形態においてステップS209における閾値時間を長く設定する理由と同じである。   After execution of step S317 or S318, the above-described step S319 is executed. That is, the distant shape calculation unit 102 determines whether or not the distant running road shape input continues beyond a predetermined threshold time. In the fifth embodiment, the threshold time in step S319 is set in step S317 or S318. As described above, when the current position of the host vehicle is within the intersection area, the threshold time in step S319, that is, a reference for determining whether to stop the calculation (estimation) of the far road shape is a distant place The reason why the time during which the far road shape as the result of the running road shape calculation process is not input is set longer is the same as the reason why the threshold time is set longer in step S209 in the fourth embodiment described above.

以上説明した第5実施形態における走路認識装置は、第1実施形態および第3実施形態の走路認識装置100と同様な効果を有する。加えて、ステップS319における閾値時間の長さを、自車両の現在位置が交差点領域内であるか否かに応じて設定するので、遠方走路形状算出処理により遠方走路形状が算出されない理由が「自車両が交差点領域内に存在すること」であり、自車両の走行に伴い短期間の後に遠方走路形状の算出が再開されることが明らかである場合には、遠方走路形状の算出が停止されることを抑制して、遠方走路形状の履歴の量が不用意に少なくなることを抑制できる。加えて、自車両の現在位置が交差点領域内でない場合には、交差点領域内である場合に比べて、閾値時間をより短い時間に設定するので、遠方走路形状の誤認識を抑制できる。   The travel path recognition apparatus in the fifth embodiment described above has the same effect as the travel path recognition apparatus 100 of the first embodiment and the third embodiment. In addition, since the length of the threshold time in step S319 is set according to whether or not the current position of the host vehicle is within the intersection area, the reason why the far road shape is not calculated by the far road shape calculation process is If it is clear that the vehicle is present in the intersection area and the calculation of the far road shape is resumed after a short period of time as the vehicle travels, the calculation of the far road shape is stopped. This can be suppressed, and the amount of the history of the far road shape can be prevented from being inadvertently reduced. In addition, when the current position of the host vehicle is not in the intersection area, the threshold time is set to a shorter time than in the intersection area, so that it is possible to suppress erroneous recognition of the far road shape.

F.第6実施形態:
第6実施形態の走路認識装置の装置は、第1実施形態の走路認識装置100の装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。第6実施形態の走路形状算出処理は、図13に示すように、ステップS405およびS410を追加して実行する点において、第1実施形態の走路形状算出処理と異なり、その他の手順は同一である。
F. Sixth embodiment:
Since the device of the road recognition device of the sixth embodiment is the same as the device configuration of the road recognition device 100 of the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted. . The runway shape calculation process of the sixth embodiment is different from the runway shape calculation process of the first embodiment in that steps S405 and S410 are added and executed as shown in FIG. .

図13に示すように、遠方形状算出部102は、ステップS205において、所定の時刻に近傍走路形状の入力があると判定された場合(ステップS205:YES)、入力された近傍走路形状の確からしさの評価値を決定する(ステップS405)。具体的には、遠方形状算出部102は、ステップS205で入力された近傍走路形状から、近傍走路の進行方向に沿った距離(以下、「近傍走路距離」と呼ぶ)を特定し、かかる近傍走路距離に基づき評価値テーブルを参照して、評価値を決定する。評価値テーブルは、走路認識装置100が備える図示しないメモリに予め記憶されている。   As shown in FIG. 13, when it is determined in step S205 that there is an input of a nearby runway shape at a predetermined time (step S205: YES), the far-field shape calculation unit 102 is sure of the input nearby runway shape. Is evaluated (step S405). Specifically, the distant shape calculation unit 102 specifies a distance along the traveling direction of the nearby traveling path (hereinafter referred to as “neighboring traveling distance”) from the nearby traveling path shape input in step S205, and the nearby traveling path. An evaluation value is determined with reference to the evaluation value table based on the distance. The evaluation value table is stored in advance in a memory (not shown) provided in the travel path recognition apparatus 100.

図14に示すように、評価値テーブルには、近傍走路距離と評価値とが対応付けて設定されている。図14において、横軸は近傍走路距離を示し、縦軸は評価値を示す。図14に示すように、評価値テーブルでは、近傍走路距離が長くなるほど評価値が高くなるように設定されている。これは、近傍走路距離が長いほど、近傍走路形状の算出精度が高くなるからである。なお、図14に示す例では、近傍走路距離が0から距離Laまでにおける近傍走路距離の変化に対する評価値の変化率が最も大きく、距離Laから距離Lbまでにおける近傍走路距離の変化に対する評価値の変化率が第2番目に大きく、距離Lbよりも大きい場合の近傍走路距離の変化に対する評価値の変化率が最も低くなるように、近傍走路距離と評価値との変化が3段階に設定されている。なお、3段階に限らず、任意の段階数で段階的に設定されてもよい。また、指数関数的に連続的に変化してもよい。   As shown in FIG. 14, in the evaluation value table, a nearby running distance and an evaluation value are set in association with each other. In FIG. 14, the horizontal axis indicates the near road distance, and the vertical axis indicates the evaluation value. As shown in FIG. 14, in the evaluation value table, the evaluation value is set to be higher as the nearby running distance is longer. This is because the calculation accuracy of the neighborhood runway shape becomes higher as the neighborhood runway distance is longer. In the example shown in FIG. 14, the rate of change of the evaluation value with respect to the change in the vicinity road distance when the vicinity road distance is 0 to the distance La is the largest, and the evaluation value with respect to the change in the vicinity road distance from the distance La to the distance Lb is The change between the adjacent runway distance and the evaluation value is set in three stages so that the change rate of the evaluation value with respect to the change in the adjacent runway distance when the change rate is the second largest and larger than the distance Lb is the lowest. Yes. In addition, you may set in steps not only in three steps but in arbitrary steps. Moreover, you may change continuously exponentially.

図13に示すように、遠方形状算出部102は、決定された評価値に応じて、今回算出された近傍走路形状、すなわち、今回入力された近傍走路形状と、前回算出された遠方走路形状と、撮像パラメータと、車両の動きを示す情報と、に基づき、処理領域を設定する(ステップS410)。以下、ステップS410の具体的な手順について説明する。   As shown in FIG. 13, the far-distance calculation unit 102 determines the near-run road shape calculated this time, that is, the near-run road shape input this time, the far-run road shape calculated last time, according to the determined evaluation value. Based on the imaging parameters and the information indicating the movement of the vehicle, a processing area is set (step S410). Hereinafter, the specific procedure of step S410 will be described.

まず、遠方形状算出部102は、ステップS405で決定された評価値に基づき、今回入力された近傍走路形状に基づき推定される処理領域の尤もらしさの度合い(以下、「尤度」と呼ぶ)と、遠方形状記憶部104に記憶されている前回の遠方走路形状に基づき推定される処理領域の尤度とを、統合尤度テーブルを参照して特定する。なお、本実施形態において、「今回入力された近傍走路形状に基づき推定される処理領域」を「第1推定処理領域」とも呼ぶ。また、「前回の遠方走路形状に基づき推定される処理領域」を「第2推定処理領域」とも呼ぶ。   First, the distant shape calculation unit 102 is based on the evaluation value determined in step S405 and the degree of likelihood of the processing area estimated based on the near-run road shape input this time (hereinafter referred to as “likelihood”). Then, the likelihood of the processing area estimated based on the previous far road shape stored in the far shape storage unit 104 is specified with reference to the integrated likelihood table. In the present embodiment, the “processing area estimated based on the nearby runway shape input this time” is also referred to as a “first estimation processing area”. In addition, the “processing area estimated based on the previous far road shape” is also referred to as a “second estimation processing area”.

図15に示す統合尤度テーブルは、走路認識装置100が備える図示しないメモリに予め記憶されている。図15に示すように、統合尤度テーブルでは、評価値に対して、第1推定処理領域の尤度および第2推定処理領域の尤度が対応付けて設定されている。図15において、横軸は評価値を示し、縦軸は第1推定処理領域の尤度および第2推定処理領域の尤度を示す。図15において、直線AL以下の領域A1は第1推定処理領域の尤度を示し、直線ALよりも上の領域AL2(上限100%)は第2推定処理領域の尤度を示す。本実施形態では、第1推定処理領域の尤度と第2推定処理領域尤度の合計は常に100%になるように正規化されている。そして、統合尤度テーブルでは、評価値が高いほど、すなわち、入力された近傍走路形状の確からしさが高いほど第1推定処理領域の尤度は高く、第2推定処理領域の尤度は低い。例えば、図15に示すように、評価値が値E1である場合には、第1推定処理領域の尤度は70%(0.7)であり、第2推定処理領域の尤度は30%(0.3)である。   The integrated likelihood table shown in FIG. 15 is stored in advance in a memory (not shown) included in the travel path recognition apparatus 100. As shown in FIG. 15, in the integrated likelihood table, the likelihood of the first estimation processing region and the likelihood of the second estimation processing region are set in association with the evaluation value. In FIG. 15, the horizontal axis indicates the evaluation value, and the vertical axis indicates the likelihood of the first estimation processing region and the likelihood of the second estimation processing region. In FIG. 15, an area A1 below the straight line AL indicates the likelihood of the first estimation processing area, and an area AL2 (upper limit 100%) above the straight line AL indicates the likelihood of the second estimation processing area. In this embodiment, the sum of the likelihood of the first estimation processing region and the second estimation processing region likelihood is normalized so as to be always 100%. In the integrated likelihood table, the higher the evaluation value, that is, the higher the likelihood of the input nearby running road shape, the higher the likelihood of the first estimation processing region and the lower the likelihood of the second estimation processing region. For example, as shown in FIG. 15, when the evaluation value is a value E1, the likelihood of the first estimation processing region is 70% (0.7), and the likelihood of the second estimation processing region is 30%. (0.3).

次に、遠方形状算出部102は、今回の近傍走路形状に基づき処理領域を推定する。すなわち、第1推定処理領域を設定する。本実施形態において、かかる推定は、第1実施形態における遠方走路形状算出処理のステップS210およびS215を実行することにより実現する。次に、遠方形状算出部102は、前回の遠方走路形状に基づき処理領域を推定する。すなわち、第2推定処理領域を設定する。本実施形態において、かかる推定は、第1実施形態における遠方走路形状算出処理のステップS275を実行することにより実現する。   Next, the distant shape calculation unit 102 estimates a processing region based on the current near road shape. That is, the first estimation processing area is set. In this embodiment, this estimation is realized by executing steps S210 and S215 of the far road shape calculation process in the first embodiment. Next, the distant shape calculation unit 102 estimates a processing region based on the previous distant traveling road shape. That is, a second estimation processing area is set. In this embodiment, this estimation is realized by executing step S275 of the far road shape calculation process in the first embodiment.

次に、遠方形状算出部102は、第1推定処理領域と第2推定処理領域との重複領域の尤度を算出する。重複領域の尤度は、第1推定処理領域の尤度と第2推定処理領域の尤度とを利用してベイズ推定に基づき導かれる。具体的には、下記式(1)に基づき算出される。下記式(1)において、Xは、重複領域の尤度を示す。変数Aは、第1推定処理領域の尤度を示す。また、変数Bは、第2推定処理領域の尤度を示す。
X=A×B/{A×B+(1−A)×(1−B)}・・・(1)
Next, the distant shape calculation unit 102 calculates the likelihood of the overlapping region between the first estimation processing region and the second estimation processing region. The likelihood of the overlapping region is derived based on Bayesian estimation using the likelihood of the first estimation processing region and the likelihood of the second estimation processing region. Specifically, it is calculated based on the following formula (1). In the following formula (1), X represents the likelihood of the overlapping region. A variable A indicates the likelihood of the first estimation processing region. Variable B indicates the likelihood of the second estimation processing region.
X = A * B / {A * B + (1-A) * (1-B)} (1)

例えば、評価値が図15に示すE1である場合には、第1推定処理領域と第2推定処理領域との重複領域については、変数Aとして0.7が上記式(1)に代入され、変数Bとして0.3が上記式(1)に代入される。したがって、かかる重複領域については、統合尤度Xとして0.5が算出されることとなる。   For example, when the evaluation value is E1 shown in FIG. 15, 0.7 is substituted as the variable A in the above formula (1) for the overlapping region of the first estimation processing region and the second estimation processing region, As the variable B, 0.3 is substituted into the above equation (1). Therefore, 0.5 is calculated as the integrated likelihood X for such overlapping regions.

次に、遠方形状算出部102は、撮像装置における各領域(各画素)のうち、尤度が所定の閾値以上の領域を、今回の処理領域として設定する。例えば、所定の閾値が0.3に設定されており、評価値が図15に示すE1である場合には、第1推定処理領域(尤度:0.7)と、第2推定処理領域(尤度:0.3)と、これら2つの推定処理領域の重複領域(尤度:0.5)とを合わせた領域が今回の処理領域として設定されることとなる。なお、第1推定処理領域および第2推定処理領域のいずれにも該当しない領域については、尤度は0に設定されており、今回の処理領域としては設定されない。   Next, the distant shape calculation unit 102 sets a region having a likelihood equal to or greater than a predetermined threshold among the regions (pixels) in the imaging apparatus as the current processing region. For example, when the predetermined threshold is set to 0.3 and the evaluation value is E1 shown in FIG. 15, the first estimation processing area (likelihood: 0.7) and the second estimation processing area ( A region obtained by combining the likelihood (0.3) and the overlapping region (likelihood: 0.5) of these two estimation processing regions is set as the current processing region. In addition, about the area | region which does not correspond to any of a 1st estimation process area and a 2nd estimation process area, likelihood is set to 0 and is not set as this process area.

図13に示すように、このようなステップS410の実行後、上述したステップS220〜S255が実行される。   As shown in FIG. 13, after the execution of such step S410, the above-described steps S220 to S255 are executed.

以上説明した第6実施形態の走路認識装置は、第1実施形態の走路認識装置100と同様な効果を有する。加えて、近傍走路距離が長いほど評価値を高く設定し、その結果、近傍走路形状の尤度がより高くなるように設定しているので、近傍走路形状に基づき推定される処理領域を今回の処理領域として設定され易く(用いられ易く)できる。したがって、近傍走路距離が長く、近傍走路形状の算出精度が高いと見込まれる場合には、近傍走路形状に基づき推定される処理領域を今回の処理領域として設定され易くでき、処理領域の特定精度(遠方走路を含む領域としての確からしさ)の低下を抑制できる。なお、第6実施形態において、遠方形状算出部102は、請求項における評価部にも相当する。   The travel path recognition apparatus of the sixth embodiment described above has the same effect as the travel path recognition apparatus 100 of the first embodiment. In addition, since the evaluation value is set higher as the nearby runway distance is longer, and as a result, the likelihood of the neighborhood runway shape is set higher, the processing area estimated based on the neighborhood runway shape is It can be easily set (easily used) as a processing area. Therefore, when it is anticipated that the nearby runway distance is long and the calculation accuracy of the neighborhood runway shape is high, the processing region estimated based on the nearby runway shape can be easily set as the current processing region, and the processing region specifying accuracy ( It is possible to suppress a decrease in the certainty as an area including a far road. In the sixth embodiment, the distant shape calculation unit 102 also corresponds to the evaluation unit in the claims.

G.第7実施形態:
第7実施形態の走路認識装置100bは、図16に示すように、物体検出部107および停車判定部108として機能する点において、第1実施形態の走路認識装置100と異なる。第7実施形態の走路認識装置100bのその他の装置構成は、第1実施形態の走路認識装置100と同じであるので、その詳細な説明を省略する。
G. Seventh embodiment:
The road recognition device 100b of the seventh embodiment is different from the road recognition device 100 of the first embodiment in that it functions as an object detection unit 107 and a stop determination unit 108, as shown in FIG. Since the other device configuration of the runway recognition apparatus 100b of the seventh embodiment is the same as that of the runway recognition apparatus 100 of the first embodiment, detailed description thereof is omitted.

物体検出部107は、自車両の前方における他の車両の有無を検出する。本実施形態において、車両位置判定部106は、撮像部21により得られる撮像画像を解析することにより、自車両の前方における他の車両の有無を検出する。停車判定部108は、自車両が赤信号で停車中であるか否かを判定する。本実施形態において、停車判定部108は、撮像部21により得られる撮像画像を解析することにより赤信号であるか否かを判定すると共に、車速センサ22から得られる自車両の移動速度に基づき停車中であるか否かを判定する。   The object detection unit 107 detects the presence or absence of another vehicle in front of the host vehicle. In the present embodiment, the vehicle position determination unit 106 detects the presence or absence of another vehicle in front of the host vehicle by analyzing the captured image obtained by the imaging unit 21. The stop determination unit 108 determines whether or not the host vehicle is stopped at a red light. In the present embodiment, the stop determination unit 108 determines whether the signal is a red signal by analyzing the captured image obtained by the imaging unit 21 and stops based on the moving speed of the host vehicle obtained from the vehicle speed sensor 22. It is determined whether it is in the middle.

第7実施形態の走路認識装置100bは、図17に示す実行判定処理を実行する点において、第1実施形態の走路認識装置100と異なる。第7実施形態の走路認識装置100bは、第1実施形態の走路認識装置100と同様な手順にて、近傍走路形状算出処理および目標通過点設定処理を実行する。また、走路認識装置100bは、第6実施形態の走路認識装置100と同様な手順にて、遠方走路形状算出処理を実行する。   The road recognition device 100b of the seventh embodiment is different from the road recognition device 100 of the first embodiment in that the execution determination process shown in FIG. 17 is executed. The runway recognition apparatus 100b of the seventh embodiment executes the nearby runway shape calculation process and the target passing point setting process in the same procedure as the runway recognition apparatus 100 of the first embodiment. Moreover, the runway recognition apparatus 100b performs a far road shape calculation process in the same procedure as the runway recognition apparatus 100 of 6th Embodiment.

実行判定処理は、近傍走路形状算出処理を実行するか否かを決定するための処理であり、自車両のイグニッションがオンすると実行される。したがって第7実施形態では、近傍走路形状算出処理は、定期的には実行されない。図17に示すように、近傍形状算出部101は、自車両の進行方向に先行車両が存在せず、且つ、自車両が赤信号により停車中であるか否かを判定する(ステップS505)。具体的には、近傍形状算出部101は、物体検出部107による検出結果、および停車判定部108による判定結果に基づき、自車両の進行方向に先行車両が存在せず、且つ、自車両が赤信号により停車中であるか否かを判定する。   The execution determination process is a process for determining whether or not to execute the near road shape calculation process, and is executed when the ignition of the host vehicle is turned on. Therefore, in the seventh embodiment, the neighboring road shape calculation process is not periodically executed. As shown in FIG. 17, the neighborhood shape calculation unit 101 determines whether there is no preceding vehicle in the traveling direction of the host vehicle and whether the host vehicle is stopped by a red signal (step S505). Specifically, the neighborhood shape calculation unit 101 determines that there is no preceding vehicle in the traveling direction of the host vehicle and the host vehicle is red based on the detection result by the object detection unit 107 and the determination result by the stop determination unit 108. It is determined whether or not the vehicle is stopped by a signal.

自車両の進行方向に先行車両が存在せず、且つ、自車両が赤信号により停車中であると判定された場合(ステップS505:YES)、近傍走路形状算出処理の定期的な実行タイミングが到来しても、近傍走路形状算出処理を実行せず、停車前に特定された処理領域を今回の処理領域として特定する(ステップS510)。本実施形態では、停車前に特定された処理領域として、停車直前に特定された処理領域が今回の処理領域として特定される。なお、停車直前に特定された処理領域に代えて、停車直前よりも所定回数だけ前に特定された処理領域が今回の処理領域として特定されてもよい。   When it is determined that there is no preceding vehicle in the traveling direction of the host vehicle and the host vehicle is stopped due to a red signal (step S505: YES), the periodic execution timing of the nearby runway shape calculation process arrives Even so, the processing area specified before the vehicle stops is specified as the current processing area without executing the near road shape calculation process (step S510). In this embodiment, the processing area specified immediately before the stop is specified as the current processing area as the processing area specified before the stop. Instead of the processing area specified immediately before stopping, a processing area specified a predetermined number of times before immediately before stopping may be specified as the current processing area.

「自車両の進行方向に先行車両が存在せず、且つ、自車両が赤信号により停車中」ではないと判定された場合(ステップS505:NO)、近傍形状算出部101および遠方形状算出部102は、上述の近傍走路算出処理および遠方走路形状算出処理を実行する(ステップS520)。   When it is determined that “the preceding vehicle does not exist in the traveling direction of the host vehicle and the host vehicle is stopped due to a red signal” (step S505: NO), the vicinity shape calculation unit 101 and the distant shape calculation unit 102 Executes the above-described near-runway calculation process and the far-off road shape calculation process (step S520).

なお、上述のステップS510が実行された場合、遠方走路形状算出処理として、ステップS220〜S255が実行される。   In addition, when above-mentioned step S510 is performed, step S220-S255 are performed as a far road shape calculation process.

以上説明した第7実施形態の走路認識装置100bは、第1実施形態の走路認識装置100と同様な効果を有する。加えて、自車両の進行方向に先行車両が存在せず、且つ、自車両が赤信号により停車中である場合には、停車直前に特定された処理領域が今回の処理領域として特定されるので、処理領域の特定精度の低下を抑制できる。車両の前方に他の車両が存在せず、且つ、車両が赤信号で停車中の場合には、近傍走路形状の認識精度は停車前と同様である。他方、先行車両が存在して赤信号で停車中は、例えば、先行車両の車体のペイントを区画線(近傍走路形状)として誤って認識する場合などが想定され、処理領域の特性精度が低下するおそれがある。したがって、本実施形態の走路認識装置100bによれば、処理領域の特定精度の低下を抑制できる。   The travel path recognition apparatus 100b of the seventh embodiment described above has the same effect as the travel path recognition apparatus 100 of the first embodiment. In addition, when there is no preceding vehicle in the traveling direction of the host vehicle and the host vehicle is stopped due to a red signal, the processing region specified immediately before the stop is specified as the current processing region. , It is possible to suppress a decrease in the accuracy of the processing area. When there is no other vehicle in front of the vehicle and the vehicle is stopped with a red light, the recognition accuracy of the nearby runway shape is the same as that before the vehicle stops. On the other hand, when there is a preceding vehicle and the vehicle is stopped at a red light, for example, the case where the paint of the vehicle body of the preceding vehicle is erroneously recognized as a lane marking (neighboring runway shape) is assumed, and the characteristic accuracy of the processing region decreases. There is a fear. Therefore, according to the runway recognition apparatus 100b of the present embodiment, it is possible to suppress a decrease in the processing area identification accuracy.

H.第8実施形態:
第8実施形態の走路認識装置100cは、図18に示すように、自車両に搭載されたミリ波レーダ24と電気的に接続されている点と、立体構造物検出部109として機能する点とにおいて、第1実施形態の走路認識装置100と異なる。第8実施形態の走路認識装置100cのその他の構成は、第1実施形態の走路認識装置100の装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
H. Eighth embodiment:
As shown in FIG. 18, the travel path recognition apparatus 100 c according to the eighth embodiment is electrically connected to the millimeter wave radar 24 mounted on the host vehicle, and functions as the three-dimensional structure detection unit 109. However, it differs from the runway recognition apparatus 100 of 1st Embodiment. Since the other configuration of the road recognition device 100c according to the eighth embodiment is the same as the device configuration of the road recognition device 100 according to the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is provided. Is omitted.

ミリ波レーダ24は、ミリ波帯の電波を用いて、自車両の前方の物体を検出する。より正確には、物体を複数の検出点(物標)として検出する。立体構造物検出部109は、ミリ波レーダ24による検出結果と、撮像部21により得られる撮像画像とに基づき、立体構造物(先行車両、対向車両、交差する道路上の車両、中央分離帯、歩行者、ガードレール、マンホール、信号機等)の種類、かかる立体構造物と自車両との距離、立体構造物の位置、立体構造物の大きさ、および、立体構造物の自車両に対する相対速度を繰り返し検出する。   The millimeter wave radar 24 detects an object in front of the host vehicle using millimeter wave radio waves. More precisely, the object is detected as a plurality of detection points (targets). The three-dimensional structure detection unit 109 is based on the detection result by the millimeter wave radar 24 and the captured image obtained by the imaging unit 21, and the three-dimensional structure (preceding vehicle, oncoming vehicle, vehicle on the intersecting road, median strip, Pedestrians, guardrails, manholes, traffic lights, etc.), the distance between the three-dimensional structure and the vehicle, the position of the three-dimensional structure, the size of the three-dimensional structure, and the relative speed of the three-dimensional structure with respect to the own vehicle. To detect.

第8実施形態の走路認識装置100cは、第1実施形態の走路認識装置100と同様な手順にて、近傍走路形状算出処理、遠方走路形状算出処理および目標通過点設定処理を実行する。但し、図4に示す遠方走路形状算出処理のステップS215の具体的な手順が、第1実施形態と若干異なる。   The runway recognition apparatus 100c according to the eighth embodiment executes a nearby runway shape calculation process, a far road form calculation process, and a target passing point setting process in the same procedure as the runway recognition apparatus 100 according to the first embodiment. However, the specific procedure of step S215 of the far road shape calculation process shown in FIG. 4 is slightly different from that of the first embodiment.

第1実施形態におけるステップS215では、近傍走路(区画線)を延長させて遠方走路形状を推定し、かかる遠方走路形状に基づき処理領域を設定していた。これに対して、第8実施形態では、遠方形状算出部102は、第1実施形態と同様にして設定された処理領域のうち、立体構造物検出部109により検出された道路の側縁に存在する立体構造物(以下、「路側物」と呼ぶ)により区画される領域の内側に、処理領域を設定する。   In step S215 in the first embodiment, the distance between the adjacent tracks (division line) is extended to estimate the far track shape, and the processing region is set based on the far track shape. In contrast, in the eighth embodiment, the distant shape calculation unit 102 exists on the side edge of the road detected by the three-dimensional structure detection unit 109 in the processing region set in the same manner as in the first embodiment. A processing area is set inside an area partitioned by a three-dimensional structure (hereinafter referred to as “roadside object”).

図19の例では、自車両500は、走行レーンLn3を図19における左側から右側へと走行しており、交差点CR2の手前に位置している。このとき、走行レーンLn3のうち、交差点CR2を越えた2つの領域Er3、El3が、遠方走路形状に基づき一時的に処理領域として特定される。そして、これら2つの領域Er3、El3のうち、領域LW内の領域が最終的に処理領域として設定される。処理領域LWは、走行レーンLn3の近傍で走行レーンLn3に沿って検出された立体構造物である路側物PgRと、隣の走行レーンLn4の近傍で走行レーンLn3に沿って検出された立体構造物である路側物PgLとで区画された領域として特定される。路側物PgRは、例えば、図示しない反対車線との境界に位置するいわゆる中央分離帯が該当する。また、路側物PgLは、走行レーンLn4と図示しない歩道との境界に位置するガードレールが該当する。   In the example of FIG. 19, the host vehicle 500 travels from the left side to the right side in FIG. 19 on the travel lane Ln3, and is positioned in front of the intersection CR2. At this time, in the travel lane Ln3, the two regions Er3 and El3 beyond the intersection CR2 are temporarily specified as the processing regions based on the far travel road shape. Of these two areas Er3 and El3, the area in the area LW is finally set as a processing area. The processing area LW includes a roadside object PgR which is a three-dimensional structure detected along the travel lane Ln3 in the vicinity of the travel lane Ln3, and a three-dimensional structure detected along the travel lane Ln3 in the vicinity of the adjacent travel lane Ln4. It is specified as an area partitioned by the roadside object PgL. The roadside object PgR corresponds to, for example, a so-called central separation zone located at a boundary with an opposite lane (not shown). Further, the roadside object PgL corresponds to a guardrail located at the boundary between the travel lane Ln4 and a sidewalk (not shown).

以上説明した第8実施形態の走路認識装置は、第1実施形態の走路認識装置100と同様な効果を有する。加えて、立体構造物検出部により検出された路側物の内側により区画される領域の内側に処理領域を設定するので、処理領域の特定精度の低下を抑制できる。一般に、走路は、路側物により区画される領域の内側に存在するからである。   The runway recognition apparatus of the eighth embodiment described above has the same effect as the runway recognition apparatus 100 of the first embodiment. In addition, since the processing region is set inside the region partitioned by the inside of the roadside object detected by the three-dimensional structure detection unit, it is possible to suppress a decrease in the accuracy of specifying the processing region. This is because, in general, the runway exists inside an area defined by roadside objects.

I.第9実施形態:
第9実施形態の走路認識装置100dは、図20に示すように、接続インターフェイス部(接続IF部)25と電気的に接続されている点と、走行レーン特定部110および走行レーン推定部111として機能する点とにおいて、第8実施形態の走路認識装置100cと異なる。第9実施形態の走路認識装置100dのその他の構成は、第8実施形態の走路認識装置100cの装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
I. Ninth embodiment:
As illustrated in FIG. 20, the travel path recognition device 100 d of the ninth embodiment is electrically connected to the connection interface unit (connection IF unit) 25, as the travel lane identification unit 110 and the travel lane estimation unit 111. It differs from the runway recognition device 100c of the eighth embodiment in that it functions. Since the other configuration of the road recognition device 100d of the ninth embodiment is the same as the device configuration of the road recognition device 100c of the eighth embodiment, the same components are denoted by the same reference numerals, and detailed description thereof will be given. Is omitted.

接続IF部25は、自車両に搭載されたナビゲーション装置600と電気的に接続され、ナビゲーション装置600から自車両の位置を示す情報および地図情報を取得する。かかる地図情報には、各道路の走行レーンを示す情報が含まれている。走行レーン特定部110は、接続IF部25を介してナビゲーション装置600から入力される現在の走行レーンについての情報に基づき自車両の現在の走行レーンを特定する。走行レーン推定部111は、自車両が交差点に差し掛かった場合に、交差点を通過した後に自車両が走行するレーンである通過後走行レーンを推定する。具体的には、走行レーン推定部111は、立体構造物検出部109により検出される立体構造物のうち、現在の走行レーンの前方に存在する路側物を特定し、特定された路側物と現在の走行レーンとに基づき、地図情報から得られる自車両の現在位置の前方(交差点を通過した先)に存在する走行レーンのうちから、通過後走行レーンを推定する。例えば、図19の例では、自車両500は、走行レーンLn3を現在走行しているものの交差点CR2が存在するために、撮像画像の解析では、今後走行予定の走行レーンは特定できない。しかし、自車両500が走行レーンLn3を現在走行中であること、前方に路側物PgRが存在すること、交差点CR2の先には、走行レーンLn3と走行レーンLn4とが存在すること、の各情報から、交差点CR2の通過後に、自車両500は、走行レーンLn3を走行すると予測し、走行レーンLn3を通過後走行レーンとして推定する。   The connection IF unit 25 is electrically connected to the navigation device 600 mounted on the host vehicle, and acquires information indicating the position of the host vehicle and map information from the navigation device 600. Such map information includes information indicating the driving lane of each road. The travel lane identification unit 110 identifies the current travel lane of the host vehicle based on information about the current travel lane input from the navigation device 600 via the connection IF unit 25. The travel lane estimation unit 111 estimates a travel lane after passing, which is a lane in which the host vehicle travels after passing through the intersection when the host vehicle reaches the intersection. Specifically, the traveling lane estimation unit 111 identifies a roadside object existing ahead of the current traveling lane among the three-dimensional structures detected by the three-dimensional structure detection unit 109, and identifies the identified roadside object and the current roadside object. Based on the travel lane, the post-passage travel lane is estimated from the travel lanes existing ahead of the current position of the host vehicle obtained from the map information (the destination that has passed the intersection). For example, in the example of FIG. 19, the own vehicle 500 is currently traveling in the travel lane Ln3, but there is an intersection CR2, and therefore, the travel lane scheduled to travel in the future cannot be specified in the analysis of the captured image. However, each information that the own vehicle 500 is currently traveling in the travel lane Ln3, that there is a roadside object PgR ahead, and that there is a travel lane Ln3 and a travel lane Ln4 ahead of the intersection CR2. Therefore, after passing the intersection CR2, the host vehicle 500 is predicted to travel on the travel lane Ln3, and is estimated as the travel lane after passing the travel lane Ln3.

遠方形状算出部102は、第8実施形態と同様にして、第1実施形態と同様にして設定された処理領域(一時的な処理領域)のうち、立体構造物検出部109により検出された路側物により区画される領域の内側であり、さらに、さらに、通過後走行レーン内の領域を、最終的な処理領域として設定する。したがって、第9実施形態では、第8実施形態とは異なり、図19に示す領域El3のうち、走行レーンLn3から外れた領域は、処理領域として設定されないこととなる。   In the same manner as in the eighth embodiment, the distant shape calculation unit 102 detects the roadside detected by the three-dimensional structure detection unit 109 among the processing regions (temporary processing regions) set in the same manner as in the first embodiment. Further, an area within the travel lane that is inside the area partitioned by the object is set as a final processing area. Therefore, in the ninth embodiment, unlike the eighth embodiment, an area outside the travel lane Ln3 in the area El3 shown in FIG. 19 is not set as a processing area.

以上説明した第9実施形態の走路認識装置100dは、第8実施形態の走路認識装置100cと同様な効果を有する。さらに、通過後走行レーンを推定し、かかる通過後走行レーンを利用して処理領域をより限定するので、処理領域の特定精度の低下をより抑制できる。特に、交差点が存在することにより近傍走路形状の算出精度が低い状況であっても、処理領域の特定精度の低下を抑制できる。   The travel path recognition device 100d of the ninth embodiment described above has the same effect as the travel path recognition device 100c of the eighth embodiment. Furthermore, since the post-passage travel lane is estimated and the processing region is further limited by using the post-passage travel lane, it is possible to further suppress a reduction in the accuracy of the processing region. In particular, even if there is an intersection and the calculation accuracy of the nearby runway shape is low, it is possible to suppress a decrease in the processing region specifying accuracy.

J.第10実施形態:
第10実施形態の走路認識装置100eは、図21に示すように、加速度センサ26と電気的に接続されている点と、姿勢変化検出部112として機能する点と、補正量マップ格納部120を備える点とにおいて、第1実施形態の走路認識装置100と異なる。第10実施形態の走路認識装置100eのその他の構成は、第1実施形態の走路認識装置100の装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
J. et al. Tenth embodiment:
As illustrated in FIG. 21, the travel path recognition apparatus 100 e according to the tenth embodiment includes a point electrically connected to the acceleration sensor 26, a point that functions as the posture change detection unit 112, and a correction amount map storage unit 120. In the point provided, it differs from the runway recognition apparatus 100 of 1st Embodiment. Since the other configuration of the road recognition device 100e of the tenth embodiment is the same as the device configuration of the road recognition device 100 of the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof will be given. Is omitted.

加速度センサ26は、自車両の加速度を検出する。姿勢変化検出部112は、自車両の姿勢の変化を検出する。本実施形態では、姿勢変化検出部112は、加速度センサ26により得られる加速度に基づき、自車両の姿勢の変化を検出する。具体的には、加速度が進行方向に向かってプラスの値の場合、すなわち、自車両が加速している場合、自車両の姿勢は、前方側が鉛直上方側を向き、後方側が鉛直下方側に向くように変化すると検出する。かかる姿勢の変化は、いわゆるノーズアップと呼ばれる。また、自車両が減速している場合、自車両の姿勢は、前方側が鉛直下方側を向き、後方側が鉛直上方側に向くように変化すると検出する。かかる姿勢の変化は、いわゆるノーズダウンと呼ばれる。   The acceleration sensor 26 detects the acceleration of the host vehicle. The posture change detection unit 112 detects a change in the posture of the host vehicle. In the present embodiment, the posture change detection unit 112 detects a change in the posture of the host vehicle based on the acceleration obtained by the acceleration sensor 26. Specifically, when the acceleration is a positive value in the traveling direction, that is, when the host vehicle is accelerating, the posture of the host vehicle is such that the front side is directed vertically upward and the rear side is directed vertically downward. It detects when it changes. Such a change in posture is called a so-called nose-up. Further, when the host vehicle is decelerating, the posture of the host vehicle is detected when the front side changes so as to face the vertically lower side and the rear side faces the vertically upper side. Such a change in posture is called a so-called nose down.

補正量マップ格納部120には、補正量マップが予め格納されている。補正量マップとは、自車両の移動速度(車速)と、自車両の加速度と、補正量とが対応付けられたマップである。補正量とは、遠方走路算出処理のステップS215で設定された処理領域の位置を補正するための補正量であり、画素数(ピクセル)を単位として補正の方向と共に格納されている。上述のノーズアップが生じると、撮像部21の撮像方向が変化するため、撮像画像に写る撮像範囲は、当初行ったキャリブレーションの際に設定された撮像範囲よりも上方にずれることとなる。このため、ステップS215で設定される処理領域は、実際の領域に対して上方にずれて検出される。これとは逆に、ノーズダウンが生じると、撮像画像に写る撮像範囲は、当初行ったキャリブレーションの際に設定された撮像範囲よりも下方にずれることとなる。このため、ステップS215で設定される処理領域は、実際の領域に対して下方にずれて検出される。そこで、遠方形状算出部102は、ステップS215において、上述の手順に従って処理領域を求め、かかる処理領域を、自車両の姿勢の変化によるずれ量をキャンセルするように補正を行なう。このときの補正量は、車速と加速度に相関するため、予め実験により車速と加速度と補正量とを求めて補正量マップを作成し、補正量マップ格納部120に格納されている。したがって、遠方形状算出部102は、車速センサ22から得られる車速と、加速度センサ26から得られる加速度とに基づき、補正量マップを参照して、補正量を特定する。   The correction amount map storage unit 120 stores a correction amount map in advance. The correction amount map is a map in which the moving speed (vehicle speed) of the host vehicle, the acceleration of the host vehicle, and the correction amount are associated with each other. The correction amount is a correction amount for correcting the position of the processing area set in step S215 of the far road calculation process, and is stored together with the correction direction in units of the number of pixels (pixels). When the above-described nose-up occurs, the imaging direction of the imaging unit 21 changes, so that the imaging range that appears in the captured image is shifted upward from the imaging range that was set during the initial calibration. For this reason, the processing region set in step S215 is detected by being shifted upward with respect to the actual region. On the other hand, when a nose-down occurs, the imaging range that appears in the captured image is shifted downward from the imaging range that was set during the initial calibration. For this reason, the processing region set in step S215 is detected by being shifted downward with respect to the actual region. In view of this, in step S215, the distant shape calculation unit 102 obtains a processing region according to the above-described procedure, and corrects the processing region so as to cancel the shift amount due to the change in the posture of the host vehicle. Since the correction amount at this time correlates with the vehicle speed and the acceleration, a correction amount map is created by obtaining the vehicle speed, acceleration, and correction amount in advance through experiments, and stored in the correction amount map storage unit 120. Accordingly, the distant shape calculation unit 102 specifies the correction amount with reference to the correction amount map based on the vehicle speed obtained from the vehicle speed sensor 22 and the acceleration obtained from the acceleration sensor 26.

以上説明した第10実施形態の走路認識装置100eは、第1実施形態の走路認識装置100と同様な効果を有する。加えて、自車両の姿勢変化が検出された場合に、姿勢変化に応じて処理領域の位置を補正して特定するので、姿勢変化に伴い適切でない領域、例えば、遠方の走路が含まれない領域が処理領域として特定されることを抑制できる。また、処理領域を補正する際の補正量を、予め格納されている補正量マップを参照して設定するので、補正量を簡単に且つ短時間で設定することができる。   The travel path recognition apparatus 100e of the tenth embodiment described above has the same effect as the travel path recognition apparatus 100 of the first embodiment. In addition, when the posture change of the host vehicle is detected, the position of the processing region is corrected and specified according to the posture change, so that the region that is not appropriate with the posture change, for example, a region that does not include a distant road Can be specified as a processing region. In addition, since the correction amount for correcting the processing area is set with reference to a correction amount map stored in advance, the correction amount can be set easily and in a short time.

K.第11実施形態:
第11実施形態の走路認識装置100fは、図22に示すように、テンプレート画像特定部113として機能する点と、補正量マップ格納部120を備えていない点とにおいて、第10実施形態の走路認識装置100eの装置構成と異なる。第11実施形態の走路認識装置100fにおけるその他の構成要素は、第10実施形態の走路認識装置100eと同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。テンプレート画像特定部113は、処理領域を設定する際に用いるテンプレート画像を特定する。かかるテンプレート画像については、後述する。
K. Eleventh embodiment:
As illustrated in FIG. 22, the road recognition device 100 f according to the eleventh embodiment is configured to recognize the road according to the tenth embodiment in that it functions as the template image specifying unit 113 and does not include the correction amount map storage unit 120. It is different from the device configuration of the device 100e. Since the other components in the road recognition device 100f of the eleventh embodiment are the same as those of the road recognition device 100e of the tenth embodiment, the same components are denoted by the same reference numerals and detailed description thereof is omitted. To do. The template image specifying unit 113 specifies a template image used when setting the processing area. Such a template image will be described later.

第11実施形態の走路認識装置100fは、遠方走路形状算出処理の手順において、第10実施形態の走路認識装置100eと異なる。なお、第11実施形態の走路認識装置100fは、第10実施形態の走路認識装置100eと同様な手順にて、近傍走路形状算出処理および目標通過点設定処理を実行する。   The track recognition device 100f of the eleventh embodiment is different from the track recognition device 100e of the tenth embodiment in the procedure of the far track shape calculation process. The runway recognition apparatus 100f according to the eleventh embodiment performs a nearby runway shape calculation process and a target passing point setting process in the same procedure as the runway recognition apparatus 100e according to the tenth embodiment.

図23に示すように、ステップS205において、近傍走路形状の入力があると判定された場合(ステップS205:YES)、姿勢変化検出部112は、自車両の姿勢変化、具体的には、ノーズアップまたはノーズダウンが発生したか否かを判定する(ステップS440)。ノーズアップまたはノーズダウンが発生したと判定された場合(ステップS440:YES)、テンプレート画像特定部113は、ノーズアップまたはノーズダウンが発生する前に設定された処理領域を含むテンプレート画像を設定する(ステップS445)。具体的には、前回処理領域が設定された際に用いられた撮像画像(すなわち、前回得られた撮像画像)において、処理領域を含む領域、例えば、図3における処理領域Er1と処理領域El1とを両方含むような矩形の領域の画像を、テンプレート画像として切り出して設定する。   As shown in FIG. 23, when it is determined in step S205 that there is an input of a nearby runway shape (step S205: YES), the posture change detection unit 112 changes the posture of the host vehicle, specifically, nose-up. Alternatively, it is determined whether or not nose down has occurred (step S440). When it is determined that nose-up or nose-down has occurred (step S440: YES), the template image specifying unit 113 sets a template image including a processing region set before nose-up or nose-down occurs ( Step S445). Specifically, in the captured image used when the previous processing area is set (that is, the captured image obtained last time), the area including the processing area, for example, the processing area Er1 and the processing area El1 in FIG. An image of a rectangular area including both is cut out and set as a template image.

遠方形状算出部102は、今回の撮像画像内において、ステップS445で設定されたテンプレート画像のパターンマッチングを実行する(ステップS450)。すなわち、ステップS445で設定されたテンプレート画像と同じ大きさの領域を、今回得られた撮像画像において1画素ずつずらしながら特定しつつ、かかる領域とテンプレート画像との類似度を求める。   The far shape calculation unit 102 executes pattern matching of the template image set in step S445 in the current captured image (step S450). That is, an area having the same size as the template image set in step S445 is specified while being shifted pixel by pixel in the captured image obtained this time, and the similarity between the area and the template image is obtained.

遠方形状算出部102は、ステップS450の結果、最も類似する画像領域において処理領域を設定する(ステップS455)。具体的には、遠方形状算出部102は、最も類似する画像領域において、テンプレート画像における処理領域の相対的な位置と同じ位置の領域を、処理領域として設定する。ステップS445の実行後、上述のステップS220〜S255が実行される。   The distant shape calculation unit 102 sets a processing region in the most similar image region as a result of step S450 (step S455). Specifically, the distant shape calculation unit 102 sets an area having the same position as the relative position of the processing area in the template image as the processing area in the most similar image area. After execution of step S445, the above-described steps S220 to S255 are executed.

上述のステップS440において、ノーズアップまたはノーズダウンが発生しないと判定された場合(ステップS440:NO)、上述のステップS210が実行される。   When it is determined in step S440 described above that no nose up or nose down occurs (step S440: NO), step S210 described above is executed.

以上説明した第11実施形態の走路認識装置100fは、第10実施形態の走路認識装置100eと同様な効果を有する。加えて、ノーズアップまたはノーズダウンが発生した場合に、発生前に得られた撮像画像において処理領域を含む領域の画像をテンプレート画像として設定し、かかるテンプレート画像で今回得られた撮像画像についてパターンマッチングを行うことで、処理領域が設定されるので、ノーズアップまたはノーズダウンが発生した場合に処理領域の補正を行なう必要が無い。また、かかる補正時の補正量を予め格納する必要がないため、かかる格納に要する記憶容量を省略できる。   The track recognition device 100f of the eleventh embodiment described above has the same effect as the track recognition device 100e of the tenth embodiment. In addition, when a nose-up or nose-down occurs, an image of the region including the processing region in the captured image obtained before the occurrence is set as a template image, and pattern matching is performed on the captured image obtained this time with the template image. Since the processing area is set by performing the above, it is not necessary to correct the processing area when nose up or nose down occurs. Further, since it is not necessary to store the correction amount at the time of correction in advance, the storage capacity required for such storage can be omitted.

L.第12実施形態:
第12実施形態の走路認識装置100gは、図24に示すように、補正量特定部114として機能する点において、図18に示す第8実施形態の走路認識装置100cと異なる。第12実施形態の走路認識装置100gにおけるその他の構成要素は、第8実施形態の走路認識装置100cと同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。補正量特定部114は、処理領域の位置を補正する際に用いられる補正量を特定する。走路認識装置100gでは、上述の10実施形態の走路認識装置100eと同様に、自車両の姿勢変化に応じて処理領域の位置を補正する。第10実施形態の走路認識装置100eでは、車速と加速度とに基づき補正量マップを参照して補正量を特定していたが、第12実施形態の走路認識装置100gは、撮像部21により得られた撮像画像と、ミリ波レーダ24の測定結果とを利用して、補正量を特定する。
L. Twelfth embodiment:
The runway recognition apparatus 100g of the twelfth embodiment differs from the runway recognition apparatus 100c of the eighth embodiment shown in FIG. 18 in that it functions as a correction amount specifying unit 114 as shown in FIG. Since the other components in the road recognition device 100g of the twelfth embodiment are the same as those of the road recognition device 100c of the eighth embodiment, the same components are denoted by the same reference numerals and detailed description thereof is omitted. To do. The correction amount specifying unit 114 specifies a correction amount used when correcting the position of the processing region. In the runway recognition apparatus 100g, the position of the processing region is corrected in accordance with the change in the posture of the host vehicle, similarly to the runway recognition apparatus 100e in the tenth embodiment. In the road recognition device 100e of the tenth embodiment, the correction amount is specified by referring to the correction amount map based on the vehicle speed and acceleration. However, the road recognition device 100g of the twelfth embodiment is obtained by the imaging unit 21. The correction amount is specified using the captured image and the measurement result of the millimeter wave radar 24.

第12実施形態の走路認識装置100gは、遠方走路形状算出処理の手順において、第1実施形態の走路認識装置100と異なる。なお、第12実施形態の走路認識装置100gは、第1実施形態の走路認識装置100と同様な手順にて、近傍走路形状算出処理および目標通過点設定処理を実行する。   The travel path recognition apparatus 100g of the twelfth embodiment differs from the travel path recognition apparatus 100 of the first embodiment in the procedure of the far travel road shape calculation process. Note that the runway recognition apparatus 100g of the twelfth embodiment performs a nearby runway shape calculation process and a target passing point setting process in the same procedure as the runway recognition apparatus 100 of the first embodiment.

図25に示すように、ステップS205において、近傍走路形状の入力があると判定された場合(ステップS205:YES)、補正量特定部114は、前回の撮像画像における特定地点までの自車両からの距離と、今回の撮像画像における特定地点までの自車両からの距離との差分を算出する(ステップS460)。特定位置は、前回と今回とで同一となる現実の環境における位置であれば、任意の位置に定めることができる。例えば、路側に配置されたポール(例えば、標識を掲示するためのポールなど)の位置を特定位置としてもよい。   As shown in FIG. 25, when it is determined in step S205 that there is an input of a nearby runway shape (step S205: YES), the correction amount specifying unit 114 receives from the host vehicle up to a specific point in the previous captured image. The difference between the distance and the distance from the host vehicle to the specific point in the current captured image is calculated (step S460). The specific position can be set to an arbitrary position as long as it is a position in an actual environment that is the same between the previous time and the current time. For example, the position of a pole (for example, a pole for posting a sign) arranged on the roadside may be set as the specific position.

次に、補正量特定部114は、前回のミリ波レータ24の測定結果に基づく特定立体構造物までの距離と、今回のミリ波レーダ24の測定結果に基づく特定立体構造物までの距離との差分を算出する(ステップS465)。特定立体構造物は、前回と今回とで同一となる現実の環境における立体構造物であれば、任意の立体構造物に定めることができる。上述のステップS460およびS465の具体例を、図26、図27および図28を用いて説明する。   Next, the correction amount specifying unit 114 calculates the distance to the specific three-dimensional structure based on the previous measurement result of the millimeter wave radar 24 and the distance to the specific three-dimensional structure based on the measurement result of the current millimeter wave radar 24. The difference is calculated (step S465). The specific three-dimensional structure can be defined as an arbitrary three-dimensional structure as long as it is a three-dimensional structure in an actual environment that is the same between the previous time and the current time. Specific examples of steps S460 and S465 described above will be described with reference to FIGS. 26, 27, and 28. FIG.

図26に示す例では、自車両500の姿勢は、平常時の姿勢、すなわち、車両長手方向が水平方向と平行となるような姿勢である。このとき、自車両500から、自車両500の前方に存在するポールPLの位置P2までの距離は、撮像画像に基づき距離L1として推定されている。かかる距離は、本実施形態では、撮像画像中におけるポールPLの相対的な位置P2により求められる。平常時の姿勢、すなわち、撮像部21のキャリブレーション実行時の姿勢時には、撮像範囲Agは、予め定められた範囲であるため、撮像画像中における位置P2の相対的な位置により、自車両500から位置P2までの距離を求める(推定する)ことができる。なお、図26の例では、ミリ波レーダ24の測定結果に基づき、ポールPLまでの距離は、距離L2として推定されている。ミリ波レーダ24は、ミリ波を前方に照射し、ポールPLからの反射波を受信するため、自車両500からポールPLまでの距離として、ミリ波レーダ24の位置から水平方向にポールPLにぶつかる位置P1までの距離L2が求められる。   In the example shown in FIG. 26, the posture of the host vehicle 500 is a normal posture, that is, a posture in which the longitudinal direction of the vehicle is parallel to the horizontal direction. At this time, the distance from the own vehicle 500 to the position P2 of the pole PL existing in front of the own vehicle 500 is estimated as the distance L1 based on the captured image. In this embodiment, this distance is obtained from the relative position P2 of the pole PL in the captured image. Since the imaging range Ag is a predetermined range at the normal posture, that is, the posture at the time of executing the calibration of the imaging unit 21, it is determined from the own vehicle 500 depending on the relative position of the position P <b> 2 in the captured image. The distance to the position P2 can be obtained (estimated). In the example of FIG. 26, the distance to the pole PL is estimated as the distance L2 based on the measurement result of the millimeter wave radar 24. Since the millimeter wave radar 24 irradiates the millimeter wave forward and receives the reflected wave from the pole PL, the millimeter wave radar 24 strikes the pole PL in the horizontal direction from the position of the millimeter wave radar 24 as the distance from the own vehicle 500 to the pole PL. A distance L2 to the position P1 is obtained.

図27に示すように、例えば、図26の状態の後、自車両500が急ブレーキを行った場合、ノーズダウンが生じる。この場合、撮像範囲Agは、図26の場合に比べて鉛直下方側を向くこととなる。このため、撮像画像中におけるポールPLの相対的な位置は、鉛直上方に変化し、図27において破線で示すように、あたかもポールPLがより遠くに位置するように写ることなる。したがって、図27の例では、ポールPLの位置は、図26に示す位置P2とは異なり、自車両500からより遠い位置P2aとして特定される。このとき、自車両500と位置P2aとの間の距離は、距離L11として推定される。そして、この図27に示す距離L11と図26に示す距離L1との差分が上述のステップS460で求められる。この差分には、図26の状態から図27の状態に変化するまでの自車両500の走行距離と、上述したノーズダウンに起因する撮像画像におけるポールPLの相対的な位置のずれと、が含まれている。   As shown in FIG. 27, for example, when the host vehicle 500 suddenly brakes after the state of FIG. 26, nose-down occurs. In this case, the imaging range Ag is directed vertically downward compared to the case of FIG. For this reason, the relative position of the pole PL in the captured image changes vertically upward, and appears as if the pole PL is located farther away, as indicated by a broken line in FIG. Therefore, in the example of FIG. 27, the position of the pole PL is specified as a position P2a farther from the host vehicle 500, unlike the position P2 shown in FIG. At this time, the distance between the host vehicle 500 and the position P2a is estimated as the distance L11. Then, the difference between the distance L11 shown in FIG. 27 and the distance L1 shown in FIG. 26 is obtained in the above-described step S460. This difference includes the travel distance of the host vehicle 500 until the state of FIG. 26 changes to the state of FIG. 27 and the relative displacement of the pole PL in the captured image caused by the nose-down described above. It is.

他方、図28に示すように、図26の状態の後、図27と同様に自車両500が急ブレーキを行ってノーズダウンが生じた場合、ミリ波レーダ24の測定結果によれば、ポールPLの位置は変化が無く、したがって、このとき測定される自車両500からポールPLまでの距離L12も、図26と同様に、自車両500からポールPLの位置P1までの距離として求められる。そして、図28に示す距離L12と図26に示す距離L2との差分がステップS465で求められる。この差分は、図26の状態から図28の状態に変化するまでの自車両500の走行距離とほぼ等しい。   On the other hand, as shown in FIG. 28, after the state of FIG. 26, when the own vehicle 500 suddenly brakes and nose-down occurs as in FIG. 27, according to the measurement result of the millimeter wave radar 24, the pole PL Accordingly, the distance L12 from the own vehicle 500 to the pole PL measured at this time is also obtained as the distance from the own vehicle 500 to the position P1 of the pole PL as in FIG. Then, the difference between the distance L12 shown in FIG. 28 and the distance L2 shown in FIG. 26 is obtained in step S465. This difference is substantially equal to the travel distance of the host vehicle 500 until the state of FIG. 26 changes to the state of FIG.

図25に示すように、補正量特定部114は、ステップS460で算出された差分と、ステップS465で算出された差分の2種類の差分の相違をキャンセルするように、補正量を特定する(ステップS470)。具体的には、ステップS460で求めた差分からステップS465で求めた差分を差し引き、その余りの差分をキャンセルするように、補正量を特定する。例えば、上述の図26〜図28の例では、距離L11と距離L1との差分から、距離L12と距離L2との差分を差し引く。そして、仮に、その差分が、プラスであれば、すなわち、ポールPLがより遠くに位置するような値であれば、より近くに位置するように、すなわち、撮像画像中において下方に位置することとなるように、補正量を特定する。   As shown in FIG. 25, the correction amount specifying unit 114 specifies the correction amount so as to cancel the difference between the two types of difference, that is, the difference calculated in step S460 and the difference calculated in step S465 (step S470). Specifically, the correction amount is specified so that the difference obtained in step S465 is subtracted from the difference obtained in step S460, and the remainder is canceled. For example, in the example of FIGS. 26 to 28 described above, the difference between the distance L12 and the distance L2 is subtracted from the difference between the distance L11 and the distance L1. If the difference is positive, that is, if the value is such that the pole PL is located further away, it is located closer, that is, positioned lower in the captured image. The correction amount is specified so that

図25に示すように、遠方形状算出部102は、入力された近傍走路形状を利用して、近傍走路(区画線)を延長させて遠方走路形状を推定する(ステップS475)。このステップS475は、上述のステップS210と同じである。遠方形状算出部102は、推定された遠方走路形状に基づき仮処理領域を設定する(ステップS480)。仮処理領域とは、ステップS470で特定された補正量による補正前の処理領域を意味する。このステップS480は、上述のステップS215と同じである。遠方形状算出部102は、ステップS480で設定された仮処理領域をステップS470で特定された補正量だけずらして処理領域を設定する(ステップS485)。ステップS485の実行後、上述のステップS220〜S255が実行される。   As shown in FIG. 25, the far-distance shape calculation unit 102 estimates the far-run road shape by extending the near-run road (parting line) using the input near-run road shape (step S475). This step S475 is the same as step S210 described above. The far shape calculation unit 102 sets a temporary processing region based on the estimated far road shape (step S480). The provisional processing area means a processing area before correction by the correction amount specified in step S470. Step S480 is the same as step S215 described above. The distant shape calculation unit 102 sets the processing region by shifting the temporary processing region set in step S480 by the correction amount specified in step S470 (step S485). After execution of step S485, the above-described steps S220 to S255 are executed.

以上説明した第12実施形態の走路認識装置100gは、第10実施形態の走路認識装置100gと同様な効果を有する。加えて、ノーズアップまたはノーズダウンが発生した場合の処理領域の位置を補正する際の補正量を、撮像部21により得られる撮像画像と、ミリ波レーダ24の測定結果とを用いて算出するので、補正量を精度良く求めることができる。   The road recognition device 100g of the twelfth embodiment described above has the same effect as the road recognition device 100g of the tenth embodiment. In addition, the correction amount for correcting the position of the processing region when nose-up or nose-down occurs is calculated using the captured image obtained by the imaging unit 21 and the measurement result of the millimeter wave radar 24. The correction amount can be obtained with high accuracy.

M.第13実施形態:
第13実施形態の走路認識装置100hは、図29に示すように、テンプレート画像補正部115として機能する点において、第11実施形態の走路認識装置100fと異なる。第13実施形態の走路認識装置100hにおけるその他の構成要素は、第11実施形態の走路認識装置100fと同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。走路認識装置100hは、第11実施形態の走路認識装置100fと同様な手順にて、近傍走路形状算出処理、遠方走路形状算出処理および目標通過点設定処理を実行する。
M.M. Thirteenth embodiment:
The runway recognition apparatus 100h according to the thirteenth embodiment differs from the runway recognition apparatus 100f according to the eleventh embodiment in that it functions as a template image correction unit 115, as shown in FIG. Since the other components in the road recognition device 100h according to the thirteenth embodiment are the same as those of the road recognition device 100f according to the eleventh embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted. To do. The runway recognition device 100h executes a nearby runway shape calculation process, a far road shape calculation process, and a target passing point setting process in the same procedure as the runway recognition apparatus 100f of the eleventh embodiment.

テンプレート画像補正部115は、図23に示す遠方走路形状算出処理のステップS445において、テンプレート画像を補正する。具体的には、撮像部21の搭載位置または撮像部21の姿勢に相関する搭載パラメータと、自車両の走行レーンの形状に相関するパラメータと、自車両の挙動に相関するパラメータとに基づき、テンプレート画像を補正する。搭載パラメータとしては、例えば、撮像部21の撮像方向のヨー、ピッチ、ロール、撮像部21の自車両の重心位置からの相対的な位置(座標)などが該当する。走行レーンの形状に相関するパラメータとしては、近傍走路形状を示す各パラメータなどが該当する。また、自車両の挙動に相関するパラメータとしては、例えば、レーンチェンジの有無、右折または左折の予定、自車両の車速や加減速などが該当する。   The template image correction unit 115 corrects the template image in step S445 of the far road shape calculation process shown in FIG. Specifically, based on the mounting parameter correlated with the mounting position of the imaging unit 21 or the attitude of the imaging unit 21, the parameter correlated with the shape of the traveling lane of the host vehicle, and the parameter correlated with the behavior of the host vehicle, Correct the image. For example, the mounting parameters include the yaw, pitch, and roll in the imaging direction of the imaging unit 21 and the relative position (coordinates) of the imaging unit 21 from the center of gravity of the host vehicle. As parameters correlating with the shape of the traveling lane, each parameter indicating the shape of a nearby traveling road corresponds. The parameters correlated with the behavior of the host vehicle include, for example, the presence or absence of a lane change, the schedule of a right or left turn, the vehicle speed and acceleration / deceleration of the host vehicle.

以上説明した第13実施形態の走路認識装置100hは、第11実施形態の走路認識装置100fと同様な効果を有する。加えて、テンプレート画像は、撮像装置の搭載位置または姿勢に相関する搭載パラメータと、車両の走行レーンの形状に相関するパラメータと、車両の挙動に相関するパラメータとに基づき補正されるので、これらの各パラメータが変化した場合であっても、適切な画像をテンプレート画像として用いることができる。   The travel path recognition device 100h of the thirteenth embodiment described above has the same effect as the travel path recognition device 100f of the eleventh embodiment. In addition, the template image is corrected based on the mounting parameters correlated with the mounting position or orientation of the imaging device, the parameters correlated with the shape of the vehicle's travel lane, and the parameters correlated with the behavior of the vehicle. Even if each parameter changes, an appropriate image can be used as a template image.

N.第14実施形態:
第14実施形態の走路認識装置の装置構成は、第11実施形態の走路認識装置100fの装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
N. Fourteenth embodiment:
Since the device configuration of the track recognition device of the fourteenth embodiment is the same as the device configuration of the track recognition device 100f of the eleventh embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted. To do.

第14実施形態の走路認識装置100fは、第11実施形態の走路認識装置100fと同様な手順にて、近傍走路形状算出処理、遠方走路形状算出処理および目標通過点設定処理を行う。但し、第14実施形態の遠方走路形状算出処理は、図23に示す遠方走路形状算出処理におけるステップS450、すなわち、パターンマッチングの実行手順において、第11実施形態の遠方走路形状算出処理と異なる。   The runway recognition apparatus 100f according to the fourteenth embodiment performs a nearby runway shape calculation process, a far roadform shape calculation process, and a target passing point setting process in the same procedure as the runway recognition apparatus 100f according to the eleventh embodiment. However, the far road shape calculation process of the fourteenth embodiment is different from the far road shape calculation process of the eleventh embodiment in step S450 in the far road shape calculation process shown in FIG.

図30に示すように、第14実施形態におけるパターンマッチング処理では、遠方形状算出部102は、今回の撮像画像において、テンプレート画像と比較する対象となる領域(以下、「比較対象領域」と呼ぶ)を特定する(ステップS705)。遠方形状算出部102は、図23に示すステップS445において設定されたテンプレート画像における破線含有領域を特定する(ステップS710)。破線含有領域とは、破線を含む領域であり、例えば、区画線が破線である場合に、かかる区画線を含む領域を意味する。後述のように、遠方形状算出部102は、比較対象領域の各画素と、テンプレート画像における同じ位置の各画素とを比較して一致するか否かに応じてスコアを与える。このとき、比較対象領域において比較対象とする画素(以下、「比較画素」と呼ぶ)が、テンプレート画像における破線含有領域内の画素に対応する画素か否かを判定する(ステップS715)。   As shown in FIG. 30, in the pattern matching process in the fourteenth embodiment, the distant shape calculation unit 102 is a region to be compared with the template image in the current captured image (hereinafter referred to as “comparison target region”). Is specified (step S705). The distant shape calculation unit 102 specifies a broken line-containing region in the template image set in step S445 shown in FIG. 23 (step S710). The broken line-containing region is a region including a broken line. For example, when the dividing line is a broken line, it means a region including the dividing line. As will be described later, the distant shape calculation unit 102 compares each pixel in the comparison target region with each pixel at the same position in the template image and gives a score according to whether or not they match. At this time, it is determined whether or not a pixel to be compared in the comparison target region (hereinafter referred to as “comparison pixel”) corresponds to a pixel in the broken line-containing region in the template image (step S715).

比較画素が破線含有領域の画素に対応する画素であると判定された場合(ステップS715:YES)、遠方形状算出部102は、比較画素とテンプレート画像における対応画素(相対的な位置が同じ画素)とを比較して一致するか否かを判定する(ステップS720)。一致すると判定された場合(ステップS720:YES)、遠方形状算出部102は、かかる比較画素に対してスコア「1」を与える(ステップS725)。他方、一致しないと判定された場合(ステップS735:NO)、比較画素に対してスコア「0.5」を与える(ステップS730)。   When it is determined that the comparison pixel is a pixel corresponding to a pixel in the broken line-containing region (step S715: YES), the distant shape calculation unit 102 determines that the comparison pixel and the corresponding pixel in the template image (pixels having the same relative position) Are compared to determine whether or not they match (step S720). When it is determined that they match (step S720: YES), the distant shape calculation unit 102 gives a score “1” to the comparison pixel (step S725). On the other hand, when it is determined that they do not match (step S735: NO), a score “0.5” is given to the comparison pixel (step S730).

上述のステップS715において、比較画素が破線含有領域の画素に対応する画素でないと判定された場合(ステップS715:NO)、比較画素とテンプレート画像における対応画素(相対的な位置が同じ画素)とを比較して一致するか否かを判定する(ステップS735)。かかるステップS735は上述のステップS720と同じである。一致すると判定された場合(ステップS735:YES)、遠方形状算出部102は、上述のステップS725と同様に、かかる比較画素に対してスコア「1」を与える(ステップS740)。他方、一致しないと判定された場合(ステップS735:NO)、上述のステップS730とは異なり、比較画素に対してスコア「0」を与える(ステップS745)。   In the above-described step S715, when it is determined that the comparison pixel is not a pixel corresponding to the pixel in the broken line-containing region (step S715: NO), the comparison pixel and the corresponding pixel (pixels having the same relative position) in the template image are determined. It is determined by comparison whether or not they match (step S735). Such step S735 is the same as step S720 described above. When it is determined that they match (step S735: YES), the distant shape calculation unit 102 gives a score “1” to the comparison pixel as in step S725 described above (step S740). On the other hand, when it is determined that they do not match (step S735: NO), unlike the above-described step S730, a score “0” is given to the comparison pixel (step S745).

上述のステップS725、S730、S740、S745のいずれかが実行された後、遠方形状算出部102は、全ての比較対象領域の全ての画素について比較が終了したか否かを判定し(ステップS750)、比較が終了していないと判定された場合(ステップS750:NO)、上述のステップS705に戻る。これに対して、比較が終了したと判定された場合(ステップS750:YES)、遠方形状算出部102は、各比較対象領域についての合計スコアを算出し、記憶する(ステップS755)。合計スコアは、各比較対象領域の各画素について、ステップS725、S730、S740、S745のいずれかが実行されて付与されたスコアを合算した値である。かかる合計スコアが高いほど、テンプレート画像に類似することを意味する。そして、ステップS755の実行後、パターンマッチング処理は終了し、図23に示すステップS455が実行される。このとき、合計スコアが最も高い領域は、最も類似する領域であり、かかる領域において処理領域が設定される。   After any of the above-described steps S725, S730, S740, and S745 is executed, the distant shape calculation unit 102 determines whether or not the comparison has been completed for all the pixels in all the comparison target regions (step S750). If it is determined that the comparison has not ended (step S750: NO), the process returns to step S705 described above. On the other hand, when it is determined that the comparison has been completed (step S750: YES), the far shape calculation unit 102 calculates and stores the total score for each comparison target region (step S755). The total score is a value obtained by adding the scores given by executing any one of steps S725, S730, S740, and S745 for each pixel in each comparison target region. The higher the total score, the more similar to the template image. Then, after execution of step S755, the pattern matching process ends, and step S455 shown in FIG. 23 is executed. At this time, the region with the highest total score is the most similar region, and the processing region is set in this region.

ここで、上述のように、比較画素が破線含有領域内の画素に対応する画素である場合には、比較画素が、対応する画素と一致しない場合に与えられるスコアは「0.5」であり、比較画素が破線含有領域内の画素に対応する画素でない場合のスコア「0」に比べて高い。このようにすることで、自車両の走行レーンの区画線が破線である場合には、区画線が実線である場合に比べて、パターンマッチング処理の結果が合計スコアに与える影響を低減できる。一般に、区画線が破線である場合には、同じ区画線であっても、前回の撮像画像に写っている態様と、今回の撮像画像に写っている態様とは異なる可能性が高い。具体的には、破線のうちのペイント部分とペイントされてない部分との境界の位置が、自車両の走行に伴ってずれるため、同じ区画線であっても、前回の撮像画像に写っている態様と、今回の撮像画像に写っている態様とは異なる可能性が高い。そこで、破線の場合には、パターンマッチングの結果が合計スコアに与える影響を低減させることで、同一の区画線を同一のものとして評価できるようにしている。   Here, as described above, when the comparison pixel is a pixel corresponding to the pixel in the broken line-containing region, the score given when the comparison pixel does not match the corresponding pixel is “0.5”. The score is higher than the score “0” when the comparison pixel is not a pixel corresponding to the pixel in the broken line-containing region. By doing in this way, when the lane marking of the traveling lane of the own vehicle is a broken line, the influence of the result of the pattern matching process on the total score can be reduced compared to the case where the lane marking is a solid line. In general, when the lane marking is a broken line, even if it is the same lane marking, there is a high possibility that the mode shown in the previous captured image is different from the mode shown in the current captured image. Specifically, since the position of the boundary between the painted portion and the unpainted portion of the broken line is shifted as the host vehicle travels, even if it is the same marking line, it is reflected in the previous captured image. There is a high possibility that the mode and the mode shown in the current captured image are different. Therefore, in the case of the broken line, the same partition line can be evaluated as the same by reducing the influence of the pattern matching result on the total score.

以上説明した第14実施形態の100fは、第11実施形態の走路認識装置100fと同様な効果を有する。加えて、区画線が破線の場合には、区画線が実線である場合に比べて、パターンマッチングの結果が一致度を示すスコアに与える影響を低減するので、処理領域の特定精度の低下を抑制できる。区画線が破線の場合には、同じ線であるにも関わらず、撮像するタイミングが異なると形状が異なる可能性が高い。したがって、この場合、一致度を示すスコア(合計スコア)に与える影響を低減するので、同一の区画線を同一の区画線として認識する可能性を高めることができる。   100f of 14th Embodiment demonstrated above has an effect similar to the track recognition apparatus 100f of 11th Embodiment. In addition, when the lane marking is a broken line, the effect of the pattern matching result on the score indicating the degree of coincidence is reduced compared to the case where the lane marking is a solid line, thereby suppressing a decrease in the accuracy of processing area specification. it can. When the lane marking is a broken line, the shape is likely to be different at different imaging timings even though it is the same line. Therefore, in this case, since the influence on the score indicating the degree of coincidence (total score) is reduced, the possibility of recognizing the same lane line as the same lane line can be increased.

O.第15実施形態:
第15実施形態の走路認識装置100iは、図31に示すように、交差点判定部116および方向特定部117として機能する点において、第1実施形態の走路認識装置100と異なる。第15実施形態の走路認識装置100iのその他の構成は、第1実施形態の走路認識装置100と同じであるので、その詳細な説明を省略する。
O. Fifteenth embodiment:
The road recognition device 100i of the fifteenth embodiment differs from the road recognition device 100 of the first embodiment in that it functions as an intersection determination unit 116 and a direction identification unit 117, as shown in FIG. Since the other structure of the road recognition apparatus 100i of 15th Embodiment is the same as the road recognition apparatus 100 of 1st Embodiment, the detailed description is abbreviate | omitted.

交差点判定部116は、自車両が交差点領域内を走行中又は交差点領域内で停車中であるか否かを判定する。方向特定部117は、自車両の走行レーン上の横断歩道の縞模様(いわゆるゼブラ)を構成する複数のペイントを検出し、検出された複数のペイントの長手方向を特定する。一般的には、複数のペイントの長手方向は、走行レーンに沿った方向である。   The intersection determination unit 116 determines whether or not the host vehicle is traveling in the intersection area or stopped in the intersection area. The direction specifying unit 117 detects a plurality of paints that form a stripe pattern (so-called zebra) on a pedestrian crossing on the traveling lane of the host vehicle, and specifies the longitudinal directions of the detected plurality of paints. In general, the longitudinal direction of the plurality of paints is a direction along the traveling lane.

第15実施形態の遠方走路形状算出処理は、図32に示すように、ステップS275に代えて、ステップS280〜S284を実行する点において、図4に示す第1実施形態の遠方走路形状算出処理と異なり、その他の手順は同一である。なお、第15実施形態の近傍走路形状算出処理および目標通過点設定処理は、第1実施形態と同じである。   As shown in FIG. 32, the far road shape calculation process of the fifteenth embodiment is the same as the far road shape calculation process of the first embodiment shown in FIG. 4 in that steps S280 to S284 are executed instead of step S275. Different, the other procedures are the same. Note that the neighborhood road shape calculation process and the target passing point setting process of the fifteenth embodiment are the same as those of the first embodiment.

上述のステップS270において、前回の遠方走路形状の履歴があると判定された場合(ステップS270:YES)、交差点判定部116は、自車両が交差点領域内を走行中又は交差点領域内で停車中であるか否かを判定する(ステップS280)。交差点領域の定義は第4実施形態で説明したとおりである。また、自車両が交差点内の走行中または停車中であるか否かの判定は、第4実施形態のステップS206と同様な手順に加えて、車速センサ22により測定される車速に基づき実現できる。自車両が交差点領域内を走行中又は交差点領域内で停車中でないと判定された場合(ステップS280:NO)、遠方走路形状算出処理は終了する。   In step S270 described above, when it is determined that there is a history of the previous far road shape (step S270: YES), the intersection determination unit 116 is traveling in the intersection area or is stopping in the intersection area. It is determined whether or not there is (step S280). The definition of the intersection area is as described in the fourth embodiment. In addition, the determination as to whether or not the host vehicle is traveling or stopped in the intersection can be realized based on the vehicle speed measured by the vehicle speed sensor 22 in addition to the same procedure as step S206 of the fourth embodiment. When it is determined that the host vehicle is not traveling in the intersection area or is not stopped in the intersection area (step S280: NO), the far road shape calculation process ends.

自車両が交差点領域内を走行中又は交差点領域内で停車中であると判定された場合(ステップS280:YES)、遠方形状算出部102は、今回の撮像画像において、自車両の走行レーンに横断歩道の縞模様を構成する複数のペイントがあるか否かを判定する(ステップS281)。複数のペイントが無いと判定された場合(ステップS281:NO)、遠方走路形状算出処理は終了する。これに対して、複数のペイントがあると判定された場合(ステップS281:YES)、方向特定部117は、ステップS281で特定された複数のペイントの長手方向に沿ったエッジのうち、自車両の走行レーン内において右端に位置するエッジと、左端に位置するエッジを特定する(ステップS282)。方向特定部117は、ステップS282で特定された2つのエッジに基づき、今回の撮像画像において、かかるエッジを延長した場合の仮想線同士が交差する点(いわゆる消失点)の位置を特定する(ステップS283)。遠方形状算出部102は、ステップS283で特定された消失点の位置に基づき処理領域を設定する(ステップS284)。   When it is determined that the host vehicle is traveling in the intersection area or stopped in the intersection area (step S280: YES), the far-field shape calculation unit 102 crosses the traveling lane of the host vehicle in the current captured image. It is determined whether or not there are a plurality of paints constituting the sidewalk stripe pattern (step S281). When it is determined that there is no plurality of paints (step S281: NO), the far road shape calculation process ends. On the other hand, when it is determined that there are a plurality of paints (step S281: YES), the direction specifying unit 117 of the vehicle of the edges along the longitudinal direction of the plurality of paints specified in step S281. An edge located at the right end and an edge located at the left end in the travel lane are specified (step S282). Based on the two edges specified in step S282, the direction specifying unit 117 specifies the position of a point (so-called vanishing point) where virtual lines intersect when extending the edges in the current captured image (step). S283). The distant shape calculation unit 102 sets a processing region based on the position of the vanishing point specified in step S283 (step S284).

図33の例では、自車両の走行レーンLn5に横断歩道Pd3の縞模様を構成する複数のペイントがあると判定される。なお、走行レーンLn5は、撮像画像F20の下方に少しだけ写っている区画線Lr4、Ll4により区画される。ステップS282では、複数のエッジのうち、走行レーンLn5内に一部が含まれている右側のペイントZrの内側のエッジEg1と、同様に走行レーンLn5内に一部が含まれている左側のペイントZlの内側のエッジEg2とが特定される。ステップS283では、ステップS282で特定された2つのエッジEg1、Eg2を延長した2つの仮想線Vl1、Vl2同士が交差する点P10が、消失点として特定される。   In the example of FIG. 33, it is determined that there are a plurality of paints forming the stripe pattern of the pedestrian crossing Pd3 in the travel lane Ln5 of the host vehicle. The travel lane Ln5 is partitioned by the lane markings Lr4 and Ll4 that are slightly visible below the captured image F20. In step S282, among the plurality of edges, the inner edge Eg1 of the right paint Zr partially included in the travel lane Ln5, and the left paint partially included in the travel lane Ln5. An inner edge Eg2 of Zl is specified. In step S283, a point P10 where two virtual lines Vl1 and Vl2 obtained by extending the two edges Eg1 and Eg2 identified in step S282 intersect is identified as a vanishing point.

この図33の例を利用して、ステップS284において処理領域を設定する方法について、具体的に説明する。まず、2つの仮想線Vl1、Vl2上の2つの第1点であって、点P10(2つの仮想線Vl1、Vl2の交差位置)から予め定められた第1距離L21だけ手前の2つの第1点P1r、P1lを特定する。次に、2つの仮想線Vl1、Vl2上における2つの第1点P1r、P1lとは異なる2つの点であって、横断歩道Pd3の奥側の端部から予め定められた第2距離L22だけ奥側の点を、第2点P2r、P2lとして特定する。そして、仮想線Vl1に沿って、第1点P1rと第2点P2rとを結んだ線分を中心として、予め定められた第3距離L3を走行レーンLn5と交わる方向の幅の大きさとする矩形の領域を、処理領域Er4として設定する。同様に、仮想線Vl2に沿って、第1点P1lと第2点P2lとを結んだ線分を中心として、第3距離L3を走行レーンLn5と交わる方向の幅の大きさとする矩形の領域を、処理領域El4として設定する。   Using the example of FIG. 33, the method for setting the processing area in step S284 will be specifically described. First, two first points on the two virtual lines Vl1 and Vl2, which are two first points before the first distance L21 determined in advance from the point P10 (intersection position of the two virtual lines Vl1 and Vl2). Points P1r and P1l are specified. Next, two points that are different from the two first points P1r and P1l on the two virtual lines Vl1 and Vl2, and that are farther from the end on the far side of the pedestrian crossing Pd3 by a predetermined second distance L22. The side points are specified as the second points P2r and P2l. Then, along the virtual line Vl1, a rectangle having a predetermined third distance L3 as a width in the direction intersecting the travel lane Ln5, with the line segment connecting the first point P1r and the second point P2r as the center. Is set as the processing area Er4. Similarly, a rectangular area having a width in the direction intersecting the travel lane Ln5 with the third distance L3 centered on a line segment connecting the first point P1l and the second point P2l along the virtual line Vl2. And set as the processing area El4.

図32に示すように、ステップS284の実行後、上述のステップS220〜S255が実行される。   As shown in FIG. 32, after the execution of step S284, the above-described steps S220 to S255 are executed.

以上説明した第15実施形態の走路認識装置100iは、第1実施形態の走路認識装置100と同様な効果を有する。加えて、自車両が交差点領域内を走行中又は停車中であると判定された場合に、横断歩道の縞模様を構成するペイントの長手方向を利用して処理領域を設定するので、処理領域の特定精度の低下を抑制できる。一般に、走行レーン上の横断歩道の縞模様を構成する複数のペイントの長手方向は、走行レーンと平行であるため、かかる長手方向を利用して処理領域を設定することにより、処理領域の特定精度の低下を抑制できるからである。   The travel path recognition apparatus 100i of the fifteenth embodiment described above has the same effect as the travel path recognition apparatus 100 of the first embodiment. In addition, when it is determined that the host vehicle is traveling or stopped in the intersection area, the processing area is set using the longitudinal direction of the paint that forms the stripe pattern of the pedestrian crossing. Decrease in specific accuracy can be suppressed. In general, since the longitudinal direction of a plurality of paints forming the striped pattern of the pedestrian crossing on the traveling lane is parallel to the traveling lane, the processing region is set by using the longitudinal direction, thereby specifying the processing region. It is because the fall of can be suppressed.

P.第16実施形態:
第16実施形態の走路認識装置100jは、図34に示すように、正常性判定部118として機能する点において、第1実施形態の走路認識装置100の装置構成と異なる。第16実施形態の走路認識装置100jにおけるその他の構成要素は、第1実施形態の走路認識装置100と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。正常性判定部118は、後述する第16実施形態における遠方走路形状算出処理において一時的に選択された白線候補の正常性を判定する。
P. Sixteenth embodiment:
The runway recognition apparatus 100j of the sixteenth embodiment differs from the apparatus configuration of the runway recognition apparatus 100 of the first embodiment in that it functions as a normality determination unit 118, as shown in FIG. Since the other components in the runway recognition apparatus 100j of the sixteenth embodiment are the same as those of the runway recognition apparatus 100 of the first embodiment, the same components are denoted by the same reference numerals and detailed description thereof is omitted. To do. The normality determination unit 118 determines the normality of the white line candidate temporarily selected in the far road shape calculation process in the sixteenth embodiment described later.

第16実施形態の遠方走路形状算出処理は、図35に示すように、図4に示す第1実施形態の遠方走路算出処理と比べて、ステップS225〜S240に代えてステップS805〜S810を実行する点においてのみ異なる。なお、第16実施形態の走路認識装置100jは、第1実施形態の走路認識装置100と同様な手順にて、近傍走路形状算出処理および目標通過点設定処理を実行する。第1実施形態では、処理領域内において白線候補を特定するためにハフ変換を行なっていたが、第16実施形態では、LMedS(Least Median Squares)を用いる。LMedSは、いわゆるランダムサンプル法の一種である。なお、LMedSに代えて、RANSAC(RANdom SAmple Consensus)を用いてもよい。   As shown in FIG. 35, the far road shape calculation process of the sixteenth embodiment executes steps S805 to S810 instead of steps S225 to S240 as compared to the far road calculation process of the first embodiment shown in FIG. It differs only in respect. In addition, the runway recognition apparatus 100j of 16th Embodiment performs a near runway shape calculation process and a target passing point setting process in the procedure similar to the runway recognition apparatus 100 of 1st Embodiment. In the first embodiment, the Hough transform is performed in order to identify the white line candidate in the processing area. However, in the sixteenth embodiment, LMedS (Least Median Squares) is used. LMedS is a kind of so-called random sampling method. Note that RANSAC (RANdom SAmple Consensus) may be used instead of LMedS.

図35に示すように、ステップS220の実行後、遠方形状算出部102は、LMedSを利用して白線候補を決定する(ステップS805)。具体的には、ステップS220で抽出された処理領域内のエッジのうち、任意の2個をランダムにサンプリングする。次に、かかる2個のエッジを結ぶ直線式から、他の全てのエッジ(例えば、N個)と、かかる直線との誤差の2乗を算出する。次に、得られたN個の2乗誤差の中央値を、かかる直線の評価スコアとして特定して記録する。以上を、すべてのエッジの2個の組み合わせについて実行する。そして、得られたすべての評価スコアのうち、最低の評価スコアの直線を、白線候補として決定する。なお、白線候補は、後述するように正常であると判定された場合には、遠方走路形状として算出されるため、「仮の遠方走路形状」と呼ぶことができる。   As shown in FIG. 35, after execution of step S220, the distant shape calculation unit 102 determines a white line candidate using LMedS (step S805). Specifically, any two of the edges in the processing region extracted in step S220 are sampled randomly. Next, the square of the error between all the other edges (for example, N) and the straight line is calculated from the straight line equation connecting the two edges. Next, the obtained median value of the N square errors is specified and recorded as the evaluation score of the straight line. The above is executed for two combinations of all edges. And the straight line of the lowest evaluation score is determined as a white line candidate among all the obtained evaluation scores. The white line candidate is calculated as a far road shape when it is determined to be normal as will be described later, and can therefore be referred to as a “provisional far road shape”.

正常性判定部118は、ステップS805で決定された白線候補が正常であるか否かを判定する(ステップS810)。この正常性判定の具体的な方法を、図36を用いて説明する。図36では、4つのケースC1〜C4について、それぞれ白線候補m1〜m4と、誤差分布と、各白線候補の評価スコアS1〜S4とが表されている。   The normality determination unit 118 determines whether the white line candidate determined in step S805 is normal (step S810). A specific method for determining the normality will be described with reference to FIG. In FIG. 36, for the four cases C1 to C4, white line candidates m1 to m4, error distribution, and evaluation scores S1 to S4 for each white line candidate are shown.

ケースC1では、評価スコアS1は、比較的小さい値であり、本実施形態では正常であると判定される。これに対して、他の3つのケースC2〜C4では、正常ではない、すなわち、異常であると判定される。具体的には、ケースC2では、評価スコアが比較的大きいため異常であると判定される。また、ケースC3では、評価スコアS3は比較的小さい。しかし、ケースC3では、中央値から外れた値の誤差(2乗誤差)が連続する誤差範囲であって、度数が大きく且つ互いに等しい誤差範囲が比較的広く存在している。このような状況とはケースC3に示すように、白線候補として決定された直線m3に加えて同様な直線m30が存在し得るような場合が想定される。具体的には、白線(区画線)の近傍に白線に沿って設置されたガードレールが存在するような場合には、かかるガードレールのエッジからなる直線も、誤差の分布においては、中央値から外れた誤差が均一に分布する態様で現れる。また、ケースC4では、評価スコアS4は比較的小さいが、エッジの合計数が小さいために算出される誤差数も少なく、その結果、白線候補m4が白線である蓋然性が低い場合が想定される。   In case C1, the evaluation score S1 is a relatively small value, and is determined to be normal in the present embodiment. On the other hand, in the other three cases C2 to C4, it is determined that it is not normal, that is, abnormal. Specifically, in case C2, since the evaluation score is relatively large, it is determined to be abnormal. In case C3, the evaluation score S3 is relatively small. However, in case C3, there is a continuous error range in which an error (square error) of a value deviating from the median value is continuous, and there is a relatively wide error range having a large frequency and equal to each other. Such a situation is assumed as shown in case C3 in which a similar straight line m30 may exist in addition to the straight line m3 determined as the white line candidate. Specifically, when there is a guardrail installed along the white line in the vicinity of the white line (partition line), the straight line formed by the edge of the guardrail also deviates from the median in the error distribution. The error appears in a uniformly distributed manner. In case C4, although the evaluation score S4 is relatively small, the number of errors calculated is small because the total number of edges is small. As a result, it is assumed that the probability that the white line candidate m4 is a white line is low.

本実施形態では、上述の3つのケースC2〜C4を異常であると認識するために、下記(i)〜(iii)のいずれかの条件を満たす場合には正常ではない(異常である)と判定し、いずれの条件も満たさない場合には正常であると判定するようにしている。
(i)LMedSにより得られる誤差分布における中央値の評価スコアが、予め定められた閾値評価スコアよりも大きい。
(ii)LMedSにより得られる誤差分布において、中央値から外れた値の誤差が連続する誤差範囲であって、度数が予め定められた閾値度数よりも大きく互いに等しい誤差範囲が、予め定められた範囲よりも広い。
(iii)得られた誤差数が予め定められた閾値数よりも少ない。
In this embodiment, in order to recognize the above three cases C2 to C4 as abnormal, it is not normal (abnormal) when any of the following conditions (i) to (iii) is satisfied. It is determined, and if neither condition is satisfied, it is determined that it is normal.
(I) The median evaluation score in the error distribution obtained by LMedS is larger than a predetermined threshold evaluation score.
(Ii) In an error distribution obtained by LMedS, an error range in which an error of a value deviating from the median value continues, and an error range in which the frequencies are greater than a predetermined threshold frequency and equal to each other is a predetermined range Wider than.
(Iii) The obtained number of errors is smaller than a predetermined threshold number.

図35に示すように、上述のステップS810の結果、白線候補は正常であると判定された場合(ステップS810:YES)、遠方形状算出部102は、上述のステップS245〜S255を実行する。これに対して、白線候補は正常ではないと判定された場合(ステップS810:NO)、遠方走路形状算出処理は終了する。したがって、この場合、遠方走路形状は算出されないこととなる。   As shown in FIG. 35, when it is determined that the white line candidate is normal as a result of step S810 described above (step S810: YES), the distant shape calculation unit 102 executes steps S245 to S255 described above. On the other hand, when it is determined that the white line candidate is not normal (step S810: NO), the far road shape calculation process ends. Therefore, in this case, the far road shape is not calculated.

以上説明した第16実施形態の走路認識装置100jは、第1実施形態の走路認識装置100と同様な効果を有する。加えて、LMedSにより決定された白線候補が正常でないと判定された場合に遠方走路形状を算出しないので、正常でない遠方走路形状が履歴として遠方形状記憶部104に記憶されることを抑制できる。このため、遠方走路形状を用いて処理領域を設定する場合の精度の低下を抑制できる。   The runway recognition apparatus 100j of the sixteenth embodiment described above has the same effect as the runway recognition apparatus 100 of the first embodiment. In addition, since the far road shape is not calculated when it is determined that the white line candidate determined by LMedS is not normal, it is possible to prevent the far road shape that is not normal from being stored in the far shape storage unit 104 as a history. For this reason, the fall of the precision at the time of setting a process area | region using a far road shape can be suppressed.

また、誤差分布に基づき、白線候補の正常性を判定するので、かかる正常性を精度良く判定できる。また、上記(i)〜(iii)のいずれかの条件が満たされた場合に、白線候補は正常ではないと判定するので、白線候補の正常性を精度良く判定できる。   Further, since the normality of the white line candidate is determined based on the error distribution, the normality can be accurately determined. Further, when any of the above conditions (i) to (iii) is satisfied, it is determined that the white line candidate is not normal, and thus the normality of the white line candidate can be determined with high accuracy.

Q.第17実施形態:
第17実施形態の走路認識装置100kは、図37に示すように、走路推定部119として機能する点において、第16実施形態の走路認識装置100jの装置構成と異なる。第17実施形態の走路認識装置100kにおけるその他の構成要素は、第16実施形態の走路認識装置100jと同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。走路推定部119は、前回の遠方走路形状に基づき、今回の遠方走路形状を推定する。
Q. Seventeenth embodiment:
The runway recognition apparatus 100k according to the seventeenth embodiment differs from the apparatus configuration of the runway recognition apparatus 100j according to the sixteenth embodiment in that it functions as a runway estimation unit 119, as shown in FIG. The other components in the track recognition device 100k of the seventeenth embodiment are the same as those of the track recognition device 100j of the sixteenth embodiment, so the same components are denoted by the same reference numerals and detailed description thereof is omitted. To do. The runway estimation unit 119 estimates the current far road shape based on the previous far road shape.

第17実施形態の遠方走路形状算出処理は、図38に示すように、図35に示す第16実施形態の遠方走路算出処理と比べて、ステップS800を追加実行する点においてのみ異なる。なお、第17実施形態の走路認識装置100kは、第1実施形態の走路認識装置100と同様な手順にて、近傍走路形状算出処理および目標通過点設定処理を実行する。   As shown in FIG. 38, the far road shape calculation process of the seventeenth embodiment differs from the far road calculation process of the sixteenth embodiment shown in FIG. 35 only in that step S800 is additionally executed. In addition, the runway recognition apparatus 100k of 17th Embodiment performs a near runway shape calculation process and a target passing point setting process in the same procedure as the runway recognition apparatus 100 of 1st Embodiment.

図38に示すように、ステップS220の実行後、走路推定部119は、遠方形状記憶部104に記憶されている前回の遠方走路形状と、撮像パラメータと、車両の動きを示す情報とに基づき、今回の遠方走路形状を推定する(ステップS800)。このステップS800は、上述のステップS275において今回の遠方走路形状を推定する処理と同じ処理であるので、その詳細な説明を省略する。ステップS800の後、上述のステップS805およびS810が実行される。但し、本実施形態におけるステップS810の具体的な手順は、第16実施形態の手順と異なる。   As shown in FIG. 38, after the execution of step S220, the runway estimation unit 119 is based on the previous far runway shape, imaging parameters, and information indicating the movement of the vehicle stored in the far shape storage unit 104. The current far road shape is estimated (step S800). Since this step S800 is the same process as the process of estimating the current far road shape in step S275 described above, detailed description thereof will be omitted. After step S800, steps S805 and S810 described above are executed. However, the specific procedure of step S810 in the present embodiment is different from the procedure of the sixteenth embodiment.

具体的には、正常性判定部118は、ステップS800で推定された今回の遠方走路形状と、ステップS805で決定された白線候補とを比較して、これら2つの形状(直線)の位置および角度の差を求める。なお、位置および角度のうち一方の差のみを求めてもよい。そして、かかる差が予め定められた閾値以上である場合に正常ではない(異常である)と判定し、かかる閾値よりも小さい場合には、正常であると判定する。   Specifically, the normality determination unit 118 compares the current far road shape estimated in step S800 with the white line candidate determined in step S805, and the position and angle of these two shapes (straight lines). Find the difference. Only the difference between one of the position and the angle may be obtained. When the difference is equal to or greater than a predetermined threshold, it is determined that the difference is not normal (abnormal), and when the difference is smaller than the threshold, it is determined that the difference is normal.

図39において、直線Lr4、Ll4は、近傍走路形状を示す。また、直線Lr5、Ll5は、前回の遠方走路形状から推定される今回の遠方走路形状を示す。また、直線Lr6、Ll6は、白線候補の直線を示す。図39に示すように、直線Lr5と直線Lr6とは、互いに交差しており、角度差は比較的大きい。同様に、直線Ll5と直線Ll6とは、互いに交差しており、角度差は比較的大きい。したがって、この場合、白線候補の直線Lr6、Ll6は、異常であると判定される可能性が高い。なお、このように、白線候補が前回の遠方走路形状から推定される今回の遠方走路形状と大きく相違する理由としては、例えば、区画線に沿って存在するガードレールや植え込みから抽出されたエッジから白線候補が決定された場合などが想定される。   In FIG. 39, straight lines Lr4 and Ll4 indicate the neighboring road shape. The straight lines Lr5 and L15 indicate the current far road shape estimated from the previous far road shape. Straight lines Lr6 and Ll6 indicate white line candidate straight lines. As shown in FIG. 39, the straight line Lr5 and the straight line Lr6 intersect each other, and the angle difference is relatively large. Similarly, the straight line L15 and the straight line L16 cross each other, and the angle difference is relatively large. Accordingly, in this case, the white line candidate straight lines Lr6 and L16 are likely to be determined to be abnormal. In addition, the reason why the white line candidate is greatly different from the current far road shape estimated from the previous far road shape in this way is, for example, the white line from the edge extracted from the guardrail or planting existing along the lane line. The case where a candidate is determined is assumed.

以上説明した第17実施形態の走路認識装置100kは、第16実施形態の走路認識装置100jと同様な効果を有する。加えて、LMedSにより決定された白線候補と前回の遠方走路形状から推定される今回の遠方走路形状とを比較して、2つの直線の角度および位置の差が閾値以上である場合に、白線候補は正常ではないと判定するので、白線候補の正常性を精度良く判定できる。   The track recognition device 100k of the seventeenth embodiment described above has the same effect as the track recognition device 100j of the sixteenth embodiment. In addition, when the white line candidate determined by LMedS is compared with the current far road shape estimated from the previous far road shape, the difference between the angle and the position of the two straight lines is equal to or greater than the threshold value. Therefore, it is possible to accurately determine the normality of the white line candidate.

R.第18実施形態:
第18実施形態における走路認識装置の装置構成は、図37に示す第17実施形態におおける走路認識装置100kの装置構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
R. Eighteenth embodiment:
Since the device configuration of the track recognition device in the eighteenth embodiment is the same as the device configuration of the track recognition device 100k in the seventeenth embodiment shown in FIG. 37, the same components are assigned the same reference numerals, Detailed description thereof is omitted.

第18実施形態における遠方走路形状算出処理は、図38に示す第17実施形態における遠方走路形状算出処理と同様である。但し、ステップS805の具体的な処理において、第17実施形態と異なる。   The far road shape calculation process in the eighteenth embodiment is the same as the far road shape calculation process in the seventeenth embodiment shown in FIG. However, the specific processing in step S805 differs from that in the seventeenth embodiment.

第18実施形態の走路認識装置100kは、ステップS805を、図40に示す手順で実行する。具体的には、正常性判定部118は、2つエッジを選択し、かかる2つのエッジを通る直線を特定する(ステップS905)。正常性判定部118は、ステップS905で特定された直線について、LMedSを利用して仮の誤差分布を求める(ステップS910)。なお、「仮の誤差分布」と呼ぶのは、かかる誤差分布は、後述するように補正される可能性があるからである。正常性判定部118は、ステップS800で推定された今回の遠方走路形状と、ステップS905で特定された直線との一致度合いを求める(ステップS915)。例えば、第17実施形態と同様に、これら2つの形状(直線)の位置および角度の差を求め、差が小さいほど大きくなるように一致度合いを定める。   The traveling path recognition device 100k according to the eighteenth embodiment executes step S805 according to the procedure shown in FIG. Specifically, the normality determination unit 118 selects two edges and specifies a straight line passing through the two edges (step S905). The normality determination unit 118 obtains a temporary error distribution using LMedS for the straight line specified in step S905 (step S910). Note that the term “provisional error distribution” is because such error distribution may be corrected as will be described later. The normality determination unit 118 obtains the degree of coincidence between the current far road shape estimated in step S800 and the straight line specified in step S905 (step S915). For example, as in the seventeenth embodiment, the difference between the positions and angles of these two shapes (straight lines) is obtained, and the degree of coincidence is determined so as to increase as the difference decreases.

正常性判定部118は、ステップS915で求めた一致度合いに応じて、ステップS910で求めた誤差分布を補正して、最終的な誤差分布を求める(ステップS920)。具体的には、本実施形態では、一致度合いに応じて、中央値、すなわち、評価スコアを低く補正する。このとき、一致度合いが高いほど、評価スコアを低減する量を大きくする。   The normality determination unit 118 corrects the error distribution obtained in step S910 according to the degree of matching obtained in step S915, and obtains a final error distribution (step S920). Specifically, in this embodiment, the median, that is, the evaluation score is corrected to be low according to the degree of matching. At this time, as the degree of matching is higher, the amount by which the evaluation score is reduced is increased.

正常性判定部118は、すべてのエッジを選択したか否かを判定し(ステップS925)、すべてのエッジを選択していないと判定された場合(ステップS925:NO)、上述のステップS905に戻る。これに対して、すべてのエッジを選択したと判定された場合(ステップS925:YES)、最も評価スコアの低い直線を、白線候補として決定する(ステップS930)。上述のように、推定された今回の遠方走路形状との一致度合いが高い直線ほど、評価スコアが大きく低減するので、ステップS930において、白線候補として決定され易いといえる。   The normality determination unit 118 determines whether or not all edges have been selected (step S925). If it is determined that all edges have not been selected (step S925: NO), the normality determination unit 118 returns to step S905 described above. . On the other hand, when it is determined that all edges have been selected (step S925: YES), the straight line with the lowest evaluation score is determined as a white line candidate (step S930). As described above, the evaluation score is greatly reduced as the straight line has a higher degree of coincidence with the estimated far-running road shape, and therefore, it can be said that it is easily determined as a white line candidate in step S930.

以上説明した第18実施形態の走路認識装置100kは、第17実施形態の走路認識装置100kと同様な効果を有する。加えて、LMedSにおいて評価対象となる直線のうち、前回算出された遠方走路形状に基づき推定された今回の遠方走路形状との一致度合いが高い直線ほど、評価スコアが大きく低減するので、白線候補として決定され易くできる。したがって、白線候補を、より高い精度で決定することができる。   The track recognition device 100k according to the eighteenth embodiment described above has the same effect as the track recognition device 100k according to the seventeenth embodiment. In addition, among the straight lines to be evaluated in LMedS, the evaluation score is greatly reduced as the straight line having a higher degree of coincidence with the current far road shape estimated based on the far road shape calculated last time, so as a white line candidate It can be easily determined. Therefore, white line candidates can be determined with higher accuracy.

S.その他の実施形態:
(S−1)各実施形態において、今回算出された近傍走路形状を用いていた処理を、近傍走路形状の履歴を用いた処理に置き換えてもよい。例えば、第1実施形態における遠方走路形状算出処理のステップS210において、今回算出された近傍走路形状に代えて、近傍走路形状の履歴を用いて遠方走路形状を推定してもよい。例えば、前回の近傍走路形状、前々回の近傍走路形状からそれぞれ遠方走路形状を推定し、これら2つの遠方走路形状を組み合わせて(外挿して)、今回の遠方走路形状を推定してもよい。また、例えば、第1実施形態の遠方走路形状算出処理のステップS275において、前回算出された遠方走路形状に代えて、遠方走路形状の履歴を用いて処理領域を設定してもよい。
S. Other embodiments:
(S-1) In each embodiment, the process using the nearby runway shape calculated this time may be replaced with the process using the history of the nearby runway shape. For example, in step S210 of the far road shape calculation process in the first embodiment, the far road shape may be estimated using a history of the near road shape instead of the near road shape calculated this time. For example, it is also possible to estimate the far road shape from the previous near runway shape and the previous runway shape, and to combine these two far runway shapes (extrapolated) to estimate the current far road shape. Further, for example, in step S275 of the far road shape calculation process of the first embodiment, a processing region may be set using a far road shape history instead of the previously calculated far road shape.

(S−2)第4実施形態と第5実施形態とを組み合わせてもよい。すなわち、自車両の現在位置が交差点領域内であると判定された場合(ステップS206:YES、およびステップS316:YES)、ステップS209における閾値時間とステップS319における閾値時間とをいずれも通常の時間よりも長い時間に設定してもよい。 (S-2) The fourth embodiment and the fifth embodiment may be combined. That is, when it is determined that the current position of the host vehicle is within the intersection area (step S206: YES and step S316: YES), the threshold time in step S209 and the threshold time in step S319 are both set from the normal time. May be set to a longer time.

(S−3)各実施形態において、自車両の前方に他の車両が存在せず、且つ、自車両が赤信号で停車中の場合であり、且つ、自車両の前方を横切る移動物が存在する場合には、処理領域の新たな設定を行わず、自車両の停車前に設定された処理領域を、現在の処理領域として設定してもよい。この構成においては、走路認識装置は、自車両の前方における物体を検出する物体検出部と、自車両が赤信号で停車中であるか否かを判定する停車判定部とを、さらに備える。停車判定部は、例えば、撮像画像を解析することにより、赤信号で停車中であるか否かを判定できる。自車両の前方を横切る移動物が存在する場合には、撮像画像に基づき算出される近傍走路形状の精度が低下し、また、そのような近傍走路形状を用いて設定される処理領域の精度も低下し、ひいては、遠方走路形状の精度も低下する。したがって、このような構成とすることで、低い精度の近傍走路形状および遠方走路形状が算出されることを抑制できる。 (S-3) In each embodiment, there is no other vehicle in front of the host vehicle, the host vehicle is stopped at a red signal, and there is a moving object crossing the front of the host vehicle. In this case, a new processing area may not be set, and the processing area set before the host vehicle is stopped may be set as the current processing area. In this configuration, the road recognition device further includes an object detection unit that detects an object in front of the host vehicle, and a stop determination unit that determines whether the host vehicle is stopped with a red signal. The stop determination unit can determine whether or not the vehicle is stopped with a red signal, for example, by analyzing the captured image. When there is a moving object that crosses the front of the host vehicle, the accuracy of the nearby runway shape calculated based on the captured image is reduced, and the accuracy of the processing region that is set using such a nearby runway shape is also reduced. This lowers the accuracy of the far road shape. Therefore, by setting it as such a structure, it can suppress that the near runway shape of a low precision and a far runway shape are calculated.

(S−4)第15実施形態では、処理領域を設定するために用いられた横断歩道のペイントのエッジは、ステップS281で特定された複数のペイントの長手方向に沿ったエッジのうち、自車両の走行レーン内において右端に位置するエッジと、左端に位置するエッジとであったが、本開示はこれに限定されない。ステップS281で特定された複数のペイントの長手方向に沿った任意の位置の2つのエッジであってもよい。また、2つのエッジに限らず、複数のエッジを用いて処理領域を特定してもよい。すなわち、複数のエッジを用いて消失点の位置を特定し、かかる消失点の位置に基づき処理領域を設定してもよい。 (S-4) In the fifteenth embodiment, the edge of the pedestrian crossing paint used for setting the processing region is the own vehicle among the edges along the longitudinal direction of the plurality of paints identified in step S281. The edge located at the right end and the edge located at the left end in the travel lane of the present disclosure are not limited to this. It may be two edges at arbitrary positions along the longitudinal direction of the plurality of paints specified in step S281. In addition, the processing region may be specified using a plurality of edges instead of the two edges. That is, the position of the vanishing point may be specified using a plurality of edges, and the processing area may be set based on the position of the vanishing point.

(S−5)第15実施形態において、処理領域を設定する具体的な方法は適宜変更可能である。例えば、ステップS282で特定されたエッジを延長させて消失点P10の位置を特定したら、かかる消失点P10を頂点とする所定の形状の三角形状の領域を、2つのエッジを延長させた仮想線に沿って配置して設定してもよい。 (S-5) In the fifteenth embodiment, the specific method for setting the processing region can be changed as appropriate. For example, if the edge specified in step S282 is extended to specify the position of the vanishing point P10, a triangular region having a predetermined shape having the vanishing point P10 as a vertex is converted into a virtual line obtained by extending two edges. You may arrange and set along.

(S−6)第4実施形態では、自車両の現在位置が交差点領域内であるか否かに応じて、目標通過点設定処理のステップS319における閾値時間の長さを変えていたが、本開示はこれに限定されない。例えば、遠方走路形状算出処理のステップS205を、「近傍走路形状が予め定められた時間(所定の閾値時間)を超えて近傍走路形状の入力があるか否かを判定する処理(以下、「ステップS205a」と呼ぶ)に置き換える。そして、かかるステップS205aの前に、上述のステップS260〜S264を実行する。このとき、ステップS262またはS264で設定される閾値時間を、ステップS205aにおける閾値時間としてもよい。 (S-6) In the fourth embodiment, the length of the threshold time in step S319 of the target passing point setting process is changed depending on whether or not the current position of the host vehicle is in the intersection area. The disclosure is not limited to this. For example, the step S205 of the far road shape calculation process is performed by performing a process of determining whether or not there is an input of the near road shape exceeding the predetermined time (predetermined threshold time) (hereinafter, “step S205a "). Then, steps S260 to S264 described above are executed before step S205a. At this time, the threshold time set in step S262 or S264 may be the threshold time in step S205a.

(S−7)第13実施形態の3種類のパラメータのうち、少なくとも1種類のパラメータに基づき、テンプレート画像を補正してもよい。 (S-7) The template image may be corrected based on at least one of the three types of parameters of the thirteenth embodiment.

(S−8)第17実施形態の遠方走路形状算出処理のステップS800において、前回の遠方走路形状に代えて、今回の遠方走路形状を用いて、今回の遠方走路形状を推定してもよい。かかる推定は、例えば、第1実施形態の遠方走路形状算出処理のステップS210と同様な手順により実行してもよい。 (S-8) In step S800 of the far road shape calculation processing of the seventeenth embodiment, the current far road shape may be estimated using the current far road shape instead of the previous far road shape. Such estimation may be executed, for example, by the same procedure as step S210 of the far road shape calculation process of the first embodiment.

(S−9)各実施形態では、算出された近傍走路形状および遠方走路形状は、目標通過点、すなわち、自車両が自動運転する際の目標とする通過点を設定するために用いられていたが、本開示はこれに限定されない。例えば、近傍走路形状および遠方走路形状のうち、少なくとも一方が算出されない場合に警報を発生させる構成とし、近傍走路形状および遠方走路形状は、かかる警報の発生契機として用いられてもよい。かかる構成においては、目標通過点設定部105、および目標通過点設定処理の実行を省略してもよい。 (S-9) In each embodiment, the calculated nearby runway shape and far road shape are used to set a target passing point, that is, a target passing point when the host vehicle is automatically driven. However, the present disclosure is not limited to this. For example, an alarm may be generated when at least one of the near road shape and the far road shape is not calculated, and the near road shape and the far road shape may be used as a trigger for generating such an alarm. In such a configuration, the execution of the target passing point setting unit 105 and the target passing point setting process may be omitted.

(S−10)各実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、第1実施形態においては、近傍形状算出部101、遠方形状算出部102、近傍形状記憶部103、遠方形状記憶部104、目標通過点設定部105のうちの少なくとも1つの機能部を、集積回路、ディスクリート回路、またはそれらの回路を組み合わせたモジュールにより実現してもよい。また、本開示の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータプログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。すなわち、「コンピューター読み取り可能な記録媒体」とは、データパケットを一時的ではなく固定可能な任意の記録媒体を含む広い意味を有している。 (S-10) In each embodiment, a part of the configuration realized by hardware may be replaced with software. Conversely, a part of the configuration realized by software is replaced with hardware. It may be. For example, in the first embodiment, at least one functional unit among the neighborhood shape calculation unit 101, the far shape calculation unit 102, the neighborhood shape storage unit 103, the far shape storage unit 104, and the target passing point setting unit 105 is integrated. You may implement | achieve by the module which combined the circuit, the discrete circuit, or those circuits. In addition, when part or all of the functions of the present disclosure are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. “Computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or CD-ROM, but is also fixed to an internal storage device in a computer such as various types of RAM and ROM, or a computer such as a hard disk. It also includes an external storage device. That is, the “computer-readable recording medium” has a broad meaning including an arbitrary recording medium capable of fixing a data packet instead of temporarily.

本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present disclosure is not limited to the above-described embodiment, and can be realized with various configurations without departing from the spirit of the present disclosure. For example, the technical features in each embodiment are appropriately replaced or combined to solve part or all of the above-described problems or to achieve part or all of the above-described effects. It is possible. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

100,100a〜100k 走路認識装置、21 撮像装置、101 近傍形状算出部、102 遠方形状算出部、103 近傍形状記憶部、104 遠方形状記憶部、Er1〜Er4,El1〜El4 処理領域   100, 100a to 100k Runway recognition device, 21 imaging device, 101 near shape calculation unit, 102 far shape calculation unit, 103 near shape memory unit, 104 far shape memory unit, Er1 to Er4, El1 to El4 processing region

Claims (24)

車両に搭載され、前記車両の走路を認識する走路認識装置(100、100a〜100k)であって、
前記車両に搭載された撮像装置(21)により繰り返し得られる撮像画像に基づき、前記車両の近傍の走路形状である近傍走路形状を繰り返し算出する近傍形状算出部(101)と、
算出された前記近傍走路形状に基づき各撮像画像における処理領域(Er1〜Er4、El1〜El4)を設定し、前記処理領域内における前記車両の遠方の走路形状である遠方走路形状を繰り返し算出する遠方形状算出部(102)と、
算出された前記近傍走路形状を時系列的に履歴として記憶する近傍形状記憶部(103)と、
算出された前記遠方走路形状を時系列的に履歴として記憶する遠方形状記憶部(104)と、
を備え、
前記遠方形状算出部は、前記近傍走路形状が算出されない場合には、前記近傍走路形状の履歴と、前記遠方走路形状の履歴と、のうち少なくとも一方を用いて、前記処理領域を設定する、
走路認識装置。
A travel path recognition device (100, 100a to 100k) that is mounted on a vehicle and recognizes the travel path of the vehicle,
A neighborhood shape calculation unit (101) that repeatedly calculates a neighborhood track shape that is a track shape near the vehicle based on captured images repeatedly obtained by the imaging device (21) mounted on the vehicle;
A far region where a processing region (Er1 to Er4, El1 to El4) in each captured image is set based on the calculated nearby traveling route shape, and a far traveling shape which is a far traveling shape of the vehicle in the processing region is repeatedly calculated. A shape calculation unit (102);
A neighboring shape storage unit (103) that stores the calculated neighboring running road shape as a history in a time series;
A far shape storage unit (104) for storing the calculated far road shape as a history in a time series; and
With
The far-end shape calculation unit sets the processing region using at least one of the history of the near-runway shape and the history of the far-off road shape when the near-runway shape is not calculated.
Runway recognition device.
請求項1に記載の走路認識装置において、
前記車両の自動走行に用いられる目標通過点を設定する目標通過点設定部(105)を、さらに備え、
前記目標通過点設定部は、前記近傍走路形状が算出された場合には、前記近傍走路形状に基づき前記目標通過点を設定し、前記近傍走路形状が算出されない場合には、前記遠方走路形状に基づき前記目標通過点を設定する、
走路認識装置。
In the runway recognition device according to claim 1,
A target passing point setting unit (105) for setting a target passing point used for automatic traveling of the vehicle,
The target passing point setting unit sets the target passing point based on the nearby running path shape when the neighboring running path shape is calculated, and sets the far running path shape when the neighboring running path shape is not calculated. Based on the target passing point,
Runway recognition device.
請求項1または請求項2に記載の走路認識装置において、
前記遠方形状算出部は、前記近傍走路形状が予め定められた第1期間を超えて連続して算出されない場合には、前記遠方走路形状を算出しない、
走路認識装置。
In the runway recognition device according to claim 1 or 2,
The far shape calculation unit does not calculate the far track shape when the neighboring track shape is not continuously calculated beyond a predetermined first period,
Runway recognition device.
請求項3に記載の走路認識装置において、
前記遠方形状算出部は、前記遠方走路形状が算出されない期間が予め定められた第2期間を超えない場合には、前記近傍走路形状の履歴と前記遠方走路形状の履歴とのうち少なくとも一方を用いて前記遠方走路形状を算出し、前記算出されない期間が前記第2期間を超えた場合には、前記遠方走路形状を算出しない、
走路認識装置。
In the runway recognition device according to claim 3,
If the period during which the far road shape is not calculated does not exceed a predetermined second period, the far shape calculation unit uses at least one of the near road shape history and the far road shape history. Calculating the far road shape, and if the non-calculated period exceeds the second period, do not calculate the far road shape,
Runway recognition device.
請求項4に記載の走路認識装置において、
前記車両の現在位置が交差点および前記交差点の近傍領域を含む交差点領域内であるか否かを判定する車両位置判定部(106)を、さらに備え、
前記遠方形状算出部は、前記車両位置判定部による判定の結果、前記車両の現在位置が前記交差点領域内である場合には、前記交差点領域内でない場合に比べて、前記第1期間と前記第2期間とのうち少なくとも一方を、より長い時間に設定する、
走路認識装置。
In the runway recognition device according to claim 4,
A vehicle position determination unit (106) for determining whether or not the current position of the vehicle is within an intersection area including an intersection and a neighborhood area of the intersection;
As a result of the determination by the vehicle position determination unit, the distant shape calculation unit has the first period and the first period when the current position of the vehicle is within the intersection region compared to when it is not within the intersection region. Set at least one of the two periods to a longer time,
Runway recognition device.
請求項1から請求項5までのいずれか一項に記載の走路認識装置において、
算出された前記近傍走路形状に対して認識精度と相関する評価値を取得する評価部を、さらに備え、
前記評価部は、算出された前記近傍走路形状における奥行き方向の長さが長いほど高い評価値を取得し、
前記遠方形状算出部は、算出された前記評価値に応じた利用率で前記算出された前記近傍走路形状を用いて前記処理領域を設定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 5,
An evaluation unit that acquires an evaluation value that correlates with recognition accuracy with respect to the calculated nearby runway shape, further comprising:
The evaluation unit obtains a higher evaluation value as the length in the depth direction in the calculated nearby runway shape is longer,
The distant shape calculation unit sets the processing region using the calculated nearby runway shape at a usage rate according to the calculated evaluation value.
Runway recognition device.
請求項6に記載の走路認識装置において、
前記車両の前方における他の車両の有無を検出する物体検出部(107)と、
前記車両が赤信号で停車中であるか否かを判定する停車判定部(108)と、
をさらに備え、
前記遠方形状算出部は、前記車両の前方に前記他の車両が存在せず、且つ、前記車両が赤信号で停車中の場合には、前記車両の停車前に設定された前記処理領域を、今回の前記処理領域として設定する、
走路認識装置。
In the runway recognition device according to claim 6,
An object detection unit (107) for detecting the presence or absence of another vehicle in front of the vehicle;
A stop determination unit (108) for determining whether or not the vehicle is stopped at a red light;
Further comprising
If the other vehicle does not exist in front of the vehicle and the vehicle is stopped at a red signal, the far-field shape calculating unit sets the processing area set before the vehicle stops, Set as the processing area this time,
Runway recognition device.
請求項1から請求項6までのいずれか一項に記載の走路認識装置において、
前記車両の前方における物体を検出する物体検出部(107)と、
前記撮像画像を利用して、前記車両が赤信号で停車中であるか否かを判定する停車判定部(108)と、
をさらに備え、
前記遠方形状算出部は、前記車両の前方に他の車両が存在せず、且つ、前記車両が赤信号で停車中の場合であり、且つ、前記車両の前方を横切る移動物が存在する場合には、前記処理領域の新たな設定は行わず、前記車両の停車前に特定された前記処理領域を、現在の前記処理領域として設定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 6,
An object detection unit (107) for detecting an object in front of the vehicle;
A stop determination unit (108) for determining whether or not the vehicle is stopped at a red signal, using the captured image;
Further comprising
The distant shape calculation unit is a case where there is no other vehicle in front of the vehicle, the vehicle is stopped at a red signal, and there is a moving object that crosses the front of the vehicle. Does not perform a new setting of the processing area, and sets the processing area specified before the vehicle stops as the current processing area,
Runway recognition device.
請求項1から請求項8までのいずれか一項に記載の走路認識装置において、
照射された電磁波の反射波を利用して立体構造物を検出する立体構造物検出部(109)を、さらに備え、
前記遠方形状算出部は、検出された前記立体構造物のうち道路の側縁に存在する路側物を特定し、特定された前記路側物により区画される領域の内側において、前記処理領域を設定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 8,
A three-dimensional structure detection unit (109) for detecting a three-dimensional structure using a reflected wave of the irradiated electromagnetic wave;
The distant shape calculation unit identifies a roadside object existing on a side edge of a road among the detected three-dimensional structure, and sets the processing region inside an area partitioned by the identified roadside object. ,
Runway recognition device.
請求項1から請求項9までのいずれか一項に記載の走路認識装置において、
照射された電磁波の反射波を利用して立体構造物を検出する立体構造物検出部と、
前記車両の現在の走行レーンを特定する走行レーン特定部(110)と、
検出された前記立体構造物のうち道路の側縁に存在する路側物を特定し、特定された前記路側物と特定された前記現在の走行レーンとを利用して、前記車両が交差点を通過した後に走行するレーンである通過後走行レーンを推定する走行レーン推定部(111)と、
をさらに備え、
前記遠方形状算出部は、推定される前記通過後走行レーンを示す情報を利用して、前記処理領域を設定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 9,
A three-dimensional structure detection unit that detects a three-dimensional structure using a reflected wave of the irradiated electromagnetic wave;
A traveling lane identifying unit (110) for identifying a current traveling lane of the vehicle;
The roadside object existing on the side edge of the road is identified among the detected three-dimensional structures, and the vehicle has passed the intersection using the identified roadside object and the identified current driving lane. A travel lane estimation unit (111) that estimates a travel lane after passing which is a lane that travels later;
Further comprising
The distant shape calculation unit sets the processing area using information indicating the estimated travel lane after passing,
Runway recognition device.
請求項1から請求項10までのいずれか一項に記載の走路認識装置において、
ノーズアップまたはノーズダウンである前記車両の姿勢変化を検出する姿勢変化検出部(112)をさらに備え、
前記遠方形状算出部は、前記姿勢変化が検出された場合に、前記姿勢変化に応じて前記処理領域の位置を補正して設定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 10,
A posture change detector (112) for detecting a posture change of the vehicle that is nose-up or nose-down;
The distant shape calculation unit corrects and sets the position of the processing region according to the posture change when the posture change is detected.
Runway recognition device.
請求項1から請求項10までのいずれか一項に記載の走路認識装置において、
照射された電磁波の反射波を利用して立体構造物を繰り返し検出する立体構造物検出部(109)と、
ノーズアップまたはノーズダウンである前記車両の姿勢変化に起因する前記撮像画像における前記処理領域の位置ずれを、補正する際の補正量を特定する補正量特定部(114)と、
をさらに備え、
前記遠方形状算出部は、前記補正量で前記処理領域の位置を補正して設定し、
前記補正量特定部は、
前回の前記撮像画像における特定地点までの前記車両からの距離と、今回の前記撮像画像における前記特定地点までの前記車両までの距離との差分と、
前記立体構造物検出部により今回検出された特定立体構造物までの前記車両からの距離と、前回以前に検出された前記特定立体構造物までの前記車両からの距離との差分と、の相違に基づき、前記補正量を特定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 10,
A three-dimensional structure detection unit (109) that repeatedly detects a three-dimensional structure using a reflected wave of the irradiated electromagnetic wave;
A correction amount specifying unit (114) for specifying a correction amount for correcting a position shift of the processing region in the captured image caused by a change in posture of the vehicle that is nose-up or nose-down;
Further comprising
The far shape calculation unit corrects and sets the position of the processing region with the correction amount,
The correction amount specifying unit
The difference between the distance from the vehicle to the specific point in the previous captured image and the distance to the vehicle to the specific point in the current captured image;
The difference between the distance from the vehicle to the specific three-dimensional structure detected this time by the three-dimensional structure detection unit and the difference between the distance from the vehicle to the specific three-dimensional structure detected before the previous time. Based on the correction amount,
Runway recognition device.
請求項1から請求項12までのいずれか一項に記載の走路認識装置において、
ノーズアップまたはノーズダウンである前記車両の姿勢変化を検出する姿勢変化検出部(112)と、
前記姿勢変化の発生前に特定された前記処理領域を含む予め定められた大きさの領域の画像を、テンプレート画像として特定するテンプレート画像特定部(113)と、
を備え、
前記遠方形状算出部は、前記姿勢変化が検出された場合に、前記撮像画像に対して前記テンプレート画像を用いてパターンマッチングを実行して、前記処理領域を設定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 12,
An attitude change detection unit (112) for detecting an attitude change of the vehicle that is nose-up or nose-down;
A template image specifying unit (113) for specifying, as a template image, an image of a region having a predetermined size including the processing region specified before the occurrence of the posture change;
With
The distant shape calculation unit performs pattern matching on the captured image using the template image when the posture change is detected, and sets the processing region.
Runway recognition device.
請求項13に記載の走路認識装置において、
前記撮像装置の搭載位置または姿勢に相関する搭載パラメータと、前記車両の走行レーンの形状に相関するパラメータと、前記車両の挙動に相関するパラメータと、のうち少なくとも1つに基づき、前記テンプレート画像を補正するテンプレート画像補正部を、さらに備える、
走路認識装置。
In the runway recognition device according to claim 13,
The template image is based on at least one of a mounting parameter that correlates with the mounting position or orientation of the imaging device, a parameter that correlates with the shape of the traveling lane of the vehicle, and a parameter that correlates with the behavior of the vehicle. A template image correction unit for correcting is further provided.
Runway recognition device.
請求項13または請求項14に記載の走路認識装置において、
前記遠方形状算出部は、前記車両の走行レーンを区画する区画線が破線である場合には、前記区画線が実線である場合に比べて、前記パターンマッチングの結果が一致度を示すスコアに与える影響を低減する、
走路認識装置。
In the runway recognition device according to claim 13 or 14,
The distant shape calculation unit gives the score indicating the degree of coincidence when the lane marking that divides the travel lane of the vehicle is a broken line, compared to the case where the lane marking is a solid line. Reduce the impact,
Runway recognition device.
請求項1から請求項15までのいずれか一項に記載の走路認識装置において、
前記車両が交差点および前記交差点の近傍領域を含む交差点領域内を走行中又は停車中であるか否かを判定する交差点判定部(116)と、
前記撮像画像において、前記車両の走行レーン上の横断歩道の縞模様を構成する複数のペイントを検出し、検出された前記複数のペイントの長手方向を特定する方向特定部(117)と、
をさらに備え、
前記遠方形状算出部は、
前記交差点領域内を前記車両が走行中又は停車中でないと判定された場合に、算出された前記近傍走路形状に基づき前記処理領域を設定し、
前記交差点領域内を前記車両が走行中又は停車中であると判定された場合に、前記方向特定部により特定された前記複数のペイントの長手方向を利用して、前記処理領域を設定する、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 15,
An intersection determination unit (116) for determining whether or not the vehicle is traveling or stopping in an intersection area including an intersection and a vicinity area of the intersection;
In the captured image, a direction specifying unit (117) for detecting a plurality of paints forming a stripe pattern of a pedestrian crossing on a travel lane of the vehicle, and specifying a longitudinal direction of the detected paints;
Further comprising
The distant shape calculation unit
When it is determined that the vehicle is not running or stopped in the intersection area, the processing area is set based on the calculated nearby running road shape,
When it is determined that the vehicle is running or stopped in the intersection area, the processing area is set using the longitudinal direction of the plurality of paints specified by the direction specifying unit,
Runway recognition device.
請求項16に記載の走路認識装置において、
前記方向特定部は、前記交差点領域内を前記車両が走行中又は停車中であると判定された場合に、前記複数のペイントの長手方向に沿ったエッジうち、前記走行レーン内に位置する2つのエッジ(Eg1、Eg2)を延長した仮想線(Vl1、Vl2)同士の交差位置(P10)を特定し、
前記遠方形状算出部は、前記交差位置に基づき、前記処理領域を設定する、
走路認識装置。
In the runway recognition device according to claim 16,
The direction specifying unit, when it is determined that the vehicle is traveling or stopped in the intersection area, of the edges along the longitudinal direction of the plurality of paints, Specify the intersection position (P10) between the virtual lines (Vl1, Vl2) extending from the edges (Eg1, Eg2),
The distant shape calculation unit sets the processing region based on the intersection position.
Runway recognition device.
請求項17に記載の走路認識装置において、
前記2つのエッジは、前記走行レーン内においてそれぞれ最も端側に位置する、
走路認識装置。
In the runway recognition device according to claim 17,
The two edges are located on the most end sides in the traveling lane,
Runway recognition device.
請求項17または請求項18に記載の走路認識装置において、
前記遠方形状算出部は、前記複数のペイントの長手方向に沿ったエッジのうち前記走行レーン内における両端に位置する2つのエッジを延長した2つの仮想線上の2つの第1点(P1r、P1l)であって、前記交差位置から予め定められた第1距離(L21)だけ手前側の2つの第1点と、前記2つの仮想線上の前記2つの第1点とは異なる2つの第2点(P2r、P2l)であって、前記横断歩道(Pd3)の奥側の端部から予め定められた第2距離(L22)だけ奥側の2つの第2点と、をそれぞれ結んだ線分を中心として、予め定められた第3距離(L3)を前記走行レーン(Ln5)と交わる方向の幅とする2つの矩形状の領域(Er4、El4)を、前記処理領域として特定する、
走路認識装置。
In the runway recognition device according to claim 17 or claim 18,
The distant shape calculation unit includes two first points (P1r, P1l) on two imaginary lines obtained by extending two edges located at both ends in the traveling lane among edges along the longitudinal direction of the plurality of paints. And two first points that are different from the two first points on the two imaginary lines by a first distance (L21) determined in advance from the intersecting position and the two first points on the two imaginary lines. P2r, P2l), centering on the line segment connecting the two second points on the back side by a predetermined second distance (L22) from the end on the back side of the pedestrian crossing (Pd3) As the processing area, two rectangular areas (Er4, El4) having a predetermined third distance (L3) as a width in a direction intersecting the travel lane (Ln5) are specified.
Runway recognition device.
請求項1から請求項19までのいずれか一項に記載の走路認識装置において、
算出される前記遠方走路形状の正常性を判定する正常性判定部(118)を、さらに備え、
前記遠方形状算出部は、算出された前記遠方走路形状が正常でないと判定された場合に、前記遠方走路形状を算出しない、
走路認識装置。
In the runway recognition device according to any one of claims 1 to 19,
A normality determination unit (118) for determining the normality of the calculated far-running road shape;
The far shape calculation unit does not calculate the far road shape when it is determined that the calculated far road shape is not normal,
Runway recognition device.
請求項20に記載の走路認識装置において、
前記遠方形状算出部は、前記撮像画像内の任意の2つのエッジを通る直線と他のエッジとの誤差に基づきLMedSにより得られる誤差分布に基づき、前記誤差分布における誤差中央値の度数が最も低い直線である候補直線を、仮の遠方走路形状として算出し、
前記正常性判定部は、
前記候補直線についての前記誤差分布における誤差中央値の度数である評価スコアが、予め定められた閾値スコアよりも大きいとの条件と、
前記候補直線の誤差分布において前記誤差中央値から外れた誤差が連続する範囲が予め定められた範囲よりも広いとの条件と、
得られた誤差数が予め定められた閾値数よりも少ないとの条件と、
のうち、少なくとも1つの条件が満たされる場合には、前記仮の遠方走路形状は正常でないと判定し、いずれの条件も満たされない場合には前記仮の遠方走路形状は正常であると判定し、前記仮の遠方走路形状を前記遠方走路形状として算出する、
走路認識装置。
In the runway recognition device according to claim 20,
The distant shape calculation unit has the lowest error median frequency in the error distribution based on an error distribution obtained by LMedS based on an error between a straight line passing through any two edges in the captured image and another edge. A candidate straight line that is a straight line is calculated as a temporary far road shape,
The normality determination unit
A condition that an evaluation score, which is a frequency of a median error in the error distribution for the candidate straight line, is larger than a predetermined threshold score;
In the error distribution of the candidate straight line, a condition that a range in which an error deviating from the error median value continues is wider than a predetermined range;
A condition that the number of errors obtained is less than a predetermined threshold number;
Among these, if at least one condition is satisfied, it is determined that the temporary far road shape is not normal, and if neither condition is satisfied, the temporary far road shape is determined to be normal, Calculate the temporary far road shape as the far road shape,
Runway recognition device.
請求項20に記載の走路認識装置において、
前記遠方走路形状の履歴に基づき、今回の前記遠方走路形状である推定遠方走路形状を推定する走路推定部(119)を、さらに備え、
前記遠方形状算出部は、前記撮像画像内の任意の2つのエッジを通る直線と他のエッジとの誤差に基づきLMedSにより得られる誤差分布に基づき、前記誤差分布における誤差中央値の度数が最も低い直線である候補直線を、仮の遠方走路形状として算出し、
前記正常性判定部は、前記推定遠方走路形状と、前記仮の遠方走路形状と、を比較して、前記推定遠方走路形状と前記仮の遠方走路形状との間における角度と位置とのうちの少なくとも一方の差が、予め定められた差以上の場合に前記仮の遠方走路形状は正常でないと判定し、前記予め定められた差よりも小さい場合に前記仮の遠方走路形状は正常であると判定し、前記仮の遠方走路形状を、前記遠方走路形状として算出する、
走路認識装置。
In the runway recognition device according to claim 20,
Based on the history of the far road shape, further comprising a runway estimation unit (119) that estimates the estimated far road shape that is the far road shape of this time,
The distant shape calculation unit has the lowest error median frequency in the error distribution based on an error distribution obtained by LMedS based on an error between a straight line passing through any two edges in the captured image and another edge. A candidate straight line that is a straight line is calculated as a temporary far road shape,
The normality determination unit compares the estimated far road shape with the temporary far road shape, and includes an angle and a position between the estimated far road shape and the temporary far road shape. When at least one difference is equal to or greater than a predetermined difference, the provisional far road shape is determined to be not normal, and when the difference is smaller than the predetermined difference, the temporary far road shape is normal. Determining and calculating the temporary far road shape as the far road shape,
Runway recognition device.
請求項20に記載の走路認識装置において、
前記遠方形状算出部は、前記撮像画像内の任意の2つのエッジを通る直線と他のエッジとの誤差に基づきLMedSにより得られる誤差分布に基づき、前記誤差分布における誤差中央値の度数が最も低い直線である候補直線を、仮の遠方走路形状として算出し、
前記正常性判定部は、今回算出された前記近傍走路形状と、前記仮の遠方走路形状と、を比較して、前記近傍走路形状と前記仮の遠方走路形状との間における角度と位置とのうちの少なくとも一方の差が、予め定められた差以上の場合に前記仮の遠方走路形状は正常でないと判定し、前記予め定められた差よりも小さい場合に前記仮の遠方走路形状は正常であると判定し、前記仮の遠方走路形状を、前記遠方走路形状として算出する、
走路認識装置。
In the runway recognition device according to claim 20,
The distant shape calculation unit has the lowest error median frequency in the error distribution based on an error distribution obtained by LMedS based on an error between a straight line passing through any two edges in the captured image and another edge. A candidate straight line that is a straight line is calculated as a temporary far road shape,
The normality determination unit compares the near runway shape calculated this time with the temporary far runway shape, and compares the angle and position between the near runway shape and the temporary far runway shape. When the difference between at least one of them is greater than or equal to a predetermined difference, it is determined that the temporary far road shape is not normal, and when the difference is smaller than the predetermined difference, the temporary far road shape is normal. It is determined that there is, and the temporary far road shape is calculated as the far road shape,
Runway recognition device.
請求項21に記載の走路認識装置において、
前記遠方走路形状の履歴に基づき、今回の前記遠方走路形状である推定遠方走路形状を推定する走路推定部(119)を、さらに備え、
前記正常性判定部は、前記撮像画像内の任意の2つのエッジを通る直線と、前記推定遠方走路形状と、を比較して、該直線と前記推定遠方走路形状との間における角度と位置とのうちの少なくとも一方の差が小さいほど、該直線についての前記誤差分布における誤差中央値の度数である評価スコアを、より小さく設定する、
走路認識装置。
In the runway recognition device according to claim 21,
Based on the history of the far road shape, further comprising a runway estimation unit (119) that estimates the estimated far road shape that is the far road shape of this time,
The normality determination unit compares a straight line passing through any two edges in the captured image with the estimated far-off road shape, and calculates an angle and a position between the straight line and the estimated far-off road shape. An evaluation score that is the frequency of the median error in the error distribution for the straight line is set to be smaller as the difference between at least one of
Runway recognition device.
JP2017134262A 2017-07-10 2017-07-10 Track recognition device Active JP6962726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017134262A JP6962726B2 (en) 2017-07-10 2017-07-10 Track recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017134262A JP6962726B2 (en) 2017-07-10 2017-07-10 Track recognition device

Publications (2)

Publication Number Publication Date
JP2019014407A true JP2019014407A (en) 2019-01-31
JP6962726B2 JP6962726B2 (en) 2021-11-05

Family

ID=65356828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017134262A Active JP6962726B2 (en) 2017-07-10 2017-07-10 Track recognition device

Country Status (1)

Country Link
JP (1) JP6962726B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113442930A (en) * 2020-03-10 2021-09-28 本田技研工业株式会社 Mobile body control device, mobile body control method, and program
WO2022145054A1 (en) * 2021-01-04 2022-07-07 日本電気株式会社 Image processing device, image processing method, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178398A (en) * 2001-12-11 2003-06-27 Fuji Heavy Ind Ltd Vehicle operation assisting device
JP2015179368A (en) * 2014-03-19 2015-10-08 株式会社日本自動車部品総合研究所 Road marking recognition device and road marking recognition program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178398A (en) * 2001-12-11 2003-06-27 Fuji Heavy Ind Ltd Vehicle operation assisting device
JP2015179368A (en) * 2014-03-19 2015-10-08 株式会社日本自動車部品総合研究所 Road marking recognition device and road marking recognition program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113442930A (en) * 2020-03-10 2021-09-28 本田技研工业株式会社 Mobile body control device, mobile body control method, and program
WO2022145054A1 (en) * 2021-01-04 2022-07-07 日本電気株式会社 Image processing device, image processing method, and recording medium

Also Published As

Publication number Publication date
JP6962726B2 (en) 2021-11-05

Similar Documents

Publication Publication Date Title
JP6747269B2 (en) Object recognition device
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
CN107209997B (en) Vehicle travel control device and travel control method
JP6363518B2 (en) Lane marking recognition system
US11092442B2 (en) Host vehicle position estimation device
JP6614108B2 (en) Vehicle control apparatus and vehicle control method
US11086007B2 (en) Target detection device
GB2558752A (en) Vehicle vision
JP2017004176A (en) Road surface marking detection device and road surface marking detection method
JP2019016246A (en) Travelling lane recognition device
WO2019065970A1 (en) Vehicle exterior recognition device
JP2019220070A (en) Electronic control unit
JP6962726B2 (en) Track recognition device
WO2018109999A1 (en) Lane marking recognition device
JP5974923B2 (en) Road edge detection system, method and program
JP7006203B2 (en) Trajectory setting device
JP5888275B2 (en) Road edge detection system, method and program
CN111781606A (en) Novel miniaturization implementation method for fusion of laser radar and ultrasonic radar
US20220289185A1 (en) Vehicle controller and method for controlling vehicle
US11920936B2 (en) Vehicle controller, and method and computer program for controlling vehicle
JP4703963B2 (en) Outside-of-vehicle monitoring device and travel control device equipped with this out-of-vehicle monitoring device
JP2019016245A (en) Travelling lane recognition device
JP2020086489A (en) White line position estimation device and white line position estimation method
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method
CN114084129A (en) Fusion-based vehicle automatic driving control method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211014

R150 Certificate of patent or registration of utility model

Ref document number: 6962726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150