JP2017084137A - Road section line recognition device, vehicle control apparatus, road section line recognition method, and road section line recognition program - Google Patents

Road section line recognition device, vehicle control apparatus, road section line recognition method, and road section line recognition program Download PDF

Info

Publication number
JP2017084137A
JP2017084137A JP2015212368A JP2015212368A JP2017084137A JP 2017084137 A JP2017084137 A JP 2017084137A JP 2015212368 A JP2015212368 A JP 2015212368A JP 2015212368 A JP2015212368 A JP 2015212368A JP 2017084137 A JP2017084137 A JP 2017084137A
Authority
JP
Japan
Prior art keywords
road
road lane
marking
vehicle
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015212368A
Other languages
Japanese (ja)
Other versions
JP6485915B2 (en
Inventor
弘文 金▲崎▼
Hirofumi Kanezaki
弘文 金▲崎▼
進太郎 藤田
Shintaro Fujita
進太郎 藤田
小林 大
Masaru Kobayashi
大 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
NEC Corp
Original Assignee
Honda Motor Co Ltd
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, NEC Corp filed Critical Honda Motor Co Ltd
Priority to JP2015212368A priority Critical patent/JP6485915B2/en
Publication of JP2017084137A publication Critical patent/JP2017084137A/en
Application granted granted Critical
Publication of JP6485915B2 publication Critical patent/JP6485915B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a road section line recognition device, a vehicle control apparatus, a road section line recognition method, and a road section line recognition program, which enable the determination of a level of certainty of a road section line more accurately.SOLUTION: A road section line recognition device includes: a first road section line recognition part for recognizing a first road section line pattern from an image picked up by an imaging part that images a road surrounding a vehicle itself; a second road section line recognition part for recognizing a second road section line pattern on the basis of a position of the vehicle itself on the basis of a radio wave from a satellite and map information; and a determination part for comparing between the first road section line pattern recognized by the first road section line recognition part and the second road section line pattern recognized by the second road section line recognition part, and determining a level of certainty of the position of the road section line recognized at least by the first road section line recognition part.SELECTED DRAWING: Figure 3

Description

本発明は、道路区画線認識装置、車両制御装置、道路区画線認識方法、および道路区画線認識プログラムに関する。   The present invention relates to a road lane marking recognition device, a vehicle control device, a road lane marking recognition method, and a road lane marking recognition program.

近年、四輪車両などの車両を、自動的に運転する技術について研究が進められている。これに関連して、運転者の操作により自車両の自動運転の開始を指示する指示手段と、自動運転の目的地を設定する設定手段と、運転者により前記指示手段が操作された場合に、前記目的地が設定されているか否かに基づいて自動運転のモードを決定する決定手段と、前記決定手段により決定された前記自動運転のモードに基づいて車両走行制御する制御手段と、を備え、前記決定手段は、前記目的地が設定されていない場合は、前記自動運転のモードを、前記自車両の現在の走行路に沿って走行する自動運転又は自動停車に決定する、運転支援装置が知られている(例えば、特許文献1参照)。   In recent years, research has been conducted on technologies for automatically driving vehicles such as four-wheel vehicles. In this connection, when the driver operates the instruction means for instructing the start of the automatic driving of the host vehicle, the setting means for setting the destination of automatic driving, and the instruction means by the driver, Determining means for determining an automatic driving mode based on whether or not the destination is set, and a control means for controlling vehicle travel based on the automatic driving mode determined by the determining means, When the destination is not set, the determination means determines whether the automatic driving mode is automatic driving or automatic stopping that travels along the current traveling path of the host vehicle. (For example, refer to Patent Document 1).

国際公開第2011/158347号International Publication No. 2011/158347

しかしながら、従来の技術では、道路区画線の確からしさを正確に判定できない場合があった。   However, in the conventional technique, there is a case where the certainty of the road lane marking cannot be accurately determined.

本発明は、このような事情を考慮してなされたものであり、より正確に道路区画線の確からしさを判定することができる道路区画線認識装置、車両制御装置、道路区画線認識方法、および道路区画線認識プログラムを提供することを目的の一つとする。   The present invention has been made in view of such circumstances, and is capable of determining the accuracy of a road lane marking more accurately, a road lane marking recognition device, a vehicle control device, a road lane marking recognition method, and One of the purposes is to provide a road lane marking recognition program.

請求項1に記載の発明は、自車両周辺の道路を撮像する撮像部により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、前記認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識する第1の道路区画線認識部と、衛星からの電波に基づく前記自車両の位置を取得する自車位置取得部により取得された前記自車両の位置を用いて、道路の位置に対応付けて前記道路区画線の位置および種類が記述された地図情報を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識する第2の道路区画線認識部と、前記第1の道路区画線認識部により認識された第1の道路区画線パターンと、前記第2の道路区画線認識部により認識された第2の道路区画線パターンとを比較し、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定する判定部と、を備える道路区画線認識装置である。   The invention according to claim 1 recognizes the position and type of the road marking line included in the image captured by the imaging unit that images the road around the host vehicle, and determines the position and type of the recognized road marking line. A position of the host vehicle acquired by a first road lane marking recognition unit that recognizes a first road lane marking pattern including the host vehicle position acquisition unit that acquires a position of the host vehicle based on radio waves from a satellite; And a second road lane line pattern including the position and type of the road lane line is recognized by searching map information in which the position and type of the road lane line is described in association with the position of the road. 2 road lane line recognition units, a first road lane line pattern recognized by the first road lane line recognition unit, and a second road lane line recognized by the second road lane line recognition unit Compare with pattern A road division line recognition apparatus and a determination unit for determining at least certainty of position of the first recognized road segment line by the road lane line recognition unit.

請求項2に記載の発明は、請求項1に記載の発明において、前記第1の道路区画線認識部は、前記撮像部により撮像された画像に含まれる道路区画線の色を認識すると共に、前記認識した道路区画線の色を含む前記第1の道路区画線パターンを認識し、前記地図情報は、道路の位置に対応付けて前記道路区画線の色を記述し、前記第2の道路区画線認識部は、道路区画線の色を含む第2の道路区画線パターンを認識するものである。   The invention according to claim 2 is the invention according to claim 1, wherein the first road lane marking recognition unit recognizes the color of the road lane marking included in the image captured by the imaging unit, Recognizing the first road lane marking pattern including the recognized road lane marking color, the map information describes the color of the road lane marking in association with the position of the road, and the second road lane marking; The line recognition unit recognizes the second road lane marking pattern including the color of the road lane marking.

請求項3に記載の発明は、請求項1または2記載の発明において、前記判定部は、前記第1の道路区画線パターンと前記第2の道路区画線パターンとの比較に加えて、前記第1の道路区画線認識部による認識結果または前記第2の道路区画線認識部による認識結果の個別の要因に基づいて、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定するものである。   According to a third aspect of the present invention, in the invention according to the first or second aspect, in addition to the comparison between the first road lane line pattern and the second road lane line pattern, the determination unit The position of the road lane line recognized by at least the first road lane line recognition unit based on the recognition result of the first road lane line recognition unit or the individual factor of the recognition result of the second road lane line recognition unit This is to determine the certainty.

請求項4に記載の発明は、請求項3記載の発明において、前記判定部は、前記第1の道路区画線認識部により繰り返し認識された道路区画線の位置が振動していると判定されるための振動条件を満たす場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させるものである。   According to a fourth aspect of the present invention, in the third aspect of the invention, the determination unit determines that the position of the road lane line that is repeatedly recognized by the first road lane line recognition unit is vibrating. When the vibration condition is satisfied, at least the probability of the position of the road lane marking recognized by the first road lane marking recognition unit is reduced.

請求項5に記載の発明は、請求項3または4記載の発明において、前記判定部は、前記第1の道路区画線認識部または前記第2の道路区画線認識部により繰り返し認識された道路区画線の位置が、同定可能であった回数または頻度に基づいて、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させるものである。   According to a fifth aspect of the present invention, in the invention according to the third or fourth aspect, the determination unit is a road segment that is repeatedly recognized by the first road segment line recognition unit or the second road segment line recognition unit. The probability of the position of the road marking line recognized by at least the first road marking line recognition unit is reduced based on the number of times or the frequency at which the line position can be identified.

請求項6に記載の発明は、請求項3から5のうちいずれか1項記載の発明において、前記判定部は、前記自車位置取得部により取得された自車両の位置および前記地図情報に基づいて、前記道路区画線の種類が変化する地点の付近を前記自車両が走行していると判定される場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させるものである。   The invention according to claim 6 is the invention according to any one of claims 3 to 5, wherein the determination unit is based on the position of the host vehicle acquired by the host vehicle position acquisition unit and the map information. When it is determined that the host vehicle is traveling near a point where the type of the road lane marking changes, at least the position of the road lane marking recognized by the first road lane marking recognition unit It reduces the certainty.

請求項7に記載の発明は、請求項3から6のうちいずれか1項記載の発明において、前記判定部は、前記自車位置取得部により取得された自車両の位置および地図情報に基づいて、道路が分岐または合流する地点を前記自車両が走行していると判定される場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させるものである。   The invention according to claim 7 is the invention according to any one of claims 3 to 6, wherein the determination unit is based on the position of the host vehicle and the map information acquired by the host vehicle position acquisition unit. Reducing the likelihood of the position of the road marking line recognized by at least the first road marking line recognition unit when it is determined that the host vehicle is traveling at a point where the road branches or merges It is.

請求項8に記載の発明は、請求項3から7のうちいずれか1項記載の発明において、前記判定部は、前記自車位置取得部により取得された自車両の位置および地図情報に基づいて、道路に前記道路区画線とは異なる標示がなされている地点を前記自車両が走行していると判定される場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させるものである。   The invention according to claim 8 is the invention according to any one of claims 3 to 7, wherein the determination unit is based on the position of the own vehicle and the map information acquired by the own vehicle position acquisition unit. , When it is determined that the vehicle is traveling at a point where the road is marked differently from the road marking line, at least of the road marking line recognized by the first road marking line recognition unit This reduces the accuracy of the position.

請求項9に記載の発明は、請求項1から8のうちいずれか1項記載の発明に係る道路区画線認識装置と、前記道路区画線認識装置によって所定程度以上の確からしさがあると判定された前記道路区画線の位置に基づいて、前記自車両が走行すべき軌道を生成する軌道生成部と、前記軌道生成部により生成された軌道に沿って前記自車両を走行させる走行制御部と、を備える車両制御装置である。   The invention according to claim 9 is determined by the road lane marking recognition device according to any one of claims 1 to 8 and the road lane marking recognition device to have a certainty or more certainty. A track generation unit that generates a track on which the host vehicle should travel based on the position of the road marking line, and a travel control unit that drives the host vehicle along the track generated by the track generation unit; It is a vehicle control apparatus provided with.

請求項10に記載の発明は、請求項9に記載の発明において、前記軌道生成部は、前記道路区画線認識装置によって所定程度以上の確からしさがあると判定されなかった前記道路区画線について、過去に前記道路区画線認識装置によって所定程度以上の確からしさがあると判定された前記道路区画線の位置に基づいて補完を行い、前記自車両が走行すべき軌道を生成するものである。   The invention according to a tenth aspect is the invention according to the ninth aspect, wherein the trajectory generating unit has not been determined to have a certain degree of certainty by the road lane marking recognition device. Complementation is performed based on the position of the road lane marking that has been determined to be more than a certain degree of accuracy by the road lane marking recognition device in the past, and a track on which the host vehicle should travel is generated.

請求項11に記載の発明は、車載コンピュータが、自車両周辺の道路を撮像する撮像部により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、前記認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識し、衛星からの電波に基づく前記自車両の位置を取得する自車位置取得部により取得された前記自車両の位置を用いて、道路の位置に対応付けて前記道路区画線の位置および種類が記述された地図情報を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識し、前記第1の道路区画線パターンと、前記第2の道路区画線パターンとを比較し、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定する、道路区画線認識方法である。   In the invention according to claim 11, the in-vehicle computer recognizes the position and type of the road marking line included in the image captured by the imaging unit that images the road around the host vehicle, and the recognized road marking line. Recognizing the first road marking line pattern including position and type, and using the position of the host vehicle acquired by the host vehicle position acquisition unit that acquires the position of the host vehicle based on radio waves from satellites, By searching for map information in which the position and type of the road lane line are described in association with the position, a second road lane line pattern including the position and type of the road lane line is recognized, and the first road A road lane line recognition that compares a lane line pattern with the second road lane line pattern and determines the likelihood of the position of the road lane line recognized by at least the first road lane line recognition unit. It is a method.

請求項12に記載の発明は、車載コンピュータに、自車両周辺の道路を撮像する撮像部により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、前記認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識させ、衛星からの電波に基づく前記自車両の位置を取得する自車位置取得部により取得された前記自車両の位置を用いて、道路の位置に対応付けて前記道路区画線の位置および種類が記述された地図情報を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識させ、前記第1の道路区画線パターンと、前記第2の道路区画線パターンとを比較し、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定させる、道路区画線認識プログラムである。   According to the twelfth aspect of the present invention, the in-vehicle computer recognizes the position and type of the road marking line included in the image captured by the imaging unit that images the road around the host vehicle, and the recognized road marking line. Using the position of the host vehicle acquired by the host vehicle position acquisition unit that recognizes the first road lane marking pattern including the position and type and acquires the position of the host vehicle based on radio waves from a satellite, By searching for map information in which the position and type of the road lane line are described in association with the position, a second road lane line pattern including the position and type of the road lane line is recognized, and the first road A road block that compares a lane line pattern with the second road lane line pattern and determines the likelihood of the position of the road lane line recognized by at least the first road lane line recognition unit. Is a line recognition program.

請求項1から8、11、または12に記載の発明によれば、より正確に道路区画線の確からしさを判定することができる。   According to the first to eighth, eleventh, or twelfth aspects of the present invention, it is possible to more accurately determine the probability of the road marking line.

請求項9または10に記載の発明によれば、道路区画線認識装置により判定された道路区画線の確からしさに基づいて、より正確な車両制御を行うことができる。   According to the invention described in claim 9 or 10, more accurate vehicle control can be performed based on the probability of the road lane marking determined by the road lane marking recognition device.

実施形態に係る車両制御装置100が搭載された車両の有する構成要素を示す図である。It is a figure which shows the component which the vehicle by which the vehicle control apparatus 100 which concerns on embodiment is mounted in has. 実施形態に係る車両制御装置100を中心とした自車両Mの機能構成図である。It is a functional lineblock diagram of self-vehicles M centering on vehicle control device 100 concerning an embodiment. 自車位置認識部102を中心とした構成図である。It is a block diagram centering on the own vehicle position recognition part. カメラ40による撮像画像IMの一例を示す図である。It is a figure which shows an example of the captured image IM by the camera. 第1の道路区画線認識部102Aにより認識される第1の道路区画線パターンをイメージ化した図である。It is the figure which imaged the 1st road lane marking pattern recognized by the 1st road lane marking recognition part 102A. 第1の道路区画線認識部102Aにより走行車線L1に対する自車両Mの相対位置が認識される様子を示す図である。It is a figure which shows a mode that the relative position of the own vehicle M with respect to the driving lane L1 is recognized by 102 A of 1st road marking lines recognition parts. 地図情報152に含まれる情報の一部を示す図である。It is a figure which shows some information contained in the map information 152. FIG. 判定部102Cにより実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed by 102 C of determination parts. ある区間について生成された行動計画の一例を示す図である。It is a figure which shows an example of the action plan produced | generated about a certain area. 第1軌道生成部112により生成される軌道の一例を示す図である。It is a figure which shows an example of the track | orbit produced | generated by the 1st track | orbit production | generation part 112. FIG. 実施形態におけるターゲット位置設定部122がターゲット領域TAを設定する様子を示す図である。It is a figure which shows a mode that the target position setting part 122 in embodiment sets the target area | region TA. 実施形態における第2軌道生成部126が軌道を生成する様子を示す図である。It is a figure which shows a mode that the 2nd track generation part 126 in an embodiment generates a track.

以下、図面を参照し、本発明の道路区画線認識装置、車両制御装置、道路区画線認識方法、および道路区画線認識プログラムの実施形態について説明する。
[車両構成]
図1は、実施形態に係る車両制御装置100が搭載された車両(以下、自車両Mと称する)の有する構成要素を示す図である。車両制御装置100が搭載される車両は、例えば、二輪や三輪、四輪等の自動車であり、ディーゼルエンジンやガソリンエンジン等の内燃機関を動力源とした自動車や、電動機を動力源とした電気自動車、内燃機関および電動機を兼ね備えたハイブリッド自動車等を含む。また、上述した電気自動車は、例えば、二次電池、水素燃料電池、金属燃料電池、アルコール燃料電池等の電池により放電される電力を使用して駆動する。
Hereinafter, embodiments of a road lane marking recognition device, a vehicle control device, a road lane marking recognition method, and a road lane marking recognition program according to the present invention will be described with reference to the drawings.
[Vehicle configuration]
FIG. 1 is a diagram illustrating components included in a vehicle (hereinafter referred to as a host vehicle M) on which a vehicle control device 100 according to the embodiment is mounted. The vehicle on which the vehicle control device 100 is mounted is, for example, a motor vehicle such as a two-wheel, three-wheel, or four-wheel vehicle, and a vehicle using an internal combustion engine such as a diesel engine or a gasoline engine as a power source, or an electric vehicle using a motor as a power source. And a hybrid vehicle having an internal combustion engine and an electric motor. Moreover, the electric vehicle mentioned above drives using the electric power discharged by batteries, such as a secondary battery, a hydrogen fuel cell, a metal fuel cell, and an alcohol fuel cell, for example.

図1に示すように、自車両Mには、ファインダ20−1から20−7、レーダ30−1から30−6、およびカメラ40等のセンサと、ナビゲーション装置50と、上述した車両制御装置100とが搭載される。ファインダ20−1から20−7は、例えば、照射光に対する散乱光を測定し、対象までの距離を測定するLIDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging)である。例えば、ファインダ20−1は、フロントグリル等に取り付けられ、ファインダ20−2および20−3は、車体の側面やドアミラー、前照灯内部、側方灯付近等に取り付けられる。ファインダ20−4は、トランクリッド等に取り付けられ、ファインダ20−5および20−6は、車体の側面や尾灯内部等に取り付けられる。上述したファインダ20−1から20−6は、例えば、水平方向に関して150度程度の検出領域を有している。また、ファインダ20−7は、ルーフ等に取り付けられる。ファインダ20−7は、例えば、水平方向に関して360度の検出領域を有している。   As shown in FIG. 1, the vehicle M includes a finder 20-1 to 20-7, a radar 30-1 to 30-6, a sensor such as a camera 40, a navigation device 50, and the vehicle control device 100 described above. And will be installed. The finders 20-1 to 20-7 are, for example, LIDAR (Light Detection and Ranging) that measures scattered light with respect to irradiation light and measures the distance to the target. For example, the finder 20-1 is attached to a front grill or the like, and the finders 20-2 and 20-3 are attached to a side surface of a vehicle body, a door mirror, the inside of a headlamp, a side lamp, and the like. The finder 20-4 is attached to a trunk lid or the like, and the finders 20-5 and 20-6 are attached to the side surface of the vehicle body, the interior of the taillight, or the like. The above-described finders 20-1 to 20-6 have a detection area of about 150 degrees in the horizontal direction, for example. The finder 20-7 is attached to a roof or the like. The finder 20-7 has a detection area of 360 degrees in the horizontal direction, for example.

上述したレーダ30−1および30−4は、例えば、奥行き方向の検出領域が他のレーダよりも広い長距離ミリ波レーダである。また、レーダ30−2、30−3、30−5、30−6は、レーダ30−1および30−4よりも奥行き方向の検出領域が狭い中距離ミリ波レーダである。以下、ファインダ20−1から20−7を特段区別しない場合は、単に「ファインダ20」と記載し、レーダ30−1から30−6を特段区別しない場合は、単に「レーダ30」と記載する。レーダ30は、例えば、FM−CW(Frequency Modulated Continuous Wave)方式によって物体を検出する。   The above-described radars 30-1 and 30-4 are, for example, long-range millimeter wave radars having a detection area in the depth direction wider than other radars. Radars 30-2, 30-3, 30-5, and 30-6 are medium-range millimeter-wave radars that have a narrower detection area in the depth direction than radars 30-1 and 30-4. Hereinafter, when the finders 20-1 to 20-7 are not particularly distinguished, they are simply referred to as “finder 20”, and when the radars 30-1 to 30-6 are not particularly distinguished, they are simply referred to as “radar 30”. The radar 30 detects an object by, for example, an FM-CW (Frequency Modulated Continuous Wave) method.

カメラ40は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の個体撮像素子を利用したデジタルカメラである。カメラ40は、フロントウィンドシールド上部やルームミラー裏面等に取り付けられる。カメラ40は、例えば周期的に繰り返し自車両Mの前方を撮像する。   The camera 40 is a digital camera using an individual image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 40 is attached to the upper part of the front windshield, the rear surface of the rearview mirror or the like. For example, the camera 40 periodically images the front of the host vehicle M repeatedly.

なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。   The configuration illustrated in FIG. 1 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.

図2は、実施形態に係る車両制御装置100を中心とした自車両Mの機能構成図である。自車両Mには、ファインダ20、レーダ30、およびカメラ40の他、ナビゲーション装置50と、車両センサ60と、操作デバイス70と、操作検出センサ72と、切替スイッチ80と、走行駆動力出力装置90、ステアリング装置92、ブレーキ装置94と、車両制御装置100とが搭載される。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。   FIG. 2 is a functional configuration diagram of the host vehicle M centering on the vehicle control device 100 according to the embodiment. In addition to the finder 20, the radar 30, and the camera 40, the host vehicle M includes a navigation device 50, a vehicle sensor 60, an operation device 70, an operation detection sensor 72, a changeover switch 80, and a travel driving force output device 90. The steering device 92, the brake device 94, and the vehicle control device 100 are mounted. These devices and devices are connected to each other by a multiple communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like.

ナビゲーション装置50は、衛星からの電波に基づいて自車両Mの位置を特定するGNSS(Global Navigation Satellite System)受信機や地図情報(ナビ地図)、ユーザインターフェースとして機能するタッチパネル式表示装置、スピーカ、マイク等を有する。ナビゲーション装置50は、GNSS受信機によって自車両Mの位置を特定し、その位置からユーザによって指定された目的地までの経路を導出する。ナビゲーション装置50により導出された経路は、経路情報154として記憶部150に格納される。自車両Mの位置は、車両センサ60の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。また、ナビゲーション装置50は、車両制御装置100が手動運転モードを実行している際に、目的地に至る経路について音声やナビ表示によって案内を行う。なお、自車両Mの位置を特定するための構成は、ナビゲーション装置50とは独立して設けられてもよい。また、ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の一機能によって実現されてもよい。この場合、端末装置と車両制御装置100との間で無線または通信によって情報の送受信が行われる。なお、自車両Mの位置を特定するための構成は、ナビゲーション装置50とは独立して設けられてもよい。   The navigation device 50 includes a GNSS (Global Navigation Satellite System) receiver and map information (navigation map) that identifies the position of the host vehicle M based on radio waves from a satellite, a touch panel display device that functions as a user interface, a speaker, a microphone Etc. The navigation device 50 identifies the position of the host vehicle M using the GNSS receiver, and derives a route from the position to the destination specified by the user. The route derived by the navigation device 50 is stored in the storage unit 150 as route information 154. The position of the host vehicle M may be specified or supplemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 60. In addition, the navigation device 50 guides the route to the destination by voice or navigation display when the vehicle control device 100 is executing the manual operation mode. The configuration for specifying the position of the host vehicle M may be provided independently of the navigation device 50. Moreover, the navigation apparatus 50 may be implement | achieved by one function of terminal devices, such as a smart phone and a tablet terminal which a user holds, for example. In this case, information is transmitted and received between the terminal device and the vehicle control device 100 by radio or communication. The configuration for specifying the position of the host vehicle M may be provided independently of the navigation device 50.

車両センサ60は、車速を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。   The vehicle sensor 60 includes a vehicle speed sensor that detects a vehicle speed, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around a vertical axis, a direction sensor that detects the direction of the host vehicle M, and the like.

走行駆動力出力装置90は、例えば、自車両Mが内燃機関を動力源とした自動車である場合、エンジンおよびエンジンを制御するエンジンECU(Electronic Control Unit)を備え、自車両Mが電動機を動力源とした電気自動車である場合、走行用モータおよび走行用モータを制御するモータECUを備え、自車両Mがハイブリッド自動車である場合、エンジンおよびエンジンECUと走行用モータおよびモータECUを備える。走行駆動力出力装置90がエンジンのみを含む場合、エンジンECUは、後述する走行制御部130から入力される情報に従って、エンジンのスロットル開度やシフト段等を調整し、車両が走行するための走行駆動力(トルク)を出力する。また、走行駆動力出力装置90が走行用モータのみを含む場合、モータECUは、走行制御部130から入力される情報に従って、走行用モータに与えるPWM信号のデューティ比を調整し、上述した走行駆動力を出力する。また、走行駆動力出力装置90がエンジンおよび走行用モータを含む場合、エンジンECUおよびモータECUの双方は、走行制御部130から入力される情報に従って、互いに協調して走行駆動力を制御する。   For example, when the host vehicle M is an automobile using an internal combustion engine as a power source, the traveling driving force output device 90 includes an engine and an engine ECU (Electronic Control Unit) that controls the engine, and the host vehicle M uses a motor as a power source. When the vehicle M is a hybrid vehicle, an engine and an engine ECU, a traveling motor, and a motor ECU are provided. When the travel driving force output device 90 includes only the engine, the engine ECU adjusts the throttle opening, shift stage, etc. of the engine in accordance with information input from the travel control unit 130, which will be described later, and travel for the vehicle to travel. Outputs driving force (torque). Further, when the travel driving force output device 90 includes only the travel motor, the motor ECU adjusts the duty ratio of the PWM signal given to the travel motor according to the information input from the travel control unit 130, and the travel drive described above. Output force. Further, when the traveling driving force output device 90 includes an engine and a traveling motor, both the engine ECU and the motor ECU control the traveling driving force in cooperation with each other according to information input from the traveling control unit 130.

ステアリング装置92は、例えば、電動モータと、ステアリングトルクセンサと、操舵角センサ等を備える。電動モータは、例えば、ラックアンドピニオン機能等に力を作用させてステアリングホイールの向きを変更する。ステアリングトルクセンサは、例えば、ステアリングホイールを操作したときのトーションバーのねじれをステアリングトルク(操舵力)として検出する。操舵角センサは、例えば、操舵角(または実舵角)を検出する。ステアリング装置92は、走行制御部130から入力される情報に従って、電動モータを駆動させ、ステアリングホイールの向きを変更する。   The steering device 92 includes, for example, an electric motor, a steering torque sensor, a steering angle sensor, and the like. The electric motor changes the direction of the steering wheel by applying a force to a rack and pinion function or the like, for example. The steering torque sensor detects, for example, twisting of the torsion bar when the steering wheel is operated as steering torque (steering force). For example, the steering angle sensor detects a steering angle (or an actual steering angle). The steering device 92 drives the electric motor according to the information input from the travel control unit 130 and changes the direction of the steering wheel.

ブレーキ装置94は、ブレーキペダルになされたブレーキ操作が油圧として伝達されるマスターシリンダー、ブレーキ液を蓄えるリザーバータンク、各車輪に出力される制動力を調節するブレーキアクチュエータ等を備える。制動制御部44は、走行制御部130から入力される情報に従って、マスターシリンダーの圧力に応じたブレーキトルクが各車輪に出力されるように、ブレーキアクチュエータ等を制御する。なお、ブレーキ装置94は、上記説明した油圧により作動する電子制御式ブレーキ装置に限らず、電動アクチュエーターにより作動する電子制御式ブレーキ装置であってもよい。   The brake device 94 includes a master cylinder to which a brake operation performed on the brake pedal is transmitted as hydraulic pressure, a reservoir tank that stores brake fluid, a brake actuator that adjusts a braking force output to each wheel, and the like. The brake control unit 44 controls the brake actuator and the like so that the brake torque according to the pressure of the master cylinder is output to each wheel according to the information input from the travel control unit 130. The brake device 94 is not limited to the electronically controlled brake device that operates by the hydraulic pressure described above, but may be an electronically controlled brake device that operates by an electric actuator.

操作デバイス70は、例えば、アクセルペダルやステアリングホイール、ブレーキペダル、シフトレバー等を含む。操作デバイス70には、運転者による操作の有無や量を検出する操作検出センサ72が取り付けられている。操作検出センサ72は、例えば、アクセル開度センサ、ステアリングトルクセンサ、ブレーキセンサ、シフト位置センサ等を含む。操作検出センサ72は、検出結果としてのアクセル開度、ステアリングトルク、ブレーキ踏量、シフト位置等を走行制御部130に出力する。なお、これに代えて、操作検出センサ72の検出結果が、直接的に走行駆動力出力装置90、ステアリング装置92、またはブレーキ装置94に出力されてもよい。   The operation device 70 includes, for example, an accelerator pedal, a steering wheel, a brake pedal, a shift lever, and the like. The operation device 70 is provided with an operation detection sensor 72 that detects the presence / absence and amount of operation by the driver. The operation detection sensor 72 includes, for example, an accelerator opening sensor, a steering torque sensor, a brake sensor, a shift position sensor, and the like. The operation detection sensor 72 outputs the accelerator opening, steering torque, brake pedal stroke, shift position, and the like as detection results to the travel control unit 130. Instead of this, the detection result of the operation detection sensor 72 may be directly output to the travel driving force output device 90, the steering device 92, or the brake device 94.

切替スイッチ80は、運転者等によって操作されるスイッチである。切替スイッチ80は、例えば、ステアリングホイールやガーニッシュ(ダッシュボード)等に設置される機械式のスイッチであってもよいし、ナビゲーション装置50のタッチパネルに設けられるGUI(Graphical User Interface)スイッチであってもよい。切替スイッチ80は、運転者等の操作を受け付け、走行制御部130による制御モードを自動運転モードまたは手動運転モードのいずれか一方に指定する制御モード指定信号を生成し、制御切替部140に出力する。自動運転モードとは、上述したように、運転者が操作を行わない(或いは手動運転モードに比して操作量が小さい、または操作頻度が低い)状態で走行する運転モードであり、より具体的には、行動計画に基づいて走行駆動力出力装置90、ステアリング装置92、およびブレーキ装置94の一部または全部を制御する運転モードである。   The changeover switch 80 is a switch operated by a driver or the like. The changeover switch 80 may be, for example, a mechanical switch installed on a steering wheel, a garnish (dashboard), or a GUI (Graphical User Interface) switch provided on the touch panel of the navigation device 50. Good. The changeover switch 80 receives an operation of a driver or the like, generates a control mode designation signal that designates the control mode by the traveling control unit 130 as either the automatic driving mode or the manual driving mode, and outputs the control mode designation signal to the control switching unit 140. . As described above, the automatic operation mode is an operation mode that travels in a state where the driver does not perform an operation (or the operation amount is small or the operation frequency is low compared to the manual operation mode), and more specifically. Is an operation mode in which a part or all of the driving force output device 90, the steering device 92, and the brake device 94 are controlled based on the action plan.

[車両制御装置]
以下、車両制御装置100について説明する。車両制御装置100は、例えば、自車位置認識部102と、外界認識部104と、行動計画生成部106と、走行態様決定部110と、第1軌道生成部112と、車線変更制御部120と、走行制御部130と、記憶制御部132と、制御切替部140と、記憶部150とを備える。自車位置認識部102(後述する各部を含む)、外界認識部104、行動計画生成部106、走行態様決定部110、第1軌道生成部112、車線変更制御部120、走行制御部130、記憶制御部132、および制御切替部140のうち一部または全部は、CPU(Central Processing Unit)等のプロセッサがプログラムを実行することにより機能するソフトウェア機能部である。また、これらのうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。また、記憶部150は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等で実現される。プロセッサが実行するプログラムは、予め記憶部150に格納されていてもよいし、車載インターネット設備等を介して外部装置からダウンロードされてもよい。また、プログラムを格納した可搬型記憶媒体が図示しないドライブ装置に装着されることで記憶部150にインストールされてもよい。
[Vehicle control device]
Hereinafter, the vehicle control apparatus 100 will be described. The vehicle control device 100 includes, for example, a host vehicle position recognition unit 102, an external environment recognition unit 104, an action plan generation unit 106, a travel mode determination unit 110, a first track generation unit 112, and a lane change control unit 120. The travel control unit 130, the storage control unit 132, the control switching unit 140, and the storage unit 150 are provided. Self-vehicle position recognition unit 102 (including each unit described later), external environment recognition unit 104, action plan generation unit 106, travel mode determination unit 110, first track generation unit 112, lane change control unit 120, travel control unit 130, storage Part or all of the control unit 132 and the control switching unit 140 is a software function unit that functions when a processor such as a CPU (Central Processing Unit) executes a program. Some or all of these may be hardware function units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit). The storage unit 150 is realized by a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), a flash memory, or the like. The program executed by the processor may be stored in the storage unit 150 in advance, or may be downloaded from an external device via an in-vehicle internet facility or the like. Further, the portable storage medium storing the program may be installed in the storage unit 150 by being mounted on a drive device (not shown).

自車位置認識部102は、記憶部150に格納された地図情報152と、ファインダ20、レーダ30、カメラ40、ナビゲーション装置50、または車両センサ60から入力される情報とに基づいて、自車両Mが走行している車線(走行車線)、および、走行車線に対する自車両Mの相対位置を認識する。地図情報152は、例えば、ナビゲーション装置50が有するナビ地図よりも高精度な地図情報であり、車線の中央の情報あるいは車線の境界の情報等を含んでいる。より具体的には、地図情報152には、道路情報と、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれる。道路情報には、高速道路、有料道路、国道、都道府県道といった道路の種別を表す情報や、道路の車線数、各車線の幅員、車線を区画する道路区画線の種類(実線、破線、太実線、太破線、点列状(ボッツドッツやキャッツアイ)のいずれであるか)および色(白線か黄線か)が含まれている。また、道路情報には、道路の勾配、道路の位置(経度、緯度、高さを含む3次元座標)、車線のカーブの曲率、車線の合流および分岐ポイントの位置、道路に設けられた標識等の情報が含まれる。交通規制情報には、工事や交通事故、渋滞等によって車線が封鎖されているといった情報が含まれる。   The own vehicle position recognition unit 102 is based on the map information 152 stored in the storage unit 150 and information input from the finder 20, the radar 30, the camera 40, the navigation device 50, or the vehicle sensor 60. Recognizes the lane in which the vehicle is traveling (the traveling lane) and the relative position of the host vehicle M with respect to the traveling lane. The map information 152 is, for example, map information with higher accuracy than the navigation map included in the navigation device 50, and includes information on the center of the lane or information on the boundary of the lane. More specifically, the map information 152 includes road information, traffic regulation information, address information (address / postal code), facility information, telephone number information, and the like. The road information includes information indicating types of roads such as expressways, toll roads, national roads, and prefectural roads, the number of road lanes, the width of each lane, and the type of road lane marking that divides the lane (solid line, broken line, thick line). It includes a solid line, a thick broken line, a dot sequence (bottom dot or cat's eye)) and a color (white line or yellow line). In addition, road information includes road gradient, road position (three-dimensional coordinates including longitude, latitude, and height), lane curve curvature, lane junction and branch point positions, road signs, etc. Information is included. The traffic regulation information includes information that the lane is blocked due to construction, traffic accidents, traffic jams, or the like.

図3は、自車位置認識部102を中心とした構成図である。自車位置認識部102は、第1の道路区画線認識部102Aと、第2の道路区画線認識部102Bと、判定部102Cとを含む。なお、これらの構成要素が、「道路区画線認識装置」を構成する。   FIG. 3 is a configuration diagram centering on the vehicle position recognition unit 102. The own vehicle position recognition unit 102 includes a first road lane marking recognition unit 102A, a second road lane marking recognition unit 102B, and a determination unit 102C. These components constitute a “road marking line recognition device”.

第1の道路区画線認識部102Aは、カメラ40により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識する。図4は、カメラ40による撮像画像IMの一例を示す図である。第1の道路区画線認識部102Aは、例えば、エッジ抽出処理や直線抽出処理によって道路区画線の輪郭候補を抽出し、所定の幅をもった二つの輪郭候補で形成される領域を道路区画線として認識する。図4の例では、道路の左端に描画された実線の道路区画線PL1、破線の道路区画線PL2〜PL4、および道路の右端に描画された実線の道路区画線PL5が認識される。また、第1の道路区画線認識部102Aは、撮像画像IMにおける色彩または輝度を検出することで、道路区画線の色を検出する。   The first road lane marking recognition unit 102A recognizes the position and type of the road lane marking included in the image captured by the camera 40 and includes the position and type of the recognized road lane marking. Recognize patterns. FIG. 4 is a diagram illustrating an example of a captured image IM by the camera 40. The first road lane marking recognition unit 102A extracts road lane line contour candidates by, for example, edge extraction processing or straight line extraction processing, and determines an area formed by two contour candidates having a predetermined width as road lane markings. Recognize as In the example of FIG. 4, a solid road partition line PL1 drawn at the left end of the road, broken road partition lines PL2 to PL4, and a solid road partition line PL5 drawn at the right end of the road are recognized. The first road marking line recognition unit 102A detects the color of the road marking line by detecting the color or luminance in the captured image IM.

図5は、第1の道路区画線認識部102Aにより認識される第1の道路区画線パターンをイメージ化した図である。図示するように、第1の道路区画線パターンは、例えば、片側4車線の道路であって、両端に実線の道路区画線があり、それらの間に、車線を区分する破線の道路区画線が3つ存在し、各車線の幅(図ではD12、D23、D34、D45で示す)はそれぞれ何メートルであるといった内容で認識される。 FIG. 5 is an image of the first road lane marking pattern recognized by the first road lane marking recognition unit 102A. As shown in the figure, the first road lane marking pattern is, for example, a road with four lanes on one side, solid road lane markings at both ends, and a broken road lane marking separating the lanes between them. There are three, and the width of each lane (indicated by D 12 , D 23 , D 34 , and D 45 in the figure) is recognized in terms of how many meters it is.

更に、第1の道路区画線認識部102Aは、自車両Mが走行している車線(走行車線)に対する自車両Mの相対位置を認識する。図6は、第1の道路区画線認識部102Aにより走行車線L1に対する自車両Mの相対位置が認識される様子を示す図である。自車位置認識部102は、例えば、自車両Mの基準点(例えば重心や後輪軸中心)の走行車線中央CLからの乖離OS、および自車両Mの進行方向の走行車線中央CLを連ねた線に対してなす角度θを、走行車線L1に対する自車両Mの相対位置として認識する。なお、これに代えて、第1の道路区画線認識部102Aは、自車線L1のいずれかの側端部に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。   Furthermore, the first road lane marking recognition unit 102A recognizes the relative position of the host vehicle M with respect to the lane (traveling lane) in which the host vehicle M is traveling. FIG. 6 is a diagram illustrating a state in which the relative position of the host vehicle M with respect to the traveling lane L1 is recognized by the first road lane marking recognition unit 102A. The own vehicle position recognizing unit 102 is, for example, a line connecting the deviation OS of the reference point (for example, the center of gravity or the center of the rear wheel axle) of the own vehicle M from the travel lane center CL and the travel lane center CL in the traveling direction of the own vehicle M Is recognized as the relative position of the host vehicle M with respect to the traveling lane L1. Instead, the first road lane marking recognition unit 102A uses the position of the reference point of the host vehicle M with respect to any side edge of the host lane L1 as the relative position of the host vehicle M with respect to the traveling lane. You may recognize it.

第2の道路区画線認識部102Bは、ナビゲーション装置50により取得された自車両Mの位置を用いて地図情報152を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識する。図7は、地図情報152に含まれる情報の一部を示す図である。図示するように、地図情報152には、道路の区間(向きも考慮する)ごとに、車線数、道路区画線の色、道路幅員(または車線ごとの幅)などの情報が記述されている。第2の道路区画線認識部102Bは、ナビゲーション装置50により取得された自車両Mの位置の履歴から自車両Mの位置および進行方向を導出し、これに該当する地図情報152の項目を抽出する。そして、抽出した車線数、道路区画線の色、道路幅員等の情報に基づいて、両端にある実線の道路区画線の間に破線の道路区画線が存在するか、存在する場合はその数、各車線の幅といった情報を導出し、第2の道路区画線パターンとして認識する。   The second road lane marking recognition unit 102B searches the map information 152 using the position of the host vehicle M acquired by the navigation device 50, so that the second road lane marking including the position and type of the road lane marking is obtained. Recognize patterns. FIG. 7 is a diagram illustrating a part of information included in the map information 152. As shown in the figure, the map information 152 describes information such as the number of lanes, the color of road lane markings, and the road width (or width for each lane) for each road section (including the direction). The second road lane marking recognition unit 102B derives the position and traveling direction of the host vehicle M from the history of the position of the host vehicle M acquired by the navigation device 50, and extracts items of the map information 152 corresponding thereto. . And, based on information such as the number of lanes extracted, the color of the road lane marking, the road width, etc., there is a broken road lane marking between the solid road lane markings at both ends, or the number if there is, Information such as the width of each lane is derived and recognized as the second road lane marking pattern.

判定部102Cは、第1の道路区画線認識部102Aにより認識された第1の道路区画線パターンと、第2の道路区画線認識部102Bにより認識された第2の道路区画線パターンとを比較し、少なくとも第1の道路区画線認識部102Aにより認識された道路区画線の位置の確からしさを判定する。判定部102Cは、例えば、道路区画線ごとに、位置の確からしさを示すスコアを算出する。   The determination unit 102C compares the first road lane line pattern recognized by the first road lane line recognition unit 102A and the second road lane line pattern recognized by the second road lane line recognition unit 102B. Then, the likelihood of the position of the road lane marking recognized by at least the first road lane marking recognition unit 102A is determined. For example, the determination unit 102C calculates a score indicating the likelihood of the position for each road lane marking.

判定部102Cは、第1の道路区画線パターンと第2の道路区画線パターンとの比較に加えて、第1の道路区画線認識部102Aによる認識結果または第2の道路区画線認識部102Bによる認識結果の個別の要因に基づいて、少なくとも第1の道路区画線認識部102Aにより認識された道路区画線の位置の確からしさを判定する。以下、これらの処理について説明する。   In addition to the comparison between the first road lane line pattern and the second road lane line pattern, the determination unit 102C recognizes the recognition result by the first road lane line recognition unit 102A or the second road lane line recognition unit 102B. Based on the individual factors of the recognition result, at least the likelihood of the position of the road lane marking recognized by the first road lane marking recognition unit 102A is determined. Hereinafter, these processes will be described.

図8は、判定部102Cにより実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理は、第1の道路区画線パターンと第2の道路区画線パターンとに含まれる各道路区画線について実行される。   FIG. 8 is a flowchart illustrating an example of a flow of processing executed by the determination unit 102C. The processing of this flowchart is executed for each road lane marking included in the first road lane marking pattern and the second road lane marking pattern.

まず、判定部102Cは、第1の道路区画線パターンと第2の道路区画線パターンとの比較において、当該道路区画線の種類および色が一致するか否かを判定する(ステップS200)。当該道路区画線の種類および色がパターン同士で一致しない場合、判定部102Cは、スコアをベーススコアαからα1低下させる(ステップS202)。ここで、スコアとは、道路区画線の位置(または存在)の確からしさを示す指標値である。また、α1は、ベーススコアαと同じ値であってもよい。すなわち、判定部102Cは、当該道路区画線の種類および色がパターン同士で一致しない場合、その道路区画線の位置を棄却してもよい。 First, the determination unit 102C determines whether or not the type and color of the road lane marking line match in the comparison between the first road lane marking pattern and the second road lane marking pattern (step S200). If the type and color of the road lane lines do not match between patterns, the determination unit 102C is, [alpha] 1 decreases the scores from the base score alpha b (step S202). Here, the score is an index value indicating the probability of the position (or presence) of the road marking line. Also, [alpha] 1 may be the same value as the base score alpha b. That is, if the type and color of the road lane marking do not match between the patterns, the determination unit 102C may reject the position of the road lane marking.

また、ステップS200の判定処理は、第1の道路区画線パターンと第2の道路区画線パターンとが全体的に一致するか否かを判定するものであってもよい。ここで、「全体的に一致する」とは、カメラ40の画角外に存在する道路区画線については一致するか否かを判定しないものであってよい。この場合、判定部102Cは、着目する道路区画線が一致しない場合と、着目する道路区画線以外の道路区画線が一致しない場合とで、減算するα1を異ならせてもよい。   Moreover, the determination process of step S200 may determine whether a 1st road lane marking pattern and a 2nd road lane marking pattern correspond as a whole. Here, “matching as a whole” may mean that it is not determined whether or not the road marking lines that exist outside the angle of view of the camera 40 match. In this case, the determination unit 102 </ b> C may vary α <b> 1 to be subtracted between a case where the target road lane line does not match and a case where road lane lines other than the target road lane line do not match.

次に、判定部102Cは、第1の道路区画線認識部102Aによる検出結果において、当該道路区画線の位置が振動しているか否かを判定する(ステップS204)。判定部102Cは、例えば、所定の期間内において、自車両Mの幅方向の道路区画線の変位が所定距離以上変動する頻度が基準値以上であるといった振動条件を満たす場合に、道路区画線の位置が振動していると判定する。このような現象は、道路区画線のかすれ等、描きなおし等によって道路区画線の位置が検出しにくくなっていることを示している。当該道路区画線の位置が振動している場合、判定部102Cは、スコアをα2低下させる(ステップS206)。ここで、α2低下させる対象のスコアは、ベーススコアαまたは、S202においてベーススコアαからα1低下する処理が行われたスコアである。以下、同様にスコアを順次低下させていくものとする。 Next, the determination unit 102C determines whether or not the position of the road lane marking is vibrating in the detection result by the first road lane marking recognition unit 102A (step S204). For example, the determination unit 102 </ b> C determines that the road lane marking of the road lane line is satisfied when a vibration condition such that the displacement of the road lane marking in the width direction of the host vehicle M fluctuates by a predetermined distance or more within a predetermined period satisfies a reference value or more. It is determined that the position is vibrating. Such a phenomenon indicates that the position of the road lane marking is difficult to detect by redrawing or the like such as blurring of the road lane marking. When the position of the road marking line is vibrating, the determination unit 102C reduces the score by α2 (step S206). Here, the score for which decreasing α2, the base score alpha b or a score process is performed to α1 decreases from the base score alpha b in S202. Hereinafter, it is assumed that the score is sequentially lowered in the same manner.

次に、判定部102Cは、第1の道路区画線認識部102Aにより繰り返し行われる道路区画線の同定処理において、同定可能であった回数(または頻度)が閾値以上であるか否かを判定する(ステップS208)。同定可能であった回数(または頻度)が閾値未満である場合、判定部102Cは、スコアをα3低下させる(ステップS210)。   Next, the determination unit 102C determines whether or not the number of times (or frequency) that can be identified in the road lane line identification process repeatedly performed by the first road lane line recognition unit 102A is equal to or greater than a threshold value. (Step S208). When the number (or frequency) at which identification was possible is less than the threshold, the determination unit 102C decreases the score by α3 (step S210).

次に、判定部102Cは、道路区画線の種類(および/または色)が変化する地点を自車両Mが走行しているか否かを判定する(ステップS212)。自車両Mが走行している地点についての情報は、第2の道路区画線認識部102Bが地図情報152を検索した結果に基づいて取得される。道路区画線の種類(および/または色)が変化する地点を自車両Mが走行している場合、判定部102Cは、スコアをα4低下させる(ステップS214)。このような地点では、画像解析による道路区画線の認識処理において誤認識が生じやすいからである。   Next, the determination unit 102C determines whether or not the host vehicle M is traveling at a point where the type (and / or color) of the road lane marking changes (step S212). Information about the point where the host vehicle M is traveling is acquired based on the result of the second road lane marking recognition unit 102B searching the map information 152. When the host vehicle M is traveling at a point where the type (and / or color) of the road marking line changes, the determination unit 102C decreases the score by α4 (step S214). This is because misrecognition is likely to occur at such points in recognition processing of road lane markings by image analysis.

次に、判定部102Cは、道路が分岐または合流する地点を自車両Mが走行しているか否かを判定する(ステップS216)。道路が分岐または合流する地点を自車両Mが走行している場合、判定部102Cは、スコアをα5低下させる(ステップS218)。このような地点では、画像解析による道路区画線の認識処理において誤認識が生じやすいからである。   Next, the determination unit 102C determines whether or not the host vehicle M is traveling at a point where the road branches or merges (step S216). When the host vehicle M is traveling at a point where the road branches or merges, the determination unit 102C decreases the score by α5 (step S218). This is because misrecognition is likely to occur at such points in recognition processing of road lane markings by image analysis.

次に、判定部102Cは、道路区画線とは異なる標示(速度標示や一時停止標示、その他の標示)が道路になされているか否かを判定する(ステップS220)。道路区画線とは異なる標示が道路になされている場合、判定部102Cは、スコアをα6低下させる(ステップS222)。このような地点では、画像解析による道路区画線の認識処理において誤認識が生じやすいからである。   Next, the determination unit 102C determines whether or not a sign (speed sign, temporary stop sign, or other sign) different from the road lane marking is placed on the road (step S220). When a sign different from the road lane marking is provided on the road, the determination unit 102C decreases the score by α6 (step S222). This is because misrecognition is likely to occur at such points in recognition processing of road lane markings by image analysis.

そして、判定部102Cは、ステップS200〜S222の処理によって順次減算された最終スコアが閾値以上であるか否かを判定する(ステップS224)。判定部102は、最終スコアが閾値以上である場合、当該道路区画線を制御の基準として採用し(ステップS226)最終スコアが閾値未満である場合、当該道路区画線を制御の基準として採用しない(棄却する)(ステップS228)。   Then, the determination unit 102C determines whether or not the final score sequentially subtracted by the processes in steps S200 to S222 is equal to or greater than a threshold value (step S224). When the final score is greater than or equal to the threshold, the determination unit 102 employs the road lane line as a control reference (step S226). When the final score is less than the threshold, the determination unit 102 does not employ the road lane line as a control reference ( (Reject) (step S228).

このような処理によって、自車位置認識部(道路区画線認識装置)102は、道路区画線の確からしさをより正確に判定することができる。   By such processing, the vehicle position recognition unit (road lane line recognition device) 102 can more accurately determine the likelihood of the road lane line.

外界認識部104は、ファインダ20、レーダ30、カメラ40等から入力される情報に基づいて、周辺車両の位置、および速度、加速度等の状態を認識する。本実施形態における周辺車両とは、自車両Mの周辺を走行する車両であって、自車両Mと同じ方向に走行する車両である。周辺車両の位置は、他車両の重心やコーナー等の代表点で表されてもよいし、他車両の輪郭で表現された領域で表されてもよい。周辺車両の「状態」とは、上記各種機器の情報に基づいて周辺車両の加速度、車線変更をしているか否か(あるいは車線変更をしようとしているか否か)を含んでもよい。また、外界認識部104は、周辺車両に加えて、ガードレールや電柱、駐車車両、歩行者、その他の物体の位置を認識してもよい。   The external environment recognition unit 104 recognizes the position of the surrounding vehicle and the state such as speed and acceleration based on information input from the finder 20, the radar 30, the camera 40, and the like. The peripheral vehicle in the present embodiment is a vehicle that travels around the host vehicle M and travels in the same direction as the host vehicle M. The position of the surrounding vehicle may be represented by a representative point such as the center of gravity or corner of the other vehicle, or may be represented by a region expressed by the contour of the other vehicle. The “state” of the surrounding vehicle may include the acceleration of the surrounding vehicle and whether or not the lane is changed (or whether or not the lane is changed) based on the information of the various devices. In addition to the surrounding vehicles, the external environment recognition unit 104 may recognize the positions of guardrails, utility poles, parked vehicles, pedestrians, and other objects.

行動計画生成部106は、所定の区間における行動計画を生成する。所定の区間とは、例えば、ナビゲーション装置50により導出された経路のうち、高速道路等の有料道路を通る区間である。なお、これに限らず、行動計画生成部106は、任意の区間について行動計画を生成してもよい。   The action plan generation unit 106 generates an action plan in a predetermined section. The predetermined section is, for example, a section that passes through a toll road such as an expressway among the routes derived by the navigation device 50. Not only this but the action plan production | generation part 106 may produce | generate an action plan about arbitrary sections.

行動計画は、例えば、順次実行される複数のイベントで構成される。イベントには、例えば、自車両Mを減速させる減速イベントや、自車両Mを加速させる加速イベント、走行車線を逸脱しないように自車両Mを走行させるレーンキープイベント、走行車線を変更させる車線変更イベント、自車両Mに前走車両を追い越させる追い越しイベント、分岐ポイントにおいて所望の車線に変更させたり、現在の走行車線を逸脱しないように自車両Mを走行させたりする分岐イベント、車線合流ポイントにおいて自車両Mを加減速させ、走行車線を変更させる合流イベント等が含まれる。例えば、有料道路(例えば高速道路等)においてジャンクション(分岐点)が存在する場合、車両制御装置100は、自動運転モードにおいて、自車両Mを目的地の方向に進行するように車線を変更したり、車線を維持したりする必要がある。従って、行動計画生成部106は、地図情報152を参照して経路上にジャンクションが存在していると判明した場合、現在の自車両Mの位置(座標)から当該ジャンクションの位置(座標)までの間に、目的地の方向に進行することができる所望の車線に車線変更するための車線変更イベントを設定する。なお、行動計画生成部106によって生成された行動計画を示す情報は、行動計画情報156として記憶部150に格納される。   The action plan is composed of, for example, a plurality of events that are sequentially executed. Examples of the event include a deceleration event for decelerating the host vehicle M, an acceleration event for accelerating the host vehicle M, a lane keeping event for driving the host vehicle M so as not to deviate from the traveling lane, and a lane change event for changing the traveling lane. In the overtaking event in which the own vehicle M overtakes the preceding vehicle, in the branch event in which the own vehicle M is changed so as not to deviate from the current driving lane, or in the lane junction point A merging event for accelerating / decelerating the vehicle M and changing the traveling lane is included. For example, when a junction (branch point) exists on a toll road (for example, an expressway), the vehicle control device 100 changes the lane so that the host vehicle M travels in the direction of the destination in the automatic driving mode. Need to maintain lanes. Therefore, when it is determined that the junction exists on the route with reference to the map information 152, the action plan generation unit 106 from the current position (coordinates) of the host vehicle M to the position (coordinates) of the junction. In the meantime, a lane change event is set for changing the lane to a desired lane that can proceed in the direction of the destination. Information indicating the action plan generated by the action plan generation unit 106 is stored in the storage unit 150 as action plan information 156.

図9は、ある区間について生成された行動計画の一例を示す図である。図示するように、行動計画生成部106は、目的地までの経路に従って走行した場合に生じる場面を分類し、個々の場面に即したイベントが実行されるように行動計画を生成する。なお、行動計画生成部106は、自車両Mの状況変化に応じて動的に行動計画を変更してもよい。   FIG. 9 is a diagram illustrating an example of an action plan generated for a certain section. As shown in the figure, the action plan generation unit 106 classifies scenes that occur when traveling according to a route to a destination, and generates an action plan so that an event corresponding to each scene is executed. In addition, the action plan production | generation part 106 may change an action plan dynamically according to the condition change of the own vehicle M. FIG.

行動計画生成部106は、例えば、生成した行動計画を、外界認識部104によって認識された外界の状態に基づいて変更(更新)してもよい。一般的に、車両が走行している間、外界の状態は絶えず変化する。特に、複数の車線を含む道路を自車両Mが走行する場合、他車両との距離間隔は相対的に変化する。例えば、前方の車両が急ブレーキを掛けて減速したり、隣の車線を走行する車両が自車両M前方に割り込んで来たりする場合、自車両Mは、前方の車両の挙動や、隣接する車線の車両の挙動に合わせて速度や車線を適宜変更しつつ走行する必要がある。従って、行動計画生成部106は、上述したような外界の状態変化に応じて、制御区間ごとに設定したイベントを変更してもよい。   For example, the action plan generation unit 106 may change (update) the generated action plan based on the state of the outside world recognized by the outside world recognition unit 104. In general, while the vehicle is traveling, the state of the outside world constantly changes. In particular, when the host vehicle M travels on a road including a plurality of lanes, the distance between the other vehicles changes relatively. For example, when the vehicle ahead is decelerated by applying a sudden brake, or when a vehicle traveling in an adjacent lane enters the front of the host vehicle M, the host vehicle M determines the behavior of the preceding vehicle or the adjacent lane. It is necessary to travel while appropriately changing the speed and lane according to the behavior of the vehicle. Therefore, the action plan generation unit 106 may change the event set for each control section in accordance with the external state change as described above.

具体的には、行動計画生成部106は、車両走行中に外界認識部104によって認識された他車両の速度が閾値を超えたり、自車線に隣接する車線を走行する他車両の移動方向が自車線方向に向いたりした場合に、自車両Mが走行予定の運転区間に設定されたイベントを変更する。例えば、レーンキープイベントの後に車線変更ベントが実行されるようにイベントが設定されている場合において、外界認識部104の認識結果によって当該レーンキープイベント中に車線変更先の車線後方から車両が閾値以上の速度で進行してきたことが判明した場合、行動計画生成部106は、レーンキープイベントの次のイベントを車線変更から減速イベントやレーンキープイベント等に変更する。これによって、車両制御装置100は、自車両Mが車線変更先の車両に衝突することを回避することができる。この結果、車両制御装置100は、外界の状態に変化が生じた場合においても、安全に自車両Mを自動走行させることができる。   Specifically, the action plan generation unit 106 determines that the speed of the other vehicle recognized by the external recognition unit 104 during traveling of the vehicle exceeds a threshold value or the direction of movement of the other vehicle traveling in the lane adjacent to the own lane is autonomous. When the vehicle heads in the lane direction, the event set in the driving section where the host vehicle M is scheduled to travel is changed. For example, when the event is set so that the lane change vent is executed after the lane keep event, the vehicle is more than the threshold from the rear of the lane to which the lane is changed during the lane keep event according to the recognition result of the external recognition unit 104. When it is determined that the vehicle has traveled at the speed of, the action plan generation unit 106 changes the event next to the lane keep event from a lane change to a deceleration event, a lane keep event, or the like. As a result, the vehicle control device 100 can avoid the host vehicle M from colliding with the lane change destination vehicle. As a result, the vehicle control device 100 can safely drive the host vehicle M safely even when a change occurs in the external environment.

[レーンキープイベント]
走行態様決定部110は、行動計画に含まれるレーンキープイベントが走行制御部130により実施される際に、定速走行、追従走行、減速走行、カーブ走行、障害物回避走行などのうちいずれかの走行態様を決定する。例えば、走行態様決定部110は、自車両の前方に他車両が存在しない場合に、走行態様を定速走行に決定する。また、走行態様決定部110は、前走車両に対して追従走行するような場合に、走行態様を追従走行に決定する。また、走行態様決定部110は、外界認識部104により前走車両の減速が認識された場合や、停車や駐車などのイベントを実施する場合に、走行態様を減速走行に決定する。また、走行態様決定部110は、外界認識部104により自車両Mがカーブ路に差し掛かったことが認識された場合に、走行態様をカーブ走行に決定する。また、走行態様決定部110は、外界認識部104により自車両Mの前方に障害物が認識された場合に、走行態様を障害物回避走行に決定する。
[Lane Keep Event]
When the lane keeping event included in the action plan is executed by the travel control unit 130, the travel mode determination unit 110 is one of constant speed travel, follow-up travel, deceleration travel, curve travel, obstacle avoidance travel, etc. The travel mode is determined. For example, the traveling mode determination unit 110 determines the traveling mode to be constant speed traveling when there is no other vehicle ahead of the host vehicle. In addition, the travel mode determination unit 110 determines the travel mode to follow running when traveling following the preceding vehicle. In addition, the travel mode determination unit 110 determines the travel mode to be decelerated when the external environment recognition unit 104 recognizes deceleration of the preceding vehicle or when an event such as stopping or parking is performed. In addition, the travel mode determination unit 110 determines the travel mode to be a curve travel when the outside recognition unit 104 recognizes that the host vehicle M has reached a curved road. In addition, when the outside recognition unit 104 recognizes an obstacle in front of the host vehicle M, the driving mode determination unit 110 determines the driving mode as obstacle avoidance driving.

第1軌道生成部112は、走行態様決定部110により決定された走行態様に基づいて、軌道を生成する。軌道とは、自車両Mが走行態様決定部110により決定された走行態様に基づいて走行する場合に、到達することが想定される将来の目標位置を、所定時間ごとにサンプリングした点の集合(軌跡)である。   The first trajectory generation unit 112 generates a trajectory based on the travel mode determined by the travel mode determination unit 110. A track is a set of points obtained by sampling a future target position expected to reach when the host vehicle M travels based on the travel mode determined by the travel mode determination unit 110 (every predetermined time). Locus).

図10は、第1軌道生成部112により生成される軌道の一例を示す図である。図中(A)に示すように、例えば、第1軌道生成部112は、自車両Mの現在位置を基準に、現時刻から所定時間Δt経過するごとに、K(1)、K(2)、K(3)、…といった将来の目標位置を自車両Mの軌道として設定する。以下、これら目標位置を区別しない場合、単に「目標位置K」と表記する。例えば、目標位置Kの個数は、目標時間Tに応じて決定される。例えば、第1軌道生成部112は、目標時間Tを5秒とした場合、この5秒間において、所定時間Δt(例えば0.1秒)刻みで目標位置Kを走行車線の中央線上に設定し、これら複数の目標位置Kの配置間隔を走行態様に基づいて決定する。第1軌道生成部112は、例えば、走行車線の中央線を、地図情報152に含まれる車線の幅員等の情報から導出してもよいし、予め地図情報152に含まれている場合に、この地図情報152から取得してもよい。   FIG. 10 is a diagram illustrating an example of a trajectory generated by the first trajectory generation unit 112. As shown to (A) in the figure, for example, the first trajectory generation unit 112 uses the current position of the host vehicle M as a reference every time a predetermined time Δt has elapsed from the current time, K (1), K (2) , K (3),... Are set as the track of the host vehicle M. Hereinafter, when these target positions are not distinguished, they are simply referred to as “target positions K”. For example, the number of target positions K is determined according to the target time T. For example, when the target time T is set to 5 seconds, the first trajectory generation unit 112 sets the target position K on the center line of the traveling lane in a predetermined time Δt (for example, 0.1 second) in this 5 seconds, The arrangement intervals of the plurality of target positions K are determined based on the running mode. For example, the first track generation unit 112 may derive the center line of the traveling lane from information such as the width of the lane included in the map information 152. You may acquire from the map information 152.

例えば、上述した走行態様決定部110により走行態様が定速走行に決定された場合、第1軌道生成部112は、図中(A)に示すように、等間隔で複数の目標位置Kを設定して軌道を生成する。また、走行態様決定部110により走行態様が減速走行に決定された場合(追従走行において前走車両が減速した場合も含む)、第1軌道生成部112は、図中(B)に示すように、到達する時刻がより早い目標位置Kほど間隔を広くし、到達する時刻がより遅い目標位置Kほど間隔を狭くして軌道を生成する。これにより、自車両Mからの到達する時刻が遅い目標位置Kが自車両Mの現在位置と近づくため、後述する走行制御部130が自車両Mを減速させることになる。   For example, when the travel mode is determined to be constant speed travel by the travel mode determination unit 110 described above, the first trajectory generation unit 112 sets a plurality of target positions K at equal intervals, as shown in FIG. To generate a trajectory. When the travel mode is determined by the travel mode determination unit 110 to be decelerated travel (including the case where the preceding vehicle is decelerated during the follow-up travel), the first trajectory generation unit 112 is as shown in FIG. The trajectory is generated by increasing the interval for the target position K that arrives earlier and narrowing the interval for the target position K that arrives later. As a result, the target position K that arrives later from the host vehicle M approaches the current position of the host vehicle M, so that the travel control unit 130 described later decelerates the host vehicle M.

また、図中(C)に示すように、道路がカーブ路である場合に、走行態様決定部110は、走行態様をカーブ走行に決定する。この場合、第1軌道生成部112は、例えば、道路の曲率に応じて、複数の目標位置Kを自車両Mの進行方向に対する横位置(車線幅方向の位置)を変更しながら配置して軌道を生成する。また、図中(D)に示すように、自車両Mの前方の道路上に人間や停止車両等の障害物OBが存在する場合、走行態様決定部110は、走行態様を障害物回避走行に決定する。この場合、第1軌道生成部112は、この障害物OBを回避して走行するように、複数の目標位置Kを配置して軌道を生成する。   Further, as shown in (C) in the figure, when the road is a curved road, the traveling mode determining unit 110 determines the traveling mode to be curved traveling. In this case, for example, the first trajectory generation unit 112 arranges a plurality of target positions K while changing the lateral position (position in the lane width direction) with respect to the traveling direction of the host vehicle M according to the curvature of the road. Is generated. Further, as shown in (D) in the figure, when an obstacle OB such as a human or a stopped vehicle exists on the road ahead of the host vehicle M, the traveling mode determination unit 110 sets the traveling mode to the obstacle avoidance traveling. decide. In this case, the first trajectory generation unit 112 generates a trajectory by arranging a plurality of target positions K so as to travel while avoiding the obstacle OB.

なお、第1軌道生成部112は、自車位置認識部102の判定部102Cによって所定程度以上の確からしさがある(制御基準として採用する)と判定された道路区画線の位置に基づいて、上記の軌道を生成する。第1軌道生成部112は、自車位置認識部102の判定部102Cによって所定程度以上の確からしさがあると判定されなかった(棄却された)道路区画線については、過去に自車位置認識部102によって所定程度以上の確からしさがあると判定された道路区画線の位置に基づいて補完を行い、自車両Mが走行すべき軌道を生成する。次に説明する第2軌道生成部126についても同様である。   Note that the first track generation unit 112 is based on the position of the road lane marking determined by the determination unit 102C of the own vehicle position recognition unit 102 to have a certain degree of certainty (adopted as a control reference). Generate a trajectory for The first trajectory generation unit 112 has previously determined that the road marking line that has not been determined to have a certain degree of certainty or more (rejected) by the determination unit 102C of the vehicle position recognition unit 102 is the vehicle position recognition unit. Completion is performed based on the position of the road lane marking determined to have a certain degree of certainty or not by 102, and a track on which the host vehicle M should travel is generated. The same applies to the second trajectory generation unit 126 described below.

[車線変更イベント]
車線変更制御部120は、行動計画に含まれる車線変更イベントが走行制御部130により実施される際の制御を行う。車線変更制御部120は、例えば、ターゲット位置設定部122と、車線変更可否判定部124と、第2軌道生成部126とを備える。なお、車線変更制御部120は、分岐イベントや合流イベントが走行制御部130により実施される際に、後述する処理を行ってもよい。
[Lane change event]
The lane change control unit 120 performs control when a lane change event included in the action plan is executed by the travel control unit 130. The lane change control unit 120 includes, for example, a target position setting unit 122, a lane change availability determination unit 124, and a second track generation unit 126. The lane change control unit 120 may perform processing to be described later when a branching event or a merging event is performed by the traveling control unit 130.

ターゲット位置設定部122は、自車両Mが走行する車線(自車線)に対して隣接する隣接車線を走行し、且つ自車両Mよりも前方を走行する車両と、隣接車線を走行し、且つ自車両Mよりも後方を走行する車両とを特定し、これら車両の間にターゲット領域TAを設定する。以下、隣接車線を走行し、且つ自車両Mよりも前方を走行する車両を、前方基準車両と称し、隣接車線を走行し、且つ自車両Mよりも後方を走行する車両を、後方基準車両と称して説明する。   The target position setting unit 122 travels in an adjacent lane adjacent to a lane (own lane) in which the host vehicle M travels, travels in front of the host vehicle M, travels in an adjacent lane, and A vehicle traveling behind the vehicle M is specified, and a target area TA is set between these vehicles. Hereinafter, a vehicle traveling in the adjacent lane and traveling ahead of the host vehicle M is referred to as a front reference vehicle, and a vehicle traveling in the adjacent lane and traveling rearward of the host vehicle M is referred to as a rear reference vehicle. Will be described.

車線変更可否判定部124は、ターゲット位置設定部122により設定されたターゲット領域TA上に周辺車両が存在せず、且つ自車両Mと前方基準車両との仮想的な衝突余裕時間TTC(Time-To Collision)と、自車両Mと後方基準車両との仮想的な衝突余裕時間TTCが共に、閾値以上であるといった所定の設定条件を満たす場合に、隣接車線上に設定されたターゲット領域TA上に自車両Mが車線変更可能であると判定する。衝突余裕時間TTCは、例えば、ターゲット領域TA上に自車両Mが車線変更したと仮定し、このターゲット領域TA上の仮想定な自車両Mと、前方基準車両(あるいは後方基準車両)との車間距離を、自車両Mの速度および前方基準車両(あるいは後方基準車両)の相対速度で除算することで導出される。   The lane change possibility determination unit 124 does not have a surrounding vehicle on the target area TA set by the target position setting unit 122, and the virtual collision allowance time TTC (Time-To) between the host vehicle M and the front reference vehicle. Collision) and the virtual collision allowance time TTC between the host vehicle M and the rear reference vehicle both satisfy a predetermined setting condition such as being equal to or greater than a threshold value. It is determined that the vehicle M can change lanes. The collision allowance time TTC is, for example, assumed that the host vehicle M has changed lanes on the target area TA, and the inter-vehicle distance between the virtual host vehicle M on the target area TA and the front reference vehicle (or the rear reference vehicle). It is derived by dividing the distance by the speed of the host vehicle M and the relative speed of the front reference vehicle (or the rear reference vehicle).

図11は、実施形態におけるターゲット位置設定部122がターゲット領域TAを設定する様子を示す図である。図中、mAは前走車両を表し、mBは前方基準車両を表し、mCは後方基準車両を表している。また、矢印dは自車両Mの進行(走行)方向を表し、L1は自車線を表し、L2は隣接車線を表している。   FIG. 11 is a diagram illustrating how the target position setting unit 122 according to the embodiment sets the target area TA. In the figure, mA represents a preceding vehicle, mB represents a front reference vehicle, and mC represents a rear reference vehicle. An arrow d represents the traveling (traveling) direction of the host vehicle M, L1 represents the host lane, and L2 represents an adjacent lane.

図11の例の場合、ターゲット位置設定部122は、隣接車線L2上において、前方基準車両mBと後方基準車両mCとの間にターゲット領域TAを設定する。このような場合、車線変更可否判定部124は、ターゲット位置設定部122により設定されたターゲット領域TA上に自車両Mを仮想的に配置し、この仮想的な自車両Mを基準に前方基準車両mBに対する衝突余裕時間TTC(B)と、後方基準車両mCに対する衝突余裕時間TTC(C)とを導出する。車線変更可否判定部124は、導出したこれら2つの衝突余裕時間TTCが共に所定の設定条件を満たすか否かを判定し、両方の衝突余裕時間TTCが共に所定の設定条件を満たす場合(例えば前方、後方それぞれに設定された閾値以上である場合)、隣接車線L2上に設定されたターゲット領域TA上に自車両Mが車線変更可能であると判定する。なお、ターゲット位置設定部122は、隣接車線L2上において、後方基準車両mCの後方(後方基準車両mCと、その後方に存在する車両との間)にターゲット領域TAを設定してもよい。   In the example of FIG. 11, the target position setting unit 122 sets a target area TA between the front reference vehicle mB and the rear reference vehicle mC on the adjacent lane L2. In such a case, the lane change possibility determination unit 124 virtually arranges the host vehicle M on the target area TA set by the target position setting unit 122, and the front reference vehicle is based on the virtual host vehicle M. A collision margin time TTC (B) for mB and a collision margin time TTC (C) for the rear reference vehicle mC are derived. The lane change possibility determination unit 124 determines whether or not both of these derived collision margin times TTC satisfy a predetermined setting condition, and when both the collision margin times TTC both satisfy a predetermined setting condition (for example, forward If it is equal to or more than the threshold value set for each of the rear), it is determined that the host vehicle M can change the lane on the target area TA set on the adjacent lane L2. Note that the target position setting unit 122 may set the target area TA behind the rear reference vehicle mC (between the rear reference vehicle mC and the vehicle existing behind it) on the adjacent lane L2.

また、車線変更可否判定部124は、前走車両mA、前方基準車両mB、および後方基準車両mCの速度、加速度、または躍度(ジャーク)等を加味して、ターゲット領域TA上に自車両Mが車線変更可能であるか否かを判定してもよい。例えば、前走車両mAの速度よりも前方基準車両mBおよび後方基準車両mCの速度が大きく、自車両Mの車線変更に必要な時間の範囲内で前方基準車両mBおよび後方基準車両mCが前走車両mAを追い抜くことが予想されるような場合、車線変更可否判定部124は、前方基準車両mBおよび後方基準車両mCの間に設定されたターゲット領域TA上に自車両Mが車線変更可能でないと判定する。   Further, the lane change possibility determination unit 124 considers the own vehicle M on the target area TA in consideration of the speed, acceleration, jerk, etc. of the preceding vehicle mA, the forward reference vehicle mB, and the backward reference vehicle mC. It may be determined whether or not the lane can be changed. For example, the speed of the front reference vehicle mB and the rear reference vehicle mC is higher than the speed of the front running vehicle mA, and the front reference vehicle mB and the rear reference vehicle mC run forward within the time range required for the lane change of the host vehicle M When it is predicted that the vehicle mA will be overtaken, the lane change possibility determination unit 124 determines that the host vehicle M cannot change the lane on the target area TA set between the front reference vehicle mB and the rear reference vehicle mC. judge.

第2軌道生成部126は、上述した車線変更可否判定部124によりターゲット領域TA上に自車両Mが車線変更可能であると判定された場合、このターゲット領域TA上に車線変更するための軌道を生成する。   When it is determined by the above-described lane change possibility determination unit 124 that the host vehicle M can change lanes on the target area TA, the second trajectory generation part 126 determines a track for changing lanes on the target area TA. Generate.

図12は、実施形態における第2軌道生成部126が軌道を生成する様子を示す図である。例えば、第2軌道生成部126は、前方基準車両mBおよび後方基準車両mCを所定の速度モデルで走行するものとして仮定し、これら3台の車両の速度モデルと自車両Mの速度とに基づいて、将来のある時刻において自車両Mが前方基準車両mBと後方基準車両mCの間、または後方基準車両mCの後方に存在するように軌道を生成する。例えば、第2軌道生成部126は、現在の自車両Mの位置から、将来のある時刻における前方基準車両mB、または後方基準車両mCの位置までをスプライン曲線等の多項式曲線を用いて滑らかに繋ぎ、この曲線上に等間隔あるいは不等間隔で目標位置Kを所定個数配置する。この際、第2軌道生成部126は、目標位置Kの少なくとも1つがターゲット領域TA上に配置されるように軌道を生成する。   FIG. 12 is a diagram illustrating a state in which the second trajectory generation unit 126 according to the embodiment generates a trajectory. For example, the second track generation unit 126 assumes that the front reference vehicle mB and the rear reference vehicle mC travel with a predetermined speed model, and based on the speed model of these three vehicles and the speed of the host vehicle M. The track is generated so that the host vehicle M exists between the front reference vehicle mB and the rear reference vehicle mC or behind the rear reference vehicle mC at a certain time in the future. For example, the second track generation unit 126 smoothly connects the current position of the host vehicle M to the position of the forward reference vehicle mB or the backward reference vehicle mC at a certain future time using a polynomial curve such as a spline curve. A predetermined number of target positions K are arranged on this curve at regular intervals or at irregular intervals. At this time, the second trajectory generation unit 126 generates a trajectory so that at least one of the target positions K is arranged on the target area TA.

[走行制御]
走行制御部130は、制御切替部140による制御によって、制御モードを自動運転モードあるいは手動運転モードに設定し、設定した制御モードに従って、走行駆動力出力装置90、ステアリング装置92、およびブレーキ装置94の一部または全部を含む制御対象を制御する。走行制御部130は、自動運転モード時において、行動計画生成部106によって生成された行動計画情報156を読み込み、読み込んだ行動計画情報156に含まれるイベントに基づいて制御対象を制御する。
[Running control]
The travel control unit 130 sets the control mode to the automatic operation mode or the manual operation mode under the control of the control switching unit 140, and the travel driving force output device 90, the steering device 92, and the brake device 94 are set according to the set control mode. Control a controlled object including part or all of it. The traveling control unit 130 reads the behavior plan information 156 generated by the behavior plan generation unit 106 in the automatic driving mode, and controls the control target based on the event included in the read behavior plan information 156.

例えば、走行制御部130は、第1軌道生成部112または第2軌道生成部126により生成された軌道に従い、ステアリング装置92における電動モータの制御量(例えば回転数)と、走行駆動力出力装置90におけるECUの制御量(例えばエンジンのスロットル開度やシフト段等)と、を決定する。具体的には、走行制御部130は、軌道の目標位置Kから算出された所定時間Δtごとの目標速度ν(または加速度や躍度)に従って、走行駆動力出力装置90におけるECUの制御量を決定する。また、走行制御部130は、目標位置Kごとの自車両Mの進行方向と、この目標位置を基準とした次の目標位置の方向とのなす角度に応じて、ステアリング装置92における電動モータの制御量を決定する。   For example, the traveling control unit 130 follows the trajectory generated by the first trajectory generating unit 112 or the second trajectory generating unit 126, and the control amount (for example, the rotational speed) of the electric motor in the steering device 92 and the travel driving force output device 90. ECU control amount (for example, engine throttle opening, shift stage, etc.) is determined. Specifically, the traveling control unit 130 determines the control amount of the ECU in the traveling driving force output device 90 according to the target speed ν (or acceleration or jerk) every predetermined time Δt calculated from the target position K of the track. To do. Further, the traveling control unit 130 controls the electric motor in the steering device 92 according to the angle formed by the traveling direction of the host vehicle M for each target position K and the direction of the next target position with reference to the target position. Determine the amount.

走行制御部130は、制御量を示す情報を、対応する制御対象に出力する。これによって、制御対象の各装置(90、92、94)は、走行制御部130から入力された制御量を示す情報に従って、自装置を制御することができる。また、走行制御部130は、車両センサ60の検出結果に基づいて、決定した制御量を適宜調整する。   The traveling control unit 130 outputs information indicating the control amount to the corresponding control target. Accordingly, each device (90, 92, 94) to be controlled can control its own device according to the information indicating the control amount input from the travel control unit 130. In addition, the traveling control unit 130 appropriately adjusts the determined control amount based on the detection result of the vehicle sensor 60.

なお、走行制御部130は、手動運転モード時において、操作検出センサ72により出力される操作検出信号に基づいて制御対象を制御する。例えば、走行制御部130は、操作検出センサ72により出力された操作検出信号を、制御対象の各装置にそのまま出力する。   The traveling control unit 130 controls the control target based on the operation detection signal output from the operation detection sensor 72 in the manual operation mode. For example, the traveling control unit 130 outputs the operation detection signal output by the operation detection sensor 72 to each device to be controlled as it is.

制御切替部140は、行動計画生成部106によって生成され、記憶部150に格納された行動計画情報156に基づいて、走行制御部130による自車両Mの制御モードを自動運転モードから手動運転モードに、または手動運転モードから自動運転モードに切り換える。また、制御切替部140は、切替スイッチ80から入力される制御モード指定信号に基づいて、走行制御部130による自車両Mの制御モードを自動運転モードから手動運転モードに、または手動運転モードから自動運転モードに切り換える。すなわち、走行制御部130の制御モードは、運転者等の操作によって走行中や停車中に任意に変更することができる。   Based on the action plan information 156 generated by the action plan generation unit 106 and stored in the storage unit 150, the control switching unit 140 changes the control mode of the host vehicle M by the travel control unit 130 from the automatic driving mode to the manual driving mode. Or, switch from manual operation mode to automatic operation mode. Further, the control switching unit 140 automatically changes the control mode of the host vehicle M by the travel control unit 130 from the automatic operation mode to the manual operation mode or automatically from the manual operation mode based on the control mode designation signal input from the changeover switch 80. Switch to operation mode. That is, the control mode of the traveling control unit 130 can be arbitrarily changed during traveling or stopping by an operation of a driver or the like.

また、制御切替部140は、操作検出センサ72から入力される操作検出信号に基づいて、走行制御部130による自車両Mの制御モードを自動運転モードから手動運転モードに切り換える。例えば、制御切替部140は、操作検出信号に含まれる操作量が閾値を超える場合、すなわち、操作デバイス70が閾値を超えた操作量で操作を受けた場合、走行制御部130の制御モードを自動運転モードから手動運転モードに切り換える。例えば、自動運転モードに設定された走行制御部130によって自車両Mが自動走行している場合において、運転者によってステアリングホイール、アクセルペダル、またはブレーキペダルが閾値を超える操作量で操作された場合、制御切替部140は、走行制御部130の制御モードを自動運転モードから手動運転モードに切り換える。これによって、車両制御装置100は、人間等の物体が車道に飛び出して来たり、前走車両が急停止したりした際に運転者により咄嗟になされた操作によって、切替スイッチ80の操作を介さずに直ぐさま手動運転モードに切り替えることができる。この結果、車両制御装置100は、運転者による緊急時の操作に対応することができ、走行時の安全性を高めることができる。   The control switching unit 140 switches the control mode of the host vehicle M by the travel control unit 130 from the automatic driving mode to the manual driving mode based on the operation detection signal input from the operation detection sensor 72. For example, when the operation amount included in the operation detection signal exceeds a threshold value, that is, when the operation device 70 receives an operation with an operation amount exceeding the threshold value, the control switching unit 140 automatically sets the control mode of the travel control unit 130. Switch from operation mode to manual operation mode. For example, when the host vehicle M is automatically traveling by the traveling control unit 130 set to the automatic driving mode, when the driver operates the steering wheel, the accelerator pedal, or the brake pedal with an operation amount exceeding a threshold value, The control switching unit 140 switches the control mode of the travel control unit 130 from the automatic operation mode to the manual operation mode. As a result, the vehicle control device 100 does not go through the operation of the changeover switch 80 by the operation performed by the driver when an object such as a person jumps out on the roadway or the preceding vehicle suddenly stops. You can immediately switch to manual operation mode. As a result, the vehicle control device 100 can cope with an emergency operation by the driver, and can improve safety during traveling.

以上説明した実施形態の自車位置認識部(道路区画線認識装置)102によれば、カメラ40により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識する第1の道路区画線認識部102Aと、ナビゲーション装置50により取得された自車両Mの位置を用いて地図情報152を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識する第2の道路区画線認識部102Bと、第1の道路区画線認識部102Aにより認識された第1の道路区画線パターンと、第2の道路区画線認識部102Bにより認識された第2の道路区画線パターンとを比較し、少なくとも第1の道路区画線認識部102Aにより認識された道路区画線の位置の確からしさを判定する判定部102Cとを備えることにより、より正確に道路区画線の確からしさを判定することができる。   According to the vehicle position recognition unit (road lane line recognition device) 102 of the embodiment described above, the position and type of the road lane line included in the image captured by the camera 40 are recognized, and the recognized road lane line is recognized. By searching the map information 152 using the first road marking line recognition unit 102A that recognizes the first road marking line pattern including the position and type of the vehicle and the position of the host vehicle M acquired by the navigation device 50 The second road lane line recognition unit 102B for recognizing the second road lane line pattern including the position and type of the road lane line, and the first road lane line recognized by the first road lane line recognition unit 102A The pattern is compared with the second road lane line pattern recognized by the second road lane line recognition unit 102B, and is recognized by at least the first road lane line recognition unit 102A. By providing a determination unit 102C the likelihood of the position of the road lane lines were, it is possible to determine more accurately the likelihood of the road lane lines.

また、実施形態の自車位置認識部(道路区画線認識装置)102を利用した車両制御装置100によれば、自車位置認識部(道路区画線認識装置)102により判定された道路区画線の確からしさに基づいて、より正確な車両制御を行うことができる。   Further, according to the vehicle control device 100 using the own vehicle position recognition unit (road lane line recognition device) 102 of the embodiment, the road lane marking determined by the own vehicle position recognition unit (road lane line recognition device) 102 is displayed. More accurate vehicle control can be performed based on the certainty.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

20…ファインダ、30…レーダ、40…カメラ、50…ナビゲーション装置、60…車両センサ、70…操作デバイス、72…操作検出センサ、80…切替スイッチ、90…走行駆動力出力装置、92…ステアリング装置、94…ブレーキ装置、100…車両制御装置、102…自車位置認識部(道路区画線認識装置)、102A…第1の道路区画線認識部、102B…第2の道路区画線認識部、102C…判定部、104…外界認識部、106…行動計画生成部、110…走行態様決定部、112…第1軌道生成部、120…車線変更制御部、122…ターゲット位置決定部、124…車線変更可否判定部、126…第2軌道生成部、130…走行制御部、140…制御切替部、150…記憶部、M…自車両 DESCRIPTION OF SYMBOLS 20 ... Finder, 30 ... Radar, 40 ... Camera, 50 ... Navigation apparatus, 60 ... Vehicle sensor, 70 ... Operation device, 72 ... Operation detection sensor, 80 ... Changeover switch, 90 ... Driving force output device, 92 ... Steering device 94 ... Brake device, 100 ... Vehicle control device, 102 ... Vehicle position recognition unit (road lane line recognition device), 102A ... first road lane line recognition unit, 102B ... second road lane line recognition unit, 102C DESCRIPTION OF SYMBOLS ... Determination part 104 ... External field recognition part 106 ... Action plan generation part 110 ... Traveling mode determination part 112 ... First track generation part 120 ... Lane change control part 122 ... Target position determination part 124 ... Lane change Applicability determination unit, 126 ... second track generation unit, 130 ... travel control unit, 140 ... control switching unit, 150 ... storage unit, M ... own vehicle

Claims (12)

自車両周辺の道路を撮像する撮像部により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、前記認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識する第1の道路区画線認識部と、
衛星からの電波に基づく前記自車両の位置を取得する自車位置取得部により取得された前記自車両の位置を用いて、道路の位置に対応付けて前記道路区画線の位置および種類が記述された地図情報を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識する第2の道路区画線認識部と、
前記第1の道路区画線認識部により認識された第1の道路区画線パターンと、前記第2の道路区画線認識部により認識された第2の道路区画線パターンとを比較し、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定する判定部と、
を備える道路区画線認識装置。
Recognizing the position and type of the road marking line included in the image captured by the imaging unit that images the road around the host vehicle, and the first road marking line pattern including the position and type of the recognized road marking line A first road lane marking recognition unit that recognizes;
The position and type of the road lane marking are described in association with the position of the road using the position of the own vehicle acquired by the own vehicle position acquisition unit that acquires the position of the own vehicle based on radio waves from a satellite. A second road lane marking recognition unit that recognizes a second road lane marking pattern including the position and type of the road lane marking by searching the map information
Comparing the first road lane line pattern recognized by the first road lane line recognition unit with the second road lane line pattern recognized by the second road lane line recognition unit; A determination unit that determines the probability of the position of the road lane line recognized by the road lane line recognition unit of 1;
A road lane marking recognition device.
前記第1の道路区画線認識部は、前記撮像部により撮像された画像に含まれる道路区画線の色を認識すると共に、前記認識した道路区画線の色を含む前記第1の道路区画線パターンを認識し、
前記地図情報は、道路の位置に対応付けて前記道路区画線の色を記述し、
前記第2の道路区画線認識部は、道路区画線の色を含む第2の道路区画線パターンを認識する、
請求項1記載の道路区画線認識装置。
The first road lane line recognition unit recognizes the color of the road lane line included in the image captured by the imaging unit and includes the color of the recognized road lane line. Recognize
The map information describes the color of the road marking line in association with the position of the road,
The second road lane marking recognition unit recognizes a second road lane marking pattern including a color of the road lane marking;
The road marking line recognition apparatus according to claim 1.
前記判定部は、前記第1の道路区画線パターンと前記第2の道路区画線パターンとの比較に加えて、前記第1の道路区画線認識部による認識結果または前記第2の道路区画線認識部による認識結果の個別の要因に基づいて、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定する、
請求項1または2記載の道路区画線認識装置。
In addition to the comparison between the first road lane marking pattern and the second road lane marking pattern, the determination unit recognizes the recognition result by the first road lane marking recognition unit or the second road lane marking recognition. Determining the likelihood of the position of the road lane line recognized by at least the first road lane line recognition unit based on individual factors of the recognition result by the unit;
The road marking line recognition device according to claim 1 or 2.
前記判定部は、前記第1の道路区画線認識部により繰り返し認識された道路区画線の位置が振動していると判定されるための振動条件を満たす場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させる、
請求項3記載の道路区画線認識装置。
The determination unit has at least the first road lane marking when satisfying a vibration condition for determining that the position of the road lane marking recognized repeatedly by the first road lane marking recognition unit is vibrating. Reduce the probability of the position of the road lane marking recognized by the recognition unit,
The road marking line recognition device according to claim 3.
前記判定部は、前記第1の道路区画線認識部または前記第2の道路区画線認識部により繰り返し認識された道路区画線の位置が、同定可能であった回数または頻度に基づいて、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させる、
請求項3または4記載の道路区画線認識装置。
The determination unit is based on the number of times or the frequency at which the position of the road lane marking recognized repeatedly by the first road lane marking recognition unit or the second road lane marking recognition unit is identifiable. Reducing the probability of the position of the road marking line recognized by the first road marking line recognition unit;
The road marking line recognition device according to claim 3 or 4.
前記判定部は、前記自車位置取得部により取得された自車両の位置および前記地図情報に基づいて、前記道路区画線の種類が変化する地点の付近を前記自車両が走行していると判定される場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させる、
請求項3から5のうちいずれか1項記載の道路区画線認識装置。
The determination unit determines that the host vehicle is traveling in the vicinity of a point where the type of the road lane marking changes based on the position of the host vehicle acquired by the host vehicle position acquisition unit and the map information. When it is done, at least the probability of the position of the road lane marking recognized by the first road lane marking recognition unit is reduced,
The road marking line recognition device according to any one of claims 3 to 5.
前記判定部は、前記自車位置取得部により取得された自車両の位置および地図情報に基づいて、道路が分岐または合流する地点を前記自車両が走行していると判定される場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させる、
請求項3から6のうちいずれか1項記載の道路区画線認識装置。
The determination unit is at least when it is determined that the host vehicle is traveling on a point where a road branches or merges based on the position of the host vehicle and map information acquired by the host vehicle position acquisition unit. Reducing the probability of the position of the road lane line recognized by the first road lane line recognition unit;
The road marking line recognition device according to any one of claims 3 to 6.
前記判定部は、前記自車位置取得部により取得された自車両の位置および地図情報に基づいて、道路に前記道路区画線とは異なる標示がなされている地点を前記自車両が走行していると判定される場合に、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを低下させる、
請求項3から7のうちいずれか1項記載の道路区画線認識装置。
The determination unit is configured such that the host vehicle travels at a point on the road where an indication different from the road lane marking is made based on the position of the host vehicle and map information acquired by the host vehicle position acquisition unit. Reducing the probability of the position of the road lane line recognized by at least the first road lane line recognition unit,
The road marking line recognition device according to any one of claims 3 to 7.
請求項1から8のうちいずれか1項記載の道路区画線認識装置と、
前記道路区画線認識装置によって所定程度以上の確からしさがあると判定された前記道路区画線の位置に基づいて、前記自車両が走行すべき軌道を生成する軌道生成部と、
前記軌道生成部により生成された軌道に沿って前記自車両を走行させる走行制御部と、 を備える車両制御装置。
The road marking line recognition device according to any one of claims 1 to 8,
A track generation unit that generates a track on which the host vehicle should travel based on the position of the road lane marking determined to have a certain degree of certainty or more by the road lane marking recognition device;
A vehicle control device comprising: a travel control unit that causes the host vehicle to travel along the track generated by the track generation unit.
前記軌道生成部は、前記道路区画線認識装置によって所定程度以上の確からしさがあると判定されなかった前記道路区画線について、過去に前記道路区画線認識装置によって所定程度以上の確からしさがあると判定された前記道路区画線の位置に基づいて補完を行い、前記自車両が走行すべき軌道を生成する、
請求項9記載の車両制御装置。
When the road lane marking that has not been determined to have a certain degree of certainty by the road lane marking recognition device has a certain degree of certainty in the past by the road lane marking recognition device, Complementing based on the determined position of the road marking line, generating a track on which the host vehicle should travel,
The vehicle control device according to claim 9.
車載コンピュータが、
自車両周辺の道路を撮像する撮像部により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、前記認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識し、
衛星からの電波に基づく前記自車両の位置を取得する自車位置取得部により取得された前記自車両の位置を用いて、道路の位置に対応付けて前記道路区画線の位置および種類が記述された地図情報を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識し、
前記第1の道路区画線パターンと、前記第2の道路区画線パターンとを比較し、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定する、
道路区画線認識方法。
In-vehicle computer
Recognizing the position and type of the road marking line included in the image captured by the imaging unit that images the road around the host vehicle, and the first road marking line pattern including the position and type of the recognized road marking line Recognized,
The position and type of the road lane marking are described in association with the position of the road using the position of the own vehicle acquired by the own vehicle position acquisition unit that acquires the position of the own vehicle based on radio waves from a satellite. The second road lane marking pattern, including the location and type of the road lane marking,
Comparing the first road lane marking pattern with the second road lane marking pattern and determining the likelihood of the position of the road lane marking recognized at least by the first road lane marking recognition unit;
Road lane marking recognition method.
車載コンピュータに、
自車両周辺の道路を撮像する撮像部により撮像された画像に含まれる道路区画線の位置および種類を認識すると共に、前記認識した道路区画線の位置および種類を含む第1の道路区画線パターンを認識させ、
衛星からの電波に基づく前記自車両の位置を取得する自車位置取得部により取得された前記自車両の位置を用いて、道路の位置に対応付けて前記道路区画線の位置および種類が記述された地図情報を検索することで、道路区画線の位置および種類を含む第2の道路区画線パターンを認識させ、
前記第1の道路区画線パターンと、前記第2の道路区画線パターンとを比較し、少なくとも前記第1の道路区画線認識部により認識された道路区画線の位置の確からしさを判定させる、
道路区画線認識プログラム。
On-board computer
Recognizing the position and type of the road marking line included in the image captured by the imaging unit that images the road around the host vehicle, and the first road marking line pattern including the position and type of the recognized road marking line Let them recognize
The position and type of the road lane marking are described in association with the position of the road using the position of the own vehicle acquired by the own vehicle position acquisition unit that acquires the position of the own vehicle based on radio waves from a satellite. By searching the map information, the second road lane marking pattern including the position and type of the road lane marking is recognized,
Comparing the first road lane line pattern with the second road lane line pattern, and determining the likelihood of the position of the road lane line recognized by at least the first road lane line recognition unit;
Road lane marking recognition program.
JP2015212368A 2015-10-28 2015-10-28 Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program Expired - Fee Related JP6485915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015212368A JP6485915B2 (en) 2015-10-28 2015-10-28 Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015212368A JP6485915B2 (en) 2015-10-28 2015-10-28 Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program

Publications (2)

Publication Number Publication Date
JP2017084137A true JP2017084137A (en) 2017-05-18
JP6485915B2 JP6485915B2 (en) 2019-03-20

Family

ID=58711160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015212368A Expired - Fee Related JP6485915B2 (en) 2015-10-28 2015-10-28 Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program

Country Status (1)

Country Link
JP (1) JP6485915B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046363A (en) * 2017-09-06 2019-03-22 株式会社デンソー Drive support device
CN109669451A (en) * 2017-10-16 2019-04-23 株式会社万都 Autonomous driving holding equipment and method
CN111824142A (en) * 2019-03-28 2020-10-27 本田技研工业株式会社 Display control device, display control method, and storage medium
US10885787B2 (en) 2017-09-14 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object
JP2021082300A (en) * 2020-05-25 2021-05-27 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Vehicle positioning method, device, electronic apparatus, vehicle, and storage medium
JP2021532455A (en) * 2018-07-10 2021-11-25 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Methods and devices for determining the position of the vehicle
WO2022070290A1 (en) * 2020-09-30 2022-04-07 三菱電機株式会社 Travel path generation device and travel path generation method
DE102022201543A1 (en) 2021-03-18 2022-09-22 Mitsubishi Electric Corporation COURSE GENERATION DEVICE AND VEHICLE CONTROL DEVICE
US11912278B2 (en) 2020-10-02 2024-02-27 Subaru Corporation Vehicle control system

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10273062A (en) * 1997-03-28 1998-10-13 Toyota Motor Corp Steering controller of vehicle
JP2002008199A (en) * 2000-06-27 2002-01-11 Nissan Motor Co Ltd Lane follow-up traveling controller
JP2003205805A (en) * 2002-01-16 2003-07-22 Mitsubishi Motors Corp Operation supporting device for vehicle
JP2008165326A (en) * 2006-12-27 2008-07-17 Aisin Aw Co Ltd Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method
JP2011073529A (en) * 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Vehicle controller
JP2011198276A (en) * 2010-03-23 2011-10-06 Nippon Soken Inc On-vehicle white line recognition apparatus
JP2012117944A (en) * 2010-12-01 2012-06-21 Aisin Aw Co Ltd Navigation device
JP2013012044A (en) * 2011-06-29 2013-01-17 Nippon Soken Inc On-vehicle white line recognition apparatus
JP2014115814A (en) * 2012-12-10 2014-06-26 Alpine Electronics Inc On-vehicle camera system and camera lens abnormality detecting method
JP2014151906A (en) * 2013-02-07 2014-08-25 Mando Corp Lane keep control system and method and computer readable recording medium
US20140257686A1 (en) * 2013-03-05 2014-09-11 GM Global Technology Operations LLC Vehicle lane determination

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10273062A (en) * 1997-03-28 1998-10-13 Toyota Motor Corp Steering controller of vehicle
JP2002008199A (en) * 2000-06-27 2002-01-11 Nissan Motor Co Ltd Lane follow-up traveling controller
JP2003205805A (en) * 2002-01-16 2003-07-22 Mitsubishi Motors Corp Operation supporting device for vehicle
JP2008165326A (en) * 2006-12-27 2008-07-17 Aisin Aw Co Ltd Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method
JP2011073529A (en) * 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Vehicle controller
JP2011198276A (en) * 2010-03-23 2011-10-06 Nippon Soken Inc On-vehicle white line recognition apparatus
JP2012117944A (en) * 2010-12-01 2012-06-21 Aisin Aw Co Ltd Navigation device
JP2013012044A (en) * 2011-06-29 2013-01-17 Nippon Soken Inc On-vehicle white line recognition apparatus
JP2014115814A (en) * 2012-12-10 2014-06-26 Alpine Electronics Inc On-vehicle camera system and camera lens abnormality detecting method
JP2014151906A (en) * 2013-02-07 2014-08-25 Mando Corp Lane keep control system and method and computer readable recording medium
US20140257686A1 (en) * 2013-03-05 2014-09-11 GM Global Technology Operations LLC Vehicle lane determination

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11577724B2 (en) 2017-09-06 2023-02-14 Denso Corporation Driving assistance apparatus
JP7027738B2 (en) 2017-09-06 2022-03-02 株式会社デンソー Driving support device
JP2019046363A (en) * 2017-09-06 2019-03-22 株式会社デンソー Drive support device
US10885787B2 (en) 2017-09-14 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object
CN109669451A (en) * 2017-10-16 2019-04-23 株式会社万都 Autonomous driving holding equipment and method
CN109669451B (en) * 2017-10-16 2023-09-05 汉拿科锐动电子股份公司 Autonomous driving support apparatus and method
JP2021532455A (en) * 2018-07-10 2021-11-25 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Methods and devices for determining the position of the vehicle
CN111824142A (en) * 2019-03-28 2020-10-27 本田技研工业株式会社 Display control device, display control method, and storage medium
CN111824142B (en) * 2019-03-28 2024-05-07 本田技研工业株式会社 Display control device, display control method, and storage medium
US11703332B2 (en) 2020-05-25 2023-07-18 Beijing Baidu Netcom Science Technology Co., Ltd. Vehicle positioning method, apparatus, electronic device, vehicle and storage medium
JP7241057B2 (en) 2020-05-25 2023-03-16 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド Vehicle positioning method, device, electronic device, vehicle and storage medium
JP2021082300A (en) * 2020-05-25 2021-05-27 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Vehicle positioning method, device, electronic apparatus, vehicle, and storage medium
JPWO2022070290A1 (en) * 2020-09-30 2022-04-07
WO2022070290A1 (en) * 2020-09-30 2022-04-07 三菱電機株式会社 Travel path generation device and travel path generation method
JP7353511B2 (en) 2020-09-30 2023-09-29 三菱電機株式会社 Driving route generation device and driving route generation method
US11912278B2 (en) 2020-10-02 2024-02-27 Subaru Corporation Vehicle control system
DE102022201543A1 (en) 2021-03-18 2022-09-22 Mitsubishi Electric Corporation COURSE GENERATION DEVICE AND VEHICLE CONTROL DEVICE
US11754402B2 (en) 2021-03-18 2023-09-12 Mitsubishi Electric Corporation Course generation apparatus and vehicle control apparatus

Also Published As

Publication number Publication date
JP6485915B2 (en) 2019-03-20

Similar Documents

Publication Publication Date Title
JP6344695B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6303217B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6288859B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6569186B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6485915B2 (en) Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program
JP6648256B2 (en) Vehicle control system, vehicle control method, and vehicle control program
CN107848531B (en) Vehicle control device, vehicle control method, and medium storing vehicle control program
JP6304894B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6446731B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6600892B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6270227B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6311889B2 (en) Vehicle control device, vehicle control method, and vehicle control program
WO2018123344A1 (en) Vehicle control device, vehicle control method, and program
WO2017159487A1 (en) Vehicle control device, vehicle control method, and vehicle control program
WO2017138513A1 (en) Vehicle control device, vehicle control method, and vehicle control program
JP6327424B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JPWO2017158731A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6304504B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JPWO2017158768A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP2017165156A (en) Vehicle control system, vehicle control method and vehicle control program
JP2017081421A (en) Vehicle control apparatus, vehicle control method, and vehicle control program
JP6270888B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP2017144886A (en) Vehicle control device, vehicle control method, and vehicle control program
WO2017159489A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP2017081432A (en) Vehicle control apparatus, vehicle control method, and vehicle control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190215

R150 Certificate of patent or registration of utility model

Ref document number: 6485915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees