JP2023150070A - Superimposed image display device - Google Patents

Superimposed image display device Download PDF

Info

Publication number
JP2023150070A
JP2023150070A JP2022058967A JP2022058967A JP2023150070A JP 2023150070 A JP2023150070 A JP 2023150070A JP 2022058967 A JP2022058967 A JP 2022058967A JP 2022058967 A JP2022058967 A JP 2022058967A JP 2023150070 A JP2023150070 A JP 2023150070A
Authority
JP
Japan
Prior art keywords
vehicle
lane
lanes
road
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022058967A
Other languages
Japanese (ja)
Inventor
広之 三宅
Hiroyuki Miyake
亮介 東淵
Ryosuke TOBUCHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2022058967A priority Critical patent/JP2023150070A/en
Publication of JP2023150070A publication Critical patent/JP2023150070A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a superimposed image display device which prevents guide of superimposed image display to a wrong peripheral environment from being performed and prevents disadvantage from being given to an occupant of a vehicle even under such a situation that contradiction or deviation occurs between a result of image recognition of a photographed image and map information.SOLUTION: A superimposed image display device specifies a lane number included in a road on which a vehicle currently travels on the basis of a photographed image obtained by imaging a scenery around the vehicle, specifies a travel lane being a lane on which the vehicle currently travels on the road on which the vehicle currently travels by using the lane number specified on the basis of the photographed image when the lane number of the road on which the vehicle currently travels included in the map information does not match the lane number specified on the basis of the photographed image, specifies the travel lane by using the matching lane number when the lane number of the road on which the vehicle currently travels included in the map information matches the lane number specified on the basis of the photographed image, and displays a guide object on the basis of the specified travel lane.SELECTED DRAWING: Figure 12

Description

本発明は、車両の走行支援を行う重畳画像表示装置に関する。 The present invention relates to a superimposed image display device that supports driving of a vehicle.

従来より、車両の乗員に対して経路案内や障害物の警告等の車両の走行支援を行う為の各種情報を提供する情報提供手段として、様々な手段が用いられている。例えば、車両に設置された液晶ディスプレイによる表示や、スピーカから出力する音声等である。そして、近年、このような情報提供手段の一つとして、乗員の周辺環境(風景、実景)に重畳する画像を表示することによって、情報の提供を行う装置がある。例えば、ヘッドアップディスプレイ、ウインドウシールドディスプレイの他、液晶ディスプレイに表示した車両周辺の撮像画像に重畳して画像を表示する方法等が該当する。 2. Description of the Related Art Conventionally, various means have been used as information providing means for providing vehicle occupants with various types of information for providing vehicle driving support, such as route guidance and warning of obstacles. For example, it is a display on a liquid crystal display installed in a vehicle, a sound output from a speaker, etc. In recent years, as one of such information providing means, there has been a device that provides information by displaying an image superimposed on the surrounding environment (scenery, real scene) of the passenger. For example, in addition to a head-up display, a window shield display, a method of displaying an image superimposed on a captured image of the surroundings of the vehicle displayed on a liquid crystal display, etc. are applicable.

ここで、上記周辺環境に重畳する画像を表示する案内を行う場合において正確な案内を行う為には、道路において自車が走行する位置(より具体的には走行する車線)を正確に特定することが重要である。そこで例えば特開2021-36226号公報には、ヘッドアップディスプレイによる前景への重畳案内を行う場合において、フロントカメラで撮像した画像を用いて得た区画線等の外界情報と高精度の地図情報とを用いることによって、道路内において自車が走行する位置を特定し、周辺環境に重畳する画像を表示し案内する技術について開示されている。 Here, in order to provide accurate guidance by displaying an image superimposed on the surrounding environment, it is necessary to accurately identify the position on the road where the vehicle is traveling (more specifically, the lane in which it is traveling). This is very important. For example, Japanese Patent Laid-Open No. 2021-36226 discloses that when superimposing guidance on the foreground using a head-up display, external world information such as lane markings obtained using an image captured by a front camera and high-precision map information are combined. A technology is disclosed in which the location of the own vehicle on the road is specified by using the system, and an image superimposed on the surrounding environment is displayed to provide guidance.

特開2021-36226号公報(段落0058-0064)JP 2021-36226 (Paragraph 0058-0064)

ここで、上記特許文献1のように地図情報を用いて自車が現在走行する車線(以下、走行車線という)を正確に特定する為には、地図情報において全国にある全ての道路の車線に関する情報を正確に有していることが前提となる。しかしながら、道路には例えば一般道の交差点、高速道路の分岐点や合流点周辺等において車線数が増減するポイントが数多く存在し、また道路の改修によって車線数が変化することも多い。従って、全国にある全ての道路の車線に関する情報を正確にデータベース化することは現実的に極めて困難であった。その結果、フロントカメラによる画像認識の結果と地図情報との間に矛盾やズレが生じる状況も予想され、そのような状況では走行車線の特定結果は信頼できず、誤った周辺環境への重畳画像表示の案内が行われる虞もあった。 Here, in order to accurately identify the lane in which the vehicle is currently traveling (hereinafter referred to as the driving lane) using map information as in Patent Document 1, it is necessary to It is assumed that the information is accurate. However, there are many points on roads where the number of lanes increases or decreases, for example around intersections on general roads, branch points or junctions on expressways, and the number of lanes often changes due to road renovations. Therefore, it has been extremely difficult in reality to create an accurate database of information regarding lanes on all roads nationwide. As a result, it is expected that there will be situations where there will be inconsistencies or discrepancies between the image recognition results from the front camera and the map information, and in such situations, the results of identifying driving lanes will be unreliable and images will be superimposed on the wrong surrounding environment. There was also a risk that the information would be displayed.

本発明は前記従来における問題点を解消するためになされたものであり、車両周辺の風景に重畳して表示された案内オブジェクトにより案内を行う場合において、撮像画像の画像認識の結果と地図情報との間に矛盾やズレが生じる状況であっても、誤った周辺環境への重畳画像表示の案内が行われることを防止し、車両の乗員に不利益を生じさせることのない重畳画像表示装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned conventional problems, and when providing guidance using a guide object displayed superimposed on the scenery around the vehicle, it is possible to combine the results of image recognition of captured images with map information. Even in situations where there are contradictions or discrepancies between The purpose is to provide.

前記目的を達成するため本発明に係る重畳画像表示装置は、車両に搭載され、前記車両の乗員へ情報を案内する案内オブジェクトを、前記車両周辺の風景に重畳して視認させる重畳画像表示装置であって、道路の車線数に関する情報を含む地図情報を取得する地図情報取得手段と、前記車両周辺の風景を撮像した撮像画像に基づいて、車両が現在走行する道路に含まれる車線数を特定する車線数特定手段と、前記地図情報に含まれる車両が現在走行する道路の車線数と前記車線数特定手段により特定された車線数とが一致しない場合には前記車線数特定手段により特定された車線数を用いて車両が現在走行する道路において車両が現在走行する車線である走行車線を特定する一方で、前記地図情報に含まれる車両が現在走行する道路の車線数と前記車線数特定手段により特定された車線数とが一致する場合には一致する車線数を用いて前記走行車線を特定する走行車線特定手段と、前記走行車線特定手段により特定された前記走行車線に基づいて前記案内オブジェクトを表示するオブジェクト表示手段と、を有する。
尚、「風景」とは、実際に車両から視認される風景(実景)に加えて、風景を撮像した画像、風景を再現した画像等も含む。
In order to achieve the above object, a superimposed image display device according to the present invention is a superimposed image display device that is mounted on a vehicle and allows a guide object that guides information to a passenger of the vehicle to be visually recognized by superimposing it on the scenery around the vehicle. a map information acquisition means for acquiring map information including information regarding the number of lanes on the road; and a map information acquisition means for determining the number of lanes included in the road on which the vehicle is currently traveling based on a captured image of the scenery around the vehicle. If the number of lanes of the road on which the vehicle currently traveling included in the map information is currently running does not match the number of lanes specified by the number of lanes specification means, the number of lanes specified by the number of lanes specification means is specified. While identifying the driving lane in which the vehicle is currently traveling on the road on which the vehicle is currently traveling using the number, the number of lanes on the road where the vehicle is currently traveling included in the map information and the lane number identifying means are identified. and a driving lane specifying means for specifying the driving lane using the matching number of lanes when the number of lanes that have been specified match, and displaying the guide object based on the driving lane specified by the driving lane specifying means. and object display means.
Note that the term "landscape" includes not only the scenery that is actually seen from the vehicle (actual scene), but also images of scenery, images that reproduce scenery, and the like.

前記構成を有する本発明に係る重畳画像表示装置によれば、車両周辺の風景に重畳して表示された案内オブジェクトにより案内を行う場合において、地図情報に含まれる車両が現在走行する道路の車線数と撮像画像の画像認識の結果により特定された車線数とが一致しない場合には画像認識の結果により特定された車線数を用いて車両が現在走行する車線を特定するので、撮像画像の画像認識の結果と地図情報との間に矛盾やズレが生じる状況であっても、誤った周辺環境への重畳画像表示の案内が行われることを防止し、車両の乗員に不利益を生じさせることがない。 According to the superimposed image display device according to the present invention having the above configuration, when guidance is provided using a guide object displayed superimposed on the scenery around the vehicle, the number of lanes of the road on which the vehicle currently traveling included in the map information is provided. If the number of lanes specified by the result of image recognition of the captured image does not match, the number of lanes specified by the result of image recognition is used to identify the lane in which the vehicle is currently traveling. Even in situations where there is a discrepancy or discrepancy between the results of the process and the map information, this system prevents the display of superimposed images on the surrounding environment from being displayed incorrectly, and prevents the vehicle occupants from being disadvantaged. do not have.

第1実施形態に係るナビゲーション装置を示したブロック図である。FIG. 1 is a block diagram showing a navigation device according to a first embodiment. 第1実施形態に係る走行支援処理プログラムのフローチャートである。3 is a flowchart of a driving support processing program according to the first embodiment. 液晶ディスプレイに表示される第1案内オブジェクトの一例を示した図である。FIG. 3 is a diagram showing an example of a first guide object displayed on a liquid crystal display. 液晶ディスプレイに表示される第2案内オブジェクトの一例を示した図である。It is a figure showing an example of the 2nd guidance object displayed on a liquid crystal display. 第1案内オブジェクト表示位置決定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub-processing program of the 1st guidance object display position determination process. 高速道路の案内分岐点を通過する場合の推奨車線の一例を示した図である。FIG. 2 is a diagram showing an example of recommended lanes when passing through a guidance branch point on an expressway. 一般道の案内分岐点を通過する場合の推奨車線の一例を示した図である。It is a diagram showing an example of recommended lanes when passing through a guidance branch point on a general road. 画像認識結果に基づく自車道路車線数と自車走行車線の検出方法について説明した図である。FIG. 3 is a diagram illustrating a method for detecting the number of vehicle road lanes and the lane in which the vehicle is traveling based on image recognition results. 画像認識結果に基づく自車道路車線数と自車走行車線の検出方法について説明した図である。FIG. 3 is a diagram illustrating a method for detecting the number of vehicle road lanes and the lane in which the vehicle is traveling based on image recognition results. 画像認識結果に基づく自車道路車線数と自車走行車線の検出方法について説明した図である。FIG. 3 is a diagram illustrating a method for detecting the number of vehicle road lanes and the lane in which the vehicle is traveling based on image recognition results. 地図情報に含まれるリンクデータについて説明した図である。FIG. 3 is a diagram illustrating link data included in map information. 地図情報と画像認識結果との間に矛盾やズレが生じる場合について説明した図である。FIG. 3 is a diagram illustrating a case where a contradiction or gap occurs between map information and an image recognition result. 風景内において推奨車線が存在する範囲と自車走行車線が存在する範囲を特定する方法について説明した図である。FIG. 2 is a diagram illustrating a method for specifying a range in a landscape where a recommended lane exists and a range where a vehicle's driving lane exists. 第1案内オブジェクトの一例を示した図である。FIG. 3 is a diagram showing an example of a first guide object. 第1案内オブジェクトの一例を示した図である。FIG. 3 is a diagram showing an example of a first guide object. 第1案内オブジェクトの表示態様の変移を示した図である。FIG. 6 is a diagram showing changes in the display mode of the first guide object. 液晶ディスプレイに表示される第1案内オブジェクトの一例を示した図である。FIG. 3 is a diagram showing an example of a first guide object displayed on a liquid crystal display. 液晶ディスプレイに表示される第1案内オブジェクトの一例を示した図である。FIG. 3 is a diagram showing an example of a first guide object displayed on a liquid crystal display. 液晶ディスプレイに表示される第1案内オブジェクトの一例を示した図である。FIG. 3 is a diagram showing an example of a first guide object displayed on a liquid crystal display. 特に画像認識結果の信頼度が低い場合において液晶ディスプレイに表示される第1案内オブジェクトの一例を示した図である。FIG. 6 is a diagram illustrating an example of a first guide object displayed on a liquid crystal display especially when the reliability of image recognition results is low. 第2実施形態に係る重畳画像表示装置の概略構成図である。FIG. 2 is a schematic configuration diagram of a superimposed image display device according to a second embodiment. 第2実施形態に係る重畳画像表示装置における案内オブジェクトの表示例を示した図である。FIG. 7 is a diagram illustrating a display example of a guide object in a superimposed image display device according to a second embodiment.

以下、本発明に係る重畳画像表示装置をナビゲーション装置に具体化した第1実施形態及び第2実施形態について図面を参照しつつ詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment and a second embodiment in which a superimposed image display device according to the present invention is embodied in a navigation device will be described in detail with reference to the drawings.

[第1実施形態]
先ず、第1実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は第1実施形態に係るナビゲーション装置1を示したブロック図である。
[First embodiment]
First, a schematic configuration of a navigation device 1 according to a first embodiment will be described using FIG. 1. FIG. 1 is a block diagram showing a navigation device 1 according to the first embodiment.

図1に示すように第1実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して進行方向前方を撮像した実景画像を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有する。また、ナビゲーション装置1はCAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置されたフロントカメラ19や各種センサが接続されている。 As shown in FIG. 1, the navigation device 1 according to the first embodiment includes a current position detection unit 11 that detects the current position of a vehicle in which the navigation device 1 is mounted, and a data recording unit 12 that records various data. , a navigation ECU 13 that performs various calculation processes based on input information, an operation unit 14 that accepts operations from the user, and a liquid crystal display 15 that displays to the user an image of the actual scene taken in the forward direction of travel. Communication is performed between a speaker 16 that outputs voice guidance regarding route guidance, a DVD drive 17 that reads a DVD as a storage medium, and an information center such as a probe center or a VICS (registered trademark: Vehicle Information and Communication System) center. It has a communication module 18. Further, the navigation device 1 is connected to a front camera 19 and various sensors installed in the vehicle in which the navigation device 1 is mounted via an in-vehicle network such as CAN.

以下に、ナビゲーション装置1が有する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component included in the navigation device 1 will be explained in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, etc., and is capable of detecting the current vehicle position, direction, vehicle speed, current time, etc. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting the travel distance and vehicle speed of the vehicle, generates pulses according to the rotation of the drive wheels of the vehicle, and outputs the pulse signal to the navigation ECU 13. Then, the navigation ECU 13 calculates the rotational speed and travel distance of the drive wheels by counting the generated pulses. Note that it is not necessary for the navigation device 1 to include all of the above four types of sensors, and the navigation device 1 may be configured to include only one or more types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクにより構成しても良い。また、地図情報DB31は外部のサーバに格納させ、ナビゲーション装置1が通信により取得する構成としても良い。 The data recording unit 12 also includes a hard disk (not shown) as an external storage device and recording medium, and a driver for reading map information DB 31 and predetermined programs recorded on the hard disk and writing predetermined data on the hard disk. A recording head (not shown) is provided. Note that the data recording section 12 may be configured with a flash memory, a memory card, or an optical disk such as a CD or DVD instead of a hard disk. Alternatively, the map information DB 31 may be stored in an external server and acquired by the navigation device 1 through communication.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ32、ノード点に関するノードデータ33、分岐点に関する分岐点データ34、施設等の地点に関する地点データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等が記憶された記憶手段である。 Here, the map information DB 31 includes, for example, link data 32 related to roads (links), node data 33 related to node points, branch point data 34 related to branch points, point data related to points such as facilities, and a map display for displaying a map. It is a storage means in which data, search data for searching for routes, search data for searching for points, etc. are stored.

また、リンクデータ32としては、道路ネットワークを構成する各リンクに関してリンクの属する道路の幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線毎の進行方向の通行区分、対向車線の有無(対面通行区間か否か)、中央分離帯の有無、幅員の狭くなる箇所、踏切り等を表すデータが、コーナに関して、曲率半径、交差点、T字路、コーナの入口及び出口等を表すデータが、道路属性に関して、降坂路、登坂路等を表すデータが、道路種別に関して、高速道路と一般道(国道、県道、細街路等)を表すデータがそれぞれ記録される。 In addition, the link data 32 includes the width, slope, cant, bank, road surface condition, number of road lanes, and traffic classification of each lane in the direction of travel for each link that constitutes the road network. , the presence or absence of oncoming lanes (whether it is a two-way traffic section or not), the presence or absence of a median strip, places where the width becomes narrow, railroad crossings, etc. Regarding corners, the data indicates the radius of curvature, intersections, T-junctions, corner entrances and exits. Regarding road attributes, data representing downhill roads, uphill roads, etc. are recorded, and regarding road types, data representing expressways and general roads (national highways, prefectural roads, narrow streets, etc.) are recorded.

また、ノードデータ33としては、実際の道路の分岐点(交差点、T字路等も含む)や各道路に曲率半径等に応じて所定の距離毎に設定されたノード点の座標(位置)、ノードが交差点に対応するノードであるか等を表すノード属性、ノードに接続するリンクのリンク番号のリストである接続リンク番号リスト、ノードにリンクを介して隣接するノードのノード番号のリストである隣接ノード番号リスト、各ノード点の高さ(高度)等に関するデータ等が記録される。 In addition, the node data 33 includes coordinates (positions) of actual road branch points (including intersections, T-junctions, etc.) and node points set at predetermined distances on each road according to the radius of curvature, etc. Node attributes that indicate whether a node corresponds to an intersection, etc., a connected link number list that is a list of link numbers of links that connect to the node, and adjacency that is a list of node numbers of nodes that are adjacent to the node via links. A list of node numbers, data regarding the height (altitude) of each node point, etc. are recorded.

また、分岐点データ34としては、分岐点の交差点名称、分岐点を形成するノードを特定する該当ノード情報、分岐点に接続されるリンクを特定する接続リンク情報、分岐点に接続されるリンクに対応する方面名称、分岐点の形状を特定する情報等が記憶される。また、分岐点での右左折案内を行う場合に目印となり得る構造物についても記憶される。 In addition, the branch point data 34 includes the intersection name of the branch point, corresponding node information that specifies the node forming the branch point, connecting link information that specifies the link connected to the branch point, and information on the link connected to the branch point. The corresponding direction name, information specifying the shape of the branch point, etc. are stored. Further, structures that can serve as landmarks when providing left/right turn guidance at a junction are also stored.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図2)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、地図情報取得手段は、道路の車線数に関する情報を含む地図情報を取得する。車線数特定手段は、車両周辺の風景を撮像した撮像画像に基づいて、車両が現在走行する道路に含まれる車線数を特定する。走行車線特定手段は、地図情報に含まれる車両が現在走行する道路の車線数と車線数特定手段により特定された車線数とが一致しない場合には車線数特定手段により特定された車線数を用いて車両が現在走行する道路において車両が現在走行する車線である走行車線を特定する一方で、地図情報に含まれる車両が現在走行する道路の車線数と車線数特定手段により特定された車線数とが一致する場合には一致する車線数を用いて走行車線を特定する。オブジェクト表示手段は、走行車線特定手段により特定された走行車線に基づいて案内オブジェクトを表示する。 On the other hand, the navigation ECU (electronic control unit) 13 is an electronic control unit that controls the entire navigation device 1, and includes a CPU 41 as an arithmetic unit and a control device, and a working memory when the CPU 41 performs various arithmetic processes. In addition to the RAM 42 which stores route data etc. when a route is searched, the ROM 43 which stores a driving support processing program (see FIG. 2) to be described later in addition to the control program, which is read from the ROM 43 It includes an internal storage device such as a flash memory 44 that stores programs. Note that the navigation ECU 13 has various means as processing algorithms. For example, the map information acquisition means acquires map information including information regarding the number of lanes on a road. The lane number identifying means identifies the number of lanes included in the road on which the vehicle is currently traveling, based on a captured image of the scenery around the vehicle. The driving lane specifying means uses the number of lanes specified by the lane number specifying means when the number of lanes of the road on which the vehicle currently travels included in the map information does not match the number of lanes specified by the lane number specifying means. While identifying the driving lane in which the vehicle is currently traveling on the road on which the vehicle is currently traveling, it also identifies the number of lanes on the road where the vehicle is currently traveling included in the map information and the number of lanes identified by the lane number identifying means. If they match, the driving lane is identified using the matching number of lanes. The object display means displays the guide object based on the driving lane specified by the driving lane specifying means.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルを有する構成としても良い。また、マイクと音声認識装置を有する構成としても良い。 The operation unit 14 is operated when inputting a departure point as a travel start point and a destination as a travel end point, and has a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing each switch. Note that the operation unit 14 may have a touch panel provided on the front surface of the liquid crystal display 15. Alternatively, a configuration including a microphone and a voice recognition device may be used.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。また、特に第1実施形態では、車両が案内分岐点に近づいた段階で液晶ディスプレイ15にはフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)を表示し、更に必要に応じて風景に対して案内オブジェクトを重畳させて表示する。 The liquid crystal display 15 also displays map images including roads, traffic information, operation guidance, operation menus, key guidance, a guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecasts, etc. The time, email, TV programs, etc. are displayed. In particular, in the first embodiment, when the vehicle approaches the guidance junction, the liquid crystal display 15 displays the image taken by the front camera 19, that is, the scenery (actual scene image) around the vehicle at the present moment (especially in front of the vehicle). The guide object is displayed superimposed on the scenery as necessary.

ここで、風景に重畳して表示される案内オブジェクトとしては、車両に関する情報や乗員の運転の支援の為に用いられる各種情報がある。例えば乗員に対して警告対象となる対象物(他車両、歩行者、案内標識)に対する警告、ナビゲーション装置1で設定された案内経路や案内経路に基づく案内情報(右左折方向を示す矢印、案内分岐点の目印を示すアイコン、案内分岐点までの距離、車両が走行すべき推奨車線の位置、推奨車線への車線変更を促す案内等)、路面に表示する警告(追突注意、制限速度等)、車両が走行する車線の区画線、現在車速、シフト位置、エネルギ残量、広告画像、施設情報、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面等がある。尚、以下に説明する第1実施形態では案内オブジェクトは、車両の進行方向前方にある案内分岐点における案内を行う為の案内情報とする。より具体的には案内経路に沿った案内分岐点の退出方向を示す矢印、案内経路に沿って案内分岐点を通過する為に車両が現在走行する道路において走行が推奨される推奨車線の位置を示す案内画像、推奨車線への移動を促す案内画像等とする。 Here, the guide objects displayed superimposed on the scenery include information regarding the vehicle and various types of information used to support the driving of the passenger. For example, warnings to the occupants about objects (other vehicles, pedestrians, guide signs), guidance information based on the guide route or guide route set in the navigation device 1 (arrows indicating right/left turn directions, guide branches) icons indicating point markers, distance to guidance junctions, recommended lane positions for vehicles to drive, guidance to change lanes to recommended lanes, etc.), warnings displayed on the road surface (beware of rear-end collisions, speed limits, etc.), Includes lane markings, current vehicle speed, shift position, remaining energy, advertising images, facility information, guide signs, map images, traffic information, news, weather forecast, time, connected smartphone screen, etc. . In the first embodiment described below, the guide object is guide information for providing guidance at a guide branch point located ahead in the direction of travel of the vehicle. More specifically, it shows the arrow indicating the exit direction of the guidance junction along the guidance route, and the position of the recommended lane on the road where the vehicle is currently traveling in order to pass through the guidance junction along the guidance route. The guide image may be a guide image that shows the vehicle, a guide image that prompts the user to move to the recommended lane, or the like.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。 Furthermore, the speaker 16 outputs audio guidance for guiding travel along the guide route and traffic information based on instructions from the navigation ECU 13.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。 Further, the DVD drive 17 is a drive that can read data recorded on recording media such as DVDs and CDs. Then, based on the read data, music and video are played back, and the map information DB 31 is updated. Incidentally, instead of the DVD drive 17, a card slot for reading and writing a memory card may be provided.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。 Further, the communication module 18 is a communication device for receiving traffic information including various information such as congestion information, regulation information, traffic accident information, etc. transmitted from a traffic information center, such as a VICS center or a probe center, For example, this applies to mobile phones and DCMs.

また、フロントカメラ19は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、例えばルームミラーの裏側やフロントバンパに対して光軸方向を車両の進行方向前方に向けて設置される。そして、フロントカメラ19により撮像された撮像画像は、前述したように車両周辺(特に車両前方)の風景(実景画像)として液晶ディスプレイ15に対して表示される。また、フロントカメラ19により撮像された撮像画像は後述の様に車両が走行する道路の区画線を検出したり、車両が走行する道路のトータルの車線数や車両が現在走行する車線を特定する際にも用いられる。 Further, the front camera 19 is an imaging device having a camera using a solid-state imaging device such as a CCD, and is installed, for example, on the back side of a room mirror or on a front bumper with its optical axis facing forward in the direction of travel of the vehicle. Ru. The captured image captured by the front camera 19 is displayed on the liquid crystal display 15 as a scenery (actual scene image) around the vehicle (particularly in front of the vehicle), as described above. In addition, the captured image taken by the front camera 19 is used to detect the marking lines of the road on which the vehicle is traveling as described later, and to identify the total number of lanes on the road on which the vehicle is traveling and the lane in which the vehicle is currently traveling. Also used for

続いて、前記構成を有するナビゲーション装置1においてナビゲーションECU13が実行する走行支援処理プログラムについて図2に基づき説明する。図2は第1実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは車両のACC電源(accessory power supply)がONされた後に実行され、液晶ディスプレイ15に表示された車両周辺の風景に重畳した案内オブジェクトを視認させることによって、車両の走行支援を行うプログラムである。尚、以下の図2及び図5にフローチャートで示されるプログラムは、ナビゲーション装置1が備えているRAM42やROM43に記憶されており、CPU41により実行される。 Next, a driving support processing program executed by the navigation ECU 13 in the navigation device 1 having the above configuration will be described based on FIG. 2. FIG. 2 is a flowchart of the driving support processing program according to the first embodiment. Here, the driving support processing program is executed after the vehicle's ACC power supply (accessory power supply) is turned on, and the driving support processing program is executed by making the guide object superimposed on the scenery around the vehicle displayed on the liquid crystal display 15 visible. This is a program that provides support. Note that the programs shown in the flowcharts in FIGS. 2 and 5 below are stored in the RAM 42 and ROM 43 included in the navigation device 1, and are executed by the CPU 41.

以下の説明では案内オブジェクトを用いた車両の走行支援として、ナビゲーション装置1で設定された案内経路に沿った車両の走行案内を行う例について説明する。また、表示対象となる案内オブジェクトは、車両の進行方向前方にある案内分岐点における案内を行う為の案内情報とし、特に案内分岐点の退出方向を示す矢印、推奨車線の位置を示す案内画像及び推奨車線への移動を促す案内画像を案内オブジェクトとして表示する場合の処理を例に挙げて説明する。但し、ナビゲーション装置1では案内オブジェクトを用いて上記走行支援以外の案内や情報提供を行うことも可能である。また、表示対象となる案内オブジェクトは、上記矢印や案内画像以外の情報とすることも可能である。例えば、案内オブジェクトとして乗員に対して警告対象となる対象物(他車両、歩行者、案内標識)に対する警告、路面に表示する警告(追突注意、制限速度等)、次の案内分岐点までの距離、現在車速、シフト位置、エネルギ残量、広告画像、施設情報、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面等を表示することも可能である。 In the following description, an example will be described in which driving guidance of a vehicle along a guidance route set by the navigation device 1 is performed as driving support for a vehicle using a guide object. In addition, the guidance objects to be displayed are guidance information for providing guidance at the guidance junction located ahead in the direction of travel of the vehicle, and in particular, an arrow indicating the exit direction of the guidance junction, a guidance image indicating the position of the recommended lane, and A process for displaying a guide image that prompts movement to a recommended lane as a guide object will be described as an example. However, the navigation device 1 can also use guide objects to provide guidance and information other than the above-mentioned driving support. Further, the guide object to be displayed may be information other than the above-mentioned arrow or guide image. For example, warnings for objects (other vehicles, pedestrians, guide signs) that are subject to warnings for occupants as guidance objects, warnings displayed on the road surface (beware of rear-end collisions, speed limits, etc.), and distance to the next guidance junction. It is also possible to display current vehicle speed, shift position, remaining energy, advertising images, facility information, guide signs, map images, traffic information, news, weather forecast, time, connected smartphone screen, etc.

先ず、走行支援処理プログラムでは、ステップ(以下、Sと略記する)1においてCPU41は、車両の現在位置を現在位置検出部11の検出結果や地図情報に基づいて特定する。尚、車両の現在位置を特定する際には、車両の現在位置を地図情報にマッチングさせるマップマッチング処理についても行う。その後、ナビゲーション装置1で設定されている案内経路を読み出し、特定された車両の現在位置から案内経路に沿った次の案内分岐点までの距離を算出する。尚、案内分岐点とは、ナビゲーション装置1に設定されている案内経路に従ってナビゲーション装置1が走行の案内を行う際に、右左折指示(左折ランプや右折ランプへの進入指示も含む)等の案内を行う対象となる分岐点(交差点)である。尚、右左折はしないが特殊な形状を有する分岐点(難交差点)も案内分岐点に該当する。 First, in step (hereinafter abbreviated as S) 1 of the driving support processing program, the CPU 41 specifies the current position of the vehicle based on the detection result of the current position detection section 11 and map information. Note that when identifying the current location of the vehicle, map matching processing is also performed to match the current location of the vehicle with map information. Thereafter, the guidance route set by the navigation device 1 is read out, and the distance from the specified current position of the vehicle to the next guidance branch point along the guidance route is calculated. Note that a guidance branch point refers to a guidance point such as a right or left turn instruction (including an instruction to enter a left turn ramp or a right turn ramp) when the navigation device 1 provides driving guidance according to the guide route set in the navigation device 1. This is the branch point (intersection) where the process is performed. Note that a junction (difficult intersection) that does not make a right or left turn but has a special shape also corresponds to a guidance junction.

次に、S2においてCPU41は、前記S1で算出された次の案内分岐点までの距離が、所定の案内開始距離未満か否かを判定する。尚、案内開始距離は車両が走行する道路の道路種別によって決定され、例えば高速道路は1km、一般道は高速道路よりも短い300mとする。但し、案内開始距離は固定値でなく変動する値としても良い。例えば一般道において案内分岐点の手前側300m以内に他の分岐点がある場合には、案内分岐点から該他の分岐点までの距離としても良い。 Next, in S2, the CPU 41 determines whether the distance to the next guidance branch point calculated in S1 is less than a predetermined guidance start distance. Note that the guidance start distance is determined by the type of road on which the vehicle is traveling; for example, an expressway is 1 km, and a general road is 300 m, which is shorter than the expressway. However, the guidance start distance may not be a fixed value but may be a variable value. For example, if there is another branch point within 300 m in front of the guide branch point on a general road, the distance from the guide branch point to the other branch point may be used.

そして、前記S1で算出された次の案内分岐点までの距離が案内開始距離未満であると判定された場合(S2:YES)には、S3へと移行する。それに対して、前記S1で算出された次の案内分岐点までの距離が案内開始距離未満でないと判定された場合(S2:NO)には、S1へと戻る。 If it is determined that the distance to the next guidance branch point calculated in S1 is less than the guidance start distance (S2: YES), the process moves to S3. On the other hand, if it is determined that the distance to the next guidance branch point calculated in S1 is not less than the guidance start distance (S2: NO), the process returns to S1.

S3においてCPU41は、次の案内分岐点までの距離が、所定の退出方向案内開始距離未満か否かを判定する。尚、退出方向案内開始距離は前記S2の判定基準となる案内開始距離よりも短い距離であって、車両が走行する道路の道路種別によって決定され、例えば高速道路は500m、一般道は高速道路よりも短い50mとする。 In S3, the CPU 41 determines whether the distance to the next guidance branch point is less than a predetermined exit direction guidance start distance. Note that the exit direction guidance start distance is a distance shorter than the guidance start distance that is the criterion for S2, and is determined by the type of road on which the vehicle is traveling. The distance is also short at 50m.

そして、次の案内分岐点までの距離が退出方向案内開始距離未満であると判定された場合(S3:YES)には、S6へと移行する。それに対して、次の案内分岐点までの距離が退出方向案内開始距離未満でないと判定された場合(S3:NO)には、S4へと移行する。 If it is determined that the distance to the next guidance branch point is less than the exit direction guidance start distance (S3: YES), the process moves to S6. On the other hand, if it is determined that the distance to the next guidance branch point is not less than the exit direction guidance start distance (S3: NO), the process moves to S4.

次に、S4においてCPU41は、後述の第1案内オブジェクト表示位置決定処理(図5)を行う。第1案内オブジェクト表示位置決定処理は、推奨車線の位置を示す案内画像或いは推奨車線への移動を促す案内画像を案内オブジェクト(以下、第1案内オブジェクトという)として表示対象とし、液晶ディスプレイ15に対して表示する第1案内オブジェクトの大きさ、形状及び第1案内オブジェクトを表示する位置(範囲)を具体的に決定する処理である。尚、前記S4で決定される第1案内オブジェクトの大きさ、形状及び第1案内オブジェクトを表示する位置は、例えば風景内の推奨車線、自車の走行車線或いはその間の車線に案内オブジェクトを重畳して乗員に視認させる為の条件となる。また、液晶ディスプレイ15には車両から案内分岐点までの距離が案内開始距離未満となる前に予めフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)が表示されている。そして、前記S4では後述のように画像認識処理や地図情報を用い、液晶ディスプレイ15に表示された風景内において推奨車線や自車の走行車線が存在する範囲を特定し、特定された範囲に重畳するように第1案内オブジェクトの大きさ、形状及び第1案内オブジェクトを表示する位置が決定される。 Next, in S4, the CPU 41 performs a first guide object display position determination process (FIG. 5), which will be described later. In the first guide object display position determination process, a guide image indicating the position of a recommended lane or a guide image urging movement to the recommended lane is displayed as a guide object (hereinafter referred to as a first guide object), and is displayed on the liquid crystal display 15. This process specifically determines the size and shape of the first guide object to be displayed and the position (range) in which the first guide object is displayed. The size and shape of the first guide object determined in step S4 and the position at which the first guide object is displayed may be determined by superimposing the guide object on the recommended lane in the scenery, the vehicle's driving lane, or the lanes in between, for example. This is a condition for making the vehicle visible to the passengers. In addition, the liquid crystal display 15 displays an image captured in advance by the front camera 19 before the distance from the vehicle to the guidance branch point becomes less than the guidance start distance, that is, a scene (actual scene image) of the current surroundings of the vehicle (especially in front of the vehicle). is displayed. Then, in S4, as described later, using image recognition processing and map information, a range in which the recommended lane and the own vehicle's driving lane exist in the scenery displayed on the liquid crystal display 15 is specified, and the area is superimposed on the specified range. The size and shape of the first guide object and the position at which the first guide object is displayed are determined so that the first guide object is displayed.

続いて、S5においてCPU41は、前記S4で決定された大きさ及び形状の第1案内オブジェクトの画像を生成し、更に液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に対して生成された第1案内オブジェクトの画像を前記S4で決定された位置(範囲)に対して描画する。前述したように液晶ディスプレイ15には車両から案内分岐点までの距離が案内開始距離未満となる前に予めフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)が表示されている。その結果、車両の乗員に風景に重畳された第1案内オブジェクトを視認させることが可能となる。 Subsequently, in S5, the CPU 41 generates an image of the first guide object having the size and shape determined in S4, further transmits a control signal to the liquid crystal display 15, and sends the image of the first guide object to the liquid crystal display 15. The image of the first guide object is drawn at the position (range) determined in S4. As mentioned above, the liquid crystal display 15 displays an image captured by the front camera 19 before the distance from the vehicle to the guidance branch point becomes less than the guidance start distance, that is, the scenery (actual scene) around the vehicle (especially in front of the vehicle) at the current moment. image) is displayed. As a result, it becomes possible for the occupant of the vehicle to visually recognize the first guide object superimposed on the scenery.

図3は前記S5において液晶ディスプレイ15に表示される走行案内画面51の例を示した図である。図3に示すように液晶ディスプレイ15には、フロントカメラ19により撮像された現時点の車両前方の風景52が表示される。そして、車両前方の風景52に重畳して第1案内オブジェクトの画像53が表示される。 FIG. 3 is a diagram showing an example of the driving guide screen 51 displayed on the liquid crystal display 15 in S5. As shown in FIG. 3, the liquid crystal display 15 displays a current scene 52 in front of the vehicle captured by the front camera 19. Then, an image 53 of the first guide object is displayed superimposed on the scenery 52 in front of the vehicle.

ここで、第1実施形態では案内に用いられる案内オブジェクトとして複数種類の案内オブジェクトが存在し、案内の内容や現在の状況に応じて選択された一又は複数種類の案内オブジェクトが表示される。また、複数種類の案内オブジェクトが同時に表示対象となる場合もある。図3に示す例は、車両の現在位置が案内分岐点に対して案内開始距離未満且つ退出方向案内開始距離以上に接近した状態(例えば案内分岐点まで1km~500m)に表示される走行案内画面51の例であり、案内経路に沿って案内分岐点を通過する為に車両が現在走行する道路において走行が推奨される推奨車線54を他の車線と識別して案内する案内画像が第1案内オブジェクトの画像53として表示される第1の表示態様と、推奨車線54を他の車線と識別して案内するとともに推奨車線54への移動を促す案内画像が第1案内オブジェクトの画像53として表示される第2の表示態様を示す。 Here, in the first embodiment, there are a plurality of types of guide objects used for guidance, and one or more types of guide objects selected depending on the content of the guide and the current situation are displayed. Furthermore, multiple types of guide objects may be displayed at the same time. The example shown in FIG. 3 is a driving guidance screen that is displayed when the current position of the vehicle approaches the guidance branch point less than the guidance start distance and closer to the exit direction guidance start distance (for example, 1 km to 500 m to the guidance junction). 51, the first guide image is a guide image that distinguishes the recommended lane 54, which is recommended for driving on the road where the vehicle is currently traveling, from other lanes and guides the vehicle in order to pass through a guide branch point along the guide route. A first display mode displayed as an image 53 of the object, and a guidance image that identifies the recommended lane 54 from other lanes and provides guidance and urges movement to the recommended lane 54 are displayed as the image 53 of the first guidance object. The second display mode shown in FIG.

尚、第1案内オブジェクトの画像53については、図3に示すように基本的に風景52内にある推奨車線54、或いは車両の現在走行する車線(以下、自車走行車線という)55から推奨車線54まで跨る領域に重畳して表示される。具体的には車両が案内分岐点に閾値以内(例えば高速道路では700m以内)に接近するまでの間は、自車両が推奨車線54を走行しているか否かに関わらず推奨車線54のみに重畳して表示する(第1の表示態様)。この段階では推奨車線54への移動を促すよりも推奨車線54の存在を乗員に認知させることを目的とする。 As for the image 53 of the first guide object, as shown in FIG. It is displayed superimposed on the area spanning up to 54. Specifically, until the vehicle approaches the guidance junction within a threshold (for example, within 700 m on a highway), the vehicle is superimposed only on the recommended lane 54, regardless of whether or not the own vehicle is traveling on the recommended lane 54. (first display mode). At this stage, the purpose is to make the occupants aware of the existence of the recommended lane 54 rather than to encourage them to move to the recommended lane 54.

その後、上記第1案内オブジェクトの画像53が表示された状態で車両が推奨車線54に移動することなく案内分岐点に閾値以内(例えば高速道路では700m以内)まで接近した場合には、自車走行車線55から推奨車線54まで跨る領域に重畳する新たな第1案内オブジェクトの画像53が表示される(第2の表示態様)。それによって、推奨車線54への移動を行わない乗員に対して推奨車線への移動を促すことが可能となる。尚、上記推奨車線への移動を促す案内を行うに際して、第1実施形態では自車走行車線55から推奨車線54までを含む広い領域に対して第1案内オブジェクトの画像53が表示されるので、矢印などの画像を表示する場合と比較して推奨車線への車線変更を促す強制感のある案内を抑制することが可能となる。 Thereafter, if the vehicle approaches the guidance branch point within a threshold value (for example, within 700 m on an expressway) without moving to the recommended lane 54 while the image 53 of the first guidance object is displayed, the vehicle will move forward. An image 53 of a new first guide object superimposed on the area spanning from the lane 55 to the recommended lane 54 is displayed (second display mode). Thereby, it becomes possible to urge the occupant who does not move to the recommended lane 54 to move to the recommended lane. Note that when providing guidance to encourage movement to the recommended lane, in the first embodiment, the image 53 of the first guidance object is displayed over a wide area including the own vehicle driving lane 55 to the recommended lane 54. Compared to the case where images such as arrows are displayed, it is possible to suppress guidance that feels forced to prompt a lane change to a recommended lane.

但し、車両が案内分岐点に閾値以内(例えば高速道路では700m以内)まで接近した場合であっても推奨車線54を走行する状態では、推奨車線への移動を促す必要がないので第1案内オブジェクトの画像53は推奨車線54(自車走行車線55にも該当)のみに重畳して表示する(第1の表示態様)。 However, even if the vehicle approaches the guidance branch point within a threshold (for example, within 700m on a highway) and is traveling in the recommended lane 54, there is no need to prompt the vehicle to move to the recommended lane, so the first guidance object The image 53 is displayed superimposed only on the recommended lane 54 (which also corresponds to the own vehicle driving lane 55) (first display mode).

また、図5に示す第1案内オブジェクトの画像53は基本的にフロントカメラ19により撮像された撮像画像の画像認識結果に対する信頼度が高い場合(より具体的には画像認識により特定される道路の車線数や自車の走行車線の結果に対する信頼度が高い場合)にのみ表示され、信頼度が低い場合については基本的に表示されない。但し、信頼度が低い場合であっても後述の第2案内オブジェクトのように自車走行車線に依存しない(自車走行車線を用いない、自車走行車線に基づかない、自車走行車線に影響されない)態様(案内分岐点の退出方向のみを示す矢印)での案内を行うことは可能である Moreover, the image 53 of the first guide object shown in FIG. It is displayed only when the reliability of the results of the number of lanes and the driving lane of the own vehicle is high), and is generally not displayed when the reliability is low. However, even if the reliability is low, it does not depend on the vehicle's driving lane like the second guide object described later (does not use the vehicle's driving lane, is not based on the vehicle's driving lane, does not affect the vehicle's driving lane) It is possible to provide guidance in the following manner (an arrow indicating only the direction of exit from a guidance junction)

また、上記実施例では案内分岐点までの距離に応じて第1の表示態様から第2の表示態様へと切り替えを行っているが、第2の表示態様による表示は行わずに常に第1の表示態様により表示を行うようにしても良い。また、案内分岐点までの距離を第1案内オブジェクトの画像53に対して表示するようにしても良い。その後、S3へと戻り、案内分岐点までの距離が退出方向案内開始距離未満となるまで第1の案内オブジェクトの画像53を継続して表示する。第1の案内オブジェクトについては後程より詳細に説明する。 Further, in the above embodiment, the first display mode is switched to the second display mode depending on the distance to the guidance branch point, but the first display mode is not displayed and the first display mode is always displayed. The display may be performed depending on the display mode. Further, the distance to the guidance branch point may be displayed on the image 53 of the first guidance object. Thereafter, the process returns to S3, and the image 53 of the first guide object is continuously displayed until the distance to the guide branch point becomes less than the exit direction guide start distance. The first guide object will be explained in more detail later.

一方、S6においてCPU41は、案内分岐点の退出方向を示す矢印を案内オブジェクト(以下、第2案内オブジェクトという)として表示対象とし、液晶ディスプレイ15に対して表示する第2案内オブジェクトの大きさ、形状及び第2案内オブジェクトを表示する位置(範囲)を決定する。尚、第1実施形態では第2案内オブジェクトは、車両の現在位置に対して所定距離前方(例えば10m前方)で且つ道路路面から所定高さ(例えば1m)上方にあって車両の進行方向前方にある案内分岐点の退出方向を示す三角形状の3つの矢印とする。 On the other hand, in S6, the CPU 41 sets the arrow indicating the exit direction of the guidance branch point to be displayed as a guidance object (hereinafter referred to as a second guidance object), and determines the size and shape of the second guidance object to be displayed on the liquid crystal display 15. and determine the position (range) where the second guide object is displayed. In the first embodiment, the second guide object is located a predetermined distance ahead of the vehicle's current position (for example, 10 m ahead) and a predetermined height (for example, 1 m) above the road surface, and ahead in the direction of travel of the vehicle. Three arrows in a triangular shape indicate the direction of exit from a certain guidance branch point.

続いて、S7においてCPU41は、前記S6で決定された大きさ及び形状の第2案内オブジェクトの画像を生成し、更に液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に対して生成された第2案内オブジェクトの画像を前記S6で決定された位置(範囲)に対して描画する。尚、液晶ディスプレイ15には車両から案内分岐点までの距離が案内開始距離未満となる前に予めフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)が表示されている。その結果、車両の乗員に風景に重畳された第2案内オブジェクトを視認させることが可能となる。 Subsequently, in S7, the CPU 41 generates an image of the second guide object having the size and shape determined in S6, further transmits a control signal to the liquid crystal display 15, and sends the image of the second guide object to the liquid crystal display 15. The image of the second guide object is drawn at the position (range) determined in S6. The liquid crystal display 15 displays an image taken in advance by the front camera 19 before the distance from the vehicle to the guidance branch point becomes less than the guidance start distance, that is, the current scenery around the vehicle (especially in front of the vehicle) (actual scene image). is displayed. As a result, it becomes possible for the occupant of the vehicle to visually recognize the second guide object superimposed on the scenery.

図4は前記S7において液晶ディスプレイ15に表示される走行案内画面51の例を示した図である。図4に示すように液晶ディスプレイ15には、フロントカメラ19により撮像された現時点の車両前方の風景52が表示される。そして、車両の現在位置が案内分岐点に対して退出方向案内開始距離以内に接近した状態(例えば案内分岐点まで500m以内)では、その車両前方の風景52に重畳して第2案内オブジェクトの画像57が表示される。より具体的には車両が現在走行する道路の上方で車両の今後の進路に沿った位置に、案内分岐点の退出方向を示す複数個の矢印が第2案内オブジェクトの画像57として表示される。 FIG. 4 is a diagram showing an example of the travel guide screen 51 displayed on the liquid crystal display 15 in S7. As shown in FIG. 4, the liquid crystal display 15 displays a current scene 52 in front of the vehicle captured by the front camera 19. When the current position of the vehicle approaches the guidance branch point within the exit direction guidance start distance (for example, within 500 m to the guidance junction), the image of the second guidance object is superimposed on the scenery 52 in front of the vehicle. 57 is displayed. More specifically, a plurality of arrows indicating the exit direction of the guidance branch point are displayed as the image 57 of the second guidance object at a position along the future course of the vehicle above the road on which the vehicle is currently traveling.

尚、第2案内オブジェクトの画像57については、複数の矢印形状のオブジェクトの画像を含み、複数のオブジェクトの画像を車両が現在走行する道路の上方に対して車両の今後の進路に沿って所定間隔で位置するように表示する。各矢印の向きは車両の案内分岐点の退出方向を示す。また、第2案内オブジェクトの画像57は、車両が案内分岐点から離れた状態では車両との相対位置が固定された態様(以下、第1の態様という)で表示され、車両が案内分岐点にある程度まで近づくと、風景52内にある案内分岐点との相対位置が固定された態様(以下、第2の態様という)に切り替えて表示される。特に第2の態様では第2案内オブジェクトの画像57の一部が案内分岐点に重畳した状態で固定される。従って、走行案内画面51を車両の乗員が視認した場合に、車両の進路や、右左折対象となる案内分岐点の位置や、案内交差点における退出方向を正確に把握できる。その後、車両が案内分岐点を通過するまで第2案内オブジェクトの画像57を継続して表示する。 The image 57 of the second guide object includes images of a plurality of arrow-shaped objects, and the images of the plurality of objects are arranged at predetermined intervals along the future course of the vehicle above the road on which the vehicle is currently traveling. Display the position at . The direction of each arrow indicates the exit direction of the vehicle from the guidance branch point. Further, the image 57 of the second guide object is displayed in a manner in which the relative position with respect to the vehicle is fixed (hereinafter referred to as the first aspect) when the vehicle is away from the guidance junction, and when the vehicle is away from the guidance junction. When approaching a certain point, the display is switched to a mode (hereinafter referred to as a second mode) in which the relative position with respect to the guide branch point in the scenery 52 is fixed. In particular, in the second mode, a part of the image 57 of the second guide object is fixed in a state superimposed on the guide branch point. Therefore, when the vehicle occupant visually confirms the travel guidance screen 51, he or she can accurately grasp the course of the vehicle, the position of the guidance branch point to be turned left or right, and the exit direction at the guidance intersection. Thereafter, the image 57 of the second guide object is continuously displayed until the vehicle passes the guide branch point.

その後、S8においてCPU41は、車両が案内分岐点を通過したか否かを判定する。例えば現在位置検出部11で検出された車両の現在位置と地図情報に基づいて判定される。 Thereafter, in S8, the CPU 41 determines whether the vehicle has passed through a guidance branch point. For example, the determination is made based on the current position of the vehicle detected by the current position detection unit 11 and map information.

そして、車両が案内分岐点を通過したと判定された場合(S8:YES)には、液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に表示されていた案内オブジェクトを非表示とする(S9)。尚、案内オブジェクトを非表示とする場合には、表示されている案内オブジェクトの画像の透過率を案内分岐点までの距離に応じで段階的に上昇させ、最終的に車両が案内分岐点に到達するタイミングで透過率が100%とするのが望ましい。また、フロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)については案内オブジェクトを非表示とした後も一定期間継続して表示された後に地図画像の表示へと切り替わる。 If it is determined that the vehicle has passed the guidance branch point (S8: YES), a control signal is sent to the liquid crystal display 15, and the guidance object displayed on the liquid crystal display 15 is hidden. (S9). In addition, when hiding the guidance object, the transmittance of the image of the displayed guidance object is increased in stages according to the distance to the guidance junction, until the vehicle finally reaches the guidance junction. It is desirable that the transmittance be 100% at the timing of the change. In addition, regarding the captured image captured by the front camera 19, that is, the scenery (actual scene image) around the vehicle (especially in front of the vehicle) at the current moment, the map image is displayed continuously for a certain period of time even after the guide object is hidden. Switch to display.

一方、車両が案内分岐点を通過していないと判定された場合(S8:NO)にはS6へと戻り、案内オブジェクトの表示を継続して行う。 On the other hand, if it is determined that the vehicle has not passed the guidance branch point (S8: NO), the process returns to S6 and the guidance object continues to be displayed.

次に、前記S4において実行される第1案内オブジェクト表示位置決定処理のサブ処理について図5に基づき説明する。図5は第1案内オブジェクト表示位置決定処理のサブ処理プログラムのフローチャートである。 Next, the sub-processing of the first guide object display position determining process executed in S4 will be described based on FIG. 5. FIG. 5 is a flowchart of a sub-processing program of the first guide object display position determination process.

先ず、S11においてCPU41は、車両が現在走行する道路において走行を推奨される車線である“推奨車線”を特定する。具体的にはCPU41は、地図情報と案内経路に基づいて、車両の前方にある案内分岐点を案内経路に沿った退出方向(案内方向)へと通過するために走行する必要のある車線を推奨車線として特定する。より具体的には、案内分岐点における車両の退出方向に対応する車線を推奨車線として取得する。尚、地図情報に含まれるリンクデータ32には車線毎の進行方向の通行区分について格納され、分岐点データ34には分岐点の形状について格納されており、それらの情報を用いて推奨車線を特定する。例えば、図6に示すように高速道路を走行する車両の進行方向前方にある案内分岐点60での退出方向(案内方向)が取付道路のある斜め左方向である場合には、自車の走行する道路の3車線の内、最も左側に位置する車線が推奨車線となる。一方で図7に示すように一般道を走行する車両の進行方向前方にある案内分岐点60での退出方向(案内方向)が右方向である場合には、自車の走行する道路の4車線の内、右折の通行区分に対応する最も右側に位置する車線が推奨車線となる。尚、推奨車線は1車線のみであるとは限らず、2車線以上ある場合もある。 First, in S11, the CPU 41 specifies a "recommended lane" which is a lane in which the vehicle is recommended to drive on the road on which the vehicle is currently traveling. Specifically, the CPU 41 recommends the lane in which the vehicle needs to travel in order to pass through the guidance branch point in front of the vehicle in the exit direction (guidance direction) along the guidance route, based on the map information and the guidance route. Identify as a lane. More specifically, the lane corresponding to the exit direction of the vehicle at the guidance branch point is acquired as the recommended lane. Note that the link data 32 included in the map information stores the traffic classification of each lane in the direction of travel, and the branch point data 34 stores the shape of the branch point, and these pieces of information are used to identify the recommended lane. do. For example, as shown in FIG. 6, if the exit direction (guidance direction) at the guidance branch point 60 located in front of the vehicle traveling on the expressway is diagonally to the left of the access road, Of the three lanes on the road, the lane furthest to the left is the recommended lane. On the other hand, as shown in FIG. 7, if the exit direction (guidance direction) at the guidance branch point 60 located in front of the vehicle traveling on the general road is to the right, the exit direction (guidance direction) is to the right. The lane located on the far right side corresponding to the right-turn traffic classification is the recommended lane. Note that the recommended lane is not necessarily only one lane, but may include two or more lanes.

次に、S12においてCPU41は、フロントカメラ19で撮像した画像に対して画像処理を施すことにより、車両の周辺に位置する地物を認識(検出)する。具体的には路面(自車両の走行する車線の路面に加えて、自車両の走行する車線以外の車線の路面も含む)に描かれた区画線と、道路端(具体的には車道の端であり歩道がある場合には車道と歩道との境界となる)を認識(検出)対象とする。 Next, in S12, the CPU 41 performs image processing on the image captured by the front camera 19 to recognize (detect) a feature located around the vehicle. Specifically, the marking lines drawn on the road surface (including the road surface of the lane in which the own vehicle is traveling, as well as the road surface of lanes other than the lane in which the own vehicle is traveling), and the road edges (specifically, the edges of the roadway) If there is a sidewalk, the boundary between the road and the sidewalk) is targeted for recognition (detection).

尚、前記S12で認識(検出)対象とする地物は基本的に対向車線側にある地物は含まれないが、例えば一般道において自車の進行方向に対応する車線と対向車線との間に中央分離帯がなく中央線で区分されている場合、或いは中央線も存在しない場合については対向車線にある地物についても認識(検出)対象に含まれることとなる。但し、その場合においても後述のS15で特定される車線数は自車の進行方向に対応する車線(対向車線は含まない)の車線数である。尚、区画線については区画線の色や種別(実線、破線など)についても検出するのが望ましい。また、道路端については基本的には道路端に設けられたブロック、ガードレール、中央分離帯などの構造物を道路端として検出するが、そのような構造物が道路端にない道路についてはアスファルトの切れ目や最も外側にある区画線(対向車線と中央線で区分されている場合には中央線も道路端になる)を道路端として検出しても良い。 Note that the features to be recognized (detected) in S12 above basically do not include features on the oncoming lane, but, for example, on a general road, the features between the lane corresponding to the direction of travel of the host vehicle and the oncoming lane. If there is no median strip and the vehicle is divided by a center line, or if there is no center line, features in the oncoming lane will also be included in the recognition (detection) targets. However, even in this case, the number of lanes specified in S15, which will be described later, is the number of lanes corresponding to the traveling direction of the host vehicle (excluding oncoming lanes). Note that it is desirable to also detect the color and type (solid line, broken line, etc.) of the lane markings. In addition, structures such as blocks, guardrails, and median strips installed at the road edge are basically detected as road edges, but for roads that do not have such structures at the road edge, asphalt is detected. A break or the outermost division line (if the vehicle is divided by an oncoming lane and a center line, the center line also becomes the road edge) may be detected as the road edge.

以下に前記S12における区画線の検出処理について簡単に説明する。先ず、CPU41は、フロントカメラ19で撮像した撮像画像中にある区画線を検出する為に、路面と区画線を輝度差に基づいて輝度補正を行う。その後、区画線を画像から分離する2値化処理、歪みを補正する幾何学処理、画像の雑音を除去する平滑化処理等を行い、路面と区画線との境界線を検出する。検出された境界線によって区画線の存在や種別が特定される。また区画線と検出された範囲の画像部分を抽出して色認識(RGB値検出)を行うことにより区画線の色についても検出可能となる。 The marking line detection process in S12 will be briefly described below. First, in order to detect the marking line in the image taken by the front camera 19, the CPU 41 performs brightness correction between the road surface and the marking line based on the brightness difference. Thereafter, binarization processing to separate the marking line from the image, geometric processing to correct distortion, smoothing processing to remove image noise, etc. are performed to detect the boundary line between the road surface and the marking line. The existence and type of the lot line are identified based on the detected boundary line. Further, by extracting the image portion of the range where the lane markings are detected and performing color recognition (RGB value detection), the color of the lane markings can also be detected.

次に前記S12における道路端の検出処理について簡単に説明する。先ず、CPU41は、フロントカメラ19で撮像した撮像画像中にある道路端を検出する為に、路面と道路端に設けられた構造物(ブロック、ガードレール、中央分離帯等)を輝度差に基づいて輝度補正を行う。その後、それら構造物を画像から分離する2値化処理、歪みを補正する幾何学処理、画像の雑音を除去する平滑化処理等を行い、路面と構造物との境界線を検出する。検出された境界線によって道路端の存在が特定される。尚、区画線や道路端の検出には、特徴点やテンプレートを用いたパターンマッチング処理を行っても良い。それらの画像認識処理については既に公知であるので詳細は省略する。また、区画線や道路端以外に道路上に位置する他車両等についても検出対象としても良い。 Next, the road edge detection process in S12 will be briefly described. First, in order to detect the road edge in the image captured by the front camera 19, the CPU 41 detects the road surface and structures provided at the road edge (blocks, guardrails, median strips, etc.) based on the brightness difference. Perform brightness correction. Thereafter, the boundary line between the road surface and the structure is detected by performing binarization processing to separate these structures from the image, geometric processing to correct distortion, smoothing processing to remove noise from the image, etc. The existence of the road edge is identified by the detected boundary line. Note that pattern matching processing using feature points or templates may be performed to detect lane markings and road edges. Since these image recognition processes are already known, details will be omitted. Furthermore, other vehicles located on the road other than the marking lines and road edges may also be detected.

続いて、S13においてCPU41は、フロントカメラ19により撮像された撮像画像の画像認識結果(より具体的には画像認識により特定される道路の車線数や自車の走行車線の結果)にどの程度の信頼性があるかを示す信頼度を算出する。特に本実施形態では(a)車両の進行方向に対して右側にある区画線と道路端の画像認識結果に対する信頼度である右側信頼度と、(b)車両の進行方向に対して左側にある区画線と道路端の画像認識結果に対する信頼度である左側信頼度と、(c)右側信頼度と左側信頼度とを総括した信頼度(トータルの信頼度)である総括信頼度と、を算出する。 Next, in S13, the CPU 41 determines how much the image recognition result of the image taken by the front camera 19 (more specifically, the number of lanes on the road identified by image recognition and the result of the driving lane of the own vehicle) is applied. Calculate the degree of reliability that indicates whether it is reliable. In particular, in this embodiment, (a) the right-side reliability is the reliability of the image recognition result of the lane markings and road edges on the right side with respect to the direction of travel of the vehicle, and (b) the reliability on the left side with respect to the direction of travel of the vehicle Calculate the left-side reliability, which is the reliability of the image recognition results of the lane markings and road edges, and (c) the overall reliability, which is the reliability that summarizes the right-side reliability and the left-hand reliability (total reliability). do.

以下に、右側信頼度、左側信頼度、総括信頼度の各信頼度の算出方法について例を挙げて説明する。
[右側信頼度]
先ず自車の走行車線に対して右側に存在する各区画線について、以下の式(1)により区画線毎の信頼度(以下、区画線信頼度Cという)を算出する。例えば、図8に示すように片側3車線の高速道路において自車が中央の車線を走行する場合については、自車走行車線の右側に車線境界線66と車道外側線65が存在し、それら2本の区画線に対して夫々区画線信頼度Cが算出される。また、図9に示すように片側3車線の高速道路において自車が最も右側の車線を走行する場合については、自車走行車線の右側に車道外側線65が存在し、その1本の区画線に対して区画線信頼度Cが算出される。また、図10に示すように片側3車線の高速道路において自車が最も左側の車線を走行する場合については、自車走行車線の右側に車線境界線63と車線境界線66と車道外側線65が存在し、それら3本の区画線に対して夫々区画線信頼度Cが算出される。
C=(10×V1+V2+V3+V4)/13・・・・(1)
ここで、V1は、区画線信頼度Cの算出対象となる区画線が前記S12の画像認識処理で検出できたか否か(存在すべき場所に区画線の存在を認識できたか否か)であり、検出できた場合には“1”、検出できなかった場合は“0”とする。
また、V2は、区画線信頼度Cの算出対象となる区画線の色が前記S12の画像認識処理で検出できたか否かであり、検出できた場合には“1”、検出できなかった場合は“0”とする。尚、区画線の色が検出できた場合であっても地図情報などを用いて推定される色と一致しない場合については“0”としても良い。
また、V3は、区画線信頼度Cの算出対象となる区画線の種別(例えば実線、破線)が前記S12の画像認識処理で検出できたか否かであり、検出できた場合には“1”、検出できなかった場合は“0”とする。尚、区画線の種別が検出できた場合であっても地図情報などを用いて推定される種別と一致しない場合については“0”としても良い。
また、V4は、区画線信頼度Cの算出対象となる区画線の特に道路の進行方向に対する傾きを前記S12の画像認識処理により検出し、検出された傾きが閾値(例えば10度)未満の場合には“1”、閾値以上の場合は“0”とする。
その後、自車走行車線に対して右側に存在する各区画線に対して算出された区画線信頼度Cを加算して右側信頼度CRを算出する。尚、右側信頼度CRを算出する場合には、車両から近い位置にある区画線の区画線信頼度Cよりも遠い位置にある区画線の区画線信頼度Cを重視して算出する。例えば、図8に示すように片側3車線の高速道路において自車が中央の車線を走行する場合について、自車走行車線に対して最も近い位置にある車線境界線66に対して算出された区画線信頼度CをC、自車走行車線に対して2番目に近い位置にある車道外側線65に対して算出された区画線信頼度CをCとすると、以下の式(2)により右側信頼度CRが算出される。
CR=(C+2×C)/3・・・・(2)
また、図9に示すように片側3車線の高速道路において自車が最も右側の車線を走行する場合について、自車走行車線の右側に唯一ある車道外側線65に対して算出された区画線信頼度CをCとすると、以下の式(3)により右側信頼度CRが算出される。
CR=C・・・・(3)
また、図10に示すように片側3車線の高速道路において自車が最も左側の車線を走行する場合について、自車走行車線に対して最も近い位置にある車線境界線63に対して算出された区画線信頼度CをC、自車走行車線に対して2番目に近い位置にある車線境界線66に対して算出された区画線信頼度CをC、自車走行車線に対して3番目に近い位置にある車道外側線65に対して算出された区画線信頼度CをCとすると、以下の式(4)により右側信頼度CRが算出される。
CR=(C+2×C+4×C)/7・・・・(4)
尚、上記式(2)~(4)において各区画線信頼度Cに乗じられる係数は適宜変更可能であるが、自車走行車線に対して遠い位置にある区画線に対して算出された区画線信頼度Cに対してより大きい係数が乗じられるように設定するのが望ましい。
上記式(2)~(4)により最終的に算出された右側信頼度CRは0以上1以下の値となり1に近い程、車両の進行方向に対して右側にある区画線と道路端の画像認識結果に対する信頼度、即ち道路右端を基準として特定する自車走行車線(右側の道路端から自車走行車線までの車線の数)の信頼度が高いことを示す。
[左側信頼度]
先ず自車の走行車線に対して左側に存在すると推定される各区画線について、上記した式(1)により同様に区画線毎の区画線信頼度Cを算出する。例えば、図8に示すように片側3車線の高速道路において自車が中央の車線を走行する場合については、自車走行車線の左側に車道外側線62と車線境界線63が存在し、それら2本の区画線に対して夫々区画線信頼度Cが算出される。また、図9に示すように片側3車線の高速道路において自車が最も右側の車線を走行する場合については、自車走行車線の左側に車道外側線62と車線境界線63と車線境界線66が存在し、それら3本の区画線に対して夫々区画線信頼度Cが算出される。また、図10に示すように片側3車線の高速道路において自車が最も左側の車線を走行する場合については、自車走行車線の左側に車道外側線62が存在し、その1本の区画線に対して区画線信頼度Cが算出される。尚、区画線信頼度Cの算出方法については前述した右側信頼度と同様であるので省略する。
その後、自車走行車線に対して左側に存在すると推定される各区画線に対して算出された区画線信頼度Cを加算して左側信頼度CLを算出する。尚、左側信頼度CLを算出する場合には、車両から近い位置にある区画線の区画線信頼度Cよりも遠い位置にある区画線の区画線信頼度Cを重視して算出する。例えば、図8に示すように片側3車線の高速道路において自車が中央の車線を走行する場合について、自車走行車線に対して最も近い位置にある車線境界線63に対して算出された区画線信頼度CをC、自車走行車線に対して2番目に近い位置にある車道外側線62に対して算出された区画線信頼度CをCとすると、以下の式(5)により左側信頼度CLが算出される。
CL=(C+2×C)/3・・・・(5)
また、図9に示すように片側3車線の高速道路において自車が最も右側の車線を走行する場合について、自車走行車線に対して最も近い位置にある車線境界線66に対して算出された区画線信頼度CをC、自車走行車線に対して2番目に近い位置にある車線境界線63に対して算出された区画線信頼度CをC、自車走行車線に対して3番目に近い位置にある車道外側線62に対して算出された区画線信頼度CをCとすると、以下の式(6)により左側信頼度CLが算出される。
CL=(C+2×C+4×C)/7・・・・(6)
また、図10に示すように片側3車線の高速道路において自車が最も左側の車線を走行する場合について、自車走行車線の左側に唯一ある車道外側線62に対して算出された区画線信頼度CをCとすると、以下の式(7)により左側信頼度CLが算出される。
CL=C・・・・(7)
尚、上記式(5)~(7)において各区画線信頼度Cに乗じられる係数は適宜変更可能であるが、自車走行車線に対して遠い位置にある区画線に対して算出された区画線信頼度Cに対してより大きい係数が乗じられるように設定するのが望ましい。
上記式(5)~(7)により最終的に算出された左側信頼度CLは0以上1以下の値となり1に近い程、車両の進行方向に対して左側にある区画線と道路端の画像認識結果に対する信頼度、即ち道路左端を基準として特定する自車走行車線(左側の道路端から自車走行車線までの車線の数)の信頼度が高いことを示す。
[総括信頼度]
最後に上記のように算出された右側信頼度CRと左側信頼度CLを加算して総括信頼度CTを算出する。尚、総括信頼度CTを算出する場合には右側信頼度CRと左側信頼度CLを単に加算しても良いし、いずれか一方に重み付けを行って加算しても良い。例えば以下の式(8)により総括信頼度CTが算出される。
CT=(CR+CL)/2・・・・(8)
尚、上記式(8)により最終的に算出された総括信頼度CTは0以上1以下の値となり1に近い程、左右を問わずフロントカメラ19により撮像された撮像画像の画像認識結果に対する信頼度が高いことを示す。
Below, a method for calculating each reliability including right-side reliability, left-side reliability, and overall reliability will be explained by giving an example.
[Right side reliability]
First, the reliability of each marking line (hereinafter referred to as marking line reliability C) is calculated using the following equation (1) for each marking line existing on the right side of the driving lane of the own vehicle. For example, as shown in FIG. 8, when the vehicle is driving in the center lane on a highway with three lanes on each side, there is a lane boundary line 66 and a road outside line 65 on the right side of the lane in which the vehicle is traveling; A marking line reliability C is calculated for each marking line of the book. In addition, as shown in FIG. 9, when the vehicle is traveling in the rightmost lane on a highway with three lanes on each side, there is a roadway outside line 65 on the right side of the lane in which the vehicle is traveling, and that one marking line Compartment line reliability C is calculated for . In addition, as shown in FIG. 10, when the vehicle is traveling in the leftmost lane on a highway with three lanes on each side, there is a lane boundary line 63, a lane boundary line 66, and a roadway outer line 65 on the right side of the lane in which the vehicle is traveling. exist, and the marking line reliability C is calculated for each of these three marking lines.
C=(10×V1+V2+V3+V4)/13...(1)
Here, V1 is whether or not the lot line that is the target of calculation of the lot line reliability C could be detected by the image recognition process in S12 (whether the presence of the lot line could be recognized where it should exist). , if detected, it is set to "1", and if not detected, it is set to "0".
Further, V2 indicates whether or not the color of the partition line that is the target of calculation of the partition line reliability C could be detected by the image recognition process in S12, and is "1" if it was detected, and "1" if it could not be detected. is “0”. Note that even if the color of the marking line can be detected, it may be set to "0" if it does not match the color estimated using map information or the like.
Further, V3 indicates whether or not the type of lane marking (for example, solid line, broken line) that is the target of calculation of lane marking reliability C was detected in the image recognition process of S12, and if it was detected, it is set as "1". , if it cannot be detected, it is set to "0". Note that even if the type of lane marking can be detected, it may be set to "0" if it does not match the type estimated using map information or the like.
Further, V4 detects the inclination of the marking line, which is the object of calculation of the marking line reliability C, particularly with respect to the traveling direction of the road, by the image recognition process of S12, and if the detected inclination is less than a threshold value (for example, 10 degrees) It is set to "1" when the value is higher than the threshold value, and "0" when the value is equal to or higher than the threshold value.
Thereafter, the lane marking reliability C calculated for each lane marking on the right side with respect to the lane in which the vehicle is traveling is added to calculate the right side reliability CR. Note that when calculating the right side reliability CR, it is calculated by giving more importance to the lane marking reliability C of a lane marking located further away from the vehicle than the lane marking reliability C of a lane marking nearer to the vehicle. For example, as shown in FIG. 8, when the vehicle is traveling in the center lane on an expressway with three lanes on each side, the division calculated for the lane boundary line 66 that is closest to the lane in which the vehicle is traveling is calculated. Assuming that the line reliability C is C 1 and the marking line reliability C calculated for the roadway outside line 65 located at the second closest position to the vehicle's driving lane is C 2 , the following formula (2) is used. The right side reliability CR is calculated.
CR=(C 1 +2×C 2 )/3...(2)
In addition, as shown in FIG. 9, when the vehicle is driving in the rightmost lane on a highway with three lanes on each side, the lane line reliability calculated for the only outside road line 65 on the right side of the lane the vehicle is traveling in is also calculated. Assuming that the degree C is C1 , the right side reliability CR is calculated by the following equation (3).
CR=C 1 ...(3)
In addition, as shown in Fig. 10, when the vehicle is traveling in the leftmost lane on a highway with three lanes on each side, the calculation is made for the lane boundary line 63 that is closest to the lane in which the vehicle is traveling. The marking line reliability C is C 1 , the marking line reliability C calculated for the lane boundary line 66 that is the second closest to the lane in which the vehicle is traveling is C 2 , and the reliability C is 3 for the lane in which the vehicle is traveling. If the marking line reliability C calculated for the roadway outside line 65 located at the closest position is C3 , the right side reliability CR is calculated by the following equation (4).
CR=(C 1 +2×C 2 +4×C 3 )/7 (4)
In addition, in the above formulas (2) to (4), the coefficient multiplied by each marking line reliability C can be changed as appropriate, but It is desirable to set the line reliability C to be multiplied by a larger coefficient.
The right side reliability CR finally calculated by the above formulas (2) to (4) is a value between 0 and 1, and the closer it is to 1, the more the image of the marking line and road edge is on the right side with respect to the direction of travel of the vehicle. This indicates that the reliability of the recognition result, that is, the reliability of the lane in which the vehicle is traveling specified based on the right edge of the road (the number of lanes from the right edge of the road to the lane in which the vehicle is traveling) is high.
[Left side reliability]
First, for each marking line that is estimated to exist on the left side with respect to the driving lane of the host vehicle, the marking line reliability C for each marking line is similarly calculated using the above-mentioned formula (1). For example, as shown in FIG. 8, when the vehicle is driving in the center lane on a highway with three lanes on each side, there is a roadway outside line 62 and a lane boundary line 63 on the left side of the lane in which the vehicle is traveling; A marking line reliability C is calculated for each marking line of the book. In addition, as shown in FIG. 9, when the vehicle is traveling in the rightmost lane on a highway with three lanes on each side, there is a roadway outer line 62, a lane boundary line 63, and a lane boundary line 66 on the left side of the vehicle's driving lane. exist, and the marking line reliability C is calculated for each of these three marking lines. In addition, as shown in FIG. 10, when the vehicle is driving in the leftmost lane on a highway with three lanes on each side, there is a roadway outside line 62 on the left side of the lane in which the vehicle is traveling, and that one marking line Compartment line reliability C is calculated for . Note that the calculation method for the lane marking reliability C is the same as that for the right-side reliability described above, so a description thereof will be omitted.
Thereafter, the left side reliability CL is calculated by adding the lane marking reliability C calculated for each lane marking that is estimated to exist on the left side with respect to the lane in which the vehicle is traveling. Note that when calculating the left-side reliability CL, the calculation is performed with more emphasis on the lane marking reliability C of a lane marking located further away from the vehicle than the lane line reliability C of a lane marking nearer to the vehicle. For example, as shown in FIG. 8, when the vehicle is traveling in the center lane on an expressway with three lanes on each side, the division calculated for the lane boundary line 63 that is closest to the lane in which the vehicle is traveling is calculated. Assuming that the line reliability C is C 1 and the marking line reliability C calculated for the roadway outside line 62 located at the second closest position to the vehicle's driving lane is C 2 , the following formula (5) is used. The left side reliability CL is calculated.
CL=(C 1 +2×C 2 )/3 (5)
In addition, as shown in FIG. 9, when the vehicle is traveling in the rightmost lane on an expressway with three lanes on each side, the calculation is made for the lane boundary line 66 that is closest to the lane in which the vehicle is traveling. The marking line reliability C is C 1 , the marking line reliability C calculated for the lane boundary line 63 at the second closest position to the lane in which the vehicle is traveling is C 2 , and the reliability C is 3 for the lane in which the vehicle is traveling. If the marking line reliability C calculated for the roadway outside line 62 located at the closest position is C3 , then the left side reliability CL is calculated by the following equation (6).
CL=(C 1 +2×C 2 +4×C 3 )/7 (6)
In addition, as shown in FIG. 10, when the vehicle is driving in the leftmost lane on a highway with three lanes on each side, the lane marking reliability calculated for the only outside road line 62 on the left side of the lane in which the vehicle is traveling is calculated. Assuming that the degree C is C1 , the left side reliability degree CL is calculated by the following equation (7).
CL=C 1 ...(7)
In addition, in the above formulas (5) to (7), the coefficient multiplied by each marking line reliability C can be changed as appropriate, but It is desirable to set the line reliability C to be multiplied by a larger coefficient.
The left side reliability CL finally calculated by the above equations (5) to (7) is a value between 0 and 1, and the closer it is to 1, the more the image of the lane marking and road edge is on the left with respect to the vehicle's direction of travel. This indicates that the reliability of the recognition result, that is, the reliability of the lane in which the vehicle is traveling specified based on the left edge of the road (the number of lanes from the left edge of the road to the lane in which the vehicle is traveling) is high.
[Overall reliability]
Finally, the overall reliability CT is calculated by adding the right reliability CR and the left reliability CL calculated as described above. Note that when calculating the overall reliability CT, the right-side reliability CR and the left-side reliability CL may be simply added, or either one may be weighted and added. For example, the overall reliability CT is calculated using the following equation (8).
CT=(CR+CL)/2...(8)
The overall reliability CT finally calculated by the above formula (8) is a value between 0 and 1, and the closer it is to 1, the more reliable is the image recognition result of the image taken by the front camera 19 regardless of the left or right side. Indicates a high degree of

続いて、S14においてCPU41は、前記S13で算出された総括信頼度CTが所定の基準値以上か否かを判定する。尚、基準値は適宜設定可能であるが例えば0.8とする。 Subsequently, in S14, the CPU 41 determines whether the overall reliability CT calculated in S13 is greater than or equal to a predetermined reference value. Note that the reference value can be set as appropriate, but is set to 0.8, for example.

尚、前記S14では総括信頼度CTではなく右側信頼度CR又は左側信頼度CLが基準値以上か否かを判断しても良い。より具体的には、前記S13で算出された右側信頼度CRと左側信頼度CLの内、案内分岐点における車両の退出方向に対応する信頼度が基準値以上か否かを判定する。また、車両の退出方向に対応する信頼度とは、例えば車両が案内分岐点で右方向に退出するのであれば車両の退出方向に対応するのは右側信頼度CRとなり、車両が案内分岐点で左方向に退出するのであれば車両の退出方向に対応するのは左側信頼度CLとなる。ここで、図6や図7に示すように推奨車線は基本的に案内分岐点の退出方向に存在する。従って例えば案内分岐点の退出方向が右方向である場合には道路右端を基準として特定する自車走行車線の位置の信頼度である右側信頼度CRが高ければ、少なくとも自車走行車線と推奨車線の位置関係は信頼できる。即ち実景重畳を行う場合において風景内の自車走行車線と推奨車線が存在する位置について正確に推定できる。一方、案内分岐点の退出方向が左方向である場合には道路左端を基準として特定する自車走行車線の位置の信頼度である左側信頼度CLが高ければ、少なくとも自車走行車線と推奨車線の位置関係は信頼できる。即ち実景重畳を行う場合において風景内の自車走行車線と推奨車線が存在する位置について正確に推定できる。 In S14, it may be determined whether the right side reliability CR or the left side reliability CL is equal to or higher than a reference value, instead of the overall reliability CT. More specifically, it is determined whether or not the reliability corresponding to the exit direction of the vehicle at the guidance branch point is greater than or equal to a reference value, out of the right side reliability CR and the left side reliability CL calculated in S13. In addition, the reliability corresponding to the exit direction of the vehicle is, for example, if the vehicle exits to the right at the guidance junction, the right reliability CR corresponds to the exit direction of the vehicle; If the vehicle exits to the left, the left side reliability CL corresponds to the exit direction of the vehicle. Here, as shown in FIGS. 6 and 7, the recommended lane basically exists in the exit direction of the guidance branch point. Therefore, for example, when the exit direction of a guidance junction is to the right, if the right side reliability CR, which is the reliability of the position of the own vehicle's lane specified with the right edge of the road as a reference, is high, at least the own vehicle's lane and the recommended lane The positional relationship is reliable. That is, when superimposing the actual scene, it is possible to accurately estimate the positions of the own vehicle driving lane and the recommended lane in the scenery. On the other hand, if the exit direction of the guidance junction is to the left, if the left side reliability CL, which is the reliability of the position of the own vehicle's lane identified with the left edge of the road as a reference, is high, at least the own vehicle's lane and the recommended lane The positional relationship is reliable. That is, when superimposing the actual scene, it is possible to accurately estimate the positions of the own vehicle driving lane and the recommended lane in the scenery.

そして、前記S14で算出された総括信頼度CTが基準値以上であると判定された場合(S14:YES)には、前記S12の画像認識結果(より具体的には画像認識結果に基づいて後述のS15、S18、S20で特定される道路の車線数や自車の走行車線の結果)は十分に信頼できるとみなし、S15へと移行する。それに対して、前記S14で算出された総括信頼度CTが基準値未満であると判定された場合(S14:NO)には、前記S12の画像認識結果(より具体的には画像認識結果に基づいて後述のS15、S18、S20で特定される道路の車線数や自車の走行車線の結果)は信頼できないとみなし、S26へと移行する。 If it is determined that the overall reliability CT calculated in S14 is equal to or higher than the reference value (S14: YES), then based on the image recognition result of S12 (more specifically, the image recognition result will be described later), The number of lanes on the road specified in S15, S18, and S20) are deemed to be sufficiently reliable, and the process moves to S15. On the other hand, if it is determined that the overall reliability CT calculated in S14 is less than the reference value (S14: NO), then the The number of lanes on the road specified in S15, S18, and S20, which will be described later, and the result of the lane in which the host vehicle is traveling) are deemed unreliable, and the process moves to S26.

次に、S15においてCPU41は、前記S12で行った画像認識処理の結果に基づいて、自車両が現在走行する道路の車線数である“自車道路車線数”を特定する。具体的には以下の処理により自車道路車線数を特定する。尚、前記S15で特定されるのは自車両の進行方向に対応する車線の車線数であり、対向車線は除く。 Next, in S15, the CPU 41 specifies the "number of vehicle road lanes", which is the number of lanes of the road on which the vehicle is currently traveling, based on the result of the image recognition process performed in S12. Specifically, the number of vehicle lanes on the road is determined by the following process. Note that what is specified in S15 is the number of lanes corresponding to the traveling direction of the host vehicle, excluding oncoming lanes.

[自車道路車線数の特定]
例えば図8~図10に示す片側3車線の高速道路を走行する場合を例に挙げて説明すると、先ずCPU41は自車の左側にある道路端と区画線の認識結果を取得する。区画線の認識結果については区画線の色や種類についても取得する。その結果、例えば道路端61を検出し、道路端61に隣接する白色の実線である車道外側線62を検出し、車道外側線62と車両の間に白色の破線或いは実線である車線境界線63を1本検出すれば、自車は図8のように左から2番目の車線を走行していると特定できる。更にCPU41は、同様にして右側にある道路端と区画線の認識結果を取得する。区画線の認識結果については区画線の色や種類についても取得する。その結果、例えば道路端64を検出し、道路端64に隣接する白色の実線である車道外側線65を検出し、車道外側線65と車両の間に白色の破線或いは実線である車線境界線66を1本検出すれば、自車は図8のように右から2番目の車線を走行していると特定できる。その結果を組み合わせると、自車は左から2番目且つ右から2番目の車線を走行している、即ち自車道路車線数が3車線であると特定できる。
また、同様にして例えば車道外側線62と車両の間に車線境界線63を2本検出すれば、自車は図9のように左から3番目の車線を走行していると特定でき、車道外側線65と車両の間に車線境界線66を検出しなければ、自車は図9のように最も右の車線を走行していると特定できる。その結果を組み合わせると、自車は左から3番目且つ最も右側の車線を走行している、即ち自車道路車線数が3車線であると特定できる。
また、同様にして例えば車道外側線62と車両の間に車線境界線63を検出しなければ、自車は図10のように最も左の車線を走行していると特定でき、車道外側線65と車両の間に車線境界線66を2本検出すれば、自車は図10のように右から3番目の車線を走行していると特定できる。その結果を組み合わせると、自車は最も左側且つ右から3番目の車線を走行している、即ち自車道路車線数が3車線であると特定できる。
[Identification of number of vehicle road lanes]
For example, to explain the case where the vehicle is traveling on an expressway with three lanes on each side as shown in FIGS. 8 to 10, first, the CPU 41 obtains the recognition results of the road edge and marking line on the left side of the vehicle. Regarding the recognition result of the lot line, the color and type of the lot line are also obtained. As a result, for example, a road edge 61 is detected, a road outside line 62 which is a solid white line adjacent to the road edge 61 is detected, and a lane boundary line 63 which is a white dashed line or a solid line is detected between the road outside line 62 and the vehicle. If one line is detected, it can be determined that the vehicle is traveling in the second lane from the left as shown in FIG. Furthermore, the CPU 41 similarly acquires the recognition results of the road edge and lane markings on the right side. Regarding the recognition result of the lot line, the color and type of the lot line are also obtained. As a result, for example, a road edge 64 is detected, a road outside line 65 which is a solid white line adjacent to the road edge 64 is detected, and a lane boundary line 66 which is a white dashed line or a solid line is detected between the road outside line 65 and the vehicle. If one line is detected, it can be determined that the vehicle is traveling in the second lane from the right as shown in FIG. By combining the results, it can be determined that the vehicle is traveling in the second lane from the left and the second lane from the right, that is, the number of lanes on the vehicle road is three.
Similarly, if two lane boundary lines 63 are detected between the outer road line 62 and the vehicle, it can be determined that the own vehicle is running in the third lane from the left as shown in FIG. If the lane boundary line 66 is not detected between the outside line 65 and the vehicle, it can be determined that the vehicle is traveling in the rightmost lane as shown in FIG. By combining the results, it can be determined that the vehicle is traveling in the third and rightmost lane from the left, that is, the number of lanes on the vehicle road is three.
Similarly, if the lane boundary line 63 is not detected between the outer road line 62 and the vehicle, it can be determined that the own vehicle is traveling in the leftmost lane as shown in FIG. If two lane boundary lines 66 are detected between the vehicle and the vehicle, it can be determined that the vehicle is traveling in the third lane from the right as shown in FIG. By combining the results, it can be determined that the vehicle is traveling in the leftmost lane and the third lane from the right, that is, the number of lanes on the vehicle road is three.

尚、自車道路車線数の特定には区画線や道路端以外に道路を走行する他車両の検出結果を用いても良い。例えば区画線を明確に検出することができない場合であっても他車両の位置から車線の存在を推定することが可能となる。また、特に対面通行区間では対向車両を検出することによってその車線が自車両の進行方向に対応する車線なのか対向車線であるのかを推定できる。 Note that the detection result of other vehicles traveling on the road other than the marking lines and road edges may be used to specify the number of lanes of the own vehicle road. For example, even if lane markings cannot be clearly detected, it is possible to estimate the presence of lanes based on the positions of other vehicles. Moreover, by detecting an oncoming vehicle, especially in a two-way traffic section, it is possible to estimate whether the lane corresponds to the direction in which the own vehicle is traveling or whether it is an oncoming lane.

次に、S16においてCPU41は、地図情報DB31に格納された地図情報から、自車両が現在走行する道路の車線数(但し対向車線は除く)である“自車道路車線数”を取得する。尚、前記S16で取得されるのは自車両の進行方向に対応する車線の車線数であり、対向車線は除く。 Next, in S16, the CPU 41 obtains the "number of vehicle road lanes", which is the number of lanes of the road on which the vehicle is currently traveling (excluding oncoming lanes), from the map information stored in the map information DB 31. Note that what is acquired in S16 is the number of lanes corresponding to the traveling direction of the host vehicle, excluding oncoming lanes.

ここで、地図情報に含まれるリンクデータ32は、道路ネットワークを構成する各リンクに関する情報を含むが、図11に示すように道路の途中で車線数が増減する地点が存在する場合については基本的に車線数が増減する地点でリンクが区分され、区分された各リンクに対して車線数が対応付けられている。例えば図11に示す例ではリンクAとリンクBに区分され、リンクデータ32にはリンクAの車線数として『3』が格納され、リンクBの車線数として『2』が格納される。従って、前記S16ではCPU41は、現在位置検出部11の検出結果に基づいて自車両の現在位置を特定するとともに、自車両の現在位置を地図情報にマッチングさせ、自車両の現在位置を含むリンクに紐づけられた車線数を取得する。 Here, the link data 32 included in the map information includes information regarding each link constituting the road network, but when there is a point on the road where the number of lanes increases or decreases as shown in FIG. The links are divided at points where the number of lanes increases or decreases, and the number of lanes is associated with each divided link. For example, in the example shown in FIG. 11, the link is divided into link A and link B, and the link data 32 stores "3" as the number of lanes for link A and "2" as the number of lanes for link B. Therefore, in S16, the CPU 41 specifies the current position of the own vehicle based on the detection result of the current position detection unit 11, matches the current position of the own vehicle with map information, and links the current position of the own vehicle with the link. Get the number of linked lanes.

続いて、S17においてCPU41は、前記S15において画像認識処理の結果により特定された自車道路車線数と、前記S16で取得された地図情報に含まれる車両が現在走行する道路の車線数とが一致するか否か判定する。 Subsequently, in S17, the CPU 41 determines whether the number of lanes of the own vehicle's road identified by the result of the image recognition process in S15 matches the number of lanes of the road on which the vehicle is currently traveling, which is included in the map information acquired in S16. Determine whether or not to do so.

ここで、前述したように地図情報に含まれるリンクデータ32は道路の車線数の情報を有しているが、その情報は実際の道路との間にズレが生じている場合もある。例えば、図12に示すように地図情報におけるリンクAとリンクBの境界(地図情報における車線数の増減地点)と実際の道路において2車線と3車線が変化する境界(実際の車線数の増減地点)とが完全に一致しない場合もある。その場合において、地図情報における車線数の増減地点と実際の車線数の増減地点との間を車両が走行する場合に、フロントカメラ19で撮像された撮像画像に基づく車線数の検出結果が地図情報と一致しない状況も生じ得る。 Here, as described above, the link data 32 included in the map information has information on the number of lanes on the road, but this information may differ from the actual road. For example, as shown in Figure 12, the boundary between Link A and Link B in map information (the point at which the number of lanes increases or decreases in the map information) and the boundary where 2 lanes and 3 lanes change on the actual road (the point at which the number of lanes actually increases or decreases) ) may not match completely. In that case, when a vehicle travels between a point where the number of lanes increases or decreases in the map information and a point where the number of lanes actually increases or decreases, the detection result of the number of lanes based on the image taken by the front camera 19 is reflected in the map information. Situations that do not match may also occur.

そして、前記S15において画像認識処理の結果により特定された自車道路車線数と、前記S16で取得された地図情報に含まれる自車道路車線数とが一致しないと判定された場合(S17:NO)には、S18へと移行する。それに対して、前記S15において画像認識処理の結果により特定された自車道路車線数と、前記S16で取得された地図情報に含まれる自車道路車線数とが一致すると判定された場合(S17:YES)には、S20へと移行する。 If it is determined that the number of vehicle road lanes specified by the result of the image recognition process in S15 does not match the number of vehicle road lanes included in the map information acquired in S16 (S17: NO). ), the process moves to S18. On the other hand, if it is determined that the number of lanes of the own vehicle's road identified by the result of the image recognition process in S15 matches the number of lanes of the own vehicle's road included in the map information acquired in S16 (S17: If YES), the process moves to S20.

S18においてCPU41は、地図情報が信用できないとみなし、地図情報を用いずに前記S12で行った画像認識処理の検出結果に基づいて自車両が現在走行する走行車線である“自車走行車線”を特定する。尚、以降の処理では自車が走行する道路の車線数である自車道路車線数は、前記S15において画像認識処理の結果により特定された自車道路車線数を用いる。具体的には以下の処理により自車走行車線を特定する。 In S18, the CPU 41 considers that the map information is unreliable, and determines the "own vehicle driving lane" which is the driving lane in which the own vehicle is currently traveling based on the detection result of the image recognition process performed in S12 without using the map information. Identify. In the subsequent processing, the number of lanes of the own vehicle's road, which is the number of lanes of the road on which the own vehicle travels, is the number of lanes of the own vehicle's road identified by the result of the image recognition process in S15. Specifically, the lane in which the vehicle is traveling is specified by the following process.

自車走行車線を特定する方法としては例えば区画線の種類と数を用いる方法や道路端からの距離と車線幅を用いる方法が挙げられる。
[自車走行車線の特定(パターン1)]
前述した自車道路車線数の特定を同じ方法を用いる。即ち、先ずCPU41は自車の左側にある道路端と区画線の認識結果を取得する。区画線の認識結果については区画線の色や種類についても取得する。その結果、例えば道路端61を検出し、道路端61に隣接する白色の実線である車道外側線62を検出し、車道外側線62と車両の間に白色の破線或いは実線である車線境界線63を1本検出すれば、自車は図8のように左から2番目の車線を走行していると特定できる。更にCPU41は、同様にして右側にある道路端と区画線の認識結果を取得する。区画線の認識結果については区画線の色や種類についても取得する。その結果、例えば道路端64を検出し、道路端64に隣接する白色の実線である車道外側線65を検出し、車道外側線65と車両の間に白色の破線或いは実線である車線境界線66を1本検出すれば、自車は図8のように右から2番目の車線を走行していると特定できる。その結果を組み合わせると、自車は3車線の道路で左から2番目且つ右から2番目の車線を走行していると特定できる。
また、同様にして例えば車道外側線62と車両の間に車線境界線63を2本検出すれば、自車は図9のように左から3番目の車線を走行していると特定でき、車道外側線65と車両の間に車線境界線66を検出しなければ、自車は図9のように最も右の車線を走行していると特定できる。その結果を組み合わせると、自車は左から3番目且つ最も右側の車線を走行していると特定できる。
また、同様にして例えば車道外側線62と車両の間に車線境界線63を検出しなければ、自車は図10のように最も左の車線を走行していると特定でき、車道外側線65と車両の間に車線境界線66を2本検出すれば、自車は図10のように右から3番目の車線を走行していると特定できる。その結果を組み合わせると、自車は最も左側且つ右から3番目の車線を走行していると特定できる。
尚、右側の道路端からの自車走行車線の特定結果と左側の道路端からの自車走行車線の特定結果とに矛盾がある場合(例えば自車道路車線数が2であるにもかかわらず左から2番目且つ右から2番目の車線を走行していると特定された場合)については、右側信頼度CR及び左側信頼度CLの内で信頼度が高い方の道路端からの特定結果を優先する。
[自車走行車線の特定(パターン2)]
次に道路端からの距離と車線幅を用いる方法について、同じく図8~図10に示す片側3車線の高速道路を走行する場合を例に挙げて説明すると、先ずCPU41は自車の両側にある区画線(図8に示す例では車線境界線63と車線境界線66、図9に示す例では車線境界線66と車道外側線65、図10に示す例では車道外側線62と車線境界線63)を検出してその区画線の間の距離から車両が走行する道路の車線の幅を特定する。その後、CPU41は自車の左側にある道路端61或いは車道外側線62から自車までの道路幅方向に沿った距離を算出し、算出された距離が何車線分の幅があるかを算出する。その結果、道路端61又は車道外側線62から自車までの間の距離が車線1本分の距離である場合には自車は図8のように左から2番目の車線を走行していると特定できる。同様にして道路端61又は車道外側線62から自車までの間の距離が車線2本分の距離である場合には自車は図9のように左から3番目の車線を走行していると特定できる。道路端61又は車道外側線62から自車までの間の距離が車線1本分に満たない場合には自車は図10のように最も左の車線を走行していると特定できる。
更にCPU41は、同様にして右側にある道路端64或いは車道外側線65からの距離を算出する。その結果、道路端64又は車道外側線65から自車までの間の距離が車線1本分の距離である場合には自車は図8のように右から2番目の車線を走行していると特定できる。同様にして道路端64又は車道外側線65から自車までの間の距離が車線2本分の距離である場合には自車は図10のように右から3番目の車線を走行していると特定できる。道路端64又は車道外側線65から自車までの間の距離が車線1本分に満たない場合には自車は図9のように最も右の車線を走行していると特定できる。
CPU41は上述のように道路左端を基準として特定した自車走行車線の位置(道路左端から車両が現在走行する車線までの車線の数)と、道路右端を基準として特定した自車走行車線の位置(道路右端から車両が現在走行する車線までの車線の数)とを最終的に組み合わせて、自車走行車線を特定する。例えば図8に示す例では自車走行車線は左から2番目の車線、且つ右から2番目の車線であると特定される。図9に示す例では自車走行車線は左から3番目の車線、且つ右から1番目の車線であると特定される。図10に示す例では自車走行車線は左から1番目の車線、且つ右から3番目の車線であると特定される。
尚、右側の道路端からの自車走行車線の特定結果と左側の道路端からの自車走行車線の特定結果とに矛盾がある場合(例えば自車道路車線数が2であるにもかかわらず左から2番目且つ右から2番目の車線を走行していると特定された場合)については、右側信頼度CR及び左側信頼度CLの内で信頼度が高い方の道路端からの特定結果を優先する。
Examples of methods for specifying the lane in which the vehicle is traveling include a method using the type and number of marking lines, and a method using the distance from the road edge and lane width.
[Identification of vehicle driving lane (pattern 1)]
The same method is used to identify the number of vehicle lanes on the road as described above. That is, first, the CPU 41 obtains the recognition results of the road edge and marking line on the left side of the own vehicle. Regarding the recognition result of the lot line, the color and type of the lot line are also obtained. As a result, for example, a road edge 61 is detected, a road outside line 62 which is a solid white line adjacent to the road edge 61 is detected, and a lane boundary line 63 which is a white dashed line or a solid line is detected between the road outside line 62 and the vehicle. If one line is detected, it can be determined that the vehicle is traveling in the second lane from the left as shown in FIG. Furthermore, the CPU 41 similarly acquires the recognition results of the road edge and lane markings on the right side. Regarding the recognition result of the lot line, the color and type of the lot line are also obtained. As a result, for example, a road edge 64 is detected, a road outside line 65 which is a solid white line adjacent to the road edge 64 is detected, and a lane boundary line 66 which is a white dashed line or a solid line is detected between the road outside line 65 and the vehicle. If one line is detected, it can be determined that the vehicle is traveling in the second lane from the right as shown in FIG. By combining the results, it can be determined that the vehicle is traveling in the second lane from the left and the second lane from the right on a three-lane road.
Similarly, if two lane boundary lines 63 are detected between the outer road line 62 and the vehicle, it can be determined that the own vehicle is running in the third lane from the left as shown in FIG. If the lane boundary line 66 is not detected between the outside line 65 and the vehicle, it can be determined that the vehicle is traveling in the rightmost lane as shown in FIG. By combining the results, it can be determined that the vehicle is traveling in the third lane from the left and the farthest right lane.
Similarly, if the lane boundary line 63 is not detected between the outer road line 62 and the vehicle, it can be determined that the own vehicle is traveling in the leftmost lane as shown in FIG. If two lane boundary lines 66 are detected between the vehicle and the vehicle, it can be determined that the vehicle is traveling in the third lane from the right as shown in FIG. By combining the results, it can be determined that the vehicle is traveling in the leftmost lane and the third lane from the right.
In addition, if there is a discrepancy between the identification result of the vehicle's driving lane from the right side of the road and the result of identifying the vehicle's driving lane from the left side of the road (for example, even though the number of vehicle's lanes is 2) When it is determined that the vehicle is traveling in the second lane from the left and the second lane from the right), the identification result from the road edge with the higher reliability of the right reliability CR and the left reliability CL is used. Prioritize.
[Identification of vehicle driving lane (pattern 2)]
Next, the method of using the distance from the road edge and the lane width will be explained using the example of driving on an expressway with three lanes on each side as shown in FIGS. 8 to 10. First, the CPU 41 is located on both sides of the vehicle. Partition lines (lane boundary line 63 and lane boundary line 66 in the example shown in FIG. 8, lane boundary line 66 and road outside line 65 in the example shown in FIG. 9, road outside line 62 and lane boundary line 63 in the example shown in FIG. 10) ) is detected and the width of the lane on which the vehicle is traveling is determined from the distance between the lane markings. Thereafter, the CPU 41 calculates the distance along the road width direction from the road edge 61 or outer road line 62 on the left side of the own vehicle to the own vehicle, and calculates how many lanes the calculated distance is wide. . As a result, if the distance from the road edge 61 or outer road line 62 to the own vehicle is the distance of one lane, the own vehicle is traveling in the second lane from the left as shown in Figure 8. It can be identified as Similarly, if the distance from the road edge 61 or outer road line 62 to the vehicle is the distance of two lanes, the vehicle is traveling in the third lane from the left as shown in Figure 9. It can be identified as If the distance from the road edge 61 or outer road line 62 to the vehicle is less than one lane, it can be determined that the vehicle is traveling in the leftmost lane as shown in FIG.
Further, the CPU 41 similarly calculates the distance from the road edge 64 or the outer road line 65 on the right side. As a result, if the distance from the road edge 64 or outer road line 65 to the own vehicle is the distance of one lane, the own vehicle is traveling in the second lane from the right as shown in Figure 8. It can be identified as Similarly, if the distance from the road edge 64 or outer road line 65 to the vehicle is the distance of two lanes, the vehicle is traveling in the third lane from the right as shown in Figure 10. It can be identified as If the distance from the road edge 64 or outer road line 65 to the vehicle is less than one lane, it can be determined that the vehicle is traveling in the rightmost lane as shown in FIG.
As described above, the CPU 41 determines the position of the lane in which the vehicle is traveling, which is specified with the left edge of the road as a reference (the number of lanes from the left edge of the road to the lane in which the vehicle is currently traveling), and the position of the lane in which the vehicle is traveling, which is specified with the right edge of the road as a reference. (the number of lanes from the right edge of the road to the lane in which the vehicle is currently traveling) is finally combined to identify the lane in which the vehicle is traveling. For example, in the example shown in FIG. 8, the lane in which the vehicle is traveling is specified as the second lane from the left and the second lane from the right. In the example shown in FIG. 9, the lane in which the vehicle is traveling is specified as the third lane from the left and the first lane from the right. In the example shown in FIG. 10, the lane in which the vehicle is traveling is specified as the first lane from the left and the third lane from the right.
In addition, if there is a discrepancy between the identification result of the vehicle's driving lane from the right side of the road and the result of identifying the vehicle's driving lane from the left side of the road (for example, even though the number of vehicle's lanes is 2) When it is determined that the vehicle is traveling in the second lane from the left and the second lane from the right), the identification result from the road edge with the higher reliability of the right reliability CR and the left reliability CL is used. Prioritize.

尚、自車走行車線の特定には区画線や道路端以外に道路を走行する他車両の検出結果を用いても良い。例えば区画線を明確に検出することができない場合であっても他車両の位置から車線の存在を推定することが可能となる。また、特に対面通行区間では対向車両を検出することによってその車線が自車両の進行方向に対応する車線なのか対向車線であるのかを推定できる。 Note that detection results of other vehicles traveling on the road other than marking lines and road edges may be used to identify the lane in which the vehicle is traveling. For example, even if lane markings cannot be clearly detected, it is possible to estimate the presence of lanes based on the positions of other vehicles. Moreover, by detecting an oncoming vehicle, especially in a two-way traffic section, it is possible to estimate whether the lane corresponds to the direction in which the own vehicle is traveling or whether it is an oncoming lane.

その後、S19においてCPU41は、前記S12の画像認識処理で取得された区画線の検出結果と前記S18で特定された自車走行車線とに基づいて、車両周辺の風景内において自車走行車線が存在する範囲を特定する。同じく、前記S12の画像認識処理で取得された区画線の検出結果と前記S18で特定された自車走行車線とに基づいて、車両周辺の風景内において推奨車線が存在する範囲についても特定する。具体的には、フロントカメラ19で撮像した撮像画像(即ち液晶ディスプレイ15に表示される撮像画像)内で自車走行車線と推奨車線の存在する範囲を特定する。尚、前記S18と同じく地図情報は信用できないとみなし、基本的に地図情報を用いずに自車走行車線と推奨車線が存在する範囲を特定する。 Thereafter, in S19, the CPU 41 determines whether there is a lane in which the vehicle is traveling in the scenery around the vehicle, based on the detection result of the lane markings acquired in the image recognition process in S12 and the lane in which the vehicle is traveling identified in S18. Specify the range. Similarly, the range where the recommended lane exists in the scenery around the vehicle is also specified based on the lane markings detected in the image recognition process of S12 and the lane in which the vehicle is traveling specified in S18. Specifically, within the captured image captured by the front camera 19 (that is, the captured image displayed on the liquid crystal display 15), the range in which the own vehicle driving lane and the recommended lane exist is specified. Note that, as in S18, the map information is regarded as unreliable, and the range in which the own vehicle driving lane and the recommended lane exist is basically specified without using the map information.

例えば片側3車線の道路を車両が走行中であって、自車走行車線が中央の車線で推奨車線が左側の車線である場合を例に挙げて説明すると、前記S19では図13に示す撮像画像71がフロントカメラ19で撮像された場合に各区画線72~74が検出される。但し、区画線74については区画線72と区画線73の検出結果から車線の幅を算出し、区画線72の左側に算出された車線の幅だけ離れた位置に区画線74が存在するとして位置を予測しても良い。その結果、推奨車線は最も左側の車線であることが特定できているので、区画線72と区画線74とで囲まれる範囲75が推奨車線の存在する範囲として特定できる。また、自車走行車線は中央の車線であることが特定できているので、区画線72と区画線73とで囲まれる範囲76が自車走行車線の存在する範囲として特定できる。その後、S22へと移行する。 For example, to explain a case where a vehicle is traveling on a road with three lanes on each side, the own lane is the center lane, and the recommended lane is the left lane, in S19, the captured image shown in FIG. When 71 is imaged by the front camera 19, each of the partition lines 72 to 74 is detected. However, regarding the marking line 74, the lane width is calculated from the detection results of the marking line 72 and marking line 73, and the position is determined based on the assumption that the marking line 74 is located on the left side of the marking line 72 and separated by the calculated lane width. may be predicted. As a result, since it has been determined that the recommended lane is the leftmost lane, a range 75 surrounded by the lane markings 72 and 74 can be identified as the range where the recommended lane exists. Further, since it has been determined that the lane in which the vehicle is traveling is the center lane, the range 76 surrounded by the marking lines 72 and 73 can be specified as the range in which the lane in which the vehicle is traveling exists. After that, the process moves to S22.

一方、前記S15において画像認識処理の結果により特定された自車道路車線数と、前記S16で取得された地図情報に含まれる自車道路車線数とが一致すると判定された場合に実行されるS20では、CPU41は地図情報が信用できるとみなす。そして、地図情報についても用いて前記S12で行った画像認識処理の検出結果に基づいて自車両が現在走行する走行車線である“自車走行車線”を特定する。尚、以降の処理では自車が走行する道路の車線数である自車道路車線数は、一致すると判定された自車道路車線数を用いる。 On the other hand, S20 is executed when it is determined that the number of vehicle road lanes specified by the result of the image recognition process in S15 matches the number of vehicle road lanes included in the map information acquired in S16. Then, the CPU 41 considers that the map information is reliable. Then, based on the detection result of the image recognition process performed in S12, the map information is also used to identify the "own vehicle lane" which is the lane in which the host vehicle is currently traveling. In addition, in the subsequent processing, the number of own vehicle road lanes, which is the number of lanes of the road on which the own vehicle travels, is determined to be the number of own vehicle road lanes that is determined to match.

前記S20においてCPU41は、基本的には上述した[自車走行車線の特定(パターン1)]及び[自車走行車線の特定(パターン2)]と同様の処理を行う。但し、S20では、道路端と区画線の認識結果に加えて地図情報についても考慮して自車走行車線を特定するのが望ましい。尚、地図情報に含まれるリンクデータ32には道路毎の車線数や対向車線の有無(対面通行区間か否か)、中央分離帯の有無等について格納されている。フロントカメラ19による画像認識では例えば一般道の中央付近に白線の実線や破線が検出された場合に、その区間線が中央線であるのか車線境界線であるのかを判定することが困難であるが、地図情報を用いることによってその判定を容易に行うことが可能となる。その結果、対向車線が存在する区間においても、対向車線の存在を考慮して自車走行車線を正確に特定することが可能となる。例えば、中央分離帯のない片側2車線の計4車線の道路を車両が走行する場合において自車両が右から3番目の車線を走行していると特定した場合に、地図情報から一番右と右から2番目の車線は対向車線と判定できるので、車両は片側2車線の道路の右側の車線を走行していると特定できる。 In S20, the CPU 41 basically performs the same processing as the above-mentioned [Identification of own vehicle travel lane (pattern 1)] and [Identification of own vehicle travel lane (pattern 2)]. However, in S20, it is desirable to specify the lane in which the vehicle is traveling by taking into consideration map information in addition to the recognition results of road edges and lane markings. Note that the link data 32 included in the map information stores the number of lanes for each road, the presence or absence of oncoming lanes (whether or not it is a two-way traffic section), the presence or absence of a median strip, etc. With image recognition by the front camera 19, for example, when a solid or broken white line is detected near the center of a general road, it is difficult to determine whether the section line is a center line or a lane boundary line. , it becomes possible to easily make this determination by using map information. As a result, even in a section where there is an oncoming lane, it is possible to accurately identify the lane in which the vehicle is traveling, taking into account the presence of the oncoming lane. For example, if a vehicle is driving on a four-lane road with two lanes on each side without a median strip, and it is determined that the vehicle is traveling in the third lane from the right, the map information indicates that the vehicle is traveling in the third lane from the right. Since the second lane from the right can be determined to be the oncoming lane, it can be determined that the vehicle is traveling in the right lane of a road with two lanes on each side.

その後、S21においてCPU41は、前記S12の画像認識処理で取得された区画線の検出結果と前記S20で特定された自車走行車線とに基づいて、車両周辺の風景内において自車走行車線が存在する範囲を特定する。同じく、前記S12の画像認識処理で取得された区画線の検出結果と前記S20で特定された自車走行車線とに基づいて、車両周辺の風景内において推奨車線が存在する範囲についても特定する。基本的にはS19と同じ処理を行うが、地図情報についても考慮して自車走行車線と推奨車線が存在する範囲を特定する。 Thereafter, in S21, the CPU 41 determines whether there is a lane in which the vehicle is traveling in the scenery around the vehicle, based on the lane markings detected in the image recognition process in S12 and the lane in which the vehicle is traveling identified in S20. Specify the range. Similarly, the range where the recommended lane exists in the scenery around the vehicle is also specified based on the detection result of the lane markings obtained in the image recognition process of S12 and the lane in which the vehicle is running specified in S20. Basically, the same processing as in S19 is performed, but map information is also taken into account to specify the range where the own vehicle driving lane and the recommended lane exist.

例えば上述したように地図情報を用いれば画像認識のみでは把握が困難な対向車線の有無や中央分離帯の有無が容易に把握できるので、推奨車線の存在する範囲と自車走行車線の存在する範囲をより容易且つ正確に特定することが可能となる。更に、地図情報には道路形状(カーブの曲線半径など)、道路幅、車線幅についての情報も含まれているので、自車両から離れた区画線の正確な検出が難しい範囲についても道路形状や車線幅を用いて区画線の位置を推定し、推奨車線の存在する範囲と自車走行車線の存在する範囲をより正確に特定することが可能となる。その後、S22へと移行する。 For example, as mentioned above, if map information is used, it is possible to easily determine the presence or absence of oncoming lanes and the presence or absence of median strips, which are difficult to grasp with image recognition alone. can be specified more easily and accurately. Furthermore, the map information also includes information about the road shape (curve radius, etc.), road width, and lane width, so even in areas where it is difficult to accurately detect lane markings that are far away from your vehicle, the map information also includes information about the road shape and lane width. By estimating the position of the lane markings using the lane width, it is possible to more accurately identify the range where the recommended lane exists and the range where the vehicle is traveling. After that, the process moves to S22.

続いて、S22においてCPU41は、次の案内分岐点までの距離が閾値未満か否かを判定する。尚、閾値は車両が走行する道路の道路種別によって決定され、例えば高速道路は700m、一般道は高速道路よりも短い150mとする。 Subsequently, in S22, the CPU 41 determines whether the distance to the next guidance branch point is less than a threshold value. Note that the threshold value is determined depending on the type of road on which the vehicle travels; for example, an expressway is 700 m, and a general road is 150 m, which is shorter than the expressway.

そして、次の案内分岐点までの距離が閾値未満であると判定された場合(S22:YES)には、S24へと移行する。それに対して、次の案内分岐点までの距離が閾値以上であると判定された場合(S22:NO)には、S23へと移行する。 If it is determined that the distance to the next guidance branch point is less than the threshold (S22: YES), the process moves to S24. On the other hand, if it is determined that the distance to the next guidance branch point is equal to or greater than the threshold value (S22: NO), the process moves to S23.

S23においてCPU41は、液晶ディスプレイ15に表示対象とする第1案内オブジェクト80の大きさ、形状、及び表示位置を算出する。ここで、前記S23において表示対象とする第1案内オブジェクト80は、図14に示すように矩形形状とし、横方向の長さは推奨車線の車線幅、縦の長さは例えば100mに設定する。そして、推奨車線の路面の自車の現在位置から100m先までの範囲に重畳するように表示する。従って、前記S23においてCPU41は、前記S19又はS21の結果を用いて液晶ディスプレイ15に表示される風景内における推奨車線の範囲を特定し、更に特定された推奨車線の路面の自車の現在位置から100m先までの範囲を覆うのに必要な第1案内オブジェクト80の大きさ、形状及び位置を、液晶ディスプレイ15に表示対象とする第1案内オブジェクト80の大きさ、形状、及び表示位置として算出する。 In S23, the CPU 41 calculates the size, shape, and display position of the first guide object 80 to be displayed on the liquid crystal display 15. Here, the first guide object 80 to be displayed in S23 has a rectangular shape as shown in FIG. 14, and its horizontal length is set to the lane width of the recommended lane and its vertical length is set to, for example, 100 m. Then, it is displayed so as to be superimposed on the road surface of the recommended lane within a range of 100 meters from the current position of the own vehicle. Therefore, in S23, the CPU 41 uses the result of S19 or S21 to specify the range of the recommended lane in the scenery displayed on the liquid crystal display 15, and further uses the range of the recommended lane from the current position of the own vehicle on the road surface of the specified recommended lane. The size, shape, and position of the first guide object 80 necessary to cover an area up to 100 meters ahead are calculated as the size, shape, and display position of the first guide object 80 to be displayed on the liquid crystal display 15. .

その後、S5へと移行し前記S23で算出された大きさ及び形状の第1案内オブジェクト80の画像を生成し、更に液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に対して生成された第1案内オブジェクト80の画像を前記S23で決定された位置(範囲)に対して描画する。尚、前記S23において表示対象とする第1案内オブジェクト80の形状は適宜変更可能であり、推奨車線を示すことができる形状であれば矩形以外の形状であっても良い。また、内部には案内分岐点までの距離を描画しても良い。 Thereafter, the process moves to S5, where an image of the first guide object 80 having the size and shape calculated in S23 is generated, and a control signal is sent to the liquid crystal display 15, so that the image of the first guide object 80 having the size and shape calculated in S23 is generated. The image of the first guide object 80 is drawn at the position (range) determined in S23. Note that the shape of the first guide object 80 to be displayed in S23 can be changed as appropriate, and may be any shape other than a rectangle as long as it can indicate the recommended lane. Additionally, the distance to the guide branch point may be drawn inside.

一方、S24においてCPU41は、前記S11、S18及びS20で特定された推奨車線及び自車走行車線に基づいて、自車走行車線と推奨車線が一致するか否か、即ち自車が推奨車線を走行しているか否か判定する。 On the other hand, in S24, the CPU 41 determines whether or not the own vehicle traveling lane and the recommended lane match, based on the recommended lane and the own vehicle traveling lane specified in S11, S18, and S20, that is, the own vehicle is traveling in the recommended lane. Determine whether or not.

そして、自車走行車線と推奨車線が一致する、即ち自車が推奨車線を走行していると判定された場合(S24:YES)には、S23へと移行する。S23では前述したように推奨車線(自車走行車線とも一致)に重畳する矩形形状の第1案内オブジェクト80を表示対象とし、液晶ディスプレイ15に表示対象とする第1案内オブジェクト80の大きさ、形状、及び表示位置を算出する。それに対して、自車走行車線と推奨車線が一致しない、即ち推奨車線を自車が走行していないと判定された場合(S24:NO)には、S25へと移行する。 Then, if it is determined that the vehicle driving lane and the recommended lane match, that is, the vehicle is traveling in the recommended lane (S24: YES), the process moves to S23. In S23, as described above, the rectangular first guide object 80 that overlaps the recommended lane (which also coincides with the vehicle's travel lane) is set as the display target, and the size and shape of the first guide object 80 to be displayed on the liquid crystal display 15 are determined. , and calculate the display position. On the other hand, if it is determined that the vehicle driving lane and the recommended lane do not match, that is, the vehicle is not traveling in the recommended lane (S24: NO), the process moves to S25.

S25においてCPU41は、液晶ディスプレイ15に表示対象とする第1案内オブジェクト80の大きさ、形状、及び表示位置を算出する。ここで、前記S25において表示対象とする第1案内オブジェクト80は、図15に示すように自車走行車線から推奨車線に跨って、車両の進行方向と逆方向に移動するにつれて車両が現在走行する車線側に徐々に広がる末広がり形状とする。より具体的には、第1案内オブジェクト80は車両の現在位置から例えば100m前方までの推奨車線の路面である第1領域(矩形)と、推奨車線と自車走行車線の間にあって第1領域に対して隣接するとともに、車両の進行方向に移動するにつれて幅が徐々に狭くなる第2領域(直角三角形)とを合わせた形状となる。そして、推奨車線及び自車走行車線の路面の自車の現在位置から100m先までの範囲に重畳するように表示する。従って、前記S25においてCPU41は、前記S19又はS21の結果を用いて液晶ディスプレイ15に表示される風景内における推奨車線及び自車走行車線の範囲を特定し、更に特定された推奨車線の路面の自車の現在位置から100m先までの範囲を覆うとともに、自車走行車線の路面の自車の現在位置から50m先までの範囲の一部を覆うのに必要な第1案内オブジェクト80の大きさ、形状及び位置を、液晶ディスプレイ15に表示対象とする第1案内オブジェクト80の大きさ、形状、及び表示位置として算出する。 In S25, the CPU 41 calculates the size, shape, and display position of the first guide object 80 to be displayed on the liquid crystal display 15. Here, as shown in FIG. 15, the first guide object 80 to be displayed in S25 crosses over from the own vehicle driving lane to the recommended lane, and as the vehicle moves in the opposite direction to the traveling direction of the vehicle, the vehicle is currently traveling. It has a shape that gradually widens toward the lane. More specifically, the first guide object 80 includes a first area (rectangle) that is the road surface of the recommended lane up to, for example, 100 meters in front of the current position of the vehicle, and a first area that is between the recommended lane and the lane in which the vehicle is traveling. On the other hand, it has a shape that combines a second region (a right triangle) which is adjacent to the region and whose width gradually becomes narrower as it moves in the direction of travel of the vehicle. Then, it is displayed so as to be superimposed on the road surface of the recommended lane and the vehicle's driving lane within a range of 100 meters from the vehicle's current position. Therefore, in S25, the CPU 41 uses the results of S19 or S21 to specify the range of the recommended lane and the lane in which the vehicle is traveling within the scenery displayed on the liquid crystal display 15, and further specifies the range of the road surface of the specified recommended lane. The size of the first guide object 80 necessary to cover an area up to 100 meters ahead from the current position of the vehicle and a part of the range up to 50 meters ahead from the current location of the vehicle on the road surface of the vehicle driving lane; The shape and position are calculated as the size, shape, and display position of the first guide object 80 to be displayed on the liquid crystal display 15.

その後、S5へと移行し前記S25で算出された大きさ及び形状の第1案内オブジェクト80の画像を生成し、更に液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に対して生成された第1案内オブジェクト80の画像を前記S25で決定された位置(範囲)に対して描画する。尚、前記S25において表示対象とする第1案内オブジェクト80の形状は適宜変更可能であり、推奨車線を示すとともに推奨車線への移動を促すことができる形状であれば末広がり形状以外の形状であっても良い。また、内部には案内分岐点までの距離を描画しても良い。 Thereafter, the process moves to S5, where an image of the first guide object 80 having the size and shape calculated in S25 is generated, and a control signal is sent to the liquid crystal display 15, so that the image of the first guide object 80 having the size and shape calculated in S25 is generated. The image of the first guide object 80 is drawn at the position (range) determined in S25. Note that the shape of the first guide object 80 to be displayed in S25 can be changed as appropriate, and may be any shape other than the shape that widens toward the end as long as it can indicate the recommended lane and encourage movement to the recommended lane. Also good. Additionally, the distance to the guide branch point may be drawn inside.

一方で前記S14において画像認識結果に対する信頼度が基準値未満であると判定された場合に実行されるS26では、CPU41は誤った案内が行われる虞があるので案内オブジェクトを描画しないことを決定する。その場合にはその後のS5において第1案内オブジェクトの表示について行われない。尚、前述したように液晶ディスプレイ15には車両から案内分岐点までの距離が案内開始距離未満となる前に予めフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)が表示されているが、案内オブジェクトを描画しないことを決定した後は撮像画像のみを継続して表示しても良いし、撮像画像の表示は行わずに地図画像を表示するようにしても良い。尚、S11以降の処理は所定間隔で繰り返し行われるので、一旦画像認識結果に対する信頼度が基準値未満と判定された場合であっても、その後に画像認識結果に対する信頼度が基準値以上と判定された時点で第1案内オブジェクトが描画されることとなる。 On the other hand, in S26, which is executed when it is determined in S14 that the reliability of the image recognition result is less than the reference value, the CPU 41 determines not to draw the guide object because there is a risk that incorrect guidance will be provided. . In that case, the display of the first guide object is not performed in the subsequent S5. As mentioned above, the liquid crystal display 15 displays an image taken in advance by the front camera 19 before the distance from the vehicle to the guidance branch point becomes less than the guidance start distance, that is, the current scenery around the vehicle (especially in front of the vehicle). (actual scene image) is displayed, but after deciding not to draw the guide object, you can continue to display only the captured image, or display the map image without displaying the captured image. You can also do it. Note that the processes from S11 onward are repeated at predetermined intervals, so even if the reliability of the image recognition result is once determined to be less than the reference value, the reliability of the image recognition result is subsequently determined to be greater than or equal to the reference value. At the time when the first guide object is drawn, the first guide object is drawn.

一方、前記S26では前述したS23やS25とは異なる自車走行車線に依存しない(自車走行車線を用いない、自車走行車線に基づかない、自車走行車線に影響されない)態様で第1案内オブジェクト80を表示することを決定し、液晶ディスプレイ15に表示対象とする第1案内オブジェクト80の大きさ、形状、及び表示位置を算出しても良い。ここで、自車走行車線に依存しない態様とは例えば案内分岐点の退出方向のみを示す矢印とし、より具体的には車両の現在位置に対して所定距離前方(例えば10m前方)で且つ道路路面から所定高さ(例えば1m)上方にあって車両の進行方向前方にある案内分岐点の退出方向を示す三角形状の3つの矢印とする。その後、S5へと移行し前記S26で算出された大きさ及び形状の第1案内オブジェクト80の画像を生成し、更に液晶ディスプレイ15に対して制御信号を送信し、液晶ディスプレイ15に対して生成された第1案内オブジェクト80の画像を前記S26で決定された位置(範囲)に対して描画する。尚、前記S26において表示対象とする第1案内オブジェクト80は単に案内分岐点の退出方向のみを示す矢印であるので、自車道路車線数や自車走行車線が特定できなくとも誤った案内となる虞がない。 On the other hand, in S26, the first guidance is performed in a manner that does not depend on the lane in which the vehicle is traveling (does not use the lane in which the vehicle is traveling, is not based on the lane in which the vehicle is traveling, is not influenced by the lane in which the vehicle is traveling), which is different from S23 and S25. It is also possible to decide to display the object 80 and calculate the size, shape, and display position of the first guide object 80 to be displayed on the liquid crystal display 15. Here, the aspect that does not depend on the driving lane of the vehicle is, for example, an arrow indicating only the exit direction of a guidance branch point, and more specifically, an arrow that indicates only the exit direction of a guidance branch point, and more specifically, an arrow that is a predetermined distance ahead of the vehicle's current position (for example, 10 meters ahead) and on the road surface. Three arrows in a triangular shape indicate the exit direction of a guide branch point located at a predetermined height (for example, 1 m) above and ahead in the direction of travel of the vehicle. Thereafter, the process moves to S5, where an image of the first guide object 80 having the size and shape calculated in S26 is generated, and a control signal is sent to the liquid crystal display 15 to generate an image of the first guide object 80. The image of the first guide object 80 is drawn at the position (range) determined in S26. Note that the first guidance object 80 to be displayed in S26 is simply an arrow indicating only the exit direction of the guidance branch point, so even if the number of lanes on the road for which the vehicle is traveling or the lane in which the vehicle is traveling cannot be specified, the guidance will be incorrect. There is no risk.

以上の処理が行われた結果、車両から案内分岐点までの距離が案内開始距離未満で且つ退出方向案内開始距離以上の場合において、車両の走行に伴って液晶ディスプレイ15に表示される走行案内画面51は図16のように変移し、図17乃至図20のような画面となる。
車両が高速道路を走行する場合を例に挙げて説明すると、車両から案内分岐点までの距離が案内開始距離(高速道路では1km)未満で閾値(高速道路では700m)以上の状態では、“推奨車線の位置を案内する第1案内オブジェクトの画像53(第1の表示態様)”が表示される。“推奨車線の位置を案内する第1案内オブジェクトの画像53”は、図17に示すように推奨車線54に重畳して第1案内オブジェクトの画像53が表示される(S23)。その結果、乗員に推奨車線54の存在や位置を明確に把握させることが可能となる。
As a result of the above processing, when the distance from the vehicle to the guidance branch point is less than the guidance start distance and greater than or equal to the exit direction guidance start distance, the travel guidance screen is displayed on the liquid crystal display 15 as the vehicle travels. 51 changes as shown in FIG. 16, and the screen becomes as shown in FIGS. 17 to 20.
Taking the example of a vehicle driving on an expressway, if the distance from the vehicle to the guidance junction is less than the guidance start distance (1 km on an expressway) but greater than the threshold (700m on an expressway), the "recommended" An image 53 (first display mode) of a first guide object that guides the position of the lane is displayed. The "image 53 of the first guide object guiding the position of the recommended lane" is displayed superimposed on the recommended lane 54 as shown in FIG. 17 (S23). As a result, it becomes possible for the occupant to clearly grasp the existence and position of the recommended lane 54.

また、車両から案内分岐点までの距離が閾値(高速道路では700m)未満で退出方向案内開始距離(高速道路では500m)以上の状態では、“推奨車線への移動を促す第1案内オブジェクトの画像53(第2の表示態様)”が上記“推奨車線の位置を案内する第1案内オブジェクトの画像53(第1の表示態様)”に代えて新たに表示される。但し、“推奨車線への移動を促す第1案内オブジェクトの画像53”は、自車走行車線55が推奨車線54と一致する場合については表示されず、その場合には図18に示すように自車が走行する推奨車線54(自車走行車線55)に重畳して第1案内オブジェクトの画像53が表示される(第1の表示態様)。その結果、乗員に既に推奨車線54を走行していることを明確に把握させることが可能となる。一方、自車走行車線55と推奨車線54が一致しない場合には、図19に示すように自車走行車線55から推奨車線54まで跨る領域に重畳して第1案内オブジェクトの画像53が表示される(第2の表示態様)。その結果、自車が走行する車線が推奨車線ではなく、推奨車線に移動する必要があることを乗員に明確に把握させることが可能となる。また、第1実施形態では自車走行車線55から推奨車線54までを含む広い領域に対して第1案内オブジェクトの画像53が表示されるので、矢印などの画像を表示する場合と比較して推奨車線への車線変更を促す強制感のある案内を抑制することが可能となる。 In addition, when the distance from the vehicle to the guidance branch point is less than the threshold (700 m on expressways) but greater than the exit direction guidance start distance (500 m on expressways), the image of the first guidance object prompting movement to the recommended lane is displayed. 53 (second display mode)" is newly displayed in place of the above-mentioned "image 53 (first display mode) of the first guide object guiding the position of the recommended lane." However, the "image 53 of the first guide object that prompts movement to the recommended lane" is not displayed when the vehicle's driving lane 55 matches the recommended lane 54, and in that case, as shown in FIG. An image 53 of the first guide object is displayed superimposed on the recommended lane 54 (own vehicle travel lane 55) in which the car is traveling (first display mode). As a result, it becomes possible for the occupant to clearly understand that the vehicle is already traveling in the recommended lane 54. On the other hand, if the own vehicle driving lane 55 and the recommended lane 54 do not match, the image 53 of the first guide object is displayed superimposed on the area spanning from the own vehicle driving lane 55 to the recommended lane 54, as shown in FIG. (second display mode). As a result, it becomes possible for the occupant to clearly understand that the lane in which the vehicle is traveling is not the recommended lane and that it is necessary to move to the recommended lane. In addition, in the first embodiment, since the image 53 of the first guide object is displayed over a wide area including the own vehicle driving lane 55 to the recommended lane 54, the recommended lane is more It is possible to suppress guidance that feels forced to prompt a lane change.

尚、車両から案内分岐点までの距離が閾値(高速道路では700m)未満で退出方向案内開始距離(高速道路では500m)以上の状態において図18と図19のいずれの走行案内画面51が表示されるか(即ち、第1の表示態様と第2の表示態様のいずれで表示するか)についてはその時点の自車走行車線55と推奨車線54との位置関係によって決まる。従って、例えば液晶ディスプレイ15に対して図19の走行案内画面51が表示されている状態で車両が左側の推奨車線54に移動すれば、図18の走行案内画面51へと切り替わることとなる。同じく、液晶ディスプレイ15に対して図18の走行案内画面51が表示されている状態で車両が推奨車線54以外の車線に移動すれば、図19の走行案内画面51へと切り替わることとなる。 Note that in a state where the distance from the vehicle to the guidance branch point is less than the threshold value (700 m on an expressway) and greater than the exit direction guidance start distance (500 m on an expressway), either the driving guidance screen 51 shown in FIG. 18 or FIG. 19 is displayed. (that is, whether to display in the first display mode or the second display mode) is determined by the positional relationship between the own vehicle driving lane 55 and the recommended lane 54 at that time. Therefore, for example, if the vehicle moves to the recommended lane 54 on the left side while the driving guidance screen 51 of FIG. 19 is being displayed on the liquid crystal display 15, the screen will switch to the driving guidance screen 51 of FIG. 18. Similarly, if the vehicle moves to a lane other than the recommended lane 54 while the driving guidance screen 51 of FIG. 18 is being displayed on the liquid crystal display 15, the screen will switch to the driving guidance screen 51 of FIG. 19.

また、図17~図19の走行画面が表示されるのはいずれも画像認識結果に対する信頼度が基準値以上であると判定された場合であり、画像認識結果に対する信頼度が基準値未満であると判定された場合については図20に示すように案内分岐点の退出方向を示す矢印である第1案内オブジェクトの画像53が表示される(第3の表示態様)。その結果、自車が走行する車線が特定できない場合であっても、少なくとも案内分岐点の退出方向(基本的には推奨車線の存在する方向にも相当)については乗員に把握させることが可能となる。 Furthermore, the driving screens shown in FIGS. 17 to 19 are displayed only when the reliability of the image recognition results is determined to be equal to or higher than the reference value, and when the reliability of the image recognition results is less than the reference value. If it is determined that this is the case, as shown in FIG. 20, an image 53 of the first guide object, which is an arrow indicating the exit direction of the guide branch point, is displayed (third display mode). As a result, even if it is not possible to specify the lane in which the vehicle is traveling, it is possible for the occupants to at least know the exit direction of the guidance junction (which basically corresponds to the direction in which the recommended lane exists). Become.

尚、その後に車両から案内分岐点までの距離が退出方向案内開始距離(高速道路では500m)未満となると、第1案内オブジェクトの画像53に代えて、前述したように案内分岐点の退出方向を示す矢印である第2案内オブジェクトの画像57が新たに表示されることとなる(図4参照)。 If the distance from the vehicle to the guidance junction becomes less than the exit direction guidance start distance (500 m on an expressway), the image 53 of the first guidance object will be replaced with the exit direction of the guidance junction as described above. An image 57 of the second guide object, which is the indicated arrow, will be newly displayed (see FIG. 4).

また、前述した実施形態では、前記S21においてフロントカメラ19で撮像した撮像画像内で自車走行車線と推奨車線の存在する範囲を特定しているが、地図情報が信頼できる場合については地図情報に基づいて車両の現在位置周辺(特に車両進行方向の前方)に対応した3次元空間を生成し、3次元空間内で自車走行車線と推奨車線の存在する範囲を特定しても良い。3次元空間には、道路以外に、建築物、道路標識などについてもモデリングしても良いし、道路のみをモデリングしても良い。或いは道路についてもモデリングしない地面のみがある単なる空白の3次元空間としても良い。以下に上記3次元空間を用いた実施例について説明する。 In addition, in the above-described embodiment, the range in which the own vehicle driving lane and the recommended lane exist are specified in the image taken by the front camera 19 in S21, but if the map information is reliable, Based on this, a three-dimensional space corresponding to the vicinity of the vehicle's current position (particularly in front of the vehicle in the direction of travel) may be generated, and the range in which the own vehicle driving lane and the recommended lane exist may be specified within the three-dimensional space. In addition to roads, buildings, road signs, etc. may also be modeled in the three-dimensional space, or only roads may be modeled. Alternatively, it may be a simple blank three-dimensional space containing only the ground without modeling the road. An example using the above three-dimensional space will be described below.

先ず、CPU41は、生成された3次元空間において自車両の現在位置及び方位について特定する。特に、車両に設置されたフロントカメラ19の位置を自車両の現在位置とし、フロントカメラ19の光軸方向を自車両の方位とする。尚、フロントカメラ19の位置は車両の乗員の位置、フロントカメラ19の光軸方向は車両の乗員の視線方向にも相当する。また、3次元空間において車両の進行方向前方にある案内分岐点の位置についても特定する。 First, the CPU 41 specifies the current position and orientation of the host vehicle in the generated three-dimensional space. In particular, the position of the front camera 19 installed on the vehicle is taken as the current position of the own vehicle, and the optical axis direction of the front camera 19 is taken as the orientation of the own vehicle. The position of the front camera 19 also corresponds to the position of the vehicle occupant, and the optical axis direction of the front camera 19 also corresponds to the line of sight direction of the vehicle occupant. Furthermore, the position of a guidance branch point located ahead in the direction of travel of the vehicle in the three-dimensional space is also specified.

そして、前記S23やS25においてCPU41は、表示対象とする第1案内オブジェクト80を例えば2次元ポリゴンで生成し、生成した第1案内オブジェクト80を生成された3次元空間に対して配置する。尚、3次元空間に対して第1案内オブジェクト80を配置する位置は、図14や図15に示す位置とする。次に、CPU41は、第1案内オブジェクト80が配置された3次元空間において、車両の現在位置且つフロントカメラ19の高さの位置から車両の進行方向に視認した際に視認できる第1案内オブジェクト80の大きさ及び形状を、液晶ディスプレイ15により表示対象とする案内オブジェクトの大きさ及び形状として算出する。ここで、算出される案内オブジェクトの大きさ及び形状は、3次元空間に配置された第1案内オブジェクト80を現在の車両(より正確にはフロントカメラ19)の視点から視認した際に視認できる第1案内オブジェクト80の大きさ及び形状である。 Then, in S23 and S25, the CPU 41 generates the first guide object 80 to be displayed as a two-dimensional polygon, for example, and arranges the generated first guide object 80 in the generated three-dimensional space. Note that the position where the first guide object 80 is placed in the three-dimensional space is the position shown in FIGS. 14 and 15. Next, the CPU 41 selects a first guide object 80 that can be visually recognized when viewed from the vehicle's current position and the position at the height of the front camera 19 in the traveling direction of the vehicle in the three-dimensional space where the first guide object 80 is arranged. are calculated as the size and shape of the guide object to be displayed on the liquid crystal display 15. Here, the calculated size and shape of the guide object are the first guide object that can be visually recognized when the first guide object 80 arranged in three-dimensional space is viewed from the viewpoint of the current vehicle (more precisely, the front camera 19). 1. The size and shape of the guide object 80.

その後、CPU41は、3次元空間における車両の現在位置及び案内分岐点の位置と前記S11及びS20で特定された推奨車線及び自車走行車線の位置とに基づいて、液晶ディスプレイ15に表示される風景52内における推奨車線や自車走行車線の位置を推定し、液晶ディスプレイ15において第1案内オブジェクト80を表示する位置を決定する。 Thereafter, the CPU 41 displays the scenery displayed on the liquid crystal display 15 based on the current position of the vehicle in the three-dimensional space, the position of the guidance branch point, and the positions of the recommended lane and the lane in which the vehicle is traveling, identified in S11 and S20. The position of the recommended lane and the lane in which the vehicle is traveling within 52 is estimated, and the position where the first guide object 80 is displayed on the liquid crystal display 15 is determined.

以上詳細に説明した通り、第1実施形態に係るナビゲーション装置1及びナビゲーション装置1で実行されるコンピュータプログラムによれば、車両周辺の風景を撮像した撮像画像に基づいて車両が現在走行する道路に含まれる車線数を特定し(S15)、地図情報に含まれる車両が現在走行する道路の車線数と撮像画像に基づいて特定された車線数とが一致しない場合には、撮像画像に基づいて特定された車線数を用いて車両が現在走行する道路において車両が現在走行する車線である走行車線を特定する(S18)一方で、地図情報に含まれる車両が現在走行する道路の車線数と撮像画像に基づいて特定された車線数とが一致する場合には一致する車線数を用いて走行車線を特定する(S20)。そして、特定された走行車線に基づいて案内オブジェクトを表示する(S23、S25)ので、撮像画像の画像認識の結果と地図情報との間に矛盾やズレが生じる状況であっても、誤った周辺環境への重畳画像表示の案内が行われることを防止し、車両の乗員に不利益を生じさせることがない。
また、撮像画像に基づいて車両の周辺にある区画線と車両が現在走行する道路の道路端とを夫々検出し(S12)、更に区画線と道路端の検出結果に基づいて、左側の道路端から車両が現在走行する車線までの車線の数である左側車線数と、右側の道路端から車両が現在走行する車線までの車線の数である右側車線数と、を夫々算出し、左側車線数と右側車線数を組み合わせることで車両が現在走行する道路に含まれる車線数を特定する(S15)ので、地図情報を用いることなく撮像画像の画像認識の結果から車両が現在走行する道路に含まれる車線数を特定することが可能であり、更に車両が現在走行する道路において車両が現在走行する車線である走行車線についても特定可能となる。
また、撮像画像の画像認識にどの程度の信頼性があるかを示す信頼度を取得し(S13)、信頼度が基準より高い場合に、地図情報に含まれる車両が現在走行する道路の車線数と車線数特定手段により特定された車線数とが一致するか否かを判定して走行車線を特定し(S17、S18、S20)、特定された走行車線に基づいて案内オブジェクトを表示する(S23、S25)ので、撮像画像に基づいて特定された車線数が信頼できる場合、即ち地図情報との比較が正確にできる状況でのみ車線数の比較を行い、その結果特定された走行車線に基づいた案内オブジェクトの表示が可能となる。
また、信頼度が基準より低い場合には、案内オブジェクトを表示しない又は案内オブジェクトを走行車線に依存しない態様で表示するので、車両が現在走行する道路に含まれる車線や車両が現在走行する車線である走行車線を正確に特定できない状況では、案内を行わない或いは誤る虞のある案内を行わないことにより、車両の乗員に不利益を生じさせることを防止できる。
また、車両が現在走行する道路において走行を推奨される推奨車線を取得し(S11)、車両の走行車線の特定結果に基づいて風景内の推奨車線が存在する範囲を特定し(S19、S21)、案内オブジェクトを特定された推奨車線が存在する範囲に重畳して表示するので、ユーザが車両周辺の風景を視認した場合に推奨車線に適切に重畳した案内オブジェクトを視認させることが可能となる。
また、車両の進行方向前方の所定の案内開始距離以内に案内分岐点がある場合に、案内分岐点における車両の退出方向に対応する車線を推奨車線として取得し(S11)、信頼度は右側車線数の信頼度である右側信頼度と、左側車線数の信頼度である左側信頼度と、を含み、右側信頼度と左側信頼度の内、案内分岐点における車両の退出方向に対応する信頼度が基準より高いか否かを判定する(S14)ので、撮像画像の画像認識の結果に基づいて、左右の道路端を基準にした車両の走行車線の信頼度を正確に算出することが可能となる。そして、車両が現在走行する道路に含まれる車線数や走行車線の位置の特定に不安がある場合であっても、少なくとも走行車線と推奨車線の位置関係が信頼できる場合については、案内オブジェクトによる正確な案内を行うことが可能となる。
また、撮像画像を車両に搭載された画像表示装置(15)に表示するとともに案内オブジェクトについても同じ画像表示装置に表示することによって、車両の乗員に撮像画像内の車両周辺の風景に重畳して案内オブジェクトを視認させるので、画像表示装置に表示された撮像画像内において車両周辺の風景に重畳した案内オブジェクトによる適切な案内を行うことが可能となる。
As explained in detail above, according to the navigation device 1 according to the first embodiment and the computer program executed by the navigation device 1, based on the captured image of the scenery around the vehicle, the road on which the vehicle is currently traveling is based on the captured image of the scenery around the vehicle. (S15), and if the number of lanes of the road on which the vehicle currently travels included in the map information does not match the number of lanes identified based on the captured image, the number of lanes identified based on the captured image is determined. The number of lanes on which the vehicle is currently traveling is used to identify the driving lane in which the vehicle is currently traveling (S18). If the number of lanes specified based on the number of lanes matches, the driving lane is specified using the matching number of lanes (S20). Then, the guide object is displayed based on the specified driving lane (S23, S25), so even if there is a discrepancy or discrepancy between the image recognition result of the captured image and the map information, there will be no error in the surrounding area. To prevent a superimposed image display from being displayed in the environment, and to avoid causing disadvantages to vehicle occupants.
Also, based on the captured image, the lane markings around the vehicle and the road edge of the road on which the vehicle is currently traveling are detected (S12), and based on the detection results of the lane markings and road edge, the road edge on the left side is detected. The number of left lanes, which is the number of lanes from The number of lanes included in the road on which the vehicle is currently traveling is determined by combining the number of lanes on the right side with It is possible to specify the number of lanes, and furthermore, it is also possible to specify the lane in which the vehicle is currently traveling on the road on which the vehicle is currently traveling.
In addition, the reliability level indicating how reliable the image recognition of the captured image is is acquired (S13), and if the reliability level is higher than the standard, the number of lanes of the road on which the vehicle included in the map information is currently traveling is acquired. The driving lane is determined by determining whether or not the number of lanes and the number of lanes specified by the lane number identifying means match (S17, S18, S20), and a guidance object is displayed based on the specified driving lane (S23). , S25), the number of lanes is compared only when the number of lanes identified based on the captured image is reliable, that is, when it can be accurately compared with map information, and as a result, the number of lanes is compared based on the identified driving lane. Guide objects can now be displayed.
In addition, if the reliability is lower than the standard, the guide object is not displayed or the guide object is displayed in a manner that does not depend on the driving lane. In a situation where a certain driving lane cannot be accurately specified, by not providing guidance or not providing guidance that is likely to be erroneous, it is possible to prevent disadvantages to the occupants of the vehicle.
In addition, the recommended lane in which the vehicle is currently traveling is acquired (S11), and the range where the recommended lane exists in the scenery is specified based on the identification result of the vehicle's driving lane (S19, S21). Since the guide object is displayed superimposed on the range where the specified recommended lane exists, when the user visually recognizes the scenery around the vehicle, it becomes possible to visually recognize the guide object appropriately superimposed on the recommended lane.
In addition, if there is a guidance branch point within a predetermined guidance start distance ahead in the direction of travel of the vehicle, the lane corresponding to the exit direction of the vehicle at the guidance junction is acquired as a recommended lane (S11), and the reliability is determined as the right lane. The reliability level corresponds to the exit direction of the vehicle at the guidance junction, of the right side reliability level and the left side reliability level, including the right side reliability level, which is the reliability level of the number of left lanes, and the left side reliability level, which is the reliability level of the number of left lanes. Since it is determined whether or not is higher than the reference (S14), it is possible to accurately calculate the reliability of the vehicle's driving lane with the left and right road edges as a reference based on the result of image recognition of the captured image. Become. Even if there are concerns about identifying the number of lanes included in the road the vehicle is currently traveling on or the location of the driving lane, at least when the positional relationship between the driving lane and the recommended lane is reliable, guidance objects can provide accurate information. This makes it possible to provide detailed guidance.
In addition, by displaying the captured image on the image display device (15) mounted on the vehicle and displaying the guide object on the same image display device, the vehicle occupants can see the captured image superimposed on the scenery around the vehicle. Since the guide object is visually recognized, it is possible to provide appropriate guidance using the guide object superimposed on the scenery around the vehicle in the captured image displayed on the image display device.

[第2実施形態]
次に、第2実施形態に係る重畳画像表示装置について図21及び図22に基づいて説明する。尚、以下の説明において上記図1乃至図20の第1実施形態に係る重畳画像表示装置の構成と同一符号は、前記第1実施形態に係る重畳画像表示装置等の構成と同一あるいは相当部分を示すものである。
[Second embodiment]
Next, a superimposed image display device according to a second embodiment will be described based on FIGS. 21 and 22. In the following description, the same reference numerals as those in the configuration of the superimposed image display device according to the first embodiment shown in FIGS. It shows.

この第2実施形態に係る重畳画像表示装置の概略構成は、第1実施形態に係る重畳画像表示装置とほぼ同じ構成である。また、各種制御処理も第1実施形態に係る重畳画像表示装置とほぼ同じ制御処理である。
ただし、第1実施形態に係る重畳画像表示装置が、ナビゲーション装置1の液晶ディスプレイ15に対してフロントカメラ19で撮像した撮像画像を表示し、更に液晶ディスプレイ15に対して案内オブジェクトを表示することによって、車両周辺の風景に案内オブジェクトを重畳させて表示するのに対して、第2実施形態に係る重畳画像表示装置は車両周辺の風景に重畳する画像を表示する手段としてヘッドアップディスプレイシステムを用いる点で異なる。
The general configuration of the superimposed image display device according to the second embodiment is almost the same as the superimposed image display device according to the first embodiment. In addition, various control processes are almost the same as those of the superimposed image display device according to the first embodiment.
However, the superimposed image display device according to the first embodiment displays the captured image captured by the front camera 19 on the liquid crystal display 15 of the navigation device 1, and further displays the guide object on the liquid crystal display 15. , the guide object is displayed superimposed on the scenery around the vehicle, whereas the superimposed image display device according to the second embodiment uses a head-up display system as a means for displaying an image superimposed on the scenery around the vehicle. It's different.

以下に第2実施形態に係る重畳画像表示装置の概略構成について図21を用いて説明する。図21は第2実施形態に係る重畳画像表示装置101の概略構成図である。
図21に示すように重畳画像表示装置101は、車両102に搭載されたナビゲーション装置103と、同じく車両102に搭載されるとともにナビゲーション装置103と接続されたフロントディスプレイ104とを基本的に有する。尚、フロントディスプレイ104は車両102のフロントガラス105とともにヘッドアップディスプレイとして機能し、車両102の乗員106に対して様々な情報の提供を行う情報提供手段となる。
A schematic configuration of a superimposed image display device according to a second embodiment will be described below using FIG. 21. FIG. 21 is a schematic configuration diagram of a superimposed image display device 101 according to the second embodiment.
As shown in FIG. 21, the superimposed image display device 101 basically includes a navigation device 103 mounted on a vehicle 102, and a front display 104 also mounted on the vehicle 102 and connected to the navigation device 103. Note that the front display 104 functions as a head-up display together with the windshield 105 of the vehicle 102, and serves as information providing means for providing various information to the occupants 106 of the vehicle 102.

ここで、フロントディスプレイ104は、車両102のダッシュボード107内部に設置され、前面に設けられた画像表示面に対して画像を表示する機能を有する液晶ディスプレイである。バックライトとしては例えばCCFL(冷陰極管)や白色LEDが用いられる。尚、フロントディスプレイ104としては、液晶ディスプレイ以外に、有機ELディスプレイや液晶プロジェクタとスクリーンの組み合わせを用いても良い。 Here, the front display 104 is a liquid crystal display that is installed inside the dashboard 107 of the vehicle 102 and has a function of displaying an image on an image display surface provided at the front. As the backlight, for example, a CCFL (cold cathode fluorescent lamp) or a white LED is used. Note that as the front display 104, in addition to a liquid crystal display, an organic EL display or a combination of a liquid crystal projector and a screen may be used.

そして、フロントディスプレイ104は車両102のフロントガラス105とともにヘッドアップディスプレイとして機能し、フロントディスプレイ104から出力される画像を、運転席の前方のフロントガラス105に反射させて車両102の乗員106に視認させるように構成されている。尚、フロントディスプレイ104には、必要に応じて案内オブジェクトを表示する。尚、以下に説明する第2実施形態では案内オブジェクトは、第1実施形態と同様に案内経路に沿った案内分岐点の退出方向を示す矢印、案内経路に沿って案内分岐点を通過する為に車両が現在走行する道路において走行が推奨される推奨車線の位置を示す案内画像、推奨車線への移動を促す案内画像とする。 The front display 104 functions as a head-up display together with the windshield 105 of the vehicle 102, and the image output from the front display 104 is reflected on the windshield 105 in front of the driver's seat so that the occupant 106 of the vehicle 102 can see it. It is configured as follows. Note that guide objects are displayed on the front display 104 as necessary. In addition, in the second embodiment described below, the guide objects include an arrow indicating the exit direction of the guide branch point along the guide route, and an arrow indicating the exit direction of the guide branch point along the guide route, as in the first embodiment. A guide image indicates the position of a recommended lane on which the vehicle is currently traveling, and a guide image urges the vehicle to move to the recommended lane.

また、フロントガラス105を反射して乗員106がフロントディスプレイ104に表示された映像を視認した場合に、乗員106にはフロントガラス105の位置ではなく、フロントガラス105の先の遠方の位置にフロントディスプレイ104に表示された映像が虚像110として視認されるように構成される。また、虚像110は車両前方の周辺環境(風景、実景)に重畳して表示されることとなり、例えば車両前方に位置する任意の対象物(路面、建築物、警告対象となる物等)に重畳させて表示させることも可能である。 Further, when the passenger 106 views the image displayed on the front display 104 by reflecting off the windshield 105, the passenger 106 may see the front display not at the position of the windshield 105 but at a distant position beyond the windshield 105. The image displayed on 104 is configured to be visually recognized as a virtual image 110. In addition, the virtual image 110 is displayed superimposed on the surrounding environment (landscape, real scene) in front of the vehicle, and for example, is superimposed on any object located in front of the vehicle (road surface, building, object to be warned, etc.). It is also possible to display the information in the same way.

ここで、虚像110を生成する位置、より具体的には乗員106から虚像110までの距離(以下、結像距離という)Lについては、フロントディスプレイ104の位置によって決定される。例えば、フロントディスプレイ104において映像の表示された位置からフロントガラス105までの光路に沿った距離(光路長)によって結像距離Lが決定される。例えば結像距離Lが1.5mとなるように光路長が設定されている。 Here, the position where the virtual image 110 is generated, more specifically the distance L from the occupant 106 to the virtual image 110 (hereinafter referred to as imaging distance), is determined by the position of the front display 104. For example, the imaging distance L is determined by the distance along the optical path (optical path length) from the position where the image is displayed on the front display 104 to the windshield 105. For example, the optical path length is set so that the imaging distance L is 1.5 m.

また、車両のフロントバンパの上方やルームミラーの裏側等にはフロントカメラ111が設置される。フロントカメラ111は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両の進行方向前方に向けて設置される。そして、フロントカメラ111により撮像された撮像画像に対して画像処理が行われることによって、フロントガラス越しに乗員106に視認される前方環境(即ち虚像110が重畳される環境)の状況等が検出される。尚、フロントカメラ111の代わりにミリ波レーダ等のセンサを用いても良い。 Further, a front camera 111 is installed above the front bumper of the vehicle, behind the room mirror, etc. The front camera 111 is an imaging device having a camera using a solid-state imaging device such as a CCD, and is installed with its optical axis facing forward in the direction of travel of the vehicle. Then, by performing image processing on the captured image captured by the front camera 111, the situation of the front environment (that is, the environment on which the virtual image 110 is superimposed) that is visually recognized by the occupant 106 through the windshield is detected. Ru. Note that a sensor such as a millimeter wave radar may be used instead of the front camera 111.

また、車両のインストルメントパネルの上面には車内カメラ112が設置される。車内カメラ112は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を運転席に向けて設置される。車内において一般的に乗員の顔が位置すると予想される範囲を検出範囲(車内カメラ112の撮像範囲)として設定し、運転席に座った乗員106の顔を撮像する。そして、車内カメラ112により撮像された撮像画像に対して画像処理が行われることによって、乗員106の目の位置(視線開始点)や視線方向を検出する。 Furthermore, an in-vehicle camera 112 is installed on the top surface of the instrument panel of the vehicle. The in-vehicle camera 112 is an imaging device having a camera using a solid-state imaging device such as a CCD, and is installed with its optical axis directed toward the driver's seat. The range where the face of the passenger is generally expected to be located inside the vehicle is set as a detection range (imaging range of the in-vehicle camera 112), and the face of the passenger 106 sitting in the driver's seat is imaged. Then, image processing is performed on the captured image captured by the in-vehicle camera 112, thereby detecting the eye position (line-of-sight starting point) and line-of-sight direction of the occupant 106.

そして、第2実施形態に係る重畳画像表示装置は、前述した走行支援処理プログラム(図2)のS5、S7において、図22に示すようにフロントディスプレイ104に対して案内オブジェクトの画像120を表示する。その結果、図22に示すようにフロントディスプレイ104に表示された案内オブジェクトの画像120を車両の乗員が視認することによって、フロントガラス105越しの風景に重畳して案内オブジェクトの画像120の虚像121が視認される。 Then, the superimposed image display device according to the second embodiment displays the image 120 of the guide object on the front display 104 as shown in FIG. 22 in S5 and S7 of the driving support processing program (FIG. 2) described above. . As a result, as shown in FIG. 22, when the vehicle occupant visually recognizes the image 120 of the guide object displayed on the front display 104, a virtual image 121 of the image 120 of the guide object is superimposed on the scenery through the windshield 105. Visible.

それによって、第1実施形態に係る重畳画像表示装置と同様に、推奨車線の位置や、案分岐点における退出方向を正確に把握できる。尚、第2実施形態に係る重畳画像表示装置では、前記S4、S6の案内オブジェクト表示位置決定処理において、フロントディスプレイ104に対して表示する案内オブジェクトの大きさ、形状及び案内オブジェクトを表示する位置(範囲)を決定する。 As a result, similarly to the superimposed image display device according to the first embodiment, it is possible to accurately grasp the position of the recommended lane and the exit direction at the intersection. In the superimposed image display device according to the second embodiment, in the guide object display position determination processing in S4 and S6, the size and shape of the guide object to be displayed on the front display 104 and the position ( range).

尚、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば車両周辺の風景に重畳する画像を表示する手段として、第1実施形態では実景画像の表示された液晶ディスプレイ15を用い、第2実施形態ではヘッドアップディスプレイシステムを用いているが、フロントガラスに対して画像を表示するウインドウシールドディスプレイ(WSD)を用いても良い。WSDでは、フロントガラスをスクリーンとしてプロジェクタから映像を表示しても良いし、フロントガラスを透過液晶ディスプレイとしても良い。WSDによってフロントガラスに対して表示された画像は、車両周辺の風景に重畳する画像となる。
It should be noted that the present invention is not limited to the above-described embodiments, and it goes without saying that various improvements and modifications can be made without departing from the gist of the present invention.
For example, as a means for displaying an image superimposed on the scenery around the vehicle, the first embodiment uses a liquid crystal display 15 displaying an actual scene image, and the second embodiment uses a head-up display system. A window shield display (WSD) that displays an image may also be used. In WSD, the windshield may be used as a screen to display images from a projector, or the windshield may be used as a transmissive liquid crystal display. The image displayed on the windshield by the WSD becomes an image superimposed on the scenery around the vehicle.

また、第1及び第2実施形態では、案内オブジェクトは車両の推奨車線を案内する第1案内オブジェクトと、進行方向前方にある案内分岐点における車両の退出方向を示す矢印である第2案内オブジェクトとしているが、第1案内オブジェクトのみとしても良い。また、第1案内オブジェクトは必ずしも車線に重畳される矩形形状や矩形と三角形を組み合わせた形状である必要はなく、推奨車線の位置を示し、推奨車線への移動を促すことができるのであれば他の形状であっても良い。例えば矢印形状としても良い。また、必ずしも路面に重畳させる必要もなく、路面から離間した位置に表示しても良い。 In the first and second embodiments, the guide objects include a first guide object that guides the vehicle to a recommended lane, and a second guide object that is an arrow that indicates the exit direction of the vehicle at a guide branch point located ahead in the direction of travel. However, only the first guide object may be used. In addition, the first guide object does not necessarily have to be a rectangle that overlaps the lane or a combination of a rectangle and a triangle; it can be any other shape as long as it can indicate the position of the recommended lane and encourage movement to the recommended lane. It may be in the shape of For example, it may be in the shape of an arrow. Further, it is not necessarily necessary to superimpose it on the road surface, but it may be displayed at a position separated from the road surface.

また、第1及び第2実施形態では、案内オブジェクトを用いて案内分岐点の案内を行っているが、案内オブジェクトにより案内対象とする地点は案内分岐点に限られることなく、例えば車両が車線減少地点や合流区間を通過する際において案内オブジェクトを用いて推奨車線への移動を促す、即ち推奨車線への車線変更の案内としても良い。 In addition, in the first and second embodiments, guidance objects are used to provide guidance to guidance junctions, but points to be guided by guidance objects are not limited to guidance junctions; for example, when a vehicle When passing through a point or a merging section, a guide object may be used to prompt the user to move to the recommended lane, that is, to guide the user to change lanes to the recommended lane.

また、第1及び第2実施形態では、前記S13においてフロントカメラ19により撮像された撮像画像の画像認識結果にどの程度の信頼性があるかを示す信頼度を算出する場合に、信頼度を数値で算出しているが、信頼度は数値以外で算出しても良い。また、信頼度を数値以外で算出する場合については前記S14の判定基準となる基準値についても数値以外となる。 In addition, in the first and second embodiments, when calculating the reliability indicating the degree of reliability of the image recognition result of the captured image captured by the front camera 19 in S13, the reliability is expressed as a numerical value. However, the reliability may be calculated using other than numerical values. Furthermore, in the case where the reliability is calculated using something other than numerical values, the reference value used as the determination criterion in S14 is also other than numerical values.

また、第1実施形態では、ナビゲーション装置1の液晶ディスプレイ15に対してフロントカメラ19で撮像した実景画像や案内オブジェクトを表示しているが、実景画像や案内オブジェクトを表示するディスプレイとしては車両内に配置されたディスプレイであれば、液晶ディスプレイ15以外のディスプレイであっても良い。 Further, in the first embodiment, the actual view image and the guide object captured by the front camera 19 are displayed on the liquid crystal display 15 of the navigation device 1, but the display for displaying the actual view image and the guide object is not provided inside the vehicle. Any display other than the liquid crystal display 15 may be used as long as the display is arranged.

また、第2実施形態では、フロントディスプレイ104によって車両102のフロントガラス105の前方に虚像を生成する構成としているが、フロントガラス105以外のウィンドウの前方に虚像を生成する構成としても良い。また、フロントディスプレイ104により映像を反射させる対象はフロントガラス105自身ではなくフロントガラス105の周辺に設置されたバイザー(コンバイナー)であっても良い。 Further, in the second embodiment, a virtual image is generated in front of the windshield 105 of the vehicle 102 by the front display 104, but a virtual image may be generated in front of a window other than the windshield 105. Further, the object on which the image is reflected by the front display 104 may be a visor (combiner) installed around the windshield 105 instead of the windshield 105 itself.

また、第1及び第2実施形態では、走行支援処理プログラム(図2)の処理をナビゲーション装置1のナビゲーションECU13が実行する構成としているが、実行主体は適宜変更することが可能である。例えば、液晶ディスプレイ15の制御部、車両制御ECU、その他の車載器が実行する構成としても良い。 Further, in the first and second embodiments, the navigation ECU 13 of the navigation device 1 executes the processing of the driving support processing program (FIG. 2), but the execution entity can be changed as appropriate. For example, it may be configured to be executed by a control unit of the liquid crystal display 15, a vehicle control ECU, or other on-vehicle equipment.

1…ナビゲーション装置、15…液晶ディスプレイ、19…フロントカメラ、41…CPU、42…RAM、43…ROM、51…走行案内画面、52…風景、53…第1案内オブジェクトの画像、54…推奨車線、55…自車走行車線、57…第2案内オブジェクトの画像、60…案内分岐点、61,64…道路端、62,63,65,66…区画線 DESCRIPTION OF SYMBOLS 1...Navigation device, 15...Liquid crystal display, 19...Front camera, 41...CPU, 42...RAM, 43...ROM, 51...Driving guide screen, 52...Scenery, 53...Image of first guide object, 54...Recommended lane , 55... Vehicle driving lane, 57... Image of second guide object, 60... Guide branch point, 61, 64... Road edge, 62, 63, 65, 66... Partition line

Claims (7)

車両に搭載され、前記車両の乗員へ情報を案内する案内オブジェクトを、前記車両周辺の風景に重畳して視認させる重畳画像表示装置であって、
道路の車線数に関する情報を含む地図情報を取得する地図情報取得手段と、
前記車両周辺の風景を撮像した撮像画像に基づいて、車両が現在走行する道路に含まれる車線数を特定する車線数特定手段と、
前記地図情報に含まれる車両が現在走行する道路の車線数と前記車線数特定手段により特定された車線数とが一致しない場合には前記車線数特定手段により特定された車線数を用いて車両が現在走行する道路において車両が現在走行する車線である走行車線を特定する一方で、前記地図情報に含まれる車両が現在走行する道路の車線数と前記車線数特定手段により特定された車線数とが一致する場合には一致する車線数を用いて前記走行車線を特定する走行車線特定手段と、
前記走行車線特定手段により特定された前記走行車線に基づいて前記案内オブジェクトを表示するオブジェクト表示手段と、を有する重畳画像表示装置。
A superimposed image display device that is mounted on a vehicle and allows a guide object that guides information to a passenger of the vehicle to be visually recognized by superimposing it on the scenery around the vehicle,
map information acquisition means for acquiring map information including information regarding the number of lanes on a road;
Lane number identifying means for identifying the number of lanes included in the road on which the vehicle is currently traveling based on a captured image of the scenery around the vehicle;
If the number of lanes of the road on which the vehicle currently travels included in the map information does not match the number of lanes specified by the number of lanes specifying means, the number of lanes specified by the number of lanes specifying means is used to move the vehicle. While identifying the driving lane in which the vehicle is currently traveling on the road on which the vehicle is currently traveling, the number of lanes on the road on which the vehicle is currently traveling included in the map information and the number of lanes identified by the lane number identifying means are determined. a driving lane specifying means for specifying the driving lane using the matching number of lanes if they match;
A superimposed image display device comprising: object display means for displaying the guide object based on the driving lane specified by the driving lane specifying means.
前記車線数特定手段は、
前記撮像画像に基づいて、車両の周辺にある区画線と車両が現在走行する道路の道路端とを夫々検出し、
前記区画線と道路端の検出結果に基づいて、左側の道路端から車両が現在走行する車線までの車線の数である左側車線数と、右側の道路端から車両が現在走行する車線までの車線の数である右側車線数と、を夫々算出し、
前記左側車線数と前記右側車線数を組み合わせることで車両が現在走行する道路に含まれる車線数を特定する請求項1に記載の重畳画像表示装置。
The lane number identifying means includes:
Based on the captured image, each of the marking lines around the vehicle and the edge of the road on which the vehicle is currently traveling is detected;
Based on the detection results of the partition line and road edge, the number of left lanes, which is the number of lanes from the left road edge to the lane in which the vehicle is currently traveling, and the lane number from the right road edge to the lane in which the vehicle is currently traveling. Calculate the number of right lanes, which is the number of
The superimposed image display device according to claim 1, wherein the number of lanes included in the road on which the vehicle is currently traveling is specified by combining the number of left lanes and the number of right lanes.
前記車線数特定手段の特定結果にどの程度の信頼性があるかを示す信頼度を取得する信頼度取得手段を有し、
前記走行車線特定手段は、前記信頼度が基準より高い場合に、前記地図情報に含まれる車両が現在走行する道路の車線数と前記車線数特定手段により特定された車線数とが一致するか否かを判定して前記走行車線を特定し、
前記走行車線特定手段により特定された前記走行車線に基づいて前記案内オブジェクトを表示する請求項1又は請求項2に記載の重畳画像表示装置。
comprising a reliability obtaining means for obtaining a reliability indicating how reliable the identification result of the lane number identification means is;
The driving lane specifying means determines whether the number of lanes of the road on which the vehicle currently traveling included in the map information matches the number of lanes specified by the lane number specifying means when the reliability is higher than a reference. determining the driving lane;
The superimposed image display device according to claim 1 or 2, wherein the guide object is displayed based on the driving lane specified by the driving lane specifying means.
前記信頼度が基準より低い場合には、前記案内オブジェクトを表示しない又は前記案内オブジェクトを前記走行車線に依存しない態様で表示する請求項3に記載の重畳画像表示装置。 The superimposed image display device according to claim 3, wherein when the reliability is lower than a reference, the guide object is not displayed or the guide object is displayed in a manner independent of the driving lane. 車両が現在走行する道路において走行を推奨される推奨車線を取得する推奨車線取得手段と、
前記走行車線特定手段により特定された前記走行車線に基づいて風景内の前記推奨車線が存在する範囲を特定する範囲特定手段と、を有し、
前記オブジェクト表示手段は、前記案内オブジェクトを特定された前記推奨車線が存在する範囲に重畳して表示する請求項3又は請求項4に記載の重畳画像表示装置。
Recommended lane acquisition means for acquiring a recommended lane in which a vehicle is currently traveling on a road in which it is recommended to drive;
a range specifying means for specifying a range in the landscape in which the recommended lane exists based on the driving lane specified by the driving lane specifying means;
5. The superimposed image display device according to claim 3, wherein the object display means displays the guide object in a superimposed manner in a range where the specified recommended lane exists.
前記推奨車線取得手段は、車両の進行方向前方の所定の案内開始距離以内に案内分岐点がある場合に、前記案内分岐点における車両の退出方向に対応する車線を前記推奨車線として取得し、
前記車線数特定手段は、
前記撮像画像に基づいて、車両の周辺にある区画線と車両が現在走行する道路の道路端とを夫々検出し、
前記区画線と道路端の検出結果に基づいて、左側の道路端から車両が現在走行する車線までの車線の数である左側車線数と、右側の道路端から車両が現在走行する車線までの車線の数である右側車線数と、を夫々算出し、
前記左側車線数と前記右側車線数を組み合わせることで車両が現在走行する道路に含まれる車線数を特定し、
前記信頼度は、前記右側車線数の信頼性を示す右側信頼度と、前記左側車線数の信頼性を示す左側信頼度と、を含み、
前記右側信頼度と前記左側信頼度の内、前記案内分岐点における車両の退出方向に対応する信頼度が基準より高いか否かを判定する請求項5に記載の重畳画像表示装置。
The recommended lane acquisition means acquires, as the recommended lane, a lane corresponding to the exit direction of the vehicle at the guidance junction when there is a guidance junction within a predetermined guidance start distance ahead in the direction of travel of the vehicle;
The lane number identifying means includes:
Based on the captured image, each of the marking lines around the vehicle and the edge of the road on which the vehicle is currently traveling is detected;
Based on the detection results of the partition line and road edge, the number of left lanes, which is the number of lanes from the left road edge to the lane in which the vehicle is currently traveling, and the lane number from the right road edge to the lane in which the vehicle is currently traveling. Calculate the number of right lanes, which is the number of
Identifying the number of lanes included in the road on which the vehicle is currently traveling by combining the number of left lanes and the number of right lanes,
The reliability includes a right-side reliability that indicates the reliability of the number of right-hand lanes, and a left-side reliability that indicates the reliability of the number of left-hand lanes,
The superimposed image display device according to claim 5, wherein it is determined whether or not the reliability corresponding to the exit direction of the vehicle at the guidance branch point is higher than a reference among the right side reliability and the left side reliability.
前記撮像画像を車両に搭載された画像表示装置に表示する表示手段を有し、
前記オブジェクト表示手段は、前記案内オブジェクトを前記撮像画像の表示された前記画像表示装置に表示することによって、前記車両の乗員に前記撮像画像内の車両周辺の風景に重畳して前記案内オブジェクトを視認させる請求項1乃至請求項6のいずれかに記載の重畳画像表示装置。
comprising display means for displaying the captured image on an image display device mounted on the vehicle;
The object display means displays the guide object on the image display device on which the captured image is displayed, so that an occupant of the vehicle can visually recognize the guide object by superimposing it on the scenery around the vehicle in the captured image. The superimposed image display device according to any one of claims 1 to 6.
JP2022058967A 2022-03-31 2022-03-31 Superimposed image display device Pending JP2023150070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022058967A JP2023150070A (en) 2022-03-31 2022-03-31 Superimposed image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022058967A JP2023150070A (en) 2022-03-31 2022-03-31 Superimposed image display device

Publications (1)

Publication Number Publication Date
JP2023150070A true JP2023150070A (en) 2023-10-16

Family

ID=88326295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022058967A Pending JP2023150070A (en) 2022-03-31 2022-03-31 Superimposed image display device

Country Status (1)

Country Link
JP (1) JP2023150070A (en)

Similar Documents

Publication Publication Date Title
JP6658905B2 (en) Travel support device and computer program
CN107430807B (en) Automatic driving assistance system, automatic driving assistance method, and computer program
US11535155B2 (en) Superimposed-image display device and computer program
US8130269B2 (en) Visual recognition apparatus, methods, and programs for vehicles
JP7476568B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
US20230135641A1 (en) Superimposed image display device
US11828613B2 (en) Superimposed-image display device
JP7302389B2 (en) Superimposed image display device and computer program
JP2023150070A (en) Superimposed image display device
JP2024018405A (en) Superimposed image display device
JP2024033759A (en) Superimposed image display device
JP2023131981A (en) Superimposed image display device
JP7400356B2 (en) Superimposed image display device and computer program
JP2024018205A (en) Superimposed image display device
JP2024071143A (en) Overlay image display device
JP2023064957A (en) Superimposed image display device
JP2023008462A (en) Superimposed image display device
JP2023044949A (en) Superposed image display device
JP2024049817A (en) Overlay image display device
JP2021081232A (en) Superimposed image display device and computer program
JP2023097939A (en) Superimposed image display device
JP2023038558A (en) Superimposed image display device
JP2022077198A (en) Superimposed image display device
JP2022110828A (en) Superimposed image display device
JP2006244217A (en) Three-dimensional map display method, three-dimensional map display program and three-dimensional map display device