JP2023097939A - Superimposed image display device - Google Patents

Superimposed image display device Download PDF

Info

Publication number
JP2023097939A
JP2023097939A JP2021214336A JP2021214336A JP2023097939A JP 2023097939 A JP2023097939 A JP 2023097939A JP 2021214336 A JP2021214336 A JP 2021214336A JP 2021214336 A JP2021214336 A JP 2021214336A JP 2023097939 A JP2023097939 A JP 2023097939A
Authority
JP
Japan
Prior art keywords
destination
vehicle
left turn
distance
destination object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021214336A
Other languages
Japanese (ja)
Inventor
修弥 島田
Shuya Shimada
広之 三宅
Hiroyuki Miyake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2021214336A priority Critical patent/JP2023097939A/en
Publication of JP2023097939A publication Critical patent/JP2023097939A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a superimposed image display device which can suppress the occurrence of misunderstanding of a position of a destination when displaying a destination object indicating the position of the destination so as to be superimposed on scenery.SOLUTION: In a case where a destination object indicating a position of a destination is displayed, when a distance to the destination is equal to or less than a reference distance, the destination object in the translucent state is displayed so as to be superimposed on scenery in the periphery of a vehicle. In a case where it is determined that right/left turn is performed at a final right/left turn guide point that is the right/left turn guide point followed by right/left turn in a guided path and is closest to the destination, the destination object in the non-transparent state is displayed.SELECTED DRAWING: Figure 4

Description

本発明は、車両の走行支援を行う重畳画像表示装置に関する。 The present invention relates to a superimposed image display device that assists driving of a vehicle.

従来より、車両の乗員に対して経路案内や障害物の警告等の車両の走行支援を行う為の各種情報を提供する情報提供手段として、様々な手段が用いられている。例えば、車両に設置された液晶ディスプレイによる表示や、スピーカから出力する音声等である。そして、近年、このような情報提供手段の一つとして、乗員の周辺環境(風景、実景)に重畳する画像を表示することによって、情報の提供を行う装置がある。例えば、ヘッドアップディスプレイ、ウインドウシールドディスプレイの他、液晶ディスプレイに表示した車両周辺の撮像画像に重畳して画像を表示する方法等が該当する。 2. Description of the Related Art Conventionally, various means have been used as information providing means for providing various types of information for assisting vehicle travel, such as route guidance and warnings of obstacles, to occupants of the vehicle. For example, it is the display by the liquid crystal display installed in the vehicle, the sound output from the speaker, or the like. In recent years, as one of such information providing means, there is a device that provides information by displaying an image superimposed on the surrounding environment (landscape, real scene) of the passenger. For example, a head-up display, a window shield display, or a method of displaying an image superimposed on a picked-up image of the surroundings of the vehicle displayed on a liquid crystal display.

例えば、特開2021-28587号公報には、自車両の目的地の方角を示すコンテンツをヘッドアップディスプレイで表示する技術について開示されている。特開2021-28587号公報の車載表示制御装置は、自車両が渋滞に遭遇し、且つ、目的地までの抜け道が存在する場合に、矢印のコンテンツをフロントウインドシールドに投影している。車載表示制御装置は、目的地の方角をコンテンツの矢の方向で示唆している。 For example, Japanese Unexamined Patent Application Publication No. 2021-28587 discloses a technology for displaying content indicating the direction of the destination of the vehicle on a head-up display. The in-vehicle display control device disclosed in Japanese Patent Application Laid-Open No. 2021-28587 projects arrow content onto the front windshield when the vehicle encounters traffic congestion and there is a bypass route to the destination. The in-vehicle display control device suggests the direction of the destination by the arrow direction of the content.

特開2021-28587(図5)JP 2021-28587 (Fig. 5)

しかし、先行技術文献では目的地の方角のみを示しているため、乗員には目的地が分かり辛いという課題がある。そこで、より乗員に分かり易く目的地を表示する目的で、目的地の位置を示す画像を車両周辺の実風景や撮像画像に重畳して表示することが考えられる。ところが、目的地の方角ではなく、目的地の位置を示す画像を車両周辺の実風景や撮像画像に重畳して表示する場合、目的地の位置を示す画像が実風景内に存在する物体と重なりその前後関係が問題となる。例えば、車両周辺に建物が並んでいる市街の走行では、目的地が建物の向こう側に存在し実際には乗員から見えない位置にあるにも係わらず、目的地の位置を示す画像を建物の手前に重ねて表示すると、目的地が建物の手前に存在すると乗員が誤認する虞がある。このため、実風景内の物体の向こうに目的地が存在する場合に、目的地の位置を乗員に分かり易く表示させる技術が必要となる。 However, since the prior art document shows only the direction of the destination, there is a problem that it is difficult for the passenger to find the destination. Therefore, in order to display the destination in a way that is easier for the passengers to understand, it is conceivable to display an image indicating the position of the destination by superimposing it on the actual scenery around the vehicle or the captured image. However, when an image indicating the position of the destination is superimposed on the actual scenery around the vehicle or a captured image, the image indicating the position of the destination overlaps with objects existing in the actual scenery. The context is the problem. For example, when driving in a city with buildings lined up around the vehicle, the image showing the position of the destination is displayed on the building, even though the destination is located on the other side of the building and is not actually visible to the passengers. If the display is superimposed on the front, the passenger may misunderstand that the destination is located in front of the building. Therefore, there is a need for a technique for displaying the position of the destination in an easy-to-understand manner for passengers when the destination exists beyond an object in the actual scenery.

本発明は前記従来における問題点を解消するためになされたものであり、目的地の位置を示す目的地オブジェクトを風景に重ねて表示する場合に、目的地の位置の誤認の発生を抑制できる重畳画像表示装置を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems in the conventional art. An object of the present invention is to provide an image display device.

前記目的を達成するため本発明に係る重畳画像表示装置は、車両に搭載され、前記車両の乗員へ案内する案内経路に関する情報を、前記車両の周辺の風景に重畳して表示させる重畳画像表示装置であって、前記車両の現在位置から前記案内経路における目的地までの距離が所定の基準距離以下であるか否かを判定する基準距離判定手段と、前記基準距離判定手段により前記目的地までの距離が前記基準距離以下であると判定した場合に、前記車両の周辺の風景における前記目的地の位置に合わせて前記目的地の位置を示す目的地オブジェクトを重畳して表示させ、且つ、前記目的地オブジェクトを第1表示態様で表示する第1オブジェクト表示手段と、前記目的地オブジェクトを前記第1表示態様で表示する処理を実行した場合に、前記車両の現在位置から前記目的地までの前記案内経路における右左折を伴う右左折案内地点について、前記案内経路において前記目的地に最も近い前記右左折案内地点である最終右左折案内地点で右左折を行なったか否かを判定する右左折判定手段と、前記右左折判定手段により前記最終右左折案内地点で右左折を行なったと判定した場合に、前記目的地オブジェクトを前記第1表示態様とは異なる第2表示態様で表示する第2オブジェクト表示手段と、を有する。
尚、「風景」とは、実際に車両から視認される風景(実景)に加えて、風景を撮像した画像、風景を再現した画像等も含む。
In order to achieve the above object, the superimposed image display device according to the present invention is mounted on a vehicle and displays information relating to a guidance route to guide passengers of the vehicle by superimposing it on scenery around the vehicle. a reference distance determining means for determining whether or not the distance from the current position of the vehicle to the destination on the guidance route is equal to or less than a predetermined reference distance; When it is determined that the distance is equal to or less than the reference distance, a destination object indicating the position of the destination is superimposed and displayed in accordance with the position of the destination in the scenery around the vehicle; first object display means for displaying a ground object in a first display mode; and guidance from the current position of the vehicle to the destination when a process for displaying the destination object in the first display mode is executed. right/left turn determination means for determining whether or not a right/left turn guidance point involving a right/left turn on a route is made at a final right/left turn guidance point which is the right/left turn guidance point closest to the destination on the guidance route. a second object display means for displaying the destination object in a second display mode different from the first display mode when the right/left turn determination means determines that a right/left turn is made at the final right/left turn guidance point; , have
Note that the “landscape” includes not only a landscape (actual landscape) that is actually visually recognized from a vehicle, but also an image of the landscape, an image of the landscape, and the like.

前記構成を有する本発明に係る重畳画像表示装置によれば、目的地までの距離が基準距離以下になると第1表示態様の目的地オブジェクトを目的地の位置に合わせて重畳表示する。これにより、目的地まで一定距離だけ離れており、右左折を伴う右左折案内地点や自車両と目的地との間に建物等が存在する可能性が高い場合には第1表示態様で目的地オブジェクトを表示する。そして、目的地に最も近い最終右左折案内地点を右左折した場合に、目的地オブジェクトの表示態様を第2表示態様に変更する。これにより、最終右左折案内地点を右左折して自車両と目的地との間に建物等が存在する可能性が低くなった時点で、即ち、目的地までの見通しが確保された可能性が高くなった時点で目的地オブジェクトを第2表示態様で表示する。従って、自車両と目的地との間の見通しの状況に合わせてより適切なタイミングで目的地オブジェクトの表示態様を変更することで、乗員に対して目的地の位置をより正確に認識させることが可能となる。 According to the superimposed image display device according to the present invention having the above configuration, when the distance to the destination becomes equal to or less than the reference distance, the destination object in the first display mode is superimposed and displayed in accordance with the position of the destination. As a result, when the destination is a certain distance away and there is a high possibility that there is a right/left turn guide point that requires a right/left turn or a building or the like exists between the vehicle and the destination, the first display mode will be displayed. View objects. Then, when the vehicle turns right or left at the final right/left turn guidance point closest to the destination, the display mode of the destination object is changed to the second display mode. As a result, when the possibility of buildings, etc. existing between the vehicle and the destination becomes low after turning left or right at the final turn guidance point, that is, the possibility that the line of sight to the destination is secured. When the height rises, the destination object is displayed in the second display mode. Therefore, by changing the display mode of the destination object at a more appropriate timing according to the line of sight between the own vehicle and the destination, it is possible to make the occupants more accurately recognize the position of the destination. It becomes possible.

第1実施形態に係るナビゲーション装置を示したブロック図である。1 is a block diagram showing a navigation device according to a first embodiment; FIG. 第1実施形態に係る走行支援処理プログラムのフローチャートである。4 is a flowchart of a driving support processing program according to the first embodiment; 目的地に向かって案内経路を走行する車両の状態を示す図である。FIG. 3 is a diagram showing the state of a vehicle traveling along a guidance route toward a destination; 液晶ディスプレイに表示する走行案内画面を示す図である。It is a figure which shows the driving guidance screen displayed on a liquid crystal display. 液晶ディスプレイに表示する走行案内画面を示す図である。It is a figure which shows the driving guidance screen displayed on a liquid crystal display. 液晶ディスプレイに表示する走行案内画面を示す図である。It is a figure which shows the driving guidance screen displayed on a liquid crystal display. 液晶ディスプレイに表示する走行案内画面を示す図である。It is a figure which shows the driving guidance screen displayed on a liquid crystal display. 直線道路の案内経路を目的地に向かって走行する車両の状態を示す図である。FIG. 2 is a diagram showing a state of a vehicle traveling toward a destination along a guidance route on a straight road; 別例の液晶ディスプレイに表示する走行案内画面の一例を示す図である。It is a figure which shows an example of the driving guidance screen displayed on the liquid crystal display of another example. 第2実施形態に係る走行支援処理プログラムのフローチャートである。9 is a flowchart of a driving support processing program according to the second embodiment; 第2実施形態に係る目的地に向かって案内経路を走行する車両の状態を示す図である。FIG. 10 is a diagram showing a state of a vehicle traveling along a guidance route toward a destination according to the second embodiment; 第3実施形態に係る重畳画像表示装置の概略構成図である。FIG. 11 is a schematic configuration diagram of a superimposed image display device according to a third embodiment; 第3実施形態に係るフロントガラス越しの風景に重畳して表示される目的地オブジェクトの画像の虚像を示す図である。FIG. 14 is a diagram showing a virtual image of a destination object image superimposed and displayed on the scenery through the windshield according to the third embodiment;

以下、本発明に係る重畳画像表示装置をナビゲーション装置に具体化した第1実施形態について図面を参照しつつ詳細に説明する。 DETAILED DESCRIPTION OF THE INVENTION A first embodiment in which a superimposed image display device according to the present invention is embodied in a navigation device will be described in detail below with reference to the drawings.

[第1実施形態]
先ず、第1実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は第1実施形態に係るナビゲーション装置1を示したブロック図である。図1に示すように第1実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して進行方向前方を撮像した実景画像を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有する。また、ナビゲーション装置1はCAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置されたフロントカメラ19や各種センサが接続されている。
[First embodiment]
First, a schematic configuration of a navigation device 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to the first embodiment. As shown in FIG. 1, the navigation device 1 according to the first embodiment includes a current position detection section 11 for detecting the current position of a vehicle in which the navigation device 1 is mounted, and a data recording section 12 for recording various data. , a navigation ECU 13 that performs various types of arithmetic processing based on input information, an operation unit 14 that receives operations from a user, a liquid crystal display 15 that displays a real scene image taken in front of the user in the traveling direction, Communication is performed between a speaker 16 that outputs voice guidance related to route guidance, a DVD drive 17 that reads a DVD as a storage medium, and an information center such as a probe center or a VICS (registered trademark: Vehicle Information and Communication System) center. and a communication module 18 . Further, the navigation device 1 is connected to a front camera 19 and various sensors installed in the vehicle on which the navigation device 1 is mounted via an in-vehicle network such as CAN.

以下に、ナビゲーション装置1が有する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等を有し、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Each component of the navigation device 1 will be described in order below.
The current position detection unit 11 has a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, etc., and is capable of detecting the current vehicle position, direction, vehicle speed, current time, and the like. there is In particular, the vehicle speed sensor 22 is a sensor for detecting the moving distance and speed of the vehicle, generates a pulse according to the rotation of the driving wheels of the vehicle, and outputs the pulse signal to the navigation ECU 13 . The navigation ECU 13 then counts the generated pulses to calculate the rotational speed of the drive wheels and the travel distance. It should be noted that the navigation device 1 does not need to include all of the above four types of sensors, and the navigation device 1 may be configured to include only one or more of these sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクにより構成しても良い。また、地図情報DB31を外部のサーバに格納させ、ナビゲーション装置1が通信により取得する構成としても良い。 The data recording unit 12 also includes a hard disk (not shown) as an external storage device and recording medium, and a driver for reading the map information DB 31 and predetermined programs recorded in the hard disk and writing predetermined data to the hard disk. and a recording head (not shown). Note that the data recording unit 12 may be configured by a flash memory, a memory card, or an optical disk such as a CD or DVD instead of the hard disk. Alternatively, the map information DB 31 may be stored in an external server, and the navigation device 1 may acquire the map information through communication.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ32、ノード点に関するノードデータ33、分岐点に関する分岐点データ34、施設等の地点に関する地点データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等が記憶された記憶手段である。 Here, the map information DB 31 includes, for example, link data 32 relating to roads (links), node data 33 relating to node points, branch point data 34 relating to branch points, point data relating to points such as facilities, and map display for displaying maps. Data, search data for searching for routes, search data for searching for points, etc. are stored.

また、リンクデータ32としては、道路を構成する各リンクに関してリンクの属する道路の幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線数の減少する箇所、幅員の狭くなる箇所、踏切り等を表すデータが、コーナに関して、曲率、曲率半径、交差点、T字路、コーナの入口及び出口等を表すデータが、道路属性に関して、降坂路、登坂路等を表すデータが、道路種別に関して、高速道路と一般道(国道、県道、細街路等)を表すデータがそれぞれ記録される。 The link data 32 includes the width, slope, cant, bank, condition of the road surface, number of lanes on the road, locations where the number of lanes decreases, and width of the road to which each link of the road belongs. For corners, data representing curvature, radius of curvature, intersections, T-junctions, corner entrances and exits, etc. For road attributes, data representing downhill roads, uphill roads, etc. , data representing highways and general roads (national roads, prefectural roads, narrow streets, etc.) are recorded for each road type.

また、ノードデータ33としては、実際の道路の分岐点(交差点、T字路等も含む)や各道路に曲率半径等に応じて所定の距離毎に設定されたノード点の座標(位置)、ノードが交差点に対応するノードであるか等を表すノード属性、ノードに接続するリンクのリンク番号のリストである接続リンク番号リスト、ノードにリンクを介して隣接するノードのノード番号のリストである隣接ノード番号リスト、各ノード点の高さ(高度)等に関するデータ等が記録される。 The node data 33 includes coordinates (positions) of actual road branch points (including intersections, T-junctions, etc.) and node points set at predetermined distances according to the radius of curvature of each road, A node attribute that indicates whether a node corresponds to an intersection, etc., a connection link number list that is a list of link numbers of links that connect to a node, and an adjacency that is a list of node numbers of nodes that are adjacent to a node via links. A node number list, data about the height (altitude) of each node point, and the like are recorded.

また、分岐点データ34としては、分岐点の交差点名称、分岐点を形成するノードを特定する該当ノード情報、分岐点に接続されるリンクを特定する接続リンク情報、分岐点に接続されるリンクに対応する方面名称、分岐点の形状を特定する情報等が記憶される。また、分岐点での右左折案内を行う場合に目印となり得る構造物についても記憶される。 The branch point data 34 includes the intersection name of the branch point, the corresponding node information specifying the node forming the branch point, the connection link information specifying the link connected to the branch point, and the link connected to the branch point. The name of the corresponding area, information specifying the shape of the branch point, and the like are stored. Also stored is a structure that can serve as a landmark when performing right/left turn guidance at a branch point.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図2)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、基準距離判定手段は、車両の現在位置から案内経路における目的地までの距離が所定の基準距離以下であるか否かを判定する。第1オブジェクト表示手段は、基準距離判定手段により目的地までの距離が基準距離以下であると判定した場合に、車両の周辺の風景における目的地の位置に合わせて目的地の位置を示す目的地オブジェクトを重畳して表示させ、且つ、目的地オブジェクトを第1表示態様で表示する。右左折判定手段は、目的地オブジェクトを第1表示態様で表示する処理を実行した場合に、車両の現在位置から目的地までの案内経路における右左折を伴う右左折案内地点について、案内経路において目的地に最も近い右左折案内地点である最終右左折案内地点で右左折を行なったか否かを判定する。第2オブジェクト表示手段は、右左折判定手段により最終右左折案内地点で右左折を行なったと判定した場合に、目的地オブジェクトを第1表示態様とは異なる第2表示態様で表示する。進行距離判定手段は、右左折判定手段により最終右左折案内地点で右左折を行なったと判定した場合に、最終右左折案内地点で右左折を行なった後に車両が所定の進行距離だけ進行したか否かを判定する。閾値距離判定手段は、右左折判定手段により最終右左折案内地点で右左折を行なったと判定した場合に、車両の現在位置から目的地まで距離が所定の閾値距離以下であるか否かを判定する。 On the other hand, a navigation ECU (electronic control unit) 13 is an electronic control unit that controls the entire navigation device 1, and includes a CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processing. In addition to the RAM 42 that stores the route data etc. when the route is searched, the ROM 43 that stores the driving support processing program (FIG. 2) etc. described later, etc. in addition to the control program It has an internal storage device such as a flash memory 44 for storing programs. The navigation ECU 13 has various means as processing algorithms. For example, the reference distance determination means determines whether or not the distance from the current position of the vehicle to the destination on the guidance route is equal to or less than a predetermined reference distance. The first object display means displays the position of the destination according to the position of the destination in the scenery around the vehicle when the reference distance determination means determines that the distance to the destination is equal to or less than the reference distance. The object is superimposed and displayed, and the destination object is displayed in the first display mode. When the destination object is displayed in the first display mode, the right/left turn determination means determines whether a right/left turn guidance point that involves a right/left turn on the guidance route from the current position of the vehicle to the destination is the destination object on the guidance route. It is determined whether or not the vehicle has made a right or left turn at the final right or left turn guidance point, which is the right or left turn guidance point closest to the ground. The second object display means displays the destination object in a second display mode different from the first display mode when the right/left turn determination means determines that the vehicle has made a right/left turn at the final right/left turn guidance point. The travel distance determination means determines whether or not the vehicle has traveled a predetermined travel distance after making the right or left turn at the final right/left turn guide point when the right/left turn determination means determines that the vehicle has made a right/left turn at the final right/left turn guidance point. determine whether The threshold distance determination means determines whether or not the distance from the current position of the vehicle to the destination is equal to or less than a predetermined threshold distance when the right/left turn determination means determines that the vehicle has made a left or right turn at the final right/left turn guidance point. .

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルを有する構成としても良い。また、マイクと音声認識装置を有する構成としても良い。 The operation unit 14 is operated when inputting a departure point as a travel start point and a destination as a travel end point, and has a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing of each switch or the like. The operation unit 14 may have a touch panel provided on the front surface of the liquid crystal display 15 . Moreover, it is good also as a structure which has a microphone and a voice-recognition device.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。また、特に第1実施形態では、走行時において液晶ディスプレイ15にはフロントカメラ19で撮像した撮像画像、即ち現時点の車両周辺(特に車両前方)の風景(実景画像)を表示し、更に必要に応じて風景に対して案内オブジェクトを重畳させて表示する。 The liquid crystal display 15 also displays a map image including roads, traffic information, operation guidance, operation menu, key guidance, guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecast, Time, mail, TV program, etc. are displayed. Further, particularly in the first embodiment, the liquid crystal display 15 displays an image captured by the front camera 19, that is, the scenery (real scene image) around the vehicle at the present time (particularly in front of the vehicle) while the vehicle is running. display the guide object superimposed on the landscape.

ここで、風景に重畳して表示される案内オブジェクトとしては、乗員の運転の支援の為に用いられる各種情報や車両に関する情報がある。案内オブジェクトとしては、例えば、ナビゲーション装置1で設定された案内経路や案内経路に関する情報(車両の進路、進行方向、進入すべき車線、右左折方向を示す矢印、案内分岐点の目印を示すアイコン、案内分岐点までの距離等)、乗員に対して警告対象となる対象物(他車両、歩行者、案内標識)に対する警告、路面に表示する警告(追突注意、制限速度等)、車両が走行する車線の区画線、現在車速、シフト位置、エネルギ残量、広告画像、施設情報、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面等がある。また、本実施形態では、案内オブジェクトとして、案内経路における目的地の位置を示す目的地オブジェクトを採用した場合について説明する。 Here, the guide objects superimposed on the scenery and displayed include various types of information used for assisting the driver in driving and information related to the vehicle. The guidance objects include, for example, the guidance route set by the navigation device 1 and information related to the guidance route (vehicle route, direction of travel, lane to enter, arrows indicating right and left turn directions, icons indicating guide junction marks, distance to guidance junctions, etc.); There are lane markings, current vehicle speed, shift position, remaining energy, advertisement images, facility information, guidance signs, map images, traffic information, news, weather forecasts, time, screens of connected smartphones, and so on. Also, in this embodiment, a case where a destination object indicating the position of the destination on the guidance route is adopted as the guidance object will be described.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。 In addition, the speaker 16 outputs voice guidance that guides the vehicle along the guidance route based on instructions from the navigation ECU 13 and traffic information guidance.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。 Also, the DVD drive 17 is a drive capable of reading data recorded on recording media such as DVDs and CDs. Then, based on the read data, music and video are reproduced, the map information DB 31 is updated, and so on. A card slot for reading and writing a memory card may be provided instead of the DVD drive 17 .

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。 In addition, the communication module 18 is a communication device for receiving traffic information consisting of information such as congestion information, traffic regulation information, and traffic accident information transmitted from a traffic information center, such as a VICS center or a probe center. For example, mobile phones and DCMs correspond.

また、フロントカメラ19は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両の進行方向前方に向けて設置される。フロントカメラ19は、例えば、車両のルームミラーの裏に取り付けられている。そして、フロントカメラ19により撮像された撮像画像は、前述したように車両周辺(特に車両前方)の風景(実景画像)として液晶ディスプレイ15に対して表示される。尚、フロントカメラ19を、バンパー等の他の場所に取り付けても良い。 The front camera 19 is an imaging device having a camera using a solid-state imaging device such as a CCD, for example, and is installed with the optical axis directed forward in the traveling direction of the vehicle. The front camera 19 is attached behind the rearview mirror of the vehicle, for example. The captured image captured by the front camera 19 is displayed on the liquid crystal display 15 as the scenery (real scene image) around the vehicle (especially in front of the vehicle) as described above. Note that the front camera 19 may be attached to another location such as a bumper.

続いて、前記構成を有するナビゲーション装置1においてナビゲーションECU13が実行する走行支援処理プログラムについて図2~図8に基づき説明する。図2は第1実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは、例えば、ナビゲーション装置1による目的地までの経路案内処理を開始された後に実行され、自車両から目的地までの距離などに応じて、液晶ディスプレイ15に表示された車両周辺の風景に重畳させた目的地オブジェクトを視認させることによって、車両の走行支援を行うプログラムである。尚、以下の図2にフローチャートで示されるプログラムは、ナビゲーション装置1が備えているRAM42やROM43に記憶されており、CPU41により実行される。 Next, a driving support processing program executed by the navigation ECU 13 in the navigation device 1 having the above configuration will be described with reference to FIGS. 2 to 8. FIG. FIG. 2 is a flow chart of a driving support processing program according to the first embodiment. Here, the driving support processing program is executed, for example, after the route guidance processing to the destination by the navigation device 1 is started, and is displayed on the liquid crystal display 15 according to the distance from the own vehicle to the destination. This is a program that assists the driving of a vehicle by visually recognizing a destination object superimposed on the scenery around the vehicle. 2 is stored in the RAM 42 and ROM 43 provided in the navigation device 1 and executed by the CPU 41. The program shown in FIG.

以下の説明では目的地オブジェクトを用いた車両の走行支援として、ナビゲーション装置1で設定された案内経路に沿った車両の進路案内を行う例について説明する。尚、ナビゲーション装置1は、目的地オブジェクト以外の案内オブジェクトを用いて図2~図8に示す走行支援以外の案内や情報提供を行うことも可能である。例えば、案内オブジェクトとして、乗員に対して警告対象となる対象物(他車両、歩行者、案内標識)に対する警告、路面に表示する警告(追突注意、制限速度等)、車両が走行する車線の区画線、現在車速、シフト位置、エネルギ残量、広告画像、施設情報、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面等を表示することも可能である。また、乗員とは、運転者に限らず、同乗者でも良い。 In the following description, an example of performing vehicle route guidance along a guidance route set by the navigation device 1 as vehicle driving support using a destination object will be described. The navigation device 1 can also provide guidance and information other than the driving assistance shown in FIGS. 2 to 8 by using guidance objects other than the destination object. For example, as a guide object, a warning for objects to be warned to passengers (other vehicles, pedestrians, guide signs), warnings displayed on the road surface (beware of rear-end collisions, speed limits, etc.), lane divisions in which the vehicle travels, etc. It is also possible to display lines, current vehicle speed, shift position, remaining energy, advertisement images, facility information, guide signs, map images, traffic information, news, weather forecasts, time, screens of connected smartphones, etc. Also, the occupant is not limited to the driver, and may be a fellow passenger.

先ず、走行支援処理プログラムでは、図2のステップ(以下、Sと略記する)1においてCPU41は、目的地オブジェクトを非表示状態とする。例えば、CPU41は、液晶ディスプレイ15に対する操作入力に基づいて目的地の設定を受け付けると、地図情報DB31に基づいて自車両の現在位置から目的地までの案内経路を探索する。CPU41は、探索した複数の案内経路を液晶ディスプレイ15に表示した後、案内経路の選択を液晶ディスプレイ15で受け付ける。CPU41は、選択された案内経路について案内を開始する指示を液晶ディスプレイ15で受け付けると経路案内を開始する。 First, in the driving support processing program, in step (hereinafter abbreviated as S) 1 in FIG. 2, the CPU 41 puts the destination object in a non-display state. For example, when the CPU 41 receives a destination setting based on an operation input to the liquid crystal display 15, it searches for a guide route from the current position of the vehicle to the destination based on the map information DB31. After displaying the plurality of searched guidance routes on the liquid crystal display 15, the CPU 41 accepts selection of a guidance route on the liquid crystal display 15. FIG. When the liquid crystal display 15 receives an instruction to start guidance for the selected guidance route, the CPU 41 starts route guidance.

図3は、目的地51に向かって案内経路52を走行している車両53(自車両)の状態を示している。以下の説明では、一例として、十字路の右左折案内地点54に進入経路55から進入し、右折して退出経路56を走行し、最終案内地点57まで走行する進路の案内をする場合について説明する。右左折案内地点54は、車両53の現在位置(例えば、位置58)から最終案内地点57までの案内経路52における右左折を伴う右左折案内地点であって、案内経路52において目的地51に最も近い右左折案内地点、即ち、本願における最終右左折案内地点である。尚、図2は右左折を伴う右左折案内地点54が1つだけ存在する場合であるが、仮に、右左折を伴う右左折案内地点54が複数存在する場合、最終右左折案内地点とは、例えば、複数の右左折案内地点54のうち、最終案内地点57までの案内経路52に沿った距離が最も短い右左折案内地点54である。また、最終右左折案内地点は、案内経路52に沿った距離が最も短い右左折案内地点54に限らず、例えば、目的地51との直線距離が最も短い右左折案内地点54でも良い。また、図3は、説明の便宜上、目的地オブジェクトGを図示している。 FIG. 3 shows a state of a vehicle 53 (self-vehicle) traveling along a guidance route 52 toward a destination 51. As shown in FIG. In the following description, as an example, a case of guiding the vehicle to the right/left turn guide point 54 of the crossroads from the approach route 55, turn right, travel along the exit route 56, and travel to the final guide point 57 will be described. The right/left turn guidance point 54 is a right/left turn guidance point that accompanies a left/right turn on the guidance route 52 from the current position (for example, position 58) of the vehicle 53 to the final guidance point 57, and is closest to the destination 51 on the guidance route 52. It is the nearest right/left turn guidance point, ie, the final right/left turn guidance point in the present application. FIG. 2 shows the case where there is only one right/left turn guide point 54 accompanying a right/left turn, but if there are a plurality of right/left turn guide points 54 accompanying a right/left turn, the final left/right turn guide point is For example, among the plurality of right/left turn guidance points 54 , the right/left turn guidance point 54 has the shortest distance along the guidance route 52 to the final guidance point 57 . Further, the final right/left turn guidance point is not limited to the right/left turn guidance point 54 having the shortest distance along the guide route 52, but may be the right/left turn guidance point 54 having the shortest straight line distance from the destination 51, for example. Also, FIG. 3 illustrates the destination object G for convenience of explanation.

また、本願の右左折案内地点、及び最終右左折案内地点は、十字路に限らず、T字路、Y字路、5個以上の複数の道路が接続された分岐点でも良い。また、右左折案内地点、及び最終右左折案内地は、一般道の分岐点に限らず、高速道路の進入路や退出路が接続された分岐点でも良い。即ち、ナビゲーション装置1は、以下に説明する目的地オブジェクトG,G1を用いた案内を高速道路の経路案内においても実行しても良い。具体的には、ナビゲーション装置1は、例えば、サービスエリアを目的地として設定された場合に、サービスエリアへ進入するための退出路に繋がる分岐点を最終右左折案内地点として判定し、目的地オブジェクトの表示態様を変更しても良い。従って、本願の右左折案内地点とは、ナビゲーション装置1に設定されている案内経路52に従ってナビゲーション装置1が走行の案内を行う際に、右左折指示を行う対象の様々な分岐点(交差点)である。 Further, the right/left turn guidance point and the final right/left turn guidance point of the present application are not limited to crossroads, and may be T-junctions, Y-junctions, and junctions where five or more roads are connected. Further, the right/left turn guide point and the final right/left turn guide point are not limited to the branch point of the general road, but may be a branch point where the approach road and the exit road of the expressway are connected. In other words, the navigation device 1 may perform guidance using the destination objects G and G1, which will be described below, also in expressway route guidance. Specifically, for example, when a service area is set as a destination, the navigation device 1 determines a branch point leading to an exit road for entering the service area as a final right/left turn guide point, and determines a destination object. may be changed. Therefore, the right/left turn guidance points in the present application refer to various branch points (intersections) to which right/left turn instructions are given when the navigation device 1 provides travel guidance according to the guidance route 52 set in the navigation device 1. be.

また、案内経路52は、例えば、車両53の位置58から最終案内地点57までの案内経路であり、例えば、進入経路55のリンク、退出経路56のリンク、右左折案内地点54のノードなどを接続した経路である。また、最終案内地点57は、目的地51から所定距離(例えば、50m)だけ離れた道路上の地点であり、案内経路52に沿って走行した場合に、所定距離まで目的地51に近づいた地点である。CPU41は、この最終案内地点57まで案内し、車両53が最終案内地点57に到達すると案内を終了する。尚、CPU41は、目的地51の施設内についても経路を案内する場合には、施設内の目的地に最も近い右左折案内地点54を最終右左折案内地点として設定しても良い。 The guidance route 52 is, for example, a guidance route from the position 58 of the vehicle 53 to the final guidance point 57, and connects, for example, the link of the approach route 55, the link of the exit route 56, the node of the right/left turn guidance point 54, and the like. This is the route taken. The final guidance point 57 is a point on the road that is a predetermined distance (for example, 50 m) away from the destination 51, and is a point that approaches the destination 51 by a predetermined distance when traveling along the guidance route 52. is. The CPU 41 guides the vehicle to the final guidance point 57 and ends the guidance when the vehicle 53 reaches the final guidance point 57 . In addition, when guiding the route within the facility of the destination 51, the CPU 41 may set the right/left turn guidance point 54 closest to the destination within the facility as the final right/left turn guidance point.

CPU41は、案内を開始する指示を受け付けると、例えば、自車を示す自車アイコンを液晶ディスプレイ15の案内地図(平面地図など)に表示するとともに、設定した案内経路52の案内を開始する。また、CPU41は、案内の開始に合わせて図2に示す走行支援処理プログラムを実行する。CPU41は、走行支援処理プログラムの実行を開始した段階では目的地オブジェクトを非表示状態とする(S1)。 When the CPU 41 receives an instruction to start guidance, the CPU 41 displays, for example, a vehicle icon indicating the vehicle on a guidance map (planar map, etc.) on the liquid crystal display 15 and starts guidance along the set guidance route 52 . In addition, the CPU 41 executes the driving support processing program shown in FIG. 2 in accordance with the start of the guidance. The CPU 41 puts the destination object in a non-display state at the stage of starting execution of the driving support processing program (S1).

次に、CPU41は、車両53から目的地51までの距離59(図3参照)が基準距離TH1以下であるか否かを判定する(S2)。CPU41は、案内経路52に沿った現在の位置58から最終案内地点57までの距離を、目的地51までの距離59として設定する。図3の位置58における目的地51までの距離59は、例えば、位置58から右左折案内地点54までの距離と、右左折案内地点54から最終案内地点57までの距離を加算した長さとなる。尚、基準距離TH1と比較する距離は、上記した案内経路52に沿った距離59に限らない。例えば、図3に示すように、CPU41は、目的地51と車両53の位置58との直線距離59AをS2の基準距離TH1の判定に用いても良い。 Next, the CPU 41 determines whether or not the distance 59 (see FIG. 3) from the vehicle 53 to the destination 51 is equal to or shorter than the reference distance TH1 (S2). The CPU 41 sets the distance from the current position 58 along the guidance route 52 to the final guidance point 57 as the distance 59 to the destination 51 . A distance 59 to the destination 51 at the position 58 in FIG. The distance to be compared with the reference distance TH1 is not limited to the distance 59 along the guide route 52 described above. For example, as shown in FIG. 3, the CPU 41 may use the linear distance 59A between the destination 51 and the position 58 of the vehicle 53 to determine the reference distance TH1 in S2.

CPU41は、距離59が基準距離TH1より大きい場合、S2で否定判定し(S2:NO)、S2の判定処理を繰り返し実行する。CPU41は、距離59が基準距離TH1以下になると(S2:YES)、目的地オブジェクトを半透過状態で表示する(S3)。従って、CPU41は、自車両が目的地51から基準距離TH1の位置まで近づくと目的地オブジェクトの表示を開始する。換言すれば、基準距離TH1は、目的地オブジェクトの表示を開始するタイミングを判定するための距離であり、例えば、100mである。尚、CPU41は、基準距離TH1として固定値を用いずに、例えば、一般道に比べて高速道路の基準距離TH1を長くしても良い。これにより、より速度の速い走行においては基準距離TH1を長くして適切なタイミングで目的地オブジェクトの表示を行なうことができる。また、CPU41は、仮に、一度、車両53が基準距離TH1以下の距離まで近づいた後に、基準距離TH1より大きい距離まで離れた場合、目的地オブジェクトの表示を終了し、図2の処理を最初から開始しても良い。 When the distance 59 is greater than the reference distance TH1, the CPU 41 makes a negative determination in S2 (S2: NO), and repeats the determination process of S2. When the distance 59 becomes equal to or less than the reference distance TH1 (S2: YES), the CPU 41 displays the destination object in a translucent state (S3). Therefore, the CPU 41 starts displaying the destination object when the host vehicle approaches the position of the reference distance TH1 from the destination 51 . In other words, the reference distance TH1 is a distance for determining the timing to start displaying the destination object, and is 100 m, for example. Instead of using a fixed value as the reference distance TH1, the CPU 41 may, for example, make the reference distance TH1 on expressways longer than on general roads. This makes it possible to increase the reference distance TH1 and display the destination object at an appropriate timing when traveling at a higher speed. Further, if the vehicle 53 moves away from the vehicle 53 to a distance greater than the reference distance TH1 after approaching the vehicle 53 to the reference distance TH1 or less, the CPU 41 terminates the display of the destination object, and repeats the process of FIG. 2 from the beginning. You can start.

例えば、図3の位置58で目的地オブジェクトの表示を開始したとする。位置58は、最終右左折案内地点である右左折案内地点54よりも1つ手前の十字路61に進入する地点である。図4は、液晶ディスプレイ15に表示する走行案内画面の一例を示しており、十字路61に進入する前の画面を示している。CPU41は、例えば、S3において液晶ディスプレイ15の表示画面を案内地図や自車アイコンを表示する画面から図4に示す目的地オブジェクトG1や案内オブジェクト63を表示する画面に切り替える。即ち、CPU41は、平面地図や自車アイコンなどを示して案内経路52を案内する画面から目的地オブジェクトG1を表示する画面に変更する。尚、CPU41は、案内地図の画面と、目的地オブジェクトGを表示する画像の両方を並べて1画面に表示しても良い。 For example, assume that the destination object started to be displayed at position 58 in FIG. A position 58 is a point where the vehicle enters a crossroads 61 one before the right/left turn guidance point 54, which is the final right/left turn guidance point. FIG. 4 shows an example of a travel guidance screen displayed on the liquid crystal display 15, showing the screen before entering the crossroads 61. As shown in FIG. For example, in S3, the CPU 41 switches the display screen of the liquid crystal display 15 from the screen displaying the guide map and the vehicle icon to the screen displaying the destination object G1 and the guide object 63 shown in FIG. That is, the CPU 41 changes the screen from displaying the plan map, the own vehicle icon, and the like to guide the guide route 52 to the screen displaying the destination object G1. Note that the CPU 41 may display both the guide map screen and the image displaying the destination object G side by side on one screen.

図4に示すように、液晶ディスプレイ15には、フロントカメラ19により撮像した車両前方の風景64に重畳して案内オブジェクト63や目的地オブジェクトG1の画像が表示される。尚、半透過状態の目的地オブジェクトを、半透過状態でない目的地オブジェクトGと区別するために目的地オブジェクトG1と称する。図3の案内経路52に示すように、位置58の時点で案内する経路は、十字路61を直進する経路である。このため、図4に示すように、CPU41は、十字路61を直進する方向を示す複数の三角形の案内オブジェクト63の画像を十字路61の位置に合わせて表示する。これにより、目的地51に向かう案内経路52が、進行方向の前方にある十字路61を直進する方向であることを乗員に示唆できる。 As shown in FIG. 4, the liquid crystal display 15 displays images of the guide object 63 and the destination object G1 superimposed on the scenery 64 in front of the vehicle captured by the front camera 19 . The destination object in the semi-transparent state is referred to as a destination object G1 to distinguish it from the destination object G that is not in the semi-transparent state. As shown in the guide route 52 of FIG. 3, the route to be guided at the point of the position 58 is a route that goes straight through the crossroads 61 . Therefore, as shown in FIG. 4 , the CPU 41 displays images of a plurality of triangular guide objects 63 indicating the direction to go straight through the crossroads 61 in accordance with the positions of the crossroads 61 . Thus, it is possible to suggest to the occupant that the guidance route 52 toward the destination 51 is a direction to go straight through the crossroads 61 ahead in the direction of travel.

また、CPU41は、風景64における目的地51の位置に合わせて目的地51の位置を示す目的地オブジェクトG1の画像を半透過状態で表示する。CPU41は、例えば、目的地オブジェクトG1を所定の色(赤色など)で着色して表示するとともに、目的地オブジェクトG1の透過率を所定の割合(70%など)まで上げて表示する。CPU41は、例えば、位置58と目的地51の位置に基づいて目的地51の方角を演算し、風景64における目的地51の位置を設定して、設定した目的地51の位置に目的地オブジェクトG1の画像を表示する。図4の目的地オブジェクトG1で示されるように、位置58では、目的地51が右斜め前方に位置する。また、CPU41は、目的地オブジェクトG1の画像として、丸い形状の中に「ゴールを示すG」の文字を表示し、下側に目的地51の位置を指し示す三角形状を付加した画像を表示する。尚、目的地オブジェクトG,G1の画像は、図3及び図4に示す画像に限らず、多角形、丸、楕円、星型あるいはそれらを組み合わせた画像でも良い。また、目的地オブジェクトG,G1は、文字のない図形でも良く、文字や数字だけの画像でも良い。 In addition, the CPU 41 displays an image of the destination object G1 indicating the position of the destination 51 in a translucent state in accordance with the position of the destination 51 in the landscape 64 . For example, the CPU 41 displays the destination object G1 in a predetermined color (such as red), and displays the destination object G1 by increasing the transmittance of the destination object G1 to a predetermined ratio (such as 70%). For example, the CPU 41 calculates the direction of the destination 51 based on the position 58 and the position of the destination 51, sets the position of the destination 51 in the landscape 64, and places the destination object G1 at the set destination 51 position. to display an image of As indicated by the destination object G1 in FIG. 4, at the position 58, the destination 51 is located diagonally forward right. In addition, the CPU 41 displays an image of the destination object G1 in which the letters "G indicating the goal" are displayed in a round shape, and a triangular shape indicating the position of the destination 51 is added to the lower side. The images of the destination objects G and G1 are not limited to the images shown in FIGS. 3 and 4, and may be images of polygons, circles, ellipses, stars, or a combination thereof. Also, the destination objects G and G1 may be figures without characters, or may be images with only characters and numbers.

尚、目的地オブジェクトG,G1や案内オブジェクト63(以下、目的地オブジェクトG等という場合がある)の画像を実景画像に重畳表示させる具体的な方法は、特に限定されない。例えば、CPU41は、車両53の現在位置周辺(特に進行方向の前方)に対応した3次元空間を生成する。CPU41は、3次元空間として、例えば路面のみを設定した空間を生成する。CPU41は、地図情報DB31に基づいて、進入経路55、右左折案内地点54、退出経路56などの道路を3次元空間にモデリングしても良い。あるいは、CPU41は、道路以外に、建築物、道路標識などについても3次元空間にモデリングしても良い。また、3次元空間の情報を予め3次元地図情報として地図情報DB31に格納しておき、CPU41が、地図情報DB31から該当する自車位置周辺の3次元地図情報を読み出して用いても良い。また、CPU41は、フロントカメラ19で撮像した画像に基づいて3次元空間を生成しても良い。例えばフロントカメラ19で撮像した撮像画像に対して点群マッチングを行うことによって、道路や道路周辺にある構造物を検出し、3次元空間を生成することが可能である。 A specific method for superimposing and displaying the image of the destination objects G, G1 and the guide object 63 (hereinafter sometimes referred to as the destination object G, etc.) on the actual scene image is not particularly limited. For example, the CPU 41 generates a three-dimensional space corresponding to the vicinity of the current position of the vehicle 53 (especially forward in the traveling direction). The CPU 41 generates, for example, a space in which only the road surface is set as a three-dimensional space. Based on the map information DB 31, the CPU 41 may model the roads such as the approach route 55, the right/left turn guidance points 54, and the exit route 56 in a three-dimensional space. Alternatively, the CPU 41 may also model buildings, road signs, etc. in a three-dimensional space in addition to roads. Alternatively, the information of the three-dimensional space may be stored in the map information DB 31 in advance as the three-dimensional map information, and the CPU 41 may read out the three-dimensional map information of the pertinent vehicle position from the map information DB 31 and use it. Also, the CPU 41 may generate a three-dimensional space based on an image captured by the front camera 19 . For example, by performing point group matching on an image captured by the front camera 19, it is possible to detect roads and structures around the roads and generate a three-dimensional space.

CPU41は、現在位置検出部11で検出されたパラメータに基づいて、生成した3次元空間における自車両の現在位置及び方位を特定する。例えば、車両53に設置されたフロントカメラ19の位置を自車両の現在位置とし、フロントカメラ19の光軸方向を自車両の方位とする。車両53の位置をフロントカメラ19の位置とすることで、撮像画像は3次元空間に目的地オブジェクトG等を配置した場合、目的地オブジェクトG等をフロントカメラ19の視点から車両の進行方向に視認した際に視認できる像となる。フロントカメラ19は、例えば、ルームミラーの裏側に取り付けられている。このため、フロントカメラ19の位置は車両53の乗員の目線の高さの位置、即ち、フロントカメラ19の光軸方向は車両53の乗員の視線方向にも相当する。また、フロントカメラ19の撮像画像は車両の乗員の視界から見える(視認した)画像に相当する。また、CPU41は、例えば、目的地オブジェクトG等として2次元ポリゴンを生成し、基本的に厚みがないオブジェクトを生成する。但し、厚みを持たせた3次元ポリゴンを用いても良い。CPU41は、3次元空間における自車両(フロントカメラ19)の現在位置や方位、目的地51の位置や方角に基づいて、生成した目的地オブジェクトG等の2次元ポリゴンを3次元空間に配置する。 Based on the parameters detected by the current position detector 11, the CPU 41 identifies the current position and orientation of the vehicle in the generated three-dimensional space. For example, the position of the front camera 19 installed in the vehicle 53 is the current position of the vehicle, and the direction of the optical axis of the front camera 19 is the azimuth of the vehicle. By setting the position of the vehicle 53 to the position of the front camera 19, when the destination object G and the like are arranged in a three-dimensional space, the captured image can be viewed from the viewpoint of the front camera 19 in the traveling direction of the vehicle. It becomes an image that can be seen when The front camera 19 is attached, for example, to the rear side of the rearview mirror. Therefore, the position of the front camera 19 corresponds to the line of sight of the occupant of the vehicle 53 , that is, the direction of the optical axis of the front camera 19 corresponds to the line of sight of the occupant of the vehicle 53 . An image captured by the front camera 19 corresponds to an image seen (visually recognized) from the visual field of the vehicle occupant. Also, the CPU 41 generates, for example, a two-dimensional polygon as the destination object G, etc., and generates an object that is basically thin. However, a thick three-dimensional polygon may be used. The CPU 41 arranges the generated two-dimensional polygons such as the destination object G in the three-dimensional space based on the current position and direction of the own vehicle (front camera 19) and the position and direction of the destination 51 in the three-dimensional space.

CPU41は、目的地オブジェクトG等を配置した3次元空間を、特定した車両53の位置(視点に相当するフロントカメラ19の位置)から車両53の進行方向に視認した画像(以下、視認画像という)を取得する。特に車両53の位置をフロントカメラ19の位置とするので、取得された視認画像は3次元空間に配置された目的地オブジェクトG等をフロントカメラ19の視点から車両53の進行方向に視認した際に視認できる像となるが、車両53の乗員の視界にも相当する。CPU41は、視認画像に含まれる目的地オブジェクトG等の形状・大きさ及び位置を、液晶ディスプレイ15により表示対象とする目的地オブジェクトG等の形状・大きさ及びの位置として記憶する。ここで記憶される目的地オブジェクトG等の形状・大きさは、3次元空間に配置された目的地オブジェクトG等のうち、車両53(より正確にはフロントカメラ19)の視点から視認した際に視認できる目的地オブジェクトG等の形状・大きさである。また、記憶される目的地オブジェクトG等の位置は、3次元空間に配置された目的地オブジェクトG等のうち、車両53(より正確にはフロントカメラ19)の視点から視認した際に視認できる目的地オブジェクトG等の位置である。そして、CPU41は、記憶した目的地オブジェクトG等の形状・大きさ及び位置に基づいてフロントカメラ19で撮像した風景に目的地オブジェクトG等を重畳表示させた画像を液晶ディスプレイ15に表示させる。これにより、3次元空間に配置した目的地オブジェクトG等のうち、現在位置の乗員から視認可能な目的地オブジェクトG等が液晶ディスプレイ15に反映される。目的地オブジェクトG等の形状・大きさ及び位置は、車両53の位置や方位に応じて適宜変更(拡大・縮小等)される。尚、CPU41は、目的地オブジェクトG等の画像の形状や大きさを車両53の位置や方位に係わらず一定に維持しても良い。 The CPU 41 creates an image of the three-dimensional space in which the destination object G and the like are arranged, viewed from the specified position of the vehicle 53 (the position of the front camera 19 corresponding to the viewpoint) in the traveling direction of the vehicle 53 (hereinafter referred to as a viewed image). to get In particular, since the position of the vehicle 53 is the position of the front camera 19, the acquired visual image is obtained when the destination object G and the like arranged in the three-dimensional space are viewed from the viewpoint of the front camera 19 in the traveling direction of the vehicle 53. Although it is a visible image, it also corresponds to the visual field of the occupant of the vehicle 53 . The CPU 41 stores the shape, size and position of the destination object G etc. included in the visible image as the shape, size and position of the destination object G etc. to be displayed on the liquid crystal display 15 . The shape and size of the destination object G and the like stored here are those of the destination object G and the like arranged in the three-dimensional space when viewed from the viewpoint of the vehicle 53 (more precisely, the front camera 19). It is the shape and size of the destination object G or the like that can be visually recognized. In addition, the stored positions of the destination objects G and the like are those of the destination objects G and the like arranged in the three-dimensional space that can be visually recognized when viewed from the viewpoint of the vehicle 53 (more precisely, the front camera 19). This is the position of the ground object G and the like. Then, the CPU 41 causes the liquid crystal display 15 to display an image in which the destination object G and the like are superimposed on the scenery captured by the front camera 19 based on the stored shape, size and position of the destination object G and the like. As a result, of the destination objects G and the like arranged in the three-dimensional space, the destination object G and the like visible to the passenger at the current position are reflected on the liquid crystal display 15 . The shape, size, and position of the destination object G and the like are appropriately changed (enlarged/reduced, etc.) according to the position and orientation of the vehicle 53 . Note that the CPU 41 may keep the shape and size of the image of the destination object G or the like constant regardless of the position and orientation of the vehicle 53 .

ここで、風景64における目的地51の位置に目的地オブジェクトG1を表示すると、風景64内に存在する物体と目的地オブジェクトG1が重なりその前後関係が問題となる。例えば、図3及び図4に示すように、車両53と目的地51との間に建物65が建っている場合、目的地51が建物65の向こう側に存在し実際には乗員から見えない位置にあるのか、あるいは建物65の手前にあり乗員から見える位置にあるのかが問題となる。そこで、CPU41は、右左折案内地点54を右折するまで、即ち、最終右左折案内地点を右左折するまで、目的地オブジェクトG1を半透過状態で表示する。図4に示すように、CPU41は、目的地オブジェクトG1と重なる建物65が透けて見えるように、目的地オブジェクトG1の透過率を上げる。これにより、目的地51が建物65の向こう側にあることを乗員に示唆できる。乗員が目的地51の位置を誤って認識し、十字路61を右折するなどの間違った方向へ走行することを抑制できる。 Here, if the destination object G1 is displayed at the position of the destination 51 in the scenery 64, the object present in the scenery 64 and the destination object G1 overlap each other, and the anteroposterior relationship between them becomes a problem. For example, as shown in FIGS. 3 and 4, when a building 65 is built between the vehicle 53 and the destination 51, the destination 51 exists on the other side of the building 65 and is actually invisible to the passengers. The problem is whether it is located in front of the building 65 and visible to the passengers. Therefore, the CPU 41 displays the destination object G1 in a translucent state until the right turn is made at the right/left turn guide point 54, that is, until the right/left turn is made at the final right/left turn guide point. As shown in FIG. 4, the CPU 41 increases the transmittance of the destination object G1 so that the building 65 overlapping the destination object G1 can be seen through. This can suggest to the crew that the destination 51 is on the other side of the building 65 . It is possible to prevent the occupant from erroneously recognizing the position of the destination 51 and traveling in the wrong direction, such as turning right at the crossroads 61 .

図2に戻り、CPU41は、S3を実行した後、S4を実行する。S4において、CPU41は、目的地51までの案内経路52上に右左折を伴う右左折案内地点(十字路やT字路などの分岐点)が存在するか否かを判定する。図2に示す案内経路52では、右折する右左折案内地点54が存在するため、CPU41は、肯定判定し(S4:YES)、S5を実行する。 Returning to FIG. 2, the CPU 41 executes S4 after executing S3. In S<b>4 , the CPU 41 determines whether or not there is a right/left turn guidance point (fork such as a crossroads or a T-junction) on the guidance route 52 to the destination 51 . Since the guide route 52 shown in FIG. 2 includes a right/left turn guide point 54 for turning right, the CPU 41 makes an affirmative determination (S4: YES) and executes S5.

S5において、CPU41は、案内経路52において目的地51に最も近い最終右左折案内地点、即ち、右左折案内地点54を右左折したか否かを判定する。仮に、位置58から目的地51までの間に右左折を伴う右左折案内地点が複数存在する場合、CPU41は、最終右左折案内地点である右左折案内地点54を右折するまでの間、他の右左折案内地点で右左折してもS5で否定判定する(S5:YES)。 In S5, the CPU 41 determines whether or not the vehicle has turned left or right at the final right or left turn guidance point closest to the destination 51 on the guidance route 52, ie, the right or left turn guidance point 54. FIG. If there are a plurality of right/left turn guidance points involving right/left turns between the position 58 and the destination 51, the CPU 41 waits until the right turn is made at the right/left turn guidance point 54, which is the final right/left turn guidance point. A negative determination is made in S5 (S5: YES) even if a right or left turn is made at the right or left turn guidance point.

図5は、車両53が図3に示す位置66を走行する際に液晶ディスプレイ15に表示する走行案内画面を示している。位置66は、右左折案内地点54に進入する直前の位置である。図3に示すように、目的地51は、右左折案内地点54を右折した後、退出経路56を一定距離だけ走行した位置に配置されている。このため、位置66で車両53から見える風景64には、即ち、乗員から見える風景64内には、目的地51が存在しない。例えば、CPU41は、位置58から位置66に向かって車両53が進行し現在位置が変更されるのに合わせて目的地オブジェクトG1の表示位置を変更する。図3に示す例では、位置58から位置66に近づくに従って、目的地51は、車両前方の風景64内において右側へシフトする。これに合わせて、CPU41は、車両53の進行に合わせて風景64上における目的地オブジェクトG1の位置を右側へずらす。その結果、図5に示すように、目的地51が風景64の範囲外となり、一時的に目的地オブジェクトG1が非表示となる。CPU41は、目的地オブジェクトG1を表示する位置の算出を継続し、右左折案内地点54の右折に伴って風景64内に目的地51が入ってくると、目的地オブジェクトG1の表示を再開する。 FIG. 5 shows a travel guidance screen displayed on the liquid crystal display 15 when the vehicle 53 travels through the position 66 shown in FIG. A position 66 is a position immediately before entering the right/left turn guidance point 54 . As shown in FIG. 3, the destination 51 is located at a position after traveling a certain distance along an exit route 56 after turning right at a right/left turn guidance point 54 . Therefore, the destination 51 does not exist in the scenery 64 seen from the vehicle 53 at the position 66, that is, in the scenery 64 seen by the occupants. For example, the CPU 41 changes the display position of the destination object G1 as the vehicle 53 moves from position 58 to position 66 and the current position changes. In the example shown in FIG. 3, destination 51 shifts to the right in landscape 64 in front of the vehicle as it approaches position 66 from position 58 . In accordance with this, the CPU 41 shifts the position of the destination object G1 on the scenery 64 to the right in accordance with the progress of the vehicle 53 . As a result, as shown in FIG. 5, the destination 51 is out of the landscape 64, and the destination object G1 is temporarily hidden. The CPU 41 continues to calculate the position to display the destination object G1, and when the destination 51 enters the landscape 64 as the vehicle turns right at the right/left turn guide point 54, it resumes displaying the destination object G1.

また、図5に示すように、CPU41は、右左折案内地点54を右折する案内を行なう案内オブジェクト67,68を表示する。CPU41は、例えば、右左折案内地点54から一定の距離だけ離れた位置まで車両53が進行すると、案内オブジェクト67,68の表示を行なう。CPU41は、車両53の進行方向を示す複数の三角形の案内オブジェクト67や、交差点名と進行方向を示す矢印の案内オブジェクト68を右左折案内地点54や退出経路56の位置に合わせて表示する。これにより、乗員に右左折案内地点54の進行方向を示唆できる。 Further, as shown in FIG. 5, the CPU 41 displays guide objects 67 and 68 that guide the driver to turn right at the right/left turn guide point 54 . For example, the CPU 41 displays the guide objects 67 and 68 when the vehicle 53 travels to a position a certain distance away from the right/left turn guide point 54 . The CPU 41 displays a plurality of triangular guide objects 67 indicating the traveling direction of the vehicle 53 and an arrow guide object 68 indicating the name of the intersection and the traveling direction in accordance with the positions of the right/left turn guide point 54 and the exit route 56 . As a result, the traveling direction of the right/left turn guide point 54 can be indicated to the occupant.

CPU41は、S5で右左折案内地点54を右折したと判定すると(S5:YES)、S6を実行する。CPU41は、例えば、車両53の現在位置に基づいて車両53が退出経路56に進入したと判定すると、S5で肯定判定する。尚、右左折が完了したか否かを判定する方法は、上記した退出経路56に進入したか否かを判定する方法に限らない。例えば、CPU41は、ステアリングセンサ23やジャイロセンサ24等に基づいて車両53の向きが退出経路56に沿った方向となったことを条件にS5で肯定判定しても良い。 When the CPU 41 determines in S5 that the vehicle has turned right at the right/left turn guidance point 54 (S5: YES), it executes S6. For example, when the CPU 41 determines that the vehicle 53 has entered the exit route 56 based on the current position of the vehicle 53, the CPU 41 makes an affirmative determination in S5. Note that the method of determining whether or not the right and left turns have been completed is not limited to the method of determining whether or not the exit route 56 has been entered. For example, the CPU 41 may make an affirmative determination in S5 on condition that the direction of the vehicle 53 is along the exit route 56 based on the steering sensor 23, the gyro sensor 24, and the like.

S6において、CPU41は、右折を行なった後、進行距離TH2だけ進行したか否かを判定する。ここで、例えば、車両53の位置や向きをGPSだけで判定する場合、車両53が右左折を行なって進行方向を変更する際に、GPSで検出した車両53の位置や向きと、実際の位置や向きとに誤差が発生する可能性がある。この状態で風景64内に後述する半透過状態を解除した目的地オブジェクトGを表示すると、実際の目的地51の位置とは異なる位置に目的地オブジェクトGを表示してしまう虞がある。その結果、乗員が目的地51の位置を誤って認識する虞がある。そこで、CPU41は、図3に示すように、例えば、右左折案内地点54と退出経路56との境界地点から進行距離TH2だけ離れた位置71まで進行するまでの間、S6で否定判定する(S6:NO)。そして、CPU41は、位置71まで進行すると(S6:YES)、S7を実行する。これにより、車両53の位置や向きを精度良く検出可能となった時点になるまでは半透過状態の目的地オブジェクトG1を表示し、精度良く検出可能となった時点から後述する半透過状態を解除した目的地オブジェクトGを表示できる。進行距離TH2は、例えば、3mである。 In S6, the CPU 41 determines whether or not the vehicle has traveled the travel distance TH2 after making the right turn. Here, for example, when the position and orientation of the vehicle 53 are determined only by GPS, the position and orientation of the vehicle 53 detected by GPS and the actual position when the vehicle 53 makes a left or right turn to change the direction of travel. There is a possibility that an error may occur in the direction. In this state, if a destination object G whose semi-transparent state is canceled, which will be described later, is displayed in the landscape 64 , there is a risk that the destination object G will be displayed at a position different from the actual position of the destination 51 . As a result, there is a possibility that the occupant may erroneously recognize the position of the destination 51 . Therefore, as shown in FIG. 3, for example, the CPU 41 makes a negative determination in S6 (S6 : NO). Then, when the CPU 41 advances to the position 71 (S6: YES), it executes S7. As a result, the destination object G1 is displayed in a semi-transparent state until the position and orientation of the vehicle 53 can be accurately detected, and the semi-transmissive state, which will be described later, is released when the position and orientation of the vehicle 53 can be accurately detected. The destination object G can be displayed. The traveling distance TH2 is, for example, 3 m.

S7において、CPU41は、自車両から目的地51までの距離が閾値距離TH3以下であるか否かを判定する。CPU41は、例えば、図3に示す車両53の現在位置から最終案内地点57までの案内経路52に沿った距離73が閾値距離TH3以上である場合、図6に示すように、半透過状態の目的地オブジェクトG1を風景64に重畳して表示する。即ち、最終右左折案内地点(右左折案内地点54)を右折した後に、車両53の現在位置から目的地51(最終案内地点57)での距離73が閾値距離TH3以上離れていた場合、退出経路56に進入した後も半透過状態の目的地オブジェクトG1を表示する。これは、目的地51に面した道路に進入した場合でも、車両53と目的地51との間の距離73が長い場合、目的地51が建物65と重なる可能性がある。そこで、CPU41は、目的地51までの距離73が閾値距離TH3より大きい場合(S7:NO)、半透過状態の目的地オブジェクトG1を表示する。そして、目的地51までの距離73が閾値距離TH3以下になると、CPU41は、S7で肯定判定し(S7:YES)、目的地オブジェクトG1の半透過状態を解除する(S8)。尚、閾値距離TH3と比較する距離73は、案内経路52に沿った車両53の現在位置と最終案内地点57の間の距離に限らない。CPU41は、S7において現在位置から目的地51までの直線距離を閾値距離TH3と比較しても良い。 In S7, the CPU 41 determines whether or not the distance from the host vehicle to the destination 51 is equal to or less than the threshold distance TH3. For example, when the distance 73 along the guidance route 52 from the current position of the vehicle 53 to the final guidance point 57 shown in FIG. The ground object G1 is superimposed on the scenery 64 and displayed. That is, when the distance 73 from the current position of the vehicle 53 to the destination 51 (the final guidance point 57) is greater than or equal to the threshold distance TH3 after turning right at the final right/left turn guidance point (right/left turn guidance point 54), the exit route Even after entering 56, the destination object G1 in a semi-transparent state is displayed. This means that even if the road facing the destination 51 is entered, the destination 51 may overlap the building 65 if the distance 73 between the vehicle 53 and the destination 51 is long. Therefore, when the distance 73 to the destination 51 is greater than the threshold distance TH3 (S7: NO), the CPU 41 displays the destination object G1 in a semi-transparent state. Then, when the distance 73 to the destination 51 becomes equal to or less than the threshold distance TH3, the CPU 41 makes an affirmative determination in S7 (S7: YES), and cancels the translucent state of the destination object G1 (S8). Note that the distance 73 to be compared with the threshold distance TH3 is not limited to the distance between the current position of the vehicle 53 along the guidance route 52 and the final guidance point 57 . The CPU 41 may compare the linear distance from the current position to the destination 51 with the threshold distance TH3 in S7.

また、CPU41は、S4で否定判定した場合(S4:NO)、S7を実行する。例えば、図8に示す直線道路を走行する場合を説明する。図8に示す例では、案内経路74に沿って走行する車両53の現在の位置75から最終案内地点57までの距離76がS2の基準距離TH1以下となった時点で、目的地51までの案内経路74上に右左折を伴う右左折案内地点が存在しない。この場合、CPU41は、図6に示すように、目的地51までの案内経路74に沿った距離76が閾値距離TH3より大きい場合(S7:NO)、半透過状態の目的地オブジェクトG1を表示する。そして、図8に示す最終案内地点57までの距離77が閾値距離TH3以下になる位置79に到達すると、CPU41は、S7で肯定判定し(S7:YES)、目的地オブジェクトG1の半透過状態を解除する(S8)。 Moreover, CPU41 performs S7, when negative determination is carried out by S4 (S4:NO). For example, the case of traveling on the straight road shown in FIG. 8 will be described. In the example shown in FIG. 8, when the distance 76 from the current position 75 of the vehicle 53 traveling along the guidance route 74 to the final guidance point 57 becomes equal to or less than the reference distance TH1 of S2, the guidance to the destination 51 is started. There is no right/left turn guidance point on the route 74 . In this case, as shown in FIG. 6, when the distance 76 along the guide route 74 to the destination 51 is greater than the threshold distance TH3 (S7: NO), the CPU 41 displays the destination object G1 in a semi-transparent state. . Then, when the CPU 41 reaches a position 79 where the distance 77 to the final guidance point 57 shown in FIG. Release (S8).

S8において、図7に示すように、CPU41は、例えば、透過率が0%の所定の色(赤色など)で着色した目的地オブジェクトGを表示する。図3の場合であれば、右左折案内地点54を右折し、進行距離TH2だけ進行し、且つ閾値距離TH3以下の距離まで目的地51(最終案内地点57)に近づくと、目的地オブジェクトが、目的地オブジェクトG1から目的地オブジェクトGに変更される。また、進行距離TH2だけ進行した時点で閾値距離TH3以下の距離に到達していれば、その時点で目的地オブジェクトGに変更される。これにより、右左折案内地点54を右折する前の位置であって、目的地51が直接視認できないような位置では半透過状態の目的地オブジェクトG1を表示し、右折した後の目的地51が視認し得る位置では半透過状態を解除した目的地オブジェクトGを表示する。乗員は、目的地オブジェクトG,G1の表示態様の変化を認識することで、目的地51が建物の向こう側に存在するか否かをより正確に認識することができる。 In S8, as shown in FIG. 7, the CPU 41 displays the destination object G colored in a predetermined color (such as red) with a transmittance of 0%, for example. In the case of FIG. 3, when the vehicle turns right at the right/left turn guidance point 54, travels by the travel distance TH2, and approaches the destination 51 (final guidance point 57) by a distance equal to or less than the threshold distance TH3, the destination object The destination object G1 is changed to the destination object G. Further, if the distance equal to or less than the threshold distance TH3 is reached at the time when the traveled distance TH2 has progressed, the destination object is changed to the destination object G at that time. As a result, the destination object G1 in a semi-transparent state is displayed at a position before the right/left turn guide point 54, where the destination 51 is not directly visible, and the destination 51 after the right turn is visible. At a possible position, the destination object G whose semi-transparent state is canceled is displayed. By recognizing the change in the display mode of the destination objects G and G1, the passenger can more accurately recognize whether the destination 51 exists on the other side of the building.

また、図8の直線道路の場合であれば、車両53と目的地51との間の距離が基準距離TH1以下で且つ閾値距離TH3より大きい間は目的地オブジェクトG1を表示し、車両53と目的地51との間の距離が閾値距離TH3以下になると目的地オブジェクトGを表示する。これにより、目的地51までの距離が離れているような場合には、半透過状態の目的地オブジェクトG1を表示することで、乗員が目的地51の位置をより正確に認識できる。CPU41は、S8を実行すると、図2に示す走行支援処理プログラムの実行を終了する。例えば、CPU41は、車両53が最終案内地点57に到達し、案内経路52の案内を終了すると、目的地オブジェクトGの表示を終了し、平面地図や自車アイコンを液晶ディスプレイ15に表示する。 In the case of the straight road in FIG. 8, the destination object G1 is displayed while the distance between the vehicle 53 and the destination 51 is equal to or less than the reference distance TH1 and greater than the threshold distance TH3. The destination object G is displayed when the distance to the ground 51 becomes equal to or less than the threshold distance TH3. Accordingly, when the distance to the destination 51 is long, the passenger can more accurately recognize the position of the destination 51 by displaying the destination object G1 in a semi-transparent state. After executing S8, the CPU 41 ends the execution of the driving support processing program shown in FIG. For example, when the vehicle 53 reaches the final guidance point 57 and the guidance of the guidance route 52 is completed, the CPU 41 ends the display of the destination object G and displays the plane map and the own vehicle icon on the liquid crystal display 15 .

尚、上記した説明では、本願の第1表示態様として半透過状態の目的地オブジェクトG1を採用し、第2表示態様として透明でない目的地オブジェクトGを採用したがこれに限らない。また、第1及び第2表示態様の各々は、1つの表示態様に限らない。例えば、CPU41は、車両53の現在位置と目的地51との間の距離に応じて目的地オブジェクトG,G1の表示態様を変更しても良い。CPU41は、目的地オブジェクトGを表示した後、さらに一定距離だけ進行した場合に、図9に示すように目的地オブジェクトGの表示態様を変更しても良い。CPU41は、目的地オブジェクトGの文字や図形を回転させても良い。これにより、目的地オブジェクトGに動きを加えることで目的地オブジェクトGの立体感を表現し、目的地51の位置を乗員により分かり易く示すことができる。 In the above description, the semi-transparent destination object G1 is used as the first display mode of the present application, and the non-transparent destination object G is used as the second display mode, but the invention is not limited to this. Moreover, each of the first and second display modes is not limited to one display mode. For example, the CPU 41 may change the display mode of the destination objects G and G1 according to the distance between the current position of the vehicle 53 and the destination 51 . After displaying the destination object G, the CPU 41 may change the display mode of the destination object G as shown in FIG. The CPU 41 may rotate the characters and graphics of the destination object G. Thus, by adding movement to the destination object G, the three-dimensional effect of the destination object G can be expressed, and the position of the destination 51 can be indicated to the passenger in an easy-to-understand manner.

また、CPU41は、閾値距離TH3よりも短い所定距離まで目的地51に近づいた時点で目的地オブジェクトGの背景に黄色などの目的地オブジェクトGをより強調する画像78を表示しても良い。また、CPU41は、目的地51までの距離に応じて、目的地オブジェクトGや画像78の色や濃度を変更しても良い。例えば、距離が遠い場合には目的地オブジェクトGを黄色で表示し、距離が短い場合には目的地オブジェクトGを赤色で表示しても良い。あるいは、目的地51までの距離が短くなるに従って、目的地オブジェクトGの色を徐々に濃くしても良い。これにより、目的地51までの距離が短くなっていることを目的地オブジェクトGや画像78の色の濃さによって乗員に認識させることができる。 Further, the CPU 41 may display an image 78 that emphasizes the destination object G in yellow or the like on the background of the destination object G when the destination 51 is approached by a predetermined distance shorter than the threshold distance TH3. Also, the CPU 41 may change the color and density of the destination object G and the image 78 according to the distance to the destination 51 . For example, if the distance is long, the destination object G may be displayed in yellow, and if the distance is short, the destination object G may be displayed in red. Alternatively, the color of the destination object G may be gradually darkened as the distance to the destination 51 becomes shorter. Thus, the occupant can be made to recognize that the distance to the destination 51 is getting shorter by the color depth of the destination object G and the image 78 .

また、CPU41は、表示する時間帯に応じて目的地オブジェクトGや画像78の輝度を変更しても良い。例えば、CPU41は、日中の目的地オブジェクトGの輝度を高めに設定し、夜の目的地オブジェクトGの輝度を低めに設定しても良い。これにより、目的地オブジェクトGを見る乗員の目の疲れやちらつきを抑制できる。 Also, the CPU 41 may change the brightness of the destination object G and the image 78 according to the time zone for display. For example, the CPU 41 may set the brightness of the destination object G higher during the daytime and set the brightness of the destination object G lower at night. As a result, fatigue and flickering of the passenger's eyes looking at the destination object G can be suppressed.

また、CPU41は、例えば、目的地オブジェクトG1を表示する状態において、目的地51に近づくに従って目的地オブジェクトG1の透過率を徐々に下げても良い。CPU41は、目的地51までの距離が100m、90m、80m・・・・と短くなるに従って、透過率を70%、60%、50%と下げても良い。これにより、目的地51までの距離が短くなっていることを目的地オブジェクトG1の透過率によって乗員に認識させることができる。 Further, the CPU 41 may, for example, gradually decrease the transmittance of the destination object G1 as the destination 51 is approached while the destination object G1 is being displayed. The CPU 41 may decrease the transmittance to 70%, 60%, 50% as the distance to the destination 51 decreases to 100m, 90m, 80m, and so on. Thereby, the passenger can be made to recognize that the distance to the destination 51 is shortened by the transmittance of the destination object G1.

因みに、上記第1実施形態において、ナビゲーション装置1は、重畳画像表示装置の一例である。CPU41は、基準距離判定手段、第1オブジェクト表示手段、右左折判定手段、第2オブジェクト表示手段、進行距離判定手段、閾値距離判定手段の一例である。右左折案内地点54は、最終右左折案内地点の一例である。位置58,66,71,75,79は、現在位置の一例である。 Incidentally, in the first embodiment, the navigation device 1 is an example of a superimposed image display device. The CPU 41 is an example of reference distance determination means, first object display means, right/left turn determination means, second object display means, traveling distance determination means, and threshold distance determination means. The right/left turn guidance point 54 is an example of a final right/left turn guidance point. Positions 58, 66, 71, 75, and 79 are examples of current positions.

以上詳細に説明した通り、第1実施形態に係るナビゲーション装置1、及びナビゲーション装置1で実行されるコンピュータプログラムによれば、CPU41は、目的地51までの距離が基準距離TH1以下である場合(S2:YES)、半透過状態(本願の第1表示態様の一例)の目的地オブジェクトG1を風景64に重畳させて液晶ディスプレイ15に表示する(S3)。そして、CPU41は、最終右左折案内地点である右左折案内地点54を右折したと判定した場合に(S5:YES)、半透過状態を解除した状態(本願の第2表示態様の一例)の目的地オブジェクトGを表示する(S8)。これにより、最終右左折案内地点を右折して自車両と目的地51との間に建物65等が存在する可能性が低く見通しが確保された可能性が高くなった時点で透明でない目的地オブジェクトGを表示する。従って、乗員に対して目的地51の位置をより明確に認識させることが可能となり、目的地51の位置の誤認の発生を抑制できる。 As described above in detail, according to the navigation device 1 according to the first embodiment and the computer program executed by the navigation device 1, the CPU 41 determines that the distance to the destination 51 is equal to or less than the reference distance TH1 (S2 : YES), the destination object G1 in a translucent state (an example of the first display mode of the present application) is superimposed on the landscape 64 and displayed on the liquid crystal display 15 (S3). Then, when the CPU 41 determines that the right turn has been made at the right/left turn guidance point 54, which is the final right/left turn guidance point (S5: YES), the purpose of the state in which the translucent state is canceled (an example of the second display mode of the present application) is A ground object G is displayed (S8). As a result, when the possibility that a building 65 or the like exists between the vehicle and the destination 51 after turning right at the final right/left turn guidance point becomes low and the possibility that the line of sight is secured becomes high, the non-transparent destination object Display G. Therefore, it is possible to make the occupant more clearly recognize the position of the destination 51 , and to suppress the occurrence of misidentification of the position of the destination 51 .

また、CPU41は、目的地オブジェクトを、半透過状態の目的地オブジェクトG1から非透過状態の目的地オブジェクトGに変更する。これにより、半透過状態の目的地オブジェクトG1を表示することで、建物65の向こうに存在する目的地51があたかも透けて見えるかのように表示できる。また、見通しが良くなった後に非透過状態の目的地オブジェクトGを目的地51の建物などに重ねて表示することで、目的地オブジェクトGが重なった建物が目的地51の建物であることを乗員に示唆できる。 Further, the CPU 41 changes the destination object from the destination object G1 in the semi-transparent state to the destination object G in the non-transparent state. Thus, by displaying the destination object G1 in a semi-transparent state, the destination 51 existing beyond the building 65 can be displayed as if it were seen through. In addition, by displaying the non-transparent destination object G superimposed on the building of the destination 51 after visibility has improved, the passenger can recognize that the building on which the destination object G overlaps is the building of the destination 51. can suggest to

また、CPU41は、右左折案内地点54で右折した後に車両53が進行距離TH2だけ進行したと判定した場合に(S6:YES)、非透過状態の目的地オブジェクトGを表示する。これにより、右左折に伴って車両53の位置や向きの検出に誤差が発生する場合など、位置や向きを精度良く検出できるまで半透過状態の目的地オブジェクトG1を表示し、精度良く検出可能となった時点から非透過状態の目的地オブジェクトGを表示できる。 When the CPU 41 determines that the vehicle 53 has traveled the travel distance TH2 after turning right at the right/left turn guide point 54 (S6: YES), the destination object G is displayed in a non-transparent state. As a result, when an error occurs in the detection of the position and orientation of the vehicle 53 due to a left or right turn, the destination object G1 is displayed in a semi-transparent state until the position and orientation can be detected with high accuracy, enabling accurate detection. The destination object G in a non-transparent state can be displayed from the point of time.

また、CPU41は、右左折案内地点54を右折した後に目的地51までの距離が閾値距離TH3以下であると判定した場合に(S7:YES)、非透過状態の目的地オブジェクトGを表示する。これにより、最終右左折案内地点を右左折した後も目的地51までの距離が長く目的地51が他の建物65などで目視できないような場合に、目的地オブジェクトG1の表示を継続して目的地51の位置の誤認の発生を抑制できる。そして、目的地51に十分近づいた後に非透過状態の目的地オブジェクトGを表示することで、目的地51の位置を乗員により正確に認識させることができる。 When the CPU 41 determines that the distance to the destination 51 is equal to or less than the threshold distance TH3 after turning right at the right/left turn guidance point 54 (S7: YES), the CPU 41 displays the destination object G in a non-transparent state. As a result, when the distance to the destination 51 is long and the destination 51 cannot be seen due to another building 65 or the like even after turning left or right at the final right or left turn guidance point, the destination object G1 is continuously displayed to indicate the destination. Misidentification of the position of the ground 51 can be suppressed. By displaying the non-transparent destination object G after the vehicle has sufficiently approached the destination 51, the passenger can be made to recognize the position of the destination 51 accurately.

[第2実施形態]
次に、第2実施形態に係る重畳画像表示装置について図10及び図11に基づいて説明する。尚、以下の説明において上記図1乃至図9の第1実施形態に係る重畳画像表示装置の構成と同一符号は、前記第1実施形態に係る重畳画像表示装置等の構成と同一あるいは相当部分を示すものである。
[Second embodiment]
Next, a superimposed image display device according to the second embodiment will be described with reference to FIGS. 10 and 11. FIG. In the following description, the same reference numerals as in the configuration of the superimposed image display device according to the first embodiment shown in FIGS. is shown.

この第2実施形態に係るナビゲーション装置の構成は、第1実施形態に係るナビゲーション装置1と同じ構成である。また、図10は、第2実施形態の走行支援処理プログラムのフローチャートを示している。図10に示すように、第2実施形態は、S6で肯定判定するとS9を実行し最終右左折案内地点を右左折した後の自車両と目的地のなす角度を判定する点で、第1実施形態と異なる。尚、以下の説明では、第1実施形態と同様の処理内容についてはその説明を適宜省略する。 The configuration of the navigation device according to the second embodiment is the same as that of the navigation device 1 according to the first embodiment. Also, FIG. 10 shows a flow chart of the driving support processing program of the second embodiment. As shown in FIG. 10, in the second embodiment, if an affirmative determination is made in S6, S9 is executed to determine the angle formed between the own vehicle and the destination after turning left or right at the final right/left turn guidance point. Different from the form. In the following description, the description of processing contents similar to those of the first embodiment will be omitted as appropriate.

CPU41は、S6で肯定判定すると(S6:YES)、自車両である車両53と目的地51のなす角度が閾値角度θTH以下であるか否かを判定する(S9)。図11に示すように、例えば、右左折案内地点54を右折した後、カーブ81が存在する場合、建物65によって目的地51を直接見られない可能性がある。そこで、第2実施形態のCPU41は、右左折案内地点54を右折した後のなす角度θを判定し、カーブ81を曲がった後に目的地オブジェクトGを表示する。 When the determination in S6 is affirmative (S6: YES), the CPU 41 determines whether or not the angle formed by the vehicle 53, which is the host vehicle, and the destination 51 is equal to or less than the threshold angle θTH (S9). As shown in FIG. 11 , for example, if there is a curve 81 after turning right at the right/left turn guidance point 54 , there is a possibility that the destination 51 cannot be seen directly due to the building 65 . Therefore, the CPU 41 of the second embodiment determines the angle θ formed after turning right at the right/left turn guidance point 54 and displays the destination object G after turning the curve 81 .

詳述すると、CPU41は、S9において、右左折後の車両53の進行方向に沿った第1直線83と、車両53と目的地51を結ぶ第2直線84とがなす角度θが所定の閾値角度θTH以下であるか否かを判定する。閾値角度θTHは、上記した通り、カーブ81によって目的地51を建物65等で直接見られない可能性がある角度θを判定可能な値であり、例えば、数十度(30度、45度、90度など)である。 Specifically, in S9, the CPU 41 determines that the angle ? It is determined whether or not it is equal to or less than θTH. As described above, the threshold angle θTH is a value that can determine the angle θ at which the destination 51 may not be directly visible from the building 65 or the like due to the curve 81. For example, it is several tens of degrees (30 degrees, 45 degrees, 90 degrees, etc.).

CPU41は、なす角度θが閾値角度θTH以下である場合(S9:YES)、第1実施形態と同様にS7以降を実行する。一方、CPU41は、なす角度θが閾値角度θTHより大きい場合(S9:NO)、現在位置から最終案内地点57までの案内経路86におけるカーブであって、目的地51に最も近いカーブである最終カーブを曲がったか否かを判定する(S10)。図11に示す例では、案内経路86上に1つのカーブ81のみが存在する。このため、CPU41は、カーブ81を左に曲がったと判定した場合(S10:YES)、S7以降を実行する。カーブ81を曲がったか否かを判定する方法は、特に限定されないが、例えば、車両53の現在位置がカーブ81の出口の位置となったことに基づいて曲がったと判定しても良い。あるいは、車両53の進行方向が曲がった後の走行路87に沿った方向となったことに基づいて曲がったと判定しても良い。 When the formed angle θ is equal to or less than the threshold angle θTH (S9: YES), the CPU 41 executes S7 and subsequent steps as in the first embodiment. On the other hand, if the formed angle θ is greater than the threshold angle θTH (S9: NO), the CPU 41 determines the final curve which is the curve on the guidance route 86 from the current position to the final guidance point 57 and which is closest to the destination 51. is bent (S10). In the example shown in FIG. 11, only one curve 81 exists on the guide route 86. In the example shown in FIG. Therefore, when the CPU 41 determines that the curve 81 has turned left (S10: YES), it executes S7 and subsequent steps. A method for determining whether or not the curve 81 has been turned is not particularly limited, but for example, it may be determined that the vehicle has turned based on the fact that the current position of the vehicle 53 is the position of the exit of the curve 81 . Alternatively, it may be determined that the vehicle 53 has turned based on the fact that the traveling direction of the vehicle 53 has become the direction along the travel path 87 after the turn.

また、右左折案内地点54を曲がった後の案内経路86に複数のカーブ81が存在した場合、CPU41は、目的地51に最も近い最終カーブを曲がるまでの間、S10で否定判定し(S10:NO)、最終カーブを曲がると(S10:YES)、S7を実行する。これにより、右左折案内地点54を曲がった後の案内経路86に1つ又は複数のカーブ81が存在し、目的地51が直接見られないような場合に、最後のカーブ81を曲がってから目的地オブジェクトG1を表示できる。その結果、乗員が目的地51の位置をより正確に認識できる。 Further, when there are a plurality of curves 81 on the guidance route 86 after turning the right/left turn guidance point 54, the CPU 41 makes a negative determination in S10 until the final curve closest to the destination 51 is turned (S10: NO), when the final curve is turned (S10: YES), S7 is executed. As a result, when one or a plurality of curves 81 exist on the guide route 86 after turning the right/left turn guide point 54 and the destination 51 cannot be seen directly, the destination 51 can be reached after the last curve 81 is turned. A ground object G1 can be displayed. As a result, the passenger can recognize the position of the destination 51 more accurately.

尚、上記したカーブ81の判定方法は、一例である。例えば、CPU41は、なす角度θや閾値角度θTHを用いずに、地図情報DB31を用いてカーブ81を判定しても良い。この場合、地図情報DB31にカーブ81の位置や曲率の情報を設定する。そして、CPU41は、地図情報DB31に基づいて右左折案内地点54を曲がった後の案内経路86に所定の角度以上の曲率のカーブ81が存在した場合、そのカーブ81を曲がった後に目的地オブジェクトGを表示しても良い。また、CPU41は、仮にS9で否定判定(S9:NO)したにも係わらず、案内経路86上にカーブが存在しなかった場合、S7を実行しても良い。 It should be noted that the determination method of the curve 81 described above is an example. For example, the CPU 41 may determine the curve 81 using the map information DB 31 without using the formed angle θ or the threshold angle θTH. In this case, information about the position and curvature of the curve 81 is set in the map information DB 31 . Then, based on the map information DB 31, if there is a curve 81 with a curvature of a predetermined angle or more in the guidance route 86 after turning the right/left turn guidance point 54, the CPU 41 turns the curve 81 and then the destination object G may be displayed. In addition, the CPU 41 may execute S7 if there is no curve on the guide route 86 even though a negative determination is made in S9 (S9: NO).

因みに、上記第2実施形態において、CPU41は、角度判定手段、カーブ判定手段の一例である。第2直線84は直線の一例である。 Incidentally, in the above-described second embodiment, the CPU 41 is an example of angle determination means and curve determination means. The second straight line 84 is an example of a straight line.

以上詳細に説明した通り、第2実施形態に係るナビゲーション装置1、及びナビゲーション装置1で実行されるコンピュータプログラムによれば、CPU41は、角度θが閾値角度θTH以下でないと判定した場合に(S9:NO)、目的地51に最も近いカーブ81を曲がったか否かを判定する(S10)。そして、CPU41は、カーブ81を曲がった後に、目的地オブジェクトGを表示する(S8)。これによれば、最終右左折案内地点を曲がった後に所定の角度より大きいカーブ81が存在する場合に、そのカーブ81を曲がった後に目的地オブジェクトの半透過状態を解除できる。その結果、目的地51の位置の誤認の発生を抑制できる。 As described in detail above, according to the navigation device 1 according to the second embodiment and the computer program executed by the navigation device 1, when the CPU 41 determines that the angle θ is not equal to or less than the threshold angle θTH (S9: NO), it is determined whether or not the curve 81 closest to the destination 51 has been turned (S10). Then, the CPU 41 displays the destination object G after turning the curve 81 (S8). According to this, when there is a curve 81 larger than a predetermined angle after turning at the final right/left turn guidance point, the semi-transparent state of the destination object can be canceled after turning the curve 81 . As a result, misidentification of the position of the destination 51 can be suppressed.

[第3実施形態]
次に、第3実施形態に係る重畳画像表示装置について図12及び図13に基づいて説明する。尚、以下の説明において上記図1乃至図9の第1実施形態に係る重畳画像表示装置の構成と同一符号は、前記第1実施形態に係る重畳画像表示装置等の構成と同一あるいは相当部分を示すものである。
[Third embodiment]
Next, a superimposed image display device according to a third embodiment will be described with reference to FIGS. 12 and 13. FIG. In the following description, the same reference numerals as in the configuration of the superimposed image display device according to the first embodiment shown in FIGS. is shown.

この第3実施形態に係る重畳画像表示装置の概略構成は、第1実施形態に係る重畳画像表示装置とほぼ同じ構成である。また、各種制御処理も第1実施形態に係る重畳画像表示装置とほぼ同じ制御処理である。ただし、第1実施形態に係る重畳画像表示装置が、ナビゲーション装置1の液晶ディスプレイ15に対してフロントカメラ19で撮像した撮像画像を表示し、更に液晶ディスプレイ15に対して目的地オブジェクトG,G1を表示することによって、目的地51の位置を示唆するのに対して、第3実施形態に係る重畳画像表示装置は車両周辺の風景に重畳する画像を表示する手段としてヘッドアップディスプレイシステムを用いる点で異なる。 The schematic configuration of the superimposed image display device according to the third embodiment is substantially the same as that of the superimposed image display device according to the first embodiment. Also, various control processes are substantially the same as those of the superimposed image display apparatus according to the first embodiment. However, the superimposed image display device according to the first embodiment displays the captured image captured by the front camera 19 on the liquid crystal display 15 of the navigation device 1, and displays the destination objects G and G1 on the liquid crystal display 15. By displaying, the position of the destination 51 is suggested, whereas the superimposed image display device according to the third embodiment uses a head-up display system as means for displaying an image superimposed on the scenery around the vehicle. different.

以下に第3実施形態に係る重畳画像表示装置の概略構成について図12を用いて説明する。図12は第2実施形態に係る重畳画像表示装置91の概略構成図である。図12に示すように重畳画像表示装置91は、車両92に搭載されたナビゲーション装置93と、同じく車両92に搭載されるとともにナビゲーション装置93と接続されたフロントディスプレイ94とを有する。尚、フロントディスプレイ94は車両92のフロントガラス95とともにヘッドアップディスプレイとして機能し、車両92の乗員96に対して様々な情報の提供を行う情報提供手段となる。 A schematic configuration of the superimposed image display device according to the third embodiment will be described below with reference to FIG. 12 . FIG. 12 is a schematic configuration diagram of a superimposed image display device 91 according to the second embodiment. As shown in FIG. 12 , the superimposed image display device 91 has a navigation device 93 mounted on a vehicle 92 and a front display 94 also mounted on the vehicle 92 and connected to the navigation device 93 . The front display 94 functions as a head-up display together with the windshield 95 of the vehicle 92 and serves as information providing means for providing various information to the occupants 96 of the vehicle 92 .

ここで、フロントディスプレイ94は、車両92のダッシュボード97の内部に設置され、前面に設けられた画像表示面に対して画像を表示する機能を有する液晶ディスプレイである。バックライトとしては例えばCCFL(冷陰極管)や白色LEDが用いられる。尚、フロントディスプレイ94としては、液晶ディスプレイ以外に、有機ELディスプレイや液晶プロジェクタとスクリーンの組み合わせを用いても良い。 Here, the front display 94 is a liquid crystal display installed inside the dashboard 97 of the vehicle 92 and having a function of displaying an image on an image display surface provided on the front surface. CCFLs (cold cathode tubes) and white LEDs, for example, are used as backlights. As the front display 94, in addition to the liquid crystal display, an organic EL display or a combination of a liquid crystal projector and a screen may be used.

そして、フロントディスプレイ94は、フロントディスプレイ94から出力される画像を、運転席の前方のフロントガラス95に反射させて車両92の乗員96に視認させるように構成されている。フロントガラス95の反射により乗員96がフロントディスプレイ94に表示された映像を視認した場合に、乗員96にはフロントガラス95の位置ではなく、フロントガラス95の先の遠方の位置にフロントディスプレイ94に表示された映像が虚像101として視認されるように構成されている。また、虚像101は車両前方の周辺環境(風景、実景)に重畳して表示されることとなり、例えば車両前方に位置する任意の対象物(路面、建物、警告対象となる物等)に重畳させて表示させることも可能である。 The front display 94 is configured to reflect an image output from the front display 94 onto a windshield 95 in front of the driver's seat so that an occupant 96 of the vehicle 92 can view the image. When the occupant 96 visually recognizes the image displayed on the front display 94 due to the reflection of the windshield 95, the occupant 96 sees the image displayed on the front display 94 not at the position of the windshield 95 but at a distant position beyond the windshield 95. The projected image is visually recognized as a virtual image 101 . In addition, the virtual image 101 is superimposed on the surrounding environment (landscape, real scene) in front of the vehicle and displayed. It is also possible to display

ここで、虚像101を生成する位置、より具体的には乗員96から虚像101までの距離(以下、結像距離という)Lについては、フロントディスプレイ94の位置によって決定される。例えば、フロントディスプレイ94において映像の表示された位置からフロントガラス95までの光路に沿った距離(光路長)によって結像距離Lが決定される。例えば結像距離Lが1.5mとなるように光路長が設定されている。 Here, the position where the virtual image 101 is generated, more specifically, the distance L from the occupant 96 to the virtual image 101 (hereinafter referred to as imaging distance) is determined by the position of the front display 94 . For example, the imaging distance L is determined by the distance (optical path length) along the optical path from the position where the image is displayed on the front display 94 to the windshield 95 . For example, the optical path length is set so that the imaging distance L is 1.5 m.

また、車両92のフロントバンパの上方やルームミラーの裏側等にはフロントカメラ102が設置される。図12に示す例では、フロントカメラ102がフロントバンパの上方に取り付けられている。フロントカメラ102は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両92の進行方向前方に向けて設置される。そして、フロントカメラ102により撮像された撮像画像に対して画像処理が行われることによって、フロントガラス越しに乗員96に視認される前方環境(即ち虚像101が重畳される環境)の状況等が検出される。尚、フロントカメラ102の代わりにミリ波レーダ等のセンサを用いても良い。 A front camera 102 is installed above the front bumper of the vehicle 92, behind the rearview mirror, or the like. In the example shown in FIG. 12, the front camera 102 is attached above the front bumper. The front camera 102 is an imaging device having a camera using a solid-state imaging device such as a CCD, for example, and is installed with the optical axis directed forward in the traveling direction of the vehicle 92 . By performing image processing on the captured image captured by the front camera 102, the situation of the forward environment (that is, the environment in which the virtual image 101 is superimposed) that is visually recognized by the passenger 96 through the windshield is detected. be. A sensor such as a millimeter wave radar may be used instead of the front camera 102 .

そして、第3実施形態に係る重畳画像表示装置は、前述した走行支援処理プログラム(図2、図10)のS3,S8において、図13に示すようにフロントディスプレイ94に対して案内オブジェクト63(図4参照)の画像111や目的地オブジェクトG,G1の画像112を表示する。尚、図13は、目的地オブジェクトG1の虚像114を表示した状態を示している。その結果、フロントディスプレイ94に表示された画像111,112を車両92の乗員96が視認することによって、フロントガラス95越しの風景に重畳して案内オブジェクト63や目的地オブジェクトG,G1の画像111,112の虚像113,114が視認される。 Then, the superimposed image display device according to the third embodiment displays the guide object 63 (Fig. 4) and images 112 of the destination objects G and G1 are displayed. Note that FIG. 13 shows a state in which the virtual image 114 of the destination object G1 is displayed. As a result, when the images 111 and 112 displayed on the front display 94 are viewed by the occupant 96 of the vehicle 92, the images 111 and 111 of the guide object 63 and the destination objects G and G1 are superimposed on the scenery through the windshield 95. Virtual images 113 and 114 of 112 are visually recognized.

それによって、第1実施形態に係る重畳画像表示装置と同様に、車両92の進路や目的地の位置を乗員96に示唆できる。さらに、目的地オブジェクトG,G1の表示態様を半透過状態から非透明状態に変更することで、目的地51の位置をより正確に乗員96に把握させることができる。また、重畳画像表示装置91は、目的地オブジェクトG,G1の虚像114を表示する高さを、例えば、走行中の道路上面から所定の高さに設定しても良い。ここでいう所定の高さとは、例えば、歩行者の頭よりも上方となる位置である。これにより、目的地オブジェクトG,G1によって歩行者等が見にくくなることを抑制できる。尚、走行中の道路上面から所定の高さに目的地オブジェクトG,G1を表示しなくとも良い。例えば、重畳画像表示装置91は、目的地51の地面の高さに目的地オブジェクトG,G1を表示しても良く、風景の上方(空など)に目的地オブジェクトG,G1を表示しても良い。 As a result, the course of the vehicle 92 and the position of the destination can be suggested to the occupant 96 in the same manner as the superimposed image display device according to the first embodiment. Further, by changing the display mode of the destination objects G and G1 from the translucent state to the non-transparent state, the passenger 96 can more accurately grasp the position of the destination 51 . Also, the superimposed image display device 91 may set the height at which the virtual images 114 of the destination objects G and G1 are displayed to a predetermined height from the upper surface of the road on which the vehicle is running, for example. The predetermined height here is, for example, a position above the pedestrian's head. As a result, it is possible to prevent the pedestrians and the like from being difficult to see due to the destination objects G and G1. It should be noted that the destination objects G and G1 may not be displayed at a predetermined height from the top surface of the road on which the vehicle is traveling. For example, the superimposed image display device 91 may display the destination objects G and G1 at the ground level of the destination 51, or may display the destination objects G and G1 above the scenery (such as the sky). good.

尚、本発明は上記各実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、図2、図10に示す走行支援処理プログラムの各ステップの内容や順番等は、一例であり、適宜変更可能である。例えば、CPU41は、S4で否定判定した場合、即ち、案内経路52上に右左折を伴う右左折案内地点が存在しなかった場合(S4:NO)、S8を実行して目的地オブジェクトG1を表示しても良い。
また、CPU41は、S5で肯定判定した場合、即ち、最終右左折案内地点を右左折したことに基づいてS8を実行して目的地オブジェクトGを表示しても良い。この場合、S6、S7の処理を実行しなくとも良い。あるいは、CPU41は、S6で肯定判定した場合に、S7を実行せずにS8を実行しても良い。
また、CPU41は、S6の判定処理を実行する間、即ち、最終右左折案内地点を右左折してから進行距離TH2だけ進行するまでの間、目的地オブジェクトG,G1の両方を非表示としても良い。例えば、CPU41は、S6で否定判定する間(S6:NO)、S1を実行しても良い。これにより、車両53の位置や向きの検出誤差が発生している間、目的地オブジェクトG1を含めた目的地オブジェクトG,G1を非表示にし、目的地51の誤認の発生を抑制できる。
また、S6で進行距離TH2と比較する距離は、上記した右左折案内地点54と退出経路56の境界地点を基準とした距離に限らない。例えば、CPU41は、右左折案内地点54の中心からの距離を進行距離TH2で判定しても良い。
また、CPU41は、目的地51が右左折案内地点54付近である場合、例えば、右左折案内地点54と退出経路56の境界地点から進行距離TH2より若干長い又は短い距離に目的地51が配置されている場合、右左折案内地点54の右左折中において目的地オブジェクトGの表示を実行しても良い。あるいは、CPU41は、右左折案内地点54に進入する前から非透過状態の目的地オブジェクトGを表示しても良い。
It should be noted that the present invention is not limited to the above-described embodiments, and of course various improvements and modifications are possible without departing from the gist of the present invention.
For example, the contents, order, etc. of each step of the driving support processing program shown in FIGS. 2 and 10 are examples, and can be changed as appropriate. For example, when the CPU 41 makes a negative determination in S4, that is, when there is no right/left turn guidance point with a right/left turn on the guidance route 52 (S4: NO), the CPU 41 executes S8 to display the destination object G1. You can
Further, the CPU 41 may display the destination object G by executing S8 based on the affirmative determination in S5, ie, the turning to the left or right at the final right or left turn guidance point. In this case, the processing of S6 and S7 may not be executed. Alternatively, the CPU 41 may execute S8 without executing S7 when an affirmative determination is made in S6.
Further, the CPU 41 may hide both the destination objects G and G1 during the execution of the determination process of S6, that is, during the period from when the final right/left turn guidance point is turned to the right/left until the progress distance TH2 is reached. good. For example, the CPU 41 may execute S1 while making a negative determination in S6 (S6: NO). As a result, the destination objects G and G1 including the destination object G1 are hidden while the detection error of the position and orientation of the vehicle 53 is occurring, and misrecognition of the destination 51 can be suppressed.
Further, the distance to be compared with the traveling distance TH2 in S6 is not limited to the distance based on the boundary point between the right/left turn guidance point 54 and the exit route 56 described above. For example, the CPU 41 may determine the distance from the center of the right/left turn guidance point 54 based on the traveling distance TH2.
Further, when the destination 51 is near the right/left turn guide point 54, the CPU 41 determines that the destination 51 is located at a distance slightly longer or shorter than the travel distance TH2 from the boundary point between the right/left turn guide point 54 and the exit route 56, for example. If so, the display of the destination object G may be executed while turning left or right at the right or left turn guidance point 54 . Alternatively, the CPU 41 may display the destination object G in a non-transparent state before entering the right/left turn guidance point 54 .

また、車両周辺の風景に重畳する画像を表示する手段として、第1、第2実施形態では実景画像の表示された液晶ディスプレイ15を用い、第3実施形態ではヘッドアップディスプレイシステムを用いているが、フロントガラスに対して画像を表示するウインドウシールドディスプレイ(WSD)を用いても良い。WSDでは、フロントガラスをスクリーンとしてプロジェクタから映像を表示しても良いし、フロントガラスを透過液晶ディスプレイとしても良い。WSDによってフロントガラスに対して表示された画像は、車両周辺の風景に重畳する画像となる。
また、上記各実施形態では、案内オブジェクトとして、進行方向を案内する案内オブジェクト63,67,68を表示したが、これらの案内オブジェクトを表示しなくとも良い。即ち、CPU41は、目的地オブジェクトG,G1の表示処理のみを実行しても良い。
また、第1~第3実施形態では、目的地オブジェクトG,G1を用いた走行支援を一般道の走行時に行なっているが、高速道路の走行時に行なっても良く、一般道と高速道路の両方の走行時で行っても良い。例えば、目的地51としてサービスエリアが設定された場合に、サービスエリアに進入する分岐点を最終右左折案内地点として判定し、目的地オブジェクトG,G1の表示を実行しても良い。
As means for displaying an image superimposed on the scenery around the vehicle, the first and second embodiments use the liquid crystal display 15 displaying the actual scene image, and the third embodiment uses a head-up display system. A window shield display (WSD) that displays an image on the windshield may be used. In WSD, the front glass may be used as a screen to display an image from a projector, or the front glass may be used as a transmissive liquid crystal display. The image displayed on the windshield by WSD is an image superimposed on the scenery around the vehicle.
Further, in each of the above-described embodiments, the guide objects 63, 67, and 68 that guide the direction of travel are displayed as the guide objects, but these guide objects may not be displayed. That is, the CPU 41 may execute only the display processing of the destination objects G and G1.
In addition, in the first to third embodiments, the driving support using the destination objects G and G1 is performed when driving on a general road, but it may be performed when driving on an expressway, and both general roads and expressways are supported. You can go when you are running. For example, when a service area is set as the destination 51, the branch point entering the service area may be determined as the final right/left turn guide point, and the destination objects G and G1 may be displayed.

また、第1、第2実施形態では、ナビゲーション装置1の液晶ディスプレイ15に対してフロントカメラ19で撮像した実景画像や目的地オブジェクトG,G1を表示しているが、実景画像や目的地オブジェクトG,G1を表示するディスプレイとしては車両内に配置されたディスプレイであれば、液晶ディスプレイ15以外のディスプレイであっても良い。
また、第3実施形態では、フロントディスプレイ94によって車両92のフロントガラス95の前方に虚像113,114を生成する構成としているが、フロントガラス95以外のウィンドウの前方に虚像113,114を生成する構成としても良い。また、フロントディスプレイ94により映像を反射させる対象はフロントガラス95自身ではなくフロントガラス95の周辺に設置されたバイザー(コンバイナー)であっても良い。
また、第1及び第2実施形態では、走行支援処理プログラム(図2、図10)の処理をナビゲーション装置1のナビゲーションECU13が実行する構成としているが、実行主体は適宜変更することが可能である。例えば、液晶ディスプレイ15の制御部、車両制御ECU、その他の車載器が実行する構成としても良い。
Further, in the first and second embodiments, the actual scene image captured by the front camera 19 and the destination objects G and G1 are displayed on the liquid crystal display 15 of the navigation device 1. , G1 may be a display other than the liquid crystal display 15 as long as it is a display arranged in the vehicle.
In the third embodiment, the virtual images 113 and 114 are generated in front of the windshield 95 of the vehicle 92 by the front display 94, but the virtual images 113 and 114 are generated in front of windows other than the windshield 95. It is good as Also, the object on which the image is reflected by the front display 94 may be a visor (combiner) installed around the windshield 95 instead of the windshield 95 itself.
Further, in the first and second embodiments, the navigation ECU 13 of the navigation device 1 executes the processing of the driving support processing program (FIGS. 2 and 10), but the executing body can be changed as appropriate. . For example, the configuration may be such that the controller of the liquid crystal display 15, the vehicle control ECU, or other on-vehicle equipment executes.

1,93 ナビゲーション装置(重畳画像表示装置の一例)、41 CPU(基準距離判定手段、第1オブジェクト表示手段、右左折判定手段、第2オブジェクト表示手段、進行距離判定手段、閾値距離判定手段、角度判定手段、カーブ判定手段の一例)、51 目的地、53 車両、54 右左折案内地点(最終右左折案内地点の一例)、52,74 案内経路、64 風景、58,66,71,75,79 位置(現在位置の一例)、59,73,76,77 距離、84 第2直線(直線の一例)、96 乗員、TH1 基準距離、TH2 進行距離、TH3 閾値距離、θ 角度、θTH 閾値角度。
1, 93 navigation device (an example of a superimposed image display device), 41 CPU (reference distance determination means, first object display means, right/left turn determination means, second object display means, traveling distance determination means, threshold distance determination means, angle determination means, curve determination means), 51 Destination, 53 Vehicle, 54 Right/left turn guidance point (an example of final right/left turn guidance point), 52, 74 Guidance route, 64 Scenery, 58, 66, 71, 75, 79 Position (example of current position), 59, 73, 76, 77 Distance, 84 Second straight line (example of straight line), 96 Passenger, TH1 Reference distance, TH2 Travel distance, TH3 Threshold distance, θ Angle, θTH Threshold angle.

Claims (5)

車両に搭載され、前記車両の乗員へ案内する案内経路に関する情報を、前記車両の周辺の風景に重畳して表示させる重畳画像表示装置であって、
前記車両の現在位置から前記案内経路における目的地までの距離が所定の基準距離以下であるか否かを判定する基準距離判定手段と、
前記基準距離判定手段により前記目的地までの距離が前記基準距離以下であると判定した場合に、前記車両の周辺の風景における前記目的地の位置に合わせて前記目的地の位置を示す目的地オブジェクトを重畳して表示させ、且つ、前記目的地オブジェクトを第1表示態様で表示する第1オブジェクト表示手段と、
前記目的地オブジェクトを前記第1表示態様で表示する処理を実行した場合に、前記車両の現在位置から前記目的地までの前記案内経路における右左折を伴う右左折案内地点について、前記案内経路において前記目的地に最も近い前記右左折案内地点である最終右左折案内地点で右左折を行なったか否かを判定する右左折判定手段と、
前記右左折判定手段により前記最終右左折案内地点で右左折を行なったと判定した場合に、前記目的地オブジェクトを前記第1表示態様とは異なる第2表示態様で表示する第2オブジェクト表示手段と、
を有する重畳画像表示装置。
A superimposed image display device that is mounted on a vehicle and displays information related to a guide route for guiding an occupant of the vehicle by superimposing it on scenery around the vehicle,
Reference distance determination means for determining whether or not the distance from the current position of the vehicle to the destination on the guidance route is equal to or less than a predetermined reference distance;
A destination object indicating the position of the destination in accordance with the position of the destination in the scenery around the vehicle when the reference distance determination means determines that the distance to the destination is equal to or less than the reference distance. a first object display means for superimposing and displaying the destination object in a first display mode;
When the process of displaying the destination object in the first display mode is executed, for a right/left turn guidance point involving a right/left turn on the guidance route from the current position of the vehicle to the destination, the right/left turn determination means for determining whether or not a right/left turn is made at a final right/left turn guidance point which is the right/left turn guidance point closest to the destination;
second object display means for displaying the destination object in a second display mode different from the first display mode when the right/left turn determination means determines that a right/left turn is made at the final right/left turn guidance point;
A superimposed image display device having
前記第1オブジェクト表示手段は、
前記第1表示態様として前記目的地オブジェクトを半透過状態で表示し、
前記第2オブジェクト表示手段は、
前記第2表示態様として前記目的地オブジェクトを非透過状態で表示する、請求項1に記載の重畳画像表示装置。
The first object display means is
displaying the destination object in a translucent state as the first display mode;
The second object display means is
2. The superimposed image display device according to claim 1, wherein the destination object is displayed in a non-transparent state as the second display mode.
前記右左折判定手段により前記最終右左折案内地点で右左折を行なったと判定した場合に、前記最終右左折案内地点で右左折を行なった後に前記車両が所定の進行距離だけ進行したか否かを判定する進行距離判定手段を有し、
前記第2オブジェクト表示手段は、
前記進行距離判定手段により前記最終右左折案内地点で右左折を行なった後に前記車両が前記進行距離だけ進行したと判定した場合に、前記目的地オブジェクトを前記第2表示態様で表示する、請求項1又は請求項2に記載の重畳画像表示装置。
When the right/left turn determining means determines that a right/left turn has been performed at the final right/left turn guidance point, it is determined whether or not the vehicle has traveled a predetermined distance after the right/left turn has been performed at the final right/left turn guidance point. Having a travel distance determination means for determining,
The second object display means is
2. The destination object is displayed in the second display mode when the travel distance determining means determines that the vehicle has traveled the travel distance after turning left or right at the final right or left turn guidance point. The superimposed image display device according to claim 1 or 2.
前記右左折判定手段により前記最終右左折案内地点で右左折を行なったと判定した場合に、前記車両の現在位置から前記目的地まで距離が所定の閾値距離以下であるか否かを判定する閾値距離判定手段を有し、
前記第2オブジェクト表示手段は、
前記閾値距離判定手段により前記目的地までの距離が前記閾値距離以下であると判定した場合に、前記目的地オブジェクトを前記第2表示態様で表示する、請求項1から請求項3の何れか1項に記載の重畳画像表示装置。
A threshold distance for determining whether or not a distance from the current position of the vehicle to the destination is equal to or less than a predetermined threshold distance when the right/left turn determination means determines that the vehicle has made a right/left turn at the final right/left turn guidance point. having determination means;
The second object display means is
4. The destination object is displayed in the second display mode when the threshold distance determination means determines that the distance to the destination is equal to or less than the threshold distance. 10. The superimposed image display device according to Item 1.
前記右左折判定手段により前記最終右左折案内地点で右左折を行なったと判定した場合に、前記車両の進行方向と、前記車両と前記目的地を結ぶ直線がなす角度が閾値角度以下であるか否かを判定する角度判定手段と、
前記角度判定手段により前記なす角度が前記閾値角度以下でないと判定した場合に、前記案内経路において前記目的地に最も近いカーブを曲がったか否かを判定するカーブ判定手段と、
を有し、
前記第2オブジェクト表示手段は、
前記カーブ判定手段により前記カーブを曲がったと判定した場合に、前記目的地オブジェクトを前記第2表示態様で表示する、請求項1から請求項4の何れか1項に記載の重畳画像表示装置。
Whether the angle formed by the traveling direction of the vehicle and a straight line connecting the vehicle and the destination is equal to or less than a threshold angle when the right/left turn determination means determines that the vehicle has made a right/left turn at the final right/left turn guidance point. an angle determination means for determining whether
curve determination means for determining whether or not a curve closest to the destination on the guidance route is turned when the angle determination means determines that the formed angle is not equal to or less than the threshold angle;
has
The second object display means is
5. The superimposed image display device according to any one of claims 1 to 4, wherein the destination object is displayed in the second display mode when the curve determination means determines that the curve is turned.
JP2021214336A 2021-12-28 2021-12-28 Superimposed image display device Pending JP2023097939A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021214336A JP2023097939A (en) 2021-12-28 2021-12-28 Superimposed image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021214336A JP2023097939A (en) 2021-12-28 2021-12-28 Superimposed image display device

Publications (1)

Publication Number Publication Date
JP2023097939A true JP2023097939A (en) 2023-07-10

Family

ID=87071842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021214336A Pending JP2023097939A (en) 2021-12-28 2021-12-28 Superimposed image display device

Country Status (1)

Country Link
JP (1) JP2023097939A (en)

Similar Documents

Publication Publication Date Title
JP6658905B2 (en) Travel support device and computer program
US10300916B2 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US10399571B2 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US9417080B2 (en) Movement trajectory generator
WO2019097763A1 (en) Superposed-image display device and computer program
US20180120844A1 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US20160347327A1 (en) Autonomous vehicle driving assist system, method, and program
JP7476568B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
JP6365134B2 (en) Driving support system, driving support method, and computer program
JP2006284458A (en) System for displaying drive support information
US20230135641A1 (en) Superimposed image display device
US11828613B2 (en) Superimposed-image display device
JPH07280579A (en) Navigation device
JP7302389B2 (en) Superimposed image display device and computer program
JP2023097939A (en) Superimposed image display device
JP7400356B2 (en) Superimposed image display device and computer program
JP2023038558A (en) Superimposed image display device
JP2023008462A (en) Superimposed image display device
JP2023131981A (en) Superimposed image display device
JP2023064957A (en) Superimposed image display device
JP2024018205A (en) Superimposed image display device
JP2023044949A (en) Superposed image display device
JP2024049817A (en) Overlay image display device
JP2021081232A (en) Superimposed image display device and computer program
JP2024033759A (en) Superimposed image display device