JP2016090344A - Navigation device and navigation program - Google Patents

Navigation device and navigation program Download PDF

Info

Publication number
JP2016090344A
JP2016090344A JP2014223696A JP2014223696A JP2016090344A JP 2016090344 A JP2016090344 A JP 2016090344A JP 2014223696 A JP2014223696 A JP 2014223696A JP 2014223696 A JP2014223696 A JP 2014223696A JP 2016090344 A JP2016090344 A JP 2016090344A
Authority
JP
Japan
Prior art keywords
intersection
arrow
width
vehicle
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014223696A
Other languages
Japanese (ja)
Inventor
将高 福元
Masataka Fukumoto
将高 福元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2014223696A priority Critical patent/JP2016090344A/en
Publication of JP2016090344A publication Critical patent/JP2016090344A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To intelligibly display an arrow figure superimposed on an image of a cross-point.SOLUTION: A navigation device 1 creates a plane arrow 55 including a shaft A for guiding an approach to a cross-point, and a shaft B for guiding a travel direction from the cross-point. The navigation device 1 displays a three-dimensional arrow 56 by a perspective view obtained by three-dimensionally transforming the plane arrow, on an HUD (Head-Up Display) 45, with the same superimposed on the cross-point. The navigation device 1 is configured to individually vary the lengths of the shaft A and the shaft B and individually change the lengths of the shaft A and the shaft B according to a distance to the cross-point to change the shape itself of the arrow. Consequently, a driver can clearly perceive at which cross-point he/she should turn to the right/left.SELECTED DRAWING: Figure 3

Description

本発明は、ナビゲーション装置、及びナビゲーションプログラムに関し、例えば、矢印の表示を用いて経路を案内するものに関する。   The present invention relates to a navigation device and a navigation program, and relates to, for example, a route guidance using an arrow display.

車両のナビゲーション装置は、案内対象の交差点の手前から進行方向を音声や表示を用いて指示する所謂ターンバイターン方式の経路案内を行う。
表示によって行うターンバイターン方式の経路案内には、特許文献1の「カーナビゲーション装置」のように、車載のカメラにて車両前方を撮影し、その画像に進行方向を案内する矢印を重畳して表示するものがある。
この技術では、交差点に近づくにつれて矢印を大きくするなど、現在位置から交差点までの距離に応じて案内矢印の大きさを全体的に変えている。
The vehicle navigation apparatus performs so-called turn-by-turn route guidance that instructs the traveling direction from the front of the intersection to be guided using voice or display.
In the turn-by-turn route guidance performed by display, like the “car navigation device” of Patent Document 1, the vehicle front is photographed with an in-vehicle camera, and an arrow for guiding the traveling direction is superimposed on the image. There is something to display.
In this technique, the size of the guide arrow is entirely changed according to the distance from the current position to the intersection, for example, the arrow is enlarged as it approaches the intersection.

ところで、人間の心理では、ある物に対する距離が変化しながら当該物の大きさが全体的に変化する場合、当該物の大きさの変化が分かりにくいということが知られている。
ナビゲーション装置の最も重要な機能は、どこで右左折するかを運転者に伝えることである。
しかし、特許文献1の技術では、交差点が近づくにつれて案内矢印の全体的な大きさが背景と共に変化するため、上の理由から運転者にとって案内矢印が分かりにくいという問題があった。
By the way, in human psychology, it is known that when the size of an object changes as a whole while the distance to the object changes, the change in the size of the object is difficult to understand.
The most important function of the navigation device is to tell the driver where to turn left and right.
However, the technique of Patent Document 1 has a problem in that the guide arrow is difficult to understand for the driver because the overall size of the guide arrow changes with the background as the intersection approaches.

特開2011−149835号公報JP 2011-149835 A

本発明は、交差点の像に重畳する矢印図形を分かり易く表示することを目的とする。   An object of this invention is to display the arrow figure superimposed on the image of an intersection in an easy-to-understand manner.

(1)請求項1に記載の発明では、車両を目的地点に案内する経路を取得する経路取得手段と、前記取得した経路に従って進行方向を案内する次の交差点を特定する交差点特定手段と、前記車両の現在位置から前記特定した交差点までの距離を取得する距離取得手段と、前記車両が現在走行している道路の幅を取得する幅取得手段と、前記取得した距離に基づく長さを有し、前記交差点への進入方向を有する、進入案内量を取得する進入案内量取得手段と、前記取得した幅に基づく長さを有し、前記交差点からの進行方向を有する、進行方向案内量を取得する進行方向案内量取得手段と、前記進入案内量に対応する長さと方向を有する第1柄部と、当該第1柄部と連続し、前記進行方向案内量に対応する長さと方向を有する第2柄部と、を有する矢印図形を作成する矢印図形作成手段と、前記作成した矢印図形を前記交差点の像に重畳して表示する表示手段と、を具備したことを特徴とするナビゲーション装置を提供する。
(2)請求項2に記載の発明では、前記表示手段が、前記車両の運転者が視認する前記交差点の実像か、又は、表示画面に表示した前記交差点の画像のうちの少なくとも一方に前記矢印図形を重畳して表示することを特徴とする請求項1に記載のナビゲーション装置を提供する。
(3)請求項3に記載の発明では、前記交差点の所定位置に基準点を設定する基準点設定手段を具備し、前記表示手段は、前記第1柄部と前記第2柄部の交点を前記設定した基準点に一致させて重畳することを特徴とする請求項1、又は請求項2に記載のナビゲーション装置を提供する。
(4)請求項4に記載の発明では、現在通行している車線を特定する車線特定手段を具備し、前記基準点設定手段は、前記特定した車線の内側に前記基準点を設定することを特徴とする請求項3に記載のナビゲーション装置を提供する。
(5)請求項5に記載の発明では、前記取得した距離が所定の閾値以上の場合、前記矢印図形作成手段は、前記第2柄部を用いずに、前記第1柄部を用いて前記矢印図形を作成することを特徴とする請求項1から請求項4までのうちの何れか1の請求項に記載のナビゲーション装置を提供する。
(6)請求項6は、前方の道路を撮影する撮影手段を具備し、前記幅取得手段は、前記撮影した道路の画像から白線を画像認識することにより前記幅を取得することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載のナビゲーション装置を提供する。
(7)請求項7に記載の発明では、前記幅取得手段が、前記取得した経路の道路データを記録したデータベースから前記幅を取得することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載のナビゲーション装置を提供する。
(8)請求項8に記載の発明では、前記矢印図形作成手段が、前記矢印図形を前記交差点への進入方向に見た斜視図の形状に作成することを特徴とする請求項1から請求項7までのうちの何れか1の請求項に記載のナビゲーション装置を提供する。
(9)請求項9に記載の発明では、車両を目的地点に案内する経路を取得する経路取得機能と、前記取得した経路に従って進行方向を案内する次の交差点を特定する交差点特定機能と、前記車両の現在位置から前記特定した交差点までの距離を取得する距離取得機能と、前記車両が現在走行している道路の幅を取得する幅取得機能と、前記取得した距離に基づく長さを有し、前記交差点への進入方向を有する、進入案内量を取得する進入案内量取得機能と、前記取得した幅に基づく長さを有し、前記交差点からの進行方向を有する、進行方向案内量を取得する進行方向案内量取得機能と、前記進入案内量に対応する長さと方向を有する第1柄部と、当該第1柄部と連続し、前記進行方向案内量に対応する長さと方向を有する第2柄部と、を有する矢印図形を作成する矢印図形作成機能と、前記作成した矢印図形を前記交差点の像に重畳して表示する表示機能と、をコンピュータで実現するナビゲーションプログラムを提供する。
(1) In the invention according to claim 1, route acquisition means for acquiring a route for guiding a vehicle to a destination point, intersection specification means for specifying a next intersection for guiding a traveling direction according to the acquired route, Distance acquisition means for acquiring the distance from the current position of the vehicle to the specified intersection, width acquisition means for acquiring the width of the road on which the vehicle is currently traveling, and a length based on the acquired distance An approach guidance amount acquiring means for acquiring an approach guide amount having an approach direction to the intersection, and a traveling direction guide amount having a length based on the acquired width and having a traveling direction from the intersection. A traveling direction guide amount acquiring means, a first handle portion having a length and a direction corresponding to the approach guide amount, a first handle portion continuous with the first handle portion and having a length and a direction corresponding to the traveling direction guide amount. With 2 handles That the arrow graphic generating means for generating arrow graphic, to provide a navigation device, characterized in that the arrow shape that the created equipped with a display means for displaying superimposed on the image of the intersection.
(2) In the invention according to claim 2, the arrow is displayed on at least one of the real image of the intersection visually recognized by the driver of the vehicle or the image of the intersection displayed on the display screen. The navigation apparatus according to claim 1, wherein a graphic is superimposed and displayed.
(3) In invention of Claim 3, it has the reference point setting means which sets a reference point in the predetermined position of the said intersection, The said display means shows the intersection of the said 1st pattern part and the said 2nd pattern part. The navigation apparatus according to claim 1 or 2, wherein the navigation apparatus overlaps with the set reference point.
(4) In the invention described in claim 4, lane specifying means for specifying the currently passing lane is provided, and the reference point setting means sets the reference point inside the specified lane. A navigation device according to claim 3 is provided.
(5) In the invention according to claim 5, when the acquired distance is equal to or greater than a predetermined threshold, the arrow figure creating means uses the first pattern portion without using the second pattern portion. The navigation apparatus according to any one of claims 1 to 4, wherein an arrow graphic is created.
(6) Claim 6 comprises a photographing means for photographing a road ahead, and the width obtaining means obtains the width by recognizing a white line from the photographed road image. A navigation device according to any one of claims 1 to 5 is provided.
(7) In the invention according to claim 7, the width acquisition unit acquires the width from a database in which road data of the acquired route is recorded. A navigation device according to any one of the claims is provided.
(8) In the invention according to claim 8, the arrow graphic creating means creates the arrow graphic in the shape of a perspective view when viewed in the approach direction to the intersection. A navigation device according to any one of claims 7 to 7 is provided.
(9) In the invention according to claim 9, a route acquisition function for acquiring a route for guiding a vehicle to a destination point, an intersection specification function for specifying a next intersection for guiding a traveling direction according to the acquired route, A distance acquisition function for acquiring a distance from the current position of the vehicle to the specified intersection, a width acquisition function for acquiring a width of a road on which the vehicle is currently traveling, and a length based on the acquired distance An approach guidance amount acquisition function for acquiring an approach guide amount having an approach direction to the intersection, and a travel direction guide amount having a length based on the acquired width and having a travel direction from the intersection. A traveling direction guidance amount acquisition function, a first handle portion having a length and direction corresponding to the approach guidance amount, a first handle portion that is continuous with the first handle portion and has a length and direction corresponding to the traveling direction guide amount. With 2 handles That the arrow graphic creation function for creating arrow graphic, to provide a navigation program for realizing a display function, with the computer to display by superimposing the arrow graphic that the created image of the intersection.

本発明は、矢印図形の形状自体を変化させることにより、交差点の像に重畳する矢印図形を分かり易くすることができる。   According to the present invention, the arrow graphic superimposed on the image of the intersection can be easily understood by changing the shape of the arrow graphic itself.

ナビゲーション装置のシステム構成図である。It is a system configuration figure of a navigation device. 矢印の構成を説明するための図である。It is a figure for demonstrating the structure of an arrow. ベクトル量の長さの変換方法を説明するための図である。It is a figure for demonstrating the conversion method of the length of a vector amount. 基準点Pの設定方法などを説明するための図である。It is a figure for demonstrating the setting method etc. of the reference point. 道路の幅の選択の変形例を説明するための図である。It is a figure for demonstrating the modification of selection of the width of a road. 交差点案内処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of an intersection guidance process. 立体矢印の変形例を説明するための図である。It is a figure for demonstrating the modification of a solid arrow.

(1)実施形態の概要
図2(b)に示したように、ナビゲーション装置1は、交差点への進入を案内するシャフトAと交差点からの進行方向を案内するシャフトBを有する平面矢印55を作成する。
そして、ナビゲーション装置1は、図3(c)に示したように、これを3次元変換した斜視図による立体矢印56をHUD45に交差点と重畳して表示する。
ナビゲーション装置1は、シャフトAとシャフトBの長さは個別に可変とし、交差点への距離に応じてシャフトAとシャフトBの長さを個別に変化させて矢印の形状自体を変化させる。これにより、運転者はどこで右左折するかを明確に分かることができる。
このように、ナビゲーション装置1は、実景に矢印を重畳させる案内方法にて現在位置から案内対象の交差点までの距離に応じて矢印の形状自体を変えることで分かり易い案内を提供する。
(1) Outline of Embodiment As shown in FIG. 2B, the navigation apparatus 1 creates a plane arrow 55 having a shaft A that guides the approach to the intersection and a shaft B that guides the traveling direction from the intersection. To do.
Then, as shown in FIG. 3C, the navigation device 1 displays a three-dimensional arrow 56 obtained by three-dimensional conversion of the three-dimensional arrow 56 superimposed on the intersection on the HUD 45.
In the navigation device 1, the lengths of the shaft A and the shaft B are individually variable, and the lengths of the shaft A and the shaft B are individually changed according to the distance to the intersection to change the shape of the arrow itself. As a result, the driver can clearly understand where to turn left and right.
As described above, the navigation device 1 provides easy-to-understand guidance by changing the shape of the arrow itself according to the distance from the current position to the intersection to be guided in the guidance method in which the arrow is superimposed on the actual scene.

(2)実施形態の詳細
以下の実施の形態では、左側車線を通行する(日本、イギリスなど)交通システムについて説明し、右側車線を通行する(アメリカなど)交通システムの場合には、左右が反転する。
図1は、本実施形態で用いるナビゲーション装置のシステム構成図である。
ナビゲーション装置1は、車両に搭載される情報提供装置(コンピュータ)であり、現在位置検出部11、データ記憶部12、ナビゲーションECU(Electronic Control Unit)13、操作部14、液晶ディスプレイ15、スピーカ16、DVDドライブ17、通信モジュール18などを備えている。
(2) Details of the embodiment In the following embodiment, a traffic system that travels in the left lane (Japan, UK, etc.) will be described. In the case of a traffic system that travels in the right lane (such as the United States), the left and right are reversed To do.
FIG. 1 is a system configuration diagram of a navigation apparatus used in the present embodiment.
The navigation device 1 is an information providing device (computer) mounted on a vehicle, and includes a current position detection unit 11, a data storage unit 12, a navigation ECU (Electronic Control Unit) 13, an operation unit 14, a liquid crystal display 15, a speaker 16, A DVD drive 17 and a communication module 18 are provided.

現在位置検出部11は、GPS(Global Positioning System)21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24などから構成されている。
GPS21は、地球を周回する複数のGPS衛星からの信号を受信する。この信号には時刻情報が含まれており、ナビゲーションECU13がこれを処理することにより、ナビゲーション装置1は、自車両の位置情報を検出することができる。
The current position detection unit 11 includes a GPS (Global Positioning System) 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like.
The GPS 21 receives signals from a plurality of GPS satellites that orbit the earth. This signal includes time information, and the navigation ECU 13 can detect the position information of the host vehicle by processing this information.

車速センサ22は、例えば、車軸の回転数に比例してパルス信号を発生する。これをナビゲーションECU13が処理することにより、ナビゲーション装置1は、自車量の車速情報を検出することができる。
更に、ナビゲーションECU13は、検出した速度を時間で微分して車両の加速度を計算したり、あるいは時間で積分して車両の移動距離を計算することができる。
For example, the vehicle speed sensor 22 generates a pulse signal in proportion to the rotational speed of the axle. When the navigation ECU 13 processes this, the navigation device 1 can detect the vehicle speed information of the own vehicle amount.
Furthermore, the navigation ECU 13 can calculate the acceleration of the vehicle by differentiating the detected speed with time, or can calculate the moving distance of the vehicle by integrating with time.

ステアリングセンサ23は、例えば、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリュームあるいは車輪部に取り付ける角度センサなどで構成されており、これらの発生する信号をナビゲーションECU13が処理することにより、ナビゲーション装置1は、運転者が操作したステアリング量を検出することができる。   The steering sensor 23 includes, for example, an optical rotation sensor attached to the rotating part of the steering wheel, a rotational resistance volume, or an angle sensor attached to the wheel part. The navigation ECU 13 processes these generated signals. Thus, the navigation device 1 can detect the steering amount operated by the driver.

ジャイロセンサ24は、例えば、素子に作用するコリオリの力を用いて角速度を検出するセンサであり、ナビゲーションECU13は、これにより車両の角速度を得ることができる。
更に、ナビゲーションECU13は、検出した角速度を時間で微分して車両の角加速度を計算したり、時間で積分して車両の回転角度を計算することができる。
The gyro sensor 24 is, for example, a sensor that detects angular velocity using Coriolis force acting on the element, and the navigation ECU 13 can obtain the angular velocity of the vehicle.
Furthermore, the navigation ECU 13 can calculate the angular acceleration of the vehicle by differentiating the detected angular velocity with time, or can calculate the rotation angle of the vehicle by integrating with time.

ナビゲーションECU13は、ナビゲーションECU13のこれらのセンサが検出した値を総合的に判断して、自車量の位置、速度、加速度、進行方向、旋回方向などを計算し、後述の矢印の表示に用いたり、車両の現在位置を地図上に表示したりする。   The navigation ECU 13 comprehensively determines the values detected by these sensors of the navigation ECU 13 to calculate the position, speed, acceleration, traveling direction, turning direction, etc. of the own vehicle amount and use it for the display of an arrow described later. Or displaying the current position of the vehicle on a map.

データ記憶部12は、大容量の記憶媒体31と、これを駆動する駆動装置から構成されている。
記憶媒体31は、例えば、大容量のハードディスクや半導体メモリ、あるいは、光磁気ディスクや、これらの組み合わせにより構成されている。
記憶媒体31には、リンクデータ33、ノードデータ34、交差点データ35、地図データ36などの各種データが記憶されており、データ記憶部12は、ナビゲーションECU13からの問い合わせに対してこれらの情報を提供する。
The data storage unit 12 includes a large-capacity storage medium 31 and a drive device that drives the storage medium 31.
The storage medium 31 is configured by, for example, a large-capacity hard disk, a semiconductor memory, a magneto-optical disk, or a combination thereof.
Various data such as link data 33, node data 34, intersection data 35, and map data 36 are stored in the storage medium 31, and the data storage unit 12 provides such information in response to an inquiry from the navigation ECU 13. To do.

リンクデータ33は、経路の直線部を表すリンク(線分)情報のデータベースである。
ノードデータ34は、交差点や道路がカーブする地点など道路の状態が変化する地点を表すノード(節)情報のデータベースである。
これらリンクとノードにより経路網が数値化され、経路探索などに利用される。
本実施の形態では、ナビゲーションECU13は、現在位置から案内対象のリンク(交差点)に至るノードの長さにより現在位置から交差点までの距離を計算し、これをパラメータとして矢印を作成する。
The link data 33 is a database of link (line segment) information representing a straight line portion of a route.
The node data 34 is a database of node (section) information representing points where road conditions change, such as intersections and points where roads curve.
The route network is digitized by these links and nodes and used for route search and the like.
In the present embodiment, the navigation ECU 13 calculates the distance from the current position to the intersection based on the length of the node from the current position to the guidance target link (intersection), and creates an arrow using this as a parameter.

交差点データ35は、交差点の位置や交差点での車線数や右折車線の有無などの各交差点に固有な情報のデータベースである。ナビゲーションECU13は、例えば、交差点データ35を用いることによりあるノードが交差点であることを判断することができる。
地図データ36は、道路の車線数や道路の幅などの各道路に固有な情報のデータベースである。
ナビゲーションECU13は、地図データ36と現在位置を用いることにより車両が走行している車線を特定したり、現在走行している道路の幅を特定したりすることができる。
The intersection data 35 is a database of information unique to each intersection such as the position of the intersection, the number of lanes at the intersection, and the presence or absence of a right turn lane. For example, the navigation ECU 13 can determine that a certain node is an intersection by using the intersection data 35.
The map data 36 is a database of information unique to each road such as the number of road lanes and road width.
The navigation ECU 13 can identify the lane in which the vehicle is traveling or the width of the currently traveling road by using the map data 36 and the current position.

ナビゲーションECU13は、CPU(Central Processing Unit)41、RAM(Random Access Memory)42、ROM(Read Only Memory)43、フラッシュメモリ44、図示しない入出力インターフェースなどから構成されている。   The navigation ECU 13 includes a CPU (Central Processing Unit) 41, a RAM (Random Access Memory) 42, a ROM (Read Only Memory) 43, a flash memory 44, an input / output interface (not shown), and the like.

ナビゲーションECU13は、現在位置検出部11、データ記憶部12、操作部14、フロントカメラ19、ドライバカメラ20などから得た情報に基づいて経路探索や経路案内などナビゲーションのための各種演算を行うとともに、液晶ディスプレイ15、HUD45、スピーカ16といった周辺機器を制御して、演算結果をこれらに出力する。
このように、ナビゲーション装置1は、車両を目的地点に案内する経路を取得する経路取得手段を備えている。
The navigation ECU 13 performs various calculations for navigation such as route search and route guidance based on information obtained from the current position detection unit 11, the data storage unit 12, the operation unit 14, the front camera 19, the driver camera 20, and the like. The peripheral devices such as the liquid crystal display 15, the HUD 45, and the speaker 16 are controlled, and the calculation results are output to these.
Thus, the navigation apparatus 1 includes route acquisition means for acquiring a route for guiding the vehicle to the destination point.

CPU41は、中央処理装置であって、例えば、フラッシュメモリ44に記憶されたナビゲーションプログラムを実行し、ナビゲーションに必要な情報処理や制御を行う。
より具体的には、CPU41は、目的地までの経路探索や、矢印の表示によるターンバイターン方式の車両誘導などを行う。
The CPU 41 is a central processing unit and executes, for example, a navigation program stored in the flash memory 44 to perform information processing and control necessary for navigation.
More specifically, the CPU 41 performs route search to the destination, turn-by-turn vehicle guidance by displaying arrows, and the like.

RAM42は、CPU41が各種演算や制御を行う際のワーキングメモリを提供する。
CPU41は、RAM42のメモリ空間を用いて、経路探索して案内経路を記憶したり、現在位置や交差点を特定して矢印を作成したり、これを読み出してHUD45に表示したりする。
ROM43は、読み取り専用の記憶装置であって、ナビゲーションECU13を動作させるための基本的なプログラムやパラメータを記憶している。
The RAM 42 provides a working memory when the CPU 41 performs various calculations and controls.
The CPU 41 uses the memory space of the RAM 42 to search for a route and store a guide route, create an arrow by specifying a current position and an intersection, or read this and display it on the HUD 45.
The ROM 43 is a read-only storage device, and stores basic programs and parameters for operating the navigation ECU 13.

フラッシュメモリ44は、読み書き可能な不揮発性のメモリであって、ナビゲーションプログラムやOS(Operating System)などが記憶されている。
ナビゲーションプログラムは、ナビゲーションに必要な各種演算や制御をCPU41に行わせるコンピュータプログラムである。
なお、ナビゲーションプログラムは、データ記憶部12やROM43、あるいは、DVDドライブ17に装着したDVDディスクなど、他の記憶媒体に記憶しておき、これをCPU41が読み出すように構成してもよい。
The flash memory 44 is a readable / writable nonvolatile memory, and stores a navigation program, an OS (Operating System), and the like.
The navigation program is a computer program that causes the CPU 41 to perform various calculations and controls necessary for navigation.
Note that the navigation program may be stored in another storage medium such as the data storage unit 12, the ROM 43, or a DVD disk mounted on the DVD drive 17, and the CPU 41 may read the navigation program.

図示しない入出力インターフェースは、ナビゲーションECU13を現在位置検出部11〜ドライバカメラ20、HUD45といった周辺機器に接続するインターフェースである。
ナビゲーションECU13は、入出力インターフェースを介して現在位置検出部11と通信し、これから得た情報によって車両の位置を算出したり、当該位置をデータ記憶部12のデータと照合して次の案内対象の交差点(以下、対象交差点)までの距離や現在走行している道路の幅を得たりなど矢印の表示に必要な処理をする。
An input / output interface (not shown) is an interface that connects the navigation ECU 13 to peripheral devices such as the current position detection unit 11 to the driver camera 20 and the HUD 45.
The navigation ECU 13 communicates with the current position detection unit 11 via the input / output interface, calculates the position of the vehicle based on information obtained from the navigation ECU 13, or compares the position with the data in the data storage unit 12 to determine the next guidance target. Processes necessary for the display of arrows, such as obtaining the distance to the intersection (hereinafter referred to as the target intersection) and the width of the road that is currently running.

操作部14は、例えば、タッチパネル、タッチスイッチ、ジョイスティック、キースイッチ、音声入力装置などの入力装置で構成されており、例えば、経路探索に必要な目的地の入力を利用者から受け付ける。
液晶ディスプレイ15は、運転席付近に設置した小型のディスプレイであって、入力画面や現在位置画面などの各種画像や映像を表示する。
液晶ディスプレイ15は、現在地周辺の地図や、目的地までの走行経路を表示するための案内用の画面や、利用者がデータを入力するための入力画面などの各種画像を表示する。
For example, the operation unit 14 includes an input device such as a touch panel, a touch switch, a joystick, a key switch, and a voice input device. For example, the operation unit 14 receives an input of a destination necessary for a route search from a user.
The liquid crystal display 15 is a small display installed near the driver's seat and displays various images and videos such as an input screen and a current position screen.
The liquid crystal display 15 displays various images such as a map around the current location, a guidance screen for displaying a travel route to the destination, and an input screen for a user to input data.

なお、本実施の形態では、案内用の矢印をHUD45に表示するが、フロントカメラ19で撮影した交差点の画像に矢印を重畳して液晶ディスプレイ15に案内画面として表示してもよい。
あるいは、HUD45と液晶ディスプレイ15の両方に矢印を表示してもよい。
この場合、液晶ディスプレイ15は、後述するHUD45と共に作成した矢印図形を交差点の像に重畳して表示する表示手段として機能している。
In the present embodiment, a guidance arrow is displayed on the HUD 45, but the arrow may be superimposed on the image of the intersection photographed by the front camera 19 and displayed on the liquid crystal display 15 as a guidance screen.
Alternatively, an arrow may be displayed on both the HUD 45 and the liquid crystal display 15.
In this case, the liquid crystal display 15 functions as a display unit that displays an arrow graphic created together with the HUD 45 described later on an intersection image.

ナビゲーションECU13は、矢印を交差点の像に重畳して表示するが、HUD45に表示する場合は、この交差点の像は、車両の運転者が視認する交差点の実像であり、液晶ディスプレイ15に表示する場合は、表示画面(液晶ディスプレイ15)に表示した交差点の画像となる。また、液晶ディスプレイ15に表示する交差点の画像は、撮影した画像ではなく、アニメーションなどの模式的な画像でもよい。
このように、表示手段は、車両の運転者が視認する交差点の実像か、又は、表示画面に表示した交差点の画像のうちの少なくとも一方に矢印図形を重畳して表示する。
The navigation ECU 13 superimposes and displays an arrow on the intersection image. When the navigation ECU 13 displays the arrow on the HUD 45, the intersection image is a real image of the intersection visually recognized by the driver of the vehicle and displayed on the liquid crystal display 15. Is an image of an intersection displayed on the display screen (liquid crystal display 15). Further, the image of the intersection displayed on the liquid crystal display 15 may be a schematic image such as an animation instead of a captured image.
In this way, the display means superimposes the arrow graphic on at least one of the real image of the intersection visually recognized by the driver of the vehicle or the image of the intersection displayed on the display screen.

スピーカ16は、例えば、「次の交差点を右方向です」などと、各種の案内音声を出力する。
DVDドライブ17は、DVDディスクの装着を受け付け、DVDに記録されたプログラムやデータを読み込む。ナビゲーションプログラムをアップデートする際に、更新プログラムをDVDドライブ17から読み込むこともできる。
The speaker 16 outputs various guidance voices such as “the next intersection is in the right direction”.
The DVD drive 17 accepts the loading of the DVD disk and reads the program and data recorded on the DVD. When the navigation program is updated, the update program can be read from the DVD drive 17.

通信モジュール18は、例えば、インターネットなどの通信ネットワークに接続し、サーバ装置と通信して渋滞情報など、各種の情報を受信したり、あるいは、自車位置などの各種情報をサーバ装置に送信したりする。
本実施の形態では、地図データなどの各種データをデータ記憶部12に格納したが、通信モジュール18を介してサーバ装置から受信するように構成することもできる。
すなわち本実施形態では、ナビゲーション装置が目的までの経路探索を行う場合について説明するが、ユーザにより入力された目的地を通信モジュール18を介して経路探索を行う所定サーバに送信し、探索された目的地までの案内経路を所定サーバから受信するようにしてもよい。
更に、本実施形態では、記憶媒体31に経路探索や経路案内に必要な地図データや交差点データなどの各種情報を格納しているが、案内経路を所定サーバから受信する場合において、案内経路を含む所定領域分の地図データや交差点データ等についても、通信モジュール18を介して所定サーバから受信するようにしてもよい。
For example, the communication module 18 is connected to a communication network such as the Internet, and communicates with the server device to receive various information such as traffic jam information, or transmits various information such as the vehicle position to the server device. To do.
In the present embodiment, various data such as map data is stored in the data storage unit 12, but may be configured to be received from the server device via the communication module 18.
That is, in the present embodiment, the case where the navigation device performs a route search to the target will be described. However, the destination input by the user is transmitted to the predetermined server that performs the route search via the communication module 18, and the searched target is detected. A guide route to the ground may be received from a predetermined server.
Further, in the present embodiment, various information such as map data and intersection data necessary for route search and route guidance are stored in the storage medium 31, but when the guidance route is received from a predetermined server, the guidance route is included. Map data and intersection data for a predetermined area may also be received from a predetermined server via the communication module 18.

記憶媒体31には、リンクデータ33、ノードデータ34、交差点データ35、地図データ36などの各種データが記憶されており、データ記憶部12は、ナビゲーションECU13からの問い合わせに対してこれらの情報を提供する。   Various data such as link data 33, node data 34, intersection data 35, and map data 36 are stored in the storage medium 31, and the data storage unit 12 provides such information in response to an inquiry from the navigation ECU 13. To do.

リンクデータ33は、経路の直線部を表すリンク(線分)情報のデータベースである。
ノードデータ34は、交差点や道路がカーブする地点など道路の状態が変化する地点を表すノード(節)情報のデータベースである。
これらリンクとノードにより経路網が数値化され、経路探索などに利用される。
本実施の形態では、ナビゲーションECU13は、現在位置から案内対象のリンク(交差点)に至るノードの長さにより現在位置から交差点までの距離を計算し、これをパラメータとして矢印を作成する。
The link data 33 is a database of link (line segment) information representing a straight line portion of a route.
The node data 34 is a database of node (section) information representing points where road conditions change, such as intersections and points where roads curve.
The route network is digitized by these links and nodes and used for route search and the like.
In the present embodiment, the navigation ECU 13 calculates the distance from the current position to the intersection based on the length of the node from the current position to the guidance target link (intersection), and creates an arrow using this as a parameter.

交差点データ35は、交差点の位置や交差点での車線数や右折車線の有無などの各交差点に固有な情報のデータベースである。ナビゲーションECU13は、例えば、交差点データ35を用いることによりあるノードが交差点であることを判断することができる。
地図データ36は、道路の車線数や道路の幅などの各道路に固有な情報のデータベースである。
ナビゲーションECU13は、地図データ36と現在位置を用いることにより車両が走行している車線を特定したり、現在走行している道路の幅を特定したりすることができる。
The intersection data 35 is a database of information unique to each intersection such as the position of the intersection, the number of lanes at the intersection, and the presence or absence of a right turn lane. For example, the navigation ECU 13 can determine that a certain node is an intersection by using the intersection data 35.
The map data 36 is a database of information unique to each road such as the number of road lanes and road width.
The navigation ECU 13 can identify the lane in which the vehicle is traveling or the width of the currently traveling road by using the map data 36 and the current position.

フロントカメラ19とドライバカメラ20は、何れもCCD(charge−coupled device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いて構成された撮像装置である。
フロントカメラ19は、車両前方の運転者の見ている情景を所定のサンプリングレートで連続的に撮影してナビゲーションECU13に出力する。フロントカメラ19による視野画像は、運転者が運転に際して得る視野に対応している。
ナビゲーションECU13は、撮影した画像から道路上に設置された白線を認識し、これを補完するなどして道路上に設定された車線を認識したり、自車両が現在走行している車線(レーン)を判断したりする。
Each of the front camera 19 and the driver camera 20 is an image pickup apparatus configured using a CCD (charge-coupled device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like.
The front camera 19 continuously captures a scene viewed by the driver in front of the vehicle at a predetermined sampling rate and outputs the captured scene to the navigation ECU 13. The visual field image by the front camera 19 corresponds to the visual field that the driver obtains during driving.
The navigation ECU 13 recognizes a white line installed on the road from the captured image, and recognizes a lane set on the road by complementing this, or a lane (lane) in which the host vehicle is currently traveling Or judge.

ドライバカメラ20は、運転者の眼部を含む頭部を所定のサンプリングレートで連続的に撮影してナビゲーションECU13に出力する。この画像により、運転者の視線情報(視線ベクトル、焦点座標値、視点位置など、運転者が見ている点を特定する情報)が得られ、視野画像上の視線による焦点を計算することができる。
ナビゲーションECU13は、当該計算された焦点に基づいて運転者が視認している交差点の位置をHUD45で特定し、これに矢印を重畳して表示する。
The driver camera 20 continuously shoots the head including the driver's eyes at a predetermined sampling rate and outputs it to the navigation ECU 13. From this image, the driver's line-of-sight information (information specifying the point of view of the driver, such as the line-of-sight vector, focus coordinate value, and viewpoint position) can be obtained, and the focus by the line of sight on the field-of-view image can be calculated. .
Navigation ECU13 specifies the position of the intersection which the driver | operator is visually recognizing based on the said calculated focus with HUD45, and superimposes and displays it on this.

HUD45は、例えば、投影機を用いてフロントガラスに画像を投影したり、あるいはフロントガラス上に設置した透明のスクリーンに画像を表示したりすることにより、運転者が実際に視認している情景(実景)と重畳して矢印を表示する。
即ち、HUD45による表示画面は運転者の視界に対応しており、運転者は、HUD45に表示したオブジェクト(本実施の形態では矢印)を透かして実景を見ることにより、実景にオブジェクトを重畳して視認することができる。
The HUD 45, for example, projects an image on a windshield using a projector, or displays an image on a transparent screen installed on the windshield, so that a scene that the driver actually recognizes ( An arrow is displayed superimposed on the actual scene.
That is, the display screen by the HUD 45 corresponds to the driver's field of view, and the driver superimposes the object on the actual scene by seeing the actual scene through the object (arrow in this embodiment) displayed on the HUD 45. It can be visually recognized.

より詳細には、HUD45は、運転者の視線の焦点に合わせて右目用の画面と左目用の矢印像を表示し、運転者は、これを立体視することにより実際の交点の位置に矢印を視認することができる。
このように、HUD45は、作成した矢印を交差点の像に重畳して表示する表示手段として機能している。
More specifically, the HUD 45 displays a screen for the right eye and an arrow image for the left eye in accordance with the focus of the driver's line of sight, and the driver displays an arrow at the position of the actual intersection by viewing this stereoscopically. It can be visually recognized.
Thus, the HUD 45 functions as a display unit that displays the created arrow superimposed on the image of the intersection.

図2の各図は、ナビゲーション装置1が交差点での進行方向の案内に用いる矢印の構成を説明するための図である。
ナビゲーションECU13は、実空間を測量して実空間大の矢印を2次元平面内で形成する第1段階、これをHUD45に表示するサイズの平面形状を有する平面矢印に変換する第2段階、更に、これを運転者の視点から見やすくするため3次元変換して遠近感覚を表現した立体矢印(アイソメ図)に変換する第3段階、そして、立体矢印をHUD45に表示する第4段階の各段階を行って矢印の表示を行う。
なお、これらの各段階は概念的なものであって、実際の矢印の構成方法は、例えば、後述するフローチャートによるものや、その他の当該概念に基づいた各種の変形が可能である。
Each drawing of FIG. 2 is a diagram for explaining the configuration of arrows used by the navigation device 1 for guiding the traveling direction at an intersection.
The navigation ECU 13 measures the real space to form a real space-sized arrow in a two-dimensional plane, the second step to convert this into a plane arrow having a planar shape of a size displayed on the HUD 45, and In order to make this easier to see from the driver's point of view, the third stage of three-dimensional conversion to convert to a three-dimensional arrow (isometric view) expressing perspective sensation, and the fourth stage of displaying the three-dimensional arrow on the HUD 45 are performed. To display the arrow.
Each of these stages is conceptual, and the actual method of configuring the arrows can be based on, for example, a flowchart described later, or other various modifications based on the concept.

ここで、矢印の構成は、次のようになっている。矢印は、弓道やアーチェリーの矢に対応してシャフト部(柄部)とアローヘッド部(矢尻部、矢頭部)を有している。
以下では、アローヘッド部が形成された側を先端側、アローヘッド部がない側を後端側とする。
本実施の形態の矢印では、シャフトAの先端にシャフトBの後端を配置して、シャフトA、Bの一体化した2つの部分から成るシャフト部を用い、シャフトBの先端にアローヘッド部を設ける。
Here, the configuration of the arrows is as follows. The arrow has a shaft portion (pattern portion) and an arrow head portion (arrowhead portion, arrowhead) corresponding to an archery or an archery arrow.
Hereinafter, the side on which the arrow head portion is formed is referred to as the front end side, and the side on which the arrow head portion is not provided is referred to as the rear end side.
In the arrow of the present embodiment, the rear end of the shaft B is arranged at the front end of the shaft A, and the shaft portion composed of two parts integrated with the shafts A and B is used. Provide.

シャフトAは、長さと方向により対象交差点への進入を表し、シャフトBは、長さと方向により対象交差点からの進行方向(退出方向)を表している。
対象交差点では右左折するため、シャフトAとシャフトBを連結(接続)したシャフト部は、シャフトAとシャフトBの接続点(対象交差点に対応)で屈曲した形状を有している。
The shaft A represents the approach to the target intersection by the length and direction, and the shaft B represents the traveling direction (retreat direction) from the target intersection by the length and direction.
In order to turn left and right at the target intersection, the shaft portion where the shaft A and the shaft B are connected (connected) has a shape bent at the connection point (corresponding to the target intersection) between the shaft A and the shaft B.

このため、シャフトAは、進入案内量に対応する長さと方向を有する第1柄部として機能し、シャフトBは、当該第1柄部と連続し、進行方向案内量に対応する長さと方向を有する第2柄部として機能している。
なお、本実施の形態では、対象交差点は車両の直線前方に存在するものとして説明し、シャフトAを直線とするが、対象交差点に至る道路がカーブ(屈曲や湾曲)している場合は、シャフトAをこれに合わせてカーブした形状に形成してもよい。
For this reason, the shaft A functions as a first handle portion having a length and direction corresponding to the approach guide amount, and the shaft B is continuous with the first handle portion and has a length and direction corresponding to the traveling direction guide amount. It functions as a second handle part having.
In the present embodiment, the target intersection is described as being in front of a straight line of the vehicle, and the shaft A is a straight line. However, if the road to the target intersection is curved (bent or curved), the shaft A may be formed in a curved shape according to this.

図2(a)は、第1段階を説明するための図である。
第1段階では、実物大の矢印を形成する。
ナビゲーションECU13は、案内経路で次の対象交差点に矢印作成の基準となる固定点である基準点Pを設定し(後述するように、ナビゲーションECU13は、当該交差点のノードNを基準点Pの初期値とし、可能な場合は、走行車線上に移動する)、ノードデータ34を用いて現在位置から基準点Pまでの距離を計算する。
更に、ナビゲーションECU13は、画像認識などにより現在走行している道路の幅を計算する。
FIG. 2A is a diagram for explaining the first stage.
In the first stage, a full-scale arrow is formed.
The navigation ECU 13 sets a reference point P, which is a fixed point serving as a reference for creating an arrow, at the next target intersection on the guide route (as will be described later, the navigation ECU 13 sets the node N of the intersection to the initial value of the reference point P. And, if possible, move on the driving lane), the node data 34 is used to calculate the distance from the current position to the reference point P.
Furthermore, the navigation ECU 13 calculates the width of the road that is currently running by image recognition or the like.

このように、ナビゲーション装置1は、案内経路に従って進行方向を案内する次の交差点を特定する交差点特定手段を備えている。
また、ナビゲーション装置1は、車両の現在位置から特定した交差点までの距離を取得する距離取得手段と、車両が現在走行している道路の幅を取得する幅取得手段と、を備えている。
As described above, the navigation device 1 includes the intersection specifying means for specifying the next intersection that guides the traveling direction according to the guide route.
The navigation device 1 also includes distance acquisition means for acquiring the distance from the current position of the vehicle to the specified intersection, and width acquisition means for acquiring the width of the road on which the vehicle is currently traveling.

次に、ナビゲーションECU13は、現在位置を起点として基準点Pに至るベクトル量51(即ち、現在位置から基準点Pに至る長さと方向を有する量)と、基準点Pを起点として、道路の幅を長さとし、対象交差点での右左折方向を有するベクトル量52を作成する。
ベクトル量51は、シャフトAを作成する基準となる量であり、ベクトル量52は、シャフトBを作成する基準となる量である。
Next, the navigation ECU 13 starts from the current position to the reference point P as a vector amount 51 (that is, an amount having a length and direction from the current position to the reference point P) and the reference point P as the starting point. And a vector quantity 52 having a right / left turn direction at the target intersection is created.
The vector amount 51 is a reference amount for creating the shaft A, and the vector amount 52 is a reference amount for creating the shaft B.

ここで、ベクトル量51は、対象交差点への距離と進入方向を表す進入案内量として機能しており、ベクトル量52は、対象交差点からの進行方向を案内する進行方向案内量として機能している。
このようにナビゲーションECU13は、対象交差点までの距離に基づく長さを有し、当該交差点への進入方向を有する、進入案内量を取得する進入案内量取得手段と、道路の幅に基づく長さを有し、交差点からの進行方向を有する、進行方向案内量を取得する進行方向案内量取得手段を備えている。
なお、ベクトル量51とベクトル量52の長さは、実測値ではなく、これに比例した値など、何らかの変換を施した値でもよい。
Here, the vector amount 51 functions as an approach guidance amount representing the distance to the target intersection and the approach direction, and the vector amount 52 functions as a traveling direction guide amount that guides the traveling direction from the target intersection. .
Thus, the navigation ECU 13 has a length based on the distance to the target intersection, and has an approach guidance amount acquisition means for acquiring an approach guidance amount having an approach direction to the intersection, and a length based on the width of the road. A traveling direction guidance amount acquisition means for acquiring a traveling direction guidance amount having a traveling direction from an intersection.
Note that the lengths of the vector quantity 51 and the vector quantity 52 are not actually measured values, but may be values that have undergone some conversion, such as values proportional to the lengths.

図2(b)は、第2段階を説明するための図である。
ナビゲーションECU13は、ベクトル量51、52をHUD45で表示する長さを有するベクトル量51a、52bにそれぞれ変換する。長さの変換方法については後述する。
そして、ナビゲーションECU13は、ベクトル量51a、52aに表示用の幅を肉付けし(シャフトA、シャフトBの幅を決定し)、更に、シャフトBの先端にアローヘッド部53を形成してシャフトA、Bを有する平面矢印55を作成する。
なお、本実施の形態では、運転者に分かり易くするために、平面矢印55から遠近法で作成(後述)した立体矢印56をHUD45に表示するが、平面矢印55をHUD45に表示することも可能である。
FIG. 2B is a diagram for explaining the second stage.
The navigation ECU 13 converts the vector quantities 51 and 52 into vector quantities 51a and 52b having a length to be displayed on the HUD 45, respectively. The length conversion method will be described later.
The navigation ECU 13 adds display widths to the vector quantities 51a and 52a (determines the widths of the shaft A and the shaft B), and further forms an arrow head portion 53 at the tip of the shaft B to form the shaft A, A plane arrow 55 having B is created.
In this embodiment, in order to make it easy for the driver to understand, the solid arrow 56 created by perspective from the plane arrow 55 (described later) is displayed on the HUD 45, but the plane arrow 55 can also be displayed on the HUD 45. It is.

ここで、シャフトAは、対象交差点への進入案内量に対応する長さと方向を有する第1柄部として機能している。
そしてシャフトAの先端にシャフトBの後端(アローヘッド部53から離れた側)を連結している。これによりシャフトBは、当該第1柄部と連続し、対象交差点からの進行方向案内量に対応する長さと方向を有する第2柄部として機能している。
そのため、ナビゲーション装置1は、第1柄部と第2柄部を有する矢印図形を作成する矢印図形作成手段を備えている。
Here, the shaft A functions as a first handle portion having a length and a direction corresponding to the approach guidance amount to the target intersection.
The rear end of the shaft B (the side away from the arrow head portion 53) is connected to the front end of the shaft A. Thereby, the shaft B is continuous with the first handle portion and functions as a second handle portion having a length and a direction corresponding to the traveling direction guide amount from the target intersection.
Therefore, the navigation apparatus 1 is provided with an arrow graphic creating means for creating an arrow graphic having a first pattern part and a second pattern part.

図2(c)は、第3段階を説明するための図である。
ナビゲーションECU13は、平面矢印55に対して、シャフトAの後端が運転者側となり、先端が前方となるように(即ち、対象交差点への進入方向に見た図形に)3次元変換を施し、これによって遠近法にて描画された立体矢印56を作成する。
遠近感を出すために、シャフトAの長さは短くなり、下端側は幅が広く、先端側は幅が狭くなっている。そして、シャフトBの幅は狭くなっている。
FIG. 2C is a diagram for explaining the third stage.
The navigation ECU 13 performs three-dimensional conversion on the plane arrow 55 so that the rear end of the shaft A is on the driver side and the front end is front (that is, the figure viewed in the direction of approach to the target intersection). As a result, a solid arrow 56 drawn in perspective is created.
In order to give a sense of perspective, the length of the shaft A is shortened, the width at the lower end side is wide, and the width at the tip end side is narrow. And the width of the shaft B is narrow.

本実施形態の3次元処理では、水平面に配置した平面矢印55を、基準点Pに重畳させるシャフトA、Bの交点を基点(固定点)として手前側を持ち上げる方法による。
ただし、縁直面に配置した平面矢印55を、シャフトAの手前側(車両側)を起点としてシャフトB側を向こう側(進行方向側)に倒す方法としてもよい。
このように、矢印図形作成手段は、更に、矢印図形を交差点への進入方向に見た斜視図の形状に作成することができる。
In the three-dimensional processing of the present embodiment, the plane arrow 55 arranged on the horizontal plane is lifted from the front side with the intersection point of the shafts A and B superimposed on the reference point P as a base point (fixed point).
However, the plane arrow 55 arranged at the edge face may be a method of tilting the shaft B side away from the front side (vehicle side) from the front side (vehicle side) of the shaft A.
Thus, the arrow figure creation means can further create the arrow figure in the shape of a perspective view when viewed in the direction of approach to the intersection.

図2(d)は、第4段階を説明するための図である。
この図2(d)は、運転者が視認する対象交差点65付近の実景を表しており、車両は、センターライン62で仕切られた左側車線61を対象交差点65に向かって走行している。今、ナビゲーションECU13は、車両を左折道路64ではなく、右折道路63に進行するように案内するものとする。
FIG. 2D is a diagram for explaining the fourth stage.
FIG. 2D shows a real scene near the target intersection 65 visually recognized by the driver, and the vehicle travels in the left lane 61 partitioned by the center line 62 toward the target intersection 65. Now, it is assumed that the navigation ECU 13 guides the vehicle to travel on the right turn road 63 instead of the left turn road 64.

ナビゲーションECU13は、HUD45の表示領域において基準点Pに対応する点を特定し、この点に基準点Pが一致するように立体矢印56を実景に重畳して表示する。
なお、立体矢印56は、半透明であり、運転者は、立体矢印56を透かして実景を観察できるため、立体矢印56により運転者の視界が遮られることはない。
このように、ナビゲーションECU13は、対象交差点65の所定位置に基準点を設定する基準点設定手段を備え、表示手段は、第1柄部と第2柄部の交点(基準点P)を対象交差点65に設定した基準点に一致させて重畳する。
The navigation ECU 13 specifies a point corresponding to the reference point P in the display area of the HUD 45, and displays the three-dimensional arrow 56 superimposed on the actual scene so that the reference point P coincides with this point.
Note that the solid arrow 56 is translucent, and the driver can observe the actual scene through the solid arrow 56, so that the driver's field of view is not blocked by the solid arrow 56.
As described above, the navigation ECU 13 includes reference point setting means for setting a reference point at a predetermined position of the target intersection 65, and the display means sets the intersection (reference point P) between the first pattern portion and the second pattern portion as the target intersection. Superimpose by matching with the reference point set to 65.

図3の各図は、ベクトル量の長さの変換方法を説明するための図である。なお、図3では、説明を簡略化するため、車線については省略、又は片側1車線の場合を表示している。
今、走行している車両の現在位置が、対象交差点65から距離L1(例えば、200m)だけ離れた位置で、現在走行中の道路の幅がW(例えば、5m)で、対象交差点65で右折するものとする。
この場合、図3(a)に示したように、ベクトル量51は長さがL1で対象交差点65の方向を向き、ベクトル量52は、長さがWで右方向を向いている。
Each figure of FIG. 3 is a figure for demonstrating the conversion method of the length of a vector amount. In FIG. 3, in order to simplify the description, the lane is omitted or a case of one lane on one side is displayed.
The current position of the vehicle currently traveling is a distance L1 (for example, 200 m) away from the target intersection 65, the width of the currently traveling road is W (for example, 5 m), and a right turn is made at the target intersection 65. It shall be.
In this case, as shown in FIG. 3A, the vector quantity 51 has a length L1 and faces the target intersection 65, and the vector quantity 52 has a length W and faces the right direction.

図3(b)は、これに基づいてナビゲーションECU13がHUD45に表示した立体矢印56の例を示した図である。
シャフトAは、対象交差点65に向かって長く伸び、シャフトBは、対象交差点65で短く右側を向いている。
FIG. 3B is a diagram showing an example of the solid arrow 56 displayed on the HUD 45 by the navigation ECU 13 based on this.
The shaft A extends long toward the target intersection 65, and the shaft B is short toward the right side at the target intersection 65.

次に、車両が対象交差点65から距離L2(例えば、10m)の位置にまで接近した場合、ベクトル量51は、図3(c)に示したように、長さがL2で対象交差点65の方向を向き、ベクトル量52は、長さがWで右方向を向いている。
図3(d)は、これに基づいてナビゲーションECU13がHUD45に表示した立体矢印56の例を示した図である。
シャフトAは、対象交差点65付近で短く伸び、シャフトBは、対象交差点65で長く伸びている。
Next, when the vehicle approaches the position of the distance L2 (for example, 10 m) from the target intersection 65, the vector quantity 51 is the length L2 and the direction of the target intersection 65 as shown in FIG. The vector quantity 52 has a length W and faces rightward.
FIG. 3D is a diagram showing an example of the solid arrow 56 displayed on the HUD 45 by the navigation ECU 13 based on this.
The shaft A extends short near the target intersection 65, and the shaft B extends long at the target intersection 65.

図3(b)と図3(d)を比較すると、ナビゲーションECU13は、車両が対象交差点65に近づくにつれてシャフトAの長さを短くするが、対象交差点65に近づくにつれて運転者の視認する対象交差点65での道幅が大きくなるため、運転者の視認する道幅に合わせてシャフトBの長さを長くする。
また、対象交差点65に近づくほど、交差点を上方向から視認するため、ナビゲーションECU13は、対象交差点65に近づくほどシャフトBの太さを太くする。
Comparing FIG. 3B and FIG. 3D, the navigation ECU 13 shortens the length of the shaft A as the vehicle approaches the target intersection 65, but the target intersection that the driver visually recognizes as the vehicle approaches the target intersection 65. Since the road width at 65 increases, the length of the shaft B is increased in accordance with the road width visually recognized by the driver.
Further, the closer to the target intersection 65, the more visually recognized the intersection is from above, so the navigation ECU 13 increases the thickness of the shaft B as it approaches the target intersection 65.

一方、図3(a)と図3(c)を比較すると、車両が交差点に近づくにつれてベクトル量51は、長さがL1からL2に短くなるが、ベクトル量51とベクトル量52の方向とベクトル量52の長さは変わらない。
このように表示するため、ナビゲーションECU13は、シャフトAの長さについては、対象交差点65までの距離Lの減少と共に小さくなる関数f(L)で計算し、シャフトBの長さについては、道路の幅Wに基づき(Wが大きいほど長く)、Lの減少と共に長くなる関数g(W、L)で計算する。
On the other hand, when FIG. 3A is compared with FIG. 3C, the vector amount 51 decreases from L1 to L2 as the vehicle approaches the intersection, but the direction of the vector amount 51 and the vector amount 52 and the vector The length of the quantity 52 does not change.
In order to display in this way, the navigation ECU 13 calculates the length of the shaft A by a function f (L) that decreases as the distance L to the target intersection 65 decreases, and the length of the shaft B determines the length of the road. Based on the width W (longer as W is larger), calculation is performed with a function g (W, L) that becomes longer as L decreases.

また、ナビゲーションECU13は、Lの減少に伴ってシャフトBの幅を広くし、シャフトAの先端をこの幅に適合するように接合する。
なお、関数で計算するのではなく、LやWにシャフトA、Bの長さを対応させたテーブルを用意しておいて、これから読み取るように構成してもよい。
Further, the navigation ECU 13 increases the width of the shaft B as L decreases, and joins the tip end of the shaft A so as to conform to this width.
Instead of calculating with a function, a table in which the lengths of the shafts A and B are associated with L and W may be prepared and read from this.

ナビゲーションECU13は、このような関数で、対象交差点65までの距離Lに応じてシャフトA、シャフトBの長さや太さを刻々と変化させながらHUD45に表示する。
このように、ナビゲーションECU13は、立体矢印56の大きさを全体的に一様に変化させるのではなく、シャフトAとシャフトBの大きさを個別に異なる仕方で変化させるため、立体矢印56の形状が相似形状ではなくて形状自体が変化し、運転者に視認されやすく分かり易い。
The navigation ECU 13 displays such a function on the HUD 45 while changing the length and thickness of the shaft A and the shaft B according to the distance L to the target intersection 65.
Thus, the navigation ECU 13 does not change the size of the solid arrow 56 as a whole, but changes the sizes of the shaft A and the shaft B in different ways. Is not a similar shape, but the shape itself changes, and is easy for the driver to see and understand.

図4の各図は、基準点Pの設定方法や道路の幅の取得方法を説明するための図である。
まず、ナビゲーションECU13は、図4(a)に示したように、対象交差点65のノードNの位置をデータ記憶部12のノードデータ34から読み出し、これを基準点Pの初期値とする。
車両の現在位置75からノードNまでの距離Lは、ベクトル量51(関数f(L)でシャフトAを計算するための基準量)の長さとなる。
Each figure of FIG. 4 is a figure for demonstrating the setting method of the reference point P, and the acquisition method of the width | variety of a road.
First, the navigation ECU 13 reads the position of the node N of the target intersection 65 from the node data 34 of the data storage unit 12 as shown in FIG.
The distance L from the current position 75 of the vehicle to the node N is the length of the vector quantity 51 (reference quantity for calculating the shaft A with the function f (L)).

次に、ナビゲーションECU13は、図4(b)に示したように、フロントカメラ19が撮影した現在走行している道路の画像で境界線(白線)を画像認識することにより道路の境界線71、72を認識する。
境界線に途切れがある場合、ナビゲーションECU13は、線形補完などの画像処理により途切れを補完する。
Next, as shown in FIG. 4B, the navigation ECU 13 recognizes the boundary line (white line) from the image of the road on which the front camera 19 is currently shooting, thereby demarcating the road boundary line 71, 72 is recognized.
When there is a break in the boundary line, the navigation ECU 13 complements the break by image processing such as linear interpolation.

次に、ナビゲーションECU13は、シャフトAの長さの位置(現在位置からノードNまでの距離)を保持した状態で、境界線71、72の中央に基準点Pの位置を修正する。
そして、ナビゲーションECU13は、基準点Pから進行方向予定端の道路境界線までの長さをベクトル量52(関数g(W、L)でシャフトBを計算するための基準量)の長さとする。
例えば、左折の場合は、基準点Pから左側の境界線71までの距離Wlをベクトル量52の長さとし、右折の場合は、基準点Pから右側の境界線72までの距離Wrをベクトル量52の長さとする。
Next, the navigation ECU 13 corrects the position of the reference point P at the center of the boundary lines 71 and 72 while maintaining the position of the length of the shaft A (the distance from the current position to the node N).
Then, the navigation ECU 13 sets the length from the reference point P to the road boundary line at the planned direction end to the length of the vector quantity 52 (reference quantity for calculating the shaft B with the function g (W, L)).
For example, in the case of a left turn, the distance Wl from the reference point P to the left boundary line 71 is the length of the vector amount 52. In the case of a right turn, the distance Wr from the reference point P to the right boundary line 72 is the vector amount 52. Of length.

WlとWrの実際の長さは、現在位置から基準点Pまでの距離と、Wl、Wrの画像上での位置(基準点Pに対応する位置)と長さなどから計算することができる。
このように、ナビゲーションECU13は、WlやWrでベクトル量52の長さを設定し、これを適当な関数g(W、L)で計算することにより、立体矢印56のシャフトBが現在走行している車線内に収まるようにする。
このように、ナビゲーション装置1は、前方の道路を撮影する撮影手段を備え、幅取得手段は、撮影した道路の画像から白線を画像認識することにより幅を取得する。
The actual lengths of Wl and Wr can be calculated from the distance from the current position to the reference point P, the position of Wl and Wr on the image (position corresponding to the reference point P), the length, and the like.
Thus, the navigation ECU 13 sets the length of the vector quantity 52 with Wl and Wr, and calculates this with an appropriate function g (W, L), so that the shaft B of the solid arrow 56 is currently running. Be within the lane of the car.
As described above, the navigation device 1 includes a photographing unit that photographs the road ahead, and the width obtaining unit obtains the width by recognizing the white line from the photographed road image.

一方、道路の境界線が画像認識できない場合(境界線がない場合、境界線が雪などの障害物で覆われている場合など)、ナビゲーションECU13は、図4(c)で示したように、地図データ36から道路幅Wを読み出し、道路幅Wをベクトル量52の長さとする。
また、地図データ36から車線数と道路幅Wを読み出し、現在位置検出部11で検出した現在位置と比較して、現在走行している車線を推定し、これに基づいて基準点Pを設定してもよい。
この例では、幅取得手段は、取得した経路の道路データを記録したデータベース(地図データ36)から幅を取得する。
このように、ナビゲーション装置1は、現在通行している車線を特定する車線特定手段を備え、基準点設定手段は、当該特定した車線の内側に基準点を設定する。
On the other hand, when the road boundary line cannot be recognized (when there is no boundary line, or when the boundary line is covered with an obstacle such as snow), the navigation ECU 13 is configured as shown in FIG. The road width W is read from the map data 36, and the road width W is set to the length of the vector quantity 52.
Further, the number of lanes and the road width W are read from the map data 36, compared with the current position detected by the current position detection unit 11, the currently traveling lane is estimated, and the reference point P is set based on the estimated lane. May be.
In this example, the width acquisition unit acquires the width from a database (map data 36) in which road data of the acquired route is recorded.
As described above, the navigation device 1 includes a lane specifying unit that specifies a lane that is currently passing, and the reference point setting unit sets a reference point inside the specified lane.

図5は、ベクトル量52の長さを設定するための道路の幅の選択の変形例を説明するための図である。
先の実施の形態では、基準点Pから境界線71、境界線72までの距離によってベクトル量52の長さを設定したが、他の変形例も可能である。
FIG. 5 is a diagram for explaining a modified example of the selection of the width of the road for setting the length of the vector quantity 52.
In the previous embodiment, the length of the vector quantity 52 is set according to the distance from the reference point P to the boundary line 71 and the boundary line 72, but other modifications are possible.

例えば、図5に示したような片側2車線の道路の左側車線の現在位置75を車両が走行し、右折道路63に進行するものとする。
この場合、一例として、基準点Pを基点として、走行している進路変更方向側の車線の境界線84までの距離W1、中央分離帯83までの距離W2、反対車線の境界線85までの距離W3、右側の道路の境界線82までの距離W4として採用することが可能である。
また、基準点Pを基点とする代わりに、走行している車線の進路変更方向と反対側の車線上の点を基点としたり、進路変更方向と反対側の道路の境界線82上の点を基点としてもよい。この場合の終点については、W1〜W4と同様に、そのいずれか1を終点とるす。なお、図5において、距離W5は、道路の境界線81を基点として、道路の境界線82までの距離を道路の幅とした場合の例である。
For example, it is assumed that the vehicle travels on the current position 75 of the left lane of the two-lane road as shown in FIG.
In this case, as an example, the distance W1 from the reference point P to the boundary line 84 of the traveling direction change direction side lane, the distance W2 to the central separation zone 83, and the distance to the boundary line 85 of the opposite lane It is possible to adopt the distance W4 to the boundary line 82 of the right road as W3.
In addition, instead of using the reference point P as a base point, a point on the lane opposite to the course change direction of the traveling lane is used as a base point, or a point on the road boundary line 82 opposite to the course change direction is used. It is good also as a base point. As for the end point in this case, one of the end points is taken as in the case of W1 to W4. In FIG. 5, the distance W <b> 5 is an example in the case where the road boundary line 81 is the base point and the distance to the road boundary line 82 is the road width.

図6は、ナビゲーションECU13が行う交差点案内処理の手順を説明するためのフローチャートである。
以下の処理は、CPU41がナビゲーションプログラムに従って行うものである。
まず、CPU41は、経路を案内中か否かを判断する(ステップ5)。
車両が目的地点に到着し、案内が終了している場合(ステップ5;N)、ナビゲーションECU13は、交差点案内処理を終了する。
一方、車両がまだ目的地点に到着せずに案内中である場合(ステップ5;Y)、CPU41は、現在位置検出部11から現在位置を取得し、現在位置から案内経路上にある次の(直近の)対象交差点65を特定する。そして、CPU41は、現在位置から当該対象交差点65までの距離Lを計算して逐次RAM42に前回の値を更新して記憶する。
FIG. 6 is a flowchart for explaining the procedure of the intersection guidance process performed by the navigation ECU 13.
The following processing is performed by the CPU 41 according to the navigation program.
First, the CPU 41 determines whether a route is being guided (step 5).
When the vehicle has arrived at the destination point and the guidance is finished (step 5; N), the navigation ECU 13 finishes the intersection guidance process.
On the other hand, when the vehicle has not yet arrived at the destination point and is being guided (step 5; Y), the CPU 41 acquires the current position from the current position detection unit 11, and the next ( The nearest intersection 65 is identified. Then, the CPU 41 calculates a distance L from the current position to the target intersection 65 and sequentially updates and stores the previous value in the RAM 42.

次に、CPU41は、現在位置が対象交差点65から十分離れているか否かを、RAM42に記憶した対象交差点65までの距離Lが予め決められた距離La(例えば、300m)以上であるか否かにより判断する(ステップ10)。
これは、対象交差点65から十分離れている場合にシャフトBを有する屈曲した立体矢印56を表示するのは適切でないため、この場合はシャフトAによる直線形状の立体矢印56を表示するようにするためである。その判断の閾値がLaに設定されている。
Next, the CPU 41 determines whether or not the current position is sufficiently away from the target intersection 65, and whether or not the distance L to the target intersection 65 stored in the RAM 42 is greater than or equal to a predetermined distance La (for example, 300 m). (Step 10).
This is because it is not appropriate to display the bent solid arrow 56 having the shaft B when it is sufficiently away from the target intersection 65. In this case, the linear solid arrow 56 by the shaft A is displayed. It is. The threshold value for the determination is set to La.

RAM42に記憶した対象交差点65までの距離LがLa以上である場合(ステップ10;Y)、CPU41は、シャフトBは用いずにシャフトAにて直線の平面矢印55を作成してRAM42に記憶し(ステップ85)、後述のステップ60の3次元変換に移行する。
このように、ナビゲーション装置1は、取得した距離Lが所定の閾値以上の場合、矢印図形作成手段で、第2柄部を用いずに、第1柄部を用いて矢印図形を作成する。
When the distance L to the target intersection 65 stored in the RAM 42 is greater than or equal to La (step 10; Y), the CPU 41 creates a straight planar arrow 55 on the shaft A without using the shaft B, and stores it in the RAM 42. (Step 85), the process proceeds to the three-dimensional conversion in Step 60 described later.
As described above, when the acquired distance L is equal to or greater than the predetermined threshold value, the navigation device 1 uses the first graphic portion to create the arrow graphic using the first graphic portion without using the second graphic portion.

一方、対象交差点65までの距離LがLa未満である場合(ステップ10;N)、CPU41は、以下の手順によりシャフトA、Bによる平面矢印55を作成する。
まず、CPU41は、現在位置が対象交差点65に近すぎるか否かを、RAM42に記憶した対象交差点65までの距離Lが予め決められた距離Lb(例えば、3m)未満であるか否かにより判断する(ステップ15)。
対象交差点65までの距離がLb未満である場合(ステップ15;Y)、CPU41は、シャフトA、Bの長さをRAM42に記憶してある前回値に設定し(ステップ80)、ステップ50に移行する。
これは、対象交差点65までの距離Lが0に近づくことにより、当該距離で割り算をする処理が不安定になる事態(所謂0割り)を防ぐためである。
On the other hand, when the distance L to the target intersection 65 is less than La (step 10; N), the CPU 41 creates the plane arrow 55 by the shafts A and B by the following procedure.
First, the CPU 41 determines whether or not the current position is too close to the target intersection 65 based on whether or not the distance L to the target intersection 65 stored in the RAM 42 is less than a predetermined distance Lb (for example, 3 m). (Step 15).
When the distance to the target intersection 65 is less than Lb (step 15; Y), the CPU 41 sets the lengths of the shafts A and B to the previous values stored in the RAM 42 (step 80), and proceeds to step 50. To do.
This is to prevent a situation (so-called 0 division) that the process of dividing by the distance becomes unstable when the distance L to the target intersection 65 approaches zero.

一方、RAM42に記憶した対象交差点65までの距離LがLb以上である場合(ステップ15;N)、CPU41は、対象交差点65のノードNまでの距離を計算し、これからシャフトAの長さを計算してRAM42に記憶する(ステップ20)。
次に、CPU41は、基準点Pの位置をノードNの位置に設定してRAM42に記憶する(ステップ25)。
On the other hand, when the distance L to the target intersection 65 stored in the RAM 42 is equal to or greater than Lb (step 15; N), the CPU 41 calculates the distance to the node N of the target intersection 65 and calculates the length of the shaft A therefrom. And stored in the RAM 42 (step 20).
Next, the CPU 41 sets the position of the reference point P to the position of the node N and stores it in the RAM 42 (step 25).

CPU41は、以上の処理と平行して、フロントカメラ19で撮影した道路の画像における境界線の画像認識と、画像認識による道路上での自車位置の検出を行って検出結果をRAM42に逐次更新しながら記憶している。
画像認識による境界線と自車位置が検出済みの場合(ステップ30;Y)、CPU41は、境界線の位置をRAM42から読み出して道路の幅を計算し、これをRAM42に記憶する(ステップ35)。
In parallel with the above processing, the CPU 41 performs image recognition of the boundary line in the road image photographed by the front camera 19 and detection of the vehicle position on the road by image recognition, and sequentially updates the detection result in the RAM 42. While remembering.
When the boundary line and the vehicle position by image recognition have been detected (step 30; Y), the CPU 41 reads the boundary line position from the RAM 42, calculates the road width, and stores it in the RAM 42 (step 35). .

次に、CPU41は、画像認識により得た自車位置をRAM42から読み出して自車走行車線を特定し、基準点Pを当該自車走行車線上の距離Lにある点に修正してRAM42に記憶する(ステップ40)。   Next, the CPU 41 reads the own vehicle position obtained by the image recognition from the RAM 42, identifies the own vehicle traveling lane, corrects the reference point P to a point at the distance L on the own vehicle traveling lane, and stores it in the RAM 42. (Step 40).

一方、画像認識による境界線と自車位置の検出ができない場合(ステップ30;N)、CPU41は、地図データ36から道路の幅を取得してRAM42に記憶する(ステップ70)。
そして、CPU41は、地図データ36と現在位置検出部11から自車走行車線の判断を試み、判断可能な場合は(ステップ75;Y)、判断した自車走行車線上に基準点Pを修正してRAM42に記憶する(ステップ40)。
一方、判断可能でない場合は(ステップ75;N)、CPU41は、基準点Pの修正は行わずにステップ45に移行する。
On the other hand, when the boundary line and the vehicle position cannot be detected by image recognition (step 30; N), the CPU 41 acquires the width of the road from the map data 36 and stores it in the RAM 42 (step 70).
Then, the CPU 41 tries to determine the own vehicle travel lane from the map data 36 and the current position detection unit 11, and when it can be determined (step 75; Y), the CPU 41 corrects the reference point P on the determined own vehicle travel lane. Is stored in the RAM 42 (step 40).
On the other hand, if the determination is not possible (step 75; N), the CPU 41 proceeds to step 45 without correcting the reference point P.

以上のようにして、画像認識、又は地図データ36を用いて道路の幅を取得した後、CPU41は、RAM42から当該道路の幅を読み取って、これからシャフトBの長さを計算してRAM42に記憶する(ステップ45)。
次に、CPU41は、RAM42からシャフトA、Bの長さを読み取って、それぞれ対象交差点方向、対象交差点65からの進路方向を向いたシャフトA、Bを作成してRAM42に記憶する(ステップ50)。
After obtaining the road width using the image recognition or the map data 36 as described above, the CPU 41 reads the width of the road from the RAM 42, calculates the length of the shaft B from this, and stores it in the RAM 42. (Step 45).
Next, the CPU 41 reads the lengths of the shafts A and B from the RAM 42, creates the shafts A and B facing the direction of the target intersection and the course from the target intersection 65, respectively, and stores them in the RAM 42 (step 50). .

そして、CPU41は、シャフトAの先端にシャフトBを接続し、平面矢印55を作成してRAM42に記憶する(ステップ55)。
次に、CPU41は、RAM42に記憶した平面矢印55の形状を3次元変換して立体矢印56を作成し、これをRAM42に記憶する(ステップ60)。
次に、CPU41は、HUD45の上で基準点Pに対応する点を特定し、RAM42から立体矢印56を読み出して立体矢印56の基準点Pが当該特定した点と一致するようにHUD45に立体矢印56を表示する(ステップ65)。
以下、CPU41は、同様の処理を繰り返す。
Then, the CPU 41 connects the shaft B to the tip of the shaft A, creates a plane arrow 55, and stores it in the RAM 42 (step 55).
Next, the CPU 41 three-dimensionally converts the shape of the plane arrow 55 stored in the RAM 42 to create a solid arrow 56 and stores it in the RAM 42 (step 60).
Next, the CPU 41 specifies a point corresponding to the reference point P on the HUD 45, reads the solid arrow 56 from the RAM 42, and displays the solid arrow on the HUD 45 so that the reference point P of the solid arrow 56 matches the specified point. 56 is displayed (step 65).
Thereafter, the CPU 41 repeats the same processing.

図7は、立体矢印56の変形例を説明するための図である。
図7(a)は、対象交差点65からの進行方向を表すシャフトAに加えて、進行しない方向にダミーのシャフト91、92を表示した例である。
シャフト91、92は、例えば、波線にしたり、色を変えるなど、シャフトBから識別可能に表示される。
この表示では、運転者に進行方向でない方向を通知することができ、特に対象交差点65の形状が複雑な場合に適している。
図7(b)は、シャフトAの先端にもアローヘッド部を設けた例である。このように、シャフトA、Bを一体とせずに別体として個別に矢印を形成してもよい。
FIG. 7 is a diagram for explaining a modification of the solid arrow 56.
FIG. 7A is an example in which dummy shafts 91 and 92 are displayed in a direction in which they do not travel in addition to the shaft A that represents the traveling direction from the target intersection 65.
The shafts 91 and 92 are displayed so as to be distinguishable from the shaft B such as, for example, wavy lines or changing colors.
In this display, the driver can be notified of a direction that is not the traveling direction, and is particularly suitable when the shape of the target intersection 65 is complicated.
FIG. 7B is an example in which an arrow head portion is also provided at the tip of the shaft A. In this manner, the arrows may be formed individually as separate bodies without integrating the shafts A and B.

以上に説明した本実施の形態では、シャフトA、Bが個別に大きさを変える(シャフトBが伸びていくのに対し、シャフトAは縮んでいく)ため、運転者に分かり易く進行方向を案内することができる。
このように、本実施の形態では、矢印の大きさを全体的に変化させるのではなく、矢印の形状そのものを対象交差点65までの距離に応じて変更することにより、運転者に矢印が変化していることを明確に伝え、どこで右左折するかを気づきやすくすることができる。
In the present embodiment described above, the sizes of the shafts A and B are individually changed (the shaft A is contracted while the shaft B is expanded), so that the driver can easily understand the traveling direction. can do.
As described above, in the present embodiment, instead of changing the size of the arrow as a whole, the arrow changes to the driver by changing the shape of the arrow itself according to the distance to the target intersection 65. Clearly telling you that you are turning and making it easier to notice where to turn left and right.

1 ナビゲーション装置
11 現在位置検出部
12 データ記憶部
13 ナビゲーションECU
14 操作部
15 液晶ディスプレイ
16 スピーカ
17 DVDドライブ
18 通信モジュール
19 フロントカメラ
20 ドライバカメラ
21 GPS
22 車速センサ
23 ステアリングセンサ
24 ジャイロセンサ
31 記憶媒体
33 リンクデータ
34 ノードデータ
35 交差点データ
36 地図データ
45 HUD
51、51a ベクトル量
52、52a ベクトル量
53 アローヘッド部
55 平面矢印
56 立体矢印
61 左側車線
62 センターライン
63 右折道路
64 左折道路
65 対象交差点
75 現在位置
71、72、81、82、84、85 境界線
83 中央分離帯
91、92 シャフト
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 11 Current position detection part 12 Data storage part 13 Navigation ECU
14 Operation Unit 15 Liquid Crystal Display 16 Speaker 17 DVD Drive 18 Communication Module 19 Front Camera 20 Driver Camera 21 GPS
22 Vehicle speed sensor 23 Steering sensor 24 Gyro sensor 31 Storage medium 33 Link data 34 Node data 35 Intersection data 36 Map data 45 HUD
51, 51a Vector quantity 52, 52a Vector quantity 53 Arrow head part 55 Plane arrow 56 Solid arrow 61 Left lane 62 Center line 63 Right turn road 64 Left turn road 65 Target intersection 75 Current position 71, 72, 81, 82, 84, 85 Boundary Line 83 Median strip 91, 92 Shaft

Claims (9)

車両を目的地点に案内する経路を取得する経路取得手段と、
前記取得した経路に従って進行方向を案内する次の交差点を特定する交差点特定手段と、
前記車両の現在位置から前記特定した交差点までの距離を取得する距離取得手段と、
前記車両が現在走行している道路の幅を取得する幅取得手段と、
前記取得した距離に基づく長さを有し、前記交差点への進入方向を有する、進入案内量を取得する進入案内量取得手段と、
前記取得した幅に基づく長さを有し、前記交差点からの進行方向を有する、進行方向案内量を取得する進行方向案内量取得手段と、
前記進入案内量に対応する長さと方向を有する第1柄部と、当該第1柄部と連続し、前記進行方向案内量に対応する長さと方向を有する第2柄部と、を有する矢印図形を作成する矢印図形作成手段と、
前記作成した矢印図形を前記交差点の像に重畳して表示する表示手段と、
を具備したことを特徴とするナビゲーション装置。
Route acquisition means for acquiring a route for guiding the vehicle to the destination point;
An intersection specifying means for specifying a next intersection for guiding a traveling direction according to the acquired route;
Distance acquisition means for acquiring a distance from the current position of the vehicle to the specified intersection;
Width acquisition means for acquiring the width of the road on which the vehicle is currently traveling;
An approach guidance amount acquiring means for acquiring an approach guide amount, having a length based on the acquired distance and having an approach direction to the intersection;
A travel direction guide amount acquisition means for acquiring a travel direction guide amount having a length based on the acquired width and having a travel direction from the intersection;
An arrow figure having a first handle portion having a length and direction corresponding to the approach guidance amount, and a second handle portion continuing to the first handle portion and having a length and direction corresponding to the traveling direction guide amount. An arrow shape creation means for creating
Display means for displaying the created arrow graphic superimposed on the image of the intersection;
A navigation device comprising:
前記表示手段は、前記車両の運転者が視認する前記交差点の実像か、又は、表示画面に表示した前記交差点の画像のうちの少なくとも一方に前記矢印図形を重畳して表示することを特徴とする請求項1に記載のナビゲーション装置。   The display means superimposes and displays the arrow graphic on at least one of the real image of the intersection visually recognized by the driver of the vehicle or the image of the intersection displayed on the display screen. The navigation device according to claim 1. 前記交差点の所定位置に基準点を設定する基準点設定手段を具備し、
前記表示手段は、前記第1柄部と前記第2柄部の交点を前記設定した基準点に一致させて重畳することを特徴とする請求項1、又は請求項2に記載のナビゲーション装置。
Comprising reference point setting means for setting a reference point at a predetermined position of the intersection;
The navigation device according to claim 1, wherein the display unit superimposes the intersection of the first handle part and the second handle part so as to coincide with the set reference point.
現在通行している車線を特定する車線特定手段を具備し、
前記基準点設定手段は、前記特定した車線の内側に前記基準点を設定することを特徴とする請求項3に記載のナビゲーション装置。
It has lane identification means to identify the lane that is currently passing,
The navigation apparatus according to claim 3, wherein the reference point setting means sets the reference point inside the identified lane.
前記取得した距離が所定の閾値以上の場合、前記矢印図形作成手段は、前記第2柄部を用いずに、前記第1柄部を用いて前記矢印図形を作成することを特徴とする請求項1から請求項4までのうちの何れか1の請求項に記載のナビゲーション装置。   The said arrow figure preparation means produces the said arrow figure using the said 1st pattern part, without using the said 2nd pattern part, when the acquired distance is more than a predetermined threshold value. The navigation device according to any one of claims 1 to 4. 前方の道路を撮影する撮影手段を具備し、
前記幅取得手段は、前記撮影した道路の画像から白線を画像認識することにより前記幅を取得することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載のナビゲーション装置。
It has a photographing means for photographing the road ahead,
The said width | variety acquisition means acquires the said width | variety by image-recognizing a white line from the image | photographed road image, The claim in any one of Claim 1 to 5 characterized by the above-mentioned. Navigation device.
前記幅取得手段は、前記取得した経路の道路データを記録したデータベースから前記幅を取得することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載のナビゲーション装置。   The navigation device according to any one of claims 1 to 5, wherein the width acquisition unit acquires the width from a database in which road data of the acquired route is recorded. . 前記矢印図形作成手段は、前記矢印図形を前記交差点への進入方向に見た斜視図の形状に作成することを特徴とする請求項1から請求項7までのうちの何れか1の請求項に記載のナビゲーション装置。   The said arrow figure creation means produces the shape of the perspective view which looked at the said arrow figure in the approach direction to the said intersection, The claim in any one of Claim 1-7 The navigation device described. 車両を目的地点に案内する経路を取得する経路取得機能と、
前記取得した経路に従って進行方向を案内する次の交差点を特定する交差点特定機能と、
前記車両の現在位置から前記特定した交差点までの距離を取得する距離取得機能と、
前記車両が現在走行している道路の幅を取得する幅取得機能と、
前記取得した距離に基づく長さを有し、前記交差点への進入方向を有する、進入案内量を取得する進入案内量取得機能と、
前記取得した幅に基づく長さを有し、前記交差点からの進行方向を有する、進行方向案内量を取得する進行方向案内量取得機能と、
前記進入案内量に対応する長さと方向を有する第1柄部と、当該第1柄部と連続し、前記進行方向案内量に対応する長さと方向を有する第2柄部と、を有する矢印図形を作成する矢印図形作成機能と、
前記作成した矢印図形を前記交差点の像に重畳して表示する表示機能と、
をコンピュータで実現するナビゲーションプログラム。
A route acquisition function for acquiring a route for guiding a vehicle to a destination point;
An intersection identifying function for identifying the next intersection that guides the direction of travel according to the acquired route;
A distance acquisition function for acquiring a distance from the current position of the vehicle to the specified intersection;
A width acquisition function for acquiring the width of the road on which the vehicle is currently traveling;
An approach guidance amount obtaining function for obtaining an approach guidance amount having a length based on the obtained distance and having an approach direction to the intersection;
A travel direction guide amount acquisition function for acquiring a travel direction guide amount having a length based on the acquired width and having a travel direction from the intersection;
An arrow figure having a first handle portion having a length and direction corresponding to the approach guidance amount, and a second handle portion continuing to the first handle portion and having a length and direction corresponding to the traveling direction guide amount. With arrow shape creation function to create
A display function for displaying the created arrow graphic superimposed on the image of the intersection;
A navigation program that realizes the above with a computer.
JP2014223696A 2014-10-31 2014-10-31 Navigation device and navigation program Pending JP2016090344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014223696A JP2016090344A (en) 2014-10-31 2014-10-31 Navigation device and navigation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014223696A JP2016090344A (en) 2014-10-31 2014-10-31 Navigation device and navigation program

Publications (1)

Publication Number Publication Date
JP2016090344A true JP2016090344A (en) 2016-05-23

Family

ID=56019432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014223696A Pending JP2016090344A (en) 2014-10-31 2014-10-31 Navigation device and navigation program

Country Status (1)

Country Link
JP (1) JP2016090344A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112989A (en) * 2017-01-13 2018-07-19 本田技研工業株式会社 Driving assist device and driving assist method
JP2018159738A (en) * 2017-03-22 2018-10-11 アイシン・エィ・ダブリュ株式会社 Virtual image display device
WO2018207566A1 (en) * 2017-05-10 2018-11-15 パナソニックIpマネジメント株式会社 Display device and display control method
WO2018210050A1 (en) * 2017-05-18 2018-11-22 中兴通讯股份有限公司 Vehicle driving assistance method, apparatus, system, terminal device and storage medium
CN109427237A (en) * 2017-09-04 2019-03-05 高德信息技术有限公司 A kind of Road letterings labeling position determines method and device
JP2019039883A (en) * 2017-08-29 2019-03-14 矢崎総業株式会社 Vehicle display device and display control method
DE102018218955A1 (en) 2017-11-10 2019-05-16 Yazaki Corporation VEHICLE DISPLAY DEVICE
CN110799806A (en) * 2017-06-28 2020-02-14 赫尔环球有限公司 Method, apparatus and computer program product for dynamic lane guidance
CN111024113A (en) * 2019-12-05 2020-04-17 深圳震有科技股份有限公司 GMap-based navigation path direction arrow drawing method, system and equipment
CN111055853A (en) * 2018-10-15 2020-04-24 三星电子株式会社 Content visualization method and device
US10762711B2 (en) 2017-09-07 2020-09-01 Toyota Jidosha Kabushiki Kaisha Head-up display system
JP2020159953A (en) * 2019-03-27 2020-10-01 パナソニックIpマネジメント株式会社 Display system
CN112078486A (en) * 2020-08-27 2020-12-15 江苏泽景汽车电子股份有限公司 Steering auxiliary device and method based on HUD display
CN114127614A (en) * 2019-08-25 2022-03-01 日本精机株式会社 Head-up display device

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112989A (en) * 2017-01-13 2018-07-19 本田技研工業株式会社 Driving assist device and driving assist method
JP2018159738A (en) * 2017-03-22 2018-10-11 アイシン・エィ・ダブリュ株式会社 Virtual image display device
WO2018207566A1 (en) * 2017-05-10 2018-11-15 パナソニックIpマネジメント株式会社 Display device and display control method
JP2018189590A (en) * 2017-05-10 2018-11-29 パナソニックIpマネジメント株式会社 Display unit and display control method
US11249308B2 (en) 2017-05-10 2022-02-15 Panasonic Intellectual Property Management Co., Ltd. Display device in moving body for displaying superimposed virtual image and display control method
WO2018210050A1 (en) * 2017-05-18 2018-11-22 中兴通讯股份有限公司 Vehicle driving assistance method, apparatus, system, terminal device and storage medium
CN110799806A (en) * 2017-06-28 2020-02-14 赫尔环球有限公司 Method, apparatus and computer program product for dynamic lane guidance
JP6991794B2 (en) 2017-08-29 2022-01-13 矢崎総業株式会社 Vehicle display device and display control method
JP2019039883A (en) * 2017-08-29 2019-03-14 矢崎総業株式会社 Vehicle display device and display control method
CN109427237B (en) * 2017-09-04 2022-02-22 阿里巴巴(中国)有限公司 Road character marking position determining method and device
CN109427237A (en) * 2017-09-04 2019-03-05 高德信息技术有限公司 A kind of Road letterings labeling position determines method and device
US10762711B2 (en) 2017-09-07 2020-09-01 Toyota Jidosha Kabushiki Kaisha Head-up display system
DE102018218955B4 (en) 2017-11-10 2024-03-28 Yazaki Corporation VEHICLE DISPLAY DEVICE
US10870350B2 (en) 2017-11-10 2020-12-22 Yazaki Corporation Vehicle display device for overlapping display image on real landscape
DE102018218955A1 (en) 2017-11-10 2019-05-16 Yazaki Corporation VEHICLE DISPLAY DEVICE
CN111055853A (en) * 2018-10-15 2020-04-24 三星电子株式会社 Content visualization method and device
US11514785B2 (en) 2019-03-27 2022-11-29 Panasonic Intellectual Property Management Co., Ltd. Display system
JP2020159953A (en) * 2019-03-27 2020-10-01 パナソニックIpマネジメント株式会社 Display system
CN111750893A (en) * 2019-03-27 2020-10-09 松下知识产权经营株式会社 Display system and display device
JP7365594B2 (en) 2019-03-27 2023-10-20 パナソニックIpマネジメント株式会社 display system
CN114127614A (en) * 2019-08-25 2022-03-01 日本精机株式会社 Head-up display device
CN114127614B (en) * 2019-08-25 2023-08-25 日本精机株式会社 Head-up display device
CN111024113A (en) * 2019-12-05 2020-04-17 深圳震有科技股份有限公司 GMap-based navigation path direction arrow drawing method, system and equipment
CN112078486A (en) * 2020-08-27 2020-12-15 江苏泽景汽车电子股份有限公司 Steering auxiliary device and method based on HUD display

Similar Documents

Publication Publication Date Title
JP2016090344A (en) Navigation device and navigation program
JP6566145B2 (en) Driving support device and computer program
JP6486474B2 (en) Display control device, display device, and display control method
JP6381807B2 (en) Display control device, display device, and display control method
EP2372309B1 (en) Vehicle position detection system
JP5660140B2 (en) Navigation device
JP6834704B2 (en) Driving support device and computer program
CN108885108B (en) U-turn assist based on manipulation difficulty
KR20150094382A (en) Apparatus and method for providing load guide based on augmented reality and head up display
US11525694B2 (en) Superimposed-image display device and computer program
WO2017056210A1 (en) Vehicular display device
JP7151073B2 (en) Display device and computer program
CN111284498B (en) Driving support device, driving support system, driving support method, wearable device, and storage medium
JP2008276642A (en) Traveling lane recognition device and traveling lane recognition method
JP2015226304A (en) Projection device for vehicle and head-up display system
JP2017056747A (en) Display controller, display unit and sound image position control method
JP6611918B2 (en) Parking assistance display control apparatus and parking assistance display control method
JP5881566B2 (en) Navigation device and navigation information display control method
JP6444508B2 (en) Display control device and navigation device
JP6448806B2 (en) Display control device, display device, and display control method
JP4529080B2 (en) Navigation device
JP4512998B2 (en) Navigation device
JP6597128B2 (en) Vehicle display device
JP7143728B2 (en) Superimposed image display device and computer program
JP6785956B2 (en) Display control device and display control method