JPWO2007142084A1 - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JPWO2007142084A1
JPWO2007142084A1 JP2007548632A JP2007548632A JPWO2007142084A1 JP WO2007142084 A1 JPWO2007142084 A1 JP WO2007142084A1 JP 2007548632 A JP2007548632 A JP 2007548632A JP 2007548632 A JP2007548632 A JP 2007548632A JP WO2007142084 A1 JPWO2007142084 A1 JP WO2007142084A1
Authority
JP
Japan
Prior art keywords
guidance
control unit
arrow
guide
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007548632A
Other languages
Japanese (ja)
Inventor
貴志 秋田
貴志 秋田
工藤 貴弘
貴弘 工藤
金銅 剛史
剛史 金銅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2007142084A1 publication Critical patent/JPWO2007142084A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

自車位置から案内点までの距離に基づいて、案内矢印の右左折方向を指示する部分の大きさ、又は透明度を制御することによって、案内点の直前において、案内矢印によって背景画像が隠蔽されてしまうことを軽減するナビゲーション装置を提供する。案内オブジェクトを生成するオブジェクト生成部(107)と、自車位置から案内点までの距離に基づいて、案内オブジェクトの所定部分について、表示上の大きさ、又は透明度を制御するオブジェクト制御部(108)と、オブジェクト制御部(108)が制御して得られる案内オブジェクトに基づいて、ドライバーズビューによってナビゲーション表示する表示制御部(109)とを備える。The background image is hidden by the guidance arrow immediately before the guidance point by controlling the size or transparency of the part that indicates the direction of turning left or right of the guidance arrow based on the distance from the vehicle position to the guidance point. Provided is a navigation device that reduces the occurrence of such a situation. An object generation unit (107) that generates a guidance object, and an object control unit (108) that controls the display size or transparency of a predetermined portion of the guidance object based on the distance from the vehicle position to the guidance point. And a display control unit (109) for performing navigation display by a driver's view based on the guidance object obtained by the control of the object control unit (108).

Description

本発明は、ナビゲーション装置に関し、より特定的には、3次元空間画像に案内オブジェクトを重畳表示するナビゲーション装置に関する。   The present invention relates to a navigation device, and more particularly to a navigation device that displays a guidance object superimposed on a three-dimensional space image.

従来、設定された目的地に対して現在の自車位置からの経路探索を行い、経路上に存在する案内点に対して、蓄積された地図データを利用して経路案内を行うナビゲーション装置が広く普及している。   2. Description of the Related Art Conventionally, there are a wide variety of navigation devices that perform a route search from a current vehicle position to a set destination and perform route guidance using the accumulated map data for guidance points existing on the route. It is popular.

近年のナビゲーション装置は、HDD(Hard Disk Drive)やDVD(Digital Vercatile Disk)等の記録メディアの大容量化により、より詳細な地図データを記憶しておくことが可能である。そのため、例えば、3次元的な鳥瞰図表示やリアルな3次元CGを用いたドライバーズ・ビュー等、分かり易さやリアリティを追求した地図表示が行われている。   Recent navigation devices can store more detailed map data by increasing the capacity of recording media such as HDDs (Hard Disk Drives) and DVDs (Digital Versatile Disks). Therefore, for example, a map display pursuing easy understanding and reality is performed such as a three-dimensional bird's-eye view display and a driver's view using a real three-dimensional CG.

このように3次元的な地図表示が行われる際には、案内矢印(経路案内線)の見易さが重要であり、特に、視点高度を車両の高さ程度まで下げて運転者の目線で見た状態の3次元的な地図表示が行われることが好ましい。   When a three-dimensional map display is performed in this way, it is important that the guide arrows (route guide lines) are easy to see. In particular, the viewpoint altitude is lowered to about the height of the vehicle, It is preferable that a three-dimensional map display in the viewed state is performed.

従来、車両の前方映像をビデオカメラ等の撮像手段で取得し、誘導のポイントとなる案内点(経路上に存在する右左折する対象の交差点や分岐点)に近づくと、案内点における車両の進路を示す進路案内情報として矢印画像を重畳表示する車載用ナビゲーション装置の走行案内画像表示方法が提案されている(例えば、特許文献1参照)。   Conventionally, when a front image of a vehicle is acquired by an imaging means such as a video camera and approaches a guidance point (an intersection or a branch point to be turned left or right on the route) as a guidance point, the course of the vehicle at the guidance point A driving guidance image display method of an in-vehicle navigation device that displays an arrow image as superimposed route guidance information has been proposed (see, for example, Patent Document 1).

このような3次元的な地図表示では、案内点が現在の自車位置から遠方に存在すると、図15に示すように、案内矢印の右左折方向を指示する部分が細く表示され、ユーザにとって見え辛くなってしまう。   In such a three-dimensional map display, when the guide point is located far from the current vehicle position, as shown in FIG. 15, the portion indicating the right / left turn direction of the guide arrow is thinly displayed, which is visible to the user. It will be hard.

そこで、従来、右左折道路に沿って伸びる案内オブジェクトは通常細く表示され、視認性が悪い案内オブジェクトであるため、地平面に対して高さを有するように表示させる技術が提案されている(特許文献2参照)。
特開平7−63572号公報 特開2003−337033号公報
Therefore, conventionally, a guide object extending along a right-left turn road is normally displayed thinly and is a guide object with poor visibility, and therefore a technique for displaying the guide object so as to have a height with respect to the ground plane has been proposed (patent). Reference 2).
JP-A-7-63572 JP 2003-337033 A

しかしながら、従来技術は、案内矢印の右左折方向を指示する部分が3次元画像の地平面に対して垂直に立った状態で表示されるため、右左折方向を指示する部分の高さが大きくなり、図16に示すように、案内点の直前では、案内矢印によって背景画像が隠蔽されてしまう。このため、ユーザは、案内点周辺の様子を認識し辛い。なお、地平面とは、車両と道路の接平面のことを表す。以下では、地平面と称する。   However, according to the prior art, since the portion indicating the right / left turn direction of the guide arrow is displayed in a state of standing perpendicular to the ground plane of the three-dimensional image, the height of the portion indicating the right / left turn direction is increased. As shown in FIG. 16, immediately before the guide point, the background image is concealed by the guide arrow. For this reason, it is difficult for the user to recognize the situation around the guide point. The ground plane means a tangent plane between the vehicle and the road. Hereinafter, it is referred to as a ground plane.

そこで、本発明は、上記問題に鑑みてなされた。すなわち、自車位置から案内点までの距離に基づいて、3次元空間画像の地平面に対する案内矢印の右左折方向を指示する部分の高さ、又は透明度を制御することによって、案内点の直前において、案内矢印によって背景画像が隠蔽されてしまうことを軽減するナビゲーション装置を提供することを目的とする。なお、3次元空間画像は、実写画像、及び3次元地図画像を含む。   Therefore, the present invention has been made in view of the above problems. That is, based on the distance from the vehicle position to the guide point, by controlling the height or transparency of the portion that indicates the direction of the left or right turn of the guide arrow with respect to the ground plane of the three-dimensional space image, immediately before the guide point An object of the present invention is to provide a navigation device that reduces the situation in which a background image is hidden by a guide arrow. Note that the three-dimensional space image includes a live-action image and a three-dimensional map image.

本発明の局面は、ナビゲーション装置に向けられている。本発明は、案内オブジェクトを生成するオブジェクト生成部と、自車位置から案内点までの距離に基づいて、案内オブジェクトの所定部分について、表示上の大きさ、又は透明度を制御するオブジェクト制御部と、オブジェクト制御部が制御して得られる案内オブジェクトに基づいて、ドライバーズビューによってナビゲーション表示する表示制御部とを備える。   An aspect of the present invention is directed to a navigation device. The present invention includes an object generation unit that generates a guide object, an object control unit that controls the display size or transparency of a predetermined portion of the guide object based on the distance from the vehicle position to the guide point, A display control unit that performs navigation display using a driver's view based on a guidance object obtained by the control of the object control unit.

また、オブジェクト制御部は、自車位置から案内点までの距離に基づいて、案内オブジェクトの所定部分について、傾きを制御することにより、表示上の大きさを制御することが好ましい。   Moreover, it is preferable that an object control part controls the magnitude | size on a display by controlling the inclination about the predetermined part of a guidance object based on the distance from the own vehicle position to a guidance point.

また、オブジェクト制御部は、自車位置から案内点までの距離に基づいて、案内オブジェクトのうち、右左折を指示する部分について、角度を制御することにより、傾きを制御することが好ましい。   Moreover, it is preferable that an object control part controls an inclination by controlling an angle about the part which instruct | indicates the left-right turn among guidance objects based on the distance from the own vehicle position to a guidance point.

また、オブジェクト制御部は、自車位置から案内点までの距離が近い程、角度を小さくすることが好ましい。   Moreover, it is preferable that an object control part makes an angle small, so that the distance from the own vehicle position to a guidance point is near.

また、オブジェクト制御部は、角度を90度から0度の範囲内で小さくすることが好ましい。   The object control unit preferably reduces the angle within a range of 90 degrees to 0 degrees.

また、オブジェクト制御部は、自車位置から案内点までの距離に基づいて、案内オブジェクトの所定部分について、高さを制御することにより、表示上の大きさを制御することが好ましい。   Moreover, it is preferable that an object control part controls the magnitude | size on a display by controlling the height about the predetermined part of a guidance object based on the distance from the own vehicle position to a guidance point.

また、オブジェクト制御部は、自車位置から案内点までの距離に基づいて、案内オブジェクトのうち、右左折を指示する部分について、高さを制御することが好ましい。   Moreover, it is preferable that an object control part controls height about the part which instruct | indicates the left-right turn among guidance objects based on the distance from the own vehicle position to a guidance point.

また、オブジェクト制御部は、自車位置から案内点までの距離が近い程、高さを低くすることが好ましい。   Moreover, it is preferable that an object control part makes height low, so that the distance from the own vehicle position to a guidance point is near.

また、オブジェクト制御部は、案内オブジェクトのうち、右左折を指示する部分について、自車位置から案内点までの距離が近くなる程、透明度を大きくすることが好ましい。   Moreover, it is preferable that an object control part makes transparency large, so that the distance from the own vehicle position to a guidance point becomes short about the part which instruct | indicates the left-right turn among guidance objects.

また、表示制御部は、3次元地図画像上に前記案内オブジェクトを重畳表示させることが好ましい。   Moreover, it is preferable that a display control part superimposes and displays the said guidance object on a three-dimensional map image.

また、表示制御部は、実写画像上に前記案内オブジェクトを重畳表示させることが好ましい。   Further, it is preferable that the display control unit superimposes the guidance object on the photographed image.

以上説明したように、本発明の局面によれば、自車位置から案内点までの距離に基づいて、3次元空間画像の地平面に対する案内矢印の右左折方向を指示する部分の大きさ、又は透明度を制御することによって、案内点の直前において、案内矢印によって背景画像が隠蔽されてしまうことを軽減するナビゲーション装置を提供することができる。   As described above, according to the aspect of the present invention, based on the distance from the vehicle position to the guide point, the size of the portion that indicates the right / left turn direction of the guide arrow with respect to the ground plane of the three-dimensional space image, or By controlling the transparency, it is possible to provide a navigation device that reduces the fact that the background image is hidden by the guide arrow immediately before the guide point.

図1は、本発明の実施の形態に係るナビゲーション装置の全体構成を示すブロック図である。FIG. 1 is a block diagram showing an overall configuration of a navigation device according to an embodiment of the present invention. 図2は、地図データベースに記憶されている情報の一例を示す図である。FIG. 2 is a diagram illustrating an example of information stored in the map database. 図3は、地図データベースに記憶されているノード、補間ノード、及びリンクにより形成される道路と分岐点のネットワークの一例を示す図である。FIG. 3 is a diagram illustrating an example of a network of roads and branch points formed by nodes, interpolation nodes, and links stored in the map database. 図4は、本発明の実施の形態に係るナビゲーション装置の動作を示すフロー図である。FIG. 4 is a flowchart showing the operation of the navigation device according to the embodiment of the present invention. 図5は、3次元地図空間におけるカメラ視野空間の設定方法を示す図である。FIG. 5 is a diagram showing a method for setting the camera visual field space in the three-dimensional map space. 図6は、道路検出処理によって検出される道路を示す図である。FIG. 6 is a diagram illustrating roads detected by road detection processing. 図7は、直進方向矢印と右左折方向矢印の定義を示す図である。FIG. 7 is a diagram showing the definition of the straight direction arrow and the right / left turn direction arrow. 図8は、距離Dと角度θの関係を示す図である。FIG. 8 is a diagram illustrating the relationship between the distance D and the angle θ. 図9は、右左折方向矢印と地平面との角度θを示す断面図である。FIG. 9 is a cross-sectional view showing the angle θ between the right / left turn direction arrow and the ground plane. 図10は、案内対象交差点から離れた地点における案内矢印を示す図である。FIG. 10 is a diagram illustrating a guidance arrow at a point away from the guidance target intersection. 図11は、案内対象交差点に近づいた地点における案内矢印を示す図である。FIG. 11 is a diagram illustrating a guidance arrow at a point approaching the guidance target intersection. 図12は、距離と高さの関係を示す図である。FIG. 12 is a diagram illustrating the relationship between distance and height. 図13は、従来技術の案内対象交差点から離れた地点における案内矢印を示す図である。FIG. 13 is a diagram illustrating a guide arrow at a point away from a conventional guide target intersection. 図14は、距離と透明度の関係を示す図である。FIG. 14 is a diagram illustrating the relationship between distance and transparency. 図15は、従来技術の案内対象交差点から離れた地点における案内矢印を示す図である。FIG. 15 is a diagram illustrating a guide arrow at a point away from the guide target intersection of the prior art. 図16は、従来技術の案内対象交差点から近い地点における案内矢印を示す図FIG. 16 is a diagram showing a guide arrow at a point close to a conventional guide target intersection.

符号の説明Explanation of symbols

100 ナビゲーション装置
101 映像取得部
102 測位部
103 地図データベース
104 入力部
105 制御部
106 経路探索部
107 矢印制御部
108 矢印生成部
109 表示制御部
110 表示部
DESCRIPTION OF SYMBOLS 100 Navigation apparatus 101 Image | video acquisition part 102 Positioning part 103 Map database 104 Input part 105 Control part 106 Route search part 107 Arrow control part 108 Arrow generation part 109 Display control part 110 Display part

以下、本発明のナビゲーション装置100について図面を参照しながら説明する。なお、各図面において、本発明に関係のない構成要素は省略している。   Hereinafter, the navigation device 100 of the present invention will be described with reference to the drawings. In each drawing, components not related to the present invention are omitted.

図1は、本発明の一実施の形態に係るナビゲーション装置100の全体構成を示すブロック図である。図1において、ナビゲーション装置100は、映像取得部101、測位部102、地図データベース103、入力部104、制御部105、経路探索部106、矢印生成部107、矢印制御部108、表示制御部109、及び表示部110を備える。   FIG. 1 is a block diagram showing an overall configuration of a navigation device 100 according to an embodiment of the present invention. In FIG. 1, a navigation device 100 includes a video acquisition unit 101, a positioning unit 102, a map database 103, an input unit 104, a control unit 105, a route search unit 106, an arrow generation unit 107, an arrow control unit 108, a display control unit 109, And a display unit 110.

映像取得部101は、車両の前方の実写映像を撮像する、例えば、カメラである。測位部102は、自車位置に関する情報を取得する、例えば、車両に取り付けられたGPS(Global Positioning System)やジャイロなどに代表される測位センサである。   The video acquisition unit 101 is, for example, a camera that captures a live-action video in front of the vehicle. The positioning unit 102 is a positioning sensor that acquires information on the position of the host vehicle, for example, a GPS (Global Positioning System) or a gyro attached to the vehicle.

地図データベース103は、道路や交差点に関するデータ等の地図情報が格納される、例えば、HDDやDVDである。なお、これに限らず、図示しない通信手段(例えば、携帯電話)によって、地図情報が地図データベース103にセンター設備から適宜ダウンロードされる構成としてもよい。   The map database 103 is, for example, an HDD or a DVD that stores map information such as data on roads and intersections. Note that the present invention is not limited to this, and the map information may be appropriately downloaded from the center facility to the map database 103 by a communication means (for example, a mobile phone) (not shown).

図2に、地図データベース103に記憶されている地図情報の中で、本実施の形態に関連する情報を抜粋したデータを示す。地図データベース103には、(A)ノードデータ、(B)補間ノードデータ及び(C)リンクデータが含まれる。   FIG. 2 shows data extracted from information related to the present embodiment, among the map information stored in the map database 103. The map database 103 includes (A) node data, (B) interpolation node data, and (C) link data.

ノードデータは、交差点や合流地点など、幾方向かに道路が分岐する地点であり、ノード毎の緯度・経度等の位置情報、及び当該ノードに接続する、後述するリンクの数、及びリンクのIDから構成される。   Node data are points where roads branch in several directions, such as intersections and junctions, and position information such as latitude and longitude for each node, the number of links to be connected to the node, and link IDs described later. Consists of

補間ノードデータは、後述するリンク上に存在し、リンクが直線状でない場合等、その形状を表現するための曲折点を表すものであり、緯度・経度等の位置情報、自身が存在するリンクIDにより構成される。   Interpolation node data is present on a link to be described later, and represents a turning point for expressing the shape, such as when the link is not a straight line. Position information such as latitude and longitude, and a link ID where the node exists Consists of.

リンクデータはノードとノードを結ぶ道路を表すものであり、リンクの端点である始点ノード、終点ノード、リンクの長さ(単位はメートルやキロメートルなど)、前述した補間ノードの数、道路幅、及びそのIDにより構成される。   The link data represents the road connecting the nodes, the start point node, the end point node that is the end point of the link, the length of the link (the unit is meters, kilometers, etc.), the number of interpolation nodes described above, the road width, and It consists of the ID.

このような地図データにより形成される道路と交差点のネットワークの例を図3に示す。図3に示すように、ノードには3つ以上のリンクが接続して、別のノードと結ばれており、そのリンク上にはリンクの形状を支配するための補間ノードが存在する。なお、リンクが直線的な道路である場合には、補間ノードは必ずしも存在しない。   An example of a network of roads and intersections formed by such map data is shown in FIG. As shown in FIG. 3, three or more links are connected to a node and connected to another node, and an interpolation node for controlling the link shape exists on the link. In addition, when a link is a straight road, an interpolation node does not necessarily exist.

入力部104は、ナビゲーション装置に対して目的地に関する情報を入力するための、例えば、リモコン、タッチパネル、又は音声入力用のマイクである。制御部105は、ナビゲーション装置100全体を制御する。   The input unit 104 is, for example, a remote controller, a touch panel, or a voice input microphone for inputting information on the destination to the navigation device. The control unit 105 controls the entire navigation device 100.

経路探索部106は、入力部104から入力された目的地に関する情報、及び測位部102から取得した自車位置情報に基づいて、地図データベース103を参照して、目的地に至る最適経路を探索する。   The route search unit 106 refers to the map database 103 based on the information about the destination input from the input unit 104 and the own vehicle position information acquired from the positioning unit 102 to search for the optimal route to the destination. .

矢印生成部107は、3次元空間画像において、道路検出処理により検出された道路のうち、経路探索部106によって探索された案内経路に該当する道路に沿った形状の案内矢印を生成する。   The arrow generation unit 107 generates a guide arrow having a shape along the road corresponding to the guide route searched by the route search unit 106 among the roads detected by the road detection process in the three-dimensional space image.

矢印制御部108は、案内矢印の右左折方向を指示する部分が3次元地図の地平面となす角度を制御する。表示制御部109は、実写映像に矢印制御部108の制御によって得られる案内矢印を重畳して表示部110に表示させる。   The arrow control unit 108 controls the angle formed by the portion indicating the right / left turn direction of the guide arrow and the ground plane of the 3D map. The display control unit 109 causes the display unit 110 to display the guidance arrow obtained by the control of the arrow control unit 108 on the photographed video.

次に本発明の実施の形態に係るナビゲーション装置100の動作について図4に従って説明する。図4は、本発明の実施の形態に係るナビゲーション装置100の動作を示すフロー図である。   Next, the operation of the navigation device 100 according to the embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the navigation device 100 according to the embodiment of the present invention.

まず、制御部105は、入力部104から目的地が設定されたか否かを判定する(ステップS401)。ステップS401において、目的地が設定されなかった場合、制御部105は、S401に処理を戻す。一方、ステップS401において、目的地が設定された場合、経路探索部106は、測位部102で取得した自車位置情報に基づいて、地図データベース103を参照して、目的地に至る経路を探索する(ステップS402)。目的地に至る経路が探索されると、制御部105は、案内を開始する(ステップS403)。   First, the control unit 105 determines whether or not a destination is set from the input unit 104 (step S401). If the destination is not set in step S401, the control unit 105 returns the process to S401. On the other hand, when the destination is set in step S401, the route search unit 106 searches the route to the destination with reference to the map database 103 based on the vehicle position information acquired by the positioning unit 102. (Step S402). When the route to the destination is searched, the control unit 105 starts guidance (step S403).

更に、制御部105は、地図データベース103に格納されている3次元地図、映像取得部101の撮像方向、撮像範囲を定めるパラメータであるカメラ位置、カメラ角(水平角、仰角)、焦点距離、及び画像サイズに基づいて、3次元地図空間におけるカメラの視野空間を算出する(ステップS404)。ここで、3次元地図は、緯度、経度、及び高度に基づいて、位置情報が表される。   Further, the control unit 105 includes a three-dimensional map stored in the map database 103, an imaging direction of the video acquisition unit 101, a camera position that is a parameter for determining an imaging range, a camera angle (horizontal angle, elevation angle), a focal length, Based on the image size, the visual field space of the camera in the three-dimensional map space is calculated (step S404). Here, in the three-dimensional map, position information is represented based on latitude, longitude, and altitude.

カメラの視野空間は、例えば、図5に示すような方法で求める。3次元空間において、カメラ位置(視点)Eからカメラ角方向に焦点距離fだけ進んだ点(点F)が求められ、そこに画像サイズに相当する横x縦yの平面(カメラ画面)が視点Eと点Fを結んだベクトルに垂直になるように設定される。次に、制御部105は、視点Eからカメラ画面の4隅の点を結ぶ半直線がつくる3次元空間を求める。この3次元空間は、理論上無限遠まで延びるが、視点Eから適当な距離だけ離れた所で打ち切られ、視野空間とされる。   The visual field space of the camera is obtained by a method as shown in FIG. 5, for example. In a three-dimensional space, a point (point F) advanced from the camera position (viewpoint) E by the focal length f in the camera angle direction is obtained, and a horizontal x vertical y plane (camera screen) corresponding to the image size is the viewpoint. It is set to be perpendicular to the vector connecting E and point F. Next, the control unit 105 obtains a three-dimensional space formed by a half line connecting the viewpoint E to the four corner points of the camera screen. This three-dimensional space theoretically extends to infinity, but is censored at an appropriate distance from the viewpoint E to be a visual field space.

なお、制御部105は、3次元地図の代わりに、3次元地図から高度情報を除いた2次元地図を用い、2次元地図空間におけるカメラの視野空間を算出するようにしても構わない。また、撮像方向と撮像範囲を定めるパラメータは上記のものに限らず、撮像方向と撮像範囲が定まるものであれば、画角等の他のパラメータを用いて算出されても構わない。   Note that the control unit 105 may calculate a visual field space of the camera in the two-dimensional map space using a two-dimensional map obtained by removing altitude information from the three-dimensional map instead of the three-dimensional map. The parameters for determining the imaging direction and the imaging range are not limited to those described above, and may be calculated using other parameters such as an angle of view as long as the imaging direction and the imaging range are determined.

次に、制御部105は、自車が目的地に到達したか否かを判定する(ステップS405)。ステップS405において、目的地に到達していた場合、制御部105は、処理を終了する。一方、ステップS405において、目的地に到達していなかった場合、制御部105は、3次元地図空間内において、カメラの視野空間内に存在する道路とその位置とを検出する道路検出処理を行う(ステップS406)。   Next, the control unit 105 determines whether or not the own vehicle has reached the destination (step S405). If the destination has been reached in step S405, the control unit 105 ends the process. On the other hand, if the destination has not been reached in step S405, the control unit 105 performs a road detection process for detecting the road existing in the camera view space and its position in the three-dimensional map space. Step S406).

道路検出処理では、制御部105は、3次元地図空間において、カメラの視野空間と道路領域との重なりを求める。図6は、道路検出処理で検出される道路を示している。なお、図6は、3次元地図空間とカメラ視野空間とを上方向から見た図である。道路検出処理では、上述したノードデータ、補間ノードデータ、及びリンクデータに基づいて、自車近傍の道路の形状や道路幅が抽出される。そして、図6に示すように、視野空間に囲まれた道路(斜線を付した部分)がカメラの視野空間内に存在する道路として検出される。   In the road detection process, the control unit 105 obtains an overlap between the camera view space and the road area in the three-dimensional map space. FIG. 6 shows a road detected by the road detection process. FIG. 6 is a view of the three-dimensional map space and the camera visual field space as viewed from above. In the road detection process, the shape of the road and the road width in the vicinity of the host vehicle are extracted based on the node data, the interpolation node data, and the link data. Then, as shown in FIG. 6, a road (hatched portion) surrounded by the visual field space is detected as a road existing in the visual field space of the camera.

次に、矢印生成部107は、3次元地図空間において、道路検出処理により検出された道路のうち、経路探索部106によって探索された案内経路に該当する道路に沿った形状の案内矢印を生成する(ステップS407)。   Next, the arrow generation unit 107 generates a guide arrow having a shape along the road corresponding to the guide route searched for by the route search unit 106 among the roads detected by the road detection process in the three-dimensional map space. (Step S407).

矢印制御部108は、案内矢印を直進方向矢印と右左折方向矢印とに分離して、それぞれについて、3次元地図空間において、案内経路に該当する道路上の配置を決定する。この分離処理は、案内矢印を構成するノードの情報に基づいて、どのノードが直進方向矢印と右左折方向矢印との分離点になるのかが判別されることによって行われる。   The arrow control unit 108 separates the guide arrow into a straight direction arrow and a right / left turn direction arrow, and determines an arrangement on the road corresponding to the guide route in each of the three-dimensional map spaces. This separation process is performed by determining which node is the separation point between the straight direction arrow and the right / left turn direction arrow based on the information of the nodes constituting the guide arrow.

図7は、直進方向矢印、及び右左折方向矢印の定義をそれぞれ説明した図である。図7に示すように、走行中の道路(道路R1)上に配置される矢印が直進方向矢印であり、案内対象交差点で右左折した先の道路(道路R2)上に配置される矢印が右左折方向矢印である。なお、図7は、あくまで直進方向矢印、及び右左折方向矢印の定義について説明するものであり、実際に配置処理によって決定された案内矢印の配置を示すものではない。また、案内矢印の形状は、図7に示した矢印図形に限らず、例えば、矢印図形から先端の三角形を除いた折れ線図形を用いても構わない。   FIG. 7 is a diagram for explaining the definitions of the straight direction arrow and the right / left turn direction arrow. As shown in FIG. 7, the arrow arranged on the road (road R1) that is running is the straight direction arrow, and the arrow arranged on the road (road R2) that is turned right and left at the guidance target intersection is the right Left turn direction arrow. Note that FIG. 7 is only for explaining the definition of the straight direction arrow and the right / left turn direction arrow, and does not show the arrangement of the guide arrows actually determined by the arrangement process. Further, the shape of the guide arrow is not limited to the arrow figure shown in FIG. 7, and for example, a polygonal line figure obtained by removing the triangle at the tip from the arrow figure may be used.

矢印制御部108は、案内矢印の配置処理において、直進方向矢印を3次元地図空間の該当する道路上の地平面に平行に重なるように配置する(ステップS408)。一方、矢印制御部108は、自車位置から案内対象交差点までの距離に応じて右左折方向矢印の配置を変更する。具体的には、矢印制御部108は、まず、自車位置から自車が次に通過する案内対象交差点までの距離を算出する(ステップS409)。なお、以降では自車位置から案内対象交差点までの距離は定期的に算出されるものとする。   In the guide arrow arrangement process, the arrow control unit 108 arranges the straight direction arrow so as to overlap in parallel with the ground plane on the corresponding road in the three-dimensional map space (step S408). On the other hand, the arrow control unit 108 changes the arrangement of the right and left turn direction arrows according to the distance from the vehicle position to the guidance target intersection. Specifically, the arrow control unit 108 first calculates the distance from the vehicle position to the next intersection to be guided through which the vehicle passes next (step S409). In the following, the distance from the vehicle position to the guidance target intersection will be calculated periodically.

次に、矢印制御部108は、自車位置から案内対象交差点までの距離Dが所定の値(距離D1)以下か否かを判定する(ステップS410)。ステップS410において、矢印制御部108は、距離Dが距離D1より大きいと判定した場合、右左折方向矢印を配置せずに直進方向矢印のみを配置する。   Next, the arrow control unit 108 determines whether or not the distance D from the vehicle position to the guidance target intersection is equal to or less than a predetermined value (distance D1) (step S410). In step S410, when the arrow control unit 108 determines that the distance D is greater than the distance D1, the arrow control unit 108 arranges only the straight direction arrow without arranging the right / left turn direction arrow.

次に、矢印制御部108は、直進方向矢印を配置すると、直進方向矢印からなる案内矢印の投影処理(ステップS410→S412)に処理を移す。なお、以降では、距離D1は200mであるとして説明を行う。また、自車位置から目的地に至る経路中に案内対象交差点が存在しない場合にも、右左折方向矢印が表示されないこととする。   Next, when the straight control direction arrow is arranged, the arrow control unit 108 shifts the processing to the projection processing of the guide arrow composed of the straight travel direction arrow (steps S410 → S412). In the following description, it is assumed that the distance D1 is 200 m. In addition, even when there is no guidance target intersection in the route from the vehicle position to the destination, the right / left turn direction arrow is not displayed.

一方、ステップS410において、自車位置から案内対象交差点までの距離Dが距離D1(200m)以下であると判定された場合、矢印制御部108は、右左折方向矢印を配置する(ステップS410→S411)。このとき、右左折方向矢印は、3次元地図空間の該当する道路上に、地平面に対して自車位置から案内対象交差点までの距離に応じた角度をつけて配置される。具体的には、右左折方向矢印は、自車位置から案内対象交差点までの距離が近い程、地平面に対する案内矢印の角度θが小さくなるように配置される。例えば、角度θが(式1)を満たすように配置される。
(式1)
θ=90(D>200)
θ=D/2−10(20≦D≦200)
θ=0(0≦D<20)
このとき、角度θは図8に示すように自車位置から案内対象交差点までの距離Dに応じて変化する。図9は、3次元地図空間の道路R1を通り、且つ地平面に垂直な断面から見た図である。図9に示すように、自車位置から案内対象交差点までの距離が200mの場合は、角度θは90度となり、右左折方向矢印は立った状態で配置される(図9(a)参照)。
On the other hand, when it is determined in step S410 that the distance D from the vehicle position to the guidance target intersection is equal to or less than the distance D1 (200 m), the arrow control unit 108 arranges a right / left turn direction arrow (steps S410 → S411). ). At this time, the right / left turn direction arrow is arranged on the corresponding road in the three-dimensional map space with an angle corresponding to the distance from the vehicle position to the guidance target intersection with respect to the ground plane. Specifically, the left and right turn direction arrows are arranged so that the angle θ of the guide arrow with respect to the ground plane becomes smaller as the distance from the vehicle position to the guidance target intersection is shorter. For example, it arrange | positions so that angle (theta) may satisfy | fill (Formula 1).
(Formula 1)
θ = 90 (D> 200)
θ = D / 2-10 (20 ≦ D ≦ 200)
θ = 0 (0 ≦ D <20)
At this time, the angle θ varies according to the distance D from the vehicle position to the guidance target intersection as shown in FIG. FIG. 9 is a view as seen from a cross section passing through the road R1 of the three-dimensional map space and perpendicular to the ground plane. As shown in FIG. 9, when the distance from the own vehicle position to the guidance target intersection is 200 m, the angle θ is 90 degrees, and the right and left turn direction arrows are arranged in a standing state (see FIG. 9A). .

自車位置から案内対象交差点までの距離が近くなるにつれて、案内矢印は立った状態から徐々に寝かせた状態に変化していき(自車位置から案内対象交差点までの距離が100mのとき角度θは40度・図9(b)参照)、自車位置から案内対象交差点までの距離が20mになると右左折方向矢印は、完全に寝かせた状態(道路上の平面に平行に重なる状態)で配置される(図9(c)参照)。   As the distance from the vehicle position to the guidance target intersection decreases, the guidance arrow gradually changes from standing to laying down (when the distance from the vehicle position to the guidance target intersection is 100 m, the angle θ is 40 degrees, see Fig. 9 (b)), when the distance from the vehicle position to the intersection to be guided reaches 20m, the right / left turn direction arrow is placed in a completely laid state (overlapping parallel to the plane on the road) (See FIG. 9C).

次に、矢印制御部108は、右左折方向矢印を配置すると、図5に示すカメラ画面を投影面として、直進方向矢印と右左折方向矢印からなる案内矢印に対して投影処理を行う(ステップS412)。   Next, when the right / left turn direction arrow is arranged, the arrow control unit 108 performs a projection process on the guide arrow composed of the straight direction arrow and the right / left turn direction arrow with the camera screen shown in FIG. 5 as a projection plane (step S412). ).

投影処理において案内矢印が投影される投影面は、映像取得部1のカメラ画面と一致するため、表示制御部109は、図10及び図11に示すように、案内矢印を実写画像上に映っている道路(案内経路に該当)上に重畳して表示部110に表示させる。   Since the projection plane onto which the guide arrow is projected in the projection process coincides with the camera screen of the video acquisition unit 1, the display control unit 109 displays the guide arrow on the live-action image as shown in FIGS. It is displayed on the display unit 110 so as to be superimposed on the existing road (corresponding to the guide route).

図10に示すように、交差点から離れた地点(例えば、交差点手前200m)では、右左折方向矢印が高さを有した状態で表示がなされる。このときの右左折方向矢印は、遠くからでも容易に視認できる程度に充分大きく表示される。   As shown in FIG. 10, at a point away from the intersection (for example, 200 m before the intersection), the display is performed with the right / left turn direction arrow having a height. The right / left turn direction arrow at this time is displayed sufficiently large to be easily visible even from a distance.

また、図11に示すように、交差点に近い地点(例えば、交差点手前20m)では、右左折方向矢印が高さを有さない状態で地平面上に配置されるため、案内矢印が背景画像を隠蔽することはない。   Also, as shown in FIG. 11, at a point close to the intersection (for example, 20 m before the intersection), the right and left turn direction arrows are arranged on the ground plane with no height. There is no concealment.

なお、上述の実施の形態では、案内矢印の地平面に対する角度θは(式1)に従って変更される例を説明したが、これに限らず、自車位置から案内対象交差点までの距離Dが小さくなるに連れて角度θが小さくなるものであれば、どのような式であってもよい。また、案内点までの距離だけでなく、自車の速度等が参照され、角度θが制御されてもよい。   In the above-described embodiment, the example in which the angle θ of the guidance arrow with respect to the ground plane is changed according to (Equation 1) has been described. However, the present invention is not limited to this, and the distance D from the vehicle position to the guidance target intersection is small. As long as the angle θ becomes smaller, any formula may be used. Further, the angle θ may be controlled by referring to not only the distance to the guide point but also the speed of the host vehicle.

また、図12は、図9と同様の断面図であり、図12(a)が自車位置が案内対象交差点から最も離れた地点である場合であり、図12(c)が自車位置が案内対象交差点に最も近い地点である場合である。図12に示すように、自車位置から案内対象交差点までの距離が近くなるに連れて、立体表示された右左折方向矢印の高さが徐々に低くなる。   12 is a cross-sectional view similar to FIG. 9, where FIG. 12 (a) shows a case where the vehicle position is the farthest from the guidance target intersection, and FIG. 12 (c) shows the vehicle position. This is the case where the point is closest to the guidance target intersection. As shown in FIG. 12, the height of the three-dimensionally displayed right / left turn direction arrow gradually decreases as the distance from the vehicle position to the guidance target intersection decreases.

この場合においても、右左折方向矢印の地平面に対する角度θを制御する場合と同様に、交差点から離れた地点における右左折方向矢印の視認性を確保できる一方で、交差点に近づいた地点では右左折方向矢印が背景映像を隠蔽することがない。すなわち、交差点から離れた位置における右左折方向矢印の見易さと交差点直前における背景画像の見易さとが両立された案内表示が行われる。   Even in this case, as in the case of controlling the angle θ of the right / left turn direction arrow with respect to the ground plane, the right / left turn direction arrow can be secured at a point away from the intersection, while at the point approaching the intersection, the right / left turn Direction arrows do not hide the background image. That is, guidance display is performed in which the visibility of the right / left turn direction arrow at a position away from the intersection and the visibility of the background image immediately before the intersection are compatible.

なお、案内オブジェクトは、特開2003−337033号公報第3の実施形態で記載されるのと同じように、地平面上にあるように表示される案内オブジェクトと、その上方に別個に立体表示される案内オブジェクトとの2つの別個の案内オブジェクトから構成されていてもよい。上方に別個に立体表示される案内オブジェクトとは、例えば、図13における鏃形状オブジェクトである。なお、ここでいう立体表示とは、既定の形態では地平面内に表示されるオブジェクトを、地平面内ではなく、高さ方向に表示することをいう。このとき、オブジェクト制御部108の制御対象となるオブジェクトは、鏃形状オブジェクトとすれば、上記と同様の効果を発揮することができる。   As described in the third embodiment of Japanese Patent Application Laid-Open No. 2003-337033, the guidance object is displayed as a three-dimensional image separately from the guidance object displayed on the ground plane. May be composed of two separate guidance objects. The guidance object that is separately displayed in a three-dimensional upward direction is, for example, a bowl-shaped object in FIG. The three-dimensional display here refers to displaying an object displayed in the ground plane in the height direction, not in the ground plane in a default form. At this time, if the object to be controlled by the object control unit 108 is a bowl-shaped object, the same effects as described above can be exhibited.

また、 案内オブジェクトが2つの別個の案内オブジェクトから構成される場合、オブジェクト制御部108は上方の別個に立体表示される案内オブジェクトの大きさを制御するのではなく、透明度を制御するようにしても良い。   In addition, when the guide object is composed of two separate guide objects, the object control unit 108 may control the transparency of the guide object that is displayed in a three-dimensional manner above, instead of controlling the size of the guide object. good.

具体的には、上方の別個に立体表示される案内オブジェクトは、自車位置から案内点までの距離が近い程、案内オブジェクトの透明度αが大きくなるように配置される。例えば、透明度αが(式2)を満たすように配置される。
(式2)
α=0(D>200)
α=−5D/9+1000/9(20≦D≦200)
α=100(0≦D<20)
このとき、透明度αは図14に示すように自車位置から案内点までの距離Dに応じて変化する。これによって、交差点から離れた地点における上方の別個に立体表示される案内オブジェクトの視認性を確保できる一方で、交差点に近づいた地点では上方の別個に立体表示される案内オブジェクトは透明になるので背景映像を隠蔽することがない。すなわち、交差点から離れた位置における上方の別個に立体表示される案内オブジェクトの見易さと交差点直前における背景画像の見易さとが両立された案内表示が行われる。
Specifically, the guidance object that is separately displayed in the upper part is arranged such that the transparency α of the guidance object increases as the distance from the vehicle position to the guidance point becomes shorter. For example, it arrange | positions so that transparency (alpha) may satisfy | fill (Formula 2).
(Formula 2)
α = 0 (D> 200)
α = −5D / 9 + 1000/9 (20 ≦ D ≦ 200)
α = 100 (0 ≦ D <20)
At this time, the transparency α changes in accordance with the distance D from the vehicle position to the guide point as shown in FIG. As a result, it is possible to ensure the visibility of the upper three-dimensionally displayed guidance object at a point away from the intersection, while the upper three-dimensional guidance object is transparent at the point approaching the intersection. The video is not hidden. In other words, guidance display is performed in which the visibility of the separately displayed three-dimensional guidance object at a position away from the intersection is compatible with the visibility of the background image immediately before the intersection.

また、上述の実施の形態では、車両の前方を向いたカメラで撮像された実写画像が用いられる例を説明したが、予め記憶媒体に保存されている実写画像や通信によって取得した実写画像上に案内オブジェクトが重畳表示される場合に適用しても構わない。   In the above-described embodiment, an example is described in which a live-action image captured by a camera facing the front of the vehicle is used. However, on a live-action image stored in advance in a storage medium or a real-action image acquired by communication. You may apply when a guidance object is superimposed and displayed.

また、上述の実施の形態では、実写画像によるドライバーズビュー表示に適用される場合について説明したが、特に、視点高度を車両の高さ程度まで下げて運転者の目線で見た状態の三次元地図表示によるドライバーズビュー表示が行われる場合に本発明が適用されても同様の効果を得ることができる。   Further, in the above-described embodiment, the case where it is applied to the driver's view display by a live-action image has been described. In particular, the three-dimensional state in which the viewpoint altitude is lowered to about the height of the vehicle and viewed from the driver's perspective Even when the present invention is applied when the driver's view display by the map display is performed, the same effect can be obtained.

このように、本発明によれば、自車位置から案内点までの距離に基づいて、3次元空間画像の地平面に対する案内矢印の右左折方向を指示する部分の表示上の大きさ、又は透明度を制御することによって、案内点の直前において、案内矢印によって背景画像が隠蔽されてしまうことを軽減するナビゲーション装置を提供することができる。特に、実写画像に案内オブジェクトを重畳する表示方法において、実風景と案内画面の対比が取り辛くなり、ユーザに対して直感的な経路誘導を行うことが困難となる問題を回避することができる。   As described above, according to the present invention, the display size or transparency of the portion that indicates the right / left turn direction of the guide arrow with respect to the ground plane of the three-dimensional space image based on the distance from the vehicle position to the guide point. By controlling this, it is possible to provide a navigation device that reduces the fact that the background image is hidden by the guide arrow immediately before the guide point. In particular, in the display method in which the guidance object is superimposed on the photographed image, it is difficult to compare the actual scenery with the guidance screen, and it is possible to avoid the problem that it is difficult to perform intuitive route guidance for the user.

また、上述の実施の形態では、右左折方向を指示する部分の角度、又は高さが制御される例を示したが、例えば、道路形状がカーブしている場合、右左折方向を指示する形状を成した当該カーブの区間の部分の角度、又は高さが制御される構成としてもよい。   Further, in the above-described embodiment, an example in which the angle or height of the portion that indicates the right / left turn direction is controlled has been shown. However, for example, when the road shape is curved, the shape that indicates the right / left turn direction It is good also as a structure by which the angle or the height of the part of the section of the said curve which comprised is controlled.

上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成を採用することが可能である。   The configuration described in the above embodiment is merely a specific example and does not limit the technical scope of the present invention. Any configuration can be employed within the scope of the effects of the present application.

本発明のナビゲーション装置は、車両に設置されるカーナビゲーション装置等として有用である。また、携帯電話におけるナビゲーション装置等としても有用である。   The navigation device of the present invention is useful as a car navigation device installed in a vehicle. It is also useful as a navigation device for mobile phones.

本発明は、ナビゲーション装置に関し、より特定的には、3次元空間画像に案内オブジェクトを重畳表示するナビゲーション装置に関する。   The present invention relates to a navigation device, and more particularly to a navigation device that displays a guidance object superimposed on a three-dimensional space image.

従来、設定された目的地に対して現在の自車位置からの経路探索を行い、経路上に存在する案内点に対して、蓄積された地図データを利用して経路案内を行うナビゲーション装置が広く普及している。   2. Description of the Related Art Conventionally, there are a wide variety of navigation devices that perform a route search from a current vehicle position to a set destination and perform route guidance using the accumulated map data for guidance points existing on the route. It is popular.

近年のナビゲーション装置は、HDD(Hard Disk Drive)やDVD(Digital Vercatile Disk)等の記録メディアの大容量化により、より詳細な地図データを記憶しておくことが可能である。そのため、例えば、3次元的な鳥瞰図表示やリアルな3次元CGを用いたドライバーズ・ビュー等、分かり易さやリアリティを追求した地図表示が行われている。   Recent navigation devices can store more detailed map data by increasing the capacity of recording media such as HDDs (Hard Disk Drives) and DVDs (Digital Versatile Disks). Therefore, for example, a map display pursuing easy understanding and reality is performed such as a three-dimensional bird's-eye view display and a driver's view using a real three-dimensional CG.

このように3次元的な地図表示が行われる際には、案内矢印(経路案内線)の見易さが重要であり、特に、視点高度を車両の高さ程度まで下げて運転者の目線で見た状態の3次元的な地図表示が行われることが好ましい。   When a three-dimensional map display is performed in this way, it is important that the guide arrows (route guide lines) are easy to see. In particular, the viewpoint altitude is lowered to about the height of the vehicle, It is preferable that a three-dimensional map display in the viewed state is performed.

従来、車両の前方映像をビデオカメラ等の撮像手段で取得し、誘導のポイントとなる案内点(経路上に存在する右左折する対象の交差点や分岐点)に近づくと、案内点における車両の進路を示す進路案内情報として矢印画像を重畳表示する車載用ナビゲーション装置の走行案内画像表示方法が提案されている(例えば、特許文献1参照)。   Conventionally, when a front image of a vehicle is acquired by an imaging means such as a video camera and approaches a guidance point (an intersection or a branch point to be turned left or right on the route) as a guidance point, the course of the vehicle at the guidance point A driving guidance image display method of an in-vehicle navigation device that displays an arrow image as superimposed route guidance information has been proposed (see, for example, Patent Document 1).

このような3次元的な地図表示では、案内点が現在の自車位置から遠方に存在すると、図15に示すように、案内矢印の右左折方向を指示する部分が細く表示され、ユーザにとって見え辛くなってしまう。   In such a three-dimensional map display, when the guide point is located far from the current vehicle position, as shown in FIG. 15, the portion indicating the right / left turn direction of the guide arrow is thinly displayed, which is visible to the user. It will be hard.

そこで、従来、右左折道路に沿って伸びる案内オブジェクトは通常細く表示され、視認性が悪い案内オブジェクトであるため、地平面に対して高さを有するように表示させる技術が提案されている(特許文献2参照)。
特開平7−63572号公報 特開2003−337033号公報
Therefore, conventionally, a guide object extending along a right-left turn road is normally displayed thinly and is a guide object with poor visibility, and therefore a technique for displaying the guide object so as to have a height with respect to the ground plane has been proposed (patent). Reference 2).
JP-A-7-63572 JP 2003-337033 A

しかしながら、従来技術は、案内矢印の右左折方向を指示する部分が3次元画像の地平面に対して垂直に立った状態で表示されるため、右左折方向を指示する部分の高さが大きくなり、図16に示すように、案内点の直前では、案内矢印によって背景画像が隠蔽されてしまう。このため、ユーザは、案内点周辺の様子を認識し辛い。なお、地平面とは、車両と道路の接平面のことを表す。以下では、地平面と称する。   However, according to the prior art, since the portion indicating the right / left turn direction of the guide arrow is displayed in a state of standing perpendicular to the ground plane of the three-dimensional image, the height of the portion indicating the right / left turn direction is increased. As shown in FIG. 16, immediately before the guide point, the background image is hidden by the guide arrow. For this reason, it is difficult for the user to recognize the situation around the guide point. The ground plane means a tangent plane between the vehicle and the road. Hereinafter, it is referred to as a ground plane.

そこで、本発明は、上記問題に鑑みてなされた。すなわち、自車位置から案内点までの距離に基づいて、3次元空間画像の地平面に対する案内矢印の右左折方向を指示する部分の高さ、又は透明度を制御することによって、案内点の直前において、案内矢印によって背景画像が隠蔽されてしまうことを軽減するナビゲーション装置を提供することを目的とする。なお、3次元空間画像は、実写画像、及び3次元地図画像を含む。   Therefore, the present invention has been made in view of the above problems. That is, based on the distance from the vehicle position to the guide point, by controlling the height or transparency of the portion that indicates the direction of the left or right turn of the guide arrow with respect to the ground plane of the three-dimensional space image, immediately before the guide point An object of the present invention is to provide a navigation device that reduces the situation in which a background image is hidden by a guide arrow. Note that the three-dimensional space image includes a live-action image and a three-dimensional map image.

本発明の局面は、ナビゲーション装置に向けられている。本発明は、経路探索部によって探索された案内経路に該当する道路に沿った形状の案内オブジェクトを生成するオブジェクト生成部と、自車位置から案内点までの距離が近い程、案内オブジェクトの右左折を指示する部分について、3次元空間画像の地平面に対する高さ低く制御するオブジェクト制御部と、オブジェクト制御部が制御して得られる案内オブジェクトに基づいて、ドライバーズビューによってナビゲーション表示する表示制御部とを備える。 An aspect of the present invention is directed to a navigation device. The present invention includes an object generation unit for generating a guidance object shape along a road corresponding to the guidance route searched by the route search section, as the distance to the guidance point from the vehicle position is close, right or left turn of the guidance object for instructs portions, and an object control unit for controlling low height relative to the horizontal plane of the three-dimensional image, based on the guidance object that the object control unit is obtained by controlling the display control unit for the navigation display by the driver's view With.

また、オブジェクト制御部は、自車位置から案内点までの距離に基づいて、前記案内オブジェクトの右左折を指示する部分について、3次元空間画像の地平面に対する傾きを制御することにより、3次元空間画像の地平面に対する高さを制御することが好ましい。 Also, the object control unit, based on the distance to the guidance point from the vehicle position, the part indicating the right turn of the guidance object, by controlling the tilt with respect to the horizontal plane of the three-dimensional image, a three-dimensional space It is preferable to control the height of the image with respect to the ground plane .

また、オブジェクト制御部は、自車位置から案内点までの距離に基づいて、前記案内オブジェクトの立体表示された右左折を指示する部分について、高さを制御することにより、3次元空間画像の地平面に対する高さを制御することが好ましい。 Also, the object control unit, based on the distance to the guidance point from the vehicle position, the part indicating the stereoscopic displayed right or left turn of the guidance object, by controlling the height, the land of the three-dimensional image It is preferable to control the height relative to the plane .

また、オブジェクト生成部は、右左折を指示する部分について、案内オブジェクトとは別個に立体表示される案内オブジェクトを生成し、オブジェクト制御部は、別個に立体表示される案内オブジェクトの、3次元空間画像の地平面に対する高さを制御することが好ましい。 In addition, the object generation unit generates a guide object that is stereoscopically displayed separately from the guide object for a portion that instructs a right or left turn, and the object control unit is a three-dimensional space image of the guide object that is stereoscopically displayed separately. It is preferable to control the height with respect to the ground plane .

また、オブジェクト制御部は、案内オブジェクトの右左折を指示する部分について、自車位置から案内点までの距離が近くなる程、透明度を大きくすることが好ましい。 Moreover, it is preferable that the object control unit increases the transparency of the portion instructing the left or right turn of the guidance object as the distance from the vehicle position to the guidance point becomes shorter .

また、表示制御部は、3次元地図画像上に前記案内オブジェクトを重畳表示させることが好ましい。 Further, the display control unit is preferably Rukoto to superimpose the guidance object on the 3-dimensional map image.

また、表示制御部は、実写画像上に前記案内オブジェクトを重畳表示させることが好ましい。 Further, the display control unit, Rukoto to superimpose the guidance object on the photographed image is preferred.

以上説明したように、本発明の局面によれば、自車位置から案内点までの距離に基づいて、3次元空間画像の地平面に対する案内矢印の右左折方向を指示する部分の大きさ、又は透明度を制御することによって、案内点の直前において、案内矢印によって背景画像が隠蔽されてしまうことを軽減するナビゲーション装置を提供することができる。   As described above, according to the aspect of the present invention, based on the distance from the vehicle position to the guide point, the size of the portion that indicates the right / left turn direction of the guide arrow with respect to the ground plane of the three-dimensional space image, or By controlling the transparency, it is possible to provide a navigation device that reduces the fact that the background image is hidden by the guide arrow immediately before the guide point.

以下、本発明のナビゲーション装置100について図面を参照しながら説明する。なお、各図面において、本発明に関係のない構成要素は省略している。   Hereinafter, the navigation device 100 of the present invention will be described with reference to the drawings. In each drawing, components not related to the present invention are omitted.

図1は、本発明の一実施の形態に係るナビゲーション装置100の全体構成を示すブロック図である。図1において、ナビゲーション装置100は、映像取得部101、測位部102、地図データベース103、入力部104、制御部105、経路探索部106、矢印生成部107、矢印制御部108、表示制御部109、及び表示部110を備える。   FIG. 1 is a block diagram showing an overall configuration of a navigation device 100 according to an embodiment of the present invention. In FIG. 1, a navigation apparatus 100 includes a video acquisition unit 101, a positioning unit 102, a map database 103, an input unit 104, a control unit 105, a route search unit 106, an arrow generation unit 107, an arrow control unit 108, a display control unit 109, And a display unit 110.

映像取得部101は、車両の前方の実写映像を撮像する、例えば、カメラである。測位部102は、自車位置に関する情報を取得する、例えば、車両に取り付けられたGPS(Global Positioning System)やジャイロなどに代表される測位センサである。   The video acquisition unit 101 is, for example, a camera that captures a live-action video in front of the vehicle. The positioning unit 102 is a positioning sensor that acquires information on the position of the host vehicle, for example, a GPS (Global Positioning System) or a gyro attached to the vehicle.

地図データベース103は、道路や交差点に関するデータ等の地図情報が格納される、例えば、HDDやDVDである。なお、これに限らず、図示しない通信手段(例えば、携帯電話)によって、地図情報が地図データベース103にセンター設備から適宜ダウンロードされる構成としてもよい。   The map database 103 is, for example, an HDD or a DVD that stores map information such as data on roads and intersections. Note that the present invention is not limited to this, and the map information may be appropriately downloaded from the center facility to the map database 103 by a communication means (for example, a mobile phone) (not shown).

図2に、地図データベース103に記憶されている地図情報の中で、本実施の形態に関連する情報を抜粋したデータを示す。地図データベース103には、(A)ノードデータ、(B)補間ノードデータ及び(C)リンクデータが含まれる。   FIG. 2 shows data extracted from information related to the present embodiment, among the map information stored in the map database 103. The map database 103 includes (A) node data, (B) interpolation node data, and (C) link data.

ノードデータは、交差点や合流地点など、幾方向かに道路が分岐する地点であり、ノード毎の緯度・経度等の位置情報、及び当該ノードに接続する、後述するリンクの数、及びリンクのIDから構成される。   Node data are points where roads branch in several directions, such as intersections and junctions, and position information such as latitude and longitude for each node, the number of links to be connected to the node, and link IDs described later. Consists of

補間ノードデータは、後述するリンク上に存在し、リンクが直線状でない場合等、その形状を表現するための曲折点を表すものであり、緯度・経度等の位置情報、自身が存在するリンクIDにより構成される。   Interpolation node data is present on a link to be described later, and represents a turning point for expressing the shape, such as when the link is not a straight line. Position information such as latitude and longitude, and a link ID where the node exists Consists of.

リンクデータはノードとノードを結ぶ道路を表すものであり、リンクの端点である始点ノード、終点ノード、リンクの長さ(単位はメートルやキロメートルなど)、前述した補間ノードの数、道路幅、及びそのIDにより構成される。   The link data represents the road connecting the nodes, the start point node, the end point node that is the end point of the link, the length of the link (the unit is meters, kilometers, etc.), the number of interpolation nodes described above, the road width, and It consists of the ID.

このような地図データにより形成される道路と交差点のネットワークの例を図3に示す。図3に示すように、ノードには3つ以上のリンクが接続して、別のノードと結ばれており、そのリンク上にはリンクの形状を支配するための補間ノードが存在する。なお、リンクが直線的な道路である場合には、補間ノードは必ずしも存在しない。   An example of a network of roads and intersections formed by such map data is shown in FIG. As shown in FIG. 3, three or more links are connected to a node and connected to another node, and an interpolation node for controlling the link shape exists on the link. In addition, when a link is a straight road, an interpolation node does not necessarily exist.

入力部104は、ナビゲーション装置に対して目的地に関する情報を入力するための、例えば、リモコン、タッチパネル、又は音声入力用のマイクである。制御部105は、ナビゲーション装置100全体を制御する。   The input unit 104 is, for example, a remote controller, a touch panel, or a voice input microphone for inputting information on the destination to the navigation device. The control unit 105 controls the entire navigation device 100.

経路探索部106は、入力部104から入力された目的地に関する情報、及び測位部102から取得した自車位置情報に基づいて、地図データベース103を参照して、目的地に至る最適経路を探索する。   The route search unit 106 searches the optimum route to the destination with reference to the map database 103 based on the information about the destination input from the input unit 104 and the own vehicle position information acquired from the positioning unit 102. .

矢印生成部107は、3次元空間画像において、道路検出処理により検出された道路のうち、経路探索部106によって探索された案内経路に該当する道路に沿った形状の案内矢印を生成する。   The arrow generation unit 107 generates a guide arrow having a shape along the road corresponding to the guide route searched by the route search unit 106 among the roads detected by the road detection process in the three-dimensional space image.

矢印制御部108は、案内矢印の右左折方向を指示する部分が3次元地図の地平面となす角度を制御する。表示制御部109は、実写映像に矢印制御部108の制御によって得られる案内矢印を重畳して表示部110に表示させる。   The arrow control unit 108 controls the angle formed by the portion indicating the right / left turn direction of the guide arrow and the ground plane of the three-dimensional map. The display control unit 109 causes the display unit 110 to display the guidance arrow obtained by the control of the arrow control unit 108 on the photographed video.

次に本発明の実施の形態に係るナビゲーション装置100の動作について図4に従って説明する。図4は、本発明の実施の形態に係るナビゲーション装置100の動作を示すフロー図である。   Next, the operation of the navigation device 100 according to the embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the navigation device 100 according to the embodiment of the present invention.

まず、制御部105は、入力部104から目的地が設定されたか否かを判定する(ステップS401)。ステップS401において、目的地が設定されなかった場合、制御部105は、S401に処理を戻す。一方、ステップS401において、目的地が設定された場合、経路探索部106は、測位部102で取得した自車位置情報に基づいて、地図データベース103を参照して、目的地に至る経路を探索する(ステップS402)。目的地に至る経路が探索されると、制御部105は、案内を開始する(ステップS403)。   First, the control unit 105 determines whether or not a destination is set from the input unit 104 (step S401). If the destination is not set in step S401, the control unit 105 returns the process to S401. On the other hand, when the destination is set in step S401, the route search unit 106 searches the route to the destination with reference to the map database 103 based on the vehicle position information acquired by the positioning unit 102. (Step S402). When the route to the destination is searched, the control unit 105 starts guidance (step S403).

更に、制御部105は、地図データベース103に格納されている3次元地図、映像取得部101の撮像方向、撮像範囲を定めるパラメータであるカメラ位置、カメラ角(水平角、仰角)、焦点距離、及び画像サイズに基づいて、3次元地図空間におけるカメラの視野空間を算出する(ステップS404)。ここで、3次元地図は、緯度、経度、及び高度に基づいて、位置情報が表される。   Further, the control unit 105 includes a three-dimensional map stored in the map database 103, an imaging direction of the video acquisition unit 101, a camera position that is a parameter for determining an imaging range, a camera angle (horizontal angle, elevation angle), a focal length, Based on the image size, the visual field space of the camera in the three-dimensional map space is calculated (step S404). Here, in the three-dimensional map, position information is represented based on latitude, longitude, and altitude.

カメラの視野空間は、例えば、図5に示すような方法で求める。3次元空間において、カメラ位置(視点)Eからカメラ角方向に焦点距離fだけ進んだ点(点F)が求められ、そこに画像サイズに相当する横x縦yの平面(カメラ画面)が視点Eと点Fを結んだベクトルに垂直になるように設定される。次に、制御部105は、視点Eからカメラ画面の4隅の点を結ぶ半直線がつくる3次元空間を求める。この3次元空間は、理論上無限遠まで延びるが、視点Eから適当な距離だけ離れた所で打ち切られ、視野空間とされる。   The visual field space of the camera is obtained by a method as shown in FIG. 5, for example. In a three-dimensional space, a point (point F) advanced from the camera position (viewpoint) E by the focal length f in the camera angle direction is obtained, and a horizontal x vertical y plane (camera screen) corresponding to the image size is the viewpoint. It is set to be perpendicular to the vector connecting E and point F. Next, the control unit 105 obtains a three-dimensional space formed by a half line connecting the viewpoint E to the four corner points of the camera screen. This three-dimensional space theoretically extends to infinity, but is censored at an appropriate distance from the viewpoint E to be a visual field space.

なお、制御部105は、3次元地図の代わりに、3次元地図から高度情報を除いた2次元地図を用い、2次元地図空間におけるカメラの視野空間を算出するようにしても構わない。また、撮像方向と撮像範囲を定めるパラメータは上記のものに限らず、撮像方向と撮像範囲が定まるものであれば、画角等の他のパラメータを用いて算出されても構わない。   Note that the control unit 105 may calculate a visual field space of the camera in the two-dimensional map space using a two-dimensional map obtained by removing altitude information from the three-dimensional map instead of the three-dimensional map. The parameters for determining the imaging direction and the imaging range are not limited to those described above, and may be calculated using other parameters such as an angle of view as long as the imaging direction and the imaging range are determined.

次に、制御部105は、自車が目的地に到達したか否かを判定する(ステップS405)。ステップS405において、目的地に到達していた場合、制御部105は、処理を終了する。一方、ステップS405において、目的地に到達していなかった場合、制御部105は、3次元地図空間内において、カメラの視野空間内に存在する道路とその位置とを検出する道路検出処理を行う(ステップS406)。   Next, the control unit 105 determines whether or not the own vehicle has reached the destination (step S405). If the destination has been reached in step S405, the control unit 105 ends the process. On the other hand, if the destination has not been reached in step S405, the control unit 105 performs a road detection process for detecting the road existing in the camera view space and its position in the three-dimensional map space. Step S406).

道路検出処理では、制御部105は、3次元地図空間において、カメラの視野空間と道路領域との重なりを求める。図6は、道路検出処理で検出される道路を示している。なお、図6は、3次元地図空間とカメラ視野空間とを上方向から見た図である。道路検出処理では、上述したノードデータ、補間ノードデータ、及びリンクデータに基づいて、自車近傍の道路の形状や道路幅が抽出される。そして、図6に示すように、視野空間に囲まれた道路(斜線を付した部分)がカメラの視野空間内に存在する道路として検出される。   In the road detection process, the control unit 105 obtains an overlap between the camera view space and the road area in the three-dimensional map space. FIG. 6 shows a road detected by the road detection process. FIG. 6 is a view of the three-dimensional map space and the camera visual field space as viewed from above. In the road detection process, the shape of the road and the road width in the vicinity of the host vehicle are extracted based on the node data, the interpolation node data, and the link data. Then, as shown in FIG. 6, a road (hatched portion) surrounded by the visual field space is detected as a road existing in the visual field space of the camera.

次に、矢印生成部107は、3次元地図空間において、道路検出処理により検出された道路のうち、経路探索部106によって探索された案内経路に該当する道路に沿った形状の案内矢印を生成する(ステップS407)。   Next, the arrow generation unit 107 generates a guide arrow having a shape along the road corresponding to the guide route searched for by the route search unit 106 among the roads detected by the road detection process in the three-dimensional map space. (Step S407).

矢印制御部108は、案内矢印を直進方向矢印と右左折方向矢印とに分離して、それぞれについて、3次元地図空間において、案内経路に該当する道路上の配置を決定する。この分離処理は、案内矢印を構成するノードの情報に基づいて、どのノードが直進方向矢印と右左折方向矢印との分離点になるのかが判別されることによって行われる。   The arrow control unit 108 separates the guide arrow into a straight direction arrow and a right / left turn direction arrow, and determines an arrangement on the road corresponding to the guide route in each of the three-dimensional map spaces. This separation process is performed by determining which node is the separation point between the straight direction arrow and the right / left turn direction arrow based on the information of the nodes constituting the guide arrow.

図7は、直進方向矢印、及び右左折方向矢印の定義をそれぞれ説明した図である。図7に示すように、走行中の道路(道路R1)上に配置される矢印が直進方向矢印であり、案内対象交差点で右左折した先の道路(道路R2)上に配置される矢印が右左折方向矢印である。なお、図7は、あくまで直進方向矢印、及び右左折方向矢印の定義について説明するものであり、実際に配置処理によって決定された案内矢印の配置を示すものではない。また、案内矢印の形状は、図7に示した矢印図形に限らず、例えば、矢印図形から先端の三角形を除いた折れ線図形を用いても構わない。   FIG. 7 is a diagram for explaining the definitions of the straight direction arrow and the right / left turn direction arrow. As shown in FIG. 7, the arrow arranged on the road (road R1) that is running is the straight direction arrow, and the arrow arranged on the road (road R2) that is turned right and left at the guidance target intersection is the right Left turn direction arrow. Note that FIG. 7 is only for explaining the definition of the straight direction arrow and the right / left turn direction arrow, and does not show the arrangement of the guide arrows actually determined by the arrangement process. Further, the shape of the guide arrow is not limited to the arrow figure shown in FIG. 7, and for example, a polygonal line figure obtained by removing the triangle at the tip from the arrow figure may be used.

矢印制御部108は、案内矢印の配置処理において、直進方向矢印を3次元地図空間の該当する道路上の地平面に平行に重なるように配置する(ステップS408)。一方、矢印制御部108は、自車位置から案内対象交差点までの距離に応じて右左折方向矢印の配置を変更する。具体的には、矢印制御部108は、まず、自車位置から自車が次に通過する案内対象交差点までの距離を算出する(ステップS409)。なお、以降では自車位置から案内対象交差点までの距離は定期的に算出されるものとする。   In the guide arrow arrangement process, the arrow control unit 108 arranges the straight direction arrow so as to overlap in parallel with the ground plane on the corresponding road in the three-dimensional map space (step S408). On the other hand, the arrow control unit 108 changes the arrangement of the right and left turn direction arrows according to the distance from the vehicle position to the guidance target intersection. Specifically, the arrow control unit 108 first calculates the distance from the vehicle position to the next intersection to be guided through which the vehicle passes next (step S409). In the following, the distance from the vehicle position to the guidance target intersection will be calculated periodically.

次に、矢印制御部108は、自車位置から案内対象交差点までの距離Dが所定の値(距離D1)以下か否かを判定する(ステップS410)。ステップS410において、矢印制御部108は、距離Dが距離D1より大きいと判定した場合、右左折方向矢印を配置せずに直進方向矢印のみを配置する。   Next, the arrow control unit 108 determines whether or not the distance D from the vehicle position to the guidance target intersection is equal to or less than a predetermined value (distance D1) (step S410). In step S410, when the arrow control unit 108 determines that the distance D is greater than the distance D1, the arrow control unit 108 arranges only the straight direction arrow without arranging the right / left turn direction arrow.

次に、矢印制御部108は、直進方向矢印を配置すると、直進方向矢印からなる案内矢印の投影処理(ステップS410→S412)に処理を移す。なお、以降では、距離D1は200mであるとして説明を行う。また、自車位置から目的地に至る経路中に案内対象交差点が存在しない場合にも、右左折方向矢印が表示されないこととする。   Next, when the straight control direction arrow is arranged, the arrow control unit 108 shifts the processing to the projection processing of the guide arrow composed of the straight travel direction arrow (steps S410 → S412). In the following description, it is assumed that the distance D1 is 200 m. In addition, even when there is no guidance target intersection in the route from the vehicle position to the destination, the right / left turn direction arrow is not displayed.

一方、ステップS410において、自車位置から案内対象交差点までの距離Dが距離D1(200m)以下であると判定された場合、矢印制御部108は、右左折方向矢印を配置する(ステップS410→S411)。このとき、右左折方向矢印は、3次元地図空間の該当する道路上に、地平面に対して自車位置から案内対象交差点までの距離に応じた角度をつけて配置される。具体的には、右左折方向矢印は、自車位置から案内対象交差点までの距離が近い程、地平面に対する案内矢印の角度θが小さくなるように配置される。例えば、角度θが(式1)を満たすように配置される。
(式1)
θ=90(D>200)
θ=D/2−10(20≦D≦200)
θ=0(0≦D<20)
このとき、角度θは図8に示すように自車位置から案内対象交差点までの距離Dに応じて変化する。図9は、3次元地図空間の道路R1を通り、且つ地平面に垂直な断面から見た図である。図9に示すように、自車位置から案内対象交差点までの距離が200mの場合は、角度θは90度となり、右左折方向矢印は立った状態で配置される(図9(a)参照)。
On the other hand, when it is determined in step S410 that the distance D from the vehicle position to the guidance target intersection is equal to or less than the distance D1 (200 m), the arrow control unit 108 arranges a right / left turn direction arrow (steps S410 → S411). ). At this time, the right / left turn direction arrow is arranged on the corresponding road in the three-dimensional map space with an angle corresponding to the distance from the vehicle position to the guidance target intersection with respect to the ground plane. Specifically, the left and right turn direction arrows are arranged so that the angle θ of the guide arrow with respect to the ground plane becomes smaller as the distance from the vehicle position to the guidance target intersection is shorter. For example, it arrange | positions so that angle (theta) may satisfy | fill (Formula 1).
(Formula 1)
θ = 90 (D> 200)
θ = D / 2-10 (20 ≦ D ≦ 200)
θ = 0 (0 ≦ D <20)
At this time, the angle θ varies according to the distance D from the vehicle position to the guidance target intersection as shown in FIG. FIG. 9 is a view as seen from a cross section passing through the road R1 of the three-dimensional map space and perpendicular to the ground plane. As shown in FIG. 9, when the distance from the own vehicle position to the guidance target intersection is 200 m, the angle θ is 90 degrees, and the right and left turn direction arrows are arranged in a standing state (see FIG. 9A). .

自車位置から案内対象交差点までの距離が近くなるにつれて、案内矢印は立った状態から徐々に寝かせた状態に変化していき(自車位置から案内対象交差点までの距離が100mのとき角度θは40度・図9(b)参照)、自車位置から案内対象交差点までの距離が20mになると右左折方向矢印は、完全に寝かせた状態(道路上の平面に平行に重なる状態)で配置される(図9(c)参照)。   As the distance from the vehicle position to the guidance target intersection decreases, the guidance arrow gradually changes from standing to laying down (when the distance from the vehicle position to the guidance target intersection is 100 m, the angle θ is 40 degrees, see Fig. 9 (b)), when the distance from the vehicle position to the intersection to be guided reaches 20m, the right / left turn direction arrow is placed in a completely laid state (overlapping parallel to the plane on the road) (See FIG. 9C).

次に、矢印制御部108は、右左折方向矢印を配置すると、図5に示すカメラ画面を投影面として、直進方向矢印と右左折方向矢印からなる案内矢印に対して投影処理を行う(ステップS412)。   Next, when the right / left turn direction arrow is arranged, the arrow control unit 108 performs a projection process on the guide arrow composed of the straight direction arrow and the right / left turn direction arrow with the camera screen shown in FIG. 5 as a projection plane (step S412). ).

投影処理において案内矢印が投影される投影面は、映像取得部1のカメラ画面と一致するため、表示制御部109は、図10及び図11に示すように、案内矢印を実写画像上に映っている道路(案内経路に該当)上に重畳して表示部110に表示させる。   Since the projection plane onto which the guide arrow is projected in the projection process coincides with the camera screen of the video acquisition unit 1, the display control unit 109 displays the guide arrow on the live-action image as shown in FIGS. It is displayed on the display unit 110 so as to be superimposed on the existing road (corresponding to the guide route).

図10に示すように、交差点から離れた地点(例えば、交差点手前200m)では、右左折方向矢印が高さを有した状態で表示がなされる。このときの右左折方向矢印は、遠くからでも容易に視認できる程度に充分大きく表示される。   As shown in FIG. 10, at a point away from the intersection (for example, 200 m before the intersection), the display is performed with the right / left turn direction arrow having a height. The right / left turn direction arrow at this time is displayed sufficiently large to be easily visible even from a distance.

また、図11に示すように、交差点に近い地点(例えば、交差点手前20m)では、右左折方向矢印が高さを有さない状態で地平面上に配置されるため、案内矢印が背景画像を隠蔽することはない。   Also, as shown in FIG. 11, at a point close to the intersection (for example, 20 m before the intersection), the right and left turn direction arrows are arranged on the ground plane with no height. There is no concealment.

なお、上述の実施の形態では、案内矢印の地平面に対する角度θは(式1)に従って変更される例を説明したが、これに限らず、自車位置から案内対象交差点までの距離Dが小さくなるに連れて角度θが小さくなるものであれば、どのような式であってもよい。また、案内点までの距離だけでなく、自車の速度等が参照され、角度θが制御されてもよい。   In the above-described embodiment, the example in which the angle θ of the guidance arrow with respect to the ground plane is changed according to (Equation 1) has been described. However, the present invention is not limited to this, and the distance D from the vehicle position to the guidance target intersection is small. As long as the angle θ becomes smaller, any formula may be used. Further, the angle θ may be controlled by referring to not only the distance to the guide point but also the speed of the host vehicle.

また、図12は、図9と同様の断面図であり、図12(a)が自車位置が案内対象交差点から最も離れた地点である場合であり、図12(c)が自車位置が案内対象交差点に最も近い地点である場合である。図12に示すように、自車位置から案内対象交差点までの距離が近くなるに連れて、立体表示された右左折方向矢印の高さが徐々に低くなる。   12 is a cross-sectional view similar to FIG. 9, where FIG. 12 (a) shows a case where the vehicle position is the farthest from the guidance target intersection, and FIG. 12 (c) shows the vehicle position. This is the case where the point is closest to the guidance target intersection. As shown in FIG. 12, the height of the three-dimensionally displayed right / left turn direction arrow gradually decreases as the distance from the vehicle position to the guidance target intersection decreases.

この場合においても、右左折方向矢印の地平面に対する角度θを制御する場合と同様に、交差点から離れた地点における右左折方向矢印の視認性を確保できる一方で、交差点に近づいた地点では右左折方向矢印が背景映像を隠蔽することがない。すなわち、交差点から離れた位置における右左折方向矢印の見易さと交差点直前における背景画像の見易さとが両立された案内表示が行われる。   Even in this case, as in the case of controlling the angle θ of the right / left turn direction arrow with respect to the ground plane, the right / left turn direction arrow can be secured at a point away from the intersection, while at the point approaching the intersection, the right / left turn Direction arrows do not hide the background image. That is, guidance display is performed in which the visibility of the right / left turn direction arrow at a position away from the intersection and the visibility of the background image immediately before the intersection are compatible.

なお、案内オブジェクトは、特開2003−337033号公報第3の実施形態で記載されるのと同じように、地平面上にあるように表示される案内オブジェクトと、その上方に別個に立体表示される案内オブジェクトとの2つの別個の案内オブジェクトから構成されていてもよい。上方に別個に立体表示される案内オブジェクトとは、例えば、図13における鏃形状オブジェクトである。なお、ここでいう立体表示とは、既定の形態では地平面内に表示されるオブジェクトを、地平面内ではなく、高さ方向に表示することをいう。このとき、オブジェクト制御部108の制御対象となるオブジェクトは、鏃形状オブジェクトとすれば、上記と同様の効果を発揮することができる。   As described in the third embodiment of Japanese Patent Application Laid-Open No. 2003-337033, the guidance object is displayed as a three-dimensional image separately from the guidance object displayed on the ground plane. May be composed of two separate guidance objects. The guidance object that is separately displayed in a three-dimensional upward direction is, for example, a bowl-shaped object in FIG. The three-dimensional display here refers to displaying an object displayed in the ground plane in the height direction, not in the ground plane in a default form. At this time, if the object to be controlled by the object control unit 108 is a bowl-shaped object, the same effects as described above can be exhibited.

また、 案内オブジェクトが2つの別個の案内オブジェクトから構成される場合、オブジェクト制御部108は上方の別個に立体表示される案内オブジェクトの大きさを制御するのではなく、透明度を制御するようにしても良い。   In addition, when the guide object is composed of two separate guide objects, the object control unit 108 may control the transparency of the guide object that is displayed in a three-dimensional manner above, instead of controlling the size of the guide object. good.

具体的には、上方の別個に立体表示される案内オブジェクトは、自車位置から案内点までの距離が近い程、案内オブジェクトの透明度αが大きくなるように配置される。例えば、透明度αが(式2)を満たすように配置される。
(式2)
α=0(D>200)
α=−5D/9+1000/9(20≦D≦200)
α=100(0≦D<20)
このとき、透明度αは図14に示すように自車位置から案内点までの距離Dに応じて変化する。これによって、交差点から離れた地点における上方の別個に立体表示される案内オブジェクトの視認性を確保できる一方で、交差点に近づいた地点では上方の別個に立体表示される案内オブジェクトは透明になるので背景映像を隠蔽することがない。すなわち、交差点から離れた位置における上方の別個に立体表示される案内オブジェクトの見易さと交差点直前における背景画像の見易さとが両立された案内表示が行われる。
Specifically, the guidance object that is separately displayed in the upper part is arranged such that the transparency α of the guidance object increases as the distance from the vehicle position to the guidance point becomes shorter. For example, it arrange | positions so that transparency (alpha) may satisfy | fill (Formula 2).
(Formula 2)
α = 0 (D> 200)
α = −5D / 9 + 1000/9 (20 ≦ D ≦ 200)
α = 100 (0 ≦ D <20)
At this time, the transparency α changes in accordance with the distance D from the vehicle position to the guide point as shown in FIG. As a result, it is possible to ensure the visibility of the upper three-dimensionally displayed guidance object at a point away from the intersection, while the upper three-dimensional guidance object is transparent at the point approaching the intersection. The video is not hidden. In other words, guidance display is performed in which the visibility of the separately displayed three-dimensional guidance object at a position away from the intersection is compatible with the visibility of the background image immediately before the intersection.

また、上述の実施の形態では、車両の前方を向いたカメラで撮像された実写画像が用いられる例を説明したが、予め記憶媒体に保存されている実写画像や通信によって取得した実写画像上に案内オブジェクトが重畳表示される場合に適用しても構わない。   In the above-described embodiment, an example is described in which a live-action image captured by a camera facing the front of the vehicle is used. However, on a live-action image stored in advance in a storage medium or a real-action image acquired by communication. You may apply when a guidance object is superimposed and displayed.

また、上述の実施の形態では、実写画像によるドライバーズビュー表示に適用される場合について説明したが、特に、視点高度を車両の高さ程度まで下げて運転者の目線で見た状態の三次元地図表示によるドライバーズビュー表示が行われる場合に本発明が適用されても同様の効果を得ることができる。   Further, in the above-described embodiment, the case where it is applied to the driver's view display by a live-action image has been described. In particular, the three-dimensional state in which the viewpoint altitude is lowered to about the height of the vehicle and viewed from the driver's perspective Even when the present invention is applied when the driver's view display by the map display is performed, the same effect can be obtained.

このように、本発明によれば、自車位置から案内点までの距離に基づいて、3次元空間画像の地平面に対する案内矢印の右左折方向を指示する部分の表示上の大きさ、又は透明度を制御することによって、案内点の直前において、案内矢印によって背景画像が隠蔽されてしまうことを軽減するナビゲーション装置を提供することができる。特に、実写画像に案内オブジェクトを重畳する表示方法において、実風景と案内画面の対比が取り辛くなり、ユーザに対して直感的な経路誘導を行うことが困難となる問題を回避することができる。   As described above, according to the present invention, the display size or transparency of the portion that indicates the right / left turn direction of the guide arrow with respect to the ground plane of the three-dimensional space image based on the distance from the vehicle position to the guide point. By controlling this, it is possible to provide a navigation device that reduces the fact that the background image is hidden by the guide arrow immediately before the guide point. In particular, in the display method in which the guidance object is superimposed on the photographed image, it is difficult to compare the actual scenery with the guidance screen, and it is possible to avoid the problem that it is difficult to perform intuitive route guidance for the user.

また、上述の実施の形態では、右左折方向を指示する部分の角度、又は高さが制御される例を示したが、例えば、道路形状がカーブしている場合、右左折方向を指示する形状を成した当該カーブの区間の部分の角度、又は高さが制御される構成としてもよい。   Further, in the above-described embodiment, an example in which the angle or height of the portion that indicates the right / left turn direction is controlled has been shown. However, for example, when the road shape is curved, the shape that indicates the right / left turn direction It is good also as a structure by which the angle or the height of the part of the section of the said curve which comprised is controlled.

上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成を採用することが可能である。   The configuration described in the above embodiment is merely a specific example and does not limit the technical scope of the present invention. Any configuration can be employed within the scope of the effects of the present application.

本発明のナビゲーション装置は、車両に設置されるカーナビゲーション装置等として有用である。また、携帯電話におけるナビゲーション装置等としても有用である。   The navigation device of the present invention is useful as a car navigation device installed in a vehicle. It is also useful as a navigation device for mobile phones.

本発明の実施の形態に係るナビゲーション装置の全体構成を示すブロック図The block diagram which shows the whole structure of the navigation apparatus which concerns on embodiment of this invention 地図データベースに記憶されている情報の一例を示す図The figure which shows an example of the information memorize | stored in the map database 地図データベースに記憶されているノード、補間ノード、及びリンクにより形成される道路と分岐点のネットワークの一例を示す図The figure which shows an example of the network of the road and branch point formed by the node memorize | stored in the map database, an interpolation node, and a link 本発明の実施の形態に係るナビゲーション装置の動作を示すフロー図The flowchart which shows operation | movement of the navigation apparatus concerning embodiment of this invention. 3次元地図空間におけるカメラ視野空間の設定方法を示す図The figure which shows the setting method of the camera visual field space in 3D map space 道路検出処理によって検出される道路を示す図The figure which shows the road which is detected by road detection processing 直進方向矢印と右左折方向矢印の定義を示す図Diagram showing definition of straight direction arrow and right / left turn direction arrow 距離Dと角度θの関係を示す図The figure which shows the relationship between distance D and angle (theta) 右左折方向矢印と地平面との角度θを示す断面図Sectional view showing angle θ between right / left turn direction arrow and ground plane 案内対象交差点から離れた地点における案内矢印を示す図The figure which shows the guidance arrow in the point which is far from the guidance object intersection 案内対象交差点に近づいた地点における案内矢印を示す図The figure which shows the guidance arrow in the point which approached the guidance object intersection 距離と高さの関係を示す図Diagram showing the relationship between distance and height 従来技術の案内対象交差点から離れた地点における案内矢印を示す図The figure which shows the guidance arrow in the point away from the guidance object intersection of a prior art 距離と透明度の関係を示す図Diagram showing the relationship between distance and transparency 従来技術の案内対象交差点から離れた地点における案内矢印を示す図The figure which shows the guidance arrow in the point away from the guidance object intersection of a prior art 従来技術の案内対象交差点から近い地点における案内矢印を示す図The figure which shows the guidance arrow in the point near from the guidance object intersection of a prior art

符号の説明Explanation of symbols

100 ナビゲーション装置
101 映像取得部
102 測位部
103 地図データベース
104 入力部
105 制御部
106 経路探索部
107 矢印制御部
108 矢印生成部
109 表示制御部
110 表示部
DESCRIPTION OF SYMBOLS 100 Navigation apparatus 101 Image | video acquisition part 102 Positioning part 103 Map database 104 Input part 105 Control part 106 Route search part 107 Arrow control part 108 Arrow generation part 109 Display control part 110 Display part

Claims (11)

案内オブジェクトを生成するオブジェクト生成部と、
自車位置から案内点までの距離に基づいて、前記案内オブジェクトの所定部分について、表示上の大きさ、又は透明度を制御するオブジェクト制御部と、
前記オブジェクト制御部が制御して得られる前記案内オブジェクトに基づいて、ドライバーズビューによってナビゲーション表示する表示制御部とを備える、ナビゲーション装置。
An object generation unit for generating a guidance object;
Based on the distance from the vehicle position to the guide point, for a predetermined portion of the guide object, an object control unit that controls the display size, or transparency,
A navigation apparatus comprising: a display control unit that performs navigation display using a driver's view based on the guidance object obtained by the control of the object control unit.
前記オブジェクト制御部は、自車位置から案内点までの距離に基づいて、前記案内オブジェクトの所定部分について、傾きを制御することにより、表示上の大きさを制御することを特徴とする、請求項1に記載のナビゲーション装置。   The object control unit controls a display size by controlling an inclination of a predetermined portion of the guide object based on a distance from a vehicle position to a guide point. The navigation device according to 1. 前記オブジェクト制御部は、自車位置から案内点までの距離に基づいて、前記案内オブジェクトのうち、右左折を指示する部分について、角度を制御することにより、傾きを制御することを特徴とする、請求項2に記載のナビゲーション装置。   The object control unit is configured to control the inclination by controlling the angle of a portion instructing a right / left turn among the guide objects based on a distance from the vehicle position to a guide point. The navigation device according to claim 2. 前記オブジェクト制御部は、自車位置から案内点までの距離が近い程、前記角度を小さくすることを特徴とする、請求項3に記載のナビゲーション装置。   The navigation device according to claim 3, wherein the object control unit decreases the angle as the distance from the vehicle position to the guide point is shorter. 前記オブジェクト制御部は、前記角度を90度から0度の範囲内で小さくすることを特徴とする請求項4に記載のナビゲーション装置。   The navigation device according to claim 4, wherein the object control unit reduces the angle within a range of 90 degrees to 0 degrees. 前記オブジェクト制御部は、自車位置から案内点までの距離に基づいて、前記案内オブジェクトの所定部分について、高さを制御することにより、表示上の大きさを制御することを特徴とする、請求項1に記載のナビゲーション装置。   The object control unit controls a display size by controlling a height of a predetermined portion of the guide object based on a distance from a vehicle position to a guide point. Item 4. The navigation device according to Item 1. 前記オブジェクト制御部は、自車位置から案内点までの距離に基づいて、前記案内オブジェクトのうち、右左折を指示する部分について、高さを制御することを特徴とする、請求項6に記載のナビゲーション装置。   The said object control part controls the height about the part which instruct | indicates the left-right turn among the said guidance objects based on the distance from the own vehicle position to a guidance point, The said Claim 6 characterized by the above-mentioned. Navigation device. 前記オブジェクト制御部は、自車位置から案内点までの距離が近い程、前記高さを低くすることを特徴とする、請求項7に記載のナビゲーション装置。   The navigation apparatus according to claim 7, wherein the object control unit lowers the height as the distance from the vehicle position to the guide point is shorter. 前記オブジェクト制御部は、前記案内オブジェクトのうち、右左折を指示する部分について、自車位置から案内点までの距離が近くなる程、透明度を大きくすることを特徴とする、請求項1に記載のナビゲーション装置。   2. The object control unit according to claim 1, wherein the object control unit increases transparency as a distance from the vehicle position to the guide point becomes closer to a portion instructing a right or left turn in the guide object. Navigation device. 前記表示制御部は、3次元地図画像上に前記案内オブジェクトを重畳表示させることを特徴とする、請求項1〜9のいずれかに記載のナビゲーション装置。   The navigation apparatus according to claim 1, wherein the display control unit displays the guidance object on a three-dimensional map image in a superimposed manner. 前記表示制御部は、実写画像上に前記案内オブジェクトを重畳表示させることを特徴とする、請求項1〜9のいずれかに記載のナビゲーション装置。   The navigation apparatus according to any one of claims 1 to 9, wherein the display control unit displays the guidance object in a superimposed manner on a live-action image.
JP2007548632A 2006-06-05 2007-05-29 Navigation device Pending JPWO2007142084A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006156154 2006-06-05
JP2006156154 2006-06-05
PCT/JP2007/060922 WO2007142084A1 (en) 2006-06-05 2007-05-29 Navigation device

Publications (1)

Publication Number Publication Date
JPWO2007142084A1 true JPWO2007142084A1 (en) 2009-10-22

Family

ID=38801341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007548632A Pending JPWO2007142084A1 (en) 2006-06-05 2007-05-29 Navigation device

Country Status (2)

Country Link
JP (1) JPWO2007142084A1 (en)
WO (1) WO2007142084A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11193785B2 (en) 2017-12-28 2021-12-07 Alpine Electronics, Inc. In-vehicle system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5275963B2 (en) * 2009-12-08 2013-08-28 株式会社東芝 Display device, display method, and moving body
JP5935636B2 (en) * 2012-09-28 2016-06-15 アイシン・エィ・ダブリュ株式会社 Intersection guidance system, method and program
JP7048202B2 (en) * 2015-07-08 2022-04-05 日産自動車株式会社 Display device for vehicles and display method for vehicles
CN108139223A (en) 2015-09-30 2018-06-08 日产自动车株式会社 Display apparatus
JP6195960B2 (en) * 2016-08-26 2017-09-13 株式会社オプティム Remote instruction method and remote terminal program
JP6946963B2 (en) * 2017-11-17 2021-10-13 株式会社アイシン Superimposed image display device and computer program
JP2019197060A (en) * 2019-06-21 2019-11-14 パイオニア株式会社 Display device, program, and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262492A (en) * 1994-03-25 1995-10-13 Alpine Electron Inc On-vehicle navigator
JP3708221B2 (en) * 1996-06-05 2005-10-19 松下電器産業株式会社 Traveling position display device
JP3447900B2 (en) * 1996-09-13 2003-09-16 アルパイン株式会社 Navigation device
JPH10103997A (en) * 1996-09-27 1998-04-24 Toyota Motor Corp Course guide system for vehicle
JP2000155895A (en) * 1998-11-24 2000-06-06 Sony Corp Navigation device
JP4248170B2 (en) * 2001-09-13 2009-04-02 アルパイン株式会社 Navigation device
JP4255000B2 (en) * 2003-01-29 2009-04-15 株式会社ザナヴィ・インフォマティクス Car navigation system and map image display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11193785B2 (en) 2017-12-28 2021-12-07 Alpine Electronics, Inc. In-vehicle system

Also Published As

Publication number Publication date
WO2007142084A1 (en) 2007-12-13

Similar Documents

Publication Publication Date Title
JP4550927B2 (en) Navigation device
JP4560090B2 (en) Navigation device and navigation method
JP6717742B2 (en) Device and method for displaying navigation instructions
JP4895313B2 (en) Navigation apparatus and method
JP2009020089A (en) System, method, and program for navigation
JP4679182B2 (en) Map display method, map display program, and map display device
JPWO2007142084A1 (en) Navigation device
CN101573590A (en) Navigation device and method for displaying navigation information
JP2008014974A (en) Navigation device
JP2007121001A (en) Navigation device
US20130076876A1 (en) 3dimension stereoscopic display device
US20110288763A1 (en) Method and apparatus for displaying three-dimensional route guidance
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP4105609B2 (en) 3D display method for navigation and navigation apparatus
JP2007256048A (en) Navigation system
JP2007206014A (en) Navigation device
JP2008002965A (en) Navigation device and method therefor
JPWO2011121788A1 (en) Navigation device, information display device, navigation method, navigation program, and recording medium
WO2009118911A1 (en) Map display, navigation device, generating method, map image generating program, and computer-readable recording medium
JP2007263849A (en) Navigation device
JP4528739B2 (en) Navigation system, route search server, terminal device, and map display method
KR20080019690A (en) Navigation device with camera-info
JP5438172B2 (en) Information display device, information display method, information display program, and recording medium
JP2007322371A (en) Navigation apparatus
JP4472423B2 (en) Navigation device