JP2017032436A - Movement guide system, movement guide method and computer program - Google Patents

Movement guide system, movement guide method and computer program Download PDF

Info

Publication number
JP2017032436A
JP2017032436A JP2015153430A JP2015153430A JP2017032436A JP 2017032436 A JP2017032436 A JP 2017032436A JP 2015153430 A JP2015153430 A JP 2015153430A JP 2015153430 A JP2015153430 A JP 2015153430A JP 2017032436 A JP2017032436 A JP 2017032436A
Authority
JP
Japan
Prior art keywords
guidance
dimensional image
guidance intersection
intersection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015153430A
Other languages
Japanese (ja)
Inventor
宮本 慎也
Shinya Miyamoto
慎也 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2015153430A priority Critical patent/JP2017032436A/en
Publication of JP2017032436A publication Critical patent/JP2017032436A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a movement guide system, movement guide method and computer program that enable more appropriate structure to be selected as a landmark at a guide crossing point in implementing a movement guide along a guide route.SOLUTION: A movement guide system is configured to: acquire a guide route set to a navigation device 1; render a three-dimensional image of a guide crossing point with an advancing direction of a vehicle as a line-of-sight direction; extract a characteristic point of the rendered three-dimensional image of the guide crossing point; specify a structure having the extracted characteristic point concentrated of a structure included in the rendered three-dimensional image of the guide crossing point as a landmark structure; and when a vehicle approaches within a prescribed distance with respect to the guide crossing point, display the three-dimensional image of the guide crossing point so as to make a display form of the landmark structure different in a form from a display form of other structure.SELECTED DRAWING: Figure 4

Description

本発明は、車両等の移動体の移動を案内する移動案内システム、移動案内方法及びコンピュータプログラムに関する。   The present invention relates to a movement guidance system, a movement guidance method, and a computer program for guiding movement of a moving body such as a vehicle.

近年、車両の走行案内を行い、運転者が所望の目的地に容易に到着できるようにしたナビゲーション装置が車両に搭載されていることが多い。ここで、ナビゲーション装置とは、GPS受信機などにより自車の現在位置を検出し、その現在位置に対応する地図データをDVD−ROMやHDDなどの記録媒体またはネットワークを通じて取得して液晶モニタに表示することが可能な装置である。更に、かかるナビゲーション装置には、所望する目的地を入力すると、自車位置から目的地までの推奨経路を探索する経路探索機能を備えている。そして、探索結果に基づいて設定された案内経路をディスプレイ画面に表示するとともに、右左折等の案内の対象となる交差点(以下、案内交差点という)に接近した場合には音声やディスプレイ画面を用いた案内を行うことによって、ユーザを所望の目的地まで確実に案内するようになっている。また、近年は携帯電話機、スマートフォン、タブレット型端末、パーソナルコンピュータ等においても上記ナビゲーション装置と同様の機能を有するものがある。   2. Description of the Related Art In recent years, a navigation device is often mounted on a vehicle that provides vehicle travel guidance so that a driver can easily arrive at a desired destination. Here, the navigation device detects the current position of the vehicle by a GPS receiver or the like, acquires map data corresponding to the current position through a recording medium such as a DVD-ROM or HDD or a network, and displays it on a liquid crystal monitor. It is a device that can do. Furthermore, such a navigation device has a route search function for searching for a recommended route from the vehicle position to the destination when a desired destination is input. Then, the guidance route set based on the search result is displayed on the display screen, and when approaching an intersection (hereinafter referred to as a guidance intersection) for guidance such as a right or left turn, a voice or a display screen is used. By performing the guidance, the user is surely guided to a desired destination. In recent years, some mobile phones, smartphones, tablet terminals, personal computers, and the like have functions similar to those of the navigation device.

ここで、上記ナビゲーション装置等による案内では、特に案内交差点の案内を行う場合において、案内交差点の位置をユーザに正確に把握させることが重要である。そこで、従来では車両が案内交差点に対して所定距離以内に接近した場合において、案内交差点を拡大した画像を別途表示することが行われている。また、案内交差点の画像としては、2次元の上面図以外に、よりユーザの視界に近い3次元画像を表示することについても行われている。更に、例えば特開2010−71998号公報には、案内交差点に目印となる施設がある場合に、目印となる施設の色を目立つ色に変更することによって、案内交差点をより確実に特定させる技術について提案されている。   Here, in the guidance by the navigation device or the like, it is important that the user accurately grasps the position of the guidance intersection, particularly when guidance of the guidance intersection is performed. Therefore, conventionally, when the vehicle approaches the guidance intersection within a predetermined distance, an image in which the guidance intersection is enlarged is separately displayed. In addition to the two-dimensional top view, as a guidance intersection image, a three-dimensional image closer to the user's field of view is also displayed. Further, for example, in Japanese Patent Application Laid-Open No. 2010-71998, when there is a facility that is a landmark at a guidance intersection, a technique for more reliably specifying the guidance intersection by changing the color of the landmark facility to a prominent color. Proposed.

特開2010−71998号公報(第9頁、図7)JP 2010-71998 A (page 9, FIG. 7)

ここで、上記特許文献1に記載された技術では、目印となる施設をガソリンスタンドやコンビニエンスストア等の特定のジャンルの施設としている。しかしながら、実際に上記特定のジャンルの施設が、案内交差点において目印となるような目立つ施設となっているか否かは保証されていない。例えば、上記特定のジャンル以外の施設で特徴的な外観形状を有し、目印としてより適切な施設が周辺に存在する案内交差点もある。また、上記特許文献1に記載された技術では、上記特定のジャンルの施設が無い案内交差点においては、目印となる施設を用いた案内を行うことができない問題もある。   Here, in the technique described in the above-mentioned Patent Document 1, a facility serving as a mark is a facility of a specific genre such as a gas station or a convenience store. However, it is not guaranteed whether the facility of the specific genre is actually a conspicuous facility that serves as a landmark at the guidance intersection. For example, there is a guide intersection where a facility other than the specific genre has a characteristic external shape and a more appropriate facility exists as a landmark. In addition, the technique described in Patent Document 1 has a problem that guidance using a facility as a landmark cannot be performed at a guidance intersection where there is no facility of the specific genre.

本発明は前記従来における問題点を解消するためになされたものであり、案内経路に沿った移動案内を行う場合において、より適切な構造物を案内交差点の目印として選択することを可能とした移動案内システム、移動案内方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and in performing movement guidance along a guidance route, it is possible to select a more appropriate structure as a guide intersection mark. An object is to provide a guidance system, a movement guidance method, and a computer program.

前記目的を達成するため本発明に係る移動案内システムは、移動体の移動を案内する案内経路を取得する案内経路取得手段と、前記案内経路において案内対象となる案内交差点の3次元画像を前記移動体の進行方向を視線方向としてレンダリングする画像生成手段と、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像の特徴点を抽出する特徴点抽出手段と、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像に含まれる構造物の内、前記特徴点抽出手段により抽出された前記特徴点が集中する構造物を目印構造物として特定する目印構造物特定手段と、前記移動体が前記案内交差点に対して案内対象距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示する画像表示手段と、を有する。
尚、「移動体」としては、車両以外に、歩行者や二輪車も含む。
また、「案内交差点」とは、案内経路に従って移動体の移動の案内を行う際に、右左折指示等の案内を行う対象となる交差点が該当する。
In order to achieve the above object, a movement guidance system according to the present invention includes a guidance route acquisition means for acquiring a guidance route for guiding the movement of a moving object, and a three-dimensional image of a guidance intersection that is a guidance target in the guidance route. Image generation means for rendering the direction of body movement as the line-of-sight direction, feature point extraction means for extracting feature points of the three-dimensional image of the guidance intersection rendered by the image generation means, and rendering by the image generation means Marking structure specifying means for specifying as a mark structure a structure where the feature points extracted by the feature point extracting means are concentrated among structures included in the three-dimensional image of the guidance intersection, and the moving body When approaching within the guidance target distance to the guidance intersection, the three-dimensional image of the guidance intersection is displayed in a different display form of the landmark structure. It includes an image display means for displaying in the display form different from the form of creation, the.
The “moving body” includes a pedestrian and a two-wheeled vehicle in addition to the vehicle.
In addition, the “guide intersection” corresponds to an intersection that is a target for performing guidance such as a right / left turn instruction when performing guidance of movement of the moving object according to the guidance route.

また、本発明に係る移動案内方法は、案内経路に沿って移動する移動体の案内を行う方法である。具体的には、案内経路取得手段が、移動体の移動を案内する案内経路を取得するステップと、画像生成手段が、前記案内経路において案内対象となる案内交差点の3次元画像を前記移動体の進行方向を視線方向としてレンダリングするステップと、特徴点抽出手段が、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像の特徴点を抽出するステップと、目印構造物特定手段が、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像に含まれる構造物の内、前記特徴点抽出手段により抽出された前記特徴点が集中する構造物を目印構造物として特定するステップと、画像表示手段が、前記移動体が前記案内交差点に対して案内対象距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示するステップと、を有する。   Moreover, the movement guide method according to the present invention is a method for guiding a moving body that moves along a guide route. Specifically, the guide route acquisition unit acquires a guide route for guiding the movement of the moving body, and the image generation unit displays a three-dimensional image of the guidance intersection to be guided in the guide route of the moving body. Rendering the traveling direction as a line-of-sight direction, a feature point extracting unit extracting a feature point of the three-dimensional image of the guidance intersection rendered by the image generating unit, and a landmark structure specifying unit including the image A step of identifying a structure in which the feature points extracted by the feature point extraction unit are concentrated as a landmark structure among the structures included in the three-dimensional image of the guidance intersection rendered by the generation unit; When the moving body approaches the guidance intersection within a guidance target distance, the means displays the three-dimensional image of the guidance intersection as the mark. It has a step of displaying by the display form of creation on display form different from the form of other structures, a.

また、本発明に係るコンピュータプログラムは、案内経路に沿って移動する移動体の案内を行うプログラムである。具体的には、コンピュータを、移動体の移動を案内する案内経路を取得する案内経路取得手段と、前記案内経路において案内対象となる案内交差点の3次元画像を前記移動体の進行方向を視線方向としてレンダリングする画像生成手段と、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像の特徴点を抽出する特徴点抽出手段と、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像に含まれる構造物の内、前記特徴点抽出手段により抽出された前記特徴点が集中する構造物を目印構造物として特定する目印構造物特定手段と、前記移動体が前記案内交差点に対して案内対象距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示する画像表示手段と、して機能させる為のコンピュータプログラムである。   The computer program according to the present invention is a program for guiding a moving body that moves along a guidance route. Specifically, the computer uses a guide route acquisition means for acquiring a guide route for guiding the movement of the moving body, a three-dimensional image of a guidance intersection to be guided in the guide route, and the direction of travel of the moving body as a line-of-sight direction. Image generating means for rendering as, a feature point extracting means for extracting feature points of the three-dimensional image of the guidance intersection rendered by the image generation means, and a three-dimensional image of the guidance intersection rendered by the image generation means Among the structures included in the structure, the landmark structure specifying means for specifying the structure where the feature points extracted by the feature point extracting means are concentrated as a landmark structure, and the moving body guiding the guide intersection When approaching within a target distance, the three-dimensional image of the guidance intersection is displayed in a form different from the display form of the other structure. Image display means for and displaying on a computer program for causing to function.

前記構成を有する本発明に係る移動案内システム、移動案内方法及びコンピュータプログラムによれば、レンダリングされた案内交差点の3次元画像の特徴点を抽出することによって、案内交差点で目印となる構造物を特定するので、ユーザが案内交差点周辺を視認した場合に、ジャンルに関わらずにより目立つ構造物、即ち目印としてより適切な構造物を案内交差点の案内を行う場合の目印として選択することが可能となる。その結果、案内交差点付近に移動体が到達した場合に、ユーザが視認する周辺環境から目印となる構造物を基準として案内交差点を正確に特定することが可能となる。また、従来技術と比較して特定のジャンルの施設が周辺に存在しない案内交差点に対しても目印を用いた案内交差点の案内を行うことが可能となる。   According to the movement guidance system, the movement guidance method, and the computer program according to the present invention having the above-described configuration, the feature point of the three-dimensional image of the rendered guidance intersection is extracted, and the structure that becomes the landmark at the guidance intersection is specified. Therefore, when the user visually recognizes the vicinity of the guidance intersection, it becomes possible to select a structure that is more conspicuous regardless of the genre, that is, a structure that is more appropriate as a landmark, as a landmark when guiding the guidance intersection. As a result, when the mobile body reaches the vicinity of the guidance intersection, it is possible to accurately identify the guidance intersection with reference to the structure serving as a mark from the surrounding environment visually recognized by the user. In addition, it is possible to guide a guidance intersection using a mark even for a guidance intersection where a facility of a specific genre does not exist in the vicinity as compared with the conventional technology.

本実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on this embodiment. 本実施形態に係る走行案内処理プログラムのフローチャートである。It is a flowchart of the travel guidance processing program which concerns on this embodiment. 車両が案内交差点まで第1距離以内に接近した場合に、液晶ディスプレイに表示される案内交差点の3次元画像を示した図である。It is the figure which showed the three-dimensional image of the guidance intersection displayed on a liquid crystal display, when a vehicle approaches within a 1st distance to a guidance intersection. 車両が案内交差点まで第2距離以内に接近した場合に、液晶ディスプレイに表示される案内交差点の3次元画像を示した図である。It is the figure which showed the three-dimensional image of the guidance intersection displayed on a liquid crystal display, when a vehicle approaches within a 2nd distance to a guidance intersection. 目印構造物特定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a mark structure specific process. 目印構造物を特定する処理について説明した図である。It is a figure explaining the process which specifies a mark structure. 目印構造物を特定する処理について説明した図である。It is a figure explaining the process which specifies a mark structure.

以下、本発明に係る移動案内システムをナビゲーション装置に具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。   DETAILED DESCRIPTION Hereinafter, a mobile guidance system according to the present invention will be described in detail with reference to the drawings based on an embodiment in which the navigation apparatus is embodied. First, a schematic configuration of the navigation device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to this embodiment.

図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図や案内交差点の3次元画像等を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有する。   As shown in FIG. 1, the navigation device 1 according to the present embodiment includes a current position detection unit 11 that detects a current position of a vehicle on which the navigation device 1 is mounted, a data recording unit 12 that records various data, A navigation ECU 13 that performs various arithmetic processes based on input information, an operation unit 14 that receives operations from the user, and a liquid crystal display that displays a map around the vehicle, a three-dimensional image of a guidance intersection, and the like to the user. 15, a speaker 16 that outputs voice guidance regarding route guidance, a DVD drive 17 that reads a DVD as a storage medium, and an information center such as a probe center or a VICS (registered trademark: Vehicle Information and Communication System) center. And a communication module 18 for performing communication.

以下に、ナビゲーション装置1が有する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which the navigation apparatus 1 has is demonstrated in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 13. And navigation ECU13 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. Note that the navigation device 1 does not have to include all the four types of sensors, and the navigation device 1 may include only one or more types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や画像素材DB32や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクにより構成しても良い。また、地図情報DB31や画像素材DB32は外部のサーバに格納させ、ナビゲーション装置1が通信により取得する構成としても良い。   The data recording unit 12 reads an external storage device and a hard disk (not shown) as a recording medium, a map information DB 31 recorded on the hard disk, an image material DB 32, a predetermined program, and the like, and stores predetermined data on the hard disk. And a recording head (not shown) as a driver for writing. The data recording unit 12 may be configured by a memory card, an optical disk such as a CD or a DVD, instead of the hard disk. Further, the map information DB 31 and the image material DB 32 may be stored in an external server, and the navigation device 1 may be configured to acquire by communication.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ33、ノード点に関するノードデータ34、各交差点に関する交差点データ35、施設等の地点に関する地点データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等が記憶された記憶手段である。   Here, the map information DB 31 is, for example, link data 33 relating to roads (links), node data 34 relating to node points, intersection data 35 relating to each intersection, point data relating to points such as facilities, and map display data for displaying a map. The storage means stores search data for searching for routes, search data for searching for points, and the like.

ここで、リンクデータ33としては、例えば、該リンクを識別するリンクID、該リンクの端部に位置するノードを特定する端部ノード情報、該リンクを構成する道路の道路種別、車線数、道路幅等が記憶される。また、ノードデータ34としては、該ノードを識別するノードID、該ノードの位置座標、該ノードがリンクを介して接続される接続先ノードを特定する接続先ノード情報等が記憶される。また、交差点データ35としては、該交差点を形成するノードを特定する該当ノード情報、該交差点に接続されるリンク(以下、接続リンクという)を特定する接続リンク情報等が記憶される。   Here, as the link data 33, for example, a link ID for identifying the link, end node information for specifying a node located at the end of the link, the road type of the road constituting the link, the number of lanes, the road The width and the like are stored. The node data 34 stores a node ID for identifying the node, position coordinates of the node, connection destination node information for specifying a connection destination node to which the node is connected via a link, and the like. In addition, as the intersection data 35, relevant node information for specifying nodes forming the intersection, connection link information for specifying a link connected to the intersection (hereinafter referred to as a connection link), and the like are stored.

また、交差点データ35には、全国の交差点毎に案内交差点の3次元画像を作成する為に必要な各種データについても記憶されている。ここで、案内交差点とは、案内経路に従って車両の走行の案内を行う際に、右左折指示等の案内を行う対象となる交差点である。尚、案内交差点の3次元画像は後述のように車両が案内交差点に対して所定距離内に接近した場合に液晶ディスプレイ15に対して表示され、車両の進行方向を視線方向として案内交差点付近を拡大して示した3次元画像(3DCG)である。具体的には、交差点で接続される道路や交差点周辺にある構造物(建物、高架、看板、信号機、樹木等)の形状や位置を特定する情報、モデリングされたオブジェクトのマテリアル設定、モデリングされたオブジェクトのどの面に対してどのテクスチャを張り付けるかを特定する情報等が記憶される。尚、交差点データ35としてはモデリングする為のデータの代わりにモデリング済みのオブジェクトに関するデータを記憶する構成としても良い。また、全国にある全ての交差点に対して3次元画像を作成する為に必要となるデータを記憶する必要は無く、細街路の交差点等については除外しても良い。   The intersection data 35 also stores various data necessary for creating a three-dimensional image of the guidance intersection for every intersection in the country. Here, the guidance intersection is an intersection to which guidance such as a right / left turn instruction is given when guidance for traveling of the vehicle is performed according to the guidance route. A three-dimensional image of the guidance intersection is displayed on the liquid crystal display 15 when the vehicle approaches the guidance intersection within a predetermined distance as will be described later, and the vicinity of the guidance intersection is enlarged with the traveling direction of the vehicle as the line-of-sight direction. It is the three-dimensional image (3DCG) shown. Specifically, information specifying the shape and position of roads connected at intersections and structures around buildings (buildings, overpasses, signboards, traffic lights, trees, etc.), material settings for modeled objects, and modeling Information for specifying which texture is to be applied to which surface of the object is stored. The intersection data 35 may be configured to store data relating to a modeled object instead of data for modeling. In addition, it is not necessary to store data necessary for creating a three-dimensional image for all intersections in the whole country, and intersections on narrow streets may be excluded.

一方、画像素材DB32は、上記案内交差点の3次元画像を作成する際に用いられる各種画像データが記憶された記憶手段である。例えば、オブジェクトに張り付ける為のテクスチャの画像(ビル壁面の画像、道路の路面の画像等)が記憶される。   On the other hand, the image material DB 32 is a storage unit that stores various image data used when creating a three-dimensional image of the guidance intersection. For example, a texture image (image of a building wall surface, an image of a road surface of a road, etc.) to be attached to an object is stored.

また、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行案内処理プログラム(図2)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、案内経路取得手段は、移動体(車両)の移動を案内する案内経路を取得する。画像生成手段は、案内経路において案内対象となる案内交差点の3次元画像を移動体の進行方向を視線方向としてレンダリングする。特徴点抽出手段は、画像生成手段によりレンダリングされた案内交差点の3次元画像の特徴点を抽出する。目印構造物特定手段は、画像生成手段によりレンダリングされた案内交差点の3次元画像に含まれる構造物の内、特徴点抽出手段により抽出された特徴点が集中する構造物を目印構造物として特定する。画像表示手段は、移動体が案内交差点に対して案内対象距離以内に接近した場合に、案内交差点の3次元画像を、目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示する。   The navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the entire navigation device 1. The CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. Read out from the ROM 43 and the ROM 43 in which a RAM 42 that stores route data when the route is searched, a control program, a travel guidance processing program (FIG. 2) described later, and the like are recorded. An internal storage device such as a flash memory 44 for storing the program is provided. The navigation ECU 13 has various means as processing algorithms. For example, the guidance route acquisition unit acquires a guidance route that guides the movement of the moving body (vehicle). The image generation means renders a three-dimensional image of the guidance intersection to be a guidance target in the guidance route with the traveling direction of the moving body as the line-of-sight direction. The feature point extraction unit extracts a feature point of the three-dimensional image of the guidance intersection rendered by the image generation unit. The landmark structure specifying means specifies, as the landmark structure, a structure in which the feature points extracted by the feature point extracting means are concentrated among the structures included in the three-dimensional image of the guidance intersection rendered by the image generating means. . When the moving body approaches the guidance intersection within the guidance target distance, the image display means changes the display form of the landmark structure to a form different from the display form of other structures. indicate.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルによって構成することもできる。また、マイクと音声認識装置によって構成することもできる。   The operation unit 14 is operated when inputting a starting point as a travel start point and a destination as a travel end point, and has a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 14 can also be configured by a touch panel provided on the front surface of the liquid crystal display 15. Moreover, it can also be comprised with a microphone and a speech recognition apparatus.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。特に本実施形態では、案内交差点が車両の進行方向前方の所定距離以内(例えば300m)に接近した場合には、案内交差点の3次元画像について表示する(図3、図4)。尚、液晶ディスプレイ15の代わりに、HUDやHMDを用いても良い。   The liquid crystal display 15 includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecast, Time, mail, TV program, etc. are displayed. In particular, in this embodiment, when the guidance intersection approaches within a predetermined distance (for example, 300 m) ahead of the traveling direction of the vehicle, a three-dimensional image of the guidance intersection is displayed (FIGS. 3 and 4). In place of the liquid crystal display 15, HUD or HMD may be used.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。   The speaker 16 outputs voice guidance for guiding traveling along the guidance route based on an instruction from the navigation ECU 13 and traffic information guidance.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。   The DVD drive 17 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like. A card slot for reading / writing a memory card may be provided instead of the DVD drive 17.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。   The communication module 18 is a communication device for receiving traffic information composed of information such as traffic jam information, regulation information, and traffic accident information transmitted from a traffic information center, for example, a VICS center or a probe center. For example, a mobile phone or DCM is applicable.

続いて、前記構成を有するナビゲーション装置1においてナビゲーションECU13が実行する走行案内処理プログラムについて図2に基づき説明する。図2は本実施形態に係る走行案内処理プログラムのフローチャートである。ここで、走行案内処理プログラムは車両のACC電源(accessory power supply)がONされた後に実行され、ナビゲーション装置1において設定されている案内経路に沿った車両の走行案内を行うプログラムである。尚、以下の図2及び図5にフローチャートで示されるプログラムは、ナビゲーション装置1が備えているRAM42やROM43に記憶されており、CPU41により実行される。   Next, a travel guidance processing program executed by the navigation ECU 13 in the navigation device 1 having the above configuration will be described with reference to FIG. FIG. 2 is a flowchart of the travel guidance processing program according to the present embodiment. Here, the travel guidance processing program is a program that is executed after an ACC power supply (accessory power supply) of the vehicle is turned on, and performs travel guidance of the vehicle along the guidance route set in the navigation device 1. 2 and 5 are stored in the RAM 42 and the ROM 43 provided in the navigation device 1 and are executed by the CPU 41.

先ず、走行案内処理プログラムではステップ(以下、Sと略記する)1において、CPU41は、ナビゲーション装置1において現在設定されている案内経路(ユーザの走行予定経路)を取得する。尚、案内経路はナビゲーション装置1によって設定された出発地から目的地までの推奨経路であり、例えば公知のダイクストラ法を用いて探索される。また、案内経路はナビゲーション装置1が探索する構成としても良いし、外部のサーバが探索する構成としても良い。また、出発地はユーザの現在位置としても良いし、ユーザにより選択された任意の地点(例えば自宅)としても良い。一方、目的地は例えば操作部14において受け付けたユーザの操作(例えば登録地点の読出操作、施設の検索や選択操作)に基づいて設定する。   First, in step (hereinafter abbreviated as S) 1 in the travel guidance processing program, the CPU 41 obtains a guide route (scheduled travel route for the user) currently set in the navigation device 1. The guide route is a recommended route from the starting point to the destination set by the navigation device 1, and is searched using, for example, a known Dijkstra method. The navigation route 1 may be configured to search for the guidance route, or may be configured to be searched by an external server. Further, the departure point may be the current position of the user or an arbitrary point selected by the user (for example, home). On the other hand, the destination is set based on, for example, a user operation (for example, a registration point reading operation, facility search or selection operation) received in the operation unit 14.

次に、S2においてCPU41は、車両の現在位置を現在位置検出部11の検出結果に基づいて取得する。尚、車両の現在位置を地図データ上で特定するマップマッチング処理についても行う。更に、車両の現在位置は、高精度ロケーション技術を用いて詳細に特定することが望ましい。ここで、高精度ロケーション技術とは、車両後方のカメラから取り込んだ白線や路面ペイント情報を画像認識により検出し、更に、白線や路面ペイント情報を予め記憶した地図情報DBと照合することにより、走行車線や高精度な車両位置を検出可能にする技術である。尚、高精度ロケーション技術の詳細については既に公知であるので省略する。   Next, in S <b> 2, the CPU 41 acquires the current position of the vehicle based on the detection result of the current position detection unit 11. A map matching process for specifying the current position of the vehicle on the map data is also performed. Furthermore, it is desirable to specify the current position of the vehicle in detail using high-precision location technology. Here, the high-accuracy location technology detects the white line and road surface paint information captured from the camera behind the vehicle by image recognition, and further compares the white line and road surface paint information with a previously stored map information DB, thereby driving the vehicle. This is a technology that makes it possible to detect lanes and highly accurate vehicle positions. The details of the high-accuracy location technology are already known and will be omitted.

続いて、S3においてCPU41は、車両の進行方向前方の第1距離以内(例えば300m以内)に案内交差点があるか否か判定する。尚、第1距離はナビゲーション装置1において適宜設定可能であり、例えばナビゲーション装置1において右左折を指示する音声案内が出力される地点から案内交差点までの距離とする。   Subsequently, in S3, the CPU 41 determines whether or not there is a guidance intersection within a first distance (for example, within 300 m) ahead of the traveling direction of the vehicle. The first distance can be set as appropriate in the navigation device 1 and is, for example, the distance from the point where the voice guidance instructing the left / right turn is output to the guidance intersection in the navigation device 1.

そして、第1距離以内に案内交差点があると判定された場合(S3:YES)には、S4へと移行する。それに対して、第1距離以内に案内交差点が無いと判定された場合(S3:NO)には、S17へと移行する。   If it is determined that there is a guidance intersection within the first distance (S3: YES), the process proceeds to S4. On the other hand, when it is determined that there is no guidance intersection within the first distance (S3: NO), the process proceeds to S17.

その後、S4以降においてCPU41は、進行方向前方にある案内交差点の3次元画像の作成を開始する。先ず、S4においてCPU41は、3次元空間上に進行方向前方にある案内交差点の道路や構造物をモデリングしたオブジェクト(形状データ)を取得する。尚、前記S4においてCPU41は、予め交差点毎にモデリングしてDBに格納しておいたオブジェクトの内、該当する案内交差点のオブジェクトを取得する構成としても良いし、前記S4においてモデリングを実施してオブジェクトを新たに作成する構成としても良い。モデリングを実施する場合には、地図情報DB31から進行方向前方にある案内交差点で接続される道路や交差点周辺にある構造物(建物、高架、看板、信号機、樹木等)の形状や位置を特定する情報を取得し、取得した情報に基づいてモデリング処理を行う。   Thereafter, in S4 and thereafter, the CPU 41 starts creating a three-dimensional image of the guidance intersection that is ahead in the traveling direction. First, in S <b> 4, the CPU 41 acquires an object (shape data) that models a road or a structure at a guidance intersection ahead of the traveling direction in a three-dimensional space. In S4, the CPU 41 may be configured to acquire an object at the corresponding guidance intersection among objects previously modeled for each intersection and stored in the DB. It is good also as a structure which creates newly. When modeling is performed, the shape and position of roads connected at a guidance intersection ahead in the direction of travel and structures around buildings (buildings, overpasses, signboards, traffic lights, trees, etc.) are identified from the map information DB 31. Information is acquired, and modeling processing is performed based on the acquired information.

ここで、モデリングとは3次元空間上においてモデル(物体)の形状を作成する処理であり、より具体的には各頂点の座標の決定や、境界線、面を表現する方程式のパラメータの決定などを行う。尚、モデリングについては公知の技術であるので詳細は省略する。そして、モデリングされたオブジェクト(形状データ)は、用途に応じて辺のみ表示する「ワイヤーフレームモデル」、面を表示する「サーフィスモデル」等の形で表現される。   Here, modeling is a process for creating the shape of a model (object) in a three-dimensional space. More specifically, determination of coordinates of each vertex, determination of parameters of an equation expressing a boundary line and a surface, etc. I do. Since modeling is a known technique, details are omitted. Then, the modeled object (shape data) is expressed in a form such as a “wire frame model” that displays only the sides and a “surface model” that displays a surface according to the application.

次に、S5においてCPU41は、前記S4で取得したオブジェクトに対して各種マテリアル(材質)設定やマッピング処理を行う。尚、マッピング処理としては、オブジェクトの表面にテクスチャの画像を貼り付けるテクスチャマッピング、光の反射方向を変化させて細かい凹凸を作るバンプマッピング等がある。   Next, in S5, the CPU 41 performs various materials (materials) setting and mapping processing for the object acquired in S4. Note that mapping processing includes texture mapping in which a texture image is pasted on the surface of an object, and bump mapping in which fine unevenness is formed by changing the light reflection direction.

続いて、S6においてCPU41は、前記S4で取得したオブジェクトに対してライティング処理を行う。具体的には、3次元空間上に光源を設定する。尚、本実施形態は屋外の3次元画像であるので光源としては太陽(即ち平行光源)を想定する。また、設定する光源の明るさ、位置、角度の各パラメータについては、現在の日時の太陽状態に対応して設定しても良い。例えば夏の昼間では光度を上げて光の照射方向を路面に対して垂直方向とし、冬の夕方では光度を下げて光の照射方向を路面に対して水平方向に近い角度とする。それによって実際にユーザに視認される周辺環境により近い3次元画像とすることが可能となる。但し、常にユーザに視認し易い3次元画像とする為には、現在の日時に関わらずユーザに視認し易い値に調整した固定のパラメータとするのが望ましい。   Subsequently, in S6, the CPU 41 performs lighting processing on the object acquired in S4. Specifically, a light source is set on a three-dimensional space. In addition, since this embodiment is an outdoor three-dimensional image, the sun (namely, parallel light source) is assumed as a light source. Further, the brightness, position, and angle parameters of the light source to be set may be set corresponding to the solar state at the current date and time. For example, in the summer daytime, the luminous intensity is increased so that the light irradiation direction is perpendicular to the road surface, and in the winter evening, the luminous intensity is decreased so that the light irradiation direction is close to the horizontal direction with respect to the road surface. As a result, a three-dimensional image closer to the surrounding environment actually viewed by the user can be obtained. However, in order to obtain a three-dimensional image that is always easily visible to the user, it is desirable to use a fixed parameter that is adjusted to a value that is easily visible to the user regardless of the current date and time.

その後、S7においてCPU41は、オブジェクトが形成された3次元空間上において視点及び視線方向を設定する。尚、後述のように生成される3次元画像は、3次元空間上に形成されたオブジェクトを前記S7で設定した視点から視線方向に視認した画像となる。従って、視線方向は表示される3次元画像を車両に乗車するユーザの視界と対応させる為に、車両の進行方向(即ち案内経路に沿った案内交差点の方向)とする。一方、視点の位置は案内交差点から案内経路に沿って所定距離(例えば300mや100m)だけ手前側の位置で固定しても良いし、現在の車両の位置としても良い。尚、視点の位置を固定した場合には後述のレンダリング処理(S8)を繰り返し行う必要はないが、視点を現在の車両の位置とした場合には、車両が移動するのに伴って視点の位置を変更し、所定間隔で後述のレンダリング処理(S8)を繰り返し行う必要がある。そして、レンダリングされた案内交差点の3次元画像を液晶ディスプレイ15に順次切り替えて表示する(S9)。その結果、車両が案内交差点に接近するのに伴って、表示される案内交差点の3次元画像についても案内交差点に近づく画像へと更新されることとなる。   Thereafter, in S7, the CPU 41 sets the viewpoint and the line-of-sight direction on the three-dimensional space in which the object is formed. Note that a three-dimensional image generated as described later is an image obtained by visually recognizing an object formed in a three-dimensional space from the viewpoint set in S7. Therefore, the line-of-sight direction is the vehicle traveling direction (that is, the direction of the guidance intersection along the guidance route) in order to correspond the displayed three-dimensional image with the field of view of the user who gets on the vehicle. On the other hand, the position of the viewpoint may be fixed at a position on the near side from the guidance intersection along the guidance route by a predetermined distance (for example, 300 m or 100 m), or may be the current vehicle position. When the viewpoint position is fixed, it is not necessary to repeat the rendering process (S8) described later. However, when the viewpoint is the current vehicle position, the viewpoint position is increased as the vehicle moves. And rendering process (S8) described later needs to be repeated at a predetermined interval. Then, the rendered three-dimensional image of the guidance intersection is sequentially switched and displayed on the liquid crystal display 15 (S9). As a result, as the vehicle approaches the guidance intersection, the displayed three-dimensional image of the guidance intersection is also updated to an image approaching the guidance intersection.

次に、S8においてCPU41はレンダリングを行い、最終的な案内交差点の3次元画像を出力する。尚、出力される3次元画像は、前記S4で取得され且つ前記S5で表面処理された3次元空間上のオブジェクトを、前記S6で設定された光源がある状態で前記S7において設定した視点から視線方向に視認した画像となる。   Next, in S8, the CPU 41 performs rendering and outputs a final three-dimensional image of the guidance intersection. The output three-dimensional image is obtained by viewing the object in the three-dimensional space acquired in S4 and surface-treated in S5 from the viewpoint set in S7 with the light source set in S6. The image is viewed in the direction.

続いて、S9においてCPU41は、前記S8でレンダリングされた案内交差点の3次元画像を液晶ディスプレイ15に表示する。また、案内経路を示す画像や、車両の現在位置を示すマーク等についても案内交差点の3次元画像に重畳させて表示する。ここで、図3は前記S9で液晶ディスプレイ15に表示される案内交差点の3次元画像の一例を示した図である。車両が案内交差点に対して第1距離内に接近すると、図3に示すように通常の走行案内画面50に代わって案内交差点の3次元画像51が表示される。尚、案内交差点の3次元画像51は液晶ディスプレイ15の全画面に対して表示しても良いし、液晶ディスプレイ15を2画面構成にして一方には走行案内画面50を継続して表示しても良い。また、走行案内画面50とは別の表示装置に表示する構成としても良い。   Subsequently, in S9, the CPU 41 displays the three-dimensional image of the guidance intersection rendered in S8 on the liquid crystal display 15. In addition, an image indicating the guidance route, a mark indicating the current position of the vehicle, and the like are also displayed superimposed on the three-dimensional image of the guidance intersection. Here, FIG. 3 is a diagram showing an example of a three-dimensional image of the guidance intersection displayed on the liquid crystal display 15 in S9. When the vehicle approaches the guidance intersection within the first distance, a three-dimensional image 51 of the guidance intersection is displayed instead of the normal travel guidance screen 50 as shown in FIG. The three-dimensional image 51 of the guidance intersection may be displayed on the entire screen of the liquid crystal display 15, or the driving guidance screen 50 may be continuously displayed on one side of the liquid crystal display 15 in a two-screen configuration. good. Moreover, it is good also as a structure displayed on the display apparatus different from the driving guidance screen 50. FIG.

ここで、案内交差点の3次元画像51は、案内交差点52と、案内交差点52において接続される道路53と、案内交差点52の周辺にある構造物54と、案内経路55と、地図上にマッチングされた車両の現在位置を示す自車位置マーク56とが表示される。尚、道路53や構造物54についてはオブジェクトの表面にテクスチャの画像が張り付けられることによって、実際の道路や構造物を再現する。そして、ユーザは案内交差点の3次元画像51を参照することによって、実際にユーザが視認できる前方の視界と対応させて車両の進行方向前方にある案内交差点の位置を把握することが可能となる。尚、案内交差点の3次元画像51は静止画としても良いし、車両が案内交差点に接近するのに伴って、表示される案内交差点の3次元画像についても案内交差点に徐々に近づいた画像へと更新するように構成しても良い。その場合には、前述したように視点を車両の現在位置に設定し、S7〜S9の処理を所定間隔で繰り返し実行するように構成する。   Here, the three-dimensional image 51 of the guidance intersection is matched on the map with the guidance intersection 52, the road 53 connected at the guidance intersection 52, the structure 54 around the guidance intersection 52, the guidance route 55, and the like. A vehicle position mark 56 indicating the current position of the vehicle is displayed. The road 53 and the structure 54 are reproduced by pasting a texture image on the surface of the object. Then, by referring to the three-dimensional image 51 of the guidance intersection, the user can grasp the position of the guidance intersection that is in front of the traveling direction of the vehicle in correspondence with the forward field of view that can be visually recognized by the user. The three-dimensional image 51 of the guidance intersection may be a still image, or as the vehicle approaches the guidance intersection, the three-dimensional image of the guidance intersection displayed gradually approaches the guidance intersection. You may comprise so that it may update. In that case, as described above, the viewpoint is set to the current position of the vehicle, and the processes of S7 to S9 are repeatedly executed at predetermined intervals.

次に、S10においてCPU41は、車両の進行方向前方の第2距離(案内対象距離)以内に案内交差点があるか否か判定する。尚、第2距離は、例えば一般的にユーザが右左折の準備操作(例えば方向指示器の操作)を開始する地点から案内交差点までの距離や、ユーザが右左折する交差点の視認(特定)を開始する地点から案内交差点までの距離とし、前記S3の判定基準となった第1距離よりも短い距離(例えば60m)に設定する。   Next, in S10, the CPU 41 determines whether or not there is a guidance intersection within a second distance (guidance target distance) ahead of the traveling direction of the vehicle. Note that the second distance is, for example, a distance from a point where the user starts a preparation operation for a right or left turn (for example, an operation of a direction indicator) to a guidance intersection, or a visual recognition (specification) of an intersection where the user turns right or left. The distance from the starting point to the guidance intersection is set to a distance (for example, 60 m) shorter than the first distance that is the determination criterion of S3.

そして、第2距離以内に案内交差点があると判定された場合(S10:YES)には、S11へと移行する。それに対して、第2距離以内に案内交差点が無いと判定された場合(S10:NO)にはS9へと戻り、継続して案内交差点の3次元画像51を表示する。   And when it determines with there being a guidance intersection within 2nd distance (S10: YES), it transfers to S11. On the other hand, when it is determined that there is no guidance intersection within the second distance (S10: NO), the process returns to S9, and the three-dimensional image 51 of the guidance intersection is continuously displayed.

S11においてCPU41は、後述の目印構造物特定処理(図5)を実行する。尚、目印構造物特定処理は、レンダリングされた案内交差点の3次元画像に含まれる構造物の内、案内交差点の案内において目印とする構造物(以下、目印構造物という)を特定する処理である。   In S11, the CPU 41 executes a mark structure specifying process (FIG. 5) described later. The mark structure specifying process is a process for specifying a structure (hereinafter referred to as a mark structure) to be used as a mark in the guidance of the guidance intersection among the structures included in the rendered three-dimensional image of the guidance intersection. .

次に、S12においてCPU41は、液晶ディスプレイ15に表示される案内交差点の3次元画像について、前記S11において特定された目印構造物の表示形態を他の構造物の表示形態と異なる形態となるように処理を行う。具体的には、案内交差点の3次元画像において目印構造物が他の構造物よりも強調して表示されるように処理を行う。特に本実施形態では、前記S5で目印構造物に対してマッピングされたテクスチャを維持する一方で、他の構造物に対してマッピングされたテクスチャの画像を消去することによって目印構造物を強調して表示するように構成する。   Next, in S12, the CPU 41 makes the display form of the landmark structure specified in S11 different from the display form of other structures in the three-dimensional image of the guidance intersection displayed on the liquid crystal display 15. Process. Specifically, the processing is performed so that the landmark structure is displayed more emphasized than the other structures in the three-dimensional image of the guidance intersection. In particular, in this embodiment, while maintaining the texture mapped to the landmark structure in S5, the landmark structure is emphasized by deleting the texture image mapped to the other structure. Configure to display.

続いて、S13においてCPU41はレンダリングを行い、前記S12で目印構造物の表示形態を他の構造物の表示形態と異なる形態となるように処理した案内交差点の3次元画像を出力する。尚、テクスチャマッピング以外の3次元画像の生成工程については前記S5〜S7と同様の工程とする。但し、視点の位置については案内交差点から案内経路に沿って第2距離だけ手前側の位置に設定するのが望ましい。   Subsequently, in S13, the CPU 41 performs rendering, and outputs a three-dimensional image of the guidance intersection processed in S12 so that the display form of the landmark structure is different from the display form of other structures. Note that the three-dimensional image generation process other than texture mapping is the same process as in S5 to S7. However, it is desirable that the viewpoint position is set to a position on the near side by a second distance along the guidance route from the guidance intersection.

その後、S14においてCPU41は、前記S13でレンダリングされた案内交差点の3次元画像を液晶ディスプレイ15に表示する。また、案内経路を示す画像や、車両の現在位置を示すマーク等についても案内交差点の3次元画像に重畳させて表示する。ここで、図4は前記S14で液晶ディスプレイ15に表示される案内交差点の3次元画像の一例を示した図である。尚、図4に示す例は、特に案内交差点52の手前右側にある構造物が目印構造物として特定されている場合に表示される案内交差点の3次元画像を示す。   Thereafter, in S14, the CPU 41 displays a three-dimensional image of the guidance intersection rendered in S13 on the liquid crystal display 15. In addition, an image indicating the guidance route, a mark indicating the current position of the vehicle, and the like are also displayed superimposed on the three-dimensional image of the guidance intersection. Here, FIG. 4 is a diagram showing an example of a three-dimensional image of the guidance intersection displayed on the liquid crystal display 15 in S14. The example shown in FIG. 4 shows a three-dimensional image of the guidance intersection that is displayed particularly when the structure on the right side before the guidance intersection 52 is specified as the landmark structure.

図4に示すように車両が案内交差点に対して第2距離内に接近すると、案内交差点の3次元画像51の内、特に構造物54の画像の表示形態について変化する。具体的には、構造物54の内、目印構造物58のテクスチャの画像については維持される一方で、目印構造物58以外の構造物59のテクスチャの画像については削除され、単一色(例えば灰色)で表示される。その結果、ユーザは案内交差点の3次元画像51を参照した際に、テクスチャの有無から目印構造物58を明確に特定することが可能となる。そして、特定した目印構造物58を目印とすることによって、車両の進行方向前方にある案内交差点の位置をより正確に把握することが可能となる。尚、案内交差点の3次元画像51は静止画としても良いし、車両が案内交差点に接近するのに伴って、表示される案内交差点の3次元画像についても案内交差点に徐々に近づいた画像へと更新するように構成しても良い。その場合には、視点を車両の現在位置に設定し、視点の設定位置の変更に加えてS13及びS14の処理を所定間隔で繰り返し実行するように構成する。   As shown in FIG. 4, when the vehicle approaches the guidance intersection within the second distance, the display form of the three-dimensional image 51 of the guidance intersection, in particular, the image of the structure 54 changes. Specifically, the texture image of the landmark structure 58 among the structures 54 is maintained, while the texture image of the structure 59 other than the landmark structure 58 is deleted and is deleted with a single color (for example, gray). ) Is displayed. As a result, when referring to the three-dimensional image 51 of the guidance intersection, the user can clearly identify the landmark structure 58 from the presence or absence of the texture. Then, by using the identified mark structure 58 as a mark, it is possible to more accurately grasp the position of the guidance intersection in front of the traveling direction of the vehicle. The three-dimensional image 51 of the guidance intersection may be a still image, or as the vehicle approaches the guidance intersection, the three-dimensional image of the guidance intersection displayed gradually approaches the guidance intersection. You may comprise so that it may update. In this case, the viewpoint is set to the current position of the vehicle, and the processes of S13 and S14 are repeatedly executed at predetermined intervals in addition to the change of the viewpoint setting position.

その後、S15においてCPU41は、車両が案内対象となっている案内交差点を通過したか否かを判定する。   Thereafter, in S15, the CPU 41 determines whether or not the vehicle has passed a guidance intersection that is a guidance target.

そして、車両が案内対象となっている案内交差点を通過したと判定された場合(S15:YES)には、S16へと移行する。それに対して、車両が案内対象となっている案内交差点を通過していないと判定された場合(S15:NO)には、継続して目印構造物を強調表示した案内交差点の3次元画像51を表示する。   And when it determines with the vehicle having passed the guidance intersection used as guidance object (S15: YES), it transfers to S16. On the other hand, when it is determined that the vehicle does not pass through the guidance intersection that is the guidance target (S15: NO), the three-dimensional image 51 of the guidance intersection that highlights the landmark structure is continuously displayed. indicate.

S16においてCPU41は、案内交差点の3次元画像を液晶ディスプレイ15から消去する。その後、液晶ディスプレイ15には通常の走行案内画面50が表示されることとなる。   In S <b> 16, the CPU 41 deletes the three-dimensional image of the guidance intersection from the liquid crystal display 15. Thereafter, a normal travel guidance screen 50 is displayed on the liquid crystal display 15.

次に、S17においてCPU41は、車両が目的地に到着したか否かを判定する。尚、車両の目的地への到着判定は、現在位置検出部11により検出した車両の現在位置と目的地の位置座標に基づいて行っても良いし、シフトレバーの位置やサイドブレーキの動作状況に基づいて判定しても良い。   Next, in S17, the CPU 41 determines whether or not the vehicle has arrived at the destination. The determination of the arrival of the vehicle at the destination may be performed based on the current position of the vehicle detected by the current position detection unit 11 and the position coordinates of the destination, or may be based on the position of the shift lever or the operation state of the side brake. You may determine based on.

そして、車両が目的地に到着したと判定された場合(S17:YES)には、当該走行案内処理プログラムを終了する。それに対して、車両が目的地に到着していないと判定された場合(S17:NO)には、S2へと戻る。   And when it determines with the vehicle having arrived at the destination (S17: YES), the said travel guidance process program is complete | finished. On the other hand, when it is determined that the vehicle has not arrived at the destination (S17: NO), the process returns to S2.

次に、前記S11において実行される目印構造物特定処理のサブ処理について図5に基づき説明する。図5は目印構造物特定処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the landmark structure specifying process executed in S11 will be described with reference to FIG. FIG. 5 is a flowchart of a sub-processing program for the landmark structure specifying process.

先ず、S21においてCPU41は、現在の天候と日時を取得する。尚、現在の天候については外部サーバと通信を行うことによって取得しても良いし、降雨センサや照度センサ等の各種センサを用いて検出する構成としても良い。また、現在の日時は内蔵するタイマから取得しても良いし、GPS21や外部サーバから取得するように構成しても良い。   First, in S21, the CPU 41 acquires the current weather and date / time. In addition, about the present weather, you may acquire by communicating with an external server, and it is good also as a structure detected using various sensors, such as a rainfall sensor and an illumination intensity sensor. Further, the current date and time may be acquired from a built-in timer, or may be configured to be acquired from the GPS 21 or an external server.

次に、S22においてCPU41は、前記S6で設定した3次元空間上における光源の設定を変更する。具体的には光源の明るさ、位置、角度の各パラメータについて、現在の日時及び天候をシミュレートして設定する。即ち、CPU41は先ず現在の日時の太陽の位置と明るさを算出し、算出された太陽の位置に光源が位置するように設定するとともに算出された明るさで光源の光度を設定する。更に、天候が晴れの場合には光源の光度を補正しないが、曇の場合には光度を所定割合(例えば20%)下げる補正を行い、雨(雪)の場合には更に大きく(例えば50%)光度を下げる補正を行う。   Next, in S22, the CPU 41 changes the light source setting in the three-dimensional space set in S6. Specifically, the current date and time and weather are set for each parameter of the brightness, position, and angle of the light source. That is, the CPU 41 first calculates the position and brightness of the sun at the current date and time, sets the light source to be located at the calculated sun position, and sets the luminous intensity of the light source at the calculated brightness. Further, when the weather is fine, the light intensity of the light source is not corrected, but when it is cloudy, correction is performed to lower the light intensity by a predetermined ratio (for example, 20%), and in the case of rain (snow), it is further increased (for example, 50%). ) Make a correction to lower the luminous intensity.

次に、S23においてCPU41は、前記S7で設定した3次元空間上における視点の位置を変更する。具体的には、視点の位置を案内交差点から案内経路に沿って第2距離(例えば60m)だけ手前側の位置に変更する。尚、視線方向は前記S7と同じ車両の進行方向とする。   Next, in S23, the CPU 41 changes the position of the viewpoint in the three-dimensional space set in S7. Specifically, the position of the viewpoint is changed from the guidance intersection to the position on the near side by a second distance (for example, 60 m) along the guidance route. The line-of-sight direction is the same as the traveling direction of the vehicle as in S7.

その後、S24においてCPU41はレンダリングを行い、現在の日時及び天候をシミュレートした案内交差点の3次元画像を出力する。尚、光源設定と視点位置の設定以外の3次元画像の生成工程については前記S5〜S7と同様の工程とする。その結果、前記S24で出力される案内交差点の3次元画像は、現在の日時及び天候の状態で第2距離手前から案内交差点を視認した際のユーザの視界を再現した画像となる。   Thereafter, in S24, the CPU 41 performs rendering and outputs a three-dimensional image of the guidance intersection that simulates the current date and weather. The three-dimensional image generation process other than the light source setting and the viewpoint position setting is the same as the above-described steps S5 to S7. As a result, the three-dimensional image of the guidance intersection output in S24 is an image that reproduces the user's field of view when the guidance intersection is viewed from the second distance before the current date and weather.

次に、S25においてCPU41は、前記S24でレンダリングされた案内交差点の3次元画像に対して画像処理を行うことによって、特徴点を抽出する。尚、特徴点とは画像のエッジやコーナ等が相当する。また、特徴点の抽出に係る画像処理の詳細については、既に公知の技術であるので省略する。   Next, in S25, the CPU 41 extracts feature points by performing image processing on the three-dimensional image of the guidance intersection rendered in S24. The feature points correspond to image edges, corners, and the like. The details of the image processing related to the feature point extraction are omitted because they are already known techniques.

続いて、S26においてCPU41は、前記S24でレンダリングされた案内交差点の3次元画像を複数のエリアに分割し、分割されたエリアの内、前記S25で特定された特徴点を最も多く含むエリアを特定する。尚、3次元画像を分割する数については適宜設定変更可能であるが例えば4分割とする。   Subsequently, in S26, the CPU 41 divides the three-dimensional image of the guidance intersection rendered in S24 into a plurality of areas, and identifies an area that includes the largest number of feature points identified in S25 among the divided areas. To do. Note that the number of divisions of the three-dimensional image can be changed as appropriate, but is divided into four, for example.

そして、S27においてCPU41は、前記S26で特定されたエリアと重複する構造物が一に特定できたか否かを判定する。具体的には、前記S24でレンダリングされた案内交差点の3次元画像において、前記S26で特定されたエリアと重複する構造物が一のみ存在する場合には、前記S26で特定されたエリアと重複する構造物が一に特定できたと判定する。一方、前記S24でレンダリングされた案内交差点の3次元画像において、前記S26で特定されたエリアと重複する構造物が複数存在する場合や前記S26で特定されたエリアと重複する構造物が存在しない場合には、前記S26で特定されたエリアと重複する構造物が一に特定できなかったと判定する。   In S27, the CPU 41 determines whether or not a structure that overlaps the area specified in S26 has been specified. Specifically, in the three-dimensional image of the guidance intersection rendered in S24, if there is only one structure that overlaps with the area specified in S26, it overlaps with the area specified in S26. It is determined that the structure can be identified as one. On the other hand, in the three-dimensional image of the guidance intersection rendered in S24, there are a plurality of structures that overlap with the area specified in S26, or there are no structures that overlap with the area specified in S26. It is determined that a structure overlapping with the area specified in S26 could not be specified.

そして、前記S26で特定されたエリアと重複する構造物が一に特定できたと判定された場合(S27:YES)には、S28へと移行する。それに対して、前記S26で特定されたエリアと重複する構造物が一に特定できなかったと判定された場合(S27:NO)には、S26へと戻る。そして、前記S26で特定されたエリアと重複する構造物が複数存在する場合については、前記S26で特定されたエリアを更に細かく分割して再度最も特徴点を多く含むエリアを特定する。一方、前記S26で特定されたエリアと重複する構造物が存在しない場合には、エリアの分割数を減らして再度最も特徴点を多く含むエリアを特定する。   And when it determines with the structure which overlaps with the area specified by said S26 having been specified to one (S27: YES), it transfers to S28. On the other hand, when it is determined that a structure overlapping with the area specified in S26 cannot be specified as one (S27: NO), the process returns to S26. Then, when there are a plurality of structures that overlap with the area identified in S26, the area identified in S26 is further divided and the area containing the most feature points is identified again. On the other hand, if there is no structure overlapping with the area identified in S26, the area containing the most feature points is identified again by reducing the number of divided areas.

S28においてCPU41は、前記S26で特定されたエリアと重複する構造物を目印構造物として特定する。尚、前記S26で特定されたエリアと重複する構造物は、特徴点が集中しており、案内交差点の3次元画像に含まれる構造物の内、案内交差点の案内をする際に目印として最も適している構造物となる。その後、特定された目印構造物を用いて案内交差点の案内が行われる。また、本実施形態では目印構造物として特定する構造物は基本的に“ビルや店舗等の建物”とするが、建物以外の構造物(例えば高架、看板、信号機、樹木等)を目印構造物として特定する構成としても良い。   In S28, the CPU 41 identifies a structure that overlaps the area identified in S26 as a landmark structure. It should be noted that the structure overlapping the area specified in S26 has concentrated feature points, and is the most suitable as a mark when guiding the guidance intersection among the structures included in the three-dimensional image of the guidance intersection. It becomes a structure. Thereafter, the guidance intersection is guided using the specified landmark structure. In this embodiment, the structure specified as a landmark structure is basically “buildings such as buildings and stores”, but structures other than buildings (for example, overpasses, signboards, traffic lights, trees, etc.) are landmark structures. It is good also as a structure specified as.

以下に、図6及び図7を用いて上記S目印構造物の特定処理について具体例を挙げて説明する。先ず、CPU41は前記S24でレンダリングされた案内交差点の3次元画像61をエリアA〜Dに4分割する。そして、エリアA〜Dの内、最も特徴点を多く含むエリアとしてエリアBを特定する。しかしながら、エリアBには複数の構造物62、63が重複するので、エリアと重複する構造物を一に特定できない。従って、CPU41はエリアBをエリアE〜Hに更に4分割する。そして、エリアE〜Hの内、最も特徴点を多く含むエリアとしてエリアHを特定する。その結果、エリアHには構造物62のみが重複するので、構造物62を最終的に目印構造物として特定することとなる。   Below, a specific example is given and demonstrated about the specific process of the said S mark structure using FIG.6 and FIG.7. First, the CPU 41 divides the three-dimensional image 61 of the guidance intersection rendered in S24 into areas A to D. And area B is specified as an area which has the most feature points among areas AD. However, since a plurality of structures 62 and 63 overlap in the area B, it is not possible to specify a structure overlapping with the area. Therefore, the CPU 41 further divides area B into areas E to H. Then, the area H is specified as an area including the most feature points among the areas E to H. As a result, since only the structure 62 overlaps the area H, the structure 62 is finally specified as a landmark structure.

以上詳細に説明した通り、本実施形態に係るナビゲーション装置1、ナビゲーション装置1による移動案内方法及びナビゲーション装置1で実行されるコンピュータプログラムでは、ナビゲーション装置1に設定されている案内経路を取得し(S1)、案内交差点の3次元画像を車両の進行方向を視線方向としてレンダリングし(S24)、レンダリングされた案内交差点の3次元画像の特徴点を抽出し(S25)、レンダリングされた案内交差点の3次元画像に含まれる構造物の内、抽出された特徴点が集中する構造物を目印構造物として特定し(S28)、車両が案内交差点に対して所定距離以内に接近した場合に、案内交差点の3次元画像を目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示する(S14)ように構成するので、ユーザが案内交差点周辺を視認した場合に、ジャンルに関わらずにより目立つ構造物、即ち目印としてより適切な構造物を案内交差点の案内を行う場合の目印として選択することが可能となる。その結果、案内交差点付近に車両が到達した場合に、ユーザが視認する周辺環境から目印となる構造物を基準として案内交差点を正確に特定することが可能となる。また、従来技術と比較して特定のジャンルの施設が周辺に存在しない案内交差点に対しても目印を用いた案内交差点の案内を行うことが可能となる。   As described in detail above, the navigation device 1 according to the present embodiment, the movement guide method by the navigation device 1 and the computer program executed by the navigation device 1 acquire the guide route set in the navigation device 1 (S1). ), Rendering a three-dimensional image of the guidance intersection with the direction of travel of the vehicle as the line-of-sight direction (S24), extracting feature points of the rendered three-dimensional image of the guidance intersection (S25), and rendering the three-dimensional rendering of the guidance intersection Among the structures included in the image, the structure where the extracted feature points are concentrated is specified as a landmark structure (S28), and when the vehicle approaches within a predetermined distance from the guidance intersection, 3 of the guidance intersections are identified. Display the three-dimensional image with the display form of the landmark structure different from the display form of the other structures (S14). Therefore, when the user visually recognizes the vicinity of the guidance intersection, it becomes possible to select a structure that is more conspicuous regardless of the genre, that is, a more appropriate structure as a landmark, as a landmark when guiding the guidance intersection. . As a result, when the vehicle reaches the vicinity of the guidance intersection, it is possible to accurately identify the guidance intersection based on the structure that serves as a mark from the surrounding environment visually recognized by the user. In addition, it is possible to guide a guidance intersection using a mark even for a guidance intersection where a facility of a specific genre does not exist in the vicinity as compared with the conventional technology.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では、案内交差点の3次元画像において目印構造物を他の構造物よりも強調して表示する手段として、目印構造物にのみテクスチャマッピングを行う構成としているが、他の手段を用いても良い。例えば、目印構造物の画像の表示色を変更したり、目印構造物の輪郭線を太くしたり、目印構造物以外の構造物を半透過にしたり、目印構造物以外の構造物を非表示としても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in this embodiment, as a means for displaying a landmark structure in a three-dimensional image of a guidance intersection with emphasis over other structures, texture mapping is performed only on the landmark structure. It may be used. For example, change the display color of the image of the landmark structure, thicken the outline of the landmark structure, make the structure other than the landmark structure semi-transparent, or hide the structure other than the landmark structure Also good.

また、本実施形態では、車両が案内交差点まで第1距離(例えば300m)以内に接近した場合に、先ず目印構造物の表示形態を他の構造物の表示形態と同じ形態にした案内交差点の3次元画像を液晶ディスプレイ15に表示し、その後に車両が案内交差点まで第2距離(例えば60m)以内に接近した後に、3次元画像中の目印構造物を強調表示する構成としているが、第1距離(例えば300m)以内に接近した時点(即ち案内交差点の3次元画像を液晶ディスプレイ15に表示開始する時点)で目印構造物を特定し、目印構造物の強調表示を行う構成としても良い。尚、第1距離や第2距離の長さについては適宜変更可能である。   Further, in the present embodiment, when the vehicle approaches the guidance intersection within a first distance (for example, 300 m), first, the guide intersection 3 in which the display form of the landmark structure is made the same form as the display form of the other structures. The three-dimensional image is displayed on the liquid crystal display 15, and then the landmark structure in the three-dimensional image is highlighted after the vehicle approaches the guidance intersection within a second distance (for example, 60 m). For example, the mark structure may be specified when the three-dimensional image of the guidance intersection is displayed within the liquid crystal display 15 when approaching within 300 m (for example, 300 m), and the mark structure may be highlighted. The lengths of the first distance and the second distance can be changed as appropriate.

また、本実施形態では、案内交差点から第2距離(例えば60m)離れた地点を視点とした案内交差点の3次元画像から目印構造物を特定する構成としているが、目印構造物を特定する案内交差点の3次元画像の視点の位置はその他の位置に設定しても良い。例えば、視点を車両の現在位置としても良い。その場合には、車両の現在位置によって目印構造物が変化する可能性がある。   In the present embodiment, the landmark structure is specified from the three-dimensional image of the guidance intersection with the viewpoint of a point away from the guidance intersection by the second distance (for example, 60 m). However, the guidance intersection for identifying the landmark structure is used. The position of the viewpoint of the three-dimensional image may be set to another position. For example, the viewpoint may be the current position of the vehicle. In that case, the landmark structure may change depending on the current position of the vehicle.

また、本実施形態では、目印構造物を一のみ特定する構成としているが、目印構造物は複数特定する構成としても良い。   In the present embodiment, only one mark structure is specified. However, a plurality of mark structures may be specified.

また、本発明はナビゲーション装置以外に、案内経路に基づく経路案内を行う機能を有する各種装置に対して適用することが可能である。例えば、携帯電話機やスマートフォン等の携帯端末、パーソナルコンピュータ、タブレット型端末等(以下、携帯端末等という)に適用することも可能である。また、サーバと携帯端末等から構成されるシステムに対しても適用することが可能となる。その場合には、上述した走行案内処理プログラム(図2)の各ステップは、サーバと携帯端末等のいずれが実施する構成としても良い。また、ナビゲーション装置1の代わりに、他の情報端末を用いる場合には、車両以外の移動体(例えば歩行者や自転車等)に対する移動案内を行うことも可能である。   In addition to the navigation device, the present invention can be applied to various devices having a function of performing route guidance based on a guidance route. For example, the present invention can be applied to a mobile terminal such as a mobile phone or a smartphone, a personal computer, a tablet terminal (hereinafter referred to as a mobile terminal or the like). Further, the present invention can be applied to a system including a server and a mobile terminal. In that case, each step of the above-described travel guidance processing program (FIG. 2) may be configured to be implemented by either a server or a mobile terminal. Moreover, when using another information terminal instead of the navigation apparatus 1, it is also possible to perform the movement guidance with respect to moving bodies (for example, a pedestrian, a bicycle, etc.) other than a vehicle.

また、本発明に係る移動案内システムを具体化した実施例について上記に説明したが、移動案内システムは以下の構成を有することも可能であり、その場合には以下の効果を奏する。   Moreover, although the embodiment which actualized the movement guidance system according to the present invention has been described above, the movement guidance system can also have the following configuration, and in that case, the following effects can be obtained.

例えば、第1の構成は以下のとおりである。
移動体の移動を案内する案内経路(55)を取得する案内経路取得手段(41)と、前記案内経路において案内対象となる案内交差点(52)の3次元画像(51、61)を前記移動体の進行方向を視線方向としてレンダリングする画像生成手段(41)と、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像の特徴点を抽出する特徴点抽出手段(41)と、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像に含まれる構造物の内、前記特徴点抽出手段により抽出された前記特徴点が集中する構造物を目印構造物(58)として特定する目印構造物特定手段(41)と、前記移動体が前記案内交差点に対して案内対象距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示する画像表示手段(41)と、を有する。
上記構成を有する移動案内システムによれば、レンダリングされた案内交差点の3次元画像の特徴点を抽出することによって、案内交差点で目印となる構造物を特定するので、ユーザが案内交差点周辺を視認した場合に、ジャンルに関わらずにより目立つ構造物、即ち目印としてより適切な構造物を案内交差点の案内を行う場合の目印として選択することが可能となる。その結果、案内交差点付近に移動体が到達した場合に、ユーザが視認する周辺環境から目印となる構造物を基準として案内交差点を正確に特定することが可能となる。また、従来技術と比較して特定のジャンルの施設が周辺に存在しない案内交差点に対しても目印を用いた案内交差点の案内を行うことが可能となる。
For example, the first configuration is as follows.
A guide route acquisition means (41) for acquiring a guide route (55) for guiding the movement of the mobile object, and a three-dimensional image (51, 61) of the guide intersection (52) to be guided in the guide route Image generating means (41) for rendering the traveling direction of the image as the line-of-sight direction, feature point extracting means (41) for extracting feature points of the three-dimensional image of the guidance intersection rendered by the image generating means, and the image generation A landmark structure that identifies, as a landmark structure (58), a structure in which the feature points extracted by the feature point extraction means are concentrated among structures included in the three-dimensional image of the guidance intersection rendered by the means. When the identification means (41) and the moving body approach the guidance intersection within a guidance target distance, a three-dimensional image of the guidance intersection is displayed as the landmark structure. Having an image display means for displaying in the different forms of display mode and display format of the other structure (41), the.
According to the movement guidance system having the above-described configuration, by extracting feature points of the rendered three-dimensional image of the guidance intersection, a structure that becomes a landmark at the guidance intersection is specified, so that the user visually recognizes the vicinity of the guidance intersection. In this case, it is possible to select a structure that is more conspicuous regardless of the genre, that is, a structure that is more appropriate as a mark, as a mark when guiding a guidance intersection. As a result, when the mobile body reaches the vicinity of the guidance intersection, it is possible to accurately identify the guidance intersection with reference to the structure serving as a mark from the surrounding environment visually recognized by the user. In addition, it is possible to guide a guidance intersection using a mark even for a guidance intersection where a facility of a specific genre does not exist in the vicinity as compared with the conventional technology.

また、第2の構成は以下のとおりである。
前記特徴点抽出手段(41)は、前記移動体が前記案内交差点(52)に対して前記案内対象距離手前の位置にある前記移動体の位置を視点とし、前記移動体の進行方向を視線方向としてレンダリングされた前記案内交差点の3次元画像(51、61)を対象として前記特徴点の抽出を行う。
上記構成を有する移動案内システムによれば、案内交差点付近に移動体が到達した場合に、ユーザが視認することとなる実際の周辺環境から目印となる構造物を特定するので、ユーザにとってより適切な構造物を案内交差点の案内を行う場合の目印として選択することが可能となる。
The second configuration is as follows.
The feature point extraction means (41) uses the position of the moving body in front of the guidance target distance with respect to the guidance intersection (52) as a viewpoint, and sets the traveling direction of the moving body as the line-of-sight direction. The feature points are extracted from the three-dimensional images (51, 61) of the guidance intersection rendered as.
According to the travel guidance system having the above-described configuration, when a mobile object arrives near the guidance intersection, the structure that serves as a landmark is identified from the actual surrounding environment that the user will visually recognize. It is possible to select a structure as a mark when guiding a guidance intersection.

また、第3の構成は以下のとおりである。
前記対象構造物特定手段(41)は、前記画像生成手段(41)によりレンダリングされた前記案内交差点(52)の3次元画像(51、61)を複数のエリアに分割し、分割されたエリアの内、最も特徴点を多く含むエリアを特定し、特定されたエリアと重複する構造物を前記目印構造物(58)として特定する。
上記構成を有する移動案内システムによれば、案内交差点の3次元画像中に特徴点や構造物が多数含まれる場合であっても、特徴点の集中する構造物を適切に選択することが可能となる。
The third configuration is as follows.
The target structure specifying unit (41) divides the three-dimensional image (51, 61) of the guidance intersection (52) rendered by the image generation unit (41) into a plurality of areas. Among them, an area including the most feature points is specified, and a structure overlapping with the specified area is specified as the mark structure (58).
According to the travel guidance system having the above-described configuration, it is possible to appropriately select a structure in which feature points are concentrated even when a large number of feature points and structures are included in a three-dimensional image of a guidance intersection. Become.

また、第4の構成は以下のとおりである。
天候を取得する天候取得手段(41)を有し、前記特徴点抽出手段(41)は、前記天候取得手段により取得した天候をシミュレートしてレンダリングされた前記案内交差点(52)の3次元画像(51、61)から前記特徴点を抽出する。
上記構成を有する移動案内システムによれば、案内交差点付近に移動体が到達した場合に、現在の天候状態でユーザが視認することとなる実際の周辺環境から目印となる構造物を特定するので、現在の天候状態で目印として適切な構造物を案内交差点の案内を行う場合の目印として選択することが可能となる。
The fourth configuration is as follows.
It has a weather acquisition means (41) for acquiring the weather, and the feature point extraction means (41) is a three-dimensional image of the guidance intersection (52) rendered by simulating the weather acquired by the weather acquisition means The feature points are extracted from (51, 61).
According to the travel guidance system having the above configuration, when a mobile object arrives in the vicinity of the guidance intersection, the structure that serves as a mark is identified from the actual surrounding environment that the user will visually recognize in the current weather condition. It is possible to select an appropriate structure as a mark in the current weather state as a mark when guiding a guidance intersection.

また、第5の構成は以下のとおりである。
日時を取得する日時取得手段(41)を有し、前記特徴点抽出手段(41)は、前記日時取得手段により取得した日時をシミュレートしてレンダリングされた前記案内交差点(52)の3次元画像(51、61)から前記特徴点を抽出する。
上記構成を有する移動案内システムによれば、案内交差点付近に移動体が到達した場合に、現在の日時でユーザが視認することとなる実際の周辺環境から目印となる構造物を特定するので、現在の日時で目印として適切な構造物を案内交差点の案内を行う場合の目印として選択することが可能となる。
The fifth configuration is as follows.
A three-dimensional image of the guidance intersection (52) rendered by simulating the date and time acquired by the date and time acquisition unit; and a date and time acquisition unit (41) for acquiring a date and time The feature points are extracted from (51, 61).
According to the travel guidance system having the above configuration, when a mobile object arrives near the guidance intersection, the structure that becomes the landmark is identified from the actual surrounding environment that the user will visually recognize at the current date and time. It is possible to select an appropriate structure as a mark at the date and time as a mark when guiding a guidance intersection.

また、第6の構成は以下のとおりである。
前記画像表示手段(41)は、前記案内交差点(52)の3次元画像(51、61)において前記目印構造物(58)を前記他の構造物よりも強調して表示する。
上記構成を有する移動案内システムによれば、案内交差点付近に多数の構造物が存在する場合であっても、案内交差点の3次元画像において目印構造物をユーザに容易に特定させることが可能となる。
The sixth configuration is as follows.
The image display means (41) displays the landmark structure (58) more emphasized than the other structures in the three-dimensional image (51, 61) of the guidance intersection (52).
According to the travel guidance system having the above configuration, even if there are many structures near the guidance intersection, the user can easily identify the landmark structure in the three-dimensional image of the guidance intersection. .

また、第7の構成は以下のとおりである。
前記画像表示手段(41)は、前記目印構造物(58)にはテクスチャマッピングを行う一方で、前記他の構造物にはテクスチャマッピングを行わない前記案内交差点(52)の3次元画像(51、61)を表示する。
上記構成を有する移動案内システムによれば、テクスチャマッピングの有無のみによって、案内交差点の3次元画像において目印構造物を他の構造物と明確に差別化することが可能となる。また、テクスチャマッピングの処理量を減らすことによって、CPUの処理負担を軽減することも可能となる。
The seventh configuration is as follows.
The image display means (41) performs texture mapping on the landmark structure (58), but does not perform texture mapping on the other structure, and the three-dimensional image (51, 51) of the guidance intersection (52). 61) is displayed.
According to the movement guidance system having the above configuration, the landmark structure can be clearly differentiated from other structures in the three-dimensional image of the guidance intersection only by the presence or absence of texture mapping. In addition, the processing load on the CPU can be reduced by reducing the processing amount of texture mapping.

また、第8の構成は以下のとおりである。
前記移動体の現在位置を取得する位置取得手段(41)を有し、前記画像生成手段(41)は、前記移動体の移動に伴って所定間隔で前記移動体の現在位置を視点とし、前記移動体の進行方向を視線方向とした前記案内交差点(52)の3次元画像(51、61)をレンダリングし、前記画像表示手段(41)は、前記移動体の移動に伴ってレンダリングされた前記案内交差点の3次元画像を順次切り替えて表示する。
上記構成を有する移動案内システムによれば、移動体の現在位置と対応させて表示される案内交差点の3次元画像についても表示内容を更新するので、ユーザの視界と案内交差点の3次元画像をより密接に対応させて表示することが可能となる。
The eighth configuration is as follows.
A position acquisition unit (41) for acquiring a current position of the mobile body, wherein the image generation unit (41) uses the current position of the mobile body as a viewpoint at predetermined intervals as the mobile body moves; The three-dimensional image (51, 61) of the guidance intersection (52) with the traveling direction of the moving body as the line of sight is rendered, and the image display means (41) is rendered with the movement of the moving body. The three-dimensional image of the guidance intersection is sequentially switched and displayed.
According to the movement guidance system having the above-described configuration, the display content of the guidance intersection displayed in correspondence with the current position of the moving object is also updated, so that the user's field of view and the guidance intersection three-dimensional image are more displayed. It is possible to display in close correspondence.

また、第9の構成は以下のとおりである。
前記画像表示手段(41)は、前記移動体が前記案内交差点(52)に対して前記案内対象距離より長い所定距離以内に接近した場合に、前記案内交差点の3次元画像(51、61)を、前記目印構造物の表示形態を他の構造物の表示形態と同じ形態にして表示し、その後に前記移動体が前記案内交差点に対して前記案内対象距離以内に接近した場合に、前記目印構造物(58)の表示形態を他の構造物の表示形態と異なる形態とする。
上記構成を有する移動案内システムによれば、先ずユーザによって実際に視認される周辺環境と対応する案内交差点の3次元画像を表示するとともに、その後に目印構造物の表示形態を他の構造物の表示形態と異なる形態とした3次元画像へと変更するので、ユーザは構造物の表示形態を変える前と変えた後の3次元画像を比較することによって、目印構造物をより容易に特定することが可能となる。
The ninth configuration is as follows.
The image display means (41) displays a three-dimensional image (51, 61) of the guidance intersection when the moving body approaches the guidance intersection (52) within a predetermined distance longer than the guidance target distance. The display structure of the mark structure is displayed in the same form as the display form of other structures, and then the mark structure is displayed when the moving body approaches the guidance intersection within the guidance target distance. The display form of the object (58) is different from the display form of other structures.
According to the movement guidance system having the above-described configuration, first, a three-dimensional image of a guidance intersection corresponding to the surrounding environment actually viewed by the user is displayed, and then the display form of the landmark structure is displayed as another structure. Since it is changed to a three-dimensional image having a different form, the user can more easily identify the landmark structure by comparing the three-dimensional image before and after changing the display form of the structure. It becomes possible.

1 ナビゲーション装置
41 CPU
42 RAM
43 ROM
50 走行案内画面
51、61 案内交差点の3次元画像
52 案内交差点
55 案内経路
58 目印構造物
1 Navigation device 41 CPU
42 RAM
43 ROM
50 Traveling guidance screen 51, 61 Three-dimensional image of a guidance intersection 52 Guidance intersection 55 Guidance route 58 Marking structure

Claims (11)

移動体の移動を案内する案内経路を取得する案内経路取得手段と、
前記案内経路において案内対象となる案内交差点の3次元画像を前記移動体の進行方向を視線方向としてレンダリングする画像生成手段と、
前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像の特徴点を抽出する特徴点抽出手段と、
前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像に含まれる構造物の内、前記特徴点抽出手段により抽出された前記特徴点が集中する構造物を目印構造物として特定する目印構造物特定手段と、
前記移動体が前記案内交差点に対して案内対象距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示する画像表示手段と、を有する移動案内システム。
Guidance route acquisition means for acquiring a guidance route for guiding the movement of the moving body;
Image generating means for rendering a three-dimensional image of a guidance intersection to be a guidance target in the guidance route with a traveling direction of the moving body as a line-of-sight direction;
Feature point extraction means for extracting feature points of the three-dimensional image of the guidance intersection rendered by the image generation means;
A landmark structure that identifies, as a landmark structure, a structure in which the feature points extracted by the feature point extraction means are concentrated among structures included in the three-dimensional image of the guidance intersection rendered by the image generation means. Specific means,
When the moving body approaches the guidance intersection within a guidance target distance, a three-dimensional image of the guidance intersection is displayed with a display form of the landmark structure different from a display form of other structures. And a moving guide system.
前記特徴点抽出手段は、前記移動体が前記案内交差点に対して前記案内対象距離手前の位置にある前記移動体の位置を視点とし、前記移動体の進行方向を視線方向としてレンダリングされた前記案内交差点の3次元画像を対象として前記特徴点の抽出を行う請求項1に記載の移動案内システム。   The feature point extracting unit is configured to render the guide rendered with the moving body at a position before the guidance target distance with respect to the guidance intersection as the viewpoint and the traveling direction of the moving body as the line-of-sight direction. The movement guide system according to claim 1, wherein the feature points are extracted from a three-dimensional image of an intersection. 前記対象構造物特定手段は、
前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像を複数のエリアに分割し、
分割されたエリアの内、最も特徴点を多く含むエリアを特定し、
特定されたエリアと重複する構造物を前記目印構造物として特定する請求項1又は請求項2に記載の移動案内システム。
The target structure specifying means includes
Dividing the three-dimensional image of the guidance intersection rendered by the image generation means into a plurality of areas;
Among the divided areas, identify the area with the most feature points,
The movement guide system according to claim 1 or 2, wherein a structure that overlaps the specified area is specified as the landmark structure.
天候を取得する天候取得手段を有し、
前記特徴点抽出手段は、前記天候取得手段により取得した天候をシミュレートしてレンダリングされた前記案内交差点の3次元画像から前記特徴点を抽出する請求項1乃至請求項3のいずれかに記載の移動案内システム。
Have weather acquisition means to acquire the weather,
4. The feature point extraction unit according to claim 1, wherein the feature point extraction unit extracts the feature point from a three-dimensional image of the guidance intersection rendered by simulating the weather acquired by the weather acquisition unit. 5. Travel guidance system.
日時を取得する日時取得手段を有し、
前記特徴点抽出手段は、前記日時取得手段により取得した日時をシミュレートしてレンダリングされた前記案内交差点の3次元画像から前記特徴点を抽出する請求項1乃至請求項4のいずれかに記載の移動案内システム。
Having date and time acquisition means for acquiring date and time,
5. The feature point extraction unit according to claim 1, wherein the feature point extraction unit extracts the feature point from a three-dimensional image of the guidance intersection rendered by simulating the date and time acquired by the date and time acquisition unit. Travel guidance system.
前記画像表示手段は、前記案内交差点の3次元画像において前記目印構造物を前記他の構造物よりも強調して表示する請求項1乃至請求項5のいずれかに記載の移動案内システム。   The movement guide system according to any one of claims 1 to 5, wherein the image display means displays the landmark structure more emphasized than the other structures in the three-dimensional image of the guidance intersection. 前記画像表示手段は、前記目印構造物にはテクスチャマッピングを行う一方で、前記他の構造物にはテクスチャマッピングを行わない前記案内交差点の3次元画像を表示する請求項1乃至請求項5のいずれかに記載の移動案内システム。   6. The image display device according to claim 1, wherein the image display unit displays a three-dimensional image of the guidance intersection that performs texture mapping on the landmark structure but does not perform texture mapping on the other structure. The travel guidance system described in Crab. 前記移動体の現在位置を取得する位置取得手段を有し、
前記画像生成手段は、前記移動体の移動に伴って所定間隔で前記移動体の現在位置を視点とし、前記移動体の進行方向を視線方向とした前記案内交差点の3次元画像をレンダリングし、
前記画像表示手段は、前記移動体の移動に伴ってレンダリングされた前記案内交差点の3次元画像を順次切り替えて表示する請求項1乃至請求項7のいずれかに記載の移動案内システム。
Having a position acquisition means for acquiring a current position of the mobile body;
The image generating means renders a three-dimensional image of the guidance intersection with the current position of the moving body as a viewpoint at a predetermined interval as the moving body moves, and with the traveling direction of the moving body as a line-of-sight direction,
The movement guide system according to any one of claims 1 to 7, wherein the image display means sequentially switches and displays the three-dimensional image of the guidance intersection rendered as the moving body moves.
前記画像表示手段は、
前記移動体が前記案内交差点に対して前記案内対象距離より長い所定距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と同じ形態にして表示し、
その後に前記移動体が前記案内交差点に対して前記案内対象距離以内に接近した場合に、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態とする請求項1乃至請求項8のいずれかに記載の移動案内システム。
The image display means includes
When the moving body approaches the guidance intersection within a predetermined distance longer than the guidance target distance, a three-dimensional image of the guidance intersection is displayed as a display form of the landmark structure and a display form of another structure. Display in the same form,
9. The display form of the landmark structure is different from the display form of other structures when the moving body approaches the guidance intersection within the guidance target distance thereafter. The movement guide system according to any one of the above.
案内経路取得手段が、移動体の移動を案内する案内経路を取得するステップと、
画像生成手段が、前記案内経路において案内対象となる案内交差点の3次元画像を前記移動体の進行方向を視線方向としてレンダリングするステップと、
特徴点抽出手段が、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像の特徴点を抽出するステップと、
目印構造物特定手段が、前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像に含まれる構造物の内、前記特徴点抽出手段により抽出された前記特徴点が集中する構造物を目印構造物として特定するステップと、
画像表示手段が、前記移動体が前記案内交差点に対して案内対象距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示するステップと、を有する移動案内方法。
A guide route acquiring means for acquiring a guide route for guiding the movement of the moving body;
An image generating unit rendering a three-dimensional image of a guidance intersection to be a guidance target in the guidance route with a traveling direction of the moving body as a line-of-sight direction;
A feature point extracting unit extracting a feature point of the three-dimensional image of the guidance intersection rendered by the image generating unit;
The mark structure specifying means uses a structure in which the feature points extracted by the feature point extraction means are concentrated among structures included in the three-dimensional image of the guidance intersection rendered by the image generation means. Identifying as a thing,
When the moving body approaches the guidance intersection within a guidance target distance, the image display means displays the three-dimensional image of the guidance intersection, the display form of the landmark structure, and the display form of another structure. And a step of displaying in different forms.
コンピュータを、
移動体の移動を案内する案内経路を取得する案内経路取得手段と、
前記案内経路において案内対象となる案内交差点の3次元画像を前記移動体の進行方向を視線方向としてレンダリングする画像生成手段と、
前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像の特徴点を抽出する特徴点抽出手段と、
前記画像生成手段によりレンダリングされた前記案内交差点の3次元画像に含まれる構造物の内、前記特徴点抽出手段により抽出された前記特徴点が集中する構造物を目印構造物として特定する目印構造物特定手段と、
前記移動体が前記案内交差点に対して案内対象距離以内に接近した場合に、前記案内交差点の3次元画像を、前記目印構造物の表示形態を他の構造物の表示形態と異なる形態にして表示する画像表示手段と、
して機能させる為のコンピュータプログラム。
Computer
Guidance route acquisition means for acquiring a guidance route for guiding the movement of the moving body;
Image generating means for rendering a three-dimensional image of a guidance intersection to be a guidance target in the guidance route with a traveling direction of the moving body as a line-of-sight direction;
Feature point extraction means for extracting feature points of the three-dimensional image of the guidance intersection rendered by the image generation means;
A landmark structure that identifies, as a landmark structure, a structure in which the feature points extracted by the feature point extraction means are concentrated among structures included in the three-dimensional image of the guidance intersection rendered by the image generation means. Specific means,
When the moving body approaches the guidance intersection within a guidance target distance, a three-dimensional image of the guidance intersection is displayed with a display form of the landmark structure different from a display form of other structures. Image display means for
Computer program to make it function.
JP2015153430A 2015-08-03 2015-08-03 Movement guide system, movement guide method and computer program Pending JP2017032436A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015153430A JP2017032436A (en) 2015-08-03 2015-08-03 Movement guide system, movement guide method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015153430A JP2017032436A (en) 2015-08-03 2015-08-03 Movement guide system, movement guide method and computer program

Publications (1)

Publication Number Publication Date
JP2017032436A true JP2017032436A (en) 2017-02-09

Family

ID=57988613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015153430A Pending JP2017032436A (en) 2015-08-03 2015-08-03 Movement guide system, movement guide method and computer program

Country Status (1)

Country Link
JP (1) JP2017032436A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190037029A (en) * 2017-09-28 2019-04-05 현대엠엔소프트 주식회사 Rendering apparatus based on precise map data and method thereof
WO2019097762A1 (en) * 2017-11-17 2019-05-23 アイシン・エィ・ダブリュ株式会社 Superimposed-image display device and computer program
JP2019117053A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2022148707A (en) * 2021-03-24 2022-10-06 本田技研工業株式会社 Display device for vehicle

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190037029A (en) * 2017-09-28 2019-04-05 현대엠엔소프트 주식회사 Rendering apparatus based on precise map data and method thereof
KR102360472B1 (en) * 2017-09-28 2022-02-08 현대오토에버 주식회사 Rendering apparatus based on precise map data and method thereof
WO2019097762A1 (en) * 2017-11-17 2019-05-23 アイシン・エィ・ダブリュ株式会社 Superimposed-image display device and computer program
JP2019095215A (en) * 2017-11-17 2019-06-20 アイシン・エィ・ダブリュ株式会社 Superimposed image display device and computer program
US11525694B2 (en) 2017-11-17 2022-12-13 Aisin Corporation Superimposed-image display device and computer program
JP2019117053A (en) * 2017-12-26 2019-07-18 パイオニア株式会社 Display control device
JP2022148707A (en) * 2021-03-24 2022-10-06 本田技研工業株式会社 Display device for vehicle
JP7212092B2 (en) 2021-03-24 2023-01-24 本田技研工業株式会社 vehicle display

Similar Documents

Publication Publication Date Title
US11085787B2 (en) Augmented reality interface for navigation assistance
US10809090B2 (en) Electronic map display method and apparatus
JP2021077403A (en) Automatic driving support device, control method, program and storage medium
US10553021B2 (en) System and methods for interactive hybrid-dimension map visualization
JP4679182B2 (en) Map display method, map display program, and map display device
JP2020064068A (en) Visual reinforcement navigation
JP2019095213A (en) Superimposed image display device and computer program
US20130173156A1 (en) Apparatus, Method and Computer Program for Displaying Points of Interest
CN105765345A (en) Apparatus and methods of displaying navigation instructions
JPWO2009084135A1 (en) Navigation device
JP2009020089A (en) System, method, and program for navigation
JP6489600B2 (en) ELECTRONIC DEVICE, GUIDANCE GUIDANCE METHOD, GUIDANCE GUIDANCE PROGRAM
JP2017032436A (en) Movement guide system, movement guide method and computer program
JP2021039085A (en) Superimposed image display device, superimposed image drawing method, and computer program
JP2009236843A (en) Navigation device, navigation method, and navigation program
JP2000055675A (en) Map display device for vehicle and its method
JP4798549B2 (en) Car navigation system
JP6572654B2 (en) Route guidance system, route guidance method and computer program
JP5070421B2 (en) Map display device
JP2003195744A (en) Map display device
JP2017067528A (en) Information providing system, information providing method, and computer program
JP6542085B2 (en) INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM
JP5338838B2 (en) Movement guidance display system, movement guidance display method, and computer program
JP2012189477A (en) Route display device, method and program
JP7400356B2 (en) Superimposed image display device and computer program