JP2017102172A - Map image display system, map image display method, and computer program - Google Patents

Map image display system, map image display method, and computer program Download PDF

Info

Publication number
JP2017102172A
JP2017102172A JP2015233134A JP2015233134A JP2017102172A JP 2017102172 A JP2017102172 A JP 2017102172A JP 2015233134 A JP2015233134 A JP 2015233134A JP 2015233134 A JP2015233134 A JP 2015233134A JP 2017102172 A JP2017102172 A JP 2017102172A
Authority
JP
Japan
Prior art keywords
point
captured image
map
image
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015233134A
Other languages
Japanese (ja)
Inventor
雅聡 柴田
Masaaki Shibata
雅聡 柴田
隆宏 佐藤
Takahiro Sato
隆宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2015233134A priority Critical patent/JP2017102172A/en
Publication of JP2017102172A publication Critical patent/JP2017102172A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a map image display system, a map image display method, and a computer program, which can display a photographed image actually having photographed the surrounding environment along a route desired by a user.SOLUTION: When a drag operation for drawing a trajectory on a map image displayed on a liquid crystal display by a user is received, a trajectory route in which a map-matching of the trajectory drawn by the user is performed on the map is acquired, a photographed image having photographed the surrounding environment along the trajectory route is acquired from a photograph image DB in association with the photographing position at which the photographed image is photographed, a plurality of base points is set from a start point of the trajectory route to an end point, and a plurality of photographed images 66 in which each base point is associated as the photographing position is sequentially switched and displayed in photographing position from the start point of the trajectory route in the order of nearness.SELECTED DRAWING: Figure 26

Description

本発明は、表示装置に表示された地図画像を用いて案内を行う地図画像表示システム、地図画像表示方法及びコンピュータプログラムに関する。   The present invention relates to a map image display system that performs guidance using a map image displayed on a display device, a map image display method, and a computer program.

近年、車両の走行案内を行い、運転者が所望の目的地に容易に到着できるようにしたナビゲーション装置が車両に搭載されていることが多い。ここで、ナビゲーション装置とは、GPS受信機などにより自車の現在位置を検出し、その現在位置に対応する地図データをDVD−ROMやHDDなどの記録媒体またはネットワークを通じて取得して液晶モニタに表示することが可能な装置である。更に、かかるナビゲーション装置には、所望する目的地を入力すると、自車位置から目的地までの推奨経路を探索する経路探索機能を備えており、探索された推奨経路を案内経路として設定し、ディスプレイ画面に自車位置周辺の地図画像を表示するとともに、交差点に接近した場合等には右左折方向等の案内をすることによって、ユーザを所望の目的地まで確実に案内するようになっている。また、近年は携帯電話機、スマートフォン、タブレット型端末、パーソナルコンピュータ等においても上記ナビゲーション装置と同様の機能を有するものがある。   2. Description of the Related Art In recent years, a navigation device is often mounted on a vehicle that provides vehicle travel guidance so that a driver can easily arrive at a desired destination. Here, the navigation device detects the current position of the vehicle by a GPS receiver or the like, acquires map data corresponding to the current position through a recording medium such as a DVD-ROM or HDD or a network, and displays it on a liquid crystal monitor. It is a device that can do. Further, the navigation device has a route search function for searching for a recommended route from the vehicle position to the destination when a desired destination is input, and sets the searched recommended route as a guide route. A map image around the vehicle position is displayed on the screen, and when approaching an intersection, the user is surely guided to a desired destination by guiding the right and left turn directions. In recent years, some mobile phones, smartphones, tablet terminals, personal computers, and the like have functions similar to those of the navigation device.

更に、従来においては上記車両への案内として、地図画像を表示したり交差点での右左折方向を案内する以外に、周辺環境を実際に撮像した実写の撮像画像を表示することも行われていた。例えば特開2012−226089号公報には、車両の現在地が目的地から所定距離以内に接近した場合に、ナビゲーション装置のディスプレイにおいて目的地の外観を撮像した撮像画像を表示することによって、ユーザに目的地を誤認させることなく到着させる技術について提案されている。   Further, conventionally, as a guide to the vehicle, in addition to displaying a map image and guiding a left / right turn direction at an intersection, a captured image of a real image obtained by actually capturing the surrounding environment has also been displayed. . For example, in Japanese Patent Laid-Open No. 2012-226089, when the current location of a vehicle approaches within a predetermined distance from the destination, the captured image obtained by capturing the appearance of the destination is displayed on the display of the navigation device. Proposals have been made on techniques for arriving without misunderstanding the ground.

特開2012−226089号公報(第5頁、図2)JP 2012-226089 A (5th page, FIG. 2)

しかしながら、上記特許文献1の技術では、撮像画像が表示されるタイミングはナビゲーション装置で目的地が設定され、且つ車両が目的地に接近した場合のみである。また、表示される撮像画像の内容も目的地の外観を撮像した画像のみであるので、任意のタイミングでユーザが必要とする撮像画像を表示することができない問題があった。   However, in the technique disclosed in Patent Document 1, the captured image is displayed only when the destination is set by the navigation device and the vehicle approaches the destination. Moreover, since the content of the captured image displayed is only an image obtained by capturing the appearance of the destination, there is a problem that the captured image required by the user cannot be displayed at an arbitrary timing.

例えば、目的地の外観を撮像した撮像画像を表示すれば、ユーザは目的地の外観について把握することは可能となるが、目的地の外観の画像のみではユーザが目的地へと向かう途中に視認することとなる周辺環境(交差点や目印となる周辺施設など)と対応させて目的地の位置を特定することができない。また、ユーザが目的地以外の地点を撮像した撮像画像の表示を希望する場合もある。そのようなユーザが撮像画像を希望する地点としては、例えば目的地までの経路上にある難交差点や経由地点等のユーザが状況を把握したい地点がある。   For example, if a captured image that captures the appearance of the destination is displayed, the user can grasp the appearance of the destination, but the user can visually recognize the appearance of the destination only on the way to the destination. The location of the destination cannot be specified in correspondence with the surrounding environment (intersection or surrounding facility that serves as a landmark). In some cases, the user may wish to display a captured image obtained by capturing a point other than the destination. Such a point where a user desires a captured image includes a point where the user wants to grasp the situation, such as a difficult intersection or a waypoint on the route to the destination.

本発明は前記従来における問題点を解消するためになされたものであり、ユーザの希望する経路沿いの周辺環境を実際に撮像した撮像画像を表示することを可能とした地図画像表示システム、地図画像表示方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and a map image display system and a map image that can display a captured image obtained by actually capturing a surrounding environment along a route desired by a user. An object is to provide a display method and a computer program.

前記目的を達成するため本発明に係る地図画像表示システムは、地図画像を表示装置に表示する画像表示手段と、前記表示装置に表示された前記地図画像上でユーザが軌跡を描く操作を受け付ける操作受付手段と、前記ユーザによって描かれた軌跡を地図上にマップマッチングした修正軌跡を取得するマップマッチング手段と、前記修正軌跡沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて取得する画像データ取得手段と、前記軌跡経路の始点から終点までの間に複数の基点を設定するとともに、複数の前記基点が前記撮像位置として対応付けられた複数の前記撮像画像を、前記撮像位置が前記軌跡経路の始点から近い順に順次切り替えて表示する撮像画像表示手段と、を有することを特徴とする。   In order to achieve the above object, a map image display system according to the present invention includes an image display means for displaying a map image on a display device, and an operation for accepting an operation for a user to draw a locus on the map image displayed on the display device. Receiving means; map matching means for acquiring a corrected locus obtained by map-matching the locus drawn by the user on a map; and a captured image obtained by capturing the captured image of the surrounding environment along the modified locus. And a plurality of base images set between the start point and end point of the trajectory path, and a plurality of the captured images in which the plurality of base points are associated as the imaging positions. And picked-up image display means for sequentially switching and displaying the picked-up positions in order from the start point of the trajectory path.

また、本発明に係る地図画像表示方法は、地図画像上においてユーザが指定した経路沿いで撮像された撮像画像を表示する方法である。具体的には、画像表示手段が、地図画像を表示装置に表示するステップと、操作受付手段が、前記表示装置に表示された前記地図画像上でユーザが軌跡を描く操作を受け付けるステップと、マップマッチング手段が、前記ユーザによって描かれた軌跡を地図上にマップマッチングした修正軌跡を取得するステップと、画像データ取得手段が、前記修正軌跡沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて取得するステップと、撮像画像表示手段が、前記軌跡経路の始点から終点までの間に複数の基点を設定するとともに、複数の前記基点が前記撮像位置として対応付けられた複数の前記撮像画像を、前記撮像位置が前記軌跡経路の始点から近い順に順次切り替えて表示するステップと、を有する。   The map image display method according to the present invention is a method for displaying a captured image taken along a route designated by the user on the map image. Specifically, an image display means displays a map image on a display device, an operation accepting means accepts an operation in which a user draws a locus on the map image displayed on the display device, and a map A matching unit that obtains a corrected trajectory obtained by map-matching a trajectory drawn by the user on a map; and an image data acquiring unit that captures a captured image obtained by imaging the surrounding environment along the corrected trajectory. The step of acquiring in association with the imaged imaging position and the captured image display means set a plurality of base points between the start point and end point of the trajectory path, and the plurality of base points are associated as the image pickup positions. And sequentially switching and displaying the plurality of captured images in the order in which the imaging positions are closer to the start point of the trajectory path.

また、本発明に係るコンピュータプログラムは、地図画像上においてユーザが指定した経路沿いで撮像された撮像画像を表示するプログラムである。具体的には、コンピュータを、地図画像を表示装置に表示する画像表示手段と、前記表示装置に表示された前記地図画像上でユーザが軌跡を描く操作を受け付ける操作受付手段と、前記ユーザによって描かれた軌跡を地図上にマップマッチングした修正軌跡を取得するマップマッチング手段と、前記修正軌跡沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて取得する画像データ取得手段と、前記軌跡経路の始点から終点までの間に複数の基点を設定するとともに、複数の前記基点が前記撮像位置として対応付けられた複数の前記撮像画像を、前記撮像位置が前記軌跡経路の始点から近い順に順次切り替えて表示する撮像画像表示手段と、して機能させる。   The computer program according to the present invention is a program for displaying a captured image captured along a route designated by the user on a map image. Specifically, the computer displays image display means for displaying a map image on a display device, operation accepting means for accepting an operation in which a user draws a locus on the map image displayed on the display device, and drawing by the user Image data for acquiring a map matching means for acquiring a corrected locus obtained by map-matching the detected locus on a map, and a captured image obtained by imaging the surrounding environment along the corrected locus in association with an imaging position where the captured image is captured A plurality of base points are set between an acquisition means and a start point to an end point of the trajectory path, and a plurality of the captured images in which the plurality of base points are associated as the imaging positions are set, and the imaging position is the trajectory path It is made to function as a picked-up image display means for switching and displaying sequentially in the order from the start point.

前記構成を有する本発明に係る地図画像表示システム、地図画像表示方法及びコンピュータプログラムによれば、ユーザが地図画像上で軌跡を描く操作を行うことによって、描かれた軌跡に応じた経路沿いの周辺環境の撮像画像を順次切り替えて表示するので、ユーザの希望する経路沿いの周辺環境の撮像画像を表示することが可能となる。その結果、例えばユーザは、表示された撮像画像から周辺環境と対応させて目的地の位置を容易に特定することが可能となる。また、目的地までの経路上にある難交差点や経由地点等のユーザが状況を把握したい地点を対象として、該地点を撮像した撮像画像を表示させることも可能となる。   According to the map image display system, the map image display method, and the computer program according to the present invention having the above-described configuration, when the user performs an operation of drawing a locus on the map image, the periphery along the route according to the drawn locus Since the captured images of the environment are sequentially switched and displayed, it is possible to display the captured images of the surrounding environment along the route desired by the user. As a result, for example, the user can easily specify the position of the destination from the displayed captured image in association with the surrounding environment. It is also possible to display a picked-up image of a point where a user wants to grasp the situation, such as a difficult intersection or a waypoint on the route to the destination.

本実施形態に係る地図画像表示システムを示した概略構成図である。It is a schematic structure figure showing a map image display system concerning this embodiment. 情報サーバに記憶される撮像画像を示した図である。It is the figure which showed the captured image memorize | stored in an information server. 本実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on this embodiment. 本実施形態に係る撮像画像表示処理プログラムのフローチャートである。It is a flowchart of the captured image display processing program which concerns on this embodiment. 液晶ディスプレイに表示される走行案内画面を示した図である。It is the figure which showed the driving guidance screen displayed on a liquid crystal display. タップ用取得情報設定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the acquisition information setting process for taps. ユーザによるタップ操作を説明した図である。It is a figure explaining tap operation by a user. ユーザによるタップ操作が行われ、且つタッチ位置が目的地の周辺の道路上である場合において、液晶ディスプレイに表示される撮像画像の撮像方向の設定方法を説明した図である。It is a figure explaining the setting method of the imaging direction of the captured image displayed on a liquid crystal display, when the tap operation by a user is performed and a touch position is on the road around a destination. ユーザによるタップ操作が行われ、且つタッチ位置が目的地周辺の道路上である場合において、液晶ディスプレイに表示される撮像画像の一例を示した図である。It is the figure which showed an example of the captured image displayed on a liquid crystal display, when the tap operation by a user is performed and a touch position is on the road around a destination. ユーザによるタップ操作が行われ、且つタッチ位置が目的地の周辺以外の道路上である場合において、液晶ディスプレイに表示される撮像画像の撮像方向の設定方法を説明した図である。It is a figure explaining the setting method of the imaging direction of the captured image displayed on a liquid crystal display, when the tap operation by a user is performed and a touch position is on roads other than the periphery of the destination. ユーザによるタップ操作が行われ、且つタッチ位置が目的地の周辺以外の道路上である場合において、液晶ディスプレイに表示される撮像画像の一例を示した図である。It is the figure which showed an example of the captured image displayed on a liquid crystal display, when the tap operation by a user is performed and a touch position is on roads other than the periphery of the destination. ユーザによるタップ操作が行われ、且つタッチ位置が目的地の場合において、液晶ディスプレイに表示される撮像画像の撮像方向の設定方法を説明した図である。It is a figure explaining the setting method of the imaging direction of the captured image displayed on a liquid crystal display in case a tap operation by a user is performed and a touch position is a destination. ユーザによるタップ操作が行われ、且つタッチ位置が目的地の場合において、液晶ディスプレイに表示される撮像画像の一例を示した図である。It is the figure which showed an example of the captured image displayed on a liquid crystal display in case a tap operation by a user is performed and a touch position is a destination. ユーザによるタップ操作が行われ、且つタッチ位置が目的地でなく道路上でもない場合において、液晶ディスプレイに表示される撮像画像の撮像方向の設定方法を説明した図である。It is a figure explaining the setting method of the imaging direction of the captured image displayed on a liquid crystal display, when the tap operation by a user is performed and the touch position is not a destination and on the road. ユーザによるタップ操作が行われ、且つタッチ位置が目的地でなく道路上でもない場合において、液晶ディスプレイに表示される撮像画像の一例を示した図である。It is the figure which showed an example of the captured image displayed on a liquid crystal display, when the tap operation by a user is performed and a touch position is not on the destination and on the road. ドラッグ用取得情報設定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the acquisition information setting process for drag | drug. ユーザによるドラッグ操作を説明した図である。It is a figure explaining drag operation by a user. 撮像位置決定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of an imaging position determination process. 基点の設定方法について説明した図である。It is a figure explaining the setting method of a base point. 撮像方向決定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of an imaging direction determination process. 目的地、特定の施設及び特定の地点が近くにない基点に対して設定される撮像画像の撮像方向を説明した図である。It is a figure explaining the imaging direction of the captured image set with respect to the base point where the destination, a specific facility, and a specific point are not near. 目的地、特定の施設及び特定の地点が近くにある基点に対して設定される撮像画像の撮像方向を説明した図である。It is a figure explaining the imaging direction of the captured image set with respect to the base point where the destination, a specific facility, and a specific point are near. ユーザによるドラッグ操作が行われ、且つユーザによって描かれた軌跡の終点周辺に目的地、特定の施設及び特定の地点がない場合において、各基点に設定される撮像方向を示した図である。It is the figure which showed the imaging direction set to each base point, when the drag operation by a user is performed and there is no destination, a specific facility, and a specific point around the end point of the locus | trajectory drawn by the user. ユーザによるドラッグ操作が行われ、且つユーザによって描かれた軌跡の終点周辺に目的地、特定の施設及び特定の地点がない場合において、液晶ディスプレイに表示される撮像画像の一例を示した図である。It is the figure which showed an example of the picked-up image displayed on a liquid crystal display, when drag operation by a user is performed and there is no destination, a specific facility, and a specific point around the end point of the locus | trajectory drawn by the user. . ユーザによるドラッグ操作が行われ、且つユーザによって描かれた軌跡の終点周辺に目的地、特定の施設及び特定の地点がある場合において、各基点に設定される撮像方向を示した図である。It is the figure which showed the imaging direction set to each base point, when the drag operation by a user is performed and there exists a destination, a specific facility, and a specific point around the end point of the locus | trajectory drawn by the user. ユーザによるドラッグ操作が行われ、且つユーザによって描かれた軌跡の終点周辺に目的地、特定の施設及び特定の地点がある場合において、液晶ディスプレイに表示される撮像画像の一例を示した図である。It is the figure which showed an example of the captured image displayed on a liquid crystal display, when a user's drag operation is performed and there exists a destination, a specific facility, and a specific point around the end point of the locus | trajectory drawn by the user. .

以下、本発明に係る地図画像表示システムについて具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係る地図画像表示システム1の概略構成について図1を用いて説明する。図1は本実施形態に係る地図画像表示システム1を示した概略構成図である。   DETAILED DESCRIPTION Hereinafter, a map image display system according to an embodiment of the present invention will be described in detail with reference to the drawings based on an embodiment. First, a schematic configuration of the map image display system 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a schematic configuration diagram showing a map image display system 1 according to the present embodiment.

図1に示すように、本実施形態に係る地図画像表示システム1は、情報管理センタ2が有する情報サーバ3と、ユーザ4が乗車する車両に搭載されたナビゲーション装置5とを基本的に有している。尚、ナビゲーション装置5は、ナビ機能を備えた情報端末であれば良く、ナビゲーション装置以外に携帯電話機、PDA、タブレット型端末、スマートフォン、パーソナルコンピュータ等としても良い。また、情報管理センタ2とナビゲーション装置5とは通信ネットワーク網6を介して互いに電子データを送受信可能に構成されている。   As shown in FIG. 1, the map image display system 1 according to the present embodiment basically includes an information server 3 included in the information management center 2 and a navigation device 5 mounted on a vehicle on which the user 4 rides. ing. The navigation device 5 may be an information terminal having a navigation function, and may be a mobile phone, a PDA, a tablet terminal, a smartphone, a personal computer, or the like in addition to the navigation device. The information management center 2 and the navigation device 5 are configured to be able to transmit and receive electronic data to and from each other via the communication network 6.

ここで、情報サーバ3は、全国各地の道路網や施設に関する地図情報を地図情報DB7に記憶する。また、地図情報に含まれる道路沿いの周辺環境を実際に撮像した実写の撮像画像を撮像画像DB8に記憶する。そして、ナビゲーション装置5の要求に応じてDBに記憶された撮像画像を提供するサーバ装置である。ここで、撮像画像DB8に記憶される撮像画像は、実際に全国各地の道路を走行した車両に搭載されたカメラによって撮像された画像であり、撮像位置を中心とした360度パノラマ画像となる。尚、360度パノラマ画像は1枚の画像として記憶しても良いし、所定角度単位(例えば120度単位)に区分された複数枚の画像として記憶しても良い。また、撮像画像DB8には、図2に示すように道路上の各撮像位置9に対応付けて撮像画像10が記憶されている。尚、撮像位置9の間隔は適宜設定可能であり、例えば5m〜20mとする。また、撮像位置9は全国の全ての道路上に設定する必要は無く、細街路等は除外しても良い。   Here, the information server 3 stores map information regarding road networks and facilities in various places in the map information DB 7. Moreover, the captured image DB8 which memorize | stores actually the surrounding environment along the road contained in map information is memorize | stored in captured image DB8. And it is a server apparatus which provides the captured image memorize | stored in DB in response to the request | requirement of the navigation apparatus 5. FIG. Here, the captured image stored in the captured image DB 8 is an image captured by a camera that is actually mounted on a vehicle that has traveled on roads throughout the country, and is a 360-degree panoramic image centered on the imaging position. The 360-degree panoramic image may be stored as a single image, or may be stored as a plurality of images divided into predetermined angle units (for example, 120-degree units). The captured image DB 8 stores a captured image 10 in association with each captured position 9 on the road as shown in FIG. In addition, the space | interval of the imaging position 9 can be set suitably, for example, shall be 5m-20m. Further, the imaging positions 9 do not have to be set on all roads in the whole country, and narrow streets and the like may be excluded.

一方、ナビゲーション装置5は、目的地までの推奨経路を探索したり、サーバから取得したりメモリに格納された地図データに基づいてユーザ4の現在位置周辺や任意のエリアの地図画像を所定の縮尺で表示したり、表示された地図画像中においてユーザ4の現在位置を表示したり、設定された案内経路に沿った移動案内を行う機能を有する。尚、上記機能の全てをナビゲーション装置5が備えている必要はなく、少なくともユーザ4の現在位置周辺や任意のエリアの地図画像を表示する機能を有していれば本願発明を構成することが可能である。   On the other hand, the navigation device 5 searches for a recommended route to the destination, obtains it from the server, or stores the map image of the area around the current position of the user 4 or an arbitrary area based on the map data stored at a predetermined scale. Or the current position of the user 4 in the displayed map image, or movement guidance along the set guidance route. Note that the navigation device 5 does not have to have all of the above functions, and the present invention can be configured as long as it has a function of displaying a map image of the area around the current position of the user 4 or an arbitrary area. It is.

また、通信ネットワーク網6は全国各地に配置された多数の基地局と、各基地局を管理及び制御する通信会社とを含み、基地局及び通信会社を有線(光ファイバー、ISDN等)又は無線で互いに接続することにより構成されている。ここで、基地局はナビゲーション装置5との通信をするトランシーバー(送受信機)とアンテナを有する。そして、基地局は通信会社の間で無線通信を行う一方、通信ネットワーク網6の末端となり、基地局の電波が届く範囲(セル)にあるナビゲーション装置5の通信を情報サーバ3との間で中継する役割を持つ。   The communication network 6 includes a large number of base stations arranged in various parts of the country and a communication company that manages and controls each base station. The base station and the communication company are connected to each other by wire (optical fiber, ISDN, etc.) or wirelessly. It is configured by connecting. Here, the base station has a transceiver (transmitter / receiver) for communicating with the navigation device 5 and an antenna. The base station performs wireless communication between the communication companies, and relays the communication of the navigation device 5 that is at the end of the communication network 6 within the range (cell) of the base station to and from the information server 3. Have a role to play.

次に、地図画像表示システム1が有するナビゲーション装置5の概略構成について図3を用いて説明する。図3は本実施形態に係るナビゲーション装置5の制御系を模式的に示すブロック図である。   Next, a schematic configuration of the navigation device 5 included in the map image display system 1 will be described with reference to FIG. FIG. 3 is a block diagram schematically showing a control system of the navigation device 5 according to the present embodiment.

図1に示すように本実施形態に係るナビゲーション装置5は、ナビゲーション装置5が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付けるタッチパネル14と、ユーザに対して車両周辺の地図や施設に関する案内情報を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、情報管理センタ2やVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有している。   As shown in FIG. 1, the navigation device 5 according to the present embodiment includes a current position detection unit 11 that detects a current position of a vehicle on which the navigation device 5 is mounted, a data recording unit 12 that records various data, Based on the input information, the navigation ECU 13 that performs various arithmetic processes, the touch panel 14 that receives operations from the user, the liquid crystal display 15 that displays guidance information related to maps and facilities around the vehicle, and routes Communication is performed between a speaker 16 that outputs voice guidance related to guidance, a DVD drive 17 that reads a DVD as a storage medium, and an information center such as an information management center 2 or a VICS (registered trademark: Vehicle Information and Communication System) center. And a communication module 18 for performing.

以下に、ナビゲーション装置5が有する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置5が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置5が有する構成としても良い。
Below, each component which the navigation apparatus 5 has is demonstrated in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 13. And navigation ECU13 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. Note that the navigation device 5 does not have to include all of the four types of sensors, and the navigation device 5 may have only one or more types of these sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクを有する構成としても良い。また、ナビゲーション装置5は、地図情報DB31を有さずに情報サーバ3から地図情報を通信により取得する構成としても良い。   The data recording unit 12 is also a hard disk (not shown) as an external storage device and a recording medium, and a driver for reading the map information DB 31 and a predetermined program recorded on the hard disk and writing predetermined data on the hard disk And a recording head (not shown). The data recording unit 12 may be configured to have a memory card, an optical disk such as a CD or a DVD, instead of the hard disk. Moreover, the navigation apparatus 5 is good also as a structure which acquires map information from the information server 3 by communication, without having map information DB31.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ32、ノード点に関するノードデータ33、施設等の地点に関する地点データ34、経路の探索に係る処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等が記憶された記憶手段である。   Here, the map information DB 31 displays, for example, link data 32 relating to roads (links), node data 33 relating to node points, point data 34 relating to points such as facilities, search data used for processing related to route search, and maps. Storage means for storing map display data for searching, intersection data for each intersection, search data for searching points, and the like.

また、リンクデータ32としては、道路を構成する各リンクに関してリンクの属する道路の幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線数の減少する箇所、幅員の狭くなる箇所、踏切り等を表すデータが、コーナに関して、曲率半径、交差点、T字路、コーナの入口及び出口等を表すデータが、道路属性に関して、降坂路、登坂路等を表すデータが、道路種別に関して、国道、県道、細街路等の一般道のほか、高速自動車国道、都市高速道路、一般有料道路、有料橋等の有料道路を表すデータがそれぞれ記録される。   The link data 32 includes, for each link constituting the road, the width of the road to which the link belongs, the gradient, the cant, the bank, the road surface state, the number of road lanes, the number of lanes that decrease, The data representing the narrowing point, railroad crossing, etc., the corner, the radius of curvature, the intersection, the T-junction, the corner entrance and the exit, etc. The data representing the downhill road, the uphill road, etc. Regarding types, in addition to general roads such as national roads, prefectural roads and narrow streets, data representing toll roads such as national highways, urban highways, general toll roads, and toll bridges are recorded.

また、ノードデータ33としては、実際の道路の分岐点(交差点、T字路等も含む)や各道路に曲率半径等に応じて所定の距離毎に設定されたノード点の座標(位置)、ノードが交差点に対応するノードであるか等を表すノード属性、ノードに接続するリンクのリンク番号のリストである接続リンク番号リスト、ノードにリンクを介して隣接するノードのノード番号のリストである隣接ノード番号リスト、各ノード点の高さ(高度)等に関するデータ等が記録される。   Further, as the node data 33, the actual road junctions (including intersections, T-junctions, etc.) and the coordinates (positions) of node points set for each road according to the radius of curvature, etc. Node attribute indicating whether a node is a node corresponding to an intersection, etc., a connection link number list that is a list of link numbers of links connected to the node, and an adjacency that is a list of node numbers of nodes adjacent to the node via the link Data relating to the node number list, the height (altitude) of each node point, and the like are recorded.

また、地点データ34としては、ナビゲーション装置5において出発地、目的地、案内対象等となる施設等の地点に関する情報が記憶される。例えば、ホテル、旅館等の宿泊施設、ガソリンスタンド等の給油施設、ショッピングモール、スーパーマーケット、ショッピングセンタ、コンビニエンスストア等の商業施設、テーマパーク、ゲームセンタ等の娯楽施設、レストラン、バー、居酒屋等の飲食施設、公共駐車場等の駐車施設、交通施設、寺院、教会等の宗教施設、美術館、博物館等の公共施設等の施設に関する情報が該当する。また、地点データ34は、地点毎に、地点の識別子である地点番号、地点の名称を示す地点名称、地点が特に施設である場合には施設のジャンル(「駐車場」、「郵便局」、「レストラン」等)を示す施設ジャンル、地点の位置を示す位置座標等を有している。また、特に施設に関しては位置座標に加えて該施設が占有する領域(以下、ポリゴン領域という)を特定する情報についても有している。   Further, as the point data 34, information regarding points such as a departure point, a destination, a facility to be guided in the navigation device 5 is stored. For example, accommodation facilities such as hotels and inns, refueling facilities such as gas stations, commercial facilities such as shopping malls, supermarkets, shopping centers and convenience stores, entertainment facilities such as theme parks and game centers, restaurants, bars and pubs Information on facilities such as facilities, parking facilities such as public parking lots, transportation facilities, religious facilities such as temples and churches, public facilities such as museums and museums, and the like. The point data 34 includes, for each point, a point number that is an identifier of the point, a point name indicating the name of the point, and a genre of the facility (“parking lot”, “post office”, A facility genre indicating “restaurant” and the like, a position coordinate indicating the position of the point, and the like. In particular, regarding facilities, in addition to position coordinates, the facility also has information for specifying an area occupied by the facility (hereinafter referred to as a polygon area).

また、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置5の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の撮像画像表示処理プログラム(図4)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、画像表示手段は、地図画像を液晶ディスプレイ15に表示する。操作受付手段は、液晶ディスプレイ15に表示された地図画像上でユーザが軌跡を描く操作を受け付ける。マップマッチング手段は、ユーザによって描かれた軌跡を地図上にマップマッチングした軌跡経路を取得する。画像データ取得手段は、軌跡経路沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて取得する。撮像画像表示手段は、軌跡経路の始点から終点までの間に複数の基点を設定するとともに、複数の基点が撮像位置として対応付けられた複数の撮像画像を、撮像位置が軌跡経路の始点から近い順に順次切り替えて表示する。   The navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the entire navigation device 5, and includes a CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. Read out from the ROM 43 and the ROM 43 in which a RAM 42 that stores route data when a route is searched, a control program, a captured image display processing program (FIG. 4) described later, and the like are recorded. And an internal storage device such as a flash memory 44 for storing the program. The navigation ECU 13 has various means as processing algorithms. For example, the image display means displays a map image on the liquid crystal display 15. The operation accepting unit accepts an operation in which the user draws a locus on the map image displayed on the liquid crystal display 15. The map matching means obtains a trajectory path obtained by map matching the trajectory drawn by the user on the map. The image data acquisition means acquires a captured image obtained by capturing the surrounding environment along the trajectory path in association with an imaging position where the captured image is captured. The captured image display means sets a plurality of base points from the start point to the end point of the trajectory path, and captures a plurality of captured images in which the plurality of base points are associated as image capturing positions, the image capturing positions being close to the start point of the trajectory path. The images are sequentially switched and displayed.

タッチパネル14は、液晶ディスプレイ15の表示領域の前面に配置され、地図画像のスクロール表示を行う場合や表示領域に配置されたボタンを選択する場合や後述のように撮像画像を表示する地点や区間を地図画像上で指定する場合等に操作される。そして、ナビゲーションECU13は、タッチパネル14の操作によりタッチパネル14から出力される検出信号に基づき、タッチパネル14にユーザがタッチしていない状態からタッチした状態へと移行する“タッチオン”や、タッチパネル14にユーザがタッチした状態からタッチしていない状態へと移行する“タッチオフ”を検出する。また、ユーザがタッチした地点(タッチ地点)の座標であるタッチ座標や、タッチした状態でタッチ地点を移動させる操作(即ちドラッグ操作やフリック操作)を受け付けた場合のタッチ座標の変位についても検出する。そして、ナビゲーションECU13は、検出したタッチ操作やタッチ座標等に対応する各種の動作を実行すべく制御を行う。
尚、ユーザのタッチ操作を受け付ける操作手段としては、タッチパネル14の代わりにタブレット等の操作手段を用いても良い。
The touch panel 14 is arranged in front of the display area of the liquid crystal display 15, and is used to select a point or section for displaying a captured image as described below when scrolling a map image or selecting a button arranged in the display area. It is operated when specifying on the map image. Then, the navigation ECU 13 performs “touch-on” in which the user touches the touch panel 14 from a state in which the user does not touch the touch panel 14 based on a detection signal output from the touch panel 14 by the operation of the touch panel 14, Detects “touch-off” that shifts from a touched state to a non-touched state. Further, touch coordinates that are coordinates of a point touched by the user (touch point) and displacement of touch coordinates when an operation for moving the touch point in a touched state (that is, drag operation or flick operation) is received are also detected. . Then, the navigation ECU 13 performs control to execute various operations corresponding to the detected touch operation, touch coordinates, and the like.
Note that an operation unit such as a tablet may be used instead of the touch panel 14 as an operation unit that receives a user's touch operation.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。また、本実施形態では、後述のようにユーザ4により指定された経路沿いの周辺環境を撮像した撮像画像を表示する際にも用いられる。尚、液晶ディスプレイ15の代わりに、HUDやHMDを用いても良い。   The liquid crystal display 15 includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecast, Time, mail, TV program, etc. are displayed. Moreover, in this embodiment, it is used also when displaying the picked-up image which imaged the surrounding environment along the path | route designated by the user 4 as mentioned later. In place of the liquid crystal display 15, HUD or HMD may be used.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて走行予定経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。   Further, the speaker 16 outputs voice guidance for guiding traveling along the planned traveling route and traffic information guidance based on an instruction from the navigation ECU 13.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。   The DVD drive 17 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like. A card slot for reading / writing a memory card may be provided instead of the DVD drive 17.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。また、本実施形態では情報サーバ3から撮像画像DB8に格納された撮像画像を受信するのにも用いられる。   The communication module 18 is a communication device for receiving traffic information composed of information such as traffic jam information, regulation information, and traffic accident information transmitted from a traffic information center, for example, a VICS center or a probe center. For example, a mobile phone or DCM is applicable. Moreover, in this embodiment, it is used also for receiving the captured image stored in captured image DB8 from the information server 3. FIG.

続いて、前記構成を有するナビゲーション装置5においてCPU41が実行する撮像画像表示処理プログラムについて図4に基づき説明する。図4は本実施形態に係る撮像画像表示処理プログラムのフローチャートである。ここで、撮像画像表示処理プログラムは車両のACC電源(accessory power supply)がONされた後に実行され、ユーザの地図画像へのタッチ操作により指定された地点や区間の周辺環境を撮像した撮像画像を表示するプログラムである。尚、以下の図4、図6、図16、図18、図20にフローチャートで示されるプログラムは、ナビゲーション装置5が備えているRAM42やROM43に記憶されており、CPU41により実行される。   Next, a captured image display processing program executed by the CPU 41 in the navigation device 5 having the above configuration will be described with reference to FIG. FIG. 4 is a flowchart of the captured image display processing program according to the present embodiment. Here, the captured image display processing program is executed after the ACC power supply (accessory power supply) of the vehicle is turned on, and a captured image obtained by capturing the surrounding environment of the point or section designated by the user's touch operation on the map image. This is a program to be displayed. The programs shown in the flowcharts of FIGS. 4, 6, 16, 18, and 20 below are stored in the RAM 42 and ROM 43 provided in the navigation device 5 and are executed by the CPU 41.

先ず、撮像画像表示処理プログラムではステップ(以下、Sと略記する)1において、CPU41は、液晶ディスプレイ15に対して車両の現在位置周辺の地図画像を表示する。また、ユーザはタッチパネル14を用いて表示された地図画像上でフリック操作、ドラッグ操作、ピンチ操作等を行うことにより、表示された地図画像を任意の方向にスクロールさせたり、縮尺を変更することができ、地図画像の表示対象とするエリアについては任意に変更することが可能である。また、地図画像上には車両の現在位置を示す現在位置マークについても表示される。   First, in step (hereinafter abbreviated as S) 1 in the captured image display processing program, the CPU 41 displays a map image around the current position of the vehicle on the liquid crystal display 15. Also, the user can scroll the displayed map image in an arbitrary direction or change the scale by performing a flick operation, a drag operation, a pinch operation, or the like on the map image displayed using the touch panel 14. It is possible to arbitrarily change the area to be displayed of the map image. A current position mark indicating the current position of the vehicle is also displayed on the map image.

また、ナビゲーション装置5において案内経路(ユーザの走行予定経路)が設定されている場合には、案内経路や目的地を示すマークについても地図画像上に表示する。ここで、図5はナビゲーション装置5において案内経路が設定されている状態で液晶ディスプレイ15に表示される走行案内画面50の一例を示した図である。走行案内画面50は、車両の現在位置周辺の地図画像51と、案内経路52と、目的地53と、地図上にマッチングされた車両の現在位置を示す自車位置マーク54と、特定の施設や地点の位置やジャンルを示すPOI(Point of Interest)アイコン55と、地点登録や経路探索を行う際等に操作される各種操作アイコン56〜60とが表示される。そして、ユーザは走行案内画面50を参照することによって、現在の車両周辺の施設情報や道路形状、現在設定されている案内経路等を把握することが可能となる。   Further, when a guidance route (scheduled route for the user) is set in the navigation device 5, a mark indicating the guidance route or the destination is also displayed on the map image. Here, FIG. 5 is a diagram showing an example of a travel guidance screen 50 displayed on the liquid crystal display 15 in a state where a guidance route is set in the navigation device 5. The travel guidance screen 50 includes a map image 51 around the current position of the vehicle, a guidance route 52, a destination 53, a vehicle position mark 54 indicating the current position of the vehicle matched on the map, a specific facility, A POI (Point of Interest) icon 55 indicating the position and genre of the point and various operation icons 56 to 60 operated when performing point registration or route search are displayed. Then, by referring to the travel guidance screen 50, the user can grasp the facility information and road shape around the current vehicle, the currently set guidance route, and the like.

次に、S2においてCPU41は、タッチパネル14から送信される信号に基づいて、液晶ディスプレイ15に表示された地図画像に対するユーザのタッチ操作を受け付けたか否かを判定する。ここで、地図画像に対するユーザのタッチ操作としては、液晶ディスプレイ15に表示された地図画像上の一点をタッチした直後に離す(叩く)“タップ(tap)操作”、液晶ディスプレイ15に表示された地図画像上の一点をタッチした後にタッチした状態で地図画像上を移動させることにより軌跡を描く“ドラッグ(drag)操作”の他、フリック操作、ピンチイン操作、ピンチアウト操作等がある。   Next, in S <b> 2, the CPU 41 determines whether a user's touch operation on the map image displayed on the liquid crystal display 15 has been received based on a signal transmitted from the touch panel 14. Here, as a touch operation of the user with respect to the map image, a “tap operation” that is released (tapped) immediately after touching one point on the map image displayed on the liquid crystal display 15, and the map displayed on the liquid crystal display 15 is displayed. In addition to a “drag operation” that draws a trajectory by moving on the map image after touching one point on the image, there are a flick operation, a pinch-in operation, a pinch-out operation, and the like.

そして、地図画像に対するユーザのタッチ操作を受け付けたと判定された場合(S2:YES)には、S3へと移行する。それに対して、地図画像に対するユーザのタッチ操作を受け付けていないと判定された場合(S2:NO)には、当該撮像画像表示処理プログラムを終了する。   And when it determines with having received the user's touch operation with respect to a map image (S2: YES), it transfers to S3. On the other hand, when it is determined that the user's touch operation on the map image is not accepted (S2: NO), the captured image display processing program is terminated.

S3においてCPU41は、地図画像に対するユーザのタッチ操作として特に“タップ操作”を受け付けたか否かを判定する。尚、“タップ操作”は液晶ディスプレイ15に表示された地図画像上の一点をタッチした直後に離す(叩く)操作が該当する。   In S <b> 3, the CPU 41 determines whether or not a “tap operation” has been particularly received as the user's touch operation on the map image. The “tap operation” corresponds to an operation of releasing (hitting) a point on the map image displayed on the liquid crystal display 15 immediately after touching.

そして、地図画像に対するユーザのタッチ操作として特に“タップ操作”を受け付けたと判定された場合(S3:YES)には、S6へと移行する。それに対して、“タップ操作”以外の操作を受け付けたと判定された場合(S3:NO)には、S4へと移行する。   If it is determined that the “tap operation” is received as the user's touch operation on the map image (S3: YES), the process proceeds to S6. On the other hand, when it is determined that an operation other than the “tap operation” is accepted (S3: NO), the process proceeds to S4.

S4においてCPU41は、地図画像に対するユーザのタッチ操作として特に“ドラッグ操作”を受け付けたか否かを判定する。尚、“ドラッグ操作”は液晶ディスプレイ15に表示された地図画像上の一点をタッチした後にタッチした状態で地図画像上を移動させることにより軌跡を描く操作が該当する。   In S <b> 4, the CPU 41 determines whether or not a “drag operation” is particularly accepted as the user's touch operation on the map image. The “drag operation” corresponds to an operation of drawing a locus by touching a point on the map image displayed on the liquid crystal display 15 and then moving it on the map image in a touched state.

そして、地図画像に対するユーザのタッチ操作として特に“ドラッグ操作”を受け付けたと判定された場合(S4:YES)には、S7へと移行する。それに対して、“ドラッグ操作”以外の操作を受け付けたと判定された場合(S4:NO)には、S5へと移行する。   When it is determined that the “drag operation” is received as the user's touch operation on the map image (S4: YES), the process proceeds to S7. On the other hand, when it is determined that an operation other than the “drag operation” is accepted (S4: NO), the process proceeds to S5.

S5においてCPU41は、受け付けたユーザの操作に対応する各種処理を実行する。例えば、地図画像のスクロール処理、縮尺の変更処理等がある。   In S5, the CPU 41 executes various processes corresponding to the received user operation. For example, there are a map image scroll process, a scale change process, and the like.

一方、S6においてCPU41は、後述のタップ用取得情報設定処理(図6)を実行する。尚、タップ用取得情報設定処理は、受け付けたユーザのタップ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の枚数、撮像位置、撮像方向等を設定する処理である。その後、S10へと移行する。   On the other hand, in S6, the CPU 41 executes an after-tap acquisition information setting process (FIG. 6). The tap acquisition information setting process is a process of setting the number of captured images to be displayed on the liquid crystal display 15, the imaging position, the imaging direction, and the like based on the accepted tap operation of the user. Thereafter, the process proceeds to S10.

また、S7においてCPU41は、後述のドラッグ用取得情報設定処理(図16)を実行する。尚、ドラッグ用取得情報設定処理は、受け付けたユーザのドラッグ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の枚数、撮像位置、撮像方向等を設定する処理である。   In S7, the CPU 41 executes a drag acquisition information setting process (FIG. 16) described later. The acquisition information setting process for dragging is a process for setting the number of captured images to be displayed on the liquid crystal display 15, the imaging position, the imaging direction, and the like based on the received drag operation of the user.

その後、S8においてCPU41は、後述の撮像位置決定処理(図18)を実行する。尚、撮像位置決定処理は、特にユーザのドラッグ操作を受け付けた場合において前記S7で設定された各情報に基づいて、撮像画像DB8に記憶された撮像画像10の内から、特にどの撮像位置が対応付けられた撮像画像を液晶ディスプレイ15に表示対象とするかを詳細に決定する処理である。   Thereafter, in S8, the CPU 41 executes an imaging position determination process (FIG. 18) described later. In the imaging position determination processing, particularly when a user's drag operation is received, which imaging position corresponds in particular among the captured images 10 stored in the captured image DB 8 based on each information set in S7. This is a process for determining in detail whether the attached captured image is to be displayed on the liquid crystal display 15.

続いて、S9においてCPU41は、後述の撮像方向決定処理(図20)を実行する。尚、撮像方向決定処理は、特にユーザのドラッグ操作を受け付けた場合において前記S7で設定された各情報に基づいて、撮像画像DB8に記憶された撮像画像10の内から、特にどの撮像方向を撮像した撮像画像を液晶ディスプレイ15に表示対象とするかを詳細に決定する処理である。   Subsequently, in S9, the CPU 41 executes an imaging direction determination process (FIG. 20) described later. In the imaging direction determination process, in particular, in the case where a user's drag operation is received, which imaging direction is specifically captured from the captured images 10 stored in the captured image DB 8 based on the information set in S7. This is a process for determining in detail whether the captured image is to be displayed on the liquid crystal display 15.

その後、S10においてCPU41は、前記S6〜S9で設定された各情報に基づいて、撮像画像DB8に記憶された撮像画像10の内から、液晶ディスプレイ15に表示対象となる撮像画像を取得する。   Thereafter, in S10, the CPU 41 acquires a captured image to be displayed on the liquid crystal display 15 from the captured images 10 stored in the captured image DB 8 based on the information set in S6 to S9.

最後にS11においてCPU41は、前記S10で撮像画像DB8から取得された撮像画像を液晶ディスプレイ15に対して表示する。その後、撮像画像を表示してから所定時間経過した後、或いはユーザによる所定の操作を受け付けた後に表示された撮像画像を消去する。尚、撮像画像は液晶ディスプレイ15の全画面に対して表示しても良いし、走行案内画面50の一部エリアに重畳して表示するように構成しても良い。また、前記S10において複数の撮像画像を取得している場合には、所定間隔(例えば1秒間隔)且つ所定の順序で撮像画像を切り替えて表示する。尚、具体的にどのように撮像画像を表示するかについては、受け付けたユーザの操作の種類毎に分けて後に詳細に説明する(図9、図11、図13、図15)。   Finally in S11, the CPU 41 displays the captured image acquired from the captured image DB 8 in S10 on the liquid crystal display 15. Thereafter, the displayed captured image is deleted after a predetermined time has elapsed since the captured image was displayed, or after a predetermined operation by the user is accepted. The captured image may be displayed on the entire screen of the liquid crystal display 15 or may be configured to be displayed so as to be superimposed on a partial area of the travel guide screen 50. When a plurality of captured images are acquired in S10, the captured images are switched and displayed at a predetermined interval (for example, every 1 second) and in a predetermined order. Note that how the captured image is specifically displayed will be described in detail later for each type of user operation received (FIGS. 9, 11, 13, and 15).

次に、前記S6において実行されるタップ用取得情報設定処理のサブ処理について図6に基づき説明する。図6はタップ用取得情報設定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the tap acquisition information setting process executed in S6 will be described with reference to FIG. FIG. 6 is a flowchart of a sub-processing program of the tap acquisition information setting process.

先ず、S21においてCPU41は、タッチパネル14から送信される検出信号に基づいて、ユーザがタップ操作においてタッチした地点(以下、タッチ地点という)の座標(以下、タッチ座標という)を取得する。タッチパネル14が抵抗膜方式や静電容量方式である場合には、タッチ地点の圧力や静電容量の変化に基づいて流れた電流の位置を検出することによって、タッチ座標を検出する。例えば、図7に示すようにユーザが地図画像51上の地点Xをタップした場合には、地点Xの座標が取得される。尚、前記S21で取得される座標は、液晶ディスプレイ15の画面上での位置を特定する座標系ではなく、地図上の座標(緯度、経度)である。   First, in S <b> 21, the CPU 41 acquires coordinates (hereinafter referred to as touch coordinates) of a point touched by the user in the tap operation (hereinafter referred to as touch point) based on the detection signal transmitted from the touch panel 14. When the touch panel 14 is a resistance film type or a capacitance type, the touch coordinates are detected by detecting the position of the current that flows based on the pressure at the touch point or the change in capacitance. For example, as shown in FIG. 7, when the user taps a point X on the map image 51, the coordinates of the point X are acquired. Note that the coordinates acquired in S21 are coordinates (latitude, longitude) on the map, not a coordinate system for specifying the position of the liquid crystal display 15 on the screen.

次に、S22においてCPU41は、前記S21で取得されたタッチ座標と地図情報DB31に記憶された地図情報に基づいて、タッチ地点を地図上にマップマッチングする。尚、マップマッチングとは、処理対象となる地点が地図画像の道路(リンク)の近傍にある場合に、道路上に引き込むことによって処理対象となる地点の位置を修正する処理である。従って、タッチ地点が道路の近傍にあればタッチ地点は道路上の地点に修正されることとなる。また、タッチ地点が修正されると、それに伴って前記S21で取得されたタッチ座標も修正後のタッチ地点の座標に修正される。尚、マップマッチングは公知の技術であるので処理の詳細については省略する。   Next, in S22, the CPU 41 performs map matching of the touch point on the map based on the touch coordinates acquired in S21 and the map information stored in the map information DB 31. Note that map matching is a process of correcting the position of a point to be processed by drawing it on the road when the point to be processed is in the vicinity of the road (link) of the map image. Therefore, if the touch point is in the vicinity of the road, the touch point is corrected to a point on the road. When the touch point is corrected, the touch coordinates acquired in S21 are also corrected to the coordinates of the touch point after correction. Since map matching is a known technique, details of the processing are omitted.

続いて、S23においてCPU41は、前記S22でマップマッチングされたタッチ地点が道路(リンク)上に位置するか否かを判定する。   Subsequently, in S23, the CPU 41 determines whether or not the touch point map-matched in S22 is located on a road (link).

そして、前記S22でマップマッチングされたタッチ地点が道路上に位置すると判定された場合(S23:YES)には、S24へと移行する。それに対して、前記S22でマップマッチングされたタッチ地点が道路上に位置しないと判定された場合(S23:NO)には、S28へと移行する。   And when it determines with the touch point by which the map matching was carried out by said S22 being located on a road (S23: YES), it transfers to S24. On the other hand, if it is determined that the touch point map-matched in S22 is not located on the road (S23: NO), the process proceeds to S28.

S24においてCPU41は、ナビゲーション装置5において目的地が設定されているか否かを判定する。   In S24, the CPU 41 determines whether or not the destination is set in the navigation device 5.

そして、ナビゲーション装置5において目的地が設定されていると判定された場合(S24:YES)には、S25へと移行する。それに対して、ナビゲーション装置5において目的地が設定されていないと判定された場合(S24:NO)には、S27へと移行する。   And when it determines with the destination being set in the navigation apparatus 5 (S24: YES), it transfers to S25. On the other hand, when it is determined in the navigation device 5 that the destination is not set (S24: NO), the process proceeds to S27.

S25においてCPU41は、前記S21で取得されたタッチ座標(前記S22で修正された場合には修正後のタッチ座標)と目的地の位置に基づいて、前記S22でマップマッチングされたタッチ地点が目的地周辺に位置するか否かを判定する。例えば目的地から300m以内に位置するか否かを判定する。尚、目的地の位置を座標で特定する場合には、目的地の座標からタッチ地点までの距離で判定する。一方、目的地の位置をポリゴン領域(目的地が占有する領域)で特定する場合には、ポリゴン領域からタッチ地点までの距離で判定しても良いし、ポリゴン領域内にタッチ地点が含まれる場合にタッチ地点が目的地周辺に位置すると判定しても良い。   In S25, the CPU 41 determines that the touch point map-matched in S22 is the destination based on the touch coordinates acquired in S21 (or touch coordinates after correction if corrected in S22) and the position of the destination. It is determined whether or not it is located in the vicinity. For example, it is determined whether or not it is located within 300 m from the destination. In addition, when specifying the position of the destination by coordinates, the determination is made based on the distance from the coordinates of the destination to the touch point. On the other hand, when the position of the destination is specified by the polygon area (area occupied by the destination), it may be determined by the distance from the polygon area to the touch point, or when the touch point is included in the polygon area It may be determined that the touch point is located around the destination.

そして、前記S22でマップマッチングされたタッチ地点が目的地周辺に位置すると判定された場合(S25:YES)には、ユーザが特に目的地周辺を撮像した撮像画像の表示を希望していると推定し、S26へと移行する。それに対して、前記S22でマップマッチングされたタッチ地点が目的地周辺に位置しないと判定された場合(S25:NO)には、S27へと移行する。   If it is determined that the touch point map-matched in S22 is located around the destination (S25: YES), it is estimated that the user particularly wants to display a captured image obtained by imaging the periphery of the destination. Then, the process proceeds to S26. On the other hand, when it is determined that the touch point map-matched in S22 is not located around the destination (S25: NO), the process proceeds to S27.

S26においてCPU41は、受け付けたユーザのタップ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の条件を以下のように設定する。
(A)撮像画像の枚数:1枚
(B)撮像画像の撮像位置:前記S22でマップマッチングされたタッチ地点
(C)撮像画像の撮像方向:上記撮像位置から目的地の方向
In S <b> 26, the CPU 41 sets the conditions of the captured image to be displayed on the liquid crystal display 15 based on the accepted user tap operation as follows.
(A) Number of captured images: 1 (B) Captured position of captured image: Touch point map-matched in S22 (C) Captured image capture direction: direction from destination to destination

前述したように情報サーバ3の撮像画像DB8には、各撮像位置で撮像された周囲360度分の撮像画像が記憶されているが(図2)、撮像画像をナビゲーション装置5が取得し表示する場合には、360度全てを取得及び表示対象とするのではなく所定の角度範囲内のみを取得及び表示対象とする。以下の説明では、撮像画像DB8から取得し、ナビゲーション装置5の液晶ディスプレイ15に表示対象となる範囲を“撮像方向”を用いて定義する。具体的に“撮像方向”は、図8に示すように360度パノラマ画像の撮像画像10の内、表示対象となる範囲の画像を撮像位置から撮像する為の光軸方向と定義する。言い換えれば、360度パノラマ画像の撮像画像10の内、“撮像方向”を中心とした所定角度α以内の画像が表示される(αは表示するディスプレイのサイズ等によって適宜設定され、例えば120度とする)。尚、前記S26においては、図8に示すように撮像方向Xはタッチ地点61から目的地65の方向に設定される。   As described above, the picked-up image DB 8 of the information server 3 stores picked-up images of 360 degrees around the picked-up images at the respective pick-up positions (FIG. 2), but the navigation device 5 acquires and displays the picked-up images. In this case, not all 360 degrees are acquired and displayed, but only within a predetermined angle range is acquired and displayed. In the following description, a range that is acquired from the captured image DB 8 and is displayed on the liquid crystal display 15 of the navigation device 5 is defined using the “imaging direction”. Specifically, the “imaging direction” is defined as an optical axis direction for capturing an image of a range to be displayed from the imaging position in the 360-degree panoramic image 10 as shown in FIG. In other words, an image within a predetermined angle α centered on the “imaging direction” is displayed among the captured images 10 of the 360-degree panoramic image (α is appropriately set depending on the size of the display to be displayed, for example, 120 degrees. To do). In S26, the imaging direction X is set in the direction from the touch point 61 to the destination 65 as shown in FIG.

その後、S10へと移行し、CPU41は前記S26で設定された条件に該当する1枚の撮像画像を撮像画像DB8から取得する。具体的には、前記S22でマップマッチングされたタッチ地点が撮像位置に対応付けられた撮像画像であって、且つ撮像位置(タッチ地点)から目的地の方向を撮像方向とする範囲(例えば撮像方向を中心とした120度以内)の撮像画像が撮像画像DB8から取得される。尚、前記S26で設定された撮像位置に対応付けられた撮像画像が撮像画像DB8内に無い場合には、最も近い撮像位置が対応付けられた撮像画像が取得される。そして、取得された撮像画像が液晶ディスプレイ15に表示される(S11)。   Thereafter, the process proceeds to S10, and the CPU 41 obtains one captured image corresponding to the condition set in S26 from the captured image DB 8. Specifically, it is a captured image in which the touch point map-matched in S22 is associated with the imaging position, and a range in which the direction of the destination from the imaging position (touch point) is the imaging direction (for example, the imaging direction) The captured image (within 120 degrees with respect to the center) is acquired from the captured image DB 8. If there is no captured image associated with the imaging position set in S26 in the captured image DB 8, a captured image associated with the closest imaging position is acquired. The acquired captured image is displayed on the liquid crystal display 15 (S11).

尚、前記S26においては上述したように“撮像方向”を前記S22でマップマッチングされたタッチ地点から目的地の方向とするので、図9に示すように液晶ディスプレイ15には、タッチ地点から目的地65の方向を撮像した撮像画像66が表示されることとなり、タッチ地点と目的地65の間に遮蔽物が無い場合には目的地65が撮像画像66の中央付近に含まれることとなる。   In S26, as described above, the “imaging direction” is the direction from the touch point map-matched in S22 to the destination. Therefore, as shown in FIG. A captured image 66 obtained by capturing the direction of 65 is displayed. When there is no shield between the touch point and the destination 65, the destination 65 is included in the vicinity of the center of the captured image 66.

一方、S27においてCPU41は、受け付けたユーザのタップ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の条件を以下のように設定する。
(A)撮像画像の枚数:複数枚(例えば8枚)
(B)撮像画像の撮像位置:前記S22でマップマッチングされたタッチ地点
(C)撮像画像の撮像方向:上記撮像位置を中心とした360度を複数に分割した方向
On the other hand, in S27, the CPU 41 sets the conditions of the captured image to be displayed on the liquid crystal display 15 based on the accepted user tap operation as follows.
(A) Number of captured images: Multiple (for example, 8)
(B) Image pickup position of the picked-up image: touch point map-matched in S22 (C) Image pickup direction of the picked-up image: direction obtained by dividing 360 degrees around the image pickup position into a plurality

前記S27では撮像方向が複数設定されることとなり、設定された撮像方向の数が表示される撮像画像の枚数となる。例えば、図10に示すようにタッチ地点61から45度毎に変位させた方向を撮像方向Xとすると、撮像方向Xは合計8方向となり、各撮像方向に対応する8枚の撮像画像が表示されることとなる。   In S27, a plurality of imaging directions are set, and the number of set imaging directions is the number of captured images to be displayed. For example, as shown in FIG. 10, if the direction displaced 45 degrees from the touch point 61 is taken as the imaging direction X, the imaging direction X is a total of 8 directions, and 8 captured images corresponding to each imaging direction are displayed. The Rukoto.

その後、S10へと移行し、CPU41は前記S27で設定された条件に該当する複数枚の撮像画像を撮像画像DB8から取得する。具体的には、前記S22でマップマッチングされたタッチ地点が撮像位置に対応付けられた撮像画像であって、且つ撮像位置(タッチ地点)を中心とした複数方向を撮像方向とする範囲(例えば撮像方向を中心とした120度以内)の撮像画像が撮像画像DB8から取得される。尚、前記S27で設定された撮像位置に対応付けられた撮像画像が撮像画像DB8内に無い場合には、最も近い撮像位置が対応付けられた撮像画像が取得される。そして、取得された撮像画像が液晶ディスプレイ15に表示される(S11)。尚、撮像画像の表示順序は、例えば撮像方向が北向きの撮像画像を最初に表示し、その後、撮像方向が時計回りとなる順に撮像画像を所定時間間隔(例えば1秒間隔)で切り替えて表示する。その後、取得された全ての撮像画像が表示された後は、最初に表示された撮像画像を再び表示し、以降撮像画像の表示の切り替えを所定回数繰り返し実行する。   Thereafter, the process proceeds to S10, and the CPU 41 acquires a plurality of captured images corresponding to the conditions set in S27 from the captured image DB 8. Specifically, the touch point map-matched in S22 is a captured image associated with the imaging position, and a range having a plurality of directions around the imaging position (touch point) as the imaging direction (for example, imaging) A captured image (within 120 degrees centered on the direction) is acquired from the captured image DB 8. If there is no captured image associated with the imaging position set in S27 in the captured image DB 8, a captured image associated with the closest imaging position is acquired. The acquired captured image is displayed on the liquid crystal display 15 (S11). The display order of the captured images is displayed, for example, by first displaying the captured images with the imaging direction facing north, and then switching the captured images at predetermined time intervals (for example, 1 second intervals) in the order in which the imaging direction is clockwise. To do. Thereafter, after all the acquired captured images are displayed, the initially displayed captured image is displayed again, and thereafter the display switching of the captured image is repeatedly performed a predetermined number of times.

その結果、図11に示すように液晶ディスプレイ15には、タッチ地点から周囲を撮像する撮像画像66が所定方向(例えば時計回り)に順次切り替えられて表示されることとなる。   As a result, as shown in FIG. 11, a picked-up image 66 that picks up the surroundings from the touch point is sequentially switched and displayed in a predetermined direction (for example, clockwise) on the liquid crystal display 15.

一方、前記S22でマップマッチングされたタッチ地点が道路上に位置しないと判定された場合に実行されるS28においてCPU41は、ナビゲーション装置5において目的地が設定されているか否かを判定する。   On the other hand, the CPU 41 determines whether or not the destination is set in the navigation device 5 in S28 that is executed when it is determined that the map-matched touch point is not located on the road in S22.

そして、ナビゲーション装置5において目的地が設定されていると判定された場合(S28:YES)には、S29へと移行する。それに対して、ナビゲーション装置5において目的地が設定されていないと判定された場合(S28:NO)には、S31へと移行する。   And when it determines with the destination being set in the navigation apparatus 5 (S28: YES), it transfers to S29. On the other hand, when it is determined that the destination is not set in the navigation device 5 (S28: NO), the process proceeds to S31.

S29においてCPU41は、前記S21で取得されたタッチ座標(前記S22で修正された場合には修正後のタッチ座標)と目的地の位置に基づいて、前記S22でマップマッチングされたタッチ地点が目的地に位置するか否かを判定する。尚、目的地の位置を座標で特定する場合には、互いの座標が完全に一致しなくとも所定距離以内にあればタッチ地点が目的地に位置するとみなしても良い。また、目的地の位置をポリゴン領域(目的地が占有する領域)で特定する場合には、ポリゴン領域内にタッチ座標が含まれる場合にタッチ地点が目的地に位置するとみなす。   In S29, the CPU 41 determines that the touch point map-matched in S22 is the destination based on the touch coordinates acquired in S21 (or corrected touch coordinates if corrected in S22) and the position of the destination. It is determined whether it is located in. When specifying the position of the destination by coordinates, the touch point may be regarded as being located at the destination as long as the coordinates are within a predetermined distance even if the coordinates do not completely match. Also, when the position of the destination is specified by a polygon area (area occupied by the destination), it is considered that the touch point is located at the destination when the touch coordinates are included in the polygon area.

そして、前記S22でマップマッチングされたタッチ地点が目的地に位置すると判定された場合(S29:YES)には、ユーザが特に目的地周辺を撮像した撮像画像の表示を希望していると推定し、S29へと移行する。それに対して、前記S22でマップマッチングされたタッチ地点が目的地に位置しないと判定された場合(S29:NO)には、S31へと移行する。   If it is determined in S22 that the map-matched touch point is located at the destination (S29: YES), it is estimated that the user particularly desires to display a captured image obtained by imaging the periphery of the destination. To S29. On the other hand, when it is determined that the touch point map-matched in S22 is not located at the destination (S29: NO), the process proceeds to S31.

S30においてCPU41は、受け付けたユーザのタップ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の条件を以下のように設定する。
(A)撮像画像の枚数:1枚
(B)撮像画像の撮像位置:目的地の近傍道路上の地点
(C)撮像画像の撮像方向:上記撮像位置から目的地の方向
In S <b> 30, the CPU 41 sets the conditions of the captured image to be displayed on the liquid crystal display 15 based on the accepted user tap operation as follows.
(A) Number of captured images: 1 (B) Capture position of captured image: Point on road near destination (C) Capture direction of captured image: Direction from destination to destination

尚、撮像画像の撮像位置となる“目的地の近傍道路上の地点”は、目的地が十分な大きさで視認できる地点であればどの地点でも良いが、本実施形態では目的地に最も近接する道路上の点とする。例えば図12に示すようにタッチ地点61が目的地65に位置する場合には、目的地65と最も近接する道路67上の点68となる。従って、撮像方向Xは、地点68から目的地65を向く方向となる。   Note that the “location on the road near the destination” as the imaging position of the captured image may be any location where the destination can be visually recognized with a sufficiently large size, but in this embodiment, it is the closest to the destination. A point on the road to be. For example, as shown in FIG. 12, when the touch point 61 is located at the destination 65, the point 68 on the road 67 closest to the destination 65 is obtained. Therefore, the imaging direction X is a direction from the point 68 toward the destination 65.

その後、S10へと移行し、CPU41は前記S30で設定された条件に該当する1枚の撮像画像を撮像画像DB8から取得する。具体的には、目的地の近傍道路上の地点が撮像位置に対応付けられた撮像画像であって、且つ撮像位置(目的地の近傍道路上の地点)から目的地の方向を撮像方向とする範囲(例えば撮像方向を中心とした120度以内)の撮像画像が撮像画像DB8から取得される。尚、前記S30で設定された撮像位置に対応付けられた撮像画像が撮像画像DB8内に無い場合には、最も近い撮像位置が対応付けられた撮像画像が取得される。そして、取得された撮像画像が液晶ディスプレイ15に表示される(S11)。   Thereafter, the process proceeds to S10, and the CPU 41 obtains one captured image corresponding to the condition set in S30 from the captured image DB 8. Specifically, the point on the road near the destination is a picked-up image associated with the image pickup position, and the direction of the destination from the image pickup position (point on the road near the destination) is set as the image pickup direction. A captured image within a range (for example, within 120 degrees centered on the imaging direction) is acquired from the captured image DB 8. If there is no captured image associated with the imaging position set in S30 in the captured image DB 8, a captured image associated with the closest imaging position is acquired. The acquired captured image is displayed on the liquid crystal display 15 (S11).

尚、前記S30においては上述したように“撮像方向”を目的地の近傍道路から目的地の方向とするので、図13に示すように液晶ディスプレイ15には、目的地65の近傍道路から目的地65の方向を撮像した撮像画像66が表示されることとなり、目的地65を正面から見た画像が撮像画像66の中央付近に含まれることとなる。   In S30, as described above, the "imaging direction" is set to the direction from the road near the destination to the destination, so that the liquid crystal display 15 displays the destination from the road near the destination 65 as shown in FIG. A captured image 66 obtained by capturing the direction of 65 is displayed, and an image of the destination 65 viewed from the front is included in the vicinity of the center of the captured image 66.

一方、S31においてCPU41は、受け付けたユーザのタップ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の条件を以下のように設定する。
(A)撮像画像の枚数:1枚
(B)撮像画像の撮像位置:前記S22でマップマッチングされたタッチ地点の近傍道路上の地点
(C)撮像画像の撮像方向:上記撮像位置からタッチ地点の方向
On the other hand, in S31, the CPU 41 sets the conditions of the captured image to be displayed on the liquid crystal display 15 based on the accepted user tap operation as follows.
(A) Number of captured images: 1 (B) Capture position of captured image: Point on the road near the touch point map-matched in S22 (C) Capture direction of captured image: From the capture position to the touch point direction

尚、撮像画像の撮像位置となる“タッチ地点の近傍道路上の地点”は、タッチ地点が近くで視認できる地点であればどの地点でも良いが、本実施形態ではタッチ地点に最も近接する道路上の点とする。例えば図14に示すようにタッチ地点61が道路外に位置する場合には、タッチ地点61と最も近接する道路67上の点69となる。従って、撮像方向Xは、地点69からタッチ地点61を向く方向となる。   The “point on the road near the touch point” as the image pickup position of the picked-up image may be any point as long as the touch point can be visually recognized nearby, but in the present embodiment, it is on the road closest to the touch point. The point. For example, as shown in FIG. 14, when the touch point 61 is located outside the road, the point 69 on the road 67 closest to the touch point 61 is obtained. Accordingly, the imaging direction X is a direction from the point 69 toward the touch point 61.

その後、S10へと移行し、CPU41は前記S31で設定された条件に該当する1枚の撮像画像を撮像画像DB8から取得する。具体的には、前記S22でマップマッチングされたタッチ地点の近傍道路上の地点が撮像位置に対応付けられた撮像画像であって、且つ撮像位置(タッチ地点の近傍道路上の地点)からタッチ地点の方向を撮像方向とする範囲(例えば撮像方向を中心とした120度以内)の撮像画像が撮像画像DB8から取得される。尚、前記S31で設定された撮像位置に対応付けられた撮像画像が撮像画像DB8内に無い場合には、最も近い撮像位置が対応付けられた撮像画像が取得される。そして、取得された撮像画像が液晶ディスプレイ15に表示される(S11)。   Thereafter, the process proceeds to S10, and the CPU 41 obtains one captured image corresponding to the condition set in S31 from the captured image DB 8. Specifically, the point on the road near the touch point map-matched in S22 is a picked-up image associated with the image pickup position, and the touch point from the image pickup position (point on the road near the touch point) A captured image in a range in which the direction is the imaging direction (for example, within 120 degrees centered on the imaging direction) is acquired from the captured image DB 8. If there is no captured image associated with the imaging position set in S31 in the captured image DB 8, a captured image associated with the closest imaging position is acquired. The acquired captured image is displayed on the liquid crystal display 15 (S11).

尚、前記S31においては上述したように“撮像方向”をタッチ地点の近傍道路からタッチ地点の方向とするので、図15に示すように液晶ディスプレイ15には、タッチ地点61の近傍道路からタッチ地点61の方向を撮像した撮像画像66が表示されることとなり、タッチ地点61が撮像画像66の中央付近に含まれることとなる。   In S31, since the “imaging direction” is the direction from the road near the touch point to the touch point as described above, the liquid crystal display 15 displays the touch point from the road near the touch point 61 as shown in FIG. The captured image 66 obtained by capturing the direction 61 is displayed, and the touch point 61 is included in the vicinity of the center of the captured image 66.

次に、前記S7において実行されるドラッグ用取得情報設定処理のサブ処理について図16に基づき説明する。図16はドラッグ用取得情報設定処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the drag acquisition information setting process executed in S7 will be described with reference to FIG. FIG. 16 is a flowchart of the sub-processing program for the acquisition information setting process for dragging.

先ず、S41においてCPU41は、タッチパネル14から送信される検出信号に基づいて、ユーザがドラッグ操作においてタッチした一連のタッチ座標の履歴(即ちユーザが描いた軌跡)を取得する。タッチパネル14が抵抗膜方式や静電容量方式である場合には、タッチ地点の圧力や静電容量の変化に基づいて流れた電流の位置を検出することによって、タッチ座標を検出する。例えば、図17に示すようにユーザが地図画像51上の地点Sから地点Gまでドラッグした場合には、地点Sから地点Gまでの座標列が取得される。尚、前記S41で取得される座標は、液晶ディスプレイ15の画面上での位置を特定する座標系ではなく、地図上の座標(緯度、経度)である。   First, in S41, based on the detection signal transmitted from the touch panel 14, the CPU 41 obtains a history of a series of touch coordinates touched by the user in the drag operation (that is, a locus drawn by the user). When the touch panel 14 is a resistance film type or a capacitance type, the touch coordinates are detected by detecting the position of the current that flows based on the pressure at the touch point or the change in capacitance. For example, when the user drags from point S to point G on the map image 51 as shown in FIG. Note that the coordinates acquired in S41 are coordinates (latitude, longitude) on a map, not a coordinate system for specifying the position of the liquid crystal display 15 on the screen.

次に、S42においてCPU41は、前記S41で取得されたタッチ座標の履歴と地図情報DB31に記憶された地図情報に基づいて、ドラッグ操作によってユーザが描いた軌跡を地図上にマップマッチングする。具体的には前記S41で取得した軌跡を構成する各座標点をそれぞれマップマッチングする。そして、マップマッチングされた各座標点によって構成される軌跡がマップマッチングされた軌跡となる。尚、マップマッチングは公知の技術であるので処理の詳細については省略する。   Next, in S42, the CPU 41 performs map matching on the map of the trajectory drawn by the user by the drag operation based on the history of touch coordinates acquired in S41 and the map information stored in the map information DB 31. Specifically, each coordinate point constituting the trajectory acquired in S41 is map-matched. A trajectory constituted by the map-matched coordinate points becomes a map-matched trajectory. Since map matching is a known technique, details of the processing are omitted.

続いて、S43においてCPU41は、前記S42でマップマッチングされた軌跡が道路(リンク)上に位置するか否かを判定する。   Subsequently, in S43, the CPU 41 determines whether or not the trajectory map-matched in S42 is located on a road (link).

そして、前記S42でマップマッチングされた軌跡が道路上に位置すると判定された場合(S43:YES)には、S44へと移行する。それに対して、前記S42でマップマッチングされた軌跡が道路上に位置しないと判定された場合(S43:NO)には、撮像画像を液晶ディスプレイ15に表示することなく終了する。以下の説明では前記S42で道路上にマップマッチングされた軌跡を“軌跡経路”と称する。   And when it determines with the locus | trajectory map-matched by said S42 being located on a road (S43: YES), it transfers to S44. On the other hand, if it is determined that the map-matched trajectory is not located on the road in S42 (S43: NO), the captured image is not displayed on the liquid crystal display 15 and the process ends. In the following description, the trajectory map-matched on the road in S42 is referred to as a “trajectory route”.

S44においてCPU41は、ナビゲーション装置5において目的地が設定されているか否かを判定する。   In S <b> 44, the CPU 41 determines whether or not a destination is set in the navigation device 5.

そして、ナビゲーション装置5において目的地が設定されていると判定された場合(S44:YES)には、S45へと移行する。それに対して、ナビゲーション装置5において目的地が設定されていないと判定された場合(S44:NO)には、S49へと移行する。   And when it determines with the destination being set in the navigation apparatus 5 (S44: YES), it transfers to S45. On the other hand, when it is determined that the destination is not set in the navigation device 5 (S44: NO), the process proceeds to S49.

S45においてCPU41は、軌跡経路の終点の座標と目的地の位置に基づいて、軌跡経路の終点が目的地周辺に位置するか否かを判定する。例えば目的地から300m以内に位置するか否かを判定する。尚、目的地の位置を座標で特定する場合には、目的地の座標から軌跡経路の終点までの距離で判定する。一方、目的地の位置をポリゴン領域(目的地が占有する領域)で特定する場合には、ポリゴン領域から軌跡経路の終点までの距離で判定しても良いし、ポリゴン領域内に軌跡経路の終点が含まれる場合に軌跡経路の終点が目的地周辺に位置すると判定しても良い。また、軌跡経路の終点の座標は、ドラッグ操作を終了(タッチオフ)した終点のタッチ座標であり、前記S41で取得されたタッチ座標列の内、最後に(最も新しく)検出されたタッチ座標である。尚、前記S42のマップマッチングによって修正された場合には修正後のタッチ座標となる。   In S45, the CPU 41 determines whether or not the end point of the trajectory path is located around the destination based on the coordinates of the end point of the trajectory path and the position of the destination. For example, it is determined whether or not it is located within 300 m from the destination. When specifying the position of the destination by coordinates, the determination is made based on the distance from the coordinates of the destination to the end point of the trajectory path. On the other hand, when specifying the position of the destination in the polygon area (area occupied by the destination), it may be determined by the distance from the polygon area to the end point of the trajectory path, or the end point of the trajectory path in the polygon area May be determined that the end point of the trajectory route is located around the destination. Further, the coordinates of the end point of the trajectory path are the touch coordinates of the end point when the drag operation is finished (touch-off), and are the last (newest) detected touch coordinates in the touch coordinate sequence acquired in S41. . In addition, when it is corrected by the map matching in S42, it becomes the touch coordinates after correction.

そして、軌跡経路の終点が目的地周辺に位置すると判定された場合(S45:YES)には、ユーザが特に目的地周辺を撮像した撮像画像の表示を希望していると推定し、S46へと移行する。それに対して、軌跡経路の終点が目的地周辺に位置しないと判定された場合(S45:NO)には、S47へと移行する。   If it is determined that the end point of the locus route is located around the destination (S45: YES), it is estimated that the user particularly desires to display a captured image obtained by imaging the periphery of the destination, and the process proceeds to S46. Transition. On the other hand, when it is determined that the end point of the locus route is not located around the destination (S45: NO), the process proceeds to S47.

S46においてCPU41は、受け付けたユーザのドラッグ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の条件を以下のように設定する。
(A)撮像画像の枚数:複数枚
(B)撮像画像の撮像位置:始点から終点まで軌跡経路沿いに所定間隔
(C)撮像画像の撮像方向:基本的に軌跡経路に沿った終点側の方向、但し目的地から所定距離以内では上記撮像位置から目的地の方向
(D)角度調整:有
In S <b> 46, the CPU 41 sets the conditions of the captured image to be displayed on the liquid crystal display 15 based on the received user drag operation as follows.
(A) Number of captured images: Plural sheets (B) Captured position of captured images: Predetermined intervals along the trajectory path from the start point to the end point (C) Imaging direction of captured images: Basically direction on the end point side along the trajectory path However, within a predetermined distance from the destination, the direction (D) angle adjustment of the destination from the imaging position is: Yes

その後、上記設定条件に基づいて行われる後述の撮像位置決定処理(S8)及び撮像方向決定処理(S9)において、具体的に液晶ディスプレイ15に表示対象となる撮像画像、即ち撮像画像DB8から取得する対象となる撮像画像が決定される。詳細については後述する。   Thereafter, in an imaging position determination process (S8) and an imaging direction determination process (S9), which will be described later, performed based on the above-described setting conditions, the captured image that is specifically displayed on the liquid crystal display 15, that is, acquired from the captured image DB8. A target captured image is determined. Details will be described later.

一方、S47においてCPU41は、軌跡経路の終点の座標と地図情報DB31とに基づいて、軌跡経路の終点が特定の施設又は地点の周辺に位置するか否かを判定する。例えば特定の施設又は地点から300m以内に位置するか否かを判定する。ここで、“特定の施設又は地点”とは、POIアイコン(図5参照)が表示される対象となる施設又は地点とし、例えばスーパー、ガソリンスタンド、駐車場等がある。尚、施設の位置を座標で特定する場合には、施設の座標から軌跡経路の終点までの距離で判定する。一方、施設の位置をポリゴン領域(施設が占有する領域)で特定する場合には、ポリゴン領域から軌跡経路の終点までの距離で判定しても良いし、ポリゴン領域内に軌跡経路の終点が含まれる場合に軌跡経路の終点が施設周辺に位置すると判定しても良い。   On the other hand, in S47, the CPU 41 determines whether or not the end point of the trajectory path is located around a specific facility or point based on the coordinates of the end point of the trajectory path and the map information DB 31. For example, it is determined whether or not it is located within 300 m from a specific facility or point. Here, the “specific facility or point” is a facility or a point for which a POI icon (see FIG. 5) is displayed, such as a supermarket, a gas station, a parking lot, or the like. In addition, when the position of the facility is specified by coordinates, it is determined by the distance from the facility coordinates to the end point of the trajectory path. On the other hand, when the location of a facility is specified by a polygon area (area occupied by the facility), it may be determined by the distance from the polygon area to the end point of the trajectory path, or the end point of the trajectory path is included in the polygon area. The end point of the locus route may be determined to be located around the facility.

そして、軌跡経路の終点が特定の施設又は地点の周辺に位置すると判定された場合(S47:YES)には、ユーザが特に特定の施設又は地点の周辺を撮像した撮像画像の表示を希望していると推定し、S48へと移行する。それに対して、軌跡経路の終点が特定の施設又は地点周辺にも位置しないと判定された場合(S47:NO)には、ユーザが単に経路沿い周辺を撮像した撮像画像の表示を希望していると推定し、S49へと移行する。   If it is determined that the end point of the trajectory path is located around the specific facility or point (S47: YES), the user particularly desires to display a captured image obtained by capturing the periphery of the specific facility or point. And the process proceeds to S48. On the other hand, when it is determined that the end point of the trajectory route is not located in the vicinity of the specific facility or point (S47: NO), the user simply wants to display a captured image obtained by imaging the periphery along the route. And the process proceeds to S49.

S48においてCPU41は、受け付けたユーザのドラッグ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の条件を以下のように設定する。
(A)撮像画像の枚数:複数枚
(B)撮像画像の撮像位置:始点から終点まで軌跡経路沿いに所定間隔
(C)撮像画像の撮像方向:基本的に軌跡経路に沿った終点側の方向、但し特定の施設又は地点から所定距離以内では上記撮像位置から特定の施設又は地点の方向
(D)角度調整:有
In S <b> 48, the CPU 41 sets the conditions of the captured image to be displayed on the liquid crystal display 15 based on the received user drag operation as follows.
(A) Number of captured images: Plural sheets (B) Captured position of captured images: Predetermined intervals along the trajectory path from the start point to the end point (C) Imaging direction of captured images: Basically direction on the end point side along the trajectory path However, within a predetermined distance from a specific facility or point, the direction (D) angle adjustment of the specific facility or point from the above imaging position: Yes

その後、上記設定条件に基づいて行われる後述の撮像位置決定処理(S8)及び撮像方向決定処理(S9)において、具体的に液晶ディスプレイ15に表示対象となる撮像画像、即ち撮像画像DB8から取得する対象となる撮像画像が決定される。詳細については後述する。   Thereafter, in an imaging position determination process (S8) and an imaging direction determination process (S9), which will be described later, performed based on the above-described setting conditions, the captured image that is specifically displayed on the liquid crystal display 15, that is, acquired from the captured image DB8. A target captured image is determined. Details will be described later.

一方、S49においてCPU41は、受け付けたユーザのドラッグ操作に基づいて液晶ディスプレイ15に表示対象となる撮像画像の条件を以下のように設定する。
(A)撮像画像の枚数:複数枚
(B)撮像画像の撮像位置:始点から終点まで軌跡経路沿いに所定間隔
(C)撮像画像の撮像方向:軌跡経路に沿った終点側の方向
(D)角度調整:無
On the other hand, in S49, the CPU 41 sets the conditions of the captured image to be displayed on the liquid crystal display 15 as follows based on the received drag operation of the user.
(A) Number of captured images: Plural sheets (B) Captured position of captured images: A predetermined interval along the trajectory path from the start point to the end point (C) Capture direction of captured image: Direction on the end point side along the trajectory path (D) Angle adjustment: None

その後、上記設定条件に基づいて行われる後述の撮像位置決定処理(S8)及び撮像方向決定処理(S9)において、具体的に液晶ディスプレイ15に表示対象となる撮像画像、即ち撮像画像DB8から取得する対象となる撮像画像が決定される。詳細については後述する。   Thereafter, in an imaging position determination process (S8) and an imaging direction determination process (S9), which will be described later, performed based on the above-described setting conditions, the captured image that is specifically displayed on the liquid crystal display 15, that is, acquired from the captured image DB8. A target captured image is determined. Details will be described later.

次に、前記S8において実行される撮像位置決定処理のサブ処理について図18に基づき説明する。図18は撮像位置決定処理のサブ処理プログラムのフローチャートである。   Next, sub processing of the imaging position determination processing executed in S8 will be described with reference to FIG. FIG. 18 is a flowchart of a sub-processing program for imaging position determination processing.

先ず、S51においてCPU41は、前述したドラッグ用取得情報設定処理(図16)の前記S46、S48又はS49において設定された設定情報を読み出す。   First, in S51, the CPU 41 reads the setting information set in S46, S48 or S49 in the above-described drag acquisition information setting process (FIG. 16).

次に、S52においてCPU41は、軌跡経路を取得する。尚、軌跡経路は前述したようにドラッグ操作においてユーザの描いた軌跡を前記S42でマップマッチングした軌跡である。また、具体的に前記S52では軌跡経路の始点(ユーザがドラッグ操作により軌跡を描くのを開始した地点に対応する地点)、終点(ユーザがドラッグ操作により軌跡を描くのを終了した地点に対応する地点)、始点と終点の間のタッチ座標の座標列がそれぞれ取得される。   Next, in S52, the CPU 41 obtains a locus route. As described above, the locus path is a locus obtained by performing map matching in S42 on the locus drawn by the user in the drag operation. Specifically, in S52, the start point of the trajectory path (corresponding to the point where the user started drawing the trajectory by the drag operation) and the end point (corresponding to the point where the user finished drawing the trajectory by the drag operation). Point) and a coordinate sequence of touch coordinates between the start point and the end point are acquired.

続いて、S53においてCPU41は、前記S52で取得された軌跡経路に対して基点を設定する。ここで、図19に示すように基点70は、軌跡経路71の始点Sから終点Gまで軌跡経路71に沿って所定距離間隔(例えば50m間隔)で設定される。尚、軌跡経路71の始点Sと終点Gも基点に含まれる。   Subsequently, in S53, the CPU 41 sets a base point for the trajectory path acquired in S52. Here, as shown in FIG. 19, the base points 70 are set at predetermined distance intervals (for example, 50 m intervals) along the trajectory path 71 from the start point S to the end point G of the trajectory path 71. The starting point S and the ending point G of the trajectory path 71 are also included in the base point.

そして、本実施形態では後述のように基点で撮像された撮像画像(即ち、基点を撮像位置とする撮像画像)を液晶ディスプレイ15に表示するように構成する。即ち、前記S53で設定された基点の数が表示される撮像画像の枚数となる。また、基点の設定距離間隔は適宜変更可能である。基点の設定距離間隔を短くすればより多くの撮像画像が表示されることとなるので、詳細な案内を行うことができるが案内に必要な時間は長くなる。   In the present embodiment, as described later, a captured image captured at the base point (that is, a captured image with the base point as the imaging position) is displayed on the liquid crystal display 15. That is, the number of base points set in S53 is the number of captured images to be displayed. Further, the set distance interval of the base points can be changed as appropriate. If the set distance interval of the base point is shortened, more captured images are displayed, so that detailed guidance can be performed, but the time required for guidance becomes longer.

以下のS54〜S59の処理は前記S53で設定された基点毎に行う。先ず、始点を対象として処理を行い、その後、始点に近い順に処理対象となる基点を切り替える。そして、終点を対象として処理が行われた後にS9へと移行する。   The following processing of S54 to S59 is performed for each base point set in S53. First, the process is performed on the start point, and then the base point to be processed is switched in the order closer to the start point. Then, after the process is performed for the end point, the process proceeds to S9.

先ず、S54においてCPU41は、処理対象の基点に関する情報を取得する。具体的には、始点から数えて何番目に位置する基点であるかを特定する情報と、基点の位置座標を取得する。   First, in S <b> 54, the CPU 41 acquires information related to the base point to be processed. Specifically, information for specifying the position of the base point counting from the start point and the position coordinates of the base point are acquired.

次に、S55においてCPU41は、前述したドラッグ用取得情報設定処理(図16)の前記S46、S48又はS49において設定された設定情報の内、“(D)角度調整”について『有』に設定されているか否かを判定する。ここで、前記したように軌跡経路の終点が目的地や特定の施設又は地点の周辺に位置する場合には『有』に設定され(S46、S48)、軌跡経路の終点が目的地や特定の施設又は地点の周辺に位置しない場合には『無』に設定される(S49)。尚、“(D)角度調整”は各基点に対する撮像方向の設定基準を、基点の位置によって変更するか否かの設定を示すものであり、『有』は基点の位置によって各基点の撮像方向の設定基準を変更する設定であることを示す。   Next, in S55, the CPU 41 is set to “present” for “(D) angle adjustment” among the setting information set in S46, S48 or S49 in the above-described drag acquisition information setting process (FIG. 16). It is determined whether or not. Here, as described above, when the end point of the trajectory path is located around the destination or the specific facility or point, it is set to “present” (S46, S48), and the end point of the trajectory path is set to the destination or the specific point. If it is not located around the facility or point, it is set to “None” (S49). “(D) Angle adjustment” indicates whether or not to change the setting reference of the imaging direction for each base point depending on the position of the base point, and “Yes” indicates the imaging direction of each base point depending on the position of the base point. Indicates that the setting standard is changed.

そして、“(D)角度調整”について『有』に設定されていると判定された場合(S55:YES)には、S57へと移行する。それに対して、“(D)角度調整”について『無』に設定されていると判定された場合(S55:NO)には、S56へと移行する。   If it is determined that “Yes” is set for “(D) Angle adjustment” (S55: YES), the process proceeds to S57. On the other hand, if it is determined that “(D) angle adjustment” is set to “none” (S55: NO), the process proceeds to S56.

S56においてCPU41は、処理対象の基点に対して角度調整フラグOFFを紐付ける。尚、基点毎に紐付けられた角度調整フラグのON又はOFFの状態はフラッシュメモリ44等に記憶される。   In S56, the CPU 41 associates the angle adjustment flag OFF with the base point to be processed. The ON / OFF state of the angle adjustment flag associated with each base point is stored in the flash memory 44 or the like.

一方、S57においてCPU41は、軌跡経路の終点が目的地の周辺に位置する場合には、処理対象の基点から目的地までの距離を算出する。一方、軌跡経路の終点が特定の施設又は地点の周辺に位置する場合には、処理対象の基点から特定の施設又は地点までの距離を算出する。尚、算出するのは直線距離であっても良いし、道路に沿った道なりの距離であっても良い。   On the other hand, in S57, when the end point of the locus route is located around the destination, the CPU 41 calculates the distance from the base point to be processed to the destination. On the other hand, when the end point of the trajectory path is located around a specific facility or point, the distance from the base point to be processed to the specific facility or point is calculated. Note that the straight line distance may be calculated, or the distance along the road along the road may be calculated.

次に、S58においてCPU41は、前記S57で算出した処理対象の基点から目的地、特定の施設又は地点までの距離が所定距離未満であるか否かを判定する。例えば所定距離は300mとする。   Next, in S58, the CPU 41 determines whether or not the distance from the processing target base point calculated in S57 to the destination, a specific facility, or a point is less than a predetermined distance. For example, the predetermined distance is 300 m.

そして、処理対象の基点から目的地、特定の施設又は地点までの距離が所定距離未満であると判定された場合(S58:YES)には、S59へと移行する。それに対して処理対象の基点から目的地、特定の施設又は地点までの距離が所定距離以上であると判定された場合(S58:NO)には、S56へと移行する。   When it is determined that the distance from the base point to be processed to the destination, the specific facility, or the point is less than the predetermined distance (S58: YES), the process proceeds to S59. On the other hand, when it is determined that the distance from the base point to be processed to the destination, the specific facility or the point is equal to or greater than the predetermined distance (S58: NO), the process proceeds to S56.

S59においてCPU41は、処理対象の基点に対して角度調整フラグONを紐付ける。尚、基点毎に紐付けられた角度調整フラグのON又はOFFの状態はフラッシュメモリ44等に記憶される。   In S59, the CPU 41 links the angle adjustment flag ON to the base point to be processed. The ON / OFF state of the angle adjustment flag associated with each base point is stored in the flash memory 44 or the like.

その後、前記S53で設定された全ての基点に対して上記S54〜S59の処理が行われた後にS9へと移行する。   After that, the processing of S54 to S59 is performed on all the base points set in S53, and then the process proceeds to S9.

次に、前記S9において実行される撮像方向決定処理のサブ処理について図20に基づき説明する。図20は撮像方向決定処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the imaging direction determination process executed in S9 will be described with reference to FIG. FIG. 20 is a flowchart of a sub-processing program for imaging direction determination processing.

先ず、S61においてCPU41は、前記S53で軌跡経路に対して設定された基点について取得する。前記したように基点は、軌跡経路の始点Sから終点Gまで軌跡経路に沿って所定距離間隔(例えば50m間隔)で設定される(図19参照)。軌跡経路の始点Sと終点Gも基点に含まれる。   First, in S61, the CPU 41 acquires the base point set for the locus path in S53. As described above, the base points are set at predetermined distance intervals (for example, 50 m intervals) along the trajectory path from the start point S to the end point G of the trajectory path (see FIG. 19). The starting point S and end point G of the trajectory path are also included in the base point.

以下のS62〜S67の処理は前記S61で取得された基点毎に行う。先ず、始点を対象として処理を行い、その後、始点に近い順に処理対象となる基点を切り替える。そして、終点を対象として処理が行われた後にS10へと移行する。   The following processes in S62 to S67 are performed for each base point acquired in S61. First, the process is performed on the start point, and then the base point to be processed is switched in the order closer to the start point. Then, after the process is performed for the end point, the process proceeds to S10.

先ず、S62においてCPU41は、処理対象の基点に関する情報を取得する。具体的には、始点から数えて何番目に位置する基点であるかを特定する情報と、基点の位置座標と、前記S56又は前記S59で紐付けられた角度調整フラグを取得する。   First, in S <b> 62, the CPU 41 acquires information related to a processing target base point. Specifically, the information for specifying the position of the base point counted from the start point, the position coordinates of the base point, and the angle adjustment flag linked in S56 or S59 are acquired.

次に、S63においてCPU41は、処理対象の基点に紐付けられた角度調整フラグがONであるか否かを判定する。尚、角度調整フラグは、軌跡経路の終点が目的地、特定の施設又は地点の周辺に位置する場合であって、且つ目的地、特定の施設又は地点までの距離が所定距離未満である基点に対して“ON”が紐付けられる(S59)。   Next, in S63, the CPU 41 determines whether or not the angle adjustment flag associated with the processing target base point is ON. The angle adjustment flag is used when the end point of the trajectory path is located around the destination, the specific facility or the point, and the base point where the distance to the destination, the specific facility or the point is less than the predetermined distance. On the other hand, “ON” is linked (S59).

そして、処理対象の基点に紐付けられた角度調整フラグがONであると判定された場合(S63:YES)には、S66へと移行する。それに対して、処理対象の基点に紐付けられた角度調整フラグがOFFであると判定された場合(S63:NO)には、S64へと移行する。   And when it determines with the angle adjustment flag linked | related with the base point of a process target being ON (S63: YES), it transfers to S66. On the other hand, when it is determined that the angle adjustment flag associated with the base point to be processed is OFF (S63: NO), the process proceeds to S64.

S64においてCPU41は、処理対象の基点に対して終点側に隣接する次の基点(以下、次基点という)の情報を取得する。具体的には、基点の位置座標を取得する。   In S <b> 64, the CPU 41 acquires information on the next base point (hereinafter referred to as the next base point) adjacent to the end point side with respect to the base point to be processed. Specifically, the position coordinates of the base point are acquired.

その後、S65においてCPU41は、処理対象の基点から次基点の方向を、処理対象の基点に対して撮像方向として設定する。但し、処理対象の基点が終点である場合には、修正軌跡の接線方向を撮像方向とする。その結果、図21に示すように撮像方向Xは軌跡経路71に沿った終点側の方向、即ち軌跡経路71の始点から終点へと移動すると仮定した移動体の進行方向に設定される。   Thereafter, in S65, the CPU 41 sets the direction from the processing target base point to the next base point as an imaging direction with respect to the processing target base point. However, when the base point to be processed is the end point, the tangential direction of the correction locus is set as the imaging direction. As a result, as shown in FIG. 21, the imaging direction X is set to the direction of the end point along the trajectory path 71, that is, the traveling direction of the moving body assumed to move from the start point to the end point of the trajectory path 71.

一方、S66においてCPU41は、軌跡経路の終点の周辺にあると判定された目的地、特定の施設又は地点の位置情報を地図情報DB31から取得する。   On the other hand, in S66, the CPU 41 acquires, from the map information DB 31, position information of a destination, a specific facility, or a spot determined to be around the end point of the locus route.

次に、S67においてCPU41は、処理対象の基点から軌跡経路の終点の周辺にあると判定された目的地、特定の施設又は地点の方向を、処理対象の基点に対して撮像方向として設定する。その結果、図22に示すように例えば軌跡経路71の終点の周辺に目的地65がある場合には、撮像方向Xは基点70から目的地65の方向に設定される。   Next, in S67, the CPU 41 sets the direction of the destination, the specific facility, or the point determined to be around the end point of the locus route from the processing target base point as the imaging direction with respect to the processing target base point. As a result, as shown in FIG. 22, for example, when the destination 65 is around the end point of the trajectory path 71, the imaging direction X is set in the direction from the base point 70 to the destination 65.

その後、S10へと移行し、CPU41は前記S8、S9で設定された条件に該当する複数枚の撮像画像を撮像位置に対応付けて撮像画像DB8から取得する。具体的には、前記S53で設定された基点の位置が撮像位置に対応付けられた撮像画像であって、且つ前記S65又はS67で該基点に設定された撮像方向に対応する範囲(例えば撮像方向を中心とした120度以内)の撮像画像が撮像画像DB8から取得される。基点が複数設定されている場合には、基点毎に対応する撮像画像が撮像画像DB8から取得される。尚、基点の位置と同位置が撮像位置に対応付けられた撮像画像が撮像画像DB8内に無い場合には、最も近い撮像位置が対応付けられた撮像画像が取得される(即ち基点の位置が修正される)。そして、取得された撮像画像が液晶ディスプレイ15に表示される(S11)。   Thereafter, the process proceeds to S10, and the CPU 41 acquires a plurality of captured images corresponding to the conditions set in S8 and S9 from the captured image DB 8 in association with the imaging positions. Specifically, the position of the base point set in S53 is a captured image associated with the imaging position, and a range corresponding to the imaging direction set in the base point in S65 or S67 (for example, the imaging direction) The captured image (within 120 degrees with respect to the center) is acquired from the captured image DB 8. When a plurality of base points are set, a captured image corresponding to each base point is acquired from the captured image DB 8. When there is no captured image in the captured image DB 8 in which the same position as the base point position is associated with the captured position, a captured image associated with the closest captured position is acquired (that is, the base point position is Will be corrected). The acquired captured image is displayed on the liquid crystal display 15 (S11).

以下に、前記S11における撮像画像の表示処理についてより詳細に説明する。
先ずCPU41は、前記S10で取得した各基点に対応する撮像画像の内、軌跡経路の始点が撮像位置として対応付けられた撮像画像を液晶ディスプレイ15に表示する。その後、撮像位置が軌跡経路の始点から近い順に撮像画像を順次切り替えて表示し、最後に軌跡経路の終点が撮像位置として対応付けられた撮像画像を液晶ディスプレイ15に表示する。尚、撮像画像を切り替える間隔は適宜設定可能であるが、例えば1秒間隔とする。
The captured image display processing in S11 will be described in detail below.
First, the CPU 41 displays on the liquid crystal display 15 a captured image in which the start point of the trajectory path is associated as the imaging position among the captured images corresponding to the base points acquired in S10. Thereafter, the captured images are sequentially switched and displayed in the order from the start point of the trajectory path, and finally, the captured image in which the end point of the trajectory path is associated as the imaging position is displayed on the liquid crystal display 15. In addition, although the interval which switches a captured image can be set suitably, it is set as 1 second interval, for example.

その結果、液晶ディスプレイ15には、先ず軌跡経路の始点Sで撮像された撮像画像が表示され、その後、軌跡経路に沿って徐々に終点Gに近い位置で撮像された撮像画像へと切り替わることとなる。   As a result, the liquid crystal display 15 first displays a captured image captured at the start point S of the trajectory path, and then gradually switches to a captured image captured at a position close to the end point G along the trajectory path. Become.

また、撮像画像において表示対象となる範囲は各基点に対して設定された“撮像方向”によって決定される。前述したように基本的に基点に設定される撮像方向は、終点側に隣接する次の基点の方向、即ち軌跡経路に沿った終点側の方向となる(S65)。   Further, the range to be displayed in the captured image is determined by the “imaging direction” set for each base point. As described above, the imaging direction basically set as the base point is the direction of the next base point adjacent to the end point side, that is, the direction of the end point side along the trajectory path (S65).

従って、軌跡経路の終点に目的地や特定の施設や地点が無い場合には、図23に示すように各基点70の撮像方向Xは、常に軌跡経路71に沿った終点G側の方向となる。その結果、液晶ディスプレイ15には、図24に示すように道路の直進方向を撮像方向とした撮像画像66が継続して表示されることとなる。   Therefore, when there is no destination or specific facility or point at the end point of the trajectory path, the imaging direction X of each base point 70 is always the direction on the end point G side along the trajectory path 71 as shown in FIG. . As a result, as shown in FIG. 24, the liquid crystal display 15 continuously displays the picked-up image 66 with the straight road direction as the image pickup direction.

一方で、軌跡経路の終点に目的地や特定の施設や地点がある場合には、図25に示すように各基点70の撮像方向Xは、目的地65(又は特定の施設や地点)から所定距離以上離れた位置にある基点70については軌跡経路71に沿った終点G側の方向となる。一方で、目的地65(又は特定の施設や地点)から所定距離未満の位置にある基点70については基点70から目的地65(又は特定の施設や地点)の方向となる(S67)。   On the other hand, when there is a destination or a specific facility or point at the end point of the trajectory path, the imaging direction X of each base point 70 is predetermined from the destination 65 (or a specific facility or point) as shown in FIG. The base point 70 located at a position more than the distance is in the direction of the end point G along the trajectory path 71. On the other hand, the base point 70 located at a position less than a predetermined distance from the destination 65 (or a specific facility or point) is in the direction from the base point 70 to the destination 65 (or a specific facility or point) (S67).

その結果、液晶ディスプレイ15には、図26に示すように先ず表示開始直後には道路の直進方向を撮像方向Xとした撮像画像66が表示される。その後、表示する撮像画像66の切り替えに従って、表示する撮像画像66の撮像方向Xが軌跡経路に沿った終点側の方向から目的地65(又は特定の施設や地点)側に変更される。具体的には、撮像画像66の表示対象となる基点70が目的地65(又は特定の施設や地点)まで所定距離未満となった時点で、撮像方向Xが変更される。特に本実施形態では、上述したように撮像方向Xが基点70(撮像位置)から目的地65(又は特定の施設や地点)への方向となるので、表示される撮像画像66中に含まれる目的地65は画像の中心付近に位置することとなる。従って、ユーザが表示された撮像画像66から周辺環境(道路や周辺施設等)と対応させて目的地65の位置を容易に特定することが可能となる。また、目的地65の外観や目印等も把握することが可能となる。   As a result, as shown in FIG. 26, first, a picked-up image 66 with the straight direction of the road as the image pickup direction X is displayed on the liquid crystal display 15 as shown in FIG. Thereafter, according to switching of the captured image 66 to be displayed, the imaging direction X of the captured image 66 to be displayed is changed from the direction on the end point side along the trajectory path to the destination 65 (or a specific facility or point) side. Specifically, the imaging direction X is changed when the base point 70 that is the display target of the captured image 66 becomes less than a predetermined distance to the destination 65 (or a specific facility or point). In particular, in the present embodiment, as described above, the imaging direction X is the direction from the base point 70 (imaging position) to the destination 65 (or a specific facility or point), so the objective included in the displayed captured image 66 is included. The ground 65 is located near the center of the image. Therefore, the position of the destination 65 can be easily specified from the captured image 66 displayed by the user in association with the surrounding environment (roads, surrounding facilities, etc.). In addition, it is possible to grasp the appearance and landmarks of the destination 65.

尚、液晶ディスプレイ15に表示する撮像画像の撮像方向を変更する際には、前フレームとの連続性を確保する為に1段階当たりの撮像方向の変化量を所定量以内(例えば5度以内)とするのが望ましい。その結果、連続して切り替わる撮像画像66の消失点の変化量が小さく(例えば画角内の数パーセント以下)することができ、連続して切り替わる一連の撮像画像66に連続性を持たせることが可能となる。   When changing the imaging direction of the captured image displayed on the liquid crystal display 15, the change amount of the imaging direction per stage is within a predetermined amount (for example, within 5 degrees) in order to ensure continuity with the previous frame. Is desirable. As a result, the change amount of the vanishing point of the continuously switched captured image 66 can be reduced (for example, several percent or less within the angle of view), and a series of continuously switched captured images 66 can have continuity. It becomes possible.

また、撮像画像66の表示は、軌跡経路の終点を撮像位置とする撮像画像を表示した時点で終了しても良いし、軌跡経路の終点を撮像位置とする撮像画像を表示した後に再度軌跡経路の始点を撮像位置とする撮像画像を表示し、始点から終点までの撮像画像の表示の切り替えを複数回繰り返し行っても良い。   The display of the captured image 66 may be terminated when a captured image with the end point of the trajectory path as the imaging position is displayed, or after the captured image with the end point of the trajectory path as the imaging position is displayed, the trajectory path is displayed again. It is also possible to display a picked-up image with the starting point of the picked-up position as the picked-up position and repeatedly switch the display of the picked-up image from the starting point to the end point.

以上詳細に説明した通り、本実施形態に係る地図画像表示システム1、地図画像表示システム1による地図画像表示方法及び地図画像表示システム1で実行されるコンピュータプログラムでは、液晶ディスプレイ15に表示された地図画像上でユーザが軌跡を描くドラッグ操作を受け付けた場合に、ユーザによって描かれた軌跡を地図上にマップマッチングした軌跡経路を取得し(S42)、軌跡経路沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて撮像画像DB8から取得し(S10)、軌跡経路の始点から終点までの間に複数の基点を設定し(S53)、各基点が撮像位置として対応付けられた複数の撮像画像66を、撮像位置が軌跡経路の始点から近い順に順次切り替えて表示する(S11)ので、ユーザの希望する経路沿いの周辺環境の撮像画像を表示することが可能となる。その結果、例えばユーザは、表示された撮像画像から周辺環境と対応させて目的地の位置を容易に特定することが可能となる。また、目的地までの経路上にある難交差点や経由地点等のユーザが走行前に状況を把握したい地点を対象として、該地点を撮像した撮像画像を表示させることも可能となる。更に、車両の停車時間(例えば赤信号の停車時)等のユーザが撮像画像を確認できるタイミングで軌跡を描く操作を行えば、撮像画像の確認を容易に行うことが可能となる。   As described above in detail, in the map image display system 1 according to the present embodiment, the map image display method by the map image display system 1, and the computer program executed by the map image display system 1, the map displayed on the liquid crystal display 15 is displayed. When the user accepts a drag operation for drawing a trajectory on the image, a trajectory path obtained by map-matching the trajectory drawn by the user on the map is acquired (S42), and a captured image obtained by capturing the surrounding environment along the trajectory path is acquired. The captured image is acquired from the captured image DB 8 in association with the captured image position (S10), a plurality of base points are set from the start point to the end point of the trajectory path (S53), and each base point corresponds to the image capturing position. The plurality of attached captured images 66 are sequentially switched and displayed in the order in which the imaging positions are closer to the start point of the trajectory path (S11). The captured image of the route along the surrounding environment of the desired over The it is possible to display. As a result, for example, the user can easily specify the position of the destination from the displayed captured image in association with the surrounding environment. It is also possible to display a picked-up image of a point where a user wants to grasp the situation before traveling, such as difficult intersections and waypoints on the route to the destination. Furthermore, if the user draws a locus at a timing at which the user can check the captured image, such as when the vehicle is stopped (for example, when the red signal is stopped), the captured image can be easily confirmed.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では、ナビゲーション装置5で表示対象となる撮像画像を情報サーバ3のDBから取得する構成としているが、撮像画像は予めナビゲーション装置5のDBに格納する構成としても良い。その場合には、ナビゲーション装置5単体で地図画像表示システム1を構成することも可能である。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in the present embodiment, the captured image to be displayed by the navigation device 5 is acquired from the DB of the information server 3, but the captured image may be stored in the DB of the navigation device 5 in advance. In this case, the map image display system 1 can be configured with the navigation device 5 alone.

また、本実施形態では、撮像方向を目的地(又は特定の施設や地点)側に変更を開始するタイミングとして、撮像画像の表示対象となる基点が目的地(又は特定の施設や地点)まで所定距離(例えば300m)未満となったことを条件としているが、他の条件を設定しても良い。例えば、撮像画像の表示対象となる基点に対して目的地が存在する方向が変化する最も遅いタイミングとしても良い。   Further, in the present embodiment, as a timing to start changing the imaging direction to the destination (or specific facility or point) side, the base point that is the display target of the captured image is predetermined to the destination (or specific facility or point). The condition is that the distance is less than 300 m (for example, 300 m), but other conditions may be set. For example, it may be the latest timing at which the direction in which the destination exists is changed with respect to the base point that is the display target of the captured image.

また、本実施形態では、地図画像51上に軌跡を描く操作としてタッチパネル14に対するドラッグ操作を例に挙げて説明しているが、軌跡を描く操作であればタッチパネル14に対するドラッグ操作以外の操作であっても良い。例えば、タブレットを用いた操作や、液晶ディスプレイ15の画面上に表示されたポインタを操作して軌跡を描く操作であっても良い。   In this embodiment, a drag operation on the touch panel 14 is described as an example of an operation for drawing a trajectory on the map image 51. However, an operation other than a drag operation on the touch panel 14 is an operation for drawing a trajectory. May be. For example, an operation using a tablet or an operation of drawing a locus by operating a pointer displayed on the screen of the liquid crystal display 15 may be used.

また、本実施形態では、ユーザのドラッグ操作を受け付けた場合であって、ユーザに描かれた軌跡の終点周辺に目的地(又は特定の施設や地点)がある場合には、目的地から所定距離未満の基点が撮像位置として対応付けられた撮像画像について基点から目的地の方向を撮像方向として表示することとしている(図25)が、軌跡経路の終点から所定距離未満の基点が撮像位置として対応付けられた撮像画像について基点から目的地の方向を撮像方向として表示する構成としても良い。   In this embodiment, when a user's drag operation is accepted and there is a destination (or a specific facility or point) around the end point of the locus drawn by the user, a predetermined distance from the destination The direction of the destination from the base point is displayed as the imaging direction for the captured image in which the base point of less than is associated as the imaging position (FIG. 25), but the base point less than a predetermined distance from the end point of the trajectory path corresponds as the imaging position. It is good also as a structure which displays the direction of the destination from a base point as an imaging direction about the attached captured image.

また、本実施形態では、ナビゲーション装置5のCPU41が撮像画像表示処理プログラム(図4)の各ステップを実行する構成としているが、情報サーバ3のCPUやその他の外部サーバが一部または全部の処理を実行する構成としても良い。   In the present embodiment, the CPU 41 of the navigation device 5 is configured to execute each step of the captured image display processing program (FIG. 4), but the CPU of the information server 3 and other external servers partially or entirely process. It is good also as a structure which performs.

また、本発明は地図画像表示システム1が有するナビゲーション装置5の代わりに、地図画像を表示する機能を有する各種情報端末を適用することが可能である。例えば、携帯電話機、スマートフォン、タブレット型端末、パーソナルコンピュータ等に適用することも可能である。   Moreover, the present invention can apply various information terminals having a function of displaying a map image instead of the navigation device 5 included in the map image display system 1. For example, the present invention can be applied to a mobile phone, a smartphone, a tablet terminal, a personal computer, and the like.

また、本発明に係る地図画像表示システムを具体化した実施例について上記に説明したが、地図画像表示システムは以下の構成を有することも可能であり、その場合には以下の効果を奏する。   Moreover, although the Example which actualized the map image display system which concerns on this invention was demonstrated above, the map image display system can also have the following structures, and there exists the following effect in that case.

例えば、第1の構成は以下のとおりである。
地図画像(51)を表示装置(15)に表示する画像表示手段(41)と、前記表示装置に表示された前記地図画像上でユーザが軌跡を描く操作を受け付ける操作受付手段(41)と、前記ユーザによって描かれた軌跡を地図上にマップマッチングした軌跡経路(71)を取得するマップマッチング手段(41)と、前記軌跡経路沿いの周辺環境を撮像した撮像画像(66)を、該撮像画像を撮像した撮像位置に対応付けて取得する画像データ取得手段(41)と、前記軌跡経路の始点から終点までの間に複数の基点(70)を設定するとともに、複数の前記基点が前記撮像位置として対応付けられた複数の前記撮像画像を、前記撮像位置が前記軌跡経路の始点から近い順に順次切り替えて表示する撮像画像表示手段(41)と、を有する。
上記構成を有する地図画像表示システムによれば、ユーザが地図画像上で軌跡を描く操作を行うことによって、描かれた軌跡に応じた経路沿いの周辺環境の撮像画像を順次切り替えて表示するので、ユーザの希望する経路沿いの周辺環境の撮像画像を表示することが可能となる。その結果、例えばユーザは、表示された撮像画像から周辺環境と対応させて目的地の位置を容易に特定することが可能となる。また、目的地までの経路上にある難交差点や経由地点等のユーザが走行前に状況を把握したい地点を対象として、該地点を撮像した撮像画像を表示させることも可能となる。
For example, the first configuration is as follows.
An image display means (41) for displaying a map image (51) on the display device (15), an operation accepting means (41) for accepting an operation for a user to draw a locus on the map image displayed on the display device, A map matching means (41) for acquiring a locus route (71) obtained by map-matching a locus drawn by the user on a map, and a captured image (66) obtained by imaging the surrounding environment along the locus route. And a plurality of base points (70) between the start point and the end point of the trajectory path, and a plurality of base points at the image pickup position. And a captured image display means (41) for sequentially switching and displaying the plurality of captured images associated with each other in the order that the imaging position is closer to the start point of the trajectory path.
According to the map image display system having the above configuration, since the user performs an operation of drawing a locus on the map image, the captured images of the surrounding environment along the route according to the drawn locus are sequentially switched and displayed. A captured image of the surrounding environment along the route desired by the user can be displayed. As a result, for example, the user can easily specify the position of the destination from the displayed captured image in association with the surrounding environment. It is also possible to display a picked-up image of a point where a user wants to grasp the situation before traveling, such as difficult intersections and waypoints on the route to the destination.

また、第2の構成は以下のとおりである。
前記軌跡経路(71)の始点は前記ユーザが前記軌跡を描くのを開始した地点に対応し、前記軌跡経路の終点は前記ユーザが前記軌跡を描くのを終了した地点に対応する。
上記構成を有する地図画像表示システムによれば、ユーザの希望する方向へと撮像位置が移動する撮像画像を表示することが可能となる。その結果、ユーザが移動する際に実際にユーザが視認することとなる風景と対応させて撮像画像を表示することが可能となる。
The second configuration is as follows.
The start point of the trajectory path (71) corresponds to the point where the user starts drawing the trajectory, and the end point of the trajectory path corresponds to the point where the user finishes drawing the trajectory.
According to the map image display system having the above-described configuration, it is possible to display a captured image in which the imaging position moves in a direction desired by the user. As a result, when the user moves, the captured image can be displayed in association with the scenery that the user will actually see.

また、第3の構成は以下のとおりである。
目的地を設定する目的地設定手段(41)を有し、前記撮像画像表示手段(41)は、前記軌跡経路(71)の終点が目的地周辺である場合に、表示する前記撮像画像(66)の切り替えに従って、表示する前記撮像画像の撮像方向を前記軌跡経路に沿った終点側の方向から目的地側に変更する。
上記構成を有する地図画像表示システムによれば、表示される撮像画像中に含まれる目的地が画像の中心付近に位置することとなるので、ユーザが表示された撮像画像から周辺環境(道路や周辺施設等)と対応させて目的地の位置を容易に特定することが可能となる。また、目的地の外観や目印等も把握することが可能となる。
The third configuration is as follows.
Destination setting means (41) for setting a destination is provided, and the captured image display means (41) displays the captured image (66 displayed when the end point of the trajectory path (71) is around the destination. ), The imaging direction of the captured image to be displayed is changed from the direction on the end point side along the trajectory path to the destination side.
According to the map image display system having the above configuration, since the destination included in the displayed captured image is located near the center of the image, the user can determine the surrounding environment (roads and surroundings) from the displayed captured image. The location of the destination can be easily specified in association with the facility. It is also possible to grasp the appearance and landmarks of the destination.

また、第4の構成は以下のとおりである。
前記撮像画像表示手段(41)は、前記目的地から所定距離以上離れた前記基点(70)が前記撮像位置として対応付けられた前記撮像画像(66)は、前記基点から前記軌跡経路(71)の終点側に隣接する他の基点の方向を撮像方向として表示するとともに、前記目的地から所定距離未満の前記基点が前記撮像位置として対応付けられた前記撮像画像は、前記基点から前記目的地の方向を撮像方向として表示する。
上記構成を有する地図画像表示システムによれば、表示対象となる撮像画像の撮像位置が目的地を視認できる位置まで近づくと、目的地を撮像方向とした撮像画像へと切り替わるので、ユーザが表示された撮像画像から周辺環境(道路や周辺施設等)と対応させて目的地の位置を容易に特定することが可能となる。また、目的地の外観や目印等も把握することが可能となる。
The fourth configuration is as follows.
The captured image display means (41) is configured such that the captured image (66) in which the base point (70) that is a predetermined distance or more away from the destination is associated as the imaging position is the path (71) from the base point. The direction of another base point adjacent to the end point side of the image is displayed as the imaging direction, and the captured image in which the base point less than a predetermined distance from the destination is associated as the imaging position is displayed from the base point to the destination. The direction is displayed as the imaging direction.
According to the map image display system having the above configuration, when the imaging position of the captured image to be displayed approaches a position where the destination can be visually recognized, the image is switched to the captured image with the destination as the imaging direction, so that the user is displayed. It is possible to easily specify the position of the destination from the captured image in correspondence with the surrounding environment (roads, surrounding facilities, etc.). It is also possible to grasp the appearance and landmarks of the destination.

また、第5の構成は以下のとおりである。
地図画像(51)上にある特定の施設又は地点の位置を取得する位置取得手段(41)を有し、前記撮像画像表示手段(41)は、前記軌跡経路(71)の終点が前記特定の施設又は地点周辺である場合に、表示する前記撮像画像(66)の切り替えに従って、表示する前記撮像画像の撮像方向を前記軌跡経路に沿った終点側の方向から前記特定の施設又は地点側に変更する。
上記構成を有する地図画像表示システムによれば、表示される撮像画像中に含まれる特定の施設又は地点が画像の中心付近に位置することとなるので、ユーザが表示された撮像画像から周辺環境(道路や周辺施設等)と対応させて特定の施設又は地点の位置を容易に特定することが可能となる。また、特定の施設又は地点の外観や目印等も把握することが可能となる。
The fifth configuration is as follows.
It has a position acquisition means (41) that acquires the position of a specific facility or point on the map image (51), and the captured image display means (41) has an end point of the trajectory path (71) as the specific position. When the area is around a facility or point, the imaging direction of the captured image to be displayed is changed from the direction of the end point along the trajectory path to the specific facility or point according to the switching of the captured image (66) to be displayed. To do.
According to the map image display system having the above-described configuration, the specific facility or spot included in the displayed captured image is located near the center of the image. It is possible to easily specify the position of a specific facility or point in correspondence with a road or a surrounding facility. It is also possible to grasp the appearance and landmarks of a specific facility or point.

また、第6の構成は以下のとおりである。
前記撮像画像表示手段(41)は、前記特定の施設又は地点から所定距離以上離れた前記基点(70)が前記撮像位置として対応付けられた前記撮像画像(66)は、前記基点から前記軌跡経路(71)の終点側に隣接する他の基点の方向を撮像方向として表示するとともに、前記特定の施設又は地点から所定距離未満の前記基点が前記撮像位置として対応付けられた前記撮像画像は、前記基点から前記特定の施設又は地点の方向を撮像方向として表示する。
上記構成を有する地図画像表示システムによれば、表示対象となる撮像画像の撮像位置が特定の施設又は地点を視認できる位置まで近づくと、特定の施設又は地点を撮像方向とした撮像画像へと切り替わるので、ユーザが表示された撮像画像から周辺環境(道路や周辺施設等)と対応させて特定の施設又は地点の位置を容易に特定することが可能となる。また、特定の施設又は地点の外観や目印等も把握することが可能となる。
The sixth configuration is as follows.
The captured image display means (41) is configured such that the captured image (66) in which the base point (70) separated from the specific facility or point by a predetermined distance or more is associated as the imaging position is The direction of another base point adjacent to the end point side of (71) is displayed as the imaging direction, and the captured image in which the base point less than a predetermined distance from the specific facility or point is associated as the imaging position is The direction of the specific facility or point from the base point is displayed as the imaging direction.
According to the map image display system having the above configuration, when the imaging position of the captured image to be displayed approaches a position where a specific facility or point can be visually recognized, the image is switched to a captured image with the specific facility or point as the imaging direction. Therefore, it becomes possible to easily specify the position of a specific facility or point in correspondence with the surrounding environment (roads, surrounding facilities, etc.) from the captured image displayed. It is also possible to grasp the appearance and landmarks of a specific facility or point.

1 地図画像表示システム
2 情報管理センタ
3 情報サーバ
4 ユーザ
5 ナビゲーション装置
8 撮像画像DB
9 撮像位置
10 撮像画像
14 タッチパネル
41 CPU
42 RAM
43 ROM
51 地図画像
61 タッチ地点
65 目的地
66 撮像画像
70 基点
71 軌跡経路
DESCRIPTION OF SYMBOLS 1 Map image display system 2 Information management center 3 Information server 4 User 5 Navigation apparatus 8 Captured image DB
9 Imaging position 10 Captured image 14 Touch panel 41 CPU
42 RAM
43 ROM
51 Map Image 61 Touch Point 65 Destination 66 Captured Image 70 Base Point 71 Trajectory Path

Claims (8)

地図画像を表示装置に表示する画像表示手段と、
前記表示装置に表示された前記地図画像上でユーザが軌跡を描く操作を受け付ける操作受付手段と、
前記ユーザによって描かれた軌跡を地図上にマップマッチングした軌跡経路を取得するマップマッチング手段と、
前記軌跡経路沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて取得する画像データ取得手段と、
前記軌跡経路の始点から終点までの間に複数の基点を設定するとともに、複数の前記基点が前記撮像位置として対応付けられた複数の前記撮像画像を、前記撮像位置が前記軌跡経路の始点から近い順に順次切り替えて表示する撮像画像表示手段と、を有する地図画像表示システム。
Image display means for displaying a map image on a display device;
Operation accepting means for accepting an operation in which a user draws a locus on the map image displayed on the display device;
Map matching means for acquiring a locus route obtained by map matching the locus drawn by the user on a map;
Image data acquisition means for acquiring a captured image obtained by imaging the surrounding environment along the trajectory path in association with an imaging position where the captured image is captured;
A plurality of base points are set between a start point and an end point of the trajectory path, and a plurality of the captured images in which a plurality of the base points are associated as the imaging positions are set such that the imaging position is close to the start point of the trajectory path A map image display system comprising captured image display means for sequentially switching and displaying.
前記軌跡経路の始点は前記ユーザが前記軌跡を描くのを開始した地点に対応し、前記軌跡経路の終点は前記ユーザが前記軌跡を描くのを終了した地点に対応する請求項1に記載の地図画像表示システム。   The map according to claim 1, wherein a start point of the trajectory path corresponds to a point where the user starts drawing the trajectory, and an end point of the trajectory path corresponds to a point where the user finishes drawing the trajectory. Image display system. 目的地を設定する目的地設定手段を有し、
前記撮像画像表示手段は、
前記軌跡経路の終点が目的地周辺である場合に、表示する前記撮像画像の切り替えに従って、表示する前記撮像画像の撮像方向を前記軌跡経路に沿った終点側の方向から目的地側に変更する請求項1又は請求項2に記載の地図画像表示システム。
Having destination setting means for setting the destination,
The captured image display means includes:
When the end point of the trajectory path is around a destination, the imaging direction of the captured image to be displayed is changed from the direction of the end point side along the trajectory path to the destination side according to switching of the captured image to be displayed. The map image display system according to claim 1 or 2.
前記撮像画像表示手段は、
前記目的地から所定距離以上離れた前記基点が前記撮像位置として対応付けられた前記撮像画像は、前記基点から前記軌跡経路の終点側に隣接する他の基点の方向を撮像方向として表示するとともに、
前記目的地から所定距離未満の前記基点が前記撮像位置として対応付けられた前記撮像画像は、前記基点から前記目的地の方向を撮像方向として表示する請求項3に記載の地図画像表示システム。
The captured image display means includes:
The captured image in which the base point that is more than a predetermined distance away from the destination is associated as the imaging position displays the direction of another base point adjacent to the end point side of the trajectory path from the base point as the imaging direction,
The map image display system according to claim 3, wherein the captured image in which the base point less than a predetermined distance from the destination is associated as the imaging position displays the direction of the destination from the base point as the imaging direction.
地図画像上にある特定の施設又は地点の位置を取得する位置取得手段を有し、
前記撮像画像表示手段は、
前記軌跡経路の終点が前記特定の施設又は地点周辺である場合に、表示する前記撮像画像の切り替えに従って、表示する前記撮像画像の撮像方向を前記軌跡経路に沿った終点側の方向から前記特定の施設又は地点側に変更する請求項1又は請求項2に記載の地図画像表示システム。
Having position acquisition means for acquiring the position of a specific facility or point on the map image;
The captured image display means includes:
When the end point of the trajectory path is around the specific facility or point, the imaging direction of the captured image to be displayed is changed from the direction on the end point side along the trajectory path according to the switching of the captured image to be displayed. The map image display system according to claim 1, wherein the map image display system is changed to a facility or a point side.
前記撮像画像表示手段は、
前記特定の施設又は地点から所定距離以上離れた前記基点が前記撮像位置として対応付けられた前記撮像画像は、前記基点から前記軌跡経路の終点側に隣接する他の基点の方向を撮像方向として表示するとともに、
前記特定の施設又は地点から所定距離未満の前記基点が前記撮像位置として対応付けられた前記撮像画像は、前記基点から前記特定の施設又は地点の方向を撮像方向として表示する請求項5に記載の地図画像表示システム。
The captured image display means includes:
The captured image in which the base point that is a predetermined distance or more away from the specific facility or point is associated as the imaging position displays the direction of another base point adjacent to the end point side of the trajectory path from the base point as the imaging direction. And
6. The captured image in which the base point less than a predetermined distance from the specific facility or point is associated as the imaging position displays the direction of the specific facility or point from the base point as an imaging direction. Map image display system.
画像表示手段が、地図画像を表示装置に表示するステップと、
操作受付手段が、前記表示装置に表示された前記地図画像上でユーザが軌跡を描く操作を受け付けるステップと、
マップマッチング手段が、前記ユーザによって描かれた軌跡を地図上にマップマッチングした軌跡経路を取得するステップと、
画像データ取得手段が、前記軌跡経路沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて取得するステップと、
撮像画像表示手段が、前記軌跡経路の始点から終点までの間に複数の基点を設定するとともに、複数の前記基点が前記撮像位置として対応付けられた複数の前記撮像画像を、前記撮像位置が前記軌跡経路の始点から近い順に順次切り替えて表示するステップと、を有する地図画像表示方法。
An image display means for displaying a map image on a display device;
A step of receiving an operation in which a user draws a locus on the map image displayed on the display device;
A step of acquiring a trajectory path obtained by map-matching a trajectory drawn by the user on a map;
An image data acquisition means for acquiring a captured image obtained by imaging the surrounding environment along the trajectory path in association with an imaging position where the captured image is captured;
The captured image display means sets a plurality of base points between a start point and an end point of the trajectory path, and a plurality of the captured images in which a plurality of the base points are associated as the image pickup positions, A map image display method comprising: sequentially switching and displaying in order from the start point of the locus route.
コンピュータを、
地図画像を表示装置に表示する画像表示手段と、
前記表示装置に表示された前記地図画像上でユーザが軌跡を描く操作を受け付ける操作受付手段と、
前記ユーザによって描かれた軌跡を地図上にマップマッチングした軌跡経路を取得するマップマッチング手段と、
前記軌跡経路沿いの周辺環境を撮像した撮像画像を、該撮像画像を撮像した撮像位置に対応付けて取得する画像データ取得手段と、
前記軌跡経路の始点から終点までの間に複数の基点を設定するとともに、複数の前記基点が前記撮像位置として対応付けられた複数の前記撮像画像を、前記撮像位置が前記軌跡経路の始点から近い順に順次切り替えて表示する撮像画像表示手段と、
して機能させる為のコンピュータプログラム。
Computer
Image display means for displaying a map image on a display device;
Operation accepting means for accepting an operation in which a user draws a locus on the map image displayed on the display device;
Map matching means for acquiring a locus route obtained by map matching the locus drawn by the user on a map;
Image data acquisition means for acquiring a captured image obtained by imaging the surrounding environment along the trajectory path in association with an imaging position where the captured image is captured;
A plurality of base points are set between a start point and an end point of the trajectory path, and a plurality of the captured images in which a plurality of the base points are associated as the imaging positions are set such that the imaging position is close to the start point of the trajectory path Captured image display means for sequentially switching and displaying;
Computer program to make it function.
JP2015233134A 2015-11-30 2015-11-30 Map image display system, map image display method, and computer program Pending JP2017102172A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015233134A JP2017102172A (en) 2015-11-30 2015-11-30 Map image display system, map image display method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233134A JP2017102172A (en) 2015-11-30 2015-11-30 Map image display system, map image display method, and computer program

Publications (1)

Publication Number Publication Date
JP2017102172A true JP2017102172A (en) 2017-06-08

Family

ID=59018027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233134A Pending JP2017102172A (en) 2015-11-30 2015-11-30 Map image display system, map image display method, and computer program

Country Status (1)

Country Link
JP (1) JP2017102172A (en)

Similar Documents

Publication Publication Date Title
TWI575224B (en) A navigation device, methods for providing navigation instructions on a device and related non-transitory machine readable mediums
US8090528B2 (en) Navigation apparatus and computer program
KR101864814B1 (en) Method and device for providing guidance to street view destination
JP6172283B2 (en) Route search system, route search method and computer program
US8374779B2 (en) Navigation device and image management method
EP3553472A1 (en) Driving support device and computer program
JP2017032654A (en) Information guide system, information guide method and computer program
JP2011038970A (en) Navigation system
JP2013019855A (en) Travel guiding device, travel guiding method and computer program
JP2012037475A (en) Server device, navigation system and navigation device
JP2010091582A (en) Navigation system and computer program
JP6572654B2 (en) Route guidance system, route guidance method and computer program
JP2014153192A (en) Travel guide system, travel guide method, and computer program
US11656085B2 (en) Route searching device and computer program
JP2017083278A (en) Information provision system, information provision method, and computer program
JP5115862B2 (en) Route guidance device
JP2008249475A (en) On-vehicle device and traffic information presentation method
US8606505B2 (en) Travel guidance system, travel guidance device, travel guidance method, and computer program
JP2009036541A (en) Navigation apparatus and navigation program
JP4207317B2 (en) Destination identification support device and navigation system provided with the device
JP2005321268A (en) Navigation system
JP2017102172A (en) Map image display system, map image display method, and computer program
JP2017067527A (en) Route guidance system, route guidance method, and computer program
JP2014066595A (en) Navigation apparatus
JP6350267B2 (en) Information guidance system, information guidance method, and computer program