JP2004150918A - Map displaying method - Google Patents

Map displaying method Download PDF

Info

Publication number
JP2004150918A
JP2004150918A JP2002315567A JP2002315567A JP2004150918A JP 2004150918 A JP2004150918 A JP 2004150918A JP 2002315567 A JP2002315567 A JP 2002315567A JP 2002315567 A JP2002315567 A JP 2002315567A JP 2004150918 A JP2004150918 A JP 2004150918A
Authority
JP
Japan
Prior art keywords
screen
displayed
map
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002315567A
Other languages
Japanese (ja)
Inventor
Takao Hatanaka
孝夫 畑中
Shinichi Yamanaka
新一 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2002315567A priority Critical patent/JP2004150918A/en
Publication of JP2004150918A publication Critical patent/JP2004150918A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To intuitively understand a peripheral condition of a specified point. <P>SOLUTION: The first map screens A1 expressed three-dimensionally are switchedly displayed in order up to reach an objective point. Each of the screens gets stationary in a proper point, and continuous display is regenerated up to the next proper point by an operation of an operation means. A user experiences thereby pseudo-experience of own behavior before starting the behavior actually. Specified character/symbol information C is included only in a specified screen of an image in the proper point. Since the eyesore character information is not displayed when changed continuously, the user is able to grasp intuitively a change in geography. The user able to confirm objectively own position on a plane because the second map screen A2 expressed top-view-likely to express the present position is provided. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、特定の目的地に至るまでの地図を順次表示する地図表示方法に関する。
【0002】
【従来の技術】
従来、特定の目的地に至るまでの地図を順次表示する地図表示方法として、「カーナビゲーションシステム」と呼ばれる、自動車に表示装置を搭載して目的地までの地図を現在位置に対応して順次表示する方法が知られている。しかし、同技術では、表示する地図は静止画であるため、ユーザーは地図を凝視して、現在位置と目的地を確認し、これらの間の経路を自らの目で追跡しなければならなかった。また、「カーナビゲーションシステム」においても、3次元的に建物等を表示しているものも知られているが、静止画であるため実際に移動する状況を把握するために用いるのには適さなかった。
【0003】
なお、本発明とは趣旨が相違するが、電子地図に関する文献として、特許第2756483号公報に記載のものが知られている。同公報に記載の技術によれば、画面に表示される平面地図には、公共機関等の建物や、河川等が表示されているのみで、実際の目的地の目印となる対象物を表示する機能を有していない。
【0004】
【発明が解決しようとする課題】
かかる従来の実情に鑑みて、本発明は、例えば現在地点のような、特定地点の周囲の状況を直感的に理解することができる地図表示方法を提供することにある。
【0005】
【課題を解決するための手段】
上記目的を達成するため、本発明に係る地図表示方法の第一の特徴は、3次元的に表現された第一地図画面を目的地に至るまで順次切替表示し、各画面は適宜地点にて静止し、操作手段の操作で連続表示が次の適宜地点まで再生され、当該適宜地点の画像である特定画像のみ特定の文字・記号情報が含まれるようにしたことにある。
【0006】
また、本発明に係る地図表示方法の第二の特徴は、上記第一の特徴に加え、平面図的に表現され、現在地点を表示する第二地図画面を表示させるようにしたことにある。
【0007】
【発明の効果】
このように、上記本発明に係る地図表示方法の第一の特徴によれば、第一地図画面は3次元的に表現してある。したがって、例えば、周囲の建物といった地図上に表示する対象物を立体的に表示することが可能となったことから、ユーザーは実際に行動する前に、自分の行動を疑似体験することができるようになった。そして、静止した特定画像にのみランドマーク等を表示する文字・記号情報を埋め込むことで、周囲にの状況を明らかにでき、連続変化する際に目障りな文字情報を表示させないので、ユーザーは地形の変化を文字情報に惑わされることなく直感的に認識することができる。
【0008】
また、上記本発明にかかる地図表示方法の第二の特徴によれば、上記第一地図画面に加えて、現在地点を平面図的な地図上に表示する第二地図画面を有する。したがって、周囲環境を立体的に直感で確認しながら、平面上で自らの位置を客観的に確認することが可能となった。
【0009】
なお、本発明に係る地図表示方法の他の特徴、目的、効果については、以下に示す「発明の実施の形態」の項で明らかになるであろう。
【0010】
【発明の実施の形態】
次に、添付図面を参照しながら、本発明をさらに詳しく説明する。
図1〜7に時系列順にて示す本発明の実施形態は、地下鉄の駅から目的地である建物までの道案内をパソコンの画面Aに表示する道案内システムに関する。図3に示すように、この画面Aは、大略、第一〜四画面A1〜A4の4つの区画を有している。
【0011】
第一画面A1は、出発地点(始点)である地下鉄の駅から目的地(終点)の建物に至る経路の一部を3次元的に表示する3次元(3D)地図であり、具体的には、人の目線及び人の動きに基づいた3Dアニメーションを映し出す。ここで、本明細書において、「アニメーション」及び「動画」とは、特に断りのない限り、静止画を連続的に表示(スライド表示)したものをいう。
【0012】
第二画面A2は、第一画面A1にて表示する3D地図に対応した地点を平面地図上に表示することで、現在地点をユーザーに知らせるためのものである。同画面において、現在地Hを丸印等で表示する。また、第一、二画面A1、A2双方において、目的地Eとしての建物等に周囲とは異なる着色を施すことで、画面A1にて表示される3D表示の地図がどの位置における表示なのかを把握すると共に、目的地までのおおよその距離感を把握することができるようにしてある。
【0013】
第三画面A3は、主として操作指令を行うためのものであり、ナビゲーションボタンB1と出発地点選択ボタンB2とを有している。このナビゲーションボタンB1は、「PLAY」、「FWD」、「PRINT」及び2つの「BACK」よりなる5つの操作ボタンから構成される。「PLAY」をクリックすると、画面A1に動画(アニメーション)が映し出される。一方、「FWD」をクリックすると、動画(アニメーション)ではなく、動画を構成する各コマ単位毎に表示される。また、前画面を見たいときには、画面上段の「BACK」をクリックすればよい。また、一番最初の画面に戻りたいときは、画面下段の「BACK」をクリックすればよい。「PRINT」は、当該画面を印刷(出力)するものであり、実際の道順をシュミレーションした表示画面を印刷出力する。これら5種類のナビゲーションボタンB1により、目的地までの進行を進めたり、戻したりすることができる。
【0014】
このように、本実施形態では、ナビゲーションボタンB1の操作のみで、動画、静止画、メッセージ等の表示及び印刷(出力)等を指示することができる。なお、本明細書では、特に断りがない限り、「特定画像」というときには、アニメーション(動画)が順次表示された後に静止する画像をいう。図3のA1は特定画像に相当する。
【0015】
出発地点選択ボタンB2は、符号B2a,B2b,B2cに示すように異なる出発地に対応した複数のボタンを有している。図1〜7は最も下のボタンB2cを選択した場合に対応し、中段のボタンB2bを選択すれば図8に示すような異なる地点に対する3次元画像が表示される。また、最上段のボタンB2aを選択すれば、異なる駅における案内画像が表示される。
【0016】
第四画面A4は、第一画面A1に表示した内容に対応するメッセージを表示するものである。例えば、「地下鉄○○駅下車、12番出口を上がる」や、「12番出口後ろ○○コーヒー横、○○生命○○○ビル横通る」といったメッセージを表示する。
【0017】
次に、地図の作成方法及び地図等を画面Aに表示するためのソフトウエアの作成方法について簡単に説明する。
1)3次元CAD等で地形図を作成する。具体的にはレンダリングやシェーディングの技法により最終的に必要な画像を自動生成すればよい。また、実際に現地へカメラを持ち込んで撮影した3次元画像を用いることもできる。
2) 順次視点を変えて、1)と同様に1コマ毎に地形図を作成する。
3)作成した3次元地形図を2次元図形データ(bmp、jpeg等)に変換する。
4)建物等のオブジェクト毎に適宜文字情報(文字、記号等)を埋め込む
5)各コマ単位で、図形(画像)データ及び文字データ−等をセットにし、各セットに時系列の情報を埋め込み、これらのデータを順次表示させるプログラムに書き込みを行う。本実施形態では、これらの2次元図形データ等を時系列順にスライド表示させることでアニメーション(動画)を作成するプログラムとしてMacromedia社の「Flash」(商標)を用いた。
【0018】
次に、図1〜7を順に参照しながら、実際の操作手順について説明する。
まず、図示しないログイン画面において、ユーザーが出発地点と目的地点を入力すると、第一画面A1には、出発地点(始点)と目的地点(終点)双方を上空から眺めた3D地図が表示される。そして、ユーザーが、図3に示すボタンB2cの選択後に第三画面A3のナビゲーションボタンB1の「PLAY」をクリックすると、第一画面A1には、上空視で視点が順次変化する様子を再現した動画(アニメーション)が映し出される。図2に示す画面Aの第一画面A1は、そのアニメーションの最中の1コマを抽出したものである。本実施形態では、アニメーション最中の第一画面A1内に文字情報があると画像の内容自体が煩雑になるため、文字情報を表示させないようにしてある。以下、ナビゲーションボタンB1の「PLAY」ボタンを順次クリックする場合を例にとって説明する。
【0019】
図3は、上空から地上視に第一画面A1の視点を移動させる過程において、上空から出発地点である地下鉄の駅に視線を向けた際の立体静止画像が表示された状態での画面Aを示す。同図の第一画面A1には、「○○生命○○○ビル」や「○○コーヒー」のように建物・店等の名称や、「○○通り」といった通り(道路)の名称、さらには地下鉄の出口の番号、「目的地」の表示等、必要性の高い情報を文字・記号Cの形で表示するようにしてある。また、以下の各第一画面A1において、目的地となる建物Eには、周囲とは異なる配色を施してあり、自らの進行方向がわかるようにしてある。
【0020】
図4の第一画面A1は、出発地点において、地上にいる人の目線で進行方向を見たときの3D立体静止画(地上立体静止画像)である。図3〜6に示すように、第二画面A2において、現在地点Hを丸印等で表示してある。なお、本明細書で「地上立体画像」とは、地上にいる人の目線でみた場合の風景画像を言うものとする。
【0021】
図5、6は、地上にいる人物の目線で目的地に至るまでの様子(風景)を動画(アニメーション)にて第一画面A1に写しだしている最中の1コマを抽出したものであり、図6は図5に示すものの数コマ後の1コマを抽出したものである。ここで、この動画の最中にあっては、第一画面A1には、上述の文字・記号情報Cを表示しないようにしたことで、連続変化を特徴とする動画にあって、煩雑な印象をユーザーに与えることもない。また、第二画面A2にあっては、現在地点Hも第一画面A1に連動して順次移動する。したがって、ユーザーは3Dの画像(地図)と2次元の地図情報双方で現在位置を把握するので、より正確に現在位置及び自らの進路を把握することができる。このように、視点が順次変化する複数の画像が表示された後、第一画面A1には、図7に示すように、目的地である建物の前における特定画像としての地上視静止立体画像が表示され、ユーザーに対する道順案内が終了する。
【0022】
最後に、本発明にかかる地図表示方法の他の実施形態の可能性について言及する。なお、以下の各実施形態を適宜組み合わせて実施することも可能である。
図9、10に示すように、建物等の影を表示することでより現実的な3D地図を表示させることができる。ここで、第一画面A1にあっては、図9に示す静止画を表示する場合の影S1a、S1bの色を、図10に示すアニメーション(動画)再生中の場合の影S2a、S2bの色に比べて減色させてある。静止画にあっては、文字情報Cを表示するため、影の色を減色することにより、表示された地図の立体感を維持しつつ、文字情報Cを明瞭に表示することが可能となる。
【0023】
上記実施形態では、パソコンの画面上に地図を表示する場合を例にとって説明した。しかし、携帯電話やPDAの画面に地図を表示することも可能である。また、自動車内に搭載した画面上に表示させることで、立体感覚に訴える「カーナビゲーションシステム」を構築することも可能である。
【0024】
上記実施形態の第一画面A1にあっては、道路部分に着色を施していたが、かかる部分に地下鉄の駅構内の様子や、地下街の構成を立体的に表示することも可能である。
【0025】
また、上記各実施形態では、2次元図形データ等を時系列順にスライド表示させることでアニメーションを構成したが、3次元CADで作成した動画をそのまま映し出す構成としてもよい。但し、データが小容量で済む点で、上記実施形態の方が優れている。
【0026】
上記実施形態では、図3に示す特定画像の第一画面A1に表示された文字・記号Cの全てが図5に示すような他の動画では表示されていなかった。しかし、特定画像に含まれる文字・記号Cの「一部」が動画で表示されないように構成してもよい。例えば、図6に示すように、目障りにならない「目的地」の文字等は動画の第一画面A1に含ませてもよい。
【0027】
なお、特許請求の範囲の項に記入した符号は、あくまでも図面との対照を便利にするためのものにすぎず、該記入により本発明は添付図面の構成に限定されるものではない。
【図面の簡単な説明】
【図1】最初に表示される上空立体動画の1コマを表示した画面の説明図である。
【図2】上空から視点を変化させている最中の上空立体動画の1コマを表示した画面の説明図である。
【図3】上空から出発地点に視線を向けた状態における上空立体静止画像を表示した画面の説明図である。
【図4】出発地点において人の目線に立った状態での地上立体静止画像を表示した画面の説明図である。
【図5】地上立体画像のアニメーション再生中の地上立体動画の1コマを表示した画面の説明図である。
【図6】地上立体画像のアニメーション再生中の地上立体動画の続く1コマを表示した画面の説明図である。
【図7】目的地に到着直前の最終画面の説明図である地上立体静止画像を表示した画面の説明図である。
【図8】他の出発地点選択ボタンを選択した状態における図1相当図である。
【図9】他の実施形態における地上立体静止画像を表示した影の薄い状態の画面の説明図である。
【図10】図9の状態に続く影の濃い状態の画面の説明図である。
【符号の説明】
A:画面の説明図、A1:第一画面、A2:第二画面、A3:第三画面、A4:第四画面、B1:ナビゲーションボタン、B2:出発地点選択ボタン、C:文字情報、H:現在地表示、S1a、S1b:静止画像における影、S2a、S2b:動画再生中における影
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a map display method for sequentially displaying a map up to a specific destination.
[0002]
[Prior art]
Conventionally, as a map display method that sequentially displays a map to a specific destination, a so-called "car navigation system" is equipped with a display device on the car and a map to the destination is sequentially displayed according to the current position There are known ways to do this. However, with this technology, the displayed map is a still image, so the user has to stare at the map, confirm the current position and destination, and follow the route between them with his own eyes . Also, in a “car navigation system”, a system that displays a building or the like three-dimensionally is also known, but is not suitable for use in grasping the actual moving situation because it is a still image. Was.
[0003]
It should be noted that although it is different from the present invention, a document related to an electronic map described in Japanese Patent No. 2756483 is known. According to the technology described in the publication, the flat map displayed on the screen only displays buildings such as public institutions, rivers, and the like, and displays an object serving as a landmark of an actual destination. No function.
[0004]
[Problems to be solved by the invention]
In view of such a conventional situation, an object of the present invention is to provide a map display method that allows an intuitive understanding of a situation around a specific point such as a current point.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a first feature of the map display method according to the present invention is to sequentially switch and display a three-dimensionally expressed first map screen until reaching a destination, and each screen is appropriately displayed at a point. The stationary display is reproduced by the operation of the operation means to the next appropriate point, and only the specific image which is the image of the appropriate point includes specific character / symbol information.
[0006]
A second feature of the map display method according to the present invention is that, in addition to the first feature, a second map screen which is expressed in a plan view and displays a current position is displayed.
[0007]
【The invention's effect】
As described above, according to the first feature of the map display method according to the present invention, the first map screen is three-dimensionally represented. Therefore, for example, since it is possible to three-dimensionally display an object to be displayed on a map such as a surrounding building, the user can simulate his / her own behavior before actually performing the behavior. Became. By embedding character / symbol information that displays landmarks and the like only in a specific still image, it is possible to clarify the situation around the user and to prevent the display of obstructive character information during continuous changes. The change can be intuitively recognized without being misled by the character information.
[0008]
According to a second feature of the map display method according to the present invention, in addition to the first map screen, the map display method further includes a second map screen for displaying a current location on a plan view map. Accordingly, it has become possible to objectively check the position of the user on a plane while checking the surrounding environment three-dimensionally and intuitively.
[0009]
The other features, objects, and effects of the map display method according to the present invention will be apparent in the following “Embodiments of the invention”.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, the present invention will be described in more detail with reference to the accompanying drawings.
The embodiment of the present invention shown in chronological order in FIGS. 1 to 7 relates to a route guidance system for displaying route guidance from a subway station to a destination building on a screen A of a personal computer. As shown in FIG. 3, the screen A generally has four sections of first to fourth screens A1 to A4.
[0011]
The first screen A1 is a three-dimensional (3D) map that three-dimensionally displays a part of a route from a subway station, which is a departure point (start point), to a building at a destination (end point). 3D animation based on the eyes of the person and the movement of the person. Here, in the present specification, “animation” and “moving image” refer to continuous display (slide display) of a still image unless otherwise specified.
[0012]
The second screen A2 is for displaying a point corresponding to the 3D map displayed on the first screen A1 on a planar map to inform the user of the current point. On the screen, the current location H is displayed by a circle or the like. In addition, on both the first and second screens A1 and A2, the building or the like as the destination E is colored differently from the surroundings, so that the position of the 3D display map displayed on the screen A1 is displayed. In addition to grasping, it is possible to grasp an approximate sense of distance to the destination.
[0013]
The third screen A3 is mainly for giving an operation command, and has a navigation button B1 and a start point selection button B2. The navigation button B1 includes five operation buttons including “PLAY”, “FWD”, “PRINT”, and two “BACK”. When "PLAY" is clicked, a moving image (animation) is displayed on the screen A1. On the other hand, when "FWD" is clicked, the image is displayed not for each moving image (animation) but for each frame constituting the moving image. When the user wants to see the previous screen, the user only has to click "BACK" at the top of the screen. To return to the first screen, click "BACK" at the bottom of the screen. “PRINT” prints (outputs) the screen, and prints out a display screen that simulates actual directions. With these five types of navigation buttons B1, it is possible to advance or return to the destination.
[0014]
As described above, in the present embodiment, display and printing (output) of a moving image, a still image, a message, and the like can be instructed only by operating the navigation button B1. In this specification, unless otherwise specified, the term “specific image” refers to an image that is displayed after animations (moving images) are sequentially displayed. A1 in FIG. 3 corresponds to the specific image.
[0015]
The departure point selection button B2 has a plurality of buttons corresponding to different departure points as indicated by reference numerals B2a, B2b, and B2c. FIGS. 1 to 7 correspond to the case where the bottom button B2c is selected, and if the middle button B2b is selected, three-dimensional images for different points as shown in FIG. 8 are displayed. If the uppermost button B2a is selected, a guide image at a different station is displayed.
[0016]
The fourth screen A4 displays a message corresponding to the content displayed on the first screen A1. For example, a message such as "Get off at the subway station XX, go up exit 12," or "pass behind XX coffee beside exit 12, pass XX life building XX" is displayed.
[0017]
Next, a method of creating a map and a method of creating software for displaying a map or the like on the screen A will be briefly described.
1) Create a topographic map using three-dimensional CAD or the like. More specifically, a finally required image may be automatically generated by a rendering or shading technique. Alternatively, a three-dimensional image taken by actually bringing a camera to the site and photographing it can be used.
2) Change the viewpoint sequentially, and create a topographic map for each frame as in 1).
3) Convert the created three-dimensional topographic map into two-dimensional graphic data (bmp, jpeg, etc.).
4) Embedding character information (characters, symbols, etc.) as appropriate for each object such as a building 5) For each frame, set graphic (image) data and character data, etc., and embed time-series information in each set; Writing is performed on a program for sequentially displaying these data. In the present embodiment, Macromedia's "Flash" (trademark) is used as a program for creating an animation (moving image) by slidingly displaying these two-dimensional graphic data in chronological order.
[0018]
Next, an actual operation procedure will be described with reference to FIGS.
First, when a user inputs a departure point and a destination point on a login screen (not shown), a 3D map in which both the departure point (start point) and the destination point (end point) are viewed from above is displayed on the first screen A1. Then, when the user clicks "PLAY" of the navigation button B1 on the third screen A3 after selecting the button B2c shown in FIG. 3, the first screen A1 displays a moving image that reproduces a state in which the viewpoint sequentially changes in aerial view. (Animation) is projected. The first screen A1 of the screen A shown in FIG. 2 is obtained by extracting one frame during the animation. In the present embodiment, if there is character information in the first screen A1 during the animation, the content of the image itself becomes complicated, so that the character information is not displayed. Hereinafter, a case where the "PLAY" button of the navigation button B1 is sequentially clicked will be described as an example.
[0019]
FIG. 3 shows a screen A in a state where a stereoscopic still image is displayed when the line of sight is directed from the sky to the subway station which is the starting point in the process of moving the viewpoint of the first screen A1 from the sky to the ground view. Show. In the first screen A1 of the figure, the names of buildings and shops, such as "XX Life XOO Building" and "XX Coffee", the names of streets (roads) such as "XX Street", and the like. Is displayed in the form of a character / symbol C, such as a subway exit number and a display of "destination". In each of the following first screens A1, the destination building E is given a different color scheme from the surroundings, so that the traveling direction of the user can be recognized.
[0020]
The first screen A1 in FIG. 4 is a 3D stereoscopic still image (terrestrial stereoscopic still image) when the traveling direction is viewed from the viewpoint of the person on the ground at the departure point. As shown in FIGS. 3 to 6, the current location H is displayed by a circle or the like on the second screen A2. In this specification, the “terrestrial stereoscopic image” refers to a landscape image viewed from the eyes of a person on the ground.
[0021]
FIGS. 5 and 6 show one frame being displayed on the first screen A1 as a moving image (animation) of a state (landscape) from the viewpoint of a person on the ground to the destination. FIG. 6 shows one frame after several frames extracted from that shown in FIG. Here, during the moving image, the above-mentioned character / symbol information C is not displayed on the first screen A1. Is not given to the user. In the second screen A2, the current point H also moves sequentially in conjunction with the first screen A1. Therefore, since the user grasps the current position with both the 3D image (map) and the two-dimensional map information, the user can grasp the current position and his or her own path more accurately. As described above, after the plurality of images whose viewpoints are sequentially changed are displayed on the first screen A1, a ground-view still stereoscopic image as a specific image in front of the destination building is displayed on the first screen A1, as shown in FIG. Is displayed, and the route guidance to the user ends.
[0022]
Finally, the possibility of another embodiment of the map display method according to the present invention will be described. In addition, it is also possible to carry out by appropriately combining the following embodiments.
As shown in FIGS. 9 and 10, a more realistic 3D map can be displayed by displaying a shadow of a building or the like. Here, in the first screen A1, the colors of the shadows S1a and S1b when the still image shown in FIG. 9 is displayed and the colors of the shadows S2a and S2b when the animation (moving image) shown in FIG. The color has been reduced compared to. In a still image, since the character information C is displayed, the color of the shadow is reduced, so that the character information C can be clearly displayed while maintaining the stereoscopic effect of the displayed map.
[0023]
In the above embodiment, the case where the map is displayed on the screen of the personal computer has been described as an example. However, it is also possible to display a map on the screen of a mobile phone or PDA. In addition, it is also possible to construct a “car navigation system” that appeals to a three-dimensional effect by displaying the information on a screen mounted in an automobile.
[0024]
In the first screen A1 of the above embodiment, the road portion is colored, but it is also possible to three-dimensionally display the state of the subway station premises and the structure of the underground mall in such a portion.
[0025]
Further, in each of the above embodiments, the animation is configured by slidingly displaying the two-dimensional graphic data and the like in chronological order. However, a configuration may be employed in which the moving image created by the three-dimensional CAD is directly displayed. However, the above embodiment is superior in that data can be stored in a small capacity.
[0026]
In the above embodiment, all of the characters / symbols C displayed on the first screen A1 of the specific image shown in FIG. 3 were not displayed in another moving image as shown in FIG. However, a configuration may be adopted in which “part” of the character / symbol C included in the specific image is not displayed in a moving image. For example, as shown in FIG. 6, characters and the like of “destination” that do not obstruct may be included in the first screen A1 of the moving image.
[0027]
It should be noted that reference numerals written in the claims are merely for convenience of comparison with the drawings, and the present invention is not limited to the configuration of the attached drawings by the writing.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of a screen displaying one frame of a three-dimensional sky moving image displayed first.
FIG. 2 is an explanatory diagram of a screen displaying one frame of a three-dimensional sky moving image while the viewpoint is being changed from the sky.
FIG. 3 is an explanatory diagram of a screen displaying a three-dimensional sky still image in a state in which a line of sight is directed from the sky to a starting point.
FIG. 4 is an explanatory diagram of a screen displaying a three-dimensional terrestrial still image in a state of standing at a person's eyes at a starting point.
FIG. 5 is an explanatory diagram of a screen displaying one frame of a terrestrial stereoscopic moving image during animation reproduction of a terrestrial stereoscopic image.
FIG. 6 is an explanatory diagram of a screen displaying a subsequent frame of a terrestrial stereoscopic moving image during animation reproduction of a terrestrial stereoscopic image.
FIG. 7 is an explanatory diagram of a screen displaying a three-dimensional still image on the ground, which is an explanatory diagram of a final screen immediately before arrival at a destination.
FIG. 8 is a diagram corresponding to FIG. 1 in a state where another start point selection button is selected.
FIG. 9 is an explanatory diagram of a screen in a thin shadow state displaying a terrestrial stereoscopic still image according to another embodiment.
FIG. 10 is an explanatory diagram of a screen in a dark state following the state of FIG. 9;
[Explanation of symbols]
A: Screen explanation diagram, A1: First screen, A2: Second screen, A3: Third screen, A4: Fourth screen, B1: Navigation button, B2: Departure point selection button, C: Text information, H: Current location display, S1a, S1b: shadow in still image, S2a, S2b: shadow during moving image playback

Claims (2)

3次元的に表現された第一地図画面(A1)を目的地等に至るまで順次切替表示し、各画面は適宜地点にて静止し、操作手段の操作で連続表示が次の適宜地点まで再生され、当該適宜地点の画像である特定画像のみ特定の文字・記号情報(C)が含まれることを特徴とする地図表示方法。The three-dimensionally displayed first map screen (A1) is sequentially switched and displayed up to the destination, etc., each screen is stopped at an appropriate point, and the continuous display is reproduced to the next appropriate point by operating the operation means. A specific image that is an image of the appropriate point and includes specific character / symbol information (C). 平面図的に表現され、現在地点を表示する第二地図画面(A2)をさらに有する請求項1に記載の地図表示方法。The map display method according to claim 1, further comprising a second map screen (A2) that is represented in a plan view and displays a current location.
JP2002315567A 2002-10-30 2002-10-30 Map displaying method Pending JP2004150918A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002315567A JP2004150918A (en) 2002-10-30 2002-10-30 Map displaying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002315567A JP2004150918A (en) 2002-10-30 2002-10-30 Map displaying method

Publications (1)

Publication Number Publication Date
JP2004150918A true JP2004150918A (en) 2004-05-27

Family

ID=32459526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002315567A Pending JP2004150918A (en) 2002-10-30 2002-10-30 Map displaying method

Country Status (1)

Country Link
JP (1) JP2004150918A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006052976A (en) * 2004-08-10 2006-02-23 Shogo Yoshimura Destination guiding device, program and its recording medium
WO2006035755A1 (en) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University Method for displaying movable-body navigation information and device for displaying movable-body navigation information
JP2007041898A (en) * 2005-08-04 2007-02-15 Nifty Corp Place information providing device
JP2007058093A (en) * 2005-08-26 2007-03-08 Denso Corp Device, method and program for map display, and recording medium with the program recorded
JP2008241875A (en) * 2007-03-26 2008-10-09 Denso It Laboratory Inc On-vehicle device and roadside device
KR100886330B1 (en) 2008-06-11 2009-03-02 팅크웨어(주) System and method for user's view
JP2015503740A (en) * 2011-12-30 2015-02-02 ノキア コーポレイション Apparatus, method, and computer program for displaying POI
JP2016197264A (en) * 2016-08-04 2016-11-24 パイオニア株式会社 Display control device, display control method, and program for display control device
EP3147630A1 (en) * 2015-09-26 2017-03-29 Volkswagen Aktiengesellschaft 3d helicopter view at destination
US9858912B2 (en) 2010-06-21 2018-01-02 Nokia Technologies Oy Apparatus, method, and computer program for adjustable noise cancellation

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4503393B2 (en) * 2004-08-10 2010-07-14 省吾 吉村 Destination guide device, program and recording medium thereof
JP2006052976A (en) * 2004-08-10 2006-02-23 Shogo Yoshimura Destination guiding device, program and its recording medium
WO2006035755A1 (en) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University Method for displaying movable-body navigation information and device for displaying movable-body navigation information
JPWO2006035755A1 (en) * 2004-09-28 2008-05-15 国立大学法人 熊本大学 MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE
US8195386B2 (en) 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
JP4696248B2 (en) * 2004-09-28 2011-06-08 国立大学法人 熊本大学 MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE
JP2007041898A (en) * 2005-08-04 2007-02-15 Nifty Corp Place information providing device
JP2007058093A (en) * 2005-08-26 2007-03-08 Denso Corp Device, method and program for map display, and recording medium with the program recorded
JP2008241875A (en) * 2007-03-26 2008-10-09 Denso It Laboratory Inc On-vehicle device and roadside device
CN102057413A (en) * 2008-06-11 2011-05-11 星克跃尔株式会社 User-view output system and method
WO2009151220A3 (en) * 2008-06-11 2010-02-25 팅크웨어(주) User-view output system and method
KR100886330B1 (en) 2008-06-11 2009-03-02 팅크웨어(주) System and method for user's view
US9858912B2 (en) 2010-06-21 2018-01-02 Nokia Technologies Oy Apparatus, method, and computer program for adjustable noise cancellation
US11024282B2 (en) 2010-06-21 2021-06-01 Nokia Technologies Oy Apparatus, method and computer program for adjustable noise cancellation
US11676568B2 (en) 2010-06-21 2023-06-13 Nokia Technologies Oy Apparatus, method and computer program for adjustable noise cancellation
JP2015503740A (en) * 2011-12-30 2015-02-02 ノキア コーポレイション Apparatus, method, and computer program for displaying POI
EP3147630A1 (en) * 2015-09-26 2017-03-29 Volkswagen Aktiengesellschaft 3d helicopter view at destination
CN106918347A (en) * 2015-09-26 2017-07-04 大众汽车有限公司 The interactive 3D navigation system of the 3D aerial views with destination county
KR20180082402A (en) * 2015-09-26 2018-07-18 폭스바겐 악티엔 게젤샤프트 Interactive 3d navigation system with 3d helicopter view at destination
KR102046719B1 (en) * 2015-09-26 2019-11-19 폭스바겐 악티엔 게젤샤프트 Interactive 3d navigation system with 3d helicopter view at destination and method for providing navigational instructions thereof
JP2016197264A (en) * 2016-08-04 2016-11-24 パイオニア株式会社 Display control device, display control method, and program for display control device

Similar Documents

Publication Publication Date Title
US8489993B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method
TWI545536B (en) Rotation operations in a mapping application
CN105191387B (en) Method and apparatus for the mapping application with steering navigation mode
CN104335008B (en) Navigation application program
CN104335152B (en) Navigation instruction is provided when equipment is in locking mode
JP2005149409A (en) Image reproduction method and apparatus
JP2002168634A (en) Display method for three-dimensional map of on-vehicle navigation system
CN102016929A (en) Generating a display image
KR20130063605A (en) A road guidance display method and system using geo-tagging picture
CA2964693A1 (en) Street-level guidance via route path
TWI550568B (en) Mapping application with 3d presentation
JP2004150918A (en) Map displaying method
JP6345381B2 (en) Augmented reality system
JP6039525B2 (en) Head mounted display, control method therefor, computer program for controlling head mounted display, and recording medium storing computer program
JP2020109548A (en) Display method of terminal, terminal, program for terminal
JP5300609B2 (en) Intersection guidance information creation device
TWI521187B (en) Integrated mapping and navigation application
CN109559382A (en) Intelligent guide method, apparatus, terminal and medium
JP2009244660A (en) Driving training apparatus
JP4728941B2 (en) Driving training device
JP5165851B2 (en) 3D map display method, 3D map display device, and navigation device
TWI533264B (en) Route display and review
JP2009036676A (en) Information processor, and additional information providing method and program
JP4739174B2 (en) Driving training device
JP3551184B2 (en) Guidance system, map data server device, map data display terminal device