JP2001330451A - Map display and automobile navigation system - Google Patents

Map display and automobile navigation system

Info

Publication number
JP2001330451A
JP2001330451A JP2001076751A JP2001076751A JP2001330451A JP 2001330451 A JP2001330451 A JP 2001330451A JP 2001076751 A JP2001076751 A JP 2001076751A JP 2001076751 A JP2001076751 A JP 2001076751A JP 2001330451 A JP2001330451 A JP 2001330451A
Authority
JP
Japan
Prior art keywords
map
information
unit
dimensional
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001076751A
Other languages
Japanese (ja)
Inventor
Kiyomi Sakamoto
清美 阪本
Hiroyuki Hamada
浩行 濱田
Teruaki Ata
輝明 阿多
Atsushi Yamashita
敦士 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001076751A priority Critical patent/JP2001330451A/en
Publication of JP2001330451A publication Critical patent/JP2001330451A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a map display and an automobile navigation system which enable users to intuitively grasp information by synthesizing and displaying various kinds of information changing in real time onto maps. SOLUTION: In this map display, a communication part 7 receives various kinds of information from an external system, and a map data-synthesizing part 4 synthesizes an object representing various kinds of information in a map data space on the basis of map data stored in a map data-storing part 3, information from the communication part 7 and an input part 2 and corresponding object model presentation information stored in an object model presentation information-storing part 6. A display device 5 displays synthesized map information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、地図表示装置およ
びナビゲーション装置に関し、より特定的には、通信部
を介して外部から入力されてくる情報を解析し、地図内
のオブジェクトに変換して合成表示する地図表示装置お
よびナビゲーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a map display device and a navigation device, and more particularly, to analyzing information inputted from outside via a communication unit, converting the information into an object in a map, and synthesizing it. The present invention relates to a map display device and a navigation device for displaying.

【0002】[0002]

【従来の技術】従来の地図表示装置およびナビゲーショ
ン装置は、既存の情報通信システムからの交通情報や道
路規制情報、あるいはインターネットから流れてくる情
報等を地図表示画面とは別の画面に表示する。すなわ
ち、従来の地図表示装置およびナビゲーション装置は、
これらの情報を地図内のオブジェクトに変換して合成表
示するわけではない。
2. Description of the Related Art Conventional map display devices and navigation devices display traffic information and road regulation information from an existing information communication system or information flowing from the Internet on a screen different from a map display screen. That is, the conventional map display device and navigation device are:
This information is not converted into an object in the map and displayed in a composite manner.

【0003】ここで、既存の情報通信システムとして
は、VICS(Vehicle Informatio
n and Communication Syste
m)と呼ばれる、道路の渋滞情報や事故情報などの道路
情報を、FM多重放送、電波ビーコンおよび光ビーコン
等を利用してリアルタイムで発信する情報通信システム
が存在する。
Here, as an existing information communication system, VICS (Vehicle Information) is used.
n and Communication System
There is an information communication system for transmitting road information, such as traffic congestion information and accident information, referred to as m) in real time using FM multiplex broadcasting, radio beacons, optical beacons, and the like.

【0004】このような既存の情報通信システムにおい
て送信される渋滞情報は、具体的には渋滞している道路
のリンク番号などが含まれる。したがって、従来のナビ
ゲーション装置は、一般的にはこのような渋滞情報を、
模式的に表された簡略な地図上に表現して、ナビゲーシ
ョン用の地図画面とは別の画面に表示する。
The congestion information transmitted in such an existing information communication system specifically includes a link number of a congested road and the like. Therefore, conventional navigation devices generally use such traffic congestion information,
Expressed on a simple map that is schematically represented, and displayed on a screen different from the map screen for navigation.

【0005】また、渋滞情報を同一画面上に表示する場
合であっても、従来のナビゲーション装置は、渋滞情報
を地図内のオブジェクトに変換して合成表示するわけで
はなく、送信されてきた道路のリンク番号に対応する道
路の色のみを変更して表示するにすぎない。このように
従来のナビゲーション装置が色のみを変更して表示する
のは、既存のシステムにおいて生成されるオブジェクト
が固定されているからである。したがって、従来のナビ
ゲーション装置が新しいオブジェクトを生成することな
く渋滞情報を表示するためには、色を変更する方法しか
存在しない。
[0005] Further, even when traffic congestion information is displayed on the same screen, the conventional navigation device does not convert the traffic congestion information into an object in a map and synthesizes and displays it. Only the color of the road corresponding to the link number is changed and displayed. The reason that the conventional navigation apparatus changes and displays only the color in this way is that the object generated in the existing system is fixed. Therefore, in order for the conventional navigation device to display the traffic jam information without generating a new object, there is only a method of changing the color.

【0006】また、最近のナビゲーション装置には、イ
ンターネットブラウザが追加されて、地図画面とは別の
画面にインターネットからの情報を表示するものも存在
する。このような装置は、外部の情報から隔絶した車や
人を、内蔵された通信系によって、インターネットを介
して外部と接続することになる。
Some recent navigation devices have an Internet browser added to display information from the Internet on a screen different from the map screen. In such a device, a car or a person isolated from external information is connected to the outside via the Internet by a built-in communication system.

【0007】以上のような従来の地図表示装置およびナ
ビゲーション装置の構成および動作について、図41お
よび図42を用いながら説明する。図41は、従来の地
図表示装置の構成を示すブロック図である。図41にお
いて、従来の地図表示装置は、入力部2と、地図データ
格納部3と、地図データ作成部400と、表示器5と、
通信部7とを備える。
The configuration and operation of the above-described conventional map display device and conventional navigation device will be described with reference to FIGS. 41 and 42. FIG. 41 is a block diagram showing a configuration of a conventional map display device. 41, a conventional map display device includes an input unit 2, a map data storage unit 3, a map data creation unit 400, a display 5,
And a communication unit 7.

【0008】入力部2は、本地図表示装置における機能
選択や地点設定等を行うために用いられる。この入力部
2から出力される指示情報は、地図データ作成部400
へ入力される。
The input unit 2 is used for selecting functions, setting points, and the like in the map display device. The instruction information output from the input unit 2 is transmitted to the map data creation unit 400
Is input to

【0009】地図データ格納部3は、地形、交差点や道
路の接続状況やその座標・形状・属性・規制情報などの
2次元地図データあるいは3次元地図データが格納され
ている。この地図データ格納部3に格納された地図デー
タは、地図データ作成部400によって適宜読み出され
て利用される。
The map data storage unit 3 stores two-dimensional map data or three-dimensional map data such as terrain, intersections and road connection states, and their coordinates, shapes, attributes, and regulation information. The map data stored in the map data storage unit 3 is appropriately read and used by the map data creation unit 400.

【0010】通信部7は、外部に設けられた通信システ
ムとの情報の送受信を行う。外部システムとの送受信に
は、例えば、電話回線やDAB(Digital Au
dio Broadcast)、地上波ディジタル放送
などが用いられる。通信部7から得られた各種情報は、
そのまま加工されることなく、表示器5へ入力される。
The communication unit 7 transmits and receives information to and from a communication system provided outside. For transmission and reception with an external system, for example, a telephone line or DAB (Digital Au)
(Dio Broadcast), digital terrestrial broadcasting, and the like. Various information obtained from the communication unit 7
It is input to the display 5 without being processed as it is.

【0011】地図データ作成部400は、地図データ格
納部3に格納されている地図データに基づいて、地図を
作成する。表示器5は、地図データ作成部400におい
て作成された地図を表示する。また、表示器5は、当該
地図とは別の画面において、インターネットやVICS
等から得られた情報を表示する。典型的には、表示器5
は、インターネットブラウザやVICS専用画面上に得
られた情報を表示する。
The map data creation section 400 creates a map based on the map data stored in the map data storage section 3. The display 5 displays the map created by the map data creation unit 400. In addition, the display 5 displays the Internet or VICS on a screen different from the map.
The information obtained from the above is displayed. Typically, the display 5
Displays information obtained on an Internet browser or a dedicated VICS screen.

【0012】次に、図42は、上記のような従来のナビ
ゲーション装置の構成を示すブロック図である。なお、
ここでは、本ナビゲーション装置は、車両に搭載されて
いるものとする。図42において、従来のナビゲーショ
ン装置は、入力部2と、位置検出部9と、地図データ格
納部3と、経路選出部100と、誘導部110と、通信
部7と、表示器5とを備える。
Next, FIG. 42 is a block diagram showing a configuration of a conventional navigation device as described above. In addition,
Here, it is assumed that the present navigation device is mounted on a vehicle. 42, the conventional navigation device includes an input unit 2, a position detection unit 9, a map data storage unit 3, a route selection unit 100, a guidance unit 110, a communication unit 7, and a display unit 5. .

【0013】入力部2は、ユーザによって操作され、機
能選択(処理項目変更、地図切り替え、階層変更等)
や、地点設定等を行うために用いられる。この入力部2
から出力される指示情報は、経路選出部100に入力さ
れる。位置検出部9は、車両の現在位置を検出する。そ
して、位置検出部9から出力される車両の現在位置情報
は、経路選出部100および誘導部110へ入力され
る。
The input unit 2 is operated by the user to select a function (change processing items, switch maps, change hierarchy, etc.).
It is used for setting a point and the like. This input part 2
Is output to the route selection unit 100. The position detector 9 detects the current position of the vehicle. Then, the current position information of the vehicle output from the position detection unit 9 is input to the route selection unit 100 and the guidance unit 110.

【0014】地図データ格納部3は、地形、交差点や道
路の接続状況や座標・形状・属性・規制情報などの2次
元地図データあるいは3次元地図データを格納する。こ
の地図データ格納部3に格納された地図データは、経路
選出部100および誘導部110によって適宜読み出さ
れて利用される。
The map data storage unit 3 stores two-dimensional map data or three-dimensional map data such as terrain, intersections, road connection conditions, coordinates, shapes, attributes, and regulation information. The map data stored in the map data storage unit 3 is appropriately read and used by the route selection unit 100 and the guidance unit 110.

【0015】通信部7は、インターネットなどの外部シ
ステムから、各種情報の送受信を行う。外部システムと
の送受信には、例えば、電話回線やDAB、地上波ディ
ジタル放送などが用いられる。通信部7から得られた各
種情報は、そのまま加工されることなく、表示器5へ入
力される。
The communication section 7 transmits and receives various information from an external system such as the Internet. For transmission and reception with an external system, for example, a telephone line, DAB, terrestrial digital broadcasting, or the like is used. The various information obtained from the communication unit 7 is input to the display 5 without being processed.

【0016】経路選出部100は、入力部2から入力さ
れた指示情報の指示に従って、必要となる範囲の地図デ
ータを地図データ格納部3から読み込む。そして、経路
選出部100は、入力部2から入力された地点情報等の
指示情報と、位置検出部9から入力された車両の現在位
置情報とに基づいて、出発地や目的地を決定し、出発地
から目的地間の最小コスト経路を探索する。経路選出部
100から出力された経路情報は、誘導部110へ入力
される。
The route selection section 100 reads map data in a required range from the map data storage section 3 according to the instruction of the instruction information input from the input section 2. Then, the route selection unit 100 determines a departure place and a destination based on the instruction information such as the point information input from the input unit 2 and the current position information of the vehicle input from the position detection unit 9, Search for the least cost route from the starting point to the destination. The route information output from the route selection unit 100 is input to the guidance unit 110.

【0017】誘導部110は、経路選出部100から入
力された経路情報と、位置検出部9から入力された車両
の位置情報と、地図データ格納部3から入力された地図
データとに基づき、2次元または3次元景観の地図画面
を生成する。生成された2次元または3次元の地図画面
は、表示器5へ入力される。
The guiding section 110 is based on the route information input from the route selecting section 100, the vehicle position information input from the position detecting section 9, and the map data input from the map data storage section 3. Generate a map screen of a three-dimensional or three-dimensional landscape. The generated two-dimensional or three-dimensional map screen is input to the display 5.

【0018】表示器5は、誘導部110によって生成さ
れた地図画面を表示する。また、表示器5は、地図画面
とは別の画面において、インターネットやVICS等か
ら得られた情報を表示する。典型的には、表示器5は、
インターネットブラウザやVICS専用画面上に得られ
た情報を表示する。
The display 5 displays the map screen generated by the guidance unit 110. The display 5 displays information obtained from the Internet, VICS, or the like on a screen different from the map screen. Typically, the display 5 is
The obtained information is displayed on an Internet browser or a dedicated VICS screen.

【0019】このような地図表示装置およびナビゲーシ
ョン装置によれば、ユーザは外部から最新の情報、例え
ば、交通情報や駐車場の情報などを容易に入手すること
ができる。したがって、このような従来の地図表示装置
ないしナビゲーション装置は、ユーザーに対して目的地
の各種情報をできるだけ正確に把握させることができ
る。
According to such a map display device and a navigation device, the user can easily obtain the latest information from outside, for example, traffic information and parking lot information. Therefore, such a conventional map display device or navigation device can make the user grasp various kinds of information of the destination as accurately as possible.

【0020】[0020]

【発明が解決しようとする課題】しかし、従来のナビゲ
ーション装置において、基本的にインターネットブラウ
ザは、地図画面とは別の画面に表示される。また、VI
CSによる渋滞情報も同様に、別画面の簡略な地図上に
表示されるのが一般的である。したがって、必要な情報
と表示されている情報とを比較参照し、関連づけること
は、ユーザーが視線を動かして行わなければならない。
しかし、このような関連付けをユーザーが行う場合に
は、一旦車両を停止させることが好ましい。したがっ
て、上述のようなナビゲーション装置の利点は、車両が
走行中には充分に発揮できないという問題点がある。こ
のことは、本ナビゲーション装置が車両以外の移動体に
搭載されるものであっても、歩行者が携帯するものであ
っても変わりがない。
However, in the conventional navigation device, the Internet browser is basically displayed on a screen different from the map screen. Also, VI
Similarly, traffic congestion information by CS is generally displayed on a simple map on a separate screen. Therefore, the user needs to move his / her gaze to compare, refer to, and associate necessary information with the displayed information.
However, when the user performs such an association, it is preferable to temporarily stop the vehicle. Therefore, there is a problem that the advantages of the navigation device as described above cannot be sufficiently exhibited while the vehicle is traveling. This is the same whether the present navigation device is mounted on a moving object other than a vehicle or whether the present device is carried by a pedestrian.

【0021】しかし、従来のナビゲーション装置におい
て、ナビゲーション画面上に新しいオブジェクトを生成
することなく各種情報を合成表示することは、前述のよ
うに道路等の表示色を変更して表示する場合を除けば、
極めて困難である。
However, in the conventional navigation apparatus, the display of various kinds of information without generating a new object on the navigation screen is performed except when the display color of a road or the like is changed as described above. ,
Extremely difficult.

【0022】また、ここで、地図表示装置およびナビゲ
ーション装置が内蔵された通信手段を介して新しいオブ
ジェクトを生成するために必要な画像や三次元ポリゴン
データを含む全てのデータを受信して、地図画面上に合
成表示するような構成も考えられる。しかし、このよう
な地図表示装置およびナビゲーション装置の構成によれ
ば、送受信する情報量が多くなって、経済的ではない。
Here, all data including an image and three-dimensional polygon data necessary for generating a new object are received via a communication means having a built-in map display device and a navigation device. It is also conceivable to have a configuration in which a composite display is made above. However, according to such a configuration of the map display device and the navigation device, the amount of information to be transmitted and received increases, which is not economical.

【0023】他方、地図表示装置およびナビゲーション
装置が、各種情報に対応するあらゆるオブジェクトを生
成するためのデータを予め保持するような構成も考えら
れる。しかし、このような地図表示装置およびナビゲー
ション装置の構成によれば、オブジェクトを記憶するた
めに設けられる記憶媒体の容量が非常に大きくなって、
やはり経済的ではないという問題点がある。
On the other hand, a configuration is also conceivable in which the map display device and the navigation device previously hold data for generating all objects corresponding to various types of information. However, according to such a configuration of the map display device and the navigation device, the capacity of a storage medium provided for storing an object becomes extremely large,
There is still a problem that it is not economical.

【0024】それ故に、本発明の目的は、リアルタイム
に変化する規制情報や渋滞情報、あるいはインターネッ
トから流れてくる各種情報を地図上に合成して表示し、
ユーザが視線を動かさず、より直感的に情報を把握する
ことができる地図表示装置およびナビゲーション装置を
提供することである。
[0024] Therefore, an object of the present invention is to combine and display real-time changing regulatory information, traffic congestion information, or various information flowing from the Internet on a map,
An object of the present invention is to provide a map display device and a navigation device that allow a user to more intuitively grasp information without moving his / her gaze.

【0025】また、本発明の他の目的は、送受信する情
報量が僅少でありながら、オブジェクトを記憶するため
の記憶媒体の容量を小さくすることができる地図表示装
置およびナビゲーション装置を提供することである。
Another object of the present invention is to provide a map display device and a navigation device which can reduce the capacity of a storage medium for storing an object while transmitting and receiving a small amount of information. is there.

【0026】[0026]

【課題を解決するための手段および発明の効果】第1の
発明は、装置外部から送信されてきた通信情報を所定の
形状を有するオブジェクトとして地図上に合成表示する
地図表示装置であって、ユーザからの指示が入力される
入力部と、地図情報を予め格納する地図データ格納部
と、オブジェクトを地図上に提示するためのオブジェク
トモデル提示情報を格納するオブジェクトモデル提示情
報格納部と、送信されてきた通信情報を受信する通信部
と、通信情報およびオブジェクトモデル提示情報格納部
から入力された対応するオブジェクトモデル提示情報を
解釈してオブジェクトを生成し、地図上に合成する地図
データ合成部と、地図データ合成部によって合成された
地図画面をユーザに対して表示する表示部とを備える。
Means for Solving the Problems and Effects of the Invention A first invention is a map display device for synthesizing and displaying communication information transmitted from outside the device as an object having a predetermined shape on a map. An input unit for inputting an instruction from the user, a map data storage unit for storing map information in advance, and an object model presentation information storage unit for storing object model presentation information for presenting an object on a map. A communication unit for receiving the communication information, a map data synthesis unit for generating an object by interpreting the communication information and the corresponding object model presentation information input from the object model presentation information storage unit, and synthesizing the object on a map, A display unit for displaying to the user the map screen synthesized by the data synthesis unit.

【0027】上記のように、第1の発明によれば、地図
データ格納部に格納してある地図データと通信部から送
られてくる情報とオブジェクトモデル提示情報格納部に
格納してある情報に基づいてオブジェクトを地図データ
空間内に合成して提示できるので、リアルタイムに変化
する規制情報や渋滞情報、あるいはインターネットから
流れてくる各種情報を、視線を動かさず、より直感的に
表現することで、ユーザの視認性の向上を図ることがで
きる。
As described above, according to the first aspect, the map data stored in the map data storage, the information sent from the communication unit, and the information stored in the object model presentation information storage are stored. Since objects can be synthesized and presented in the map data space based on the information, it is possible to more intuitively express real-time changing regulatory information, traffic congestion information, or various information flowing from the Internet without moving your eyes, The visibility of the user can be improved.

【0028】さらに、予め記憶媒体の中に登録されてい
るのはリアルタイムに提示条件や提示内容の変更を行い
たいオブジェクトモデル提示情報であり、実行時に条件
が整えばその場でオブジェクトを作成削除を行うことが
できる。したがって、記憶する容量が少ないだけでな
く、通信部を介してオブジェクトモデル提示条件の更新
や追加削除を行う場合も、記憶する容量を少なくするこ
とができる。そのために、経済的な地図表示装置を提供
することができる。
Further, what is registered in the storage medium in advance is the object model presentation information for which the presentation conditions and the presentation contents are to be changed in real time. If the conditions are satisfied at the time of execution, the object is created and deleted on the spot. It can be carried out. Therefore, not only is the storage capacity small, but also when the object model presentation conditions are updated or added or deleted via the communication unit, the storage capacity can be reduced. Therefore, an economical map display device can be provided.

【0029】第2の発明は、第1の発明に従属する発明
であって、通信情報は、経時的に変化する情報を含むこ
とを特徴とする。
A second invention is an invention according to the first invention, wherein the communication information includes information that changes with time.

【0030】第3の発明は、第2の発明に従属する発明
であって、経時的に変化する情報は、複数であることを
特徴とする。
The third invention is an invention according to the second invention, wherein a plurality of pieces of information change with time.

【0031】第4の発明は、第1の発明に従属する発明
であって、通信情報は、交通情報を含むことを特徴とす
る。
A fourth invention is an invention according to the first invention, wherein the communication information includes traffic information.

【0032】第5の発明は、第1の発明に従属する発明
であって、通信情報は、広告情報を含むことを特徴とす
る。
A fifth invention is an invention according to the first invention, wherein the communication information includes advertisement information.

【0033】第6の発明は、第1の発明に従属する発明
であって、通信情報は、地図上の所定の位置に対応する
位置情報を含むことを特徴とする。
A sixth invention is the invention according to the first invention, wherein the communication information includes position information corresponding to a predetermined position on a map.

【0034】上記のように、第2ないし第6の発明によ
れば、ランドマークのように一般的な地図データの中に
も含まれるような、固定的であって時間経過と共に変化
しない情報とは異なる情報を通信情報として取り入れ、
リアルタイムにオブジェクトに変換することによって、
ユーザは外部から最新の情報、例えば、交通情報や駐車
場の情報などを容易かつ直感的に把握することができ
る。
As described above, according to the second to sixth aspects of the present invention, information that is fixed and does not change with time, such as landmarks, is included in general map data. Adopts different information as communication information,
By converting to objects in real time,
The user can easily and intuitively grasp the latest information from outside, for example, traffic information and parking lot information.

【0035】第7の発明は、第1の発明に従属する発明
であって、オブジェクトモデル提示情報は、オブジェク
トが有する形状に関する情報と、オブジェクトにおける
時空間の振る舞いに関する情報とを含む。
A seventh invention is the invention according to the first invention, wherein the object model presentation information includes information on a shape of the object and information on a spatiotemporal behavior of the object.

【0036】上記のように、第7の発明によれば、オブ
ジェクトモデル提示情報格納部に格納される情報をオブ
ジェクトの形状に関する情報と時空間の振る舞いに関す
る情報との組によって構成するので、新しいオブジェク
トモデル提示情報と入れ替える場合や、形状情報あるい
は時空間の振る舞いに関する情報の一部だけを入れ替え
る場合のような情報の管理を簡単に行うことができる。
As described above, according to the seventh aspect, the information stored in the object model presentation information storage unit is constituted by a set of information on the shape of the object and information on the spatio-temporal behavior. It is possible to easily manage information such as when replacing with model presentation information or when replacing only a part of shape information or information on spatiotemporal behavior.

【0037】第8の発明は、第7の発明に従属する発明
であって、オブジェクトにおける時空間の振る舞いに関
する情報は、コンパイルなしに実行することができるオ
ブジェクト指向のインタープリタ言語を用いて記述され
ることを特徴とする。
An eighth invention is an invention according to the seventh invention, wherein the information on the spatiotemporal behavior of the object is described using an object-oriented interpreter language which can be executed without compiling. It is characterized by the following.

【0038】上記のように、第8の発明によれば、オブ
ジェクトモデル提示情報格納部に格納される情報をコン
パイルなしで実行可能なスクリプトで記述できるので、
地図表示装置に依存しないオブジェクトモデル提示情報
を利用することができる。したがって、オブジェクトモ
デル提示情報を提供するサーバー側の運用を容易にする
ことができる。また、例えばJAVAのように標準的な
スクリプト言語を使用することによって、広くネットワ
ークを介してオブジェクトモデル提示情報を取り込むこ
とができるので、オブジェクトモデル提示情報の流通と
再利用性を向上させることができる。
As described above, according to the eighth aspect, the information stored in the object model presentation information storage unit can be described by a script that can be executed without compiling.
Object model presentation information independent of the map display device can be used. Therefore, the operation on the server side that provides the object model presentation information can be facilitated. In addition, by using a standard script language such as JAVA, object model presentation information can be widely captured via a network, so that distribution and reusability of object model presentation information can be improved. .

【0039】第9の発明は、第7の発明に従属する発明
であって、オブジェクトにおける時空間の振る舞いに関
する情報は、実行条件と、実行関数とを含む。
A ninth aspect is the invention according to the seventh aspect, wherein the information relating to the spatiotemporal behavior of the object includes an execution condition and an execution function.

【0040】上記のように、第9の発明によれば、実行
条件を固定的にする必要がない。したがって、オブジェ
クトがユーザの入力や通信部から入力された情報に対し
て、毎回同じ反応をする必要がなく、意外性と融通性の
ある提示内容を提供することができる。
As described above, according to the ninth aspect, there is no need to fix execution conditions. Therefore, the object does not have to react the same every time to the information input by the user or the information input from the communication unit, and it is possible to provide unexpected and flexible presentation contents.

【0041】第10の発明は、第1の発明に従属する発
明であって、地図データ合成部は、生成したオブジェク
トを、地図に含まれる道路に関連して合成することを特
徴とする。
A tenth invention is an invention according to the first invention, wherein the map data combining section combines the generated objects in relation to the roads included in the map.

【0042】第11の発明は、第10の発明に従属する
発明であって、オブジェクトは、複数が生成されて、道
路に沿って配置されることを特徴とする。
An eleventh invention is an invention according to the tenth invention, wherein a plurality of objects are generated and arranged along the road.

【0043】上記のように、第10および第11の発明
によれば、ユーザは、道路に関連した事故や渋滞などの
情報を容易かつ直感的に把握することができる。
As described above, according to the tenth and eleventh aspects, the user can easily and intuitively grasp information such as road-related accidents and traffic jams.

【0044】第12の発明は、第1の発明に従属する発
明であって、地図データ合成部は、通信情報およびオブ
ジェクトモデル提示情報格納部から入力された対応する
オブジェクトモデル提示情報を解釈して実行するオブジ
ェクト提示情報実行部と、オブジェクト提示情報実行部
における実行結果が入力されてオブジェクトを生成する
オブジェクト作成部と、オブジェクトを地図上に合成す
るデータ合成部とを含む。
A twelfth invention is according to the first invention, wherein the map data synthesizing section interprets the communication information and the corresponding object model presentation information inputted from the object model presentation information storage section. An object presentation information execution unit to be executed, an object creation unit that receives an execution result from the object presentation information execution unit to generate an object, and a data synthesis unit that synthesizes the object on a map are included.

【0045】上記のように、第12の発明によれば、2
次元ないし3次元のオブジェクトを生成して、2次元な
いし3次元の地図上に合成することができるので、各種
情報を、視線を動かさず、より直感的に表現すること
で、ユーザの視認性の向上を図ることができる。
As described above, according to the twelfth aspect, 2
Since a two-dimensional or three-dimensional object can be generated and synthesized on a two-dimensional or three-dimensional map, various types of information can be expressed more intuitively without moving the line of sight, thereby improving the visibility of the user. Improvement can be achieved.

【0046】第13の発明は、第12の発明に従属する
発明であって、地図データ合成部は、地図データ格納部
から入力された2次元データの地図情報に基づいて3次
元の地図を作成する三次元地図作成部をさらに含み、デ
ータ合成部は、オブジェクトを三次元地図作成部が作成
した地図上に合成することを特徴とする。
A thirteenth invention is an invention according to the twelfth invention, wherein the map data synthesizing unit creates a three-dimensional map based on the map information of the two-dimensional data input from the map data storage unit. And a data synthesizing unit for synthesizing the object on the map generated by the three-dimensional map generating unit.

【0047】上記のように、第13の発明によれば、2
次元ないし3次元のオブジェクトを生成して、3次元の
地図上に合成することができるので、各種情報を、視線
を動かさず、より直感的に表現することで、ユーザの視
認性の向上を図ることができる。また、2次元データの
地図情報に基づいて3次元の地図を作成するので、地図
データ格納部において地図を記憶するための記憶媒体の
容量を小さくすることができる。
As described above, according to the thirteenth aspect, 2
Since a three-dimensional or three-dimensional object can be generated and synthesized on a three-dimensional map, various types of information can be expressed more intuitively without moving the line of sight, thereby improving the visibility of the user. be able to. Further, since a three-dimensional map is created based on the map information of the two-dimensional data, the capacity of the storage medium for storing the map in the map data storage unit can be reduced.

【0048】第14の発明は、第12の発明に従属する
発明であって、地図データ合成部は、オブジェクト作成
部が生成した2次元のオブジェクトを3次元のオブジェ
クトへ変換する二次元/三次元座標変換部をさらに含
み、データ合成部は、二次元/三次元座標変換部によっ
て変換された3次元のオブジェクトを地図上に合成する
ことを特徴とする。
A fourteenth invention is a invention according to the twelfth invention, wherein the map data synthesizing section converts the two-dimensional object generated by the object creating section into a three-dimensional object. The data conversion unit further includes a coordinate conversion unit, and the data synthesis unit synthesizes the three-dimensional object converted by the two-dimensional / three-dimensional coordinate conversion unit on a map.

【0049】上記のように、第14の発明によれば、2
次元のオブジェクトを生成して、2次元または3次元の
地図上に合成することができるので、各種情報を、視線
を動かさず、より直感的に表現することで、ユーザの視
認性の向上を図ることができる。また、2次元データの
オブジェクトモデル提示情報に基づいて3次元のオブジ
ェクトを作成するので、オブジェクトモデル提示情報格
納部においてオブジェクトモデル提示情報を記憶するた
めの記憶媒体の容量を小さくすることができる。
As described above, according to the fourteenth aspect, 2
Since a two-dimensional object can be generated and synthesized on a two-dimensional or three-dimensional map, various kinds of information can be expressed more intuitively without moving the line of sight, thereby improving the visibility of the user. be able to. Further, since the three-dimensional object is created based on the object model presentation information of the two-dimensional data, the capacity of a storage medium for storing the object model presentation information in the object model presentation information storage unit can be reduced.

【0050】第15の発明は、第1の発明に従属する発
明であって、所定の経路を定期的に運行する移動体の位
置に対応する時刻情報を格納する時刻情報格納部をさら
に備え、地図データ合成部は、さらに時刻情報を参照し
て、移動体に対応するオブジェクトを生成し、地図上に
合成することを特徴とする。
A fifteenth invention is according to the first invention, further comprising a time information storage unit for storing time information corresponding to a position of a moving body which periodically operates a predetermined route, The map data synthesizing unit further generates an object corresponding to the moving object with reference to the time information, and synthesizes the object on the map.

【0051】第16の発明は、第15の発明に従属する
発明であって、地図データ合成部は、時刻情報を参照し
て、現在時刻において地図画面内に表示されるべき移動
体に対応するオブジェクトのみを選択し、選択されたオ
ブジェクトの現在時刻における地図上の位置を算出し
て、地図上に合成することを特徴とする。
A sixteenth invention is an invention according to the fifteenth invention, wherein the map data synthesizing unit refers to the time information and corresponds to the moving object to be displayed on the map screen at the current time. Only the object is selected, the position of the selected object on the map at the current time is calculated, and the selected object is synthesized on the map.

【0052】上記のように、第15および第16の発明
によれば、地図上に時刻情報に対応するオブジェクト、
例えば走行中の電車オブジェクトなどが配置されるよう
な地図画面をユーザに対して表示する。したがって、各
種情報を、視線を動かさず、より直感的に表現すること
で、ユーザの視認性の向上を図ることができる。例えば
ユーザは、表示されている地図画面上を走行する電車オ
ブジェクトと、周囲の景色や実際に走行する電車とを比
較して、地図上の位置や方向をより直感的に把握するこ
とができる。
As described above, according to the fifteenth and sixteenth aspects, the object corresponding to the time information on the map,
For example, a map screen on which a running train object or the like is arranged is displayed to the user. Therefore, it is possible to improve the visibility of the user by expressing various information more intuitively without moving the line of sight. For example, the user can more intuitively grasp the position and direction on the map by comparing the displayed train object running on the map screen with the surrounding scenery and the actually running train.

【0053】第17の発明は、装置外部から送信されて
きた通信情報を所定の形状を有するオブジェクトとして
地図上に合成表示し、目的地までの誘導案内を行うナビ
ゲーション装置であって、ユーザからの指示が入力され
る入力部と、現在位置を検出する位置検出部と、地図情
報を予め格納する地図データ格納部と、オブジェクトを
地図上に提示するためのオブジェクトモデル提示情報を
予め格納するオブジェクトモデル提示情報格納部と、入
力部から入力された指示と、位置検出部が検出した現在
位置と、地図データ格納部に格納された地図情報とに基
づいて、目的地までの経路を選出する経路選出部と、送
信されてきた通信情報を受信する通信部と、通信情報お
よびオブジェクトモデル提示情報格納部から入力された
対応するオブジェクトモデル提示情報を解釈してオブジ
ェクトを生成し、地図上に合成する地図データ合成部
と、通信部によって受信された通信情報と、経路選出部
によって選出された経路と、位置検出部によって検出さ
れた現在位置と、地図データ格納部からの地図情報とが
入力されて、目的地までの誘導案内を生成すると共に、
地図データ合成部によって合成された地図画面を出力す
る誘導部と、誘導部から入力された地図画面をユーザに
対して表示する表示部とを備える。
The seventeenth invention is a navigation device which synthesizes and displays communication information transmitted from the outside of the device as an object having a predetermined shape on a map and provides guidance to a destination. An input unit for inputting an instruction, a position detection unit for detecting a current position, a map data storage unit for storing map information in advance, and an object model for storing object model presentation information for presenting an object on a map in advance Route selection for selecting a route to a destination based on the presentation information storage unit, the instruction input from the input unit, the current position detected by the position detection unit, and the map information stored in the map data storage unit. Unit, a communication unit for receiving the transmitted communication information, and a corresponding object input from the communication information and object model presentation information storage unit. The map data synthesizing unit that interprets the model presentation information to generate an object and synthesizes it on the map, the communication information received by the communication unit, the route selected by the route selection unit, and the position detected by the position detection unit The current position and the map information from the map data storage unit are input to generate the guidance to the destination,
A guide unit that outputs a map screen synthesized by the map data synthesis unit, and a display unit that displays the map screen input from the guide unit to the user.

【0054】第18の発明は、第17の発明に従属する
発明であって、オブジェクトモデル提示情報は、オブジ
ェクトが有する形状に関する情報と、オブジェクトにお
ける時空間の振る舞いに関する情報とを含む。
In an eighteenth aspect based on the seventeenth aspect, the object model presentation information includes information on the shape of the object and information on the spatiotemporal behavior of the object.

【0055】第19の発明は、第18の発明に従属する
発明であって、オブジェクトにおける時空間の振る舞い
に関する情報は、コンパイルなしに実行することができ
るオブジェクト指向のインタープリタ言語を用いて記述
されることを特徴とする。
A nineteenth invention is an invention according to the eighteenth invention, wherein the information on the behavior of the object in time and space is described using an object-oriented interpreter language which can be executed without compilation. It is characterized by the following.

【0056】第20の発明は、第18の発明に従属する
発明であって、オブジェクトにおける時空間の振る舞い
に関する情報は、実行条件と、実行関数とを含む。
According to a twentieth aspect, in accordance with the eighteenth aspect, the information relating to the spatiotemporal behavior of the object includes an execution condition and an execution function.

【0057】第21の発明は、第17の発明に従属する
発明であって、地図データ合成部は、生成したオブジェ
クトを、地図に含まれる道路に関連して合成することを
特徴とする。
A twenty-first invention is an invention according to the seventeenth invention, wherein the map data synthesizing section synthesizes the generated object in relation to a road included in the map.

【0058】第22の発明は、第21の発明に従属する
発明であって、オブジェクトは、複数が生成されて、道
路に沿って配置されることを特徴とする。
A twenty-second invention is an invention according to the twenty-first invention, wherein a plurality of objects are generated and arranged along a road.

【0059】第23の発明は、第17の発明に従属する
発明であって、地図データ合成部は、通信情報およびオ
ブジェクトモデル提示情報格納部から入力された対応す
るオブジェクトモデル提示情報を解釈して実行するオブ
ジェクト提示情報実行部と、オブジェクト提示情報実行
部における実行結果が入力されてオブジェクトを生成す
るオブジェクト作成部と、オブジェクトを地図上に合成
するデータ合成部とを含む。
According to a twenty-third aspect, the invention according to the seventeenth aspect, wherein the map data synthesizing unit interprets the communication information and the corresponding object model presentation information input from the object model presentation information storage unit. An object presentation information execution unit to be executed, an object creation unit that receives an execution result from the object presentation information execution unit to generate an object, and a data synthesis unit that synthesizes the object on a map are included.

【0060】第24の発明は、第23の発明に従属する
発明であって、地図データ合成部は、地図データ格納部
から入力された2次元データの地図情報に基づいて3次
元の地図を作成する三次元地図作成部をさらに含み、デ
ータ合成部は、オブジェクトを三次元地図作成部が作成
した地図上に合成することを特徴とする。
A twenty-fourth invention is an invention according to the twenty-third invention, wherein the map data synthesizing unit creates a three-dimensional map based on the map information of the two-dimensional data input from the map data storage unit. And a data synthesizing unit for synthesizing the object on the map generated by the three-dimensional map generating unit.

【0061】第25の発明は、第23の発明に従属する
発明であって、地図データ合成部は、オブジェクト作成
部が生成した2次元のオブジェクトを3次元のオブジェ
クトへ変換する二次元/三次元座標変換部をさらに含
み、データ合成部は、二次元/三次元座標変換部によっ
て変換された3次元のオブジェクトを地図上に合成する
ことを特徴とする。
A twenty-fifth invention is an invention according to the twenty-third invention, wherein the map data synthesizing unit converts the two-dimensional object generated by the object creating unit into a three-dimensional object. The data conversion unit further includes a coordinate conversion unit, and the data synthesis unit synthesizes the three-dimensional object converted by the two-dimensional / three-dimensional coordinate conversion unit on a map.

【0062】第26の発明は、第17の発明に従属する
発明であって、所定の経路を定期的に運行する移動体の
位置に対応する時刻情報を予め格納する時刻情報格納部
をさらに備え、地図データ合成部は、さらに時刻情報を
参照して、移動体に対応するオブジェクトを生成し、地
図上に合成することを特徴とする。
[0062] A twenty-sixth invention is an invention according to the seventeenth invention, further comprising a time information storage unit for storing in advance time information corresponding to a position of a moving body which periodically operates a predetermined route. The map data synthesizing unit further generates an object corresponding to the moving object with reference to the time information, and synthesizes the object on the map.

【0063】第27の発明は、第26の発明に従属する
発明であって、地図データ合成部は、時刻情報を参照し
て、現在時刻において地図画面内に表示されるべき移動
体に対応するオブジェクトのみを選択し、選択されたオ
ブジェクトの現在時刻における地図上の位置を算出し
て、地図上に合成することを特徴とする。
A twenty-seventh invention is an invention according to the twenty-sixth invention, wherein the map data synthesizing unit refers to the time information and corresponds to the moving object to be displayed on the map screen at the current time. Only the object is selected, the position of the selected object on the map at the current time is calculated, and the selected object is synthesized on the map.

【0064】上記のように、第17および第27の発明
によれば、前述した第1ないし第16の発明に係る地図
表示装置と同様の効果を有するナビゲーション装置を提
供することができる。
As described above, according to the seventeenth and twenty-seventh aspects, it is possible to provide a navigation device having the same effects as those of the map display devices according to the first to sixteenth aspects.

【0065】第28の発明は、外部から送信されてきた
通信情報を所定の形状を有するオブジェクトとして地図
上に合成表示する地図表示方法であって、ユーザからの
指示が入力される入力ステップと、送信されてきた通信
情報を受信する通信ステップと、通信情報および対応す
るオブジェクトを地図上に提示するためのオブジェクト
モデル提示情報を解釈してオブジェクトを生成し、地図
上に合成する地図データ合成ステップと、地図データ合
成ステップにおいて合成された地図画面をユーザに対し
て表示する表示ステップとを備える。
[0065] A twenty-eighth invention is a map display method for composing and displaying communication information transmitted from the outside as an object having a predetermined shape on a map, comprising: an input step of inputting an instruction from a user; A communication step of receiving the transmitted communication information; a map data synthesizing step of generating an object by interpreting the communication information and an object model presentation information for presenting the corresponding object on a map, and synthesizing the object on a map; And displaying the map screen combined in the map data combining step to the user.

【0066】第29の発明は、第28の発明に従属する
発明であって、地図データ合成ステップは、通信情報お
よび対応するオブジェクトモデル提示情報を解釈して実
行するオブジェクト提示情報実行ステップと、オブジェ
クト提示情報実行ステップにおける実行結果からオブジ
ェクトを生成するオブジェクト作成ステップと、オブジ
ェクトを地図上に合成するデータ合成ステップとを含
む。
A twenty-ninth aspect is the invention according to the twenty-eighth aspect, wherein the map data synthesizing step includes an object presentation information execution step for interpreting and executing the communication information and the corresponding object model presentation information; The method includes an object creating step of creating an object from an execution result in the presentation information executing step, and a data combining step of combining the object on a map.

【0067】第30の発明は、第29の発明に従属する
発明であって、地図データ合成ステップは、2次元デー
タの地図情報に基づいて3次元の地図を作成する三次元
地図作成ステップをさらに含み、データ合成ステップ
は、三次元地図作成ステップにおいて作成された地図上
にオブジェクトを合成することを特徴とする。
A thirtieth invention is an invention according to the twenty-ninth invention, wherein the map data synthesizing step further includes a three-dimensional map creation step of creating a three-dimensional map based on the map information of the two-dimensional data. The data synthesizing step is characterized in that the object is synthesized on the map created in the three-dimensional map creating step.

【0068】第31の発明は、第29の発明に従属する
発明であって、地図データ合成ステップは、オブジェク
ト作成ステップにおいて作成された2次元のオブジェク
トを3次元のオブジェクトへ変換する二次元/三次元座
標変換ステップをさらに含み、データ合成ステップは、
二次元/三次元座標変換ステップにおいて変換された3
次元のオブジェクトを地図上に合成することを特徴とす
る。
A thirty-first aspect is an invention according to the twenty-ninth aspect, wherein the map data synthesizing step converts the two-dimensional object created in the object creating step into a three-dimensional object. Further comprising a source coordinate transformation step, wherein the data synthesis step comprises:
3 converted in the 2D / 3D coordinate conversion step
It is characterized in that dimensional objects are combined on a map.

【0069】第32の発明は、第28の発明に従属する
発明であって、地図データ合成ステップは、所定の経路
を定期的に運行する移動体の位置に対応する時刻情報に
基づいてオブジェクトを生成し、地図上に合成すること
を特徴とする。
[0069] A thirty-second invention is the invention according to the twenty-eighth invention, wherein the map data synthesizing step includes the step of generating an object based on time information corresponding to the position of a moving object that periodically travels on a predetermined route. It is generated and synthesized on a map.

【0070】第33の発明は、第28の発明に従属する
発明であって、通信ステップは、通過しようとする料金
所を特定するための情報を含む通信情報を受信するとと
もに、所定の場合には課金処理のための課金情報を送信
し、地図データ合成ステップは、所定の場合には通信情
報を参照して、移動体に対応するオブジェクトを生成し
て地図上に合成するとともに課金情報を生成することを
特徴とする。
A thirty-third invention is an invention according to the twenty-eighth invention, wherein the communication step includes receiving communication information including information for specifying a toll gate to be passed, and Transmits the billing information for the billing process, and in the map data combining step, refers to the communication information in a predetermined case, generates an object corresponding to the moving object, combines the object on the map, and generates the billing information. It is characterized by doing.

【0071】第34の発明は、第28の発明に従属する
発明であって、通信ステップは、乗車可能な車両の位置
情報を含む通信情報を受信するとともに、乗車を希望す
る場合には少なくとも乗車を希望する車両を特定するた
めの情報を含む乗車情報を送信し、地図データ合成ステ
ップは、通信情報に対応するオブジェクトを生成して地
図上に合成するとともに、乗車を希望する場合には乗車
情報を生成することを特徴とする。
A thirty-fourth invention is an invention according to the twenty-eighth invention, wherein the communication step includes receiving communication information including position information of a ridable vehicle, and at least, The ride information including information for specifying the vehicle desired to be transmitted is transmitted, and the map data combining step generates an object corresponding to the communication information and combines it on a map, and, if the ride is desired, the ride information. Is generated.

【0072】第35の発明は、外部から送信されてきた
通信情報を所定の形状を有するオブジェクトとして地図
上に合成表示するナビゲーション方法であって、ユーザ
からの指示が入力される入力ステップと、送信されてき
た通信情報を受信する通信ステップと、現在位置を検出
する位置検出ステップと、通信情報および対応するオブ
ジェクトを地図上に提示するためのオブジェクトモデル
提示情報を解釈してオブジェクトを生成し、地図上に合
成する地図データ合成ステップと、入力ステップにおい
て入力された指示と、位置検出ステップにおいて検出さ
れた現在位置と、地図情報とに基づいて、目的地までの
経路を選出する経路選出ステップと、通信ステップにお
いて受信された通信情報と、経路選出ステップにおいて
選出された経路と、位置検出ステップにおいて検出され
た現在位置と、地図情報とに基づいて、目的地までの誘
導案内を生成すると共に、地図データ合成ステップにお
いて合成された地図画面を出力する誘導ステップと、誘
導ステップにおいて出力された地図画面をユーザに対し
て表示する表示ステップとを備える。
A thirty-fifth aspect of the present invention is a navigation method for synthesizing and displaying communication information transmitted from the outside as an object having a predetermined shape on a map, comprising: an input step of receiving an instruction from a user; A communication step of receiving the communication information, a position detection step of detecting a current position, interpreting the communication information and an object model presentation information for presenting the corresponding object on a map, generating an object, and generating a map. A map data synthesizing step to be synthesized above, an instruction input in the input step, a current position detected in the position detection step, and a route selection step of selecting a route to the destination based on the map information, The communication information received in the communication step and the route selected in the route selection step A guidance step for generating a guidance to a destination based on the current position detected in the position detection step and the map information, and outputting a map screen synthesized in the map data synthesis step; And displaying the map screen to the user.

【0073】第36の発明は、外部から送信されてきた
通信情報を所定の形状を有するオブジェクトとして地図
上に合成表示する地図表示装置に、通信情報およびオブ
ジェクトを地図上に提示するためのオブジェクトモデル
提示情報を解釈して実行するオブジェクト提示情報実行
ステップと、オブジェクト提示情報実行ステップにおけ
る実行結果からオブジェクトを生成するオブジェクト作
成ステップと、オブジェクトを地図上に合成するデータ
合成ステップとを実行させるためのプログラムを記録し
たコンピュータ読み取り可能な記録媒体である。
According to a thirty-sixth aspect, an object model for presenting communication information and an object on a map is provided on a map display device which synthesizes and displays communication information transmitted from the outside as an object having a predetermined shape on a map. A program for executing an object presentation information execution step of interpreting and executing presentation information, an object creation step of generating an object from an execution result in the object presentation information execution step, and a data synthesis step of synthesizing the object on a map Is a computer-readable recording medium having recorded thereon.

【0074】第37の発明は、外部から送信されてきた
通信情報を所定の形状を有するオブジェクトとして地図
上に合成表示するナビゲーション装置に、通信情報およ
び対応するオブジェクトを地図上に提示するためのオブ
ジェクトモデル提示情報を解釈してオブジェクトを生成
し、地図上に合成する地図データ合成ステップと、ユー
ザから入力された指示と、現在位置と、地図情報とに基
づいて、目的地までの経路を選出する経路選出ステップ
と、通信情報と、経路選出ステップにおいて選出された
経路と、現在位置と、地図情報とに基づいて、目的地ま
での誘導案内を生成すると共に、地図データ合成ステッ
プにおいて合成された地図画面を出力する誘導ステップ
とを実行させるためのプログラムを記録したコンピュー
タ読み取り可能な記録媒体である。
According to a thirty-seventh aspect, an object for presenting communication information and a corresponding object on a map is provided for a navigation device that synthesizes and displays communication information transmitted from the outside as an object having a predetermined shape on a map. A route to a destination is selected based on a map data synthesizing step of generating an object by interpreting the model presentation information and synthesizing the object on a map, an instruction input by a user, a current position, and map information. Based on the route selection step, the communication information, the route selected in the route selection step, the current position, and the map information, a guide to the destination is generated, and the map synthesized in the map data synthesis step. Computer-readable recording a program for executing a guidance step to output a screen It is a recording medium.

【0075】第38の発明は、外部から送信されてきた
通信情報を所定の形状を有するオブジェクトとして地図
上に合成表示する地図表示装置に、通信情報およびオブ
ジェクトを地図上に提示するためのオブジェクトモデル
提示情報を解釈して実行するオブジェクト提示情報実行
ステップと、オブジェクト提示情報実行ステップにおけ
る実行結果からオブジェクトを生成するオブジェクト作
成ステップと、オブジェクトを地図上に合成するデータ
合成ステップとを実行させるためのコンピュータプログ
ラムである。
According to a thirty-eighth aspect, an object model for presenting communication information and objects on a map is provided on a map display device for displaying the communication information transmitted from the outside as an object having a predetermined shape on a map. Computer for executing an object presentation information execution step of interpreting and executing presentation information, an object creation step of generating an object from an execution result in the object presentation information execution step, and a data synthesis step of synthesizing the object on a map It is a program.

【0076】第39の発明は、外部から送信されてきた
通信情報を所定の形状を有するオブジェクトとして地図
上に合成表示するナビゲーション装置に、通信情報およ
び対応するオブジェクトを地図上に提示するためのオブ
ジェクトモデル提示情報を解釈してオブジェクトを生成
し、地図上に合成する地図データ合成ステップと、ユー
ザから入力された指示と、現在位置と、地図情報とに基
づいて、目的地までの経路を選出する経路選出ステップ
と、通信情報と、経路選出ステップにおいて選出された
経路と、現在位置と、地図情報とに基づいて、目的地ま
での誘導案内を生成すると共に、地図データ合成ステッ
プにおいて合成された地図画面を出力する誘導ステップ
とを実行させるためのコンピュータプログラムである。
According to a thirty-ninth aspect, an object for presenting communication information and a corresponding object on a map is provided for a navigation device that synthesizes and displays communication information transmitted from the outside as an object having a predetermined shape on a map. A route to a destination is selected based on a map data synthesizing step of generating an object by interpreting the model presentation information and synthesizing the object on a map, an instruction input by a user, a current position, and map information. Based on the route selection step, the communication information, the route selected in the route selection step, the current position, and the map information, a guide to the destination is generated, and the map synthesized in the map data synthesis step. And a guidance step of outputting a screen.

【0077】[0077]

【発明の実施の形態】(本発明の基本概念の説明)本発
明の各実施形態の詳しい説明を行う前に、本発明の理解
を容易にする目的で、その基本概念を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS (Explanation of Basic Concept of the Present Invention) Before describing each embodiment of the present invention in detail, the basic concept will be described for the purpose of facilitating understanding of the present invention.

【0078】本発明の各実施形態に係る装置は、外部か
らの情報を受信して、装置上に表示されている地図空間
(例えば、3次元の地図空間)と同次元のオブジェクト
へ変換し、さらに地図空間内に合成表示する。このこと
によって、ユーザは、リアルタイムに変化する規制情報
や渋滞情報、あるいはインターネットから流れてくる各
種情報を、視線を動かさず、より直感的に把握すること
ができる。したがって、本発明の実施形態に係る装置
は、ユーザに対する情報の視認性を向上し、またユーザ
の利便性を向上することができる。
The device according to each embodiment of the present invention receives information from the outside and converts it into an object of the same dimension as the map space (for example, a three-dimensional map space) displayed on the device. Furthermore, the image is synthesized and displayed in the map space. This allows the user to more intuitively grasp the real-time changing regulation information, traffic congestion information, or various information flowing from the Internet without moving his / her eyes. Therefore, the device according to the embodiment of the present invention can improve the visibility of information to the user and can improve the convenience of the user.

【0079】また、装置上に表示される地図が三次元で
あれば、より現実に近い感覚をユーザにもたらすが、対
応する三次元オブジェクトのポリゴンデータをそのまま
送信する場合には情報量が大きくなる。さらにこのよう
な場合には、端末側ではデータを合成する機能を有しな
いことになるので、情報の提示方法を状況に応じてカス
タマイズすることもできない。これに対して、本発明の
各実施形態に係る装置は、圧縮された情報を受信して、
その場の状況やユーザの好みなどに合わせて柔軟なユー
ザインターフェースを提供することができる。
Further, if the map displayed on the device is three-dimensional, the user can feel more realistic, but the amount of information increases if polygon data of the corresponding three-dimensional object is transmitted as it is. . Further, in such a case, since the terminal does not have a function of synthesizing data, the method of presenting information cannot be customized according to the situation. On the other hand, the device according to each embodiment of the present invention receives the compressed information,
It is possible to provide a flexible user interface according to the situation at the place or the user's preference.

【0080】なお、以下の実施形態に係る各装置は車両
に搭載され、または歩行者が携帯するように記載されて
いるが、いずれの装置も車両以外の移動体に搭載されて
もよいし、歩行者が携帯するような独立の装置であって
もよい。
Although the respective devices according to the following embodiments are described as being mounted on a vehicle or carried by a pedestrian, any of the devices may be mounted on a moving body other than the vehicle. It may be an independent device carried by a pedestrian.

【0081】また、上記の基本概念の説明は、本発明の
理解を容易にするためにのみ用いられるべきであって、
本発明の権利範囲を不当に狭く解釈するために用いられ
るものであってはならないことを予め指摘しておく。
The above description of the basic concept should be used only for facilitating the understanding of the present invention.
It should be pointed out in advance that it should not be used to unduly narrow the scope of the invention.

【0082】(第1の実施形態)図1は、本発明の第1
の実施形態に係る地図表示装置の構成を示すブロック図
である。図1において、本地図表示装置は、入力部2
と、地図データ格納部3と、地図データ合成部4と、表
示器5と、オブジェクトモデル提示情報格納部6と、通
信部7とを備えている。
(First Embodiment) FIG. 1 shows a first embodiment of the present invention.
It is a block diagram showing the composition of the map display device concerning an embodiment. In FIG. 1, the map display device includes an input unit 2
, A map data storage unit 3, a map data synthesis unit 4, a display unit 5, an object model presentation information storage unit 6, and a communication unit 7.

【0083】入力部2は、ユーザによって操作されるリ
モートコントローラ、タッチセンサ、キーボード、マウ
ス等によって構成され、本地図表示装置の機能選択(処
理項目変更、地図切り替え、階層変更等)、地点設定等
を行うために用いられる。この入力部2から出力される
指示情報は、地図データ合成部4に入力される。
The input unit 2 is composed of a remote controller, a touch sensor, a keyboard, a mouse, and the like, which are operated by the user. Used to perform The instruction information output from the input unit 2 is input to the map data synthesis unit 4.

【0084】地図データ格納部3は、光ディスク(C
D、DVD等)、ハードディスク、SDカードのような
半導体メモリカード等で構成され、地形、交差点や道路
の接続状況や座標・形状・属性・規制情報などの2次元
地図データあるいは3次元地図データが記録されてい
る。この地図データ格納部3に記録された地図データ
は、地図データ合成部4によって適宜読み出されて利用
される。
[0084] The map data storage unit 3 stores data on an optical disc (C
D, DVD, etc.), a hard disk, a semiconductor memory card such as an SD card, and the like. Two-dimensional map data or three-dimensional map data such as terrain, connection status of intersections and roads, coordinate / shape / attribute / regulation information, etc. Has been recorded. The map data recorded in the map data storage unit 3 is appropriately read out and used by the map data synthesis unit 4.

【0085】通信部7は、外部システムとの情報の送受
信を行う。外部システムとの送受信には、例えば、電話
回線やDAB、地上波ディジタル放送などが用いられ、
典型的にはインターネットを介して情報が送受信され
る。
The communication section 7 transmits and receives information to and from an external system. For transmission and reception with an external system, for example, a telephone line, DAB, digital terrestrial broadcasting, etc. are used.
Typically, information is transmitted and received via the Internet.

【0086】オブジェクトモデル提示情報格納部6は、
地図データ格納部3と同様に、光ディスク(CD、DV
D等)、ハードディスク、SDカードのような半導体メ
モリカード等で構成され、通信部7または入力部2から
入力された情報に応じて地図上に2次元または3次元の
オブジェクトを提示するための方法に関する情報を格納
する。詳細な当該情報の内容およびオブジェクトを提示
するための方法については、後述する。
The object model presentation information storage unit 6
As in the case of the map data storage unit 3, optical disks (CD, DV
D), a hard disk, a semiconductor memory card such as an SD card, or the like, and a method for presenting a two-dimensional or three-dimensional object on a map according to information input from the communication unit 7 or the input unit 2. Stores information about The details of the information and the method for presenting the object will be described later.

【0087】地図データ合成部4は、地図データ格納部
3に格納されている地図データと、通信部7から送られ
てくる情報と、オブジェクトモデル提示情報格納部6に
格納されている情報とに基づいて、オブジェクトを地図
データ空間内に合成する。この地図データ合成部4の機
能は、CPUに基づくソフトウェア制御によって実現す
ることもできる。その場合、本地図表示装置は、典型的
には当該ソフトウェア制御のためのプログラムを記憶し
た記録媒体を実装することになる。また、本地図表示装
置は、通信回線から伝送されてくるプログラムを利用し
てもよい。
The map data synthesizing section 4 converts the map data stored in the map data storage section 3, the information sent from the communication section 7, and the information stored in the object model presentation information storage section 6. Then, the object is synthesized in the map data space. The function of the map data synthesizing unit 4 can also be realized by software control based on the CPU. In this case, the map display device typically includes a recording medium storing a program for controlling the software. The map display device may use a program transmitted from a communication line.

【0088】表示器5は、表示装置(液晶ディスプレ
イ、CRTディスプレイ等)やスピーカ等を含み、地図
データ合成部4において合成された地図画面を表示す
る。また、当該表示と共に、または当該表示に替えて、
案内のための音声を出力してもよい。
The display unit 5 includes a display device (liquid crystal display, CRT display, etc.), a speaker, and the like, and displays a map screen synthesized by the map data synthesizing unit 4. Also, with or in place of the display,
A voice for guidance may be output.

【0089】以上のような図1における地図表示装置の
構成は、一般的なコンピュータシステムにおいて実現す
ることができる。図2は、一般的なコンピュータシステ
ムにおいて実現された地図表示装置の構成を示した図で
ある。
The configuration of the map display device shown in FIG. 1 as described above can be realized in a general computer system. FIG. 2 is a diagram showing a configuration of a map display device realized in a general computer system.

【0090】図2において、本地図表示装置は、CPU
332と、ROM333と、RAM334と、出力部3
35と、入力部336と、通信部338とを備える。こ
れらは共通のシステムバスによって結合されている。こ
こで、ROM333は、コンピュータ内部に設けられた
読み出し専用メモリーの他、外部記憶媒体、例えば光デ
ィスク(CD、DVD等)や半導体メモリカード等を用
いた記憶装置を含むことができるものとする。また、R
AM334は、コンピュータ内部に設けられた読み書き
可能なメモリーの他、読み書き可能な外部記憶媒体、例
えば光ディスク(CD−R/W、DVD−RAM等)、
ハードディスク、半導体メモリカード等を用いた記憶装
置を含むことができるものとする。
In FIG. 2, the map display device has a CPU
332, ROM 333, RAM 334, and output unit 3
35, an input unit 336, and a communication unit 338. These are connected by a common system bus. Here, the ROM 333 can include a storage device using an external storage medium, for example, an optical disk (CD, DVD, or the like), a semiconductor memory card, or the like, in addition to a read-only memory provided inside the computer. Also, R
The AM 334 includes a readable / writable memory provided inside the computer, and a readable / writable external storage medium such as an optical disk (CD-R / W, DVD-RAM, etc.),
It can include a storage device using a hard disk, a semiconductor memory card, or the like.

【0091】図2において、本地図表示装置のCPU3
32は、ROM333およびRAM334の一方または
双方に記憶されたプログラムに従って動作する。図1に
おける地図データ合成部4の機能は、当該プログラムに
よって実現される。その場合、本地図表示装置は、典型
的には当該プログラムを記憶した記録媒体を実装するこ
とになる。また、本地図表示装置は、通信回線から伝送
されてくるプログラムを利用してもよい。
In FIG. 2, the CPU 3 of the map display device
32 operates according to a program stored in one or both of the ROM 333 and the RAM 334. The function of the map data synthesis unit 4 in FIG. 1 is realized by the program. In this case, the map display device typically implements a recording medium storing the program. The map display device may use a program transmitted from a communication line.

【0092】また、典型的には図1における地図データ
格納部3は、ROM333に含まれる。もっとも、地図
データ格納部3の全部または一部は、RAM334に含
まれてもよい。同様に、オブジェクトモデル提示情報格
納部は、典型的にはRAM334に含まれるが、ROM
333に含まれてもよい。
[0092] Typically, the map data storage unit 3 in FIG. However, all or part of the map data storage unit 3 may be included in the RAM 334. Similarly, the object model presentation information storage unit is typically included in the RAM 334,
333 may be included.

【0093】このように、図1に示された第1の実施形
態に係る地図表示装置は、図41における従来の地図表
示装置とは、オブジェクトモデル提示情報格納部6が新
たに設けられ、地図データ作成部400に替えて地図デ
ータ合成部4が設けられ、通信部7からの出力が地図デ
ータ合成部4へ入力される点が大きく異なる。以下、そ
れぞれの動作について詳述する。
As described above, the map display device according to the first embodiment shown in FIG. 1 is different from the conventional map display device shown in FIG. The difference is that a map data synthesizing unit 4 is provided in place of the data creating unit 400, and an output from the communication unit 7 is input to the map data synthesizing unit 4. Hereinafter, each operation will be described in detail.

【0094】図3は、図1の地図表示装置における地図
データ合成部4の動作を示したフローチャートである。
以下、図3を参照しつつ、地図データ合成部4の動作に
ついて説明する。
FIG. 3 is a flowchart showing the operation of the map data synthesizing unit 4 in the map display device of FIG.
Hereinafter, the operation of the map data synthesis unit 4 will be described with reference to FIG.

【0095】まず、図3のステップS11において、地
図データ合成部4は、入力部2から入力された地図番号
および表示コマンド等に対応する地図データを地図デー
タ格納部3から読み出す。
First, in step S11 of FIG. 3, the map data synthesizing unit 4 reads out the map data corresponding to the map number and the display command input from the input unit 2 from the map data storage unit 3.

【0096】次に、ステップS12において、地図デー
タ合成部4は、通信部7から通信情報を読み込む。な
お、この情報は、地図情報とは異なって、時間の経過に
伴って内容が変化するものとする。したがって、当該情
報は、一度はかならず外部の情報発信源から通信部7を
介して読み込まれなければならない。その意味で、当該
情報は、目印となる建物の位置情報ないし形状情報のみ
によって構成される一般的なランドマークの情報等とは
異なる。
Next, in step S12, the map data synthesizing unit 4 reads communication information from the communication unit 7. Note that, unlike the map information, the content of the information changes with time. Therefore, the information must always be read from the external information source via the communication unit 7 at least once. In that sense, the information is different from general landmark information or the like which is constituted only by positional information or shape information of a landmark building.

【0097】このような通信部7から送られてくる情報
は、例えば、図4に示されるような内容を含む。図4
は、通信部7から送られてくる情報の内容例をツリー構
造を用いて表した図である。図4に示されるように、情
報内容は大きく分けて、交通情報、緊急情報、駐車場情
報、車間通信情報、その他情報を含む。なお、図4にお
いて示される情報内容は、例示に過ぎないので、一部の
情報のみで構成されてもよいし、他の情報内容を含んで
もよい。
The information sent from the communication section 7 includes, for example, the contents shown in FIG. FIG.
FIG. 5 is a diagram showing an example of the content of information sent from the communication unit 7 using a tree structure. As shown in FIG. 4, the information content is roughly divided into traffic information, emergency information, parking lot information, inter-vehicle communication information, and other information. It should be noted that the information content shown in FIG. 4 is merely an example, and thus may be configured with only some information or may include other information content.

【0098】まず、図4において、交通情報は、渋滞情
報と、事故情報と、工事中情報と、凍結情報とを含む。
以下これらの情報内容について説明する。渋滞情報は、
例えば、渋滞情報IDおよびリンクデータを含んだデー
タ構造を有する。ここでリンクとは、例えば道路を交差
点から交差点までの方向別に区切った切片のような、所
定区間の道路に対応する位置表現用の単位をいう。典型
的には、リンクデータは、リンク情報と、From情報
と、To情報と、車線情報とを含む。ここで、渋滞情報
IDは、続くリンクデータが渋滞情報であることを識別
するための情報識別番号である。リンク情報は、渋滞が
生じている道路に対応した地図のリンク番号である。F
rom情報は、渋滞が起こっているリンク内の補間点番
号等の始まり位置を示す。To情報は、渋滞が起こって
いるリンク内の補間点番号等の終了位置を示す。車線情
報は、渋滞が起こっている車線番号等の情報である。な
お、渋滞情報には複数のリンクデータが含まれてもよ
い。
First, in FIG. 4, the traffic information includes traffic congestion information, accident information, under construction information, and freezing information.
Hereinafter, these information contents will be described. Traffic information
For example, it has a data structure including a traffic jam information ID and link data. Here, the link refers to a unit for expressing a position corresponding to a road in a predetermined section, such as an intercept in which a road is divided in each direction from an intersection to an intersection. Typically, the link data includes link information, From information, To information, and lane information. Here, the traffic jam information ID is an information identification number for identifying that the following link data is traffic jam information. The link information is a link number of a map corresponding to a road where traffic is congested. F
The rom information indicates a start position of an interpolation point number or the like in a link where traffic congestion occurs. The To information indicates an end position such as an interpolation point number in a link where traffic congestion occurs. The lane information is information such as a lane number where traffic congestion occurs. The traffic congestion information may include a plurality of link data.

【0099】事故情報は、例えば、事故情報IDおよび
リンクデータを含んだデータ構造を有する。典型的に
は、リンクデータは、リンク情報と、緯度経度と、車線
情報とを含む。ここで、事故情報IDは、続くリンクデ
ータが事故情報であることを識別するための情報識別番
号である。リンク情報は、事故が生じている道路に対応
した地図のリンク番号である。緯度経度は、事故が起こ
っている場所のリンク内の緯度および経度を示す。車線
情報は、事故が起こっている車線番号等の情報である。
The accident information has a data structure including, for example, an accident information ID and link data. Typically, the link data includes link information, latitude and longitude, and lane information. Here, the accident information ID is an information identification number for identifying that the following link data is accident information. The link information is a link number of a map corresponding to the road where the accident has occurred. The latitude and longitude indicate the latitude and longitude in the link of the place where the accident has occurred. The lane information is information such as a lane number where an accident has occurred.

【0100】工事中情報は、例えば、工事情報IDおよ
びリンクデータを含んだデータ構造を有する。典型的に
は、リンクデータは、リンク情報と、From情報と、
To情報と、車線情報とを含む。ここで、工事情報ID
は、続くリンクデータが工事中情報であることを識別す
るための情報識別番号である。リンク情報は、工事を行
っている道路に対応した地図のリンク番号である。Fr
om情報は、工事を行っているリンク内の補間点番号等
の始まり位置を示す。To情報は、工事を行っているリ
ンク内の補間点番号等の終了位置を示す。車線情報は、
工事している車線番号等の情報である。なお、工事中情
報には複数のリンクデータが含まれてもよい。
The under construction information has, for example, a data structure including a construction information ID and link data. Typically, link data includes link information, From information,
To information and lane information are included. Here, construction information ID
Is an information identification number for identifying that the following link data is construction information. The link information is a link number of a map corresponding to a road on which construction is being performed. Fr
The om information indicates a starting position of an interpolation point number or the like in a link on which construction is being performed. The To information indicates an end position such as an interpolation point number in a link on which construction is being performed. Lane information is
Information such as the lane number under construction. Note that the under construction information may include a plurality of link data.

【0101】凍結情報は、例えば、凍結情報IDおよび
リンクデータを含んだデータ構造を有する。典型的に
は、リンクデータは、リンク情報と、From情報と、
To情報とを含む。ここで、凍結情報IDは、続くリン
クデータが凍結情報であることを識別するための情報識
別番号である。リンク情報は、凍結が起こっている道路
に対応した地図のリンク番号である。From情報は、
凍結が起こっているリンク内の補間点番号等の始まり位
置を示す。To情報は、凍結が起こっているリンク内の
補間点番号等の終了位置を示す。なお、凍結情報には複
数のリンクデータが含まれてもよい。
The frozen information has a data structure including, for example, a frozen information ID and link data. Typically, link data includes link information, From information,
To information. Here, the frozen information ID is an information identification number for identifying that the following link data is frozen information. The link information is a link number of a map corresponding to a road on which freezing has occurred. From information is
Indicates the start position of the interpolation point number and the like in the link where the freeze has occurred. The To information indicates an end position such as an interpolation point number in a link where freezing has occurred. Note that the freeze information may include a plurality of link data.

【0102】次に、緊急情報は、救急車情報と、パトカ
ー情報と、消防自動車情報とを含む。以下これらの情報
内容について説明する。救急車情報は、例えば、救急情
報IDおよびリンクデータを含んだデータ構造を有す
る。典型的には、リンクデータは、現在地情報と、To
情報と、経路情報とを含む。救急情報IDは、続くリン
クデータが救急車情報であることを識別するための情報
識別番号である。現在地情報は、救急車の現在位置の情
報である。To情報は、救急車がどこに向かっているの
かを示すための情報であって、救急患者が発生した場所
や病院の場所あるいはその施設番号等である。経路情報
は、救急車が通過するであろうと予測される経路情報で
ある。経路情報は、現在地情報およびTo情報に基づい
て、経路探索を行うことによって算出してもよい。
Next, the emergency information includes ambulance information, police car information, and fire engine information. Hereinafter, these information contents will be described. The ambulance information has a data structure including, for example, an emergency information ID and link data. Typically, link data includes current location information and To
Information and route information. The emergency information ID is an information identification number for identifying that the following link data is ambulance information. The current location information is information on the current location of the ambulance. The To information is information for indicating where the ambulance is heading, and is a place where an emergency patient has occurred, a place of a hospital, or a facility number thereof. The route information is route information in which an ambulance is predicted to pass. The route information may be calculated by performing a route search based on the current location information and the To information.

【0103】パトカー情報は、例えば、パトカー情報I
Dおよびリンクデータを含んだデータ構造を有する。典
型的には、リンクデータは、現在地情報と、To情報
と、経路情報とを含む。パトカー情報IDは、続くリン
クデータがパトカー情報であることを識別するための情
報識別番号である。現在地情報は、パトカーの現在位置
の情報である。To情報は、パトカーがどこに向かって
いるのかを示すための情報であって、事件が発生した場
所や警察の場所あるいはその施設番号等である。経路情
報は、パトカーが通過するであろうと予測される経路情
報である。経路情報は、現在地情報およびTo情報に基
づいて、経路探索を行うことによって算出してもよい。
The police car information is, for example, police car information I
It has a data structure including D and link data. Typically, the link data includes current location information, To information, and route information. The police car information ID is an information identification number for identifying that the following link data is police car information. The current location information is information on the current position of the police car. The To information is information for indicating where the police car is heading, and includes the place where the incident occurred, the place of the police, the facility number thereof, and the like. The route information is route information predicted that a police car will pass. The route information may be calculated by performing a route search based on the current location information and the To information.

【0104】消防自動車情報は、例えば、消防情報ID
およびリンクデータを含んだデータ構造を有する。典型
的には、リンクデータは、現在地情報と、To情報と、
経路情報とを含む。消防情報IDは、続くリンクデータ
が消防車情報であることを識別するための情報識別番号
である。現在地情報は、消防車の現在位置の情報であ
る。To情報は、消防車がどこに向かっているのかを示
すための情報であって、火事が発生した場所や病院の場
所あるいはその施設番号等である。経路情報は、消防車
が通過するであろうと予測される経路情報である。経路
情報は、現在地情報およびTo情報に基づいて、経路探
索を行うことによって算出してもよい。
The fire engine information is, for example, fire information ID
And a data structure including link data. Typically, the link data includes current location information, To information,
Path information. The fire information ID is an information identification number for identifying that the following link data is fire engine information. The current location information is information on the current position of the fire truck. The To information is information for indicating where the fire truck is heading, such as a place where a fire has occurred, a place of a hospital, or a facility number thereof. The route information is route information that the fire engine is expected to pass. The route information may be calculated by performing a route search based on the current location information and the To information.

【0105】また、駐車場情報は、駐車場空き情報等を
含む。駐車場空き情報は、例えば、駐車場情報IDおよ
びリンクデータを含んだデータ構造を有する。典型的に
は、リンクデータは、位置情報と、駐車場IDと、空き
情報とを含む。駐車場情報IDは、続くリンクデータが
駐車場情報であることを識別するための情報識別番号で
ある。位置情報は、駐車場の位置の情報である。駐車場
IDは、当該駐車場に対応した施設番号である。空き情
報は、当該駐車場の空き状態を示す情報である。
The parking lot information includes parking lot free space information and the like. The parking lot availability information has, for example, a data structure including a parking lot information ID and link data. Typically, the link data includes position information, a parking lot ID, and free space information. The parking lot information ID is an information identification number for identifying that the following link data is parking lot information. The position information is information on the position of the parking lot. The parking lot ID is a facility number corresponding to the parking lot. The vacancy information is information indicating the vacancy of the parking lot.

【0106】さらに、車間通信情報は、車間距離情報等
を含む。車間距離情報は、例えば、車間距離情報IDお
よびリンクデータを含んだデータ構造を有する。典型的
には、リンクデータは、前方距離と、その車種と、後方
距離と、その車種とを含む。車間距離情報IDは、続く
リンクデータが車間距離情報であることを識別するため
の情報識別番号である。前方距離およびその車種は、前
方にある車との車間距離とその車種を示す。後方距離お
よびその車種は、後方にある車との車間距離とその車種
を示す。
Further, the inter-vehicle communication information includes inter-vehicle distance information and the like. The inter-vehicle distance information has a data structure including, for example, an inter-vehicle distance information ID and link data. Typically, the link data includes a forward distance, a vehicle type, a rearward distance, and the vehicle type. The inter-vehicle distance information ID is an information identification number for identifying that the following link data is inter-vehicle distance information. The forward distance and the type of the vehicle indicate the inter-vehicle distance to the vehicle in front and the type of the vehicle. The rear distance and the vehicle type indicate the inter-vehicle distance to the vehicle behind and the vehicle type.

【0107】最後に、その他情報は、ランドマーク情報
と、スポーツ情報と、ギャンブル情報とを含む。以下こ
れらの情報内容について説明する。ランドマーク情報
は、例えば、施設IDおよびリンクデータを含んだデー
タ構造を有する。なお、ここでいうランドマーク情報
は、前述した一般的なランドマーク情報とは異なり、ラ
ンドマークに関する提供情報、例えば、店の種類情報や
広告情報などを含む。この広告情報には、具体的には、
バーゲンや催しなどの対応する店舗におけるサービス内
容や、店舗や商品自体を宣伝するための文字または画像
情報が含まれる。ランドマーク情報に含まれるリンクデ
ータは、典型的には、隣接リンク情報と、緯度経度と、
提供情報とを含む。施設IDは、続くリンクデータがラ
ンドマーク等の施設に関する情報であることを識別する
ための情報識別番号である。隣接リンク情報は、一番近
くに隣接したリンク情報である。緯度経度は、当該施設
の配置の基準となる緯度経度である。提供情報は、ラン
ドマークに関する前述のような提供情報を含む。
Finally, the other information includes landmark information, sports information, and gambling information. Hereinafter, these information contents will be described. The landmark information has a data structure including, for example, a facility ID and link data. The landmark information referred to here is different from the above-mentioned general landmark information, and includes provided information regarding the landmark, for example, shop type information and advertisement information. Specifically, this advertising information includes:
The information includes service contents at a corresponding store such as a bargain or an event, and character or image information for advertising the store or the product itself. The link data included in the landmark information typically includes adjacent link information, latitude and longitude,
And provided information. The facility ID is an information identification number for identifying that the following link data is information on facilities such as landmarks. The adjacent link information is the link information of the nearest neighbor. The latitude / longitude is a latitude / longitude used as a reference for the arrangement of the facility. The provided information includes the provided information on the landmark as described above.

【0108】スポーツ情報は、例えば、施設IDおよび
リンクデータを含んだデータ構造を有する。典型的に
は、リンクデータは、隣接リンク情報と、緯度経度と、
提供情報とを含む。施設IDは、続くリンクデータが施
設に関する情報であることを識別するための情報識別番
号である。隣接リンク情報は、一番近くに隣接したリン
ク情報である。緯度経度は、当該施設の配置の基準とな
る緯度経度である。提供情報は、スポーツに関する試合
結果等の提供情報である。
The sports information has a data structure including, for example, a facility ID and link data. Typically, link data includes adjacent link information, latitude and longitude,
And provided information. The facility ID is an information identification number for identifying that the subsequent link data is information about the facility. The adjacent link information is the link information of the nearest neighbor. The latitude / longitude is a latitude / longitude used as a reference for the arrangement of the facility. The provided information is provided information such as a match result regarding sports.

【0109】ギャンブル情報は、例えば、施設IDおよ
びリンクデータを含んだデータ構造を有する。典型的に
は、リンクデータは、隣接リンク情報と、緯度経度と、
提供情報とを含む。施設IDは、続くリンクデータが施
設に関する情報であることを識別するための情報識別番
号である。隣接リンク情報は、一番近くに隣接したリン
ク情報である。緯度経度は、当該施設の配置の基準とな
る緯度経度である。提供情報は、ギャンブルに関する結
果等の提供情報である。
The gambling information has a data structure including, for example, a facility ID and link data. Typically, link data includes adjacent link information, latitude and longitude,
And provided information. The facility ID is an information identification number for identifying that the subsequent link data is information about the facility. The adjacent link information is the link information of the nearest neighbor. The latitude / longitude is a latitude / longitude used as a reference for the arrangement of the facility. The provided information is provided information such as a result regarding gambling.

【0110】次に、図3のサブルーチンステップS13
において、地図データ合成部4は、通信部7から読み込
まれた上述のような通信情報と、オブジェクトモデル提
示情報格納部6に格納されている情報とを参照して、2
次元ないし3次元のオブジェクトを作成し、地図データ
格納部3から読み出された地図データと合成する。この
サブルーチンステップS13の処理内容について、図5
を用いながら以下に説明する。
Next, the subroutine step S13 in FIG.
, The map data synthesizing unit 4 refers to the above-described communication information read from the communication unit 7 and the information stored in the object model
A three-dimensional or three-dimensional object is created and combined with the map data read from the map data storage unit 3. FIG. 5 shows the processing contents of this subroutine step S13.
This will be described below with reference to FIG.

【0111】図5は、図3のサブルーチンステップS1
3の詳細な処理を示すフローチャートである。図5のス
テップS131において、地図データ合成部4は、通信
部7から読み込まれた通信情報が存在し、かつ対応する
位置が表示しようとする地図内に存在するか否かを判断
する。通信情報が存在しないか、または対応する位置が
地図外である場合には、地図データ合成部4は、サブル
ーチンステップS13の処理を終了して復帰する。通信
情報が存在し、かつ対応する位置が地図内に存在する場
合には、地図データ合成部4は、ステップS132へ進
む。
FIG. 5 shows a subroutine step S1 of FIG.
13 is a flowchart showing a detailed process of No. 3; In step S131 in FIG. 5, the map data synthesis unit 4 determines whether the communication information read from the communication unit 7 exists and whether the corresponding position exists in the map to be displayed. If there is no communication information or the corresponding position is outside the map, the map data synthesizing unit 4 ends the process of the subroutine step S13 and returns. If the communication information exists and the corresponding position exists in the map, the map data synthesis unit 4 proceeds to step S132.

【0112】ステップS132において、地図データ合
成部4は、読み込まれた通信情報に対応するオブジェク
トモデル提示情報をオブジェクトモデル提示情報格納部
6から読み込む。なお、オブジェクトモデル提示情報の
全部または一部は、通信情報に含まれるように構成して
もよい。
In step S132, the map data synthesizing section 4 reads the object model presentation information corresponding to the read communication information from the object model presentation information storage section 6. Note that all or a part of the object model presentation information may be configured to be included in the communication information.

【0113】さらに、地図データ合成部4は、典型的に
は、読み込まれたオブジェクトモデル提示情報に含まれ
る関数に通信部7から読み込まれたパラメータを適応さ
せて、オブジェクトモデルを作成する。次に、地図デー
タ合成部4は、作成されたオブジェクトモデルを地図表
示空間での位置に合わせて、地図と合成する。当該結果
は、表示器5によって表示される(サブルーチンステッ
プS133)。このサブルーチンステップS133の詳
細な処理内容については後述する。
Further, typically, the map data synthesizing section 4 creates an object model by adapting the parameters read from the communication section 7 to the functions included in the read object model presentation information. Next, the map data synthesizing unit 4 synthesizes the created object model with the map according to the position in the map display space. The result is displayed on the display 5 (subroutine step S133). The detailed processing content of this subroutine step S133 will be described later.

【0114】ここで、オブジェクトモデル提示情報の内
容について説明する。図6は、オブジェクトモデル提示
情報の内容を例示して説明した図である。図6に示され
るように、オブジェクトモデル提示情報は、典型的に
は、形状に関する情報と時空間の振る舞い方に関する情
報とに分けることができる。
Here, the contents of the object model presentation information will be described. FIG. 6 is a diagram illustrating an example of the content of the object model presentation information. As shown in FIG. 6, the object model presentation information can be typically divided into information on a shape and information on a behavior in a spatiotemporal manner.

【0115】形状に関する情報は、例えば、形状を表現
するためのポリゴン情報および当該ポリゴンに貼り付け
るためのテキスチャを指定する記述が用いられて直接的
に表現される。または、形状に関する情報は、関数およ
びパラメータを指定する記述が用いられて間接的に表現
される。
The information on the shape is directly expressed using, for example, polygon information for expressing the shape and a description for specifying the texture to be attached to the polygon. Alternatively, the information on the shape is indirectly expressed using a description that specifies a function and a parameter.

【0116】次に、時空間の振る舞い方に関する情報
は、例えば、所定の条件に適合すれば所定の処理が実行
されるように表現される。このように表現するならば、
実行条件を固定的にする必要がない。したがって、オブ
ジェクトがユーザの入力や通信部7から入力された情報
に対して、毎回同じ反応をする必要がなく、意外性と融
通性のある提示内容を提供することができる。また、時
空間の振る舞い方に関する情報は、ただ単に関数名と関
数の内容とを記述した形式で表現することもできる。ま
ず、前者の形態をとるものについて説明する。
Next, the information on the behavior of the spatiotemporal space is expressed so that a predetermined process is executed if a predetermined condition is met. If expressed like this,
There is no need to fix execution conditions. Therefore, the object does not need to react the same every time to the input of the user or the information input from the communication unit 7, and it is possible to provide unexpected and flexible presentation contents. In addition, the information on the behavior of the space-time can be simply expressed in a format in which the function name and the contents of the function are described. First, the former configuration will be described.

【0117】典型的には、図6における時空間の振る舞
い方に関する情報として、図中のCREATEには、対
応するオブジェクトが作成されたときに実行されるメソ
ッドが記述される。さらに、時空間の振る舞い方に関す
る情報として、図中のCAR_NEARには、車がオブ
ジェクトの所定の距離以内に近づくと実行されるメソッ
ドが記述される。
Typically, a method executed when a corresponding object is created is described in CREATE in FIG. 6 as information on the behavior of the spatiotemporal space in FIG. Further, as information on the behavior of the space-time, a method executed when the car approaches within a predetermined distance of the object is described in CAR_NEAR in the figure.

【0118】さらに、上述のようなオブジェクトモデル
提示情報の詳細な具体例を図7を用いながら説明する。
図7は、図4に示されるようなその他情報に対応するオ
ブジェクトモデル提示情報の詳細な具体例を示した図で
ある。
Further, a detailed example of the above-described object model presentation information will be described with reference to FIG.
FIG. 7 is a diagram showing a detailed specific example of object model presentation information corresponding to other information as shown in FIG.

【0119】図7において、オブジェクトモデル提示情
報700は、形状に関する情報701と、時空間の振る
舞い方に関する情報702とを含む。形状に関する情報
701は、例えば”gas_station.obj”
という名称のファイルに格納されている3次元形状情報
であってもよい。また、形状に関する情報701は、例
えば、ポリゴンの幅、高さ、奥行きの情報と、当該ポリ
ゴンに貼り付けるためのテキスチャを指定する”ess
o_station.bmp”という名称のファイルと
によって構成されてもよい。さらに、形状に関する情報
701は、位置情報を含む。図7において、位置情報
は、オブジェクトが表示される3次元座標である。な
お、図7の右側上部に示された2つの図形は、以上のよ
うな形状に関する情報を用いて実際にそれぞれ描画した
例を表している。
In FIG. 7, the object model presentation information 700 includes information 701 on the shape and information 702 on the behavior of the space-time. The information 701 on the shape is, for example, “gas_station.obj”.
3D shape information stored in a file named. The information 701 on the shape includes, for example, information on the width, height, and depth of the polygon, and “ess” that specifies the texture to be attached to the polygon.
o_station. bmp ". Further, the information 701 on the shape includes position information. In FIG. 7, the position information is three-dimensional coordinates at which the object is displayed. The two figures shown in the upper right part of the figure show examples in which each is actually drawn using the information on the shape as described above.

【0120】オブジェクトモデル提示情報700に含ま
れる時空間の振る舞い方に関する情報702は、どのよ
うな言語が用いられて表現されてもよいが、典型的には
オブジェクト指向のインタープリタ言語(例えば、Su
n Microsystems社が開発したJava
(登録商標)言語など)が用いられて表現される。この
ような言語によって表記されたスクリプトは、コンパイ
ルの必要がないので、即時に実行することができ、作成
も容易であるので、本実施形態に好適である。
The information 702 about the behavior of the spatiotemporal space included in the object model presentation information 700 may be expressed in any language, but typically, is expressed in an object-oriented interpreted language (for example, Su
Java developed by n Microsystems
(Registered trademark) language). A script written in such a language does not need to be compiled, can be executed immediately, and can be easily created, which is suitable for the present embodiment.

【0121】図7の時空間の振る舞い方に関する情報7
02において、posメソッドは、施設IDに対応する
空間座標の位置にオブジェクトを作成する。Dirメソ
ッドは、3次元空間におけるオブジェクトの傾きを表現
する。Shapeメソッドは、オブジェクトを描画す
る。BlinkObjectメソッドは、車とオブジェ
クトとの距離が所定の数値radius以下になったと
きに、所定のオブジェクトを点滅させる。したがって、
この時空間の振る舞い方に関する情報702は、所定の
オブジェクトの位置が車から所定の距離radius内
に入るとオブジェクトを点滅させるように記述されてい
る。
Information 7 on the behavior of the spatiotemporal space in FIG. 7
In 02, the pos method creates an object at the position of the space coordinates corresponding to the facility ID. The Dir method represents the inclination of an object in a three-dimensional space. The Shape method draws an object. The BlinkObject method causes a predetermined object to blink when the distance between the car and the object becomes equal to or smaller than a predetermined numerical value radius. Therefore,
The information 702 on the behavior of the spatiotemporal space is described so that the object blinks when the position of the predetermined object enters within a predetermined distance radius from the car.

【0122】図8は、図7における時空間の振る舞い方
に関する情報が実行される状態を説明するための図であ
る。図8において、Road Objectsは地図上
の道路を表し、図上方の直方体の図形は地図上に描画さ
れたオブジェクトを表している。ここで、自車は図中の
太線によって表される経路Routeに沿って走行して
いるものとする。まず、図中のposition1に車
の位置があるときには、オブジェクトの状態に変化はな
い。その後、車の位置がposition2に来ると、
オブジェクトの位置が車からの所定の半径radius
内に入る。すると、図7における時空間の振る舞い方に
関する情報が実行されて、当該オブジェクトは点滅する
ことになる。
FIG. 8 is a diagram for explaining a state in which the information on the behavior of the spatiotemporal space in FIG. 7 is executed. In FIG. 8, Road Objects represent roads on the map, and a rectangular parallelepiped graphic at the top of the figure represents an object drawn on the map. Here, it is assumed that the own vehicle is traveling along a route Route represented by a thick line in the figure. First, when the position of the car is in position 1 in the figure, the state of the object does not change. Then, when the position of the car comes to position2,
The position of the object is a predetermined radius from the car
Get in. Then, the information on the behavior of the space-time in FIG. 7 is executed, and the object blinks.

【0123】次に、時空間の振る舞い方に関する情報が
関数名と関数の内容とを記述した形式で表現される場合
について、図9および図10を用いながら説明する。図
9は、オブジェクトモデル提示情報格納部6に格納され
て、前述の交通情報に対応する関数名と関数の内容を例
示した図である。図10は、オブジェクトモデル提示情
報格納部6に格納されて、前述の緊急情報、駐車場情報
および車間通信情報に対応する関数名と関数の内容を例
示した図である。
Next, a case where the information on the behavior of the spatiotemporal space is expressed in a format in which the function name and the contents of the function are described will be described with reference to FIGS. 9 and 10. FIG. FIG. 9 is a diagram exemplifying function names and contents of functions stored in the object model presentation information storage unit 6 and corresponding to the above-described traffic information. FIG. 10 is a diagram exemplifying function names and function contents stored in the object model presentation information storage unit 6 and corresponding to the above-described emergency information, parking lot information, and inter-vehicle communication information.

【0124】図9において、例えば、VICS等から通
信部7を介して渋滞情報が送られてきた場合において、
対応する位置が表示しようとする地図内にある場合に
は、地図データ合成部4は、渋滞情報提示関数を実行す
る。したがって、図9における関数内容に含まれる番号
に従って処理が実行される。すなわち、第1のステップ
として、地図データ合成部4は、通信部7から読み込ま
れたリンク情報と、From情報と、To情報とに対応
する道路情報(例えば、当該道路を構成する線素辺を規
定するテーブルなど)を地図データ格納部3から読み込
む。次に、第2のステップとして、地図データ合成部4
は、第1のステップにおいて読み込まれた情報に対応し
た区間の地図データ表示空間座標を求める。最後に、第
3のステップとして、地図データ合成部4は、渋滞をあ
らわす車ポリゴンや渋滞ビルボードのようなオブジェク
トを中間バッファに作成し、表示空間に配置する。以上
のようなステップが実行されると、地図空間の中に渋滞
を示す車ポリゴン等が作成されて、道路に並べられる。
したがって、ユーザは、視線を動かすことなく、直感的
に渋滞情報を把握することができる。
In FIG. 9, for example, when traffic congestion information is transmitted from the VICS or the like via the communication unit 7,
When the corresponding position is within the map to be displayed, the map data synthesizing unit 4 executes a congestion information presentation function. Therefore, the processing is executed according to the numbers included in the function contents in FIG. That is, as a first step, the map data synthesizing unit 4 sets the road information corresponding to the link information read from the communication unit 7, the From information, and the To information (for example, a line element constituting the road as a line element). (For example, a prescribed table) is read from the map data storage unit 3. Next, as a second step, the map data synthesis unit 4
Calculates the map data display space coordinates of the section corresponding to the information read in the first step. Finally, as a third step, the map data synthesizing unit 4 creates objects such as car polygons and traffic congestion billboards representing traffic congestion in the intermediate buffer and arranges them in the display space. When the above steps are executed, car polygons or the like indicating traffic congestion are created in the map space and arranged on the road.
Therefore, the user can intuitively grasp the traffic jam information without moving his / her eyes.

【0125】なお、以上のような処理は、他の通信情報
に対しても同様になされ、通信情報に応じてオブジェク
トモデル提示情報格納部6に格納されている個別の関数
が実行される。これらの関数は、図9および図10に示
されたとおりである。
The above processing is similarly performed for other communication information, and individual functions stored in the object model presentation information storage section 6 are executed according to the communication information. These functions are as shown in FIG. 9 and FIG.

【0126】次に、上記の渋滞情報提示関数が実行され
た際の具体的処理例について、さらに詳述する。まず、
地図データ合成部4によって通信部7から読み込まれる
渋滞情報について図11を参照しながら説明する。
Next, a specific processing example when the above-described traffic jam information presentation function is executed will be described in further detail. First,
The traffic jam information read from the communication unit 7 by the map data synthesis unit 4 will be described with reference to FIG.

【0127】図11は、VICS等から通信部7を介し
て送られてきた渋滞情報の構造例を示した図である。図
11の渋滞情報は、渋滞情報ID551と、渋滞リンク
番号552と、開始補間点番号553と、終了補間点番
号554と、渋滞車線番号555とを含む。なお、これ
らの情報は、前述した図4の渋滞情報に含まれる、渋滞
情報IDと、リンク情報と、From情報と、To情報
と、車線情報とにそれぞれ対応している。
FIG. 11 is a diagram showing an example of the structure of traffic congestion information sent from the VICS or the like via the communication unit 7. The traffic jam information in FIG. 11 includes a traffic jam information ID 551, a traffic jam link number 552, a start interpolation point number 553, an end interpolation point number 554, and a traffic jam lane number 555. These pieces of information correspond to the congestion information ID, the link information, the From information, the To information, and the lane information included in the congestion information in FIG. 4 described above.

【0128】渋滞情報ID551は、続くリンクデータ
が渋滞情報であることを識別するための情報識別番号で
ある。渋滞リンク番号552は、渋滞している道路に対
応するリンク番号である。例えば、ここに1010が格
納されていれば、リンク番号1010の道路が渋滞して
いることを表す。開始補間点番号553および終了補間
点番号554は、渋滞している道路に対応するリンク内
の開始補間点および終了補間点を表す。たとえば、開始
補間点番号553に1が格納され、終了補間点番号55
4に2が格納されていれば、リンク番号1010の道路
において、補間点1から補間点2までの区間が渋滞して
いることを表す。渋滞車線番号555は、渋滞が起こっ
ている車線番号である。なお、渋滞情報には複数のリン
クデータが含まれてもよいことは前述した。
The congestion information ID 551 is an information identification number for identifying that the following link data is congestion information. The congestion link number 552 is a link number corresponding to a congested road. For example, if 1010 is stored here, it indicates that the road with link number 1010 is congested. The start interpolation point number 553 and the end interpolation point number 554 represent a start interpolation point and an end interpolation point in a link corresponding to a congested road. For example, 1 is stored in the start interpolation point number 553, and the end interpolation point number 55
When 2 is stored in 4, it indicates that the section from the interpolation point 1 to the interpolation point 2 is congested on the road with the link number 1010. The traffic congestion lane number 555 is a traffic lane number where traffic congestion occurs. In addition, as described above, the traffic congestion information may include a plurality of link data.

【0129】次に、渋滞情報提示関数が実行された場合
の処理手順について説明する。図12は、渋滞情報提示
関数が実行された場合の処理手順を示したフローチャー
トである。図12のステップS101において、渋滞情
報提示関数が実行されると、まず、地図データ合成部4
は、読み込まれた渋滞情報に対応する地図データとの関
係を示す情報(以下、対応テーブルという)を地図デー
タ格納部3から読み出す。
Next, a processing procedure when the traffic jam information presentation function is executed will be described. FIG. 12 is a flowchart illustrating a processing procedure when the traffic congestion information presentation function is executed. When the congestion information presentation function is executed in step S101 of FIG.
Reads from the map data storage unit 3 information indicating the relationship between the read traffic information and the map data (hereinafter, referred to as a correspondence table).

【0130】図13は、地図データ合成部4に格納され
ている地図データとの関係を示す対応テーブルを例示し
た図である。図13の対応テーブルは、道路に対応する
リンク番号と、その開始および終了補間点番号と、道路
数と、シーケンス番号およびその開始・終了背骨点番号
の1つ以上の組とを含む。
FIG. 13 is a diagram exemplifying a correspondence table showing a relationship with the map data stored in the map data synthesizing section 4. As shown in FIG. The correspondence table in FIG. 13 includes a link number corresponding to a road, its start and end interpolation point numbers, the number of roads, and one or more sets of a sequence number and its start / end spine point numbers.

【0131】ここで、道路数とは、地図データ格納部3
に格納されて、リンク番号に対応する地図データ内の道
路の数を表す。シーケンス番号とは、地図データ格納部
3に格納されている地図データ内の道路の最小単位であ
るシーケンスにつけられた番号である。このシーケンス
は、直線や折れ線、曲線などで構成されており、その制
御点を背骨点と呼ぶ。背骨点は、1つのシーケンスに対
して2つ以上が設けられ、連続番号が付されている。従
って、シーケンス番号と、開始背骨点番号と、終了背骨
点番号との組によって、地図データ中の任意の線素辺を
一意的に示すことができる。
Here, the number of roads means the map data storage unit 3
And represents the number of roads in the map data corresponding to the link number. The sequence number is a number assigned to a sequence that is the minimum unit of a road in the map data stored in the map data storage unit 3. This sequence is composed of straight lines, broken lines, curves, and the like, and the control points are called spine points. Two or more spine points are provided for one sequence, and are sequentially numbered. Therefore, an arbitrary line element side in the map data can be uniquely indicated by a set of the sequence number, the start spine point number, and the end spine point number.

【0132】なお、ここで示されるシーケンス番号と、
開始背骨点番号と、終了背骨点番号との組は、地図デー
タのデータ構造により異なるが、地図データ中の任意の
線素辺を一意的に示すことができるデータであれば、こ
れらの組に限られず、どのようなデータであってもよ
い。
Note that the sequence number shown here and
The set of the start spine point number and the end spine point number differs depending on the data structure of the map data, but if the data can uniquely indicate an arbitrary line element side in the map data, these sets are used. The data is not limited, and may be any data.

【0133】次に、図12のステップS102におい
て、地図データ合成部4は、読み出された前述の対応テ
ーブルの情報から、地図データ内の道路の数を抽出す
る。図13の対応テーブル例によれば、道路の数は3つ
である。
Next, in step S102 of FIG. 12, the map data synthesizing unit 4 extracts the number of roads in the map data from the read information of the correspondence table. According to the example of the correspondence table in FIG. 13, the number of roads is three.

【0134】そして、ステップS103において、地図
データ合成部4は、抽出された道路数と処理済みの道路
数とを比較し、これらが等しくなれば道路数分の処理が
終了したと判定して、処理はステップS108へジャン
プする。終了しない場合には、処理はステップS104
へ進む。
Then, in step S103, the map data synthesizing section 4 compares the extracted number of roads with the number of processed roads, and if they are equal, determines that the processing for the number of roads has been completed. The process jumps to step S108. If not, the process proceeds to step S104
Proceed to.

【0135】ステップS104において、地図データ合
成部4は、前述のステップS101において読み出した
各シーケンス番号、開始背骨点番号および終了背骨点番
号のうち、所定の一組(初期値では最初の一組)に対応
する3次元座標点を地図データ格納部3より検索して読
み出す。なお、当該3次元座標点は、地図データとは別
に設けられた所定のテーブルに格納されていてもよい
し、地図データそのものから算出されてもよい。また、
ここでは2次元座標点が用いられてもよい。
In step S104, the map data synthesizing section 4 sets a predetermined set (the initial set is the initial set) of the sequence numbers, start spine point numbers, and end spine point numbers read out in step S101. Is retrieved from the map data storage unit 3 and read out. Note that the three-dimensional coordinate points may be stored in a predetermined table provided separately from the map data, or may be calculated from the map data itself. Also,
Here, two-dimensional coordinate points may be used.

【0136】次に、ステップS104において、地図デ
ータ合成部4は、読み出された3次元座標点を修正する
オフセット処理を行う。なぜなら、読み出された座標点
列は、道路の中央線に対応するので、前述の渋滞情報に
含まれる渋滞車線番号555が示す車線に対応させるた
めに、その中央位置を計算する必要があるからである。
ここで、車線番号が1である場合には、補間点番号1か
ら2の方向へ向かって左側の車線を表すものとし、左車
線の中央部点列を求める。
Next, in step S104, the map data synthesizing section 4 performs an offset process for correcting the read three-dimensional coordinate points. Because the read sequence of coordinate points corresponds to the center line of the road, it is necessary to calculate the center position of the read coordinate point sequence in order to correspond to the lane indicated by the congestion lane number 555 included in the congestion information. It is.
Here, when the lane number is 1, the lane on the left side in the direction from the interpolation point number 1 to 2 is represented, and the center point sequence of the left lane is obtained.

【0137】さらに、ステップS104において、地図
データ合成部4は、実行中の渋滞情報提示関数が指定す
る車の3次元モデルを並べようとする位置や大きさ、
数、向きなどを、左車線中央部点列を補間するようにし
て算出する。
Further, in step S104, the map data synthesizing unit 4 determines the position and size at which the three-dimensional model of the car specified by the running traffic information presentation function is to be arranged.
The number, direction, and the like are calculated by interpolating the left lane center point sequence.

【0138】以上のように或る道路に関する処理を終了
すると、ステップS105において、地図データ合成部
4は、処理済みの道路数をインクリメントし、読み出さ
れた各シーケンス番号、開始背骨点番号および終了背骨
点番号のうち、次の道路に関する処理を行うために、所
定の一組を選出する。その後、処理はステップS103
へ戻る。
When the process for a certain road is completed as described above, in step S105, the map data synthesizing unit 4 increments the number of processed roads, and reads out the read sequence numbers, start spine point numbers, and end numbers. From the spine point numbers, a predetermined set is selected in order to perform processing on the next road. After that, the process proceeds to step S103
Return to

【0139】全ての処理が終了すれば、ステップS10
8において、地図データ合成部4は、地図データ格納部
3またはオブジェクトモデル提示情報格納部6から車の
モデルデータを読み出す。次に、地図データ合成部4
は、ステップS106で求められた車モデルのそれぞれ
の位置や大きさ、数、向きなどを参照して、地図データ
と合成して表示器5に表示できるように、中間バッファ
に配置する。なお、車モデルは、3次元モデルに限られ
ず、2次元モデルであっても、実写画像であってもよ
い。
If all processes are completed, step S10
At 8, the map data synthesizing unit 4 reads the model data of the car from the map data storage unit 3 or the object model presentation information storage unit 6. Next, the map data synthesis unit 4
Is placed in the intermediate buffer so that it can be combined with the map data and displayed on the display 5 with reference to the position, size, number, direction, and the like of each of the car models obtained in step S106. Note that the car model is not limited to a three-dimensional model, and may be a two-dimensional model or a photographed image.

【0140】図14は、以上のように配置された車モデ
ルと道路の関係を示すために、地図平面に対して垂直方
向の上空から見下ろした地図の模式図である。図14に
おいて、道路546は補間点541および542を有す
るリンク番号1000の道路を表し、道路547は補間
点543および544を有するリンク番号1010の道
路を表すものとする。また、図13の対応テーブルが示
すように、リンク番号1010の道路は、3つのシーケ
ンスで構成されており、図14におけるシーケンス54
71〜5473に対応する。したがって、シーケンス5
471のシーケンス番号は15であり、開始背骨点番号
は0であり、終了背骨点番号は1である。同様に、シー
ケンス5472のシーケンス番号は14であり、開始背
骨点番号は0であり、終了背骨点番号は1である。ま
た、シーケンス5473のシーケンス番号は13であ
り、開始背骨点番号は0であり、終了背骨点番号は1で
ある。さらに、図15は、図14が示す地図を補間点5
44から補間点543の方向へ地上高から見た側面図で
ある。
FIG. 14 is a schematic diagram of a map viewed from the sky in a direction perpendicular to the map plane to show the relationship between the car model and the roads arranged as described above. In FIG. 14, a road 546 represents a road with a link number 1000 having interpolation points 541 and 542, and a road 547 represents a road with a link number 1010 having interpolation points 543 and 544. As shown in the correspondence table of FIG. 13, the road with the link number 1010 is composed of three sequences.
71 to 5473. Therefore, sequence 5
The sequence number of 471 is 15, the start spine point number is 0, and the end spine point number is 1. Similarly, the sequence number of sequence 5472 is 14, the start spine point number is 0, and the end spine point number is 1. The sequence number of the sequence 5473 is 13, the start spine point number is 0, and the end spine point number is 1. Further, FIG. 15 shows that the map shown in FIG.
It is the side view seen from the ground height in the direction of the interpolation point 543 from 44.

【0141】図14および図15を参照すれば、地上高
にあるリンク番号1000の道路546に対して、リン
ク番号1010の道路547が立体交差しており、リン
ク番号1010の道路547の左車線が渋滞しているこ
とがわかる。なお、実際に表示される場合には、地図は
3次元で表示されてもよいし、2次元で表示されてもよ
い。また、車モデル548の表示についても同様であ
る。
Referring to FIGS. 14 and 15, a road 547 having a link number 1010 crosses a road 546 having a link number 1000 at a height above the ground, and a left lane of a road 547 having a link number 1010 is changed. You can see that there is traffic. When actually displayed, the map may be displayed three-dimensionally or two-dimensionally. The same applies to the display of the car model 548.

【0142】以上のような渋滞情報提示関数の処理は、
工事中の車線規制情報の表示に関しても同様の手順で行
うことができる。もちろん、前述した渋滞情報における
渋滞情報IDが工事中情報IDに置き換わり、道路上に
並べるモデルが車から、工事中を示す看板や人形などの
モデルに置き換わることになる。このように、図9およ
び図10に示される関数の処理も同様に行うことができ
る。
The processing of the congestion information presentation function as described above
The same procedure can be used to display lane regulation information during construction. Of course, the congestion information ID in the congestion information described above is replaced with the under construction information ID, and the model arranged on the road is replaced with a model such as a signboard or a doll indicating that construction is underway. Thus, the processing of the functions shown in FIGS. 9 and 10 can be performed in the same manner.

【0143】以上のように図5のサブルーチンステップ
S133の処理が終了すると、次に、ステップS134
において、地図データ合成部4は、通信部7から読み込
まれた情報がすべて実行されたかどうかを確認する。全
て実行されている場合には、地図データ合成部4は、サ
ブルーチンステップS13の処理を終了し、図3のフロ
ーに復帰する。未だ全て実行されていない場合には、地
図データ合成部4は、処理をステップS132まで戻し
て、一連の処理を繰り返す。図3において、サブルーチ
ンステップS13の処理が終了すると、地図データ合成
部4は、合成した地図データを表示器5に送る。表示器
5は、地図画面をユーザに対して表示する。
When the processing in step S133 of the subroutine of FIG. 5 is completed as described above, next, in step S134
In, the map data synthesizing unit 4 confirms whether all the information read from the communication unit 7 has been executed. If all of them have been executed, the map data synthesizing unit 4 ends the process of the subroutine step S13, and returns to the flow of FIG. If all of them have not been executed yet, the map data synthesis unit 4 returns the processing to step S132 and repeats a series of processing. In FIG. 3, when the processing of the subroutine step S13 is completed, the map data synthesizing unit 4 sends the synthesized map data to the display 5. The display 5 displays a map screen to the user.

【0144】図16は、以上のような処理を経て生成さ
れた地図画面の一表示例を示した図である。図16にお
いて、ビル群を含む3次元景観上には、パトカーの位置
を示す車ポリゴンと、渋滞を示す渋滞ビルボードと、工
事中であることを示すアニメーション図形とが配置され
ている。したがって、ユーザは、視線を動かすことな
く、直感的に各種情報を把握することができる。
FIG. 16 is a diagram showing a display example of a map screen generated through the above processing. In FIG. 16, a car polygon indicating the position of a police car, a traffic jam billboard indicating a traffic jam, and an animation figure indicating that construction is underway are arranged on a three-dimensional landscape including a group of buildings. Therefore, the user can intuitively grasp various information without moving his / her eyes.

【0145】さらに、図5のサブルーチンステップS1
33における地図データ合成部4の詳細な処理を説明す
る前提として、まず、地図データ合成部4の詳細な構成
を図17および図18を用いながら説明する。
Further, the subroutine step S1 in FIG.
As a premise for explaining the detailed processing of the map data synthesis unit 4 in 33, first, the detailed configuration of the map data synthesis unit 4 will be described with reference to FIGS.

【0146】図17は、地図データ合成部4の詳細な構
成を示したブロック図である。図17において、地図デ
ータ合成部4は、オブジェクトモデル提示情報格納部
6、入力部2および通信部7からの情報が入力されて、
オブジェクトモデル提示情報を実行するオブジェクト提
示情報実行部41と、オブジェクト提示情報実行部41
および地図データ格納部3からの地図データが入力され
て、表示データを合成する表示データ合成部42とを含
む。
FIG. 17 is a block diagram showing a detailed configuration of the map data synthesizing section 4. As shown in FIG. In FIG. 17, the map data synthesizing unit 4 receives information from the object model presentation information storage unit 6, the input unit 2, and the communication unit 7, and
An object presentation information execution unit 41 for executing object model presentation information; and an object presentation information execution unit 41
And a display data synthesizing section 42 to which map data is input from the map data storage section 3 and synthesizes display data.

【0147】オブジェクト提示情報実行部41は、割り
込みイベントを検出して各イベントに対応したコマンド
を実行する。また、オブジェクト提示情報実行部41
は、オブジェクトモデル提示情報を実行してオブジェク
トデータを作成し、表示データ合成部42へ送る。表示
データ合成部42は、送られてきたオブジェクトデータ
と地図データとを合成して、表示器5へ出力する。
The object presentation information execution section 41 detects an interrupt event and executes a command corresponding to each event. The object presentation information execution unit 41
Executes the object model presentation information to create object data and sends it to the display data synthesizing unit 42. The display data combining unit 42 combines the sent object data and map data and outputs the combined data to the display 5.

【0148】次に、オブジェクト提示情報実行部41の
詳細な構成を説明する。図18は、オブジェクト提示情
報実行部41の詳細な構成を示したブロック図である。
図18において、オブジェクト提示情報実行部41は、
オブジェクト提示情報制御部411と、解釈実行部41
2とを含む。
Next, the detailed configuration of the object presentation information execution section 41 will be described. FIG. 18 is a block diagram showing a detailed configuration of the object presentation information execution unit 41.
In FIG. 18, the object presentation information execution unit 41
Object presentation information control unit 411 and interpretation execution unit 41
2 is included.

【0149】オブジェクト提示情報制御部411は、オ
ブジェクトモデル提示情報格納部6、入力部2および通
信部7からの情報が入力されて、各イベントに対応した
制御を行う。解釈実行部412は、オブジェクト提示情
報制御部411から送られてきたオブジェクト作成依頼
ないしオブジェクト属性変更依頼に従い、オブジェクト
モデル提示情報を解釈・実行してオブジェクトデータを
生成し、オブジェクト提示情報制御部411へ出力す
る。
The object presentation information control unit 411 receives information from the object model presentation information storage unit 6, the input unit 2, and the communication unit 7, and performs control corresponding to each event. According to the object creation request or the object attribute change request sent from the object presentation information control unit 411, the interpretation execution unit 412 interprets and executes the object model presentation information to generate object data, and sends the object data to the object presentation information control unit 411. Output.

【0150】以上を前提にして、図5のサブルーチンス
テップS133における地図データ合成部4の詳細な処
理を説明する。図19は、サブルーチンステップS13
3の詳細な処理を示したフローチャートである。
Based on the above, detailed processing of the map data synthesizing unit 4 in the subroutine step S133 of FIG. 5 will be described. FIG. 19 shows a subroutine step S13.
9 is a flowchart illustrating a detailed process of No. 3;

【0151】図19のステップS91において、オブジ
ェクト提示情報実行部41は、通信部7、入力部2また
はタイマー割り込みからの割り込みイベントを検出す
る。典型的には、他から割り込みがかからない限り、オ
ブジェクト提示情報実行部41は、割り込みイベントが
検出されるまで、ステップS91の処理を繰り返す。
In step S91 in FIG. 19, the object presentation information execution section 41 detects an interruption event from the communication section 7, the input section 2, or a timer interruption. Typically, the object presentation information execution unit 41 repeats the process of step S91 until an interrupt event is detected, unless an interrupt is received from another.

【0152】割り込みイベントが検出されると、ステッ
プS92において、オブジェクト提示情報実行部41
は、当該イベントを解析し、イベントに対応した処理を
実行する。ここでは、イベントは、更新イベント、提示
条件発火イベント、作成イベント、属性変更イベントの
4つが規定されている。解析されたイベントが更新イベ
ントであれば、処理はステップS94へ進む。解析され
たイベントが提示条件発火イベントであれば、処理はス
テップS95へ進む。解析されたイベントが作成イベン
トであれば、処理はステップS96へ進む。解析された
イベントが属性変更イベントであれば、処理はステップ
S98へ進む。
When an interrupt event is detected, in step S92, the object presentation information execution section 41
Analyzes the event and executes a process corresponding to the event. Here, four events are defined: an update event, a presentation condition firing event, a creation event, and an attribute change event. If the analyzed event is an update event, the process proceeds to step S94. If the analyzed event is the presentation condition firing event, the process proceeds to step S95. If the analyzed event is a creation event, the process proceeds to step S96. If the analyzed event is the attribute change event, the process proceeds to step S98.

【0153】ステップS94(更新イベント)におい
て、オブジェクト提示情報実行部41は、通信部7より
オブジェクトモデル提示情報の更新情報を読み込み、オ
ブジェクトモデル提示情報格納部6へ更新情報を格納す
る。当該更新情報は、オブジェクトモデル提示情報格納
部6に格納されている対応するオブジェクトモデル提示
情報の全部であってもよいし、一部であってもよい。以
上の処理が終了すると、地図データ合成部4は、サブル
ーチンステップS133の処理を終了し、図5のフロー
へ復帰する。
In step S94 (update event), the object presentation information execution section 41 reads the update information of the object model presentation information from the communication section 7, and stores the update information in the object model presentation information storage section 6. The update information may be all or a part of the corresponding object model presentation information stored in the object model presentation information storage unit 6. When the above processing ends, the map data synthesis unit 4 ends the processing of the subroutine step S133, and returns to the flow of FIG.

【0154】ステップS95(提示条件発火イベント)
において、オブジェクト提示情報実行部41は提示条件
発火イベントの内容を解析し、提示条件の設定を変更す
る。以上の処理が終了すると、地図データ合成部4は、
サブルーチンステップS133の処理を終了し、図5の
フローへ復帰する。
Step S95 (presentation condition firing event)
In, the object presentation information execution unit 41 analyzes the content of the presentation condition firing event and changes the setting of the presentation condition. When the above processing is completed, the map data synthesis unit 4
The process of the subroutine step S133 ends, and the process returns to the flow in FIG.

【0155】ステップS96(作成イベント)におい
て、オブジェクト提示情報制御部411は、オブジェク
トモデル提示情報格納部6から対応するオブジェクトの
オブジェクトモデル提示情報を読み込み、解釈実行部4
12にその情報を送信し、オブジェクトの作成処理を依
頼する。さらに、ステップS97において、解釈実行部
412は、送られてきたオブジェクトの形状に関する情
報と時空間の振る舞いに関する情報(典型的には簡易言
語や関数表現で作成された情報)を解釈実行し、オブジ
ェクトモデル提示条件の設定や提示処理を行い、オブジ
ェクト提示情報制御部411に制御を戻す。このような
オブジェクトモデル提示情報の構造および実行例につい
ては、前述した。
In step S96 (creation event), the object presentation information control section 411 reads the object model presentation information of the corresponding object from the object model presentation information storage section 6, and reads the object execution information.
12 and sends a request for object creation processing. Further, in step S97, the interpretation executing unit 412 interprets and executes the information on the shape of the sent object and the information on the behavior of the space-time (typically, information created in a simple language or a function expression). The model presentation conditions are set and presentation processing is performed, and control is returned to the object presentation information control unit 411. The structure and execution example of such object model presentation information have been described above.

【0156】次に、ステップS99において、オブジェ
クト提示情報実行部41は、解釈実行部412で実行さ
れたオブジェクトの提示情報の実行結果を表示データ合
成部42に送り、地図データに合成する。以上の処理が
終了すると、地図データ合成部4は、サブルーチンステ
ップS133の処理を終了し、図5のフローへ復帰す
る。
Next, in step S99, the object presentation information executing section 41 sends the execution result of the object presentation information executed by the interpretation executing section 412 to the display data synthesizing section 42 and synthesizes it with the map data. When the above processing ends, the map data synthesis unit 4 ends the processing of the subroutine step S133, and returns to the flow of FIG.

【0157】ステップS98(属性変更イベント)にお
いて、オブジェクト提示情報制御部411は、位置や大
きさなどオブジェクトの属性変更処理を行うように、解
釈実行部412に依頼する。次に、ステップS99にお
いて、オブジェクト提示情報実行部41は、前述のよう
な処理を行う。以上の処理が終了すると、地図データ合
成部4は、サブルーチンステップS133の処理を終了
し、図5のフローへ復帰する。
In step S98 (attribute change event), the object presentation information control unit 411 requests the interpretation execution unit 412 to change the attribute of the object such as the position and size. Next, in step S99, the object presentation information execution unit 41 performs the above-described processing. When the above processing ends, the map data synthesis unit 4 ends the processing of the subroutine step S133, and returns to the flow of FIG.

【0158】さらに、図19のステップS99におい
て、表示データ合成部42が地図画面をどのように生成
するかを詳述する。まず、生成される地図画面が2次元
景観である場合について説明する。図20は、2次元景
観を作成する場合における表示データ合成部42の詳細
な構成を示した図である。図20において、表示データ
合成部42は、二次元オブジェクト作成部145と、二
次元データ合成部146とを含む。
Further, how the display data synthesizing section 42 generates the map screen in step S99 in FIG. 19 will be described in detail. First, a case where the generated map screen is a two-dimensional landscape will be described. FIG. 20 is a diagram illustrating a detailed configuration of the display data synthesizing unit 42 when a two-dimensional landscape is created. 20, the display data combining unit 42 includes a two-dimensional object creating unit 145 and a two-dimensional data combining unit 146.

【0159】二次元オブジェクト作成部145は、オブ
ジェクト提示情報実行部41からのオブジェクトモデル
提示情報が入力されて、二次元のオブジェクトを作成す
る。二次元データ合成部146は、二次元オブジェクト
作成部145が作成した二次元のオブジェクトと、地図
データ格納部3からの2次元地図データとを入力され
て、互いのデータにおける2次元座標データを基に、ユ
ーザに表示すべき地図画像を合成する。
The two-dimensional object creation unit 145 receives the object model presentation information from the object presentation information execution unit 41 and creates a two-dimensional object. The two-dimensional data synthesizing unit 146 receives the two-dimensional object created by the two-dimensional object creating unit 145 and the two-dimensional map data from the map data storage unit 3, and based on the two-dimensional coordinate data in each other's data. And a map image to be displayed to the user.

【0160】次に、表示データ合成部42において生成
される地図画面が、3次元景観である場合について説明
する。ここで、生成される地図画面が3次元景観であっ
ても、オブジェクトモデル提示情報から作成されるオブ
ジェクトおよび地図データ格納部3に格納されている地
図データは、必ずしも3次元のデータである必要はな
い。そこでまず、表示データ合成部42が、オブジェク
ト提示情報実行部41からは3次元のデータが入力さ
れ、地図データ格納部3からは2次元の地図データが入
力されて、3次元景観の地図画面を生成する場合につい
て説明する。
Next, a case where the map screen generated by the display data synthesizing section 42 is a three-dimensional landscape will be described. Here, even if the generated map screen is a three-dimensional landscape, the objects created from the object model presentation information and the map data stored in the map data storage unit 3 need not necessarily be three-dimensional data. Absent. Therefore, first, the display data synthesizing unit 42 receives three-dimensional data from the object presentation information execution unit 41 and two-dimensional map data from the map data storage unit 3, and displays a three-dimensional landscape map screen. The case of generation will be described.

【0161】図21は、オブジェクト提示情報実行部4
1からは3次元のデータが入力され、地図データ格納部
3からは2次元の地図データが入力されて、鳥瞰図の地
図画面を生成する、表示データ合成部42の詳細な構成
について説明したブロック図である。
FIG. 21 shows the object presentation information execution unit 4
3 is a block diagram illustrating a detailed configuration of a display data synthesizing unit 42, which receives a two-dimensional map data from the map data storage unit 3 and generates a bird's-eye view map screen. It is.

【0162】図21において、表示データ合成部42
は、地図データ格納部3から2次元の地図データが入力
されて鳥瞰図の形の地図データに変形する鳥瞰図データ
変形部141と、オブジェクト提示情報実行部41から
3次元のデータが入力されて三次元のオブジェクトを作
成する三次元オブジェクト作成部142と、鳥瞰図デー
タ変形部141からのデータおよび三次元オブジェクト
作成部142からのデータが入力されてそれらを合成す
る三次元データ合成部143とを含む。
In FIG. 21, display data synthesizing section 42
Is a bird's-eye view data transformation unit 141 that receives two-dimensional map data from the map data storage unit 3 and transforms it into bird's-eye view map data, and receives three-dimensional data from the object presentation information execution unit 41. And a three-dimensional data synthesizing unit 143 that receives data from the bird's-eye view data deforming unit 141 and data from the three-dimensional object generating unit 142 and synthesizes them.

【0163】鳥瞰図データ変形部141は、地図データ
格納部3から2次元の地図データが入力されて、鳥瞰図
の形の地図データに変形する。2次元データから鳥瞰図
を作成する方法については、例えば、「鳥瞰図地図表示
ナビゲーションシステムの開発」(社団法人 自動車技
術会 学術講演前刷集962 1996−5)等に開示
されている。以下、2次元データから鳥瞰図を作成する
方法について説明する。
The bird's-eye view data transformation unit 141 receives two-dimensional map data from the map data storage unit 3 and transforms the data into a bird's-eye view form of map data. A method of creating a bird's-eye view from two-dimensional data is disclosed in, for example, "Development of a bird's-eye view map display navigation system" (Academic Lecture Collection 962 1996-5, the Society of Automotive Engineers of Japan). Hereinafter, a method of creating a bird's-eye view from two-dimensional data will be described.

【0164】図22は、二次元の地図データに対して透
視投影変換を施して鳥瞰図を作成する方法を説明した図
である。図22において、V(Vx,Vy,Vz)は視
点の座標を表す。S(Sx,Sy)はモニター上の鳥瞰
図画像の座標を表す。M(Mx,My,Mz)は2次元
地図上の座標を表す。なお、地図データは二次元のデー
タであるから、Mzは0である。E(Ex,Ey,E
z)は視点座標系で見た点Mの相対位置を表す。θは視
線の見下ろし角を表し、φは視線の方向角を表す。DS
は視点と画面との間の理論的距離を表す。
FIG. 22 is a diagram for explaining a method of creating a bird's-eye view by performing perspective projection transformation on two-dimensional map data. In FIG. 22, V (Vx, Vy, Vz) represents the coordinates of the viewpoint. S (Sx, Sy) represents the coordinates of the bird's-eye view image on the monitor. M (Mx, My, Mz) represents coordinates on a two-dimensional map. Since the map data is two-dimensional data, Mz is 0. E (Ex, Ey, E
z) represents the relative position of the point M viewed in the viewpoint coordinate system. θ represents the angle at which the line of sight is looked down, and φ represents the direction angle of the line of sight. DS
Represents the theoretical distance between the viewpoint and the screen.

【0165】ここで、視点の座標V(Vx,Vy,V
z)と、視線の見下ろし角θと、視線の方向角φとを定
めれば、2次元地図上の座標M(Mx,My,Mz)に
対して、鳥瞰図画像の座標S(Sx,Sy)を求めるこ
とができる。その算出式は、次式(1)のように表すこ
とができる。
Here, the coordinates of the viewpoint V (Vx, Vy, V
z), the line of sight angle θ, and the line of sight angle φ, the coordinates S (Sx, Sy) of the bird's-eye view image with respect to the coordinates M (Mx, My, Mz) on the two-dimensional map. Can be requested. The calculation formula can be expressed as the following formula (1).

【数1】 (Equation 1)

【0166】鳥瞰図データ変形部141は、例えば上式
(1)の計算を行って、地図データ格納部3から入力さ
れた2次元の地図データを、鳥瞰図の形の地図データに
変形する。鳥瞰図の形に変形された3次元の地図データ
は、三次元データ合成部143へ入力される。
The bird's-eye view data transformation unit 141 transforms the two-dimensional map data input from the map data storage unit 3 into map data in the form of a bird's-eye view, for example, by calculating the above equation (1). The three-dimensional map data transformed into a bird's eye view is input to the three-dimensional data synthesis unit 143.

【0167】また、三次元オブジェクト作成部142
は、オブジェクト提示情報実行部41から3次元のデー
タが入力されて、前述した図5のサブルーチンステップ
S133における処理を行い、3次元のオブジェクトを
作成する。生成されたオブジェクトは、三次元データ合
成部143へ入力される。
The three-dimensional object creation unit 142
Receives three-dimensional data from the object presentation information execution unit 41 and performs the processing in the above-described subroutine step S133 in FIG. 5 to create a three-dimensional object. The generated object is input to the three-dimensional data synthesis unit 143.

【0168】三次元データ合成部143は、入力された
3次元地図データおよびオブジェクトのデータを合成し
て、表示器5に出力する。図23は、このようにして作
成されたデータを表示器5が表示する場合の一例を示し
た図である。
The three-dimensional data synthesizing unit 143 synthesizes the input three-dimensional map data and the data of the object, and outputs the synthesized data to the display unit 5. FIG. 23 is a diagram illustrating an example of a case where the display 5 displays the data created in this manner.

【0169】図23において、鳥瞰図の形に表示された
地図上には、工事中を示す3次元のオブジェクトと、駐
車場の満車を示すオブジェクトとが配置されている。な
お、図23において、これらのオブジェクトは2次元の
オブジェクトのように見えたとしても、これらは視点が
変化することによってその形状が変化するような3次元
のオブジェクトを表しているものとする。
In FIG. 23, a three-dimensional object indicating that construction is in progress and an object indicating that the parking lot is full are arranged on a map displayed in a bird's eye view. In FIG. 23, even if these objects look like two-dimensional objects, they represent three-dimensional objects whose shapes change as the viewpoint changes.

【0170】次に、オブジェクト提示情報実行部41か
らは3次元のデータが入力され、地図データ格納部3か
らは2次元の地図データが入力されて、上述のような鳥
瞰図とは異なる3次元景観の地図画面が生成される場合
について説明する。
Next, three-dimensional data is input from the object presentation information execution unit 41, and two-dimensional map data is input from the map data storage unit 3, and a three-dimensional landscape different from the bird's-eye view as described above is input. The case where the map screen of is generated will be described.

【0171】図24は、オブジェクト提示情報実行部4
1からは3次元のデータが入力され、地図データ格納部
3からは2次元の地図データが入力されて、鳥瞰図とは
異なる3次元景観の地図画面を生成する、表示データ合
成部42の詳細な構成について説明したブロック図であ
る。
FIG. 24 shows the object presentation information execution unit 4
3 is input from the map data storage unit 3 and two-dimensional map data is input from the map data storage unit 3 to generate a map screen of a three-dimensional landscape different from the bird's-eye view. FIG. 3 is a block diagram illustrating a configuration.

【0172】図24において、表示データ合成部42
は、地図データ格納部3から2次元の地図データが入力
されて3次元の地図データを生成する三次元地図データ
作成部147と、オブジェクト提示情報実行部41から
3次元のデータが入力されて三次元のオブジェクトを作
成する三次元オブジェクト作成部142と、三次元地図
データ作成部147からのデータおよび三次元オブジェ
クト作成部142からのデータが入力されてそれらを合
成する三次元データ合成部143とを含む。
In FIG. 24, display data synthesizing section 42
The three-dimensional map data creation unit 147 that receives two-dimensional map data from the map data storage unit 3 to generate three-dimensional map data, and receives three-dimensional data from the object presentation information execution unit 41 A three-dimensional object creating unit 142 that creates an original object, and a three-dimensional data combining unit 143 that receives data from the three-dimensional map data creating unit 147 and data from the three-dimensional object creating unit 142 and combines them are described. Including.

【0173】図24において、三次元オブジェクト作成
部142と、三次元データ合成部143とは、図21に
おける場合と同様の構成および動作を行う。したがっ
て、これらの説明は省略し、以下、三次元地図データ作
成部147の構成および動作について説明する。
In FIG. 24, the three-dimensional object creating unit 142 and the three-dimensional data synthesizing unit 143 perform the same configuration and operation as in FIG. Therefore, description thereof will be omitted, and the configuration and operation of the three-dimensional map data creation unit 147 will be described below.

【0174】図25は、三次元地図データ作成部147
の詳細な構成を示したブロック図である。図25におい
て、三次元地図データ作成部147は、地図データ格納
部3からは2次元の地図データが入力されて、高さおよ
び幅の情報を付与する高さ・幅情報付与部1471と、
高さ・幅情報付与部1471からのデータが入力されて
3次元のオブジェクトを作成する3次元ポリゴン作成部
1472とを含む。
FIG. 25 shows a three-dimensional map data creation unit 147.
FIG. 3 is a block diagram showing a detailed configuration of FIG. In FIG. 25, a three-dimensional map data creation unit 147 receives a two-dimensional map data from the map data storage unit 3 and adds a height / width information to a height / width information giving unit 1471.
And a three-dimensional polygon creating unit 1472 that receives data from the height / width information giving unit 1471 and creates a three-dimensional object.

【0175】高さ・幅情報付与部1471は、入力され
た二次元の地図データに含まれるリンクの種類(例え
ば、側道リンクや高架リンクなど)および分岐ノードの
情報を利用し、典型的には所定のパターンをあてはめ
て、道路等の3次元形状を解析する。解析の結果から、
高さ・幅情報付与部1471は、当該道路等の2次元デ
ータに対して、高さおよび幅の情報を付与し、3次元の
地図データを生成する。
The height / width information providing unit 1471 typically uses the type of link (for example, a side road link or an elevated link) and branch node information contained in the input two-dimensional map data, and typically uses Analyzes a three-dimensional shape of a road or the like by applying a predetermined pattern. From the results of the analysis,
The height / width information giving unit 1471 gives height and width information to the two-dimensional data of the road or the like and generates three-dimensional map data.

【0176】3次元ポリゴン作成部1472は、高さ・
幅情報付与部1471から3次元の地図データを入力さ
れ、一般的なポリゴン作成手法を用いて、3次元のオブ
ジェクトを作成する。以上のように、図24の表示デー
タ合成部42は、鳥瞰図とは異なる3次元景観の地図画
面を生成する。
The three-dimensional polygon creating unit 1472 calculates the height
The three-dimensional map data is input from the width information providing unit 1471, and a three-dimensional object is created using a general polygon creation method. As described above, the display data synthesis unit 42 of FIG. 24 generates a map screen of a three-dimensional landscape different from the bird's-eye view.

【0177】次に、表示データ合成部42が、オブジェ
クト提示情報実行部41からは2次元のデータが入力さ
れ、地図データ格納部3からは3次元の地図データが入
力されて、3次元景観の地図画面を生成する場合につい
て説明する。
Next, the display data synthesizing unit 42 receives two-dimensional data from the object presentation information execution unit 41, and receives three-dimensional map data from the map data storage unit 3, and outputs a three-dimensional scene. A case where a map screen is generated will be described.

【0178】図26は、オブジェクト提示情報実行部4
1からは2次元のデータが入力され、地図データ格納部
3からは3次元の地図データが入力されて、3次元景観
の地図画面を生成する、表示データ合成部42の詳細な
構成について説明したブロック図である。
FIG. 26 shows the object presentation information execution unit 4
The detailed configuration of the display data synthesizing unit 42, which receives two-dimensional data from 1 and receives three-dimensional map data from the map data storage unit 3 and generates a three-dimensional landscape map screen, has been described. It is a block diagram.

【0179】図26において、表示データ合成部42
は、オブジェクト提示情報実行部41から2次元のデー
タが入力されて2次元のオブジェクトを作成する二次元
オブジェクト作成部145と、二次元のオブジェクトデ
ータが入力されて3次元座標に変換する二次元/三次元
座標変換部144と、地図データ格納部3から3次元の
地図データが入力され、二次元/三次元座標変換部14
4からの三次元のオブジェクトが入力されてそれらを合
成する三次元データ合成部143とを含む。
In FIG. 26, display data synthesizing section 42
Are a two-dimensional object creation unit 145 that receives two-dimensional data from the object presentation information execution unit 41 to create a two-dimensional object, and a two-dimensional object that receives two-dimensional object data and converts it into three-dimensional coordinates. The three-dimensional map data is input from the three-dimensional coordinate conversion unit 144 and the map data storage unit 3, and the two-dimensional / three-dimensional coordinate conversion unit 14 is input.
And a three-dimensional data synthesizing unit 143 that receives the three-dimensional objects from 4 and synthesizes them.

【0180】図26において、二次元オブジェクト作成
部145は、オブジェクト提示情報実行部41から2次
元のデータが入力されて、前述した図5のサブルーチン
ステップS133における処理を行い、2次元のオブジ
ェクトを作成する。
In FIG. 26, two-dimensional object creation unit 145 receives two-dimensional data from object presentation information execution unit 41 and performs the processing in subroutine step S133 shown in FIG. 5 to create a two-dimensional object. I do.

【0181】具体的には、前述のように、オブジェクト
モデル提示情報に含まれる2次元の形状情報として、複
数の画像ファイルが用意される。図27は、オブジェク
トモデル提示情報に含まれる2次元の形状情報として用
意された複数の画像ファイルを例示した図である。図2
7において、複数の画像はそれぞれ、事故画像と、工事
中画像と、渋滞画像との種類に分かれている。これらの
画像の種類は、各オブジェクトモデル提示情報に対応し
ている。また、各種類の画像にはさらに、遠距離用と、
中距離用と、近距離用とに分かれている。
More specifically, as described above, a plurality of image files are prepared as two-dimensional shape information included in the object model presentation information. FIG. 27 is a diagram exemplifying a plurality of image files prepared as two-dimensional shape information included in the object model presentation information. FIG.
In FIG. 7, the plurality of images are respectively classified into types of an accident image, a construction image, and a traffic jam image. These image types correspond to each object model presentation information. In addition, each type of image further includes
It is divided into medium-distance and short-distance.

【0182】まず、二次元オブジェクト作成部145
は、オブジェクトモデル提示情報に対応する画像の種類
を決定する。次に、二次元オブジェクト作成部145
は、決定された画像の種類の中から、遠距離用の画像、
中距離用の画像および近距離用の画像のいずれかを選択
する。ここで、前述のように、オブジェクトモデル提示
情報には形状に関する情報としてオブジェクトの位置を
表す位置情報が含まれる。当該位置情報は、3次元座標
によって表されている。図27において、遠距離用の画
像と、中距離用の画像と、近距離用の画像は、オブジェ
クトの位置を表す3次元座標と視点座標との距離に従っ
て決定される。したがって、典型的には、二次元オブジ
ェクト作成部145は、オブジェクトの位置を表す3次
元座標と視点座標との距離を計算して、当該距離が予め
定められたどの距離の範囲に含まれるかを判別する。
First, the two-dimensional object creation unit 145
Determines the type of image corresponding to the object model presentation information. Next, the two-dimensional object creation unit 145
Is the image type for long distance,
Select either the medium distance image or the short distance image. Here, as described above, the object model presentation information includes position information indicating the position of the object as information on the shape. The position information is represented by three-dimensional coordinates. In FIG. 27, the image for long distance, the image for medium distance, and the image for short distance are determined according to the distance between the three-dimensional coordinates indicating the position of the object and the viewpoint coordinates. Therefore, typically, the two-dimensional object creation unit 145 calculates the distance between the three-dimensional coordinates representing the position of the object and the viewpoint coordinates, and determines which predetermined range of the distance includes the distance. Determine.

【0183】二次元/三次元座標変換部144は、生成
された2次元のオブジェクトにおける2次元座標を、対
応する前述した位置情報に基づいて3次元座標に変換す
る。変換された3次元のオブジェクトデータは、三次元
データ合成部143へ入力される。
The two-dimensional / three-dimensional coordinate conversion unit 144 converts the two-dimensional coordinates of the generated two-dimensional object into three-dimensional coordinates based on the corresponding position information. The converted three-dimensional object data is input to the three-dimensional data synthesis unit 143.

【0184】三次元データ合成部143は、地図データ
格納部3から3次元の地図データを入力される。三次元
データ合成部143は、入力された地図データと、二次
元/三次元座標変換部144から入力された3次元のオ
ブジェクトデータとを合成して、3次元景観の地図画面
を作成する。作成された3次元景観の地図画面は、表示
器5へ入力される。
The three-dimensional data synthesizing unit 143 receives three-dimensional map data from the map data storage unit 3. The three-dimensional data synthesizing unit 143 synthesizes the input map data and the three-dimensional object data input from the two-dimensional / three-dimensional coordinate conversion unit 144 to create a three-dimensional landscape map screen. The created three-dimensional landscape map screen is input to the display 5.

【0185】また、以上のような構成によれば、二次元
オブジェクト作成部145において作成された2次元の
オブジェクトは、二次元/三次元座標変換部144にお
いて3次元のデータに変換された後、三次元データ合成
部143において3次元の地図データと合成される。し
かし、図26の表示データ合成部42は、二次元/三次
元座標変換部144が省略され、三次元データ合成部1
43に替えて二次元/三次元画像合成部が設けられるよ
うに構成されてもよい。ここで、二次元/三次元画像合
成部は、二次元オブジェクト作成部145において作成
された2次元のオブジェクトを3次元景観の地図画面上
に貼り付ける形で合成する。具体的には、二次元/三次
元画像合成部は、3次元の地図データをスクリーン座標
へ変換して3次元景観の地図画面を生成し、2次元のオ
ブジェクトのスクリーン座標を計算して、生成された3
次元景観の地図画面に対して2次元データのまま合成す
る。このように構成すれば、視点の移動に従って、オブ
ジェクトの形が変形することなく、常に画面に対して平
行に表示される。したがって、視認性のよいオブジェク
ト表示を行うことができる。
According to the above configuration, the two-dimensional object created by the two-dimensional object creation unit 145 is converted into three-dimensional data by the two-dimensional / three-dimensional coordinate conversion unit 144. The three-dimensional data is combined with the three-dimensional map data in the three-dimensional data combining unit 143. However, the two-dimensional / three-dimensional coordinate conversion part 144 is omitted from the display data synthesis part 42 in FIG.
Alternatively, a two-dimensional / three-dimensional image synthesizing unit may be provided in place of 43. Here, the two-dimensional / three-dimensional image synthesizing unit synthesizes the two-dimensional object created by the two-dimensional object creating unit 145 by pasting it on a three-dimensional landscape map screen. Specifically, the two-dimensional / three-dimensional image synthesizing unit converts the three-dimensional map data into screen coordinates, generates a three-dimensional landscape map screen, calculates the two-dimensional object screen coordinates, and generates the screen coordinates. Done 3
The two-dimensional data is synthesized with the two-dimensional landscape map screen. With this configuration, the shape of the object is always displayed parallel to the screen without being deformed as the viewpoint moves. Therefore, an object with good visibility can be displayed.

【0186】図28は、図26の表示データ合成部42
によって作成された3次元景観の地図画面を例示した図
である。図28に示されるように、図の左側には工事中
を示すオブジェクトが表示され、図の中央には、事故を
示すオブジェクトが表示され、その右下方へ配置された
道路上に渋滞の発生を示すオブジェクトが表示されてい
る。表示されている渋滞の発生を示すオブジェクトは、
前述のように視点座標との距離に従って、画面手前に近
づくほど大きく表示されている。したがって、2次元の
オブジェクトが用いられる場合であっても、3次元景観
上においてユーザに奥行きを感じさせることができる。
FIG. 28 shows the display data synthesizing section 42 shown in FIG.
FIG. 3 is a diagram illustrating a map screen of a three-dimensional landscape created by the above. As shown in FIG. 28, an object indicating that construction is in progress is displayed on the left side of the figure, and an object indicating an accident is displayed in the center of the figure. The indicated object is displayed. The displayed object indicating the occurrence of traffic congestion,
As described above, according to the distance from the viewpoint coordinates, the closer to the front of the screen, the larger the display. Therefore, even when a two-dimensional object is used, it is possible to make the user feel depth in the three-dimensional landscape.

【0187】最後に、表示データ合成部42が、オブジ
ェクト提示情報実行部41からは2次元のデータが入力
され、地図データ格納部3からは2次元の地図データが
入力されて、3次元景観の地図画面を生成する場合につ
いて説明する。
Finally, the display data synthesizing section 42 receives two-dimensional data from the object presentation information execution section 41 and two-dimensional map data from the map data storage section 3 and outputs a three-dimensional landscape image. A case where a map screen is generated will be described.

【0188】このような3次元景観の地図画面を生成す
る表示データ合成部42は、図20の表示データ合成部
42に対して、図21における鳥瞰図データ変形部14
1または図24における三次元地図データ作成部147
をさらに含むように構成すれば、前述と同様の構成部を
用いて構成することができる。
The display data synthesizing unit 42 for generating such a three-dimensional landscape map screen is different from the display data synthesizing unit 42 in FIG.
1 or the three-dimensional map data creation unit 147 in FIG.
Can be configured using the same components as described above.

【0189】すなわち、以上のような表示データ合成部
42は、オブジェクト提示情報実行部41から2次元の
データが入力されて2次元のオブジェクトを作成する二
次元オブジェクト作成部145と、二次元のオブジェク
トデータが入力されて3次元座標に変換する二次元/三
次元座標変換部144と、地図データ格納部3から2次
元の地図データが入力されて鳥瞰図の形の地図データに
変形する鳥瞰図データ変形部141または3次元の地図
データを生成する三次元オブジェクト作成部142と、
鳥瞰図データ変形部141または三次元オブジェクト作
成部142からの3次元地図データおよび二次元/三次
元座標変換部144からの三次元のオブジェクトデータ
が入力されてそれらを合成する三次元データ合成部14
3とを含む。このような表示データ合成部42における
各構成部の動作は前述と同様であるので、説明を省略す
る。
[0189] That is, the display data synthesizing section 42 as described above includes a two-dimensional object creating section 145 which receives two-dimensional data from the object presentation information executing section 41 to create a two-dimensional object, and a two-dimensional object. A two-dimensional / three-dimensional coordinate conversion unit 144 that receives data and converts it into three-dimensional coordinates, and a bird's-eye view data transformation unit that receives two-dimensional map data from the map data storage unit 3 and transforms it into bird's-eye-view map data. A three-dimensional object creation unit 142 for generating 141 or three-dimensional map data;
Three-dimensional map data from the bird's-eye view data deformation unit 141 or the three-dimensional object creation unit 142 and three-dimensional object data from the two-dimensional / three-dimensional coordinate conversion unit 144 are input and the three-dimensional data synthesis unit 14 synthesizes them.
3 is included. The operation of each component in the display data synthesizing section 42 is the same as that described above, and a description thereof will be omitted.

【0190】以上のように、表示データ合成部42がオ
ブジェクト提示情報実行部41から2次元のデータを入
力されて3次元景観の地図画面を生成する場合には、オ
ブジェクトモデル提示情報格納部6は、3次元データよ
りもデータ量の少ない2次元データを格納する。したが
って、オブジェクトモデル提示情報格納部6は、一定の
容量であれば、3次元データを格納する場合よりも多く
の種類のオブジェクトデータを格納することができ、同
種のデータを格納する場合であれば、容量を少なくする
ことができる。
As described above, when the display data synthesizing unit 42 receives two-dimensional data from the object presentation information execution unit 41 to generate a three-dimensional landscape map screen, the object model presentation information storage unit 6 And stores two-dimensional data having a smaller data amount than three-dimensional data. Therefore, the object model presentation information storage unit 6 can store more types of object data than the case of storing three-dimensional data, if it has a certain capacity, and if it stores the same type of data. , The capacity can be reduced.

【0191】さらに、表示データ合成部42がオブジェ
クト提示情報実行部41から2次元のデータを入力され
て3次元景観の地図画面を生成する場合には、ユーザは
2次元のオブジェクトが用いられていても、直感的に情
報を把握することができる。例えば、ユーザが道路を走
行中であって、進行方向に渋滞や事故が発生している場
合には、3次元景観の地図画面において渋滞や事故が発
生していることを示すオブジェクトが表示されることに
よって、ユーザは直感的に情報を把握することができ
る。
Further, when the display data synthesizing unit 42 receives two-dimensional data from the object presentation information executing unit 41 and generates a three-dimensional landscape map screen, the user uses a two-dimensional object. Also, the information can be grasped intuitively. For example, if the user is traveling on a road and a traffic jam or an accident has occurred in the traveling direction, an object indicating that a traffic jam or an accident has occurred is displayed on the map screen of the three-dimensional landscape. This allows the user to intuitively grasp the information.

【0192】図29は、3次元景観の地図画面上に、渋
滞が発生していることを示す2次元のオブジェクトが表
示される場合を例示した図である。図29に示されるよ
うに、複数の渋滞を示すオブジェクトが表示されること
によって、進行方向が渋滞していることを直感的に把握
することができる。
FIG. 29 is a diagram exemplifying a case where a two-dimensional object indicating that traffic congestion is occurring is displayed on a map screen of a three-dimensional landscape. As shown in FIG. 29, by displaying a plurality of objects indicating traffic congestion, it is possible to intuitively grasp that the traveling direction is congested.

【0193】また、図30は、3次元景観の地図画面上
に、事故が発生していることを示す2次元のオブジェク
トが表示される場合を例示した図である。図30に示さ
れるように、複数の事故を示すオブジェクトが表示され
ることによって、進行方向に事故が発生していることを
直感的に把握することができる。
FIG. 30 is a diagram exemplifying a case where a two-dimensional object indicating that an accident has occurred is displayed on a map screen of a three-dimensional landscape. As shown in FIG. 30, by displaying objects indicating a plurality of accidents, it is possible to intuitively grasp that an accident has occurred in the traveling direction.

【0194】さらに、例えば、ユーザが道路を走行中で
あって、前方に工事中の道路が存在する場合には、3次
元景観の地図画面において工事中であることを示すオブ
ジェクトが表示されることによって、ユーザは工事中の
道路を直感的に把握することができる。また、典型的に
は視点位置が前方に進行した場合には、オブジェクトの
大きさが拡大されることによって、ユーザは工事中の道
路をより直感的に把握することができる。
Further, for example, when the user is traveling on a road and there is a road under construction in front, an object indicating that construction is underway is displayed on the three-dimensional landscape map screen. Thereby, the user can intuitively grasp the road under construction. Also, typically, when the viewpoint position moves forward, the size of the object is enlarged, so that the user can more intuitively grasp the road under construction.

【0195】図31は、3次元景観の地図画面上に、工
事中であることを示す2次元のオブジェクトが表示され
る場合を例示した図である。また、図32は、図31か
ら視点位置がさらに前方へ移動した場合において、3次
元景観の地図画面上に、工事中であることを示す2次元
のオブジェクトが表示される場合を例示した図である。
図31および図32に示されるように、視点位置の進行
に伴ってオブジェクトの大きさが拡大されることによっ
て、ユーザは工事中の道路をより直感的に把握すること
ができる。
FIG. 31 is a diagram exemplifying a case in which a two-dimensional object indicating that construction is underway is displayed on a three-dimensional landscape map screen. FIG. 32 is a diagram illustrating a case where a two-dimensional object indicating that construction is underway is displayed on the three-dimensional landscape map screen when the viewpoint position is further moved forward from FIG. is there.
As shown in FIGS. 31 and 32, the user can more intuitively grasp the road under construction by expanding the size of the object with the progress of the viewpoint position.

【0196】(第2の実施形態)図33は、本発明の第
2の実施形態に係るナビゲーション装置の構成を示すブ
ロック図である。図33において、本ナビゲーション装
置は、入力部2と、地図データ格納部3と、地図データ
合成部4と、表示器5と、オブジェクトモデル提示情報
格納部6と、通信部7、位置検出部9と、経路選出部1
0と、誘導部11とを備えている。
(Second Embodiment) FIG. 33 is a block diagram showing a configuration of a navigation device according to a second embodiment of the present invention. In FIG. 33, the navigation device includes an input unit 2, a map data storage unit 3, a map data synthesis unit 4, a display unit 5, an object model presentation information storage unit 6, a communication unit 7, and a position detection unit 9. And route selection unit 1
0 and a guiding unit 11.

【0197】ここで、図33のナビゲーション装置にお
ける入力部2と、地図データ格納部3と、地図データ合
成部4と、表示器5と、オブジェクトモデル提示情報格
納部6と、通信部7とは、図1の地図表示装置において
対応するそれぞれの構成部とほぼ同様の構成および動作
を行う。また、図33のナビゲーション装置における位
置検出部9と、経路選出部10と、誘導部11との構成
および動作は、図42のナビゲーション装置において対
応するそれぞれの構成部とほぼ同様の構成および動作を
行う。
Here, the input unit 2, the map data storage unit 3, the map data synthesis unit 4, the display unit 5, the object model presentation information storage unit 6, and the communication unit 7 in the navigation device shown in FIG. 1 performs substantially the same configuration and operation as the corresponding components in the map display device of FIG. The configurations and operations of the position detection unit 9, the route selection unit 10, and the guidance unit 11 in the navigation device of FIG. 33 are substantially the same as those of the corresponding components in the navigation device of FIG. Do.

【0198】以上のような図33のナビゲーション装置
の構成は、図1における地図表示装置と同様に、一般的
なコンピュータシステムにおいて実現することができ
る。図34は、一般的なコンピュータシステムにおいて
実現された図33におけるナビゲーション装置の構成を
示した図である。
The configuration of the navigation device shown in FIG. 33 as described above can be realized in a general computer system, like the map display device shown in FIG. FIG. 34 is a diagram showing a configuration of the navigation device in FIG. 33 realized in a general computer system.

【0199】図34において、本ナビゲーション装置
は、CPU342と、ROM343と、RAM344
と、出力部345と、入力部346と、位置検出部34
9と、通信部338とを備えている。これらは共通のバ
スによって結合されている。ここで、ROM343およ
びRAM344は、図2のROM333およびRAM3
34と同様に、外部記憶媒体を用いた記憶装置を含むこ
とができるものとする。
Referring to FIG. 34, the navigation device includes a CPU 342, a ROM 343, and a RAM 344.
, An output unit 345, an input unit 346, and the position detection unit 34
9 and a communication unit 338. These are connected by a common bus. Here, the ROM 343 and the RAM 344 correspond to the ROM 333 and the RAM 3 in FIG.
Similarly to 34, a storage device using an external storage medium can be included.

【0200】また、位置検出部349は、GPS、電波
ビーコン受信装置、車速センサ、角速度センサ、絶対方
位センサ等で構成される。さらに、位置検出部349が
電波または光のビーコン受信装置で構成される場合であ
って、電波または光のビーコン信号に前述のような外部
からの情報が含まれている場合には、通信部338は省
略されてもよい。その場合には、図33における通信部
7の機能は、位置検出部349に含まれることになる。
[0200] The position detecting section 349 includes a GPS, a radio beacon receiver, a vehicle speed sensor, an angular speed sensor, an absolute direction sensor, and the like. Further, when the position detecting section 349 is configured by a radio wave or optical beacon receiving device and the radio wave or optical beacon signal includes the above-mentioned information from the outside, the communication section 338 is used. May be omitted. In that case, the function of the communication unit 7 in FIG. 33 is included in the position detection unit 349.

【0201】図34において、本ナビゲーション装置の
CPU342は、ROM343および/またはRAM3
44に記憶されたプログラムに従って動作する。したが
って、図33における地図データ合成部4、経路選出部
10および誘導部11の各機能は、それぞれ対応するプ
ログラムによって実現される。その場合、本ナビゲーシ
ョン装置は、典型的には当該ソフトウェア制御のための
プログラムを記憶した記録媒体を実装することになる。
もちろん、本装置は、通信回線から伝送されてくるプロ
グラムを利用してもよい。
Referring to FIG. 34, the CPU 342 of the present navigation device includes a ROM 343 and / or a RAM 3
It operates according to the program stored in 44. Therefore, each function of the map data synthesis unit 4, the route selection unit 10, and the guidance unit 11 in FIG. 33 is realized by a corresponding program. In this case, the present navigation device typically implements a recording medium storing a program for controlling the software.
Of course, the present apparatus may use a program transmitted from a communication line.

【0202】また、典型的には図33における地図デー
タ格納部3は、ROM343に含まれる。もっとも、地
図データ格納部3の全部または一部は、RAM344に
含まれてもよい。同様に、オブジェクトモデル提示情報
格納部は、RAM344に含まれるが、ROM343に
含まれてもよい。
[0202] Typically, the map data storage section 3 in FIG. However, all or a part of the map data storage unit 3 may be included in the RAM 344. Similarly, the object model presentation information storage unit is included in the RAM 344, but may be included in the ROM 343.

【0203】このように、図33に示された第2の実施
形態に係るナビゲーション装置は、従来のナビゲーショ
ン装置と同様に動作する部分を除いて、図1に示された
第1の実施形態に係る地図表示装置とほぼ同様に動作す
る。以下、本ナビゲーション装置における基本的な動作
について、図35を用いながら説明する。
As described above, the navigation apparatus according to the second embodiment shown in FIG. 33 has the same configuration as the first embodiment shown in FIG. 1 except for the parts that operate in the same manner as the conventional navigation apparatus. The operation is almost the same as that of the map display device. Hereinafter, a basic operation of the navigation device will be described with reference to FIG.

【0204】図35は、第2の実施形態に係るナビゲー
ション装置の基本的な処理の流れを表したフローチャー
トである。図35のステップS51において、経路選出
部10は、入力部2から目的地や表示した地図領域がユ
ーザによって指定され、位置検出部9から自車位置が渡
されて経路探索を行い、誘導部11に経路探索結果を渡
す。
FIG. 35 is a flowchart showing a basic processing flow of the navigation device according to the second embodiment. In step S51 of FIG. 35, the route selection unit 10 performs a route search by specifying the destination and the displayed map area from the input unit 2 and passing the own vehicle position from the position detection unit 9 to the guidance unit 11. Pass the route search result to.

【0205】次に、ステップS52において、誘導部1
1は、位置検出部9の自車位置に対応する該当領域の地
図表示を行うため、地図データ合成部4に地図データ合
成表示を依頼する。さらに、ステップS53において、
地図データ合成部4は、地図データ格納部3から地図デ
ータを読み込む。ステップS54において、誘導部11
は、通信部7から通信情報を読み込んで、地図データ合
成部4に渡す。サブルーチンステップS55において、
地図データ合成部4は、読み込まれた通信情報とオブジ
ェクトモデル提示情報格納部6に格納されている情報を
参照してオブジェクトを作成し、地図データに合成す
る。
Next, in step S52, the guiding unit 1
1 requests the map data synthesizing unit 4 to perform map data synthesizing display in order to display a map of a corresponding area corresponding to the vehicle position of the position detecting unit 9. Further, in step S53,
The map data synthesis unit 4 reads the map data from the map data storage unit 3. In step S54, the guiding unit 11
Reads the communication information from the communication unit 7 and passes it to the map data synthesis unit 4. In subroutine step S55,
The map data synthesizing unit 4 creates an object with reference to the read communication information and the information stored in the object model presentation information storage unit 6, and synthesizes the object with the map data.

【0206】ここで、図35のステップS53からサブ
ルーチンステップS55までの処理は、図3のステップ
S11からサブルーチンステップS13までの処理にほ
ぼ対応する。したがって、図35のサブルーチンステッ
プS55における処理の詳細も、図5における処理の詳
細と同様である。よって、以上の処理内容の説明は省略
する。
Here, the processing from step S53 to subroutine step S55 in FIG. 35 substantially corresponds to the processing from step S11 to subroutine step S13 in FIG. Therefore, the details of the processing in subroutine step S55 in FIG. 35 are the same as the details of the processing in FIG. Therefore, the description of the above processing content is omitted.

【0207】最後に、図35のステップS56におい
て、誘導部11は、位置検出部9の自車位置から目的地
に到着するまで誘導案内を続行するので、処理はステッ
プS52へ戻る。また、誘導部11は、目的地に到着し
たと判断した場合には、誘導案内を終了する。
Finally, in step S56 of FIG. 35, the guidance unit 11 continues the guidance and guidance until the vehicle reaches the destination from the own vehicle position of the position detection unit 9, so that the process returns to step S52. When the guiding unit 11 determines that the vehicle has arrived at the destination, the guiding unit 11 ends the guidance.

【0208】以上のように、第2の実施形態に係るナビ
ゲーション装置は、第1の実施形態に係る地図表示装置
とほぼ同様に、誘導案内時において、ユーザが視線を動
かさず、より直感的に情報を把握することができ、ま
た、送受信する情報量が僅少でありながら、オブジェク
トを記憶するための記憶媒体の容量を小さくすることが
できる。
As described above, in the navigation device according to the second embodiment, the user does not move his / her line of sight at the time of guidance, almost intuitively, as in the map display device according to the first embodiment. The information can be grasped, and the capacity of the storage medium for storing the object can be reduced while the amount of information to be transmitted and received is small.

【0209】(第3の実施形態)図36は、本発明の第
3の実施形態に係る地図表示装置の構成を示すブロック
図である。図36において、本地図表示装置は、入力部
2と、地図データ格納部3と、地図データ合成部4と、
表示器5と、オブジェクトモデル提示情報格納部6と、
通信部7と、時刻情報格納部8とを備えている。本地図
表示装置は、図1の地図表示装置に加えて、さらに時刻
情報格納部8が設けられる点が異なる。以下、時刻情報
格納部8の構成および動作について詳述する。
(Third Embodiment) FIG. 36 is a block diagram showing a configuration of a map display device according to a third embodiment of the present invention. In FIG. 36, the present map display device includes an input unit 2, a map data storage unit 3, a map data synthesis unit 4,
A display unit 5, an object model presentation information storage unit 6,
A communication unit 7 and a time information storage unit 8 are provided. This map display device is different from the map display device of FIG. 1 in that a time information storage unit 8 is further provided. Hereinafter, the configuration and operation of the time information storage unit 8 will be described in detail.

【0210】時刻情報格納部8は、光ディスク(CD、
DVD等)、ハードディスク、SDカードのような半導
体メモリカード等で構成され、時刻と場所とが相関関係
にある時刻情報を格納する。すなわち、時刻情報は、位
置が移動する移動体等について、その場所と時刻との対
応関係をテーブルや数式の形で規定するような情報をい
う。このような時刻情報の例としては、列車、バス、飛
行機、船舶等の時刻表、運行表、またはダイヤグラムな
どが挙げられる。時刻情報格納部8は、以上のような時
刻情報を予め格納していてもよいし、通信部7を介して
受信された時刻情報を新たに、あるいは更新するように
格納してもよい。
The time information storage section 8 stores an optical disk (CD,
DVD), a hard disk, a semiconductor memory card such as an SD card, or the like, and stores time information having a correlation between time and place. That is, the time information refers to information that defines the correspondence between the location and the time in the form of a table or a mathematical expression for a moving body or the like whose position moves. Examples of such time information include a timetable, an operation table, and a diagram of trains, buses, airplanes, ships, and the like. The time information storage unit 8 may store the above time information in advance, or may store the time information received via the communication unit 7 in a new or updated manner.

【0211】図37は、図36の時刻情報格納部8が格
納する時刻情報の内容を例示した図である。図37に示
されるように、ここでの時刻情報は、電車時刻表に対応
するデータであって、それらのデータの包含関係がツリ
ー構造によって表現されている。当該電車時刻表データ
は、KT電鉄やKH電鉄といった電鉄会社の種類ごとの
データを含む。また、電鉄会社の種類ごとのデータは、
当該電鉄会社の列車が経由する各駅のデータを含む。さ
らに、当該各駅のデータは、その駅が位置する緯度およ
び経度のデータと、駅ID番号と、行き先別に作成され
た発着時刻表データとを含む。時刻情報格納部8は、地
図データ合成部4の要求に従って、以上のようなデータ
から必要なデータを出力する。
FIG. 37 is a diagram exemplifying the contents of the time information stored in the time information storage unit 8 of FIG. As shown in FIG. 37, the time information here is data corresponding to a train timetable, and the inclusion relation of the data is represented by a tree structure. The train timetable data includes data for each type of railway company such as KT and KH. The data for each type of railway company is
Includes data for each station through which the railway company's train passes. Further, the data of each station includes latitude and longitude data where the station is located, a station ID number, and departure / arrival time table data created for each destination. The time information storage unit 8 outputs necessary data from the above data according to the request of the map data synthesis unit 4.

【0212】図38は、図36における地図データ合成
部4の動作を示すフローチャートである。以下、図38
を参照しつつ、地図データ合成部4の動作を説明する。
もっとも、図38のステップS41は図3のステップS
11と、図38のステップS43は図3のステップS1
2と、図38のサブルーチンステップS13は図3のサ
ブルーチンステップS13と、それぞれほぼ同一の内容
である。したがって、同一内容のステップに関する説明
は省略し、異なるステップのみを説明する。
FIG. 38 is a flowchart showing the operation of the map data synthesizing section 4 in FIG. Hereinafter, FIG.
The operation of the map data synthesizing unit 4 will be described with reference to FIG.
However, step S41 in FIG. 38 is the same as step S41 in FIG.
11 and step S43 in FIG. 38 correspond to step S1 in FIG.
2 and subroutine step S13 in FIG. 38 have substantially the same contents as subroutine step S13 in FIG. Therefore, description of steps having the same contents will be omitted, and only different steps will be described.

【0213】図38のサブルーチンステップS42にお
いて、地図データ合成部4は、時刻情報格納部8から時
刻情報を読み込み、時刻情報の表示を行うための処理を
行う。以下、当該サブルーチンステップS42の処理に
ついて説明する。
In subroutine step S42 of FIG. 38, map data synthesizing section 4 reads time information from time information storage section 8 and performs processing for displaying time information. Hereinafter, the process of the subroutine step S42 will be described.

【0214】図39は、図38のサブルーチンステップ
S42における詳細な処理を示したフローチャートであ
る。図39のステップS421において、地図データ合
成部4は、時刻情報格納部8から地図表示エリア内に関
係ある時刻情報を読み込む。具体的には、地図データ合
成部4は、地図表示エリアに含まれる緯度および経度を
算出して、時刻情報に含まれる各駅の緯度および経度と
照合し、適合する時刻情報のみを抽出してもよいし、地
図表示エリアに含まれる各駅の駅ID番号を参照して、
適合する時刻情報のみを抽出してもよい。例えば、ここ
では図37の電車時刻表において、KT電鉄会社の富雄
駅、東生駒駅、生駒駅が地図表示エリア内に含まれてい
るものとする。
FIG. 39 is a flowchart showing a detailed process in subroutine step S42 in FIG. In step S421 in FIG. 39, the map data synthesis unit 4 reads time information related to the map display area from the time information storage unit 8. Specifically, the map data synthesis unit 4 calculates the latitude and longitude included in the map display area, compares the calculated latitude and longitude with the latitude and longitude of each station included in the time information, and extracts only the appropriate time information. OK, referring to the station ID number of each station included in the map display area,
Only matching time information may be extracted. For example, here, it is assumed that in the train timetable of FIG. 37, Tomio Station, Higashi Ikoma Station, and Ikoma Station of the KT Railway Company are included in the map display area.

【0215】次に、ステップS422において、地図デ
ータ合成部4は、読み込まれた時刻情報の中で現在時刻
に地図表示エリアと関係する時刻情報を参照して、表示
すべき列車を選択する。具体的には、地図データ合成部
4は、時刻情報格納部8から読み込まれた時刻情報か
ら、現在時刻を基準とした所定の範囲の時刻を含む時刻
情報を参照する。そして、地図データ合成部4は、参照
された時刻情報から、地図表示エリアを走行する全ての
列車を特定する。
Next, in step S422, the map data synthesizing unit 4 selects a train to be displayed by referring to the time information related to the map display area at the current time in the read time information. Specifically, the map data synthesizing unit 4 refers to time information including a time in a predetermined range based on the current time from the time information read from the time information storage unit 8. Then, the map data synthesizing unit 4 specifies all trains traveling in the map display area from the referenced time information.

【0216】例えば、現在時刻が午前8:00であると
すれば、地図データ合成部4は、富雄駅、東生駒駅、生
駒駅において、発着時刻が8:00を挟んだ列車を特定
する。さらに、図40を参照しつつ、列車の特定方法に
ついて具体的に説明する。
For example, assuming that the current time is 8:00 am, the map data synthesizing unit 4 specifies the trains between 8:00 and 8:00 at Tomio Station, Higashi Ikoma Station, and Ikoma Station. Further, a method for specifying a train will be specifically described with reference to FIG.

【0217】図40は、各駅に該当する時刻表を対応す
る列車毎に説明した模式図である。図40によれば、A
列車は、東生駒駅を7:58に出発し、生駒駅に8:0
3に到着するので、現在時刻8:00を挟んだ列車であ
る。同様に、B列車は、富雄駅を7:59に出発し、東
生駒駅に8:02に到着するので、現在時刻8:00を
挟んだ列車である。このように、地図データ合成部4
は、およそ現在時刻8:00に地図表示エリア内を通過
する可能性のある列車を全て特定する。したがって、特
急列車のように所定の駅を通過する列車の位置を特定す
るためには、列車が通過する駅の時刻表に当該列車の通
過時刻も記載されていることが望ましい。しかし、時刻
表に通過時刻が記載されていなくとも、当該列車に関連
する発着時刻表と駅の位置関係から列車が駅を通過する
時刻を推測することができるので、通過時刻は必ずしも
必要ではない。また、時刻表は、列車の運行制御のため
の列車ダイアグラムであってもよく、各列車毎に時間に
対応する位置を規定する数式で表現されていてもよい。
FIG. 40 is a schematic diagram for explaining a timetable corresponding to each station for each corresponding train. According to FIG.
The train leaves Higashi-Ikoma Station at 7:58 and arrives at Ikoma Station at 8: 0
Since the train arrives at No. 3, it is a train sandwiching the current time of 8:00. Similarly, the B train departs from Tomio Station at 7:59 and arrives at Higashi Ikoma Station at 8:02, so it is a train sandwiching the current time of 8:00. Thus, the map data synthesizing unit 4
Specifies all the trains that may pass through the map display area at approximately 8:00 of the current time. Therefore, in order to specify the position of a train that passes through a predetermined station, such as an express train, it is desirable that the timetable of the train that passes the train also include the time at which the train passes. However, even if the passage time is not described in the timetable, the time at which the train passes through the station can be estimated from the departure / arrival timetable related to the train and the positional relationship between the stations, so the passage time is not necessarily required. . Further, the timetable may be a train diagram for train operation control, or may be expressed by a mathematical expression that defines a position corresponding to time for each train.

【0218】さらに、図39のステップS423におい
て、地図データ合成部4は、対応する時刻情報から、選
択された全ての列車の表示位置を計算する。例えば、図
40のA列車は、東生駒駅から生駒駅までの間を走って
おり、時刻表よりその間の所要時間は5分間であること
が計算できる。さらに、現在時刻8:00の時点で、A
列車は、東生駒駅を出発してから2分が経過しているこ
とから、A列車の位置は、東生駒駅から生駒駅へ2/5
だけ進んだ地点であることがわかる。したがって、地図
データ合成部4は、該当するリンクの緯度経度地点をA
列車の表示位置と算出する。また、B列車の表示位置も
同様に計算される。もちろん、以上は例示に過ぎず、各
リンク毎の時刻を予め計算した詳細な時刻表が用意され
てもよいし、列車ダイアグラムや数式等を参照して、該
当する列車の位置を算出してもよい。以上のように、地
図データ合成部4は、列車の位置や種類等の表示情報を
生成する。
Further, in step S423 in FIG. 39, the map data synthesizing unit 4 calculates display positions of all the selected trains from the corresponding time information. For example, the train A in FIG. 40 runs from Higashi-Ikoma Station to Ikoma Station, and it can be calculated from the timetable that the required time during that time is 5 minutes. Further, at the current time 8:00, A
Since two minutes have passed since the train departed from Higashi-Ikoma Station, the position of Train A was 2/5 from Higashi-Ikoma Station to Ikoma Station.
It turns out that it is a point advanced only. Therefore, the map data synthesizing unit 4 sets the latitude / longitude point of the corresponding link to A
Calculate the display position of the train. The display position of the B train is calculated in the same manner. Of course, the above is only an example, and a detailed timetable in which the time of each link is calculated in advance may be prepared, or the position of the corresponding train may be calculated by referring to a train diagram or a mathematical expression. Good. As described above, the map data synthesizing unit 4 generates display information such as the position and type of the train.

【0219】次に、サブルーチンステップS13におい
て、生成された列車の表示情報とオブジェクトモデル提
示情報格納部6の情報とを参照してオブジェクトを作成
し、地図データに合成する。サブルーチンステップS1
3の詳細な処理は、前述の図5におけるサブルーチンス
テップS13の詳細な処理と同様である。
Next, in a subroutine step S13, an object is created with reference to the generated train display information and the information in the object model presentation information storage section 6, and is synthesized with map data. Subroutine step S1
The detailed processing of No. 3 is the same as the detailed processing of subroutine step S13 in FIG. 5 described above.

【0220】例えば、列車を提示するためのオブジェク
トモデル提示情報が図9および図10のような関数で表
現されている場合には、前述と同様に、地図データ合成
部4は、対応する列車の表示情報を読み込んで、算出さ
れた列車位置に対応する地図データ表示空間座標を求め
る。さらに、地図データ合成部4は、列車の種類(対応
する電鉄会社や特急等の区別など)に適応した列車ポリ
ゴンや列車ビルボードを中間バッファに作成し、地図デ
ータ表示空間に配置する。
For example, when the object model presentation information for presenting a train is represented by a function as shown in FIGS. 9 and 10, the map data synthesizing unit 4 transmits the information of the corresponding train as described above. The display information is read and map data display space coordinates corresponding to the calculated train position are obtained. Further, the map data synthesizing unit 4 creates a train polygon or a train billboard suitable for the type of train (corresponding to the corresponding railway company, limited express, etc.) in the intermediate buffer and arranges the train polygon and the train billboard in the map data display space.

【0221】地図データ合成部4は、以上のようなステ
ップを経て生成された地図画面を表示器5へ入力する。
表示器5は、所定の地図上に走行中の列車オブジェクト
(列車ポリゴンや列車ビルボード)が配置されるような
地図画面をユーザに対して表示する。したがって、例え
ばユーザは、表示されている地図画面上を走行する列車
オブジェクトと、周囲の景色や実際に走行する列車とを
比較して、地図上の位置や方向をより直感的に把握する
ことができる。
The map data synthesizing section 4 inputs the map screen generated through the above steps to the display 5.
The display 5 displays to the user a map screen on which a running train object (train polygon or train billboard) is arranged on a predetermined map. Therefore, for example, the user can more intuitively grasp the position and direction on the map by comparing the train object traveling on the displayed map screen with the surrounding scenery and the actually traveling train. it can.

【0222】なお、外部より通信部7を介して地図表示
エリアと関係する時刻情報を受信することができる場合
には、図39におけるステップS421は省略すること
ができる。さらに、外部より通信部7を介して列車等の
位置情報等を受信することができる場合には、図39に
おけるステップS421およびステップS422は省略
することができる。
If time information relating to the map display area can be received from the outside via the communication unit 7, step S421 in FIG. 39 can be omitted. Furthermore, when position information of a train or the like can be received from the outside via the communication unit 7, steps S421 and S422 in FIG. 39 can be omitted.

【0223】また、本実施形態に係る地図表示装置の構
成に対して、位置検出部9、経路選出部10および誘導
部11をそれぞれ追加し、本地図表示装置と同様の機能
を含むナビゲーション装置を構成することもできる。す
なわち、本地図表示装置は、第1の実施形態に係る地図
表示装置に対して、さらに時刻情報格納部8が設けられ
るが、同様に、第2の実施形態に係るナビゲーションシ
ステムに対して、さらに時刻情報格納部8が設けるよう
に構成すれば、本地図表示装置と同様の機能を含むナビ
ゲーション装置を構成することができる。
In addition, a position detecting unit 9, a route selecting unit 10 and a guiding unit 11 are added to the configuration of the map display device according to the present embodiment, and a navigation device having the same functions as the present map display device is provided. It can also be configured. That is, in the present map display device, the time information storage unit 8 is further provided in the map display device according to the first embodiment, but similarly, the time information storage unit 8 is further provided in the navigation system according to the second embodiment. If the time information storage unit 8 is provided, a navigation device having the same functions as the present map display device can be configured.

【0224】なお、本実施形態に係る地図表示装置は、
第1の実施形態に係る地図表示装置に特有の機能の一部
または全部を併せて有していても、有していなくてもよ
い。同様に、本実施形態に係る地図表示装置を応用した
ナビゲーション装置は、第2の実施形態に係るナビゲー
ション装置に特有の機能の一部または全部を併せて有し
ていても、有していなくてもよい。
Note that the map display device according to the present embodiment
It may or may not have some or all of the functions unique to the map display device according to the first embodiment. Similarly, the navigation device to which the map display device according to the present embodiment is applied has some or all of the functions unique to the navigation device according to the second embodiment, or not. Is also good.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態に係る地図表示装置の
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a map display device according to a first embodiment of the present invention.

【図2】一般的なコンピュータシステムにおいて実現さ
れた第1の実施形態に係る地図表示装置の構成を示した
図である。
FIG. 2 is a diagram illustrating a configuration of a map display device according to a first embodiment implemented in a general computer system.

【図3】図1の地図表示装置における地図データ合成部
4の動作を示したフローチャートである。
FIG. 3 is a flowchart showing an operation of a map data synthesis unit 4 in the map display device of FIG.

【図4】通信部7から送られてくる情報の内容例をツリ
ー構造を用いて表した図である。
FIG. 4 is a diagram illustrating an example of the content of information sent from a communication unit 7 using a tree structure.

【図5】図3のサブルーチンステップS13の詳細な処
理を示すフローチャートである。
FIG. 5 is a flowchart showing a detailed process of subroutine step S13 in FIG. 3;

【図6】オブジェクトモデル提示情報の内容を例示して
説明した図である。
FIG. 6 is a diagram exemplifying and explaining the contents of object model presentation information.

【図7】図4に示されるようなその他情報に対応するオ
ブジェクトモデル提示情報の詳細な具体例を示した図で
ある。
FIG. 7 is a diagram showing a detailed specific example of object model presentation information corresponding to other information as shown in FIG. 4;

【図8】図7における時空間の振る舞い方に関する情報
が実行される状態を説明するための図である。
8 is a diagram for explaining a state in which information on the behavior of the spatiotemporal space in FIG. 7 is executed.

【図9】オブジェクトモデル提示情報格納部6に格納さ
れて、交通情報に対応する関数名と関数の内容を例示し
た図である。
FIG. 9 is a diagram exemplifying function names and function contents stored in an object model presentation information storage unit 6 and corresponding to traffic information.

【図10】オブジェクトモデル提示情報格納部6に格納
されて、緊急情報、駐車場情報および車間通信情報に対
応する関数名と関数の内容を例示した図である。
FIG. 10 is a diagram exemplifying function names and function contents stored in an object model presentation information storage unit 6 and corresponding to emergency information, parking lot information, and inter-vehicle communication information.

【図11】VICS等から通信部7を介して送られてき
た渋滞情報の構造例を示した図である。
FIG. 11 is a diagram illustrating an example of the structure of traffic congestion information transmitted from a VICS or the like via a communication unit 7;

【図12】渋滞情報提示関数が実行された場合の処理手
順を示したフローチャートである。
FIG. 12 is a flowchart showing a processing procedure when a traffic jam information presentation function is executed.

【図13】地図データ合成部4に格納されている地図デ
ータとの関係を示す対応テーブルを例示した図である。
FIG. 13 is a diagram exemplifying a correspondence table indicating a relationship with map data stored in a map data synthesis unit 4;

【図14】配置された車モデルと道路の関係を示すため
に、地図平面に対して垂直方向の上空から見下ろした地
図の模式図である。
FIG. 14 is a schematic diagram of a map looking down from the sky in a direction perpendicular to a map plane in order to show a relationship between a placed car model and roads.

【図15】図14が示す地図を補間点544から補間点
543の方向へ地上高から見た側面図である。
15 is a side view of the map shown in FIG. 14 as viewed from above ground in a direction from an interpolation point 544 to an interpolation point 543.

【図16】第1の実施形態に係る地図表示装置によって
生成された地図画面の一例を示した図である。
FIG. 16 is a diagram showing an example of a map screen generated by the map display device according to the first embodiment.

【図17】地図データ合成部4の詳細な構成を示したブ
ロック図である。
FIG. 17 is a block diagram showing a detailed configuration of the map data synthesizing unit 4.

【図18】オブジェクト提示情報実行部41の詳細な構
成を示したブロック図である。
FIG. 18 is a block diagram showing a detailed configuration of an object presentation information execution unit 41.

【図19】サブルーチンステップS133の詳細な処理
を示したフローチャートである。
FIG. 19 is a flowchart showing a detailed process of a subroutine step S133.

【図20】2次元景観を作成する場合における表示デー
タ合成部42の詳細な構成を示した図である。
FIG. 20 is a diagram illustrating a detailed configuration of a display data synthesizing unit 42 when a two-dimensional landscape is created.

【図21】鳥瞰図の地図画面を生成する、表示データ合
成部42の詳細な構成について説明したブロック図であ
る。
FIG. 21 is a block diagram illustrating a detailed configuration of a display data synthesis unit 42 that generates a bird's-eye view map screen.

【図22】二次元の地図データに対して透視投影変換を
施して鳥瞰図を作成する方法を説明した図である。
FIG. 22 is a diagram for explaining a method of creating a bird's-eye view by performing perspective projection transformation on two-dimensional map data.

【図23】表示データ合成部42によって生成された鳥
瞰図の地図画面の一例を示した図である。
FIG. 23 is a diagram showing an example of a bird's-eye view map screen generated by the display data synthesizing unit 42;

【図24】鳥瞰図とは異なる3次元景観の地図画面を生
成する、表示データ合成部42の詳細な構成について説
明したブロック図である。
FIG. 24 is a block diagram illustrating a detailed configuration of a display data synthesis unit that generates a map screen of a three-dimensional landscape different from a bird's-eye view.

【図25】三次元地図データ作成部147の詳細な構成
を示したブロック図である。
FIG. 25 is a block diagram showing a detailed configuration of a three-dimensional map data creation unit 147.

【図26】オブジェクト提示情報実行部41からは2次
元のデータが入力され、地図データ格納部3からは3次
元の地図データが入力されて、3次元景観の地図画面を
生成する、表示データ合成部42の詳細な構成について
説明したブロック図である。
FIG. 26 is a display data synthesis in which two-dimensional data is input from the object presentation information execution unit 41 and three-dimensional map data is input from the map data storage unit 3 to generate a three-dimensional landscape map screen. FIG. 4 is a block diagram illustrating a detailed configuration of a unit 42.

【図27】オブジェクトモデル提示情報に含まれる2次
元の形状情報として用意された複数の画像ファイルを例
示した図である。
FIG. 27 is a diagram illustrating a plurality of image files prepared as two-dimensional shape information included in object model presentation information.

【図28】図26の表示データ合成部42によって作成
された3次元景観の地図画面を例示した図である。
28 is a diagram exemplifying a three-dimensional landscape map screen created by the display data synthesizing unit 42 in FIG. 26;

【図29】3次元景観の地図画面上に、渋滞が発生して
いることを示す2次元のオブジェクトが表示される場合
を例示した図である。
FIG. 29 is a diagram exemplifying a case where a two-dimensional object indicating that congestion is occurring is displayed on a map screen of a three-dimensional landscape.

【図30】3次元景観の地図画面上に、事故が発生して
いることを示す2次元のオブジェクトが表示される場合
を例示した図である。
FIG. 30 is a diagram illustrating a case where a two-dimensional object indicating that an accident has occurred is displayed on a map screen of a three-dimensional landscape.

【図31】3次元景観の地図画面上に、工事中であるこ
とを示す2次元のオブジェクトが表示される場合を例示
した図である。
FIG. 31 is a diagram illustrating a case where a two-dimensional object indicating that construction is underway is displayed on a map screen of a three-dimensional landscape.

【図32】図31から視点がさらに前方へ移動した場合
において、3次元景観の地図画面上に、工事中であるこ
とを示す2次元のオブジェクトが表示される場合を例示
した図である。
FIG. 32 is a diagram exemplifying a case where a two-dimensional object indicating that construction is underway is displayed on a three-dimensional landscape map screen when the viewpoint moves further forward from FIG. 31;

【図33】本発明の第2の実施形態に係るナビゲーショ
ン装置の構成を示すブロック図である。
FIG. 33 is a block diagram illustrating a configuration of a navigation device according to a second embodiment of the present invention.

【図34】一般的なコンピュータシステムにおいて実現
された第2の実施形態に係るナビゲーション装置の構成
を示した図である。
FIG. 34 is a diagram illustrating a configuration of a navigation device according to a second embodiment implemented in a general computer system.

【図35】第2の実施形態に係るナビゲーション装置の
基本的な処理の流れを表したフローチャートである。
FIG. 35 is a flowchart illustrating a basic processing flow of the navigation device according to the second embodiment.

【図36】本発明の第3の実施形態に係る地図表示装置
の構成を示すブロック図である。
FIG. 36 is a block diagram illustrating a configuration of a map display device according to a third embodiment of the present invention.

【図37】時刻情報格納部8が格納する時刻情報の内容
を例示した図である。
FIG. 37 is a diagram exemplifying the contents of time information stored in a time information storage unit 8;

【図38】第3の実施形態に係る地図表示装置の地図デ
ータ合成部4の動作を示すフローチャートである。
FIG. 38 is a flowchart showing the operation of the map data synthesizing unit 4 of the map display device according to the third embodiment.

【図39】図38のサブルーチンステップS42におけ
る詳細な処理を示したフローチャートである。
FIG. 39 is a flowchart showing a detailed process in subroutine step S42 of FIG. 38.

【図40】各駅に該当する時刻表を対応する列車毎に説
明した模式図である。
FIG. 40 is a schematic diagram illustrating a timetable corresponding to each station for each corresponding train.

【図41】従来の地図表示装置の構成を示すブロック図
である。
FIG. 41 is a block diagram showing a configuration of a conventional map display device.

【図42】従来のナビゲーション装置の構成を示すブロ
ック図である。
FIG. 42 is a block diagram showing a configuration of a conventional navigation device.

【符号の説明】[Explanation of symbols]

2 入力部 3 地図データ格納部 4 地図データ合成部 5 表示器 6 オブジェクトモデル提示情報格納部 7 通信部 8 時刻情報格納部 9 位置検出部 10 経路選出部 11 誘導部 40 中央処理部 41 オブジェクト提示情報実行部 42 表示データ合成部 141 鳥瞰図データ変形部 142 三次元オブジェクト作成部 143 三次元データ合成部 144 二次元/三次元座標変換部 145 二次元オブジェクト作成部 146 二次元データ合成部 147 三次元地図データ作成部 332 CPU 333 ROM 334 RAM 335 出力部 336 入力部 338 通信部 342 CPU 343 ROM 344 RAM 345 出力部 346 入力部 348 通信部 349 位置検出部 411 オブジェクト提示情報制御部 412 解釈実行部 1471 高さ・幅情報付与部 1472 3次元ポリゴン作成部 2 input unit 3 map data storage unit 4 map data synthesis unit 5 display 6 object model presentation information storage unit 7 communication unit 8 time information storage unit 9 position detection unit 10 route selection unit 11 guidance unit 40 central processing unit 41 object presentation information Execution unit 42 Display data synthesis unit 141 Bird's-eye view data transformation unit 142 3D object creation unit 143 3D data synthesis unit 144 2D / 3D coordinate conversion unit 145 2D object creation unit 146 2D data synthesis unit 147 3D map data Creation unit 332 CPU 333 ROM 334 RAM 335 Output unit 336 Input unit 338 Communication unit 342 CPU 343 ROM 344 RAM 345 Output unit 346 Input unit 348 Communication unit 349 Position detection unit 411 Object presentation information control unit 412 Interpretation execution unit 1471 Height · Width information applying section 1472 three-dimensional polygon generation unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09B 29/00 G09B 29/00 A 29/10 29/10 A (72)発明者 阿多 輝明 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 山下 敦士 大阪府門真市大字門真1006番地 松下電器 産業株式会社内──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G09B 29/00 G09B 29/00 A 29/10 29/10 A (72) Inventor Teruaki Ata Kadoma, Osaka Matsushita Electric Industrial Co., Ltd. (72) Inventor: Atsushi Yamashita 1006 Kadoma, Kazuma, Osaka Prefecture

Claims (37)

【特許請求の範囲】[Claims] 【請求項1】 装置外部から送信されてきた通信情報を
所定の形状を有するオブジェクトとして地図上に合成表
示する地図表示装置であって、 ユーザからの指示が入力される入力部と、 地図情報を予め格納する地図データ格納部と、 前記オブジェクトを前記地図上に提示するためのオブジ
ェクトモデル提示情報を格納するオブジェクトモデル提
示情報格納部と、 送信されてきた前記通信情報を受信する通信部と、 前記通信情報および前記オブジェクトモデル提示情報格
納部から入力された対応するオブジェクトモデル提示情
報を解釈して前記オブジェクトを生成し、前記地図上に
合成する地図データ合成部と、 前記地図データ合成部によって合成された地図画面をユ
ーザに対して表示する表示部とを備える、地図表示装
置。
1. A map display device for composing and displaying communication information transmitted from the outside of a device as an object having a predetermined shape on a map, comprising: an input unit for inputting an instruction from a user; A map data storage unit that stores in advance, an object model presentation information storage unit that stores object model presentation information for presenting the object on the map, a communication unit that receives the transmitted communication information, A map data synthesizing unit for generating the object by interpreting the communication information and the corresponding object model presentation information input from the object model presentation information storage unit, and synthesizing the object on the map; A display unit for displaying a map screen to a user.
【請求項2】 前記通信情報は、経時的に変化する情報
を含むことを特徴とする、請求項1に記載の地図表示装
置。
2. The map display device according to claim 1, wherein the communication information includes information that changes with time.
【請求項3】 前記経時的に変化する情報は、複数であ
ることを特徴とする、請求項2に記載の地図表示装置。
3. The map display device according to claim 2, wherein the information that changes over time is plural.
【請求項4】 前記通信情報は、交通情報を含むことを
特徴とする、請求項1に記載の地図表示装置。
4. The map display device according to claim 1, wherein the communication information includes traffic information.
【請求項5】 前記通信情報は、広告情報を含むことを
特徴とする、請求項1に記載の地図表示装置。
5. The map display device according to claim 1, wherein the communication information includes advertisement information.
【請求項6】 前記通信情報は、前記地図上の所定の位
置に対応する位置情報を含むことを特徴とする、請求項
1に記載の地図表示装置。
6. The map display device according to claim 1, wherein the communication information includes position information corresponding to a predetermined position on the map.
【請求項7】 前記オブジェクトモデル提示情報は、前
記オブジェクトが有する形状に関する情報と、 前記オブジェクトにおける時空間の振る舞いに関する情
報とを含む、請求項1に記載の地図表示装置。
7. The map display device according to claim 1, wherein the object model presentation information includes information on a shape of the object and information on a spatiotemporal behavior of the object.
【請求項8】 前記オブジェクトにおける時空間の振る
舞いに関する情報は、コンパイルなしに実行することが
できるオブジェクト指向のインタープリタ言語を用いて
記述されることを特徴とする、請求項7に記載の地図表
示装置。
8. The map display device according to claim 7, wherein the information on the spatio-temporal behavior of the object is described using an object-oriented interpreted language that can be executed without compilation. .
【請求項9】 前記オブジェクトにおける時空間の振る
舞いに関する情報は、実行条件と、実行関数とを含む、
請求項7に記載の地図表示装置。
9. The information related to the spatio-temporal behavior of the object includes an execution condition and an execution function.
The map display device according to claim 7.
【請求項10】 前記地図データ合成部は、生成した前
記オブジェクトを、前記地図に含まれる道路に関連して
合成することを特徴とする、請求項1に記載の地図表示
装置。
10. The map display device according to claim 1, wherein the map data synthesizing unit synthesizes the generated object in relation to a road included in the map.
【請求項11】 前記オブジェクトは、複数が生成され
て、前記道路に沿って配置されることを特徴とする、請
求項10に記載の地図表示装置。
11. The map display device according to claim 10, wherein a plurality of the objects are generated and arranged along the road.
【請求項12】 前記地図データ合成部は、 前記通信情報および前記オブジェクトモデル提示情報格
納部から入力された対応するオブジェクトモデル提示情
報を解釈して実行するオブジェクト提示情報実行部と、 前記オブジェクト提示情報実行部における実行結果が入
力されて前記オブジェクトを生成するオブジェクト作成
部と、 前記オブジェクトを前記地図上に合成するデータ合成部
とを含む、請求項1に記載の地図表示装置。
12. An object presentation information execution unit that interprets and executes the communication information and the corresponding object model presentation information input from the object model presentation information storage unit, and the object presentation information. The map display device according to claim 1, further comprising: an object creating unit configured to generate the object by receiving an execution result of the execution unit; and a data combining unit configured to combine the object on the map.
【請求項13】 前記地図データ合成部は、前記地図デ
ータ格納部から入力された2次元データの地図情報に基
づいて3次元の地図を作成する三次元地図作成部をさら
に含み、 前記データ合成部は、前記オブジェクトを前記三次元地
図作成部が作成した地図上に合成することを特徴とす
る、請求項12に記載の地図表示装置。
13. The map data synthesis unit further includes a three-dimensional map creation unit that creates a three-dimensional map based on map information of two-dimensional data input from the map data storage unit, 13. The map display device according to claim 12, wherein the object is combined with the object on a map created by the three-dimensional map creating unit.
【請求項14】 前記地図データ合成部は、前記オブジ
ェクト作成部が生成した2次元のオブジェクトを3次元
のオブジェクトへ変換する二次元/三次元座標変換部を
さらに含み、 前記データ合成部は、前記二次元/三次元座標変換部に
よって変換された3次元のオブジェクトを前記地図上に
合成することを特徴とする、請求項12に記載の地図表
示装置。
14. The map data synthesis unit further includes a two-dimensional / three-dimensional coordinate conversion unit that converts a two-dimensional object generated by the object creation unit into a three-dimensional object. 13. The map display device according to claim 12, wherein the three-dimensional object converted by the two-dimensional / three-dimensional coordinate conversion unit is synthesized on the map.
【請求項15】 所定の経路を定期的に運行する移動体
の位置に対応する時刻情報を格納する時刻情報格納部を
さらに備え、 前記地図データ合成部は、さらに前記時刻情報を参照し
て、前記移動体に対応する前記オブジェクトを生成し、
前記地図上に合成することを特徴とする、請求項1に記
載の地図表示装置。
15. A time information storage unit for storing time information corresponding to a position of a moving body that periodically travels on a predetermined route, wherein the map data synthesizing unit further refers to the time information, Generating the object corresponding to the moving object;
The map display device according to claim 1, wherein the map is synthesized on the map.
【請求項16】 前記地図データ合成部は、前記時刻情
報を参照して、現在時刻において前記地図画面内に表示
されるべき前記移動体に対応するオブジェクトのみを選
択し、選択されたオブジェクトの現在時刻における前記
地図上の位置を算出して、前記地図上に合成することを
特徴とする、請求項15に記載の地図表示装置。
16. The map data synthesizing unit refers to the time information, selects only an object corresponding to the moving object to be displayed on the map screen at a current time, and selects a current object of the selected object. 16. The map display device according to claim 15, wherein a position on the map at a time is calculated and synthesized on the map.
【請求項17】 装置外部から送信されてきた通信情報
を所定の形状を有するオブジェクトとして地図上に合成
表示し、目的地までの誘導案内を行うナビゲーション装
置であって、 ユーザからの指示が入力される入力部と、 現在位置を検出する位置検出部と、 地図情報を予め格納する地図データ格納部と、 前記オブジェクトを前記地図上に提示するためのオブジ
ェクトモデル提示情報を予め格納するオブジェクトモデ
ル提示情報格納部と、 前記入力部から入力された前記指示と、前記位置検出部
が検出した前記現在位置と、前記地図データ格納部に格
納された前記地図情報とに基づいて、目的地までの経路
を選出する経路選出部と、 送信されてきた前記通信情報を受信する通信部と、 前記通信情報および前記オブジェクトモデル提示情報格
納部から入力された対応するオブジェクトモデル提示情
報を解釈して前記オブジェクトを生成し、前記地図上に
合成する地図データ合成部と、 前記通信部によって受信された前記通信情報と、前記経
路選出部によって選出された前記経路と、前記位置検出
部によって検出された前記現在位置と、前記地図データ
格納部からの前記地図情報とが入力されて、目的地まで
の誘導案内を生成すると共に、前記地図データ合成部に
よって合成された地図画面を出力する誘導部と、 前記誘導部から入力された前記地図画面をユーザに対し
て表示する表示部とを備える、ナビゲーション装置。
17. A navigation device that displays communication information transmitted from outside the device as an object having a predetermined shape on a map and guides the user to a destination, wherein an instruction from a user is input. An input unit, a position detection unit that detects a current position, a map data storage unit that stores map information in advance, and an object model presentation information that stores object model presentation information for presenting the object on the map in advance. A storage unit, based on the instruction input from the input unit, the current position detected by the position detection unit, and the map information stored in the map data storage unit, based on the route to the destination, A route selection unit to select, a communication unit to receive the transmitted communication information, the communication information and the object model presentation information A map data synthesizing unit for interpreting the corresponding object model presentation information input from the storage unit, generating the object, and synthesizing the object on the map, the communication information received by the communication unit, and the route selection unit The route selected by the above, the current position detected by the position detection unit, and the map information from the map data storage unit are input to generate guidance for reaching a destination, and A navigation device, comprising: a guide unit that outputs a map screen combined by a data combining unit; and a display unit that displays the map screen input from the guide unit to a user.
【請求項18】 前記オブジェクトモデル提示情報は、 前記オブジェクトが有する形状に関する情報と、 前記オブジェクトにおける時空間の振る舞いに関する情
報とを含む、請求項17に記載のナビゲーション装置。
18. The navigation device according to claim 17, wherein the object model presentation information includes information on a shape of the object and information on a spatiotemporal behavior of the object.
【請求項19】 前記オブジェクトにおける時空間の振
る舞いに関する情報は、コンパイルなしに実行すること
ができるオブジェクト指向のインタープリタ言語を用い
て記述されることを特徴とする、請求項18に記載のナ
ビゲーション装置。
19. The navigation device according to claim 18, wherein the information on the spatiotemporal behavior of the object is described using an object-oriented interpreted language that can be executed without compilation.
【請求項20】 前記オブジェクトにおける時空間の振
る舞いに関する情報は、実行条件と、実行関数とを含
む、請求項18に記載のナビゲーション装置。
20. The navigation device according to claim 18, wherein the information on the behavior of the object in time and space includes an execution condition and an execution function.
【請求項21】 前記地図データ合成部は、生成した前
記オブジェクトを、前記地図に含まれる道路に関連して
合成することを特徴とする、請求項17に記載のナビゲ
ーション装置。
21. The navigation device according to claim 17, wherein the map data synthesizing unit synthesizes the generated object in relation to a road included in the map.
【請求項22】 前記オブジェクトは、複数が生成され
て、前記道路に沿って配置されることを特徴とする、請
求項21に記載のナビゲーション装置。
22. The navigation device according to claim 21, wherein a plurality of the objects are generated and arranged along the road.
【請求項23】 前記地図データ合成部は、 前記通信情報および前記オブジェクトモデル提示情報格
納部から入力された対応するオブジェクトモデル提示情
報を解釈して実行するオブジェクト提示情報実行部と、 前記オブジェクト提示情報実行部における実行結果が入
力されて前記オブジェクトを生成するオブジェクト作成
部と、 前記オブジェクトを前記地図上に合成するデータ合成部
とを含む、請求項17に記載のナビゲーション装置。
23. An object presentation information execution unit that interprets and executes the communication information and the corresponding object model presentation information input from the object model presentation information storage unit, and the object presentation information. The navigation device according to claim 17, further comprising: an object creating unit that receives the execution result of the execution unit to generate the object, and a data combining unit that combines the object on the map.
【請求項24】 前記地図データ合成部は、前記地図デ
ータ格納部から入力された2次元データの地図情報に基
づいて3次元の地図を作成する三次元地図作成部をさら
に含み、 前記データ合成部は、前記オブジェクトを前記三次元地
図作成部が作成した地図上に合成することを特徴とす
る、請求項23に記載のナビゲーション装置。
24. The map data synthesizing unit further includes a three-dimensional map creator that creates a three-dimensional map based on map information of two-dimensional data input from the map data storage unit, The navigation apparatus according to claim 23, wherein the object is combined with the map created by the three-dimensional map creating unit.
【請求項25】 前記地図データ合成部は、前記オブジ
ェクト作成部が生成した2次元のオブジェクトを3次元
のオブジェクトへ変換する二次元/三次元座標変換部を
さらに含み、 前記データ合成部は、前記二次元/三次元座標変換部に
よって変換された3次元のオブジェクトを前記地図上に
合成することを特徴とする、請求項23に記載のナビゲ
ーション装置。
25. The map data synthesis unit further includes a two-dimensional / three-dimensional coordinate conversion unit that converts a two-dimensional object generated by the object creation unit into a three-dimensional object. 24. The navigation device according to claim 23, wherein a three-dimensional object converted by a two-dimensional / three-dimensional coordinate conversion unit is synthesized on the map.
【請求項26】 所定の経路を定期的に運行する移動体
の位置に対応する時刻情報を予め格納する時刻情報格納
部をさらに備え、 前記地図データ合成部は、さらに前記時刻情報を参照し
て、前記移動体に対応する前記オブジェクトを生成し、
前記地図上に合成することを特徴とする、請求項17に
記載のナビゲーション装置。
26. A vehicle according to claim 26, further comprising: a time information storage unit for storing in advance time information corresponding to a position of the moving object which periodically travels on a predetermined route, wherein said map data synthesizing unit further refers to said time information. Generating the object corresponding to the moving object;
18. The navigation device according to claim 17, wherein the composition is performed on the map.
【請求項27】 前記地図データ合成部は、前記時刻情
報を参照して、現在時刻において前記地図画面内に表示
されるべき前記移動体に対応するオブジェクトのみを選
択し、選択されたオブジェクトの現在時刻における前記
地図上の位置を算出して、前記地図上に合成することを
特徴とする、請求項26に記載のナビゲーション装置。
27. The map data synthesizing unit selects only an object corresponding to the moving object to be displayed in the map screen at a current time with reference to the time information, and selects a current object of the selected object. 27. The navigation device according to claim 26, wherein a position on the map at a time is calculated and synthesized on the map.
【請求項28】 外部から送信されてきた通信情報を所
定の形状を有するオブジェクトとして地図上に合成表示
する地図表示方法であって、 ユーザからの指示が入力される入力ステップと、 送信されてきた前記通信情報を受信する通信ステップ
と、 前記通信情報および対応する前記オブジェクトを前記地
図上に提示するためのオブジェクトモデル提示情報を解
釈して前記オブジェクトを生成し、前記地図上に合成す
る地図データ合成ステップと、 前記地図データ合成ステップにおいて合成された地図画
面をユーザに対して表示する表示ステップとを備える、
地図表示方法。
28. A map display method for combining and displaying communication information transmitted from outside as an object having a predetermined shape on a map, comprising: an input step of receiving an instruction from a user; A communication step of receiving the communication information; interpreting object information presentation information for presenting the communication information and the corresponding object on the map, generating the object, and synthesizing map data on the map And a display step of displaying a map screen synthesized in the map data synthesis step to a user.
Map display method.
【請求項29】 前記地図データ合成ステップは、 前記通信情報および対応する前記オブジェクトモデル提
示情報を解釈して実行するオブジェクト提示情報実行ス
テップと、 前記オブジェクト提示情報実行ステップにおける実行結
果から前記オブジェクトを生成するオブジェクト作成ス
テップと、 前記オブジェクトを前記地図上に合成するデータ合成ス
テップとを含む、請求項28に記載の地図表示方法。
29. An object presentation information execution step of interpreting and executing the communication information and the corresponding object model presentation information, and generating the object from an execution result in the object presentation information execution step. 29. The map display method according to claim 28, further comprising: an object creating step of combining the object; and a data combining step of combining the object on the map.
【請求項30】 前記地図データ合成ステップは、2次
元データの前記地図情報に基づいて3次元の地図を作成
する三次元地図作成ステップをさらに含み、前記データ
合成ステップは、前記三次元地図作成ステップにおいて
作成された地図上に前記オブジェクトを合成することを
特徴とする、請求項29に記載の地図表示方法。
30. The map data synthesizing step further includes a three-dimensional map creation step of creating a three-dimensional map based on the map information of two-dimensional data, wherein the data synthesis step is the three-dimensional map creation step. 30. The map display method according to claim 29, wherein the object is synthesized on the map created in step (a).
【請求項31】 前記地図データ合成ステップは、前記
オブジェクト作成ステップにおいて作成された2次元の
オブジェクトを3次元のオブジェクトへ変換する二次元
/三次元座標変換ステップをさらに含み、 前記データ合成ステップは、前記二次元/三次元座標変
換ステップにおいて変換された3次元のオブジェクトを
前記地図上に合成することを特徴とする、請求項29に
記載の地図表示方法。
31. The map data synthesizing step further includes a two-dimensional / three-dimensional coordinate conversion step of converting the two-dimensional object created in the object creating step into a three-dimensional object. 30. The map display method according to claim 29, wherein the three-dimensional object converted in the two-dimensional / three-dimensional coordinate conversion step is synthesized on the map.
【請求項32】 前記地図データ合成ステップは、所定
の経路を定期的に運行する移動体の位置に対応する時刻
情報を参照して、前記移動体に対応する前記オブジェク
トを生成し、前記地図上に合成することを特徴とする、
請求項28に記載の地図表示方法。
32. The map data synthesizing step generates the object corresponding to the moving object with reference to time information corresponding to the position of the moving object that periodically operates a predetermined route, and generates the object on the map. Characterized by being synthesized into
The map display method according to claim 28.
【請求項33】 外部から送信されてきた通信情報を所
定の形状を有するオブジェクトとして地図上に合成表示
するナビゲーション方法であって、 ユーザからの指示が入力される入力ステップと、 送信されてきた前記通信情報を受信する通信ステップ
と、 現在位置を検出する位置検出ステップと、 前記通信情報および対応する前記オブジェクトを前記地
図上に提示するためのオブジェクトモデル提示情報を解
釈して前記オブジェクトを生成し、前記地図上に合成す
る地図データ合成ステップと、 前記入力ステップにおいて入力された前記指示と、前記
位置検出ステップにおいて検出された前記現在位置と、
前記地図情報とに基づいて、目的地までの経路を選出す
る経路選出ステップと、 前記通信ステップにおいて受信された前記通信情報と、
前記経路選出ステップにおいて選出された前記経路と、
前記位置検出ステップにおいて検出された前記現在位置
と、前記地図情報とに基づいて、目的地までの誘導案内
を生成すると共に、前記地図データ合成ステップにおい
て合成された地図画面を出力する誘導ステップと、 前記誘導ステップにおいて出力された前記地図画面をユ
ーザに対して表示する表示ステップとを備える、ナビゲ
ーション方法。
33. A navigation method for composing and displaying communication information transmitted from the outside as an object having a predetermined shape on a map, comprising: an input step of inputting an instruction from a user; A communication step of receiving communication information; a position detection step of detecting a current position; and generating the object by interpreting the communication information and object model presentation information for presenting the corresponding object on the map; A map data synthesizing step of synthesizing on the map, the instruction input in the input step, the current position detected in the position detecting step,
A route selection step of selecting a route to a destination based on the map information; and the communication information received in the communication step;
The route selected in the route selecting step;
A guidance step of generating a guidance to a destination based on the current position detected in the position detection step and the map information, and outputting a map screen synthesized in the map data synthesis step; Displaying the map screen output in the guiding step to a user.
【請求項34】 外部から送信されてきた通信情報を所
定の形状を有するオブジェクトとして地図上に合成表示
する地図表示装置に、 前記通信情報および前記オブジェクトを前記地図上に提
示するためのオブジェクトモデル提示情報を解釈して実
行するオブジェクト提示情報実行ステップと、 前記オブジェクト提示情報実行ステップにおける実行結
果から前記オブジェクトを生成するオブジェクト作成ス
テップと、 前記オブジェクトを前記地図上に合成するデータ合成ス
テップとを実行させるためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体。
34. An object model presentation for presenting the communication information and the object on the map, to a map display device for composing and displaying communication information transmitted from the outside as an object having a predetermined shape on a map. Executing an object presentation information execution step of interpreting and executing information; an object creation step of generating the object from an execution result in the object presentation information execution step; and a data synthesis step of synthesizing the object on the map. Readable recording medium on which a program for recording is recorded.
【請求項35】 外部から送信されてきた通信情報を所
定の形状を有するオブジェクトとして地図上に合成表示
するナビゲーション装置に、 前記通信情報および対応する前記オブジェクトを地図上
に提示するためのオブジェクトモデル提示情報を解釈し
て前記オブジェクトを生成し、前記地図上に合成する地
図データ合成ステップと、 ユーザから入力された指示と、現在位置と、地図情報と
に基づいて、目的地までの経路を選出する経路選出ステ
ップと、 前記通信情報と、前記経路選出ステップにおいて選出さ
れた前記経路と、前記現在位置と、前記地図情報とに基
づいて、目的地までの誘導案内を生成すると共に、前記
地図データ合成ステップにおいて合成された地図画面を
出力する誘導ステップとを実行させるためのプログラム
を記録したコンピュータ読み取り可能な記録媒体。
35. An object model presentation for presenting the communication information and the corresponding object on a map to a navigation device that synthesizes and displays communication information transmitted from outside as an object having a predetermined shape on a map. A map data synthesizing step of interpreting information to generate the object and synthesize the object on the map; selecting a route to a destination based on an instruction input by a user, a current position, and map information. A route selecting step; generating guidance for reaching a destination based on the communication information, the route selected in the route selecting step, the current position, and the map information; Recording a program for executing a guidance step of outputting a map screen synthesized in the step. Computer readable recording medium.
【請求項36】 外部から送信されてきた通信情報を所
定の形状を有するオブジェクトとして地図上に合成表示
する地図表示装置に、 前記通信情報および前記オブジェクトを前記地図上に提
示するためのオブジェクトモデル提示情報を解釈して実
行するオブジェクト提示情報実行ステップと、 前記オブジェクト提示情報実行ステップにおける実行結
果から前記オブジェクトを生成するオブジェクト作成ス
テップと、 前記オブジェクトを前記地図上に合成するデータ合成ス
テップとを実行させるためのコンピュータプログラム。
36. An object model presentation for presenting the communication information and the object on the map, on a map display device for composing and displaying communication information transmitted from the outside as an object having a predetermined shape on a map. Executing an object presentation information execution step of interpreting and executing information; an object creation step of generating the object from an execution result in the object presentation information execution step; and a data synthesis step of synthesizing the object on the map. Computer program for.
【請求項37】 外部から送信されてきた通信情報を所
定の形状を有するオブジェクトとして地図上に合成表示
するナビゲーション装置に、 前記通信情報および対応する前記オブジェクトを地図上
に提示するためのオブジェクトモデル提示情報を解釈し
て前記オブジェクトを生成し、前記地図上に合成する地
図データ合成ステップと、 ユーザから入力された指示と、現在位置と、地図情報と
に基づいて、目的地までの経路を選出する経路選出ステ
ップと、 前記通信情報と、前記経路選出ステップにおいて選出さ
れた前記経路と、前記現在位置と、前記地図情報とに基
づいて、目的地までの誘導案内を生成すると共に、前記
地図データ合成ステップにおいて合成された地図画面を
出力する誘導ステップとを実行させるためのコンピュー
タプログラム。
37. An object model presentation for presenting the communication information and the corresponding object on a map to a navigation device that synthesizes and displays communication information transmitted from the outside as an object having a predetermined shape on a map. A map data synthesizing step of interpreting information to generate the object and synthesize the object on the map; selecting a route to a destination based on an instruction input by a user, a current position, and map information. A route selecting step; generating guidance for reaching a destination based on the communication information, the route selected in the route selecting step, the current position, and the map information; And a guiding step of outputting a map screen synthesized in the step. Ram.
JP2001076751A 2000-03-17 2001-03-16 Map display and automobile navigation system Withdrawn JP2001330451A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001076751A JP2001330451A (en) 2000-03-17 2001-03-16 Map display and automobile navigation system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000077293 2000-03-17
JP2000-77293 2000-03-17
JP2001076751A JP2001330451A (en) 2000-03-17 2001-03-16 Map display and automobile navigation system

Publications (1)

Publication Number Publication Date
JP2001330451A true JP2001330451A (en) 2001-11-30

Family

ID=26587893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001076751A Withdrawn JP2001330451A (en) 2000-03-17 2001-03-16 Map display and automobile navigation system

Country Status (1)

Country Link
JP (1) JP2001330451A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007093276A (en) * 2005-09-27 2007-04-12 Alpine Electronics Inc Place search device and on-vehicle navigation device
JP2007102238A (en) * 2006-10-23 2007-04-19 Zenrin Co Ltd Information provision using electronic map data capable of three-dimensional display
WO2007105522A1 (en) * 2006-03-14 2007-09-20 Pioneer Corporation Information display device, information display method, information display program, and recording medium
JP2009031308A (en) * 2008-10-30 2009-02-12 Zenrin Co Ltd Navigation system and data structure for electronic map data
US8103443B2 (en) 2003-07-25 2012-01-24 Triangle Software Llc System and method for delivering departure notifications
US8531312B2 (en) 2002-03-05 2013-09-10 Triangle Software Llc Method for choosing a traffic route
JP2014505267A (en) * 2010-12-01 2014-02-27 マイクロソフト コーポレーション Map with media icons
US8718910B2 (en) 2010-11-14 2014-05-06 Pelmorex Canada Inc. Crowd sourced traffic reporting
US8725396B2 (en) 2011-05-18 2014-05-13 Pelmorex Canada Inc. System for providing traffic data and driving efficiency data
US8781718B2 (en) 2012-01-27 2014-07-15 Pelmorex Canada Inc. Estimating time travel distributions on signalized arterials
US8982116B2 (en) 2009-03-04 2015-03-17 Pelmorex Canada Inc. Touch screen based interaction with traffic data
JP2015079354A (en) * 2013-10-17 2015-04-23 株式会社ジオ技術研究所 Three-dimensional map display system using virtual reality
US9046924B2 (en) 2009-03-04 2015-06-02 Pelmorex Canada Inc. Gesture based interaction with traffic data
US9448690B2 (en) 2009-03-04 2016-09-20 Pelmorex Canada Inc. Controlling a three-dimensional virtual broadcast presentation
US10223909B2 (en) 2012-10-18 2019-03-05 Uber Technologies, Inc. Estimating time travel distributions on signalized arterials

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489842B2 (en) 2002-03-05 2016-11-08 Pelmorex Canada Inc. Method for choosing a traffic route
US9082303B2 (en) 2002-03-05 2015-07-14 Pelmorex Canada Inc. Generating visual information associated with traffic
US9070291B2 (en) 2002-03-05 2015-06-30 Pelmorex Canada Inc. Method for predicting a travel time for a traffic route
US9368029B2 (en) 2002-03-05 2016-06-14 Pelmorex Canada Inc. GPS generated traffic information
US9401088B2 (en) 2002-03-05 2016-07-26 Pelmorex Canada Inc. Method for predicting a travel time for a traffic route
US8531312B2 (en) 2002-03-05 2013-09-10 Triangle Software Llc Method for choosing a traffic route
US8564455B2 (en) 2002-03-05 2013-10-22 Triangle Software Llc Generating visual information associated with traffic
US8958988B2 (en) 2002-03-05 2015-02-17 Pelmorex Canada Inc. Method for choosing a traffic route
US8786464B2 (en) 2002-03-05 2014-07-22 Pelmorex Canada Inc. GPS generated traffic information
US9640073B2 (en) 2002-03-05 2017-05-02 Pelmorex Canada Inc. Generating visual information associated with traffic
US9602977B2 (en) 2002-03-05 2017-03-21 Pelmorex Canada Inc. GPS generated traffic information
US8103443B2 (en) 2003-07-25 2012-01-24 Triangle Software Llc System and method for delivering departure notifications
US9644982B2 (en) 2003-07-25 2017-05-09 Pelmorex Canada Inc. System and method for delivering departure notifications
US8660780B2 (en) 2003-07-25 2014-02-25 Pelmorex Canada Inc. System and method for delivering departure notifications
US9127959B2 (en) 2003-07-25 2015-09-08 Pelmorex Canada Inc. System and method for delivering departure notifications
JP2007093276A (en) * 2005-09-27 2007-04-12 Alpine Electronics Inc Place search device and on-vehicle navigation device
WO2007105522A1 (en) * 2006-03-14 2007-09-20 Pioneer Corporation Information display device, information display method, information display program, and recording medium
JP2007102238A (en) * 2006-10-23 2007-04-19 Zenrin Co Ltd Information provision using electronic map data capable of three-dimensional display
JP2009031308A (en) * 2008-10-30 2009-02-12 Zenrin Co Ltd Navigation system and data structure for electronic map data
US9448690B2 (en) 2009-03-04 2016-09-20 Pelmorex Canada Inc. Controlling a three-dimensional virtual broadcast presentation
US9046924B2 (en) 2009-03-04 2015-06-02 Pelmorex Canada Inc. Gesture based interaction with traffic data
US10289264B2 (en) 2009-03-04 2019-05-14 Uber Technologies, Inc. Controlling a three-dimensional virtual broadcast presentation
US8982116B2 (en) 2009-03-04 2015-03-17 Pelmorex Canada Inc. Touch screen based interaction with traffic data
US8718910B2 (en) 2010-11-14 2014-05-06 Pelmorex Canada Inc. Crowd sourced traffic reporting
JP2014505267A (en) * 2010-12-01 2014-02-27 マイクロソフト コーポレーション Map with media icons
US9547984B2 (en) 2011-05-18 2017-01-17 Pelmorex Canada Inc. System for providing traffic data and driving efficiency data
US8725396B2 (en) 2011-05-18 2014-05-13 Pelmorex Canada Inc. System for providing traffic data and driving efficiency data
US9390620B2 (en) 2011-05-18 2016-07-12 Pelmorex Canada Inc. System for providing traffic data and driving efficiency data
US9293039B2 (en) 2012-01-27 2016-03-22 Pelmorex Canada Inc. Estimating time travel distributions on signalized arterials
US8781718B2 (en) 2012-01-27 2014-07-15 Pelmorex Canada Inc. Estimating time travel distributions on signalized arterials
US10223909B2 (en) 2012-10-18 2019-03-05 Uber Technologies, Inc. Estimating time travel distributions on signalized arterials
US10971000B2 (en) 2012-10-18 2021-04-06 Uber Technologies, Inc. Estimating time travel distributions on signalized arterials
JP2015079354A (en) * 2013-10-17 2015-04-23 株式会社ジオ技術研究所 Three-dimensional map display system using virtual reality

Similar Documents

Publication Publication Date Title
JP4559555B2 (en) 3D map display method and navigation apparatus
EP1134554B1 (en) Map display device and navigation device
JP4138574B2 (en) Car navigation system
JP4964762B2 (en) Map display device and map display method
JP3908419B2 (en) Navigation device
JP3501390B2 (en) Car navigation system
CN110285818B (en) Relative navigation method of eye movement interaction augmented reality
JP2001330451A (en) Map display and automobile navigation system
US8880343B2 (en) System for digital map labeling
JPH1089990A (en) Navigation apparatus
EP2335023B1 (en) Method of and computer implemented system for generating a junction view image
JP2001134659A (en) Method for arranging target
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP4491541B2 (en) 3D map display device and navigation device
JPH10253380A (en) 3d map display device
JPH109879A (en) Front image display device
JP2000055675A (en) Map display device for vehicle and its method
JP2001330453A (en) Map display and automobile navigation system
JP2002287616A (en) Simulation map providing system and simulation map providing method
JP3722710B2 (en) Map display device and navigation device
JP2004138556A (en) Car-navigation system
JPH10232605A (en) Display device guiding intersection road and display method
KR20040022742A (en) Road information displaying method and system thereof for a vehicle navigation system
JP2001296132A (en) Navigation apparatus
JP2021181915A (en) Map display system and map display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050406

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080123