JP2015079353A - Three-dimensional map display system - Google Patents

Three-dimensional map display system Download PDF

Info

Publication number
JP2015079353A
JP2015079353A JP2013216050A JP2013216050A JP2015079353A JP 2015079353 A JP2015079353 A JP 2015079353A JP 2013216050 A JP2013216050 A JP 2013216050A JP 2013216050 A JP2013216050 A JP 2013216050A JP 2015079353 A JP2015079353 A JP 2015079353A
Authority
JP
Japan
Prior art keywords
dimensional
projection
additional object
dimensional map
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013216050A
Other languages
Japanese (ja)
Other versions
JP6110770B2 (en
Inventor
岸川 喜代成
Kiyonari Kishikawa
喜代成 岸川
昌也 阿田
Masaya Ada
昌也 阿田
達治 木村
Tatsuji Kimura
達治 木村
翼 冨高
Tsubasa Tomitaka
翼 冨高
真以 福▲崎▼
Mai Fukuzaki
真以 福▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEO Technical Laboratory Co Ltd
Original Assignee
GEO Technical Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEO Technical Laboratory Co Ltd filed Critical GEO Technical Laboratory Co Ltd
Priority to JP2013216050A priority Critical patent/JP6110770B2/en
Publication of JP2015079353A publication Critical patent/JP2015079353A/en
Application granted granted Critical
Publication of JP6110770B2 publication Critical patent/JP6110770B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional map in which an additional object other than a ground object is displayed three-dimensionally.SOLUTION: Projection image data is prepared in advance which displays ground objects such as a road and a building three-dimensionally by parallel projection. When displaying a three-dimensional map, a projection image is pasted on a ground surface in a virtual three-dimensional space, and on the projection image, a three-dimensional model of additional objects such as a bus and a train is disposed. Then, the virtual three-dimensional space, in other words an additional object and a projection image, is parallel-projected to display a three-dimensional map. By using both the projection image and the three-dimensional model of the additional objects, a three-dimensional map can be displayed with a slight process load while a real additional object is displayed.

Description

本発明は、地物を3次元的に表現した3次元地図を、該地物以外の付加オブジェクトとともに表示する3次元地図表示システムに関する。   The present invention relates to a three-dimensional map display system that displays a three-dimensional map representing a feature in a three-dimensional manner together with additional objects other than the feature.

カーナビゲーション等の装置で用いられる3次元地図は、建造物や道路などの地物を透視投影などの方法で投影することで描画される。特許文献1のように、透視投影に代えて、平行投影を用いて3次元地図を表示する技術も開示されている。透視投影が視点を特定した上で行われる投影であるのに対し、平行投影は投影のための視点を定める必要がないことから、特許文献1の方法によれば、予め全領域について投影した画像を生成しておくことができ、表示の際の処理負荷を軽減することができる利点がある。   A three-dimensional map used in an apparatus such as a car navigation system is drawn by projecting a feature such as a building or a road by a method such as perspective projection. As disclosed in Patent Document 1, a technique for displaying a three-dimensional map using parallel projection instead of perspective projection is also disclosed. Since perspective projection is a projection performed after specifying a viewpoint, parallel projection does not need to determine a viewpoint for projection. Can be generated, and there is an advantage that the processing load at the time of display can be reduced.

また、3次元地図の有用性を向上させるため、地図内に種々の付加的な情報を表示する技術も提案されている。特許文献2は、3次元地図内に車両や立て看板などの可動物の3次元モデルを地物とともに3次元空間に配置し、これを透視投影でレンダリングすることによって、リアリティを維持しつつ、利用者に多様な情報を提供することを可能とする技術を開示している。   In order to improve the usefulness of a three-dimensional map, techniques for displaying various additional information in the map have also been proposed. Patent Document 2 uses a three-dimensional model of a movable object such as a vehicle or a signboard in a three-dimensional map together with features in a three-dimensional space and renders it by perspective projection while maintaining reality. Discloses a technology that enables a variety of information to be provided to a person.

特許第4070507号公報Japanese Patent No. 4070507 特許第3428294号公報Japanese Patent No. 3428294

特許文献2の方法では、可動物と多数の地物の3次元モデルとを投影する必要があり、表示時の処理負荷が大きいという課題がある。
表示時の処理負荷を軽減するための方法として、特許文献1のように、予め全領域の投影画像を用意しておき、2次元画像で用意された可動物を重畳して表示することも考えられるが、かかる方法では、3次元地図としてのリアリティが失われ、付加的な情報を利用者に直感的に伝達することができない。また、可動物が種々の方向を向くことを考えると、可動物の2次元画像を多数用意しておくことが必要となり、データ容量の増大という別の課題も生じる。
かかる課題は、付加的な情報が可動物の場合に限られず、静的な看板などでも共通の課題である。本発明は、こうした課題を解決するためになされたものであり、3次元地図において、建物や道路などの地物とは別に用意された3次元の付加オブジェクトを用いて、軽い処理負荷で、利用者に3次元的な表示態様で付加的な情報を提供することを目的とする。
In the method of Patent Document 2, it is necessary to project a movable object and a three-dimensional model of a large number of features, and there is a problem that a processing load during display is large.
As a method for reducing the processing load at the time of display, it is also possible to prepare a projection image of the entire area in advance and display a movable object prepared as a two-dimensional image in a superimposed manner as in Patent Document 1. However, in such a method, the reality as a three-dimensional map is lost, and additional information cannot be intuitively transmitted to the user. Considering that the movable object is directed in various directions, it is necessary to prepare a large number of two-dimensional images of the movable object, which causes another problem of increasing the data capacity.
Such a problem is not limited to the case where the additional information is a movable object, and is a common problem even with a static signboard or the like. The present invention has been made to solve these problems, and in a three-dimensional map, it is used with a light processing load by using a three-dimensional additional object prepared separately from features such as buildings and roads. It is intended to provide additional information to a person in a three-dimensional display manner.

本発明は、
地物を3次元的に表現した3次元地図を表示する3次元地図表示システムであって、
所定の投影条件で地物を投影して生成された2次元画像表示データとしての投影画像データを格納する投影画像データベースと、
前記地物とは別に、前記3次元地図内に3次元的に表示されるべき付加オブジェクトの3次元モデルを記憶する付加オブジェクト3次元モデルデータベースと、
前記投影画像データベースおよび付加オブジェクト3次元モデルデータベースを参照して、3次元地図を表示する表示制御部とを備え、
前記表示制御部は、
仮想3次元空間内の地表面に前記投影画像データを貼り付け、
その後、該仮想3次元空間内において、前記付加オブジェクト3次元モデルを配置し、
該仮想3次元空間を投影することで前記3次元地図を表示する3次元地図表示システムと構成することができる。
The present invention
A three-dimensional map display system for displaying a three-dimensional map representing a three-dimensional feature,
A projection image database for storing projection image data as two-dimensional image display data generated by projecting a feature under a predetermined projection condition;
In addition to the features, an additional object 3D model database that stores a 3D model of the additional object to be displayed three-dimensionally in the 3D map;
A display control unit for displaying a three-dimensional map with reference to the projection image database and the additional object three-dimensional model database;
The display control unit
Pasting the projection image data on the ground surface in a virtual three-dimensional space,
Thereafter, the additional object 3D model is arranged in the virtual 3D space,
By projecting the virtual three-dimensional space, a three-dimensional map display system that displays the three-dimensional map can be configured.

本発明の3次元地図表示システムによれば、予め用意された投影画像データを用いて3次元地図を表示するため、表示時に大量の地物の投影処理を行う必要がなく、表示の処理負荷を軽減することができる。また、付加オブジェクトは3次元モデルとして用意するため、3次元地図としてのリアリティを損ねることなく、付加オブジェクトを用いた情報提供が可能となる。
投影画像データと付加オブジェクトの併用は、地表面に貼り付けられた投影画像データ上に付加オブジェクトを配置して、両者を投影することで行う。表示時の投影処理を完全に排除してしまうのではなく、表示時にも投影処理を行うため、付加オブジェクトを仮想3次元空間内で任意の位置、姿勢で配置して、3次元地図中に表示することが可能である。また、表示時の投影処理では、実質的には付加オブジェクトについての投影だけで足りるため、大量の地物を投影処理するのに比較すると、表示時の処理負荷を大幅に軽減することが可能である。
地物については、投影画像生成時と表示時に二重に投影処理が施される。しかし、本発明では、投影画像は仮想3次元空間の地表面に貼り付けられており、高さ成分を有しない状態で用いられているため、表示時の投影による影響を抑制することができ、過剰な歪みを抑制することができる。
以上の通り、本発明では、既に投影処理が施され、本来であれば更なる投影処理は不要となる投影画像を仮想3次元空間の地表面に貼り付けるという構成をとることによって、表示時の処理負荷を軽減しつつ、3次元的な付加オブジェクトを地図上の任意の場所に配置して3次元的地図を表示することが可能となるのである。
According to the 3D map display system of the present invention, since a 3D map is displayed using projection image data prepared in advance, it is not necessary to perform projection processing of a large amount of features at the time of display, and the display processing load is reduced. Can be reduced. Further, since the additional object is prepared as a three-dimensional model, it is possible to provide information using the additional object without impairing the reality as a three-dimensional map.
The combined use of the projection image data and the additional object is performed by arranging the additional object on the projection image data pasted on the ground surface and projecting both. Since the projection process at the time of display is not completely eliminated, the additional object can be arranged at an arbitrary position and orientation in the virtual three-dimensional space and displayed on the three-dimensional map in order to perform the projection process at the time of display. Is possible. In addition, since the projection processing at the time of display is essentially only the projection of the additional object, the processing load at the time of display can be greatly reduced compared to the projection processing of a large amount of features. is there.
For the features, the projection processing is performed twice when the projection image is generated and displayed. However, in the present invention, the projection image is pasted on the ground surface of the virtual three-dimensional space and is used in a state having no height component, so that it is possible to suppress the influence of projection at the time of display, Excessive distortion can be suppressed.
As described above, in the present invention, by adopting a configuration in which a projection image that has already been subjected to projection processing and is originally unnecessary for further projection processing is pasted to the ground surface of the virtual three-dimensional space, It is possible to display a three-dimensional map by arranging a three-dimensional additional object at an arbitrary location on the map while reducing the processing load.

本発明において投影画像を生成する際の投影(以下、「生成時投影」と呼ぶこともある)は、透視投影、平行投影のいずれであってもよい。平行投影は、視点を特定する必要がないため、全領域で共通の投影画像を利用することができる。一方、透視投影による投影画像は、視点の位置によって変化するため、生成時投影として透視投影を用いる場合には、複数の視点および視線方向からの投影画像を用意しておくことになる。
また、付加オブジェクトを配置した後の3次元地図を表示する際の投影(以下、「表示時投影」と呼ぶこともある)も、透視投影、平行投影のいずれであってもよい。生成時投影と表示時投影の投影方法および投影条件は、同一であってもよいし、異なっていてもよい。
投影画像データは、ラスタデータおよびポリゴンデータのいずれの形式で備えてもよい。ただし、ポリゴンデータの方が、全体のデータ量を抑制でき、拡大して表示する際にも画像が粗くならないため高画質な地図を提供することができる利点がある。
付加オブジェクトとしては、例えば、車・バス・飛行機などの乗り物、人物、雲、その他の可動物としてもよいし、看板、案内板、標識などの静止物としてもよい。
これらの付加オブジェクトは、一定の位置に配置してもよいし、時刻とともに移動させてもよい。移動させることによって、車や人物の動きなどをアニメーションで表すことができ、例えば、混雑の様子や現在位置から目的地までの経路などを視覚的、直感的に表現したりすることもできる。
In the present invention, the projection for generating a projection image (hereinafter also referred to as “projection at generation”) may be either perspective projection or parallel projection. Since parallel projection does not require a viewpoint to be specified, a common projection image can be used in all areas. On the other hand, since a projection image by perspective projection changes depending on the position of the viewpoint, when perspective projection is used as the projection at the time of generation, projection images from a plurality of viewpoints and line-of-sight directions are prepared.
Further, the projection when displaying the three-dimensional map after arranging the additional object (hereinafter also referred to as “projection at the time of display”) may be either perspective projection or parallel projection. The projection method and the projection condition of the generation projection and the display projection may be the same or different.
The projection image data may be provided in any format of raster data and polygon data. However, the polygon data has an advantage that the entire data amount can be suppressed and an image can be provided with a high image quality because the image does not become rough when enlarged and displayed.
The additional object may be, for example, a vehicle such as a car, a bus, or an airplane, a person, a cloud, or other movable objects, or a stationary object such as a signboard, a guide board, or a sign.
These additional objects may be arranged at a fixed position or may be moved with time. By moving it, the movement of a car or a person can be represented by an animation. For example, the state of congestion, the route from the current position to the destination, etc. can be expressed visually and intuitively.

本発明の3次元地図表示システムにおいては、
実際の3次元空間において前記付加オブジェクトが配置されるべき位置座標を設定し、該位置座標を前記投影画像データを生成するための投影条件で変換することによって、前記仮想3次元空間内の地表面上の仮想位置座標を生成する付加オブジェクト座標設定部を備え、
前記表示制御部は、前記仮想位置座標と前記実際の3次元空間における高さ成分に基づいて前記付加オブジェクトを配置して、前記3次元地図を表示するものとしてもよい。
In the three-dimensional map display system of the present invention,
By setting the position coordinates where the additional object is to be placed in an actual three-dimensional space, and converting the position coordinates under the projection conditions for generating the projection image data, the ground surface in the virtual three-dimensional space An additional object coordinate setting unit for generating the upper virtual position coordinates is provided,
The display control unit may display the three-dimensional map by arranging the additional object based on the virtual position coordinates and the height component in the actual three-dimensional space.

こうすることにより、以下に示す通り、地物と付加オブジェクトとの関係を正確に表示することができる。
本発明において仮想3次元空間の地表面に貼り付ける投影画像は、投影条件に応じて直交座標とは異なる座標系を構成する。例えば、透視投影の場合、視線方向に平行な二本の道路は、投影画像上では消失点で交差する斜めの直線として描かれることになる。また、平行投影の場合は、左右方向に直交する奥行き方向の道路は、投影画像上では左右方向の道路に斜めに交差する道路として描かれる。いずれの場合においても、実際の3次元空間(以下、「実空間」と呼ぶこともある)において地表面上に定義された直交座標系は、投影画像上では直交座標と異なる座標系に変換されることになる。従って、仮想3次元空間内において、実際の3次元空間上での2次元位置座標通りに付加オブジェクトを配置しても、付加オブジェクトは他の地物との相対的な位置関係が本来とは異なって配置されることになる。
これに対し、上記態様によれば、付加オブジェクトが配置されるべき実際の3次元空間における位置座標を仮想3次元空間内の座標系に変換した上で配置することができるため、付加オブジェクトを正確に配置することが可能となる。この結果、例えば、車などの付加オブジェクトを、投影画像の道路上に沿って配置したり移動させたりすることができ、地理に即した情報を表現することが可能となる。
上記態様では、座標変換を行って得られた2次元の座標と、実際の3次元空間における高さ成分の3成分を用いて仮想3次元空間に配置する。こうすることにより、付加オブジェクトは、仮想3次元空間内に高さ成分を維持して配置されることになる。従って、飛行機や雲などの付加オブジェクトを仮想3次元空間内で空中に配置することができ、これらの付加オブジェクトに対しても違和感のない3次元地図を実現できる。
By doing so, the relationship between the feature and the additional object can be accurately displayed as described below.
In the present invention, the projection image to be pasted on the ground surface of the virtual three-dimensional space constitutes a coordinate system different from the orthogonal coordinate according to the projection condition. For example, in the case of perspective projection, two roads parallel to the line-of-sight direction are drawn as diagonal straight lines that intersect at the vanishing point on the projection image. In the case of parallel projection, the road in the depth direction orthogonal to the left-right direction is drawn as a road that obliquely intersects the road in the left-right direction on the projection image. In any case, an orthogonal coordinate system defined on the ground surface in an actual three-dimensional space (hereinafter sometimes referred to as “real space”) is converted into a coordinate system different from the orthogonal coordinates on the projection image. Will be. Therefore, even if the additional object is arranged in the virtual three-dimensional space according to the two-dimensional position coordinates in the actual three-dimensional space, the additional object is different from the original relative positional relationship with other features. Will be placed.
On the other hand, according to the above aspect, since the position coordinates in the actual three-dimensional space where the additional object is to be arranged can be converted into the coordinate system in the virtual three-dimensional space, the additional object can be accurately placed. It becomes possible to arrange in. As a result, for example, an additional object such as a car can be arranged or moved along the road of the projected image, and information according to geography can be expressed.
In the above aspect, the two-dimensional coordinates obtained by performing the coordinate conversion and the three components of the height component in the actual three-dimensional space are used to arrange in the virtual three-dimensional space. By doing so, the additional object is arranged while maintaining the height component in the virtual three-dimensional space. Therefore, additional objects such as airplanes and clouds can be arranged in the air in the virtual three-dimensional space, and a three-dimensional map that does not feel uncomfortable with these additional objects can be realized.

本発明の3次元地図表示システムにおいて、
前記投影画像データを生成するための投影、即ち生成時投影は、鉛直方向に対して第1の投影角度だけ傾けた斜め方向からの平行投影であるものとしてもよい。
平行投影は、透視投影と異なり視点を特定する必要がない。従って、平行投影を用いれば、全領域について生成された投影画像を、3次元地図の表示範囲に関わらず共通して利用することができる。種々の視線方向で3次元地図を表示させたい場合には、視線方向を変化させた複数の投影条件での平行投影を行い、生成された複数種類の投影画像を使い分ければよい。
平行投影には、透視投影と異なり、地物が3次元的に表現されるにも関わらず、左右方向および奥行き方向の縮尺は維持されるという利点もある。つまり、透視投影の場合には、視点位置から遠方に行くほど、道幅や道路の間隔などが詰まって表示されるのに対し、平行投影では、遠景か近景かに関わらず、道幅や道路の間隔などの縮尺は維持される。この結果、投影画像上に付加オブジェクトを配置する場合も、その位置によって拡大縮小することなく一定のサイズで使用できるという利点がある。
In the three-dimensional map display system of the present invention,
The projection for generating the projection image data, that is, the projection at the time of generation may be a parallel projection from an oblique direction inclined by a first projection angle with respect to the vertical direction.
Unlike the perspective projection, the parallel projection does not need to specify the viewpoint. Therefore, if parallel projection is used, the projection image generated for the entire area can be used in common regardless of the display range of the three-dimensional map. When it is desired to display a three-dimensional map in various gaze directions, it is only necessary to perform parallel projection under a plurality of projection conditions in which the gaze direction is changed, and use a plurality of types of projection images generated.
In parallel projection, unlike perspective projection, there is an advantage that the scales in the left-right direction and the depth direction are maintained even though the feature is expressed three-dimensionally. In other words, in the case of perspective projection, the farther away from the viewpoint position, the narrower the road width and road interval are displayed, whereas in the parallel projection, regardless of whether it is a distant view or a near view, the road width or road interval Such a scale is maintained. As a result, even when the additional object is arranged on the projection image, there is an advantage that the additional object can be used in a certain size without being enlarged or reduced depending on the position.

本発明の3次元地図表示システムにおいては、生成時投影が透視投影であるか平行投影であるかに関わらず、
前記仮想3次元空間の投影、即ち表示時投影は、鉛直方向に対して第2の投影角度だけ傾けた斜め方向からの平行投影としてもよい。
表示時投影によって仮想3次元空間の地表面上に与えられる影響を考えると、表示時に平行投影を用いる場合には、仮想3次元空間の地表面上の2次元座標系のうち奥行き方向の軸の角度が変化する程度の変換で済み、透視投影に比べると座標系に生じる歪みを抑制することができる。従って、表示時投影として平行投影を用いることにより、投影画像に対してさらに投影処理が二重に施されることによる不自然さを軽減することが可能となる。
投影方法について、以上で説明した効果を考慮すると、生成時投影および表示時投影の双方に、平行投影を適用することがより好ましい。この場合、平行投影における投影方向のうち、2次元平面に対するピッチ角は変化させてもよいが、少なくとも投影方位、つまりヨー角は共通とすることが好ましい。
In the 3D map display system of the present invention, regardless of whether the projection at generation is a perspective projection or a parallel projection,
The projection in the virtual three-dimensional space, that is, the projection at the time of display may be parallel projection from an oblique direction inclined by a second projection angle with respect to the vertical direction.
Considering the influence of the projection at the time of display on the ground surface in the virtual 3D space, when using the parallel projection at the time of display, the axis of the depth direction in the 2D coordinate system on the ground surface of the virtual 3D space is used. It is sufficient to convert the angle to change, and distortion generated in the coordinate system can be suppressed as compared with perspective projection. Therefore, by using parallel projection as the projection at the time of display, it becomes possible to reduce unnaturalness caused by performing the projection process twice on the projected image.
In consideration of the effects described above for the projection method, it is more preferable to apply parallel projection to both generation-time projection and display-time projection. In this case, the pitch angle with respect to the two-dimensional plane among the projection directions in the parallel projection may be changed, but at least the projection direction, that is, the yaw angle is preferably common.

本発明の3次元地図表示システムにおいては、多様な付加オブジェクトを用いることができる。
例えば、前記付加オブジェクトは、公共交通機関で利用される乗り物としてもよい。
この場合には、前記付加オブジェクトの実際の3次元空間における移動軌跡を表す付加オブジェクト軌跡データを記憶する付加オブジェクト軌跡データベースを備え、
前記表示制御部は、前記付加オブジェクト軌跡データに基づいて、該付加オブジェクトを配置して前記3次元地図を表示するものとしてもよい。
公共交通機関は、バスの場合には決まった運行経路を運行し、鉄道の場合には線路上を走行するというように、決まった移動軌跡上を運行するのが通常である。上記態様によれば、こうした移動軌跡を記憶しておき、これに基づいて付加オブジェクトを配置することができるため、実際の運行状況に応じた表示を実現することができる。
かかる表示は、アニメーションで行ってもよい。こうすることにより、公共交通機関の運行経路を、ユーザに対して、より視覚的、直感的に提供することができる利点がある。例えば、バスについては、地図上に種々の色などで経路を表す線を描くことで運行経路を表示する路線図などが用いられることが多いが、こうした路線図では、直感的に目的地に到達する経路を見いだすことは、容易ではない。これに対し、3次元地図において、運行経路に沿ってバスがアニメーションで走行する表示を行えば、目的地を通過する路線を直感的に容易に識別することができる。バスに限らず、鉄道その他の公共交通機関についても同様である。
上記態様において、付加オブジェクト軌跡データは、オペレータが予め手入力などで生成して記憶させておくものとしてもよいし、インターネット上のサーバなど外部から取得するようにしてもよい。
また、付加オブジェクト軌跡データは、実際の3次元空間における座標系で軌跡を表すものとしてもよいし、これを座標変換して、仮想3次元空間における座標系で軌跡を表すものとしてもよい。後者の態様をとれば、付加オブジェクトの配置を決定する際における座標変換を省略することができる利点がある。
上記態様においては、公共交通機関の種類、および付加オブジェクト軌跡データに応じて、付加オブジェクトを使い分けてもよい。
In the three-dimensional map display system of the present invention, various additional objects can be used.
For example, the additional object may be a vehicle used in public transportation.
In this case, an additional object trajectory database for storing additional object trajectory data representing a movement trajectory of the additional object in an actual three-dimensional space is provided.
The display control unit may display the three-dimensional map by arranging the additional object based on the additional object trajectory data.
In general, public transportation operates on a fixed movement path, such as traveling on a predetermined route in the case of a bus and traveling on a railroad in the case of a railroad. According to the said aspect, since such a movement locus | trajectory is memorize | stored and an additional object can be arrange | positioned based on this, the display according to the actual driving | running | working condition is realizable.
Such display may be performed by animation. By doing so, there is an advantage that the operation route of public transportation can be provided to the user more visually and intuitively. For example, for buses, route maps that display operation routes by drawing lines that represent routes in various colors on the map are often used. In such route maps, the destination is reached intuitively. It is not easy to find a route to do. On the other hand, in the 3D map, if the bus travels with animation along the operation route, the route passing through the destination can be easily and intuitively identified. The same applies to not only buses but also railways and other public transportation.
In the above aspect, the additional object trajectory data may be generated and stored in advance by an operator manually or the like, or may be acquired from the outside such as a server on the Internet.
Further, the additional object trajectory data may represent a trajectory in a coordinate system in an actual three-dimensional space, or may be coordinate-transformed to represent a trajectory in a coordinate system in a virtual three-dimensional space. If the latter mode is adopted, there is an advantage that the coordinate conversion in determining the arrangement of the additional object can be omitted.
In the above aspect, the additional object may be used properly according to the type of public transportation and the additional object trajectory data.

本発明において、以上で説明した種々の特徴は必ずしも全てを備えている必要はなく、適宜、一部を省略したり、組み合わせたりして構成することもできる。
また、本発明は、上述の3次元地図表示システムに限らず、種々の態様で構成可能である。例えば、コンピュータによって3次元地図を表示する3次元地図表示方法として構成してもよいし、かかる表示をコンピュータに実行させるためのコンピュータプログラムとして構成してもよい。また、かかるコンピュータプログラムを記録したコンピュータが読み取り可能な記録媒体として構成してもよい。
In the present invention, the various features described above are not necessarily all provided, and may be appropriately omitted or combined.
The present invention is not limited to the above-described three-dimensional map display system, and can be configured in various ways. For example, it may be configured as a 3D map display method for displaying a 3D map by a computer, or may be configured as a computer program for causing a computer to execute such display. Moreover, you may comprise as a computer-readable recording medium which recorded such a computer program.

3次元地図の投影方法を示す説明図である。It is explanatory drawing which shows the projection method of a three-dimensional map. 3次元地図の表示例を示す説明図(1)である。It is explanatory drawing (1) which shows the example of a display of a three-dimensional map. 3次元地図の表示例を示す説明図(2)である。It is explanatory drawing (2) which shows the example of a display of a three-dimensional map. 3次元地図の拡大した表示例を示す説明図(1)である。It is explanatory drawing (1) which shows the example of a display which expanded the three-dimensional map. 3次元地図の拡大した表示例を示す説明図(2)である。It is explanatory drawing (2) which shows the example of a display which expanded the three-dimensional map. 3次元地図表示システムの構成を示す説明図である。It is explanatory drawing which shows the structure of a three-dimensional map display system. 付加オブジェクト軌跡データの内容を示す説明図である。It is explanatory drawing which shows the content of additional object locus | trajectory data. 投影画像データの内容を示す説明図である。It is explanatory drawing which shows the content of projection image data. 投影画像の座標系を示す説明図(1)である。It is explanatory drawing (1) which shows the coordinate system of a projection image. 投影画像の座標系を示す説明図(2)である。It is explanatory drawing (2) which shows the coordinate system of a projection image. 投影画像の座標系を示す説明図(3)である。It is explanatory drawing (3) which shows the coordinate system of a projection image. 投影画像データ生成処理のフローチャートである。It is a flowchart of a projection image data generation process. 地図表示処理のフローチャートである。It is a flowchart of a map display process. 付加オブジェクト軌跡データ生成処理のフローチャートである。It is a flowchart of additional object locus data generation processing. 変形例としての付加オブジェクトの表示例(1)を示す説明図である。It is explanatory drawing which shows the example of a display (1) of the additional object as a modification. 変形例としての付加オブジェクトの表示例(2)を示す説明図である。It is explanatory drawing which shows the example of a display of the additional object as a modification (2). 変形例としての付加オブジェクトの表示例(3)を示す説明図である。It is explanatory drawing which shows the example of a display of the additional object as a modification (3). 変形例としての付加オブジェクトの表示例(4)を示す説明図である。It is explanatory drawing which shows the example of a display of the additional object as a modification (4).

A.3次元地図投影方法:
3次元モデルを投影することによって、コンピュータ、スマートフォンその他の携帯端末、およびナビゲーション装置などのディスプレイ上に3次元地図を表示する3次元地図表示装置を例にとって、本発明の実施例を説明する。
A. 3D map projection method:
An embodiment of the present invention will be described by taking a 3D map display device that displays a 3D map on a display such as a computer, a smart phone or other portable terminal, and a navigation device by projecting a 3D model.

図1は、3次元地図の投影方法を示す説明図である。
実施例の3次元地図表示では、まず図1の上側に示すように、建物等の地物を3次元で表した3次元モデルを3次元空間に配置し、これをカメラaによって投影して投影画像を生成する。図1の上側は投影の様子を模式的に示したものに過ぎず、投影方法は、透視投影、平行投影のいずれであってもよい。この段階で行う投影を、生成時投影と呼ぶこともある。生成時投影は、3次元地図を表示する時点で行ってもよいし、予め行ってもよい。本実施例では、予め生成時投影を行っておき、投影画像を3次元画像としての投影画像データとして格納しておく場合を例にとって説明する。
FIG. 1 is an explanatory diagram showing a method for projecting a three-dimensional map.
In the three-dimensional map display of the embodiment, first, as shown in the upper side of FIG. 1, a three-dimensional model representing a three-dimensional feature such as a building is arranged in a three-dimensional space, and this is projected by a camera a and projected. Generate an image. The upper side of FIG. 1 is merely a schematic view of the projection, and the projection method may be either perspective projection or parallel projection. Projection performed at this stage is sometimes referred to as generation-time projection. The generation projection may be performed at the time when the three-dimensional map is displayed, or may be performed in advance. In the present embodiment, an example will be described in which projection at generation is performed in advance and the projection image is stored as projection image data as a three-dimensional image.

生成された投影画像は、次に3次元地図を表示するための仮想3次元空間の地表面に貼り付けられる。図1の下側のハッチング部分は、図1の上側で生成された投影画像を地表面に貼り付けた状態を表している。本実施例において、仮想3次元空間というときは、特に断りない限り、投影画像を地表面に貼り付ける空間(図1の下側の空間)を表すものとする。
投影画像が貼り付けられた地表面上には、3次元地図中に表示される付加オブジェクトの3次元モデルが配置される。付加オブジェクトとは、建物や道路など地図を構成する地物以外のオブジェクトを言い、例えば、車・バス・飛行機などの乗り物、人物、雲、その他の可動物としてもよいし、看板、案内板、標識などの静止物としてもよい。図中には、バスの例を示した。
The generated projection image is then pasted on the ground surface of the virtual three-dimensional space for displaying a three-dimensional map. The hatched portion on the lower side of FIG. 1 represents a state in which the projection image generated on the upper side of FIG. 1 is pasted on the ground surface. In this embodiment, the virtual three-dimensional space represents a space (a lower space in FIG. 1) where the projection image is pasted to the ground surface unless otherwise specified.
A three-dimensional model of the additional object displayed in the three-dimensional map is arranged on the ground surface on which the projection image is pasted. Additional objects are objects other than the features that make up the map, such as buildings and roads. For example, vehicles, buses, airplanes, and other vehicles, people, clouds, other movable objects, signs, information boards, It may be a stationary object such as a sign. In the figure, an example of a bus is shown.

図1の上側と下側とでは、座標系が異なっている。生成時投影を行うために3次元モデルを配置する3次元空間(図1の上側に示した空間)は、x,y,zからなる3次元直交座標系であるのに対し、図1の下側では生成時投影によって、投影前のx,y,zは2次元座標xp、ypに変換されるからである。付加オブジェクト3次元モデルを配置するため、図1の下側の仮想3次元空間も、高さ成分zを有する3次元直交座標系で処理されるが、付加オブジェクトを配置する際には、実際の3次元空間での位置座標(即ち、図1の上側における平面座標x,y,z)を、投影後の座標系xp、ypに変換した上で配置する必要がある。   The coordinate system is different between the upper side and the lower side in FIG. The three-dimensional space (the space shown in the upper side of FIG. 1) in which the three-dimensional model is arranged to perform the projection at generation is a three-dimensional orthogonal coordinate system composed of x, y, and z, whereas the lower part of FIG. This is because, on the side, x, y, z before projection is converted into two-dimensional coordinates xp, yp by projection at the time of generation. In order to place the additional object three-dimensional model, the lower virtual three-dimensional space in FIG. 1 is also processed in the three-dimensional orthogonal coordinate system having the height component z. The position coordinates in the three-dimensional space (that is, the plane coordinates x, y, z on the upper side in FIG. 1) need to be arranged after being converted into the coordinate systems xp, yp after projection.

こうして付加オブジェクト3次元モデルが配置された仮想3次元空間を、図1の下側に示すように、カメラbで投影して3次元地図を表示する。本実施例においては、この投影を、表示時投影と呼ぶこともある。生成時投影を行うことにより、付加オブジェクトを伴う3次元地図を表示することができる。また、付加オブジェクト3次元モデルの位置を、仮想3次元空間内で移動させることにより、3次元地図内で付加オブジェクトが移動するアニメーション表示を行うこともできる。   In this way, the virtual three-dimensional space in which the additional object three-dimensional model is arranged is projected by the camera b as shown in the lower side of FIG. 1 to display a three-dimensional map. In the present embodiment, this projection may be referred to as a display time projection. By performing the generation projection, it is possible to display a three-dimensional map with additional objects. Further, by moving the position of the additional object three-dimensional model in the virtual three-dimensional space, an animation display in which the additional object moves in the three-dimensional map can be performed.

図2、3は、3次元地図の表示例を示す説明図である。図2には、投影画像、即ち地物のみを投影して得られた画像を示した。生成時投影としては平行投影を用いている。
図3には、投影画像上に、付加オブジェクトとしてバス、電車、停留所などの3次元モデルを配置した上で、表示時投影を行って得られる画像を示した。表示時投影も平行投影としている。こうすることによって、3次元地図上に、付加オブジェクトを3次元的に描いた地図が表示される。
建物などの地物については、生成時投影と、表示時投影の2回にわたって投影が施されることになるが、図3に示すように、極端に不自然になることはない。
バスは、種々の進行方向に応じた姿勢で3次元的に描かれている。本実施例では、付加オブジェクト3次元モデルを配置した上で表示時投影を行うため、付加オブジェクトの姿勢に応じてモデルを用意するまでなく、多様な姿勢で3次元表示を行うことができる。
2 and 3 are explanatory diagrams illustrating display examples of a three-dimensional map. FIG. 2 shows a projected image, that is, an image obtained by projecting only a feature. Parallel projection is used as the projection during generation.
FIG. 3 shows an image obtained by performing a projection at the time of display after arranging a three-dimensional model such as a bus, a train, and a bus stop as an additional object on the projection image. The projection at the time of display is also a parallel projection. By doing so, a map in which the additional object is drawn three-dimensionally is displayed on the three-dimensional map.
For a feature such as a building, projection is performed twice, that is, when it is generated and when it is displayed, but it is not extremely unnatural as shown in FIG.
The bus is drawn three-dimensionally with postures corresponding to various traveling directions. In this embodiment, since the projection at the time of display is performed after the additional object three-dimensional model is arranged, it is possible to perform the three-dimensional display with various postures without preparing a model according to the posture of the additional object.

図4、5は、3次元地図の拡大した表示例を示す説明図である。図4には地物の投影画像を示した。図5には、この投影画像を地表面に貼り付けた上に、付加オブジェクトとしてバス、停留所、文字などを配置して、表示時投影を行って得られた地図を示した。このように文字も付加オブジェクトとして配置することができる。透明の板に文字を貼り付けたものを付加オブジェクトとして配置すればよい。バスの付加オブジェクトは、実際の3次元空間における座標位置を変換して投影画像上に配置することにより、図示するように、道路上を走行しているように描くことができる。
このように、本実施例によれば、付加オブジェクトを3次元的に表示した上で3次元地図を表示することができる。付加オブジェクトは、ユーザに種々の情報を提供するために利用することができる。例えば、運行路線に沿ってバスを移動させるアニメーション表示を行うことにより、ユーザに対して、バスの路線を容易かつ直感的に認識させることが可能となる。また、停留所や文字などの静的な付加オブジェクトは、ユーザの要求に合わせた情報を、直感的に認識しやすい態様で提示するのに利用できる。
4 and 5 are explanatory diagrams illustrating an enlarged display example of a three-dimensional map. FIG. 4 shows a projected image of the feature. FIG. 5 shows a map obtained by pasting this projection image on the ground surface and arranging a bus, a stop, characters, etc. as additional objects and performing projection at the time of display. In this way, characters can also be arranged as additional objects. What is necessary is just to arrange | position the thing which stuck the character on the transparent board as an additional object. The additional object of the bus can be drawn as if it is traveling on the road as shown in the figure by converting the coordinate position in the actual three-dimensional space and placing it on the projected image.
Thus, according to the present embodiment, it is possible to display a three-dimensional map after displaying the additional object three-dimensionally. The additional object can be used to provide various information to the user. For example, by displaying an animation for moving a bus along a service route, the user can easily and intuitively recognize the bus route. In addition, static additional objects such as bus stops and characters can be used to present information tailored to the user's request in an easily recognizable manner.

B.システム構成:
図1〜5で示した地図表示を実現するためのシステム構成について説明する。
図6は、実施例における3次元地図表示システムの構成を示す説明図である。サーバ200からネットワークNE2等を介して提供される地図データに基づいて、スマートフォン300のディスプレイ300dに地図を表示する構成例を示した。地図を表示する端末としては、パーソナルコンピュータ、ナビゲーション装置などを用いてもよい。また、3次元地図表示システムは、スマートフォン300のような端末とサーバ200とからなるシステムの他、スタンドアロンで稼働するシステムとして構成してもよい。
図中には、3次元地図データを生成するデータ生成装置100も併せて示した。
B. System configuration:
A system configuration for realizing the map display shown in FIGS.
FIG. 6 is an explanatory diagram illustrating a configuration of the three-dimensional map display system in the embodiment. The example of a structure which displays a map on the display 300d of the smart phone 300 based on the map data provided from the server 200 via the network NE2 or the like is shown. As a terminal for displaying a map, a personal computer, a navigation device, or the like may be used. Further, the 3D map display system may be configured as a system that operates in a stand-alone manner, in addition to a system that includes a terminal such as the smartphone 300 and the server 200.
In the figure, a data generation device 100 that generates three-dimensional map data is also shown.

スマートフォン300には、主制御部304の下で稼働する種々の機能ブロックが構成されている。本実施例では、主制御部304および各機能ブロックは、それぞれの機能を実現するソフトウェアをインストールすることによって構成したが、その一部または全部をハードウェア的に構成してもよい。
送受信部301は、サーバ200とのネットワークNE2を介した通信を行う。本実施例では、3次元地図を表示するための地図データおよびコマンドの送受信が主として行われる。
コマンド入力部302は、ディスプレイ300dを介して行われる操作等を通じて、ユーザからの指示を入力する。本実施例における指示としては、3次元地図の表示範囲、拡大・縮小の指定などが揚げられる。
地図情報記憶部305は、サーバ200から提供された地図データを一時的に記憶しておくバッファである。経路案内時のように表示すべき地図が時々刻々と移動していく場合、地図情報記憶部305では不足する範囲の地図データをサーバ200から受信して地図を表示する。本実施例では、生成時投影によって予め生成された投影画像が、地図データとして格納されることになる。また、投影画像上に配置される(図1の下側参照)付加オブジェクトの3次元モデルも併せて地図情報記憶部305に記憶されることになる。
表示制御部306は、地図情報記憶部305から提供されるデータに基づいて、スマートフォン300のディスプレイ300dに3次元地図を表示する。先に図1の下側に示したように、表示制御不306は、投影画像を地表面に貼り付け、付加オブジェクト3次元モデルを配置した上で、表示時投影をして3次元地図を表示するのである。
The smart phone 300 includes various functional blocks that operate under the main control unit 304. In the present embodiment, the main control unit 304 and each functional block are configured by installing software that realizes the respective functions, but part or all of them may be configured by hardware.
The transmission / reception unit 301 communicates with the server 200 via the network NE2. In the present embodiment, transmission / reception of map data and commands for displaying a three-dimensional map is mainly performed.
The command input unit 302 inputs an instruction from the user through an operation performed via the display 300d. As an instruction in this embodiment, a display range of a three-dimensional map, designation of enlargement / reduction, and the like are given.
The map information storage unit 305 is a buffer that temporarily stores map data provided from the server 200. When a map to be displayed moves from moment to moment as in route guidance, the map information storage unit 305 receives map data in an insufficient range from the server 200 and displays the map. In the present embodiment, a projection image generated in advance by the projection at the time of generation is stored as map data. Further, the three-dimensional model of the additional object arranged on the projection image (see the lower side in FIG. 1) is also stored in the map information storage unit 305.
The display control unit 306 displays a three-dimensional map on the display 300 d of the smartphone 300 based on the data provided from the map information storage unit 305. As previously shown in the lower side of FIG. 1, the display control non-306 306 pastes the projection image on the ground surface, arranges the additional object 3D model, and displays the 3D map by projecting the display. To do.

サーバ200には、図示する機能ブロックが構成されている。本実施例では、これらの機能ブロックは、それぞれの機能を実現するソフトウェアをインストールすることによって構成したが、その一部または全部をハードウェア的に構成してもよい。
地図データベース210は、3次元地図を表示するためのデータベースである。本実施例では、投影画像データ211、付加オブジェクト軌跡データ212、付加オブジェクト3次元モデル213を含む地図データを格納する。投影画像データ211は、道路、建物などの地物を3次元的に表示するためのデータであり、地物の3次元モデルを平行投影することで得られた2次元のポリゴンデータである。付加オブジェクト軌跡データ212は、電車やバスなど、予め定められた経路を移動する付加オブジェクトについて、その軌跡を記憶するデータである。付加オブジェクト3次元モデル213は、付加オブジェクトの3次元形状を表すモデルである。
送受信部201は、ネットワークNE2を介してスマートフォン300とのデータの送受信を行う。本実施例では、投影画像のデータ、付加オブジェクト3次元モデル、およびコマンドの送受信が主として行われる。また、送受信部201は、ネットワークNE1を介してデータ生成装置100との通信も行う。本実施例では、生成された投影画像データの授受が主として行われる。
データベース管理部202は、地図データベース210からの種々のデータの読み出し、書き込みを制御する。
地図データベース内に、道路の形状をリンク、ノードで表したネットワークデータを容易し、また、サーバ200内に、ネットワークデータを用いたダイクストラ法などの方法で経路探索を行う経路探索部を設けてもよい。この場合には、経路探索結果を、付加オブジェクト軌跡データの一つとして用いることもできる。
The server 200 includes functional blocks shown in the figure. In the present embodiment, these functional blocks are configured by installing software that realizes the respective functions, but a part or all of the functional blocks may be configured by hardware.
The map database 210 is a database for displaying a three-dimensional map. In this embodiment, map data including projection image data 211, additional object trajectory data 212, and additional object three-dimensional model 213 is stored. The projection image data 211 is data for three-dimensionally displaying features such as roads and buildings, and is two-dimensional polygon data obtained by parallel projection of a three-dimensional model of the features. The additional object trajectory data 212 is data for storing a trajectory of an additional object that moves along a predetermined route such as a train or a bus. The additional object three-dimensional model 213 is a model representing the three-dimensional shape of the additional object.
The transmission / reception unit 201 transmits / receives data to / from the smartphone 300 via the network NE2. In the present embodiment, transmission / reception of projection image data, an additional object three-dimensional model, and commands is mainly performed. The transmission / reception unit 201 also communicates with the data generation device 100 via the network NE1. In the present embodiment, the generated projection image data is mainly exchanged.
The database management unit 202 controls reading and writing of various data from the map database 210.
In the map database, network data that represents road shapes as links and nodes may be facilitated, and a route search unit may be provided in the server 200 for performing route search by a method such as Dijkstra method using network data. Good. In this case, the route search result can also be used as one of the additional object trajectory data.

データ生成装置100には、図示する機能ブロックが構成されている。本実施例では、これらの機能ブロックは、パーソナルコンピュータに、それぞれの機能を実現するソフトウェアをインストールすることによって構成したが、その一部または全部をハードウェア的に構成してもよい。
送受信部105は、ネットワークNE1を介してサーバ200とデータの授受を行う。
コマンド入力部101は、キーボード等を介してオペレータの指示を入力する。本実施例では、地図データを生成すべき領域の指定、平行投影パラメータの指定等が含まれる。
3D地図データベース104は、地図データを生成するために用いられる3次元モデルを格納するデータベースである。道路、建物などの地物については、3次元形状を表す電子データが格納されている。3D地図データベース104は、従来、透視投影によって3次元地図を表示するために備えられる3次元モデルを利用することができる。
平行投影部102は、3D地図データベース104に基づいて平行投影による表示を行って投影画像データを生成する。表示された投影画像は、平行投影データ103に格納され、送受信部105を介してサーバ200の地図データベース210の投影画像データ211に格納される。
投影パラメータ設定部106は、平行投影時の投影角度(ピッチ角)、投影方位(ヨー角)などの投影パラメータを設定する。
The data generation device 100 includes functional blocks shown in the figure. In this embodiment, these functional blocks are configured by installing software that realizes the respective functions in a personal computer, but a part or all of the functional blocks may be configured by hardware.
The transmission / reception unit 105 exchanges data with the server 200 via the network NE1.
The command input unit 101 inputs an operator instruction via a keyboard or the like. In the present embodiment, designation of an area where map data is to be generated, designation of parallel projection parameters, and the like are included.
The 3D map database 104 is a database that stores a three-dimensional model used for generating map data. Electronic features representing a three-dimensional shape are stored for features such as roads and buildings. The 3D map database 104 can use a 3D model that is conventionally provided for displaying a 3D map by perspective projection.
The parallel projection unit 102 performs display by parallel projection based on the 3D map database 104 to generate projection image data. The displayed projection image is stored in the parallel projection data 103 and is stored in the projection image data 211 of the map database 210 of the server 200 via the transmission / reception unit 105.
The projection parameter setting unit 106 sets projection parameters such as a projection angle (pitch angle) and a projection direction (yaw angle) during parallel projection.

図7は、付加オブジェクト軌跡データの内容を示す説明図である。
付加オブジェクト軌跡データは、バス、電車などの移動する付加オブジェクトに対応づけて、表示時の軌跡を記憶するデータである。「オブジェクトID」は、付加オブジェクト軌跡データの識別子である。「名称」は、当該軌跡を表す名称である。例えば、図示するように、バスの路線を名称として用いることができる。「3次元モデル」は、この付加オブジェクト軌跡データに対応づけて表示されるべき付加オブジェクトの3次元モデルを特定するデータである。本実施例では、付加オブジェクト3次元モデルに付されたモデルIDを記録するものとした。「軌跡」は、付加オブジェクトの移動経路を点列の形で表したものである。本実施例では、3次元の位置座標(x,y,z)と、各地点における進行方向ベクトル(vx、vy、vz)を軌跡上の点ごとに記憶するものとした。位置および進行方向ともに3次元を用いることにより、航空機などのように3次元的な軌跡を描く付加オブジェクトの軌跡も表すことができる。
付加オブジェクト軌跡データは、例えば、オペレータの手入力によって生成してもよい。また、バスや鉄道の路線など公共交通機関の場合には、公共交通機関の路線図を解析して、その軌跡を自動設定するようにしてもよい。
FIG. 7 is an explanatory diagram showing the contents of the additional object trajectory data.
The additional object trajectory data is data that stores a trajectory at the time of display in association with a moving additional object such as a bus or a train. “Object ID” is an identifier of additional object trajectory data. “Name” is a name representing the trajectory. For example, as shown, a bus route can be used as a name. The “three-dimensional model” is data that specifies a three-dimensional model of an additional object to be displayed in association with the additional object trajectory data. In this embodiment, the model ID assigned to the additional object three-dimensional model is recorded. The “trajectory” represents the movement path of the additional object in the form of a point sequence. In this embodiment, the three-dimensional position coordinates (x, y, z) and the traveling direction vectors (vx, vy, vz) at each point are stored for each point on the locus. By using three dimensions for both the position and the traveling direction, it is possible to represent the locus of an additional object that draws a three-dimensional locus such as an aircraft.
The additional object trajectory data may be generated, for example, manually by an operator. In the case of public transportation such as a bus or railroad, a route map of the public transportation may be analyzed to automatically set the trajectory.

付加オブジェクト3次元モデルは、付加オブジェクトの3次元形状を表すデータである。識別子としての「モデルID」、付加オブジェクトの「名称」、および「形状」として3次元モデルを構成するポリゴンの座標が記憶されている。このほか、種々の属性、例えば、3次元モデルが可動物か静止物かを表す情報、車・バス・電車・人などの種別、3次元モデルに貼り付けるテクスチャや表面の色などの表示上の情報などを併せて記憶させてもよい。
付加オブジェクト軌跡データと付加オブジェクト3次元モデルとは、「3次元モデル」と「モデルID」によって関連づけられる。図示した「バス○系統」の軌跡を表す際には、「3次元モデル」に記憶された「MB01」が、「モデルID」に記憶されている付加オブジェクト3次元モデルを用いることになる。一つの付加オブジェクト3次元モデルを、複数の付加オブジェクト軌跡データで用いることもある。
The additional object three-dimensional model is data representing the three-dimensional shape of the additional object. The coordinates of polygons constituting the three-dimensional model are stored as “model ID” as the identifier, “name” of the additional object, and “shape”. In addition to various attributes, for example, information indicating whether the 3D model is a moving or stationary object, the type of car, bus, train, person, etc., the texture to be pasted on the 3D model, the surface color, etc. Information and the like may be stored together.
The additional object trajectory data and the additional object 3D model are associated with each other by “3D model” and “model ID”. When representing the locus of the “Bus ○ system” shown in the figure, “MB01” stored in “3D model” uses the additional object 3D model stored in “Model ID”. One additional object three-dimensional model may be used for a plurality of additional object trajectory data.

B.投影画像データ:
図8は、投影画像データの内容を示す説明図である。3次元データD3から平行投影によってデータD1、D2が得られる様子を示している。3次元データD3は、平面P3上に、建物M3の3次元モデルおよび道路R3等を直交座標系x,y,zで表される3次元空間内に配置したデータである。
この3次元データD3を鉛直方向(図中の矢印A1方向)に平行投影すると、投影面P1上では、建物M3は長方形M1のように2次元的に表現されたデータD1となる。道路R3も、道路R1のように直角に交差する三叉路として描かれる。これは、従来の2次元地図データに相当する。縮尺を考慮しなければ2次元地図を表す直交座標系x,yは、3次元データD3を表す直交座標系x,y,zの平面成分x,yと一致する。従って、道路R1を通る経路G1の軌跡は、実空間の平面座標x,yをそのまま用いて表すことができる。縮尺を考慮する場合には、座標値に縮尺に応じた係数を乗じれば足りる。
これに対し、本実施例では、生成時投影として、鉛直方向に対して所定の投影角度だけ傾けた斜め方向(図中の矢印A2方向)の平面P2上に平行投影する。この結果、データD2上には、建物M2のように3次元的に建物が表示される。道路R3も、道路R2のように直交している三叉路部分は、斜めに交差する状態で表示される。投影画像では建物M2等は3次元的に表現されてはいるものの、データD2は、あくまでも投影された2次元の表示データである。本実施例では、投影画像データとして、建物M2等を表示するためのポリゴンデータを格納する。この場合、建物M2の側壁、屋根部分で個別のポリゴンデータとしてもよいし、全体を一つのポリゴンデータとしてもよい。窓Wは、建物の壁面に貼り付けるテクスチャ、つまりラスタデータとして用意してもよいし、窓を個別のポリゴンデータとして用意してもよい。
本実施例の投影画像データは、このように斜め方向の平行投影によって各地物を投影した2次元データによって構成されている。
B. Projected image data:
FIG. 8 is an explanatory diagram showing the contents of the projection image data. It shows a state where data D1 and D2 are obtained from the three-dimensional data D3 by parallel projection. The three-dimensional data D3 is data in which the three-dimensional model of the building M3, the road R3, and the like are arranged in the three-dimensional space represented by the orthogonal coordinate system x, y, z on the plane P3.
When this three-dimensional data D3 is parallel-projected in the vertical direction (the direction of arrow A1 in the figure), the building M3 becomes data D1 expressed two-dimensionally like a rectangle M1 on the projection plane P1. The road R3 is also drawn as a three-way crossing at a right angle like the road R1. This corresponds to conventional two-dimensional map data. If the scale is not taken into consideration, the orthogonal coordinate system x, y representing the two-dimensional map coincides with the plane components x, y of the orthogonal coordinate system x, y, z representing the three-dimensional data D3. Accordingly, the trajectory of the route G1 passing through the road R1 can be expressed using the plane coordinates x and y in the real space as they are. When considering the scale, it is sufficient to multiply the coordinate value by a coefficient corresponding to the scale.
On the other hand, in the present embodiment, as projection at the time of generation, parallel projection is performed on a plane P2 in an oblique direction (in the direction of arrow A2 in the drawing) inclined by a predetermined projection angle with respect to the vertical direction. As a result, on the data D2, a building is displayed three-dimensionally like a building M2. The road R3 is also displayed in a state where the three-way intersection that is orthogonal like the road R2 intersects diagonally. Although the building M2 and the like are expressed three-dimensionally in the projected image, the data D2 is only projected two-dimensional display data. In this embodiment, polygon data for displaying the building M2 and the like is stored as the projection image data. In this case, individual polygon data may be used for the side wall and roof portion of the building M2, or the whole may be used as one polygon data. The window W may be prepared as a texture to be pasted on the wall of the building, that is, raster data, or the window may be prepared as individual polygon data.
The projection image data of the present embodiment is configured by two-dimensional data obtained by projecting each feature by oblique parallel projection in this way.

生成時投影処理として平行投影を用いる利点は次の通りである。
平行投影は、透視投影と異なり、投影のための視点を定める必要がない。即ち、投影角度、投影方位という投影パラメータで投影画像を得ておけば、その投影画像は、地図の表示領域に関わらず利用可能となる。従って、3次元地図を表示する際には、多数の地物データの投影処理を行うまでなく、既に生成されている投影画像から必要な領域を切り出して表示するだけで足りるのである。
また、平行投影は、透視投影と異なり、投影後も左右方向、奥行き方向の縮尺が維持されるという利点もある。
投影画像は、1種類でも差し支えないが、本実施例では、投影方位を、8種類に変化させ、8種類の投影画像を容易した。こうすることにより、ユーザの指定に応じて種々の方位から見た状態の3次元地図を描くことができる。
もっとも、生成時投影として透視投影を用いることも可能である。この場合には、予め設定された多数の視点および視線方向に応じて投影画像を生成しておけばよい。
The advantages of using parallel projection as the generation projection process are as follows.
Unlike perspective projection, parallel projection does not require a viewpoint for projection. That is, if a projection image is obtained with projection parameters such as a projection angle and a projection direction, the projection image can be used regardless of the map display area. Therefore, when displaying a three-dimensional map, it is only necessary to cut out and display a necessary region from a projection image that has already been generated, without performing projection processing of a large number of feature data.
Further, unlike perspective projection, parallel projection also has an advantage that scales in the horizontal direction and depth direction are maintained after projection.
Although one type of projection image may be used, in the present embodiment, the projection direction is changed to eight types to facilitate eight types of projection images. By doing so, it is possible to draw a three-dimensional map viewed from various directions according to the user's designation.
However, it is also possible to use perspective projection as the projection at the time of generation. In this case, a projection image may be generated according to a number of preset viewpoints and line-of-sight directions.

道路R2において三叉路が斜めに交差するように表示される点から明らかな通り、実空間における平面の座標系x,yは、データD2上では、直交座標ではなく、斜めに交差する2つの軸xp,ypによって表される。従って、道路R2を通る経路G2の軌跡は、実空間上の座標x,y,zを、座標変換によって投影画像上の軸xp,ypで表される座標系に座標変換することで求められる。   As is clear from the point that the three-way crossing is displayed on the road R2 so as to cross diagonally, the plane coordinate system x, y in the real space is not orthogonal coordinates but two axes xp crossing diagonally on the data D2. , Yp. Accordingly, the trajectory of the route G2 passing through the road R2 can be obtained by converting the coordinates x, y, z in the real space into a coordinate system represented by the axes xp, yp on the projection image by coordinate conversion.

図9〜11は、投影画像の座標系を示す説明図である。図9の写真に対応する地域の投影画像例を図10、図11に示した。
図10は2次元地図の出力例である。図10中に、図9のビルBL1、BL2に対応する建物を破線囲みで示した。2次元地図では、図示されたこれらの地物が図9のビルBL1、BL2に当たることが直感的には把握しづらい。2次元地図では、ビルBL1、BL2の位置関係は2次元の位置座標x,yで表される。この座標値は、実際の3次元空間内における3次元直交座標の平面成分と同じである。図10内で、矢印DAのように進行方向を表す場合、その位置や矢印の方向は、実際の3次元空間内の位置および方向を用いることが可能である。
図11は平行投影による投影画像の出力例である。図11にもビルBL1、BL2を破線囲みで示した。平行投影で表示されているため、地図の縮尺は維持されている。従って、ビルBL1、BL2の位置関係や、これらのビルよりも遠方に位置するビルまでの距離は、2次元地図(図10)と同程度に把握可能である。
また、図11では、地物が3次元的に表示されるため、ビルBL1、BL2の形状も直感的に認識可能である。図11が上方から見下ろす感じで描かれているのに対し、実際にこの地点に立つユーザは図9に示す通り下方から見上げるようにビルBL1、BL2を見ることになるが、それでも図11の表示に基づいてビルBL1、BL2を直感的に識別することが可能である。
平行投影されているため、実空間における直交座標系は、図11内では、座標軸xp,ypに変換される(以下、この座標系xp,ypを投影座標系と呼ぶこともある)。軸ypは、軸xpに対してわずかな角度ではあるが、斜めに交差している。従って、経路案内(図10内の矢印DA)を表示する際には、実空間での位置および方向を、投影画像における座標系xp,ypに変換することによって、その位置および方向を決定することができる。投影条件によっては、実空間における平面座標x,yと、投影画像内の座標値xp,ypとの間の誤差が比較的小さくなる場合があるから、かかる場合には、座標変換を省略しても差し支えない。
9 to 11 are explanatory diagrams showing the coordinate system of the projected image. Examples of projected images of the area corresponding to the photograph of FIG. 9 are shown in FIGS.
FIG. 10 shows an output example of a two-dimensional map. In FIG. 10, the buildings corresponding to the buildings BL1 and BL2 in FIG. In the two-dimensional map, it is difficult to intuitively understand that these illustrated features correspond to the buildings BL1 and BL2 in FIG. In the two-dimensional map, the positional relationship between the buildings BL1 and BL2 is represented by two-dimensional position coordinates x and y. This coordinate value is the same as the plane component of the three-dimensional orthogonal coordinate in the actual three-dimensional space. In FIG. 10, when the traveling direction is represented as indicated by an arrow DA, the position and the direction of the arrow can be the actual position and direction in the three-dimensional space.
FIG. 11 shows an output example of a projection image by parallel projection. In FIG. 11, the buildings BL1 and BL2 are indicated by a dashed line. Since it is displayed in parallel projection, the scale of the map is maintained. Therefore, the positional relationship between the buildings BL1 and BL2 and the distance to the buildings located farther than these buildings can be grasped to the same extent as the two-dimensional map (FIG. 10).
Moreover, in FIG. 11, since the features are displayed three-dimensionally, the shapes of the buildings BL1 and BL2 can be intuitively recognized. While FIG. 11 is drawn as if looking down from above, a user who actually stands at this point looks at buildings BL1 and BL2 as if looking up from below as shown in FIG. Based on the above, it is possible to intuitively identify the buildings BL1 and BL2.
Since the parallel projection is performed, the orthogonal coordinate system in the real space is converted into the coordinate axes xp and yp in FIG. 11 (hereinafter, the coordinate systems xp and yp may be referred to as the projected coordinate system). The axis yp intersects diagonally with a slight angle with respect to the axis xp. Therefore, when displaying the route guidance (arrow DA in FIG. 10), the position and direction in the real space are converted into the coordinate system xp, yp in the projection image, thereby determining the position and direction. Can do. Depending on the projection conditions, the error between the plane coordinates x, y in the real space and the coordinate values xp, yp in the projected image may be relatively small. In such a case, the coordinate conversion is omitted. There is no problem.

D.投影画像データ生成方法:
図12は、投影画像データの生成処理のフローチャートである。データ生成装置100の平行投影部102(図6参照)が行う処理であり、ハードウェア的には、データ生成装置100を構成するパーソナルコンピュータのCPUが実行する処理である。
処理を開始すると、データ生成装置100は、処理対象となるメッシュの指定を入力する(ステップS10)。3D地図データベースは、所定サイズのメッシュに区切って3次元モデルを格納しており、投影画像の生成も、メッシュ単位で行われる。図の右側に、メッシュの構成を示した。この例では、中央のメッシュMPが対象メッシュとして指定されているものとする。対象メッシュの指定方法は、メッシュ固有のインデックス、メッシュの座標などを用いることができる。地図上でオペレータが指定した点の座標値を含むメッシュをデータ生成装置100が解析し、これを処理対象のメッシュとして設定する方法をとってもよい。
また、データ生成装置100は、平行投影パラメータ、即ち投影方位と投影角度を入力する(ステップS12)。平行投影パラメータは、投影画像データを生成する度にオペレータが指定するものとしてもよいし、予めデフォルトの平行投影パラメータをデータ生成装置100内に設定しておく方法をとってもよい。
D. Projection image data generation method:
FIG. 12 is a flowchart of the projection image data generation process. This is a process performed by the parallel projection unit 102 (see FIG. 6) of the data generation apparatus 100, and is a process executed by a CPU of a personal computer constituting the data generation apparatus 100 in terms of hardware.
When the process is started, the data generation device 100 inputs designation of a mesh to be processed (step S10). The 3D map database stores a three-dimensional model divided into meshes of a predetermined size, and a projection image is generated in units of meshes. The structure of the mesh is shown on the right side of the figure. In this example, it is assumed that the center mesh MP is designated as the target mesh. As a method for specifying the target mesh, a mesh-specific index, mesh coordinates, and the like can be used. A method may be used in which the data generation apparatus 100 analyzes a mesh including the coordinate value of a point designated by the operator on the map and sets this as a mesh to be processed.
Further, the data generation device 100 inputs parallel projection parameters, that is, a projection direction and a projection angle (step S12). The parallel projection parameters may be specified by the operator each time projection image data is generated, or a method of setting default parallel projection parameters in the data generation apparatus 100 in advance may be used.

次に、データ生成装置100は、対象メッシュおよびその周辺の所定範囲のメッシュについて、3D地図データベースを読み込む(ステップS14)。本実施例では、右側の図に示すように、対象メッシュMPから2区画以内のメッシュに属する3D地図データベースを読み込むものとした。この範囲は任意に設定可能である。読み込んだ3D地図データベースは、データ生成装置100のメモリ内に一時的に記憶される。   Next, the data generation device 100 reads a 3D map database for the target mesh and meshes in a predetermined range around the target mesh (step S14). In this embodiment, as shown in the diagram on the right side, a 3D map database belonging to meshes within two sections from the target mesh MP is read. This range can be set arbitrarily. The read 3D map database is temporarily stored in the memory of the data generation device 100.

このように対象メッシュの周囲も含めて3D地図データベースを読み込む理由は、次の通りである。本実施例では、3D地図データベースに含まれる3次元の投影画像データを平行投影することによって投影画像データを生成する。ただし、地図データをメッシュに区切って生成・管理する場合、平行投影をメッシュ単位で施したのでは、適切な投影画像データを生成することができないという問題がある。
図中のハッチングを付したメッシュMPに対応する投影画像データを生成する場合を考える。3D地図データベースでは、メッシュMPの周囲に、図示する通り、M11〜M55までのメッシュが存在し、各メッシュには種々の地物が存在する。ここで、メッシュMPに隣接するメッシュM34に存在する地物B34を平行投影する場合を考える。平行投影が図中のVpj34で示す方向に行われるとすると、地物B34の上部は、メッシュMP内に投影されることになる。このように、平行投影で投影画像データを生成する場合、処理対象となるメッシュMPに対しては、そのメッシュ内に存在しない地物の一部が投影されることもあるのである。従って、単にメッシュごとに平行投影を行ったのでは、他のメッシュに存在する地物の投影画像が欠けてしまい、適切な投影画像データを得ることができない。
そこで、本実施例では、処理対象となるメッシュMPに対して、そこに隣接するメッシュ(M22、M23、M24、M25、M32、M34、M42、M43、M44)、およびこれらに更に隣接するメッシュ(M11〜M15、M21、M25、M31、M35、M41、M45、M51〜M55)の3次元投影画像データを読み込み、メッシュM11〜M55全体に対して平行投影を施した上で、メッシュMPに対応する部分のポリゴンを切り取ることによって投影画像データを生成する。こうすることによって、メッシュMPの処理時に、隣接するメッシュM34に存在する地物B34に対しても平行投影が行われるから、その上部も漏れなく投影画像データ化することができる。
The reason for reading the 3D map database including the periphery of the target mesh in this way is as follows. In this embodiment, the projection image data is generated by parallel projecting the three-dimensional projection image data included in the 3D map database. However, when map data is generated and managed by dividing it into meshes, there is a problem in that appropriate projection image data cannot be generated if parallel projection is performed in units of meshes.
Consider a case where projection image data corresponding to the hatched mesh MP in the figure is generated. In the 3D map database, meshes M11 to M55 exist around the mesh MP, and various features exist in each mesh. Here, consider a case where the feature B34 existing in the mesh M34 adjacent to the mesh MP is projected in parallel. If parallel projection is performed in the direction indicated by Vpj34 in the drawing, the upper part of the feature B34 is projected into the mesh MP. Thus, when generating projection image data by parallel projection, a part of a feature that does not exist in the mesh may be projected onto the mesh MP to be processed. Therefore, if the parallel projection is simply performed for each mesh, the projection image of the feature existing on the other mesh is lost, and appropriate projection image data cannot be obtained.
Therefore, in this embodiment, with respect to the mesh MP to be processed, meshes adjacent thereto (M22, M23, M24, M25, M32, M34, M42, M43, M44), and meshes further adjacent thereto ( M11 to M15, M21, M25, M31, M35, M41, M45, and M51 to M55) are read, parallel projection is applied to the entire meshes M11 to M55, and the mesh MP is supported. Projection image data is generated by cutting out a portion of the polygon. By doing so, parallel projection is also performed on the feature B34 existing in the adjacent mesh M34 during the processing of the mesh MP, so that the upper part can be converted into projection image data without omission.

本実施例では、上述の通り、処理対象となるメッシュMPから2区画までの位置にあるメッシュを用いているが、投影画像データの生成に用いる範囲は、任意に設定可能である。各メッシュのサイズが地物のサイズに比べて十分に大きく、2区画離れた位置にある地物が処理対象となるメッシュに投影される可能性がない場合には、1区画、つまり処理対象となるメッシュに直接隣接するメッシュのみを用いて平行投影を行ってもよい。また、逆に、メッシュのサイズが地物のサイズに比べて小さい場合には、3区画以上の範囲を用いて平行投影してもよい。
さらに、平行投影に用いる範囲は、処理対象となるメッシュMPの周囲に均等に配置する必要はなく、投影方位を考慮して、偏らせてもよい。例えば、図中に示すように矢印Vpj34の方位で平行投影する場合を考える。この時、メッシュMPの左側に隣接するメッシュM32に存在する地物B32は、矢印Vpj32方向に投影される結果、投影画像は地物B32の左側に表示される。つまり、この投影方位では、地物B32は、メッシュMPに投影されることはない。従って、メッシュMPを処理する際には、メッシュM32を平行投影に用いる必要はないことになる。
同様に、図中の矢印Vpの投影方位で平行投影する場合には、太線で囲った範囲(メッシュM34、M35、M43〜M45、M53〜M55)があれば足りる。
このように、平行投影に用いる範囲は、処理対象となるメッシュMPよりも投影方位側に偏らせて設定しても構わない。
In this embodiment, as described above, the meshes at positions from the mesh MP to be processed to the two sections are used, but the range used for generating the projection image data can be arbitrarily set. If the size of each mesh is sufficiently large compared to the size of the feature and there is no possibility that a feature that is two blocks away will be projected onto the mesh to be processed, one section, that is, the processing target Parallel projection may be performed using only a mesh directly adjacent to the mesh. Conversely, when the mesh size is smaller than the feature size, parallel projection may be performed using a range of three or more sections.
Furthermore, the range used for parallel projection need not be evenly arranged around the mesh MP to be processed, and may be biased in consideration of the projection direction. For example, consider the case of parallel projection in the direction of the arrow Vpj34 as shown in the figure. At this time, as a result of the feature B32 existing in the mesh M32 adjacent to the left side of the mesh MP being projected in the direction of the arrow Vpj32, the projection image is displayed on the left side of the feature B32. That is, in this projection direction, the feature B32 is not projected onto the mesh MP. Therefore, when processing the mesh MP, it is not necessary to use the mesh M32 for parallel projection.
Similarly, in the case of performing parallel projection with the projection direction of the arrow Vp in the drawing, it is sufficient if there are ranges (mesh M34, M35, M43 to M45, M53 to M55) surrounded by a thick line.
As described above, the range used for parallel projection may be set so as to be biased toward the projection direction with respect to the mesh MP to be processed.

以上の処理によって読み込んだ3D地図データベースに対し、データ生成装置100はステップS12で指定された平行投影パラメータに基づいて、平行投影を施す(ステップS16)。この処理によって、各地物を平行投影で3次元的に表現した投影画像が表示される。本実施例では、これらの表示結果は、2次元のポリゴンデータとして、データ生成装置100のメモリ内に一時的に格納する。表示結果をラスタデータとして格納してもよい。   The data generation device 100 performs parallel projection on the 3D map database read by the above processing based on the parallel projection parameters specified in step S12 (step S16). By this processing, a projection image in which each feature is three-dimensionally expressed by parallel projection is displayed. In this embodiment, these display results are temporarily stored in the memory of the data generation device 100 as two-dimensional polygon data. The display result may be stored as raster data.

平行投影が完了すると、データ生成装置100は生成されたポリゴンデータから、対象メッシュに相当する領域を切出す(ステップS18)。複数のメッシュにまたがって表示されているポリゴンに対しては、対象メッシュ内にある部分だけを抽出し、新たなポリゴンデータとして設定しなおす。
そして、データ生成装置100は、投影画像データとして格納する(ステップS20)。本実施例では、投影画像データ211への格納指示とともに、データをサーバ200(図6参照)に送信する。
以上の処理を全メッシュについて実行することによって、本実施例の投影画像データ211を整備することができる。
When the parallel projection is completed, the data generation device 100 cuts out a region corresponding to the target mesh from the generated polygon data (step S18). For polygons displayed across a plurality of meshes, only the portion in the target mesh is extracted and set as new polygon data.
Then, the data generation device 100 stores it as projection image data (step S20). In this embodiment, the data is transmitted to the server 200 (see FIG. 6) together with an instruction to store the projection image data 211.
By executing the above processing for all meshes, the projection image data 211 of this embodiment can be prepared.

E.地図表示処理:
図13は、地図表示処理のフローチャートである。端末としてのスマートフォン300の表示制御部306が主として実行する処理であり、ハードウェア的にはスマートフォン300のCPUが実行する処理である。
処理を開始すると、スマートフォン300は、地図の表示範囲を設定する(ステップS50)。ユーザからの指定を受け付けるようにしてもよいし、デフォルトの設定を利用してもよい。
次に、スマートフォン300は、表示範囲に相当する領域の投影画像データを読み込み、仮想3次元空間の地表面に貼り付ける(ステップS52)。投影画像データは、スマートフォン300の地図情報記憶部305に記憶されているデータを利用するが、不足する場合には、サーバ200から取得する。投影画像データは、表示範囲の周辺も含めて貼り付けることが好ましい。
E. Map display processing:
FIG. 13 is a flowchart of the map display process. This process is mainly executed by the display control unit 306 of the smartphone 300 as a terminal, and is a process executed by the CPU of the smartphone 300 in terms of hardware.
When the process is started, the smartphone 300 sets a map display range (step S50). You may make it receive the designation | designated from a user and may use a default setting.
Next, the smartphone 300 reads the projection image data of the region corresponding to the display range and pastes it on the ground surface of the virtual three-dimensional space (step S52). As the projection image data, data stored in the map information storage unit 305 of the smartphone 300 is used. If the projection image data is insufficient, the projection image data is acquired from the server 200. The projection image data is preferably pasted including the periphery of the display range.

スマートフォン300は、地図内に表示すべき付加オブジェクトの3次元位置座標・姿勢を取得する(ステップS54)。表示対象となる付加オブジェクトは、例えば、ユーザが個別またはバス・電車などの種別に基づいて指定可能としてもよい。また、「バスの路線を調査する」など、地図の表示目的に合わせて、表示対象となる付加オブジェクトを自動的に設定してもよい。
付加オブジェクトの位置座標や姿勢は、付加オブジェクト軌跡データに格納されている。スマートフォン300の地図情報記憶部305に予めダウンロードされ格納されている分で不足する場合には、サーバ200から取得する。バスや電車のように、軌跡に沿って移動する付加オブジェクトの場合には、付加オブジェクト軌跡データに沿って、表示すべき座標値、姿勢を徐々に移動させていけばよい。移動方法は、例えば、付加オブジェクトごとに、移動速度または移動量を設定しておいてもよいし、予め固定された移動量で移動させるようにしてもよい。
The smartphone 300 acquires the three-dimensional position coordinates / posture of the additional object to be displayed in the map (step S54). For example, the additional object to be displayed may be specified by the user individually or based on the type of bus / train. Further, an additional object to be displayed may be automatically set in accordance with the display purpose of the map such as “investigating bus routes”.
The position coordinates and orientation of the additional object are stored in the additional object trajectory data. When the map information storage unit 305 of the smartphone 300 is insufficiently downloaded and stored in advance, the information is acquired from the server 200. In the case of an additional object that moves along a trajectory, such as a bus or train, the coordinate values and postures to be displayed may be gradually moved along the additional object trajectory data. As the movement method, for example, the movement speed or the movement amount may be set for each additional object, or the movement may be performed with a fixed movement amount.

付加オブジェクトの3次元位置および姿勢を取得すると、スマートフォン300は、投影画像生成時の投影条件、即ち生成時投影条件に基づいて、付加オブジェクトの平面位置座標および姿勢を、投影座標系に変換する(ステップS56)。座標変換は、投影条件に応じた変換行列を乗じることにより可能である。サーバ200から、地図データベース210を送信するのと併せて、投影条件をスマートフォン300に送信しておき、スマートフォン300が変換行列を生成するものとしてもよいし、サーバ200で生成した変換行列をスマートフォン300に送信するようにしてもよい。
スマートフォン300は、上述の座標変換の結果得られる投影座標に従って、各付加オブジェクトの3次元モデルを、仮想3次元空間内で配置する(ステップS58)。そして、全体をレンダリングして、3次元地図を表示する(ステップS60)。このときのレンダリング、即ち表示時投影として、本実施例では平行投影を適用するものとした。投影角度、投影方位などの投影パラメータも、生成時投影に合わせた。投影パラメータは、生成時投影と異なる値としてもよい。
When the three-dimensional position and orientation of the additional object are acquired, the smartphone 300 converts the planar position coordinates and orientation of the additional object into the projection coordinate system based on the projection conditions at the time of generating the projection image, that is, the projection conditions at the time of generation ( Step S56). Coordinate transformation is possible by multiplying a transformation matrix according to the projection conditions. In addition to transmitting the map database 210 from the server 200, the projection conditions may be transmitted to the smartphone 300, and the smartphone 300 may generate a conversion matrix. The conversion matrix generated by the server 200 may be the smartphone 300. You may make it transmit to.
The smartphone 300 arranges the three-dimensional model of each additional object in the virtual three-dimensional space according to the projected coordinates obtained as a result of the coordinate conversion described above (step S58). Then, the whole is rendered and a three-dimensional map is displayed (step S60). In this embodiment, parallel projection is applied as rendering at this time, that is, projection at the time of display. Projection parameters such as projection angle and projection orientation were also matched to the projection at the time of generation. The projection parameter may be a value different from the generation projection.

以上で説明した実施例によれば、図2〜5で示したように、3次元的な付加オブジェクトを配置した3次元地図を表示することができる。本実施例では、3次元モデルを表示時投影でレンダリングして付加オブジェクトを表示するため、リアルな表示が可能である。
上記実施例では、表示時投影の対象となる仮想3次元空間内には、地表面に貼り付けられた投影画像と、付加オブジェクトが配置されているのみであり、多数の地物の3次元モデルが配置されている訳ではない。従って、表示時投影も、非常に軽い負荷で実行することができる。
投影画像に対しては、二重に投影処理が施されることになるが、生成時投影と表示時投影の条件次第で、二重の投影処理による不自然さは十分に抑制することができる。特に、生成時投影と表示時投影の双方を平行投影で行うものとすれば、違和感はほとんどない程度に抑制することが可能である。
上記実施例では、付加オブジェクトを用いることにより、3次元地図に加えて種々の付加的な情報を、ユーザが視覚的かつ直感的に認識しやすい態様で提示することができる。例えば、バスや電車などの付加オブジェクトを、路線に沿って移動するアニメーションで提示すれば、ユーザは、目的地に到達する路線を、より簡単に識別することが可能となる。
本実施例においては、経路探索を可能な構成とし、付加オブジェクトを用いて行ってもよい。
According to the embodiment described above, as shown in FIGS. 2 to 5, it is possible to display a three-dimensional map in which three-dimensional additional objects are arranged. In this embodiment, since the additional object is displayed by rendering the three-dimensional model by projection at the time of display, realistic display is possible.
In the above embodiment, only a projection image and an additional object pasted on the ground surface are arranged in the virtual three-dimensional space to be projected at the time of display, and a three-dimensional model of a large number of features. Is not necessarily arranged. Accordingly, the projection at the time of display can be executed with a very light load.
The projection image is subject to double projection processing, but depending on the conditions of projection at the time of generation and projection at the time of display, unnaturalness due to the double projection processing can be sufficiently suppressed. . In particular, if both the projection at the time of generation and the projection at the time of display are performed by parallel projection, it is possible to suppress a sense of incongruity to a degree that is hardly present.
In the above embodiment, by using the additional object, various additional information in addition to the three-dimensional map can be presented in a manner that the user can easily recognize visually and intuitively. For example, if an additional object such as a bus or a train is presented as an animation that moves along a route, the user can more easily identify the route that reaches the destination.
In this embodiment, the route search may be configured to be performed using an additional object.

F.変形例:
本実施例では、上述した実施例のほか、種々の変形例を構成可能である。
F1.付加オブジェクト軌跡データ生成処理:
実施例では、付加オブジェクトの3次元位置座標・姿勢を実空間の直交座標系で表し、表示時にスマートフォン300側で、投影座標系に変換した上で付加オブジェクトを配置した。これに対して、以下に示す通り、付加オブジェクトの軌跡データを予め投影座標系で用意するものとしてもよい。
図14は、付加オブジェクト軌跡データ生成処理のフローチャートである。サーバ200が実行する処理である。
この処理を開始すると、サーバ200は、生成時投影処理の平行投影パラメータを入力する(ステップS100)。そして、これに基づき、実空間の直交座標系から投影座標に変換するための座標変換行列を生成する(ステップS102)。
次に、サーバ200は、付加オブジェクトの原軌跡データを読み込む(ステップS104)。原軌跡データとは、付加オブジェクトの軌跡を実空間の直交座標系で表したデータである。原軌跡データとしては、実施例における付加オブジェクト軌跡データを、用いることができる。
サーバ200は、原軌跡データを構成する平面位置座標および姿勢を、座標変換行列によって、投影座標に変換する(ステップS106)。そして、変換結果を付加オブジェクト軌跡データとして格納する(ステップS108)。
以上の処理によって、付加オブジェクト軌跡データは、既に座標変換された投影座標系で表されていることになる。従って、この軌跡データに基づいて付加オブジェクトの位置および姿勢を決定すれば、スマートフォン300では、さらに座標変換(図13のステップS56)を施すまでなく、付加オブジェクトを配置することが可能となり、さらに表示時の処理付加を軽減することが可能となる。
F. Variation:
In this embodiment, in addition to the above-described embodiments, various modifications can be configured.
F1. Additional object trajectory data generation processing:
In the embodiment, the three-dimensional position coordinates / attitude of the additional object are represented by a real space orthogonal coordinate system, and the additional object is arranged after being converted into the projected coordinate system on the smartphone 300 side at the time of display. On the other hand, as described below, the trajectory data of the additional object may be prepared in advance in the projection coordinate system.
FIG. 14 is a flowchart of additional object trajectory data generation processing. This is a process executed by the server 200.
When this process is started, the server 200 inputs parallel projection parameters for the generation-time projection process (step S100). Based on this, a coordinate conversion matrix for converting the orthogonal coordinate system in the real space to the projected coordinates is generated (step S102).
Next, the server 200 reads the original trajectory data of the additional object (step S104). The original trajectory data is data that represents the trajectory of the additional object in the orthogonal coordinate system of the real space. As the original trajectory data, the additional object trajectory data in the embodiment can be used.
The server 200 converts the plane position coordinates and orientation constituting the original trajectory data into projected coordinates using a coordinate conversion matrix (step S106). Then, the conversion result is stored as additional object trajectory data (step S108).
Through the above processing, the additional object trajectory data is represented in the projected coordinate system that has already undergone coordinate transformation. Therefore, if the position and orientation of the additional object are determined based on the trajectory data, the smartphone 300 can arrange the additional object without further coordinate conversion (step S56 in FIG. 13), and display the additional object. It is possible to reduce the time processing addition.

F2.変形例における付加オブジェクト:
本実施例は、多種多様な付加オブジェクトを用いることができる。図15〜18は、変形例としての付加オブジェクトの表示例を示す説明図である。
図15は、多数の人を付加オブジェクトとして表示する例を示した。人の3次元モデルを用意し、任意の軌跡を、付加オブジェクト軌跡データとして格納しておくことにより、これらを表示することができる。人を付加オブジェクトとして表示することにより、人の混雑具合を視覚的に表すことが可能となる。この例では、一人一人の人を付加オブジェクトとして表示してもよいし、数人の人からなるグループを、ひとまとまりの付加オブジェクトとして表示してもよい。
図16は、船および人を付加オブジェクトとして表示する例を示した。このように水面上を移動する付加オブジェクトを用いることも可能である。
図17には、ローラーコースターを付加オブジェクトとして表示する例を示した。この例では、ローラーコースターの軌道自体が静的な付加オブジェクトであるとともに、走行するローラーコースターは可動物としての付加オブジェクトとして描かれる。ローラーコースターの走行は、軌道に基づいて付加オブジェクト軌跡データを用意しておくことにより、実現することができる。このように付加オブジェクトは、静的モデルと可動物モデルとの組み合わせで表現してもよい。また、図17の例では、ローラーコースターは、地表面を走行するだけでなく、高度も変化させて3次元的に走行する。付加オブジェクトを配置する仮想3次元空間は、高さ成分を有する3次元空間として用意されているため、このように高度の変化を伴う付加オブジェクトも表示することが可能となる。
図18には、観覧車を付加オブジェクトとして表示する例を示した。観覧車自体の位置は変化しないが、時間とともにゴンドラは回転する。かかる表示は、観覧車の3次元モデルの形状自体を時間とともに変化させることによって容易に実現することができる。
その他、3次元地図には、飛行機、雲など種々の物を付加オブジェクトとして表示することが可能である。
F2. Additional objects in the variant:
In this embodiment, a wide variety of additional objects can be used. 15 to 18 are explanatory diagrams illustrating display examples of additional objects as modified examples.
FIG. 15 shows an example in which a large number of people are displayed as additional objects. By preparing a three-dimensional model of a person and storing arbitrary trajectories as additional object trajectory data, these can be displayed. By displaying a person as an additional object, it becomes possible to visually represent the degree of congestion of the person. In this example, each person may be displayed as an additional object, or a group of several persons may be displayed as a group of additional objects.
FIG. 16 shows an example in which ships and people are displayed as additional objects. It is also possible to use an additional object that moves on the water surface in this way.
FIG. 17 shows an example in which a roller coaster is displayed as an additional object. In this example, the roller coaster track itself is a static additional object, and the running roller coaster is drawn as an additional object as a movable object. The running of the roller coaster can be realized by preparing additional object trajectory data based on the trajectory. As described above, the additional object may be expressed by a combination of the static model and the movable object model. In the example of FIG. 17, the roller coaster not only travels on the ground surface but also travels three-dimensionally while changing the altitude. Since the virtual three-dimensional space in which the additional object is arranged is prepared as a three-dimensional space having a height component, it is possible to display the additional object with a change in altitude in this way.
FIG. 18 shows an example in which a ferris wheel is displayed as an additional object. The position of the Ferris wheel itself does not change, but the gondola rotates with time. Such display can be easily realized by changing the shape of the three-dimensional model of the ferris wheel over time.
In addition, various objects such as airplanes and clouds can be displayed as additional objects on the three-dimensional map.

以上、本発明の実施例について説明した。3次元地図表示システムは、必ずしも上述した実施例の全ての機能を備えている必要はなく、一部のみを実現するようにしてもよい。また、上述した内容に追加の機能を設けてもよい。
本発明は上述の実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。
例えば、実施例では、生成時投影および表示時投影の双方を平行投影で行っているが、いずれか一方を透視投影としてもよい。
実施例においてハードウェア的に構成されている部分は、ソフトウェア的に構成することもでき、その逆も可能である。
The embodiment of the present invention has been described above. The three-dimensional map display system does not necessarily have all the functions of the above-described embodiments, and only a part may be realized. Moreover, you may provide an additional function in the content mentioned above.
Needless to say, the present invention is not limited to the above-described embodiments, and various configurations can be adopted without departing from the spirit of the present invention.
For example, in the embodiment, both the projection at the time of generation and the projection at the time of display are performed by parallel projection, but either one may be perspective projection.
In the embodiment, the part configured as hardware can be configured as software, and vice versa.

本発明は、地物を3次元的に表現した3次元地図を、該地物以外の付加オブジェクトとともに表示する3次元地図表示システムに関する。   The present invention relates to a three-dimensional map display system that displays a three-dimensional map representing a feature in a three-dimensional manner together with additional objects other than the feature.

100…データ生成装置
101…コマンド入力部
102…平行投影部
103…投影画像データ
104…3D地図データベース
105…送受信部
106…投影パラメータ設定部
200…サーバ
201…送受信部
202…データベース管理部
210…地図データベース
211…投影画像データ
212…付加オブジェクト軌跡データ
213…付加オブジェクト3次元モデル
300…スマートフォン
300d…ディスプレイ
301…送受信部
302…コマンド入力部
304…主制御部
305…地図情報記憶部
306…表示制御部
DESCRIPTION OF SYMBOLS 100 ... Data generation apparatus 101 ... Command input part 102 ... Parallel projection part 103 ... Projection image data 104 ... 3D map database 105 ... Transmission / reception part 106 ... Projection parameter setting part 200 ... Server 201 ... Transmission / reception part 202 ... Database management part 210 ... Map Database 211 ... Projection image data 212 ... Additional object locus data 213 ... Additional object three-dimensional model 300 ... Smartphone 300d ... Display 301 ... Transmission / reception unit 302 ... Command input unit 304 ... Main control unit 305 ... Map information storage unit 306 ... Display control unit

Claims (7)

地物を3次元的に表現した3次元地図を表示する3次元地図表示システムであって、
所定の投影条件で地物を投影して生成された2次元画像表示データとしての投影画像データを格納する投影画像データベースと、
前記地物とは別に、前記3次元地図内に3次元的に表示されるべき付加オブジェクトの3次元モデルを記憶する付加オブジェクト3次元モデルデータベースと、
前記投影画像データベースおよび付加オブジェクト3次元モデルデータベースを参照して、3次元地図を表示する表示制御部とを備え、
前記表示制御部は、
仮想3次元空間内の地表面に前記投影画像データを貼り付け、
その後、該仮想3次元空間内において、前記付加オブジェクト3次元モデルを配置し、
該仮想3次元空間を投影することで前記3次元地図を表示する3次元地図表示システム。
A three-dimensional map display system for displaying a three-dimensional map representing a three-dimensional feature,
A projection image database for storing projection image data as two-dimensional image display data generated by projecting a feature under a predetermined projection condition;
In addition to the features, an additional object 3D model database that stores a 3D model of the additional object to be displayed three-dimensionally in the 3D map;
A display control unit for displaying a three-dimensional map with reference to the projection image database and the additional object three-dimensional model database;
The display control unit
Pasting the projection image data on the ground surface in a virtual three-dimensional space,
Thereafter, the additional object 3D model is arranged in the virtual 3D space,
A three-dimensional map display system that displays the three-dimensional map by projecting the virtual three-dimensional space.
請求項1記載の3次元地図表示システムであって、
実際の3次元空間において前記付加オブジェクトが配置されるべき位置座標を設定し、該位置座標を前記投影画像データを生成するための投影条件で変換することによって、前記仮想3次元空間内の地表面上の仮想位置座標を生成する付加オブジェクト座標設定部を備え、
前記表示制御部は、前記仮想位置座標と前記実際の3次元空間における高さ成分に基づいて前記付加オブジェクトを配置して、前記3次元地図を表示する3次元地図表示システム。
The three-dimensional map display system according to claim 1,
By setting the position coordinates where the additional object is to be placed in an actual three-dimensional space, and converting the position coordinates under the projection conditions for generating the projection image data, the ground surface in the virtual three-dimensional space An additional object coordinate setting unit for generating the upper virtual position coordinates is provided,
The display control unit arranges the additional object based on the virtual position coordinates and a height component in the actual three-dimensional space, and displays the three-dimensional map.
請求項1または2記載の3次元地図表示システムであって、
前記投影画像データを生成するための投影は、鉛直方向に対して第1の投影角度だけ傾けた斜め方向からの平行投影である3次元地図表示システム。
The three-dimensional map display system according to claim 1 or 2,
The projection for generating the projection image data is a three-dimensional map display system which is a parallel projection from an oblique direction inclined by a first projection angle with respect to the vertical direction.
請求項1〜3いずれか記載の3次元地図表示システムであって、
前記仮想3次元空間の投影は、鉛直方向に対して第2の投影角度だけ傾けた斜め方向からの平行投影である3次元地図表示システム。
It is a three-dimensional map display system in any one of Claims 1-3,
The projection of the virtual three-dimensional space is a three-dimensional map display system that is a parallel projection from an oblique direction inclined by a second projection angle with respect to the vertical direction.
請求項1〜4いずれか記載の3次元地図表示システムであって、
前記付加オブジェクトは、公共交通機関で利用される乗り物であり、
前記付加オブジェクトの実際の3次元空間における移動軌跡を表す付加オブジェクト軌跡データを記憶する付加オブジェクト軌跡データベースを備え、
前記表示制御部は、前記付加オブジェクト軌跡データに基づいて、該付加オブジェクトを配置して前記3次元地図を表示する3次元地図表示システム。
A three-dimensional map display system according to any one of claims 1 to 4,
The additional object is a vehicle used in public transportation,
An additional object trajectory database for storing additional object trajectory data representing a movement trajectory of the additional object in an actual three-dimensional space;
The display control unit is a three-dimensional map display system that arranges the additional object and displays the three-dimensional map based on the additional object trajectory data.
コンピュータを有する3次元地図表示システムによって地物を3次元的に表現した3次元地図を表示する3次元地図表示方法であって、
前記3次元地図表示システムは、
所定の投影条件で地物を投影して生成された2次元画像表示データとしての投影画像データを格納する投影画像データベースと、
前記地物とは別に、前記3次元地図内に3次元的に表示されるべき付加オブジェクトの3次元モデルを記憶する付加オブジェクト3次元モデルデータベースとを備え、
前記3次元地図表示方法は、
前記コンピュータが実行するステップとして、
仮想3次元空間内の地表面に前記投影画像データを貼り付けるステップと、
その後、該仮想3次元空間内において、前記付加オブジェクト3次元モデルを配置するステップと、
該仮想3次元空間を投影することで前記3次元地図を表示するステップとを備える3次元地図表示方法。
A three-dimensional map display method for displaying a three-dimensional map representing a feature three-dimensionally by a three-dimensional map display system having a computer,
The 3D map display system includes:
A projection image database for storing projection image data as two-dimensional image display data generated by projecting a feature under a predetermined projection condition;
In addition to the feature, an additional object three-dimensional model database that stores a three-dimensional model of the additional object to be displayed three-dimensionally in the three-dimensional map,
The 3D map display method includes:
As the steps executed by the computer,
Pasting the projection image data on the ground surface in a virtual three-dimensional space;
Thereafter, placing the additional object three-dimensional model in the virtual three-dimensional space;
A three-dimensional map display method comprising: displaying the three-dimensional map by projecting the virtual three-dimensional space.
コンピュータを有する3次元地図表示システムによって地物を3次元的に表現した3次元地図を表示するためのコンピュータプログラムであって、
前記3次元地図表示システムは、
所定の投影条件で地物を投影して生成された2次元画像表示データとしての投影画像データを格納する投影画像データベースと、
前記地物とは別に、前記3次元地図内に3次元的に表示されるべき付加オブジェクトの3次元モデルを記憶する付加オブジェクト3次元モデルデータベースとを備え、
前記コンピュータプログラムは、
仮想3次元空間内の地表面に前記投影画像データを貼り付ける機能と、
その後、該仮想3次元空間内において、前記付加オブジェクト3次元モデルを配置する機能と、
該仮想3次元空間を投影することで前記3次元地図を表示する機能とを前記コンピュータに実現させるコンピュータプログラム。
A computer program for displaying a three-dimensional map representing a feature three-dimensionally by a three-dimensional map display system having a computer,
The 3D map display system includes:
A projection image database for storing projection image data as two-dimensional image display data generated by projecting a feature under a predetermined projection condition;
In addition to the feature, an additional object three-dimensional model database that stores a three-dimensional model of the additional object to be displayed three-dimensionally in the three-dimensional map,
The computer program is
A function of pasting the projection image data on the ground surface in a virtual three-dimensional space;
A function for arranging the additional object three-dimensional model in the virtual three-dimensional space;
A computer program that causes the computer to realize a function of displaying the three-dimensional map by projecting the virtual three-dimensional space.
JP2013216050A 2013-10-17 2013-10-17 3D map display system Expired - Fee Related JP6110770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013216050A JP6110770B2 (en) 2013-10-17 2013-10-17 3D map display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013216050A JP6110770B2 (en) 2013-10-17 2013-10-17 3D map display system

Publications (2)

Publication Number Publication Date
JP2015079353A true JP2015079353A (en) 2015-04-23
JP6110770B2 JP6110770B2 (en) 2017-04-05

Family

ID=53010727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013216050A Expired - Fee Related JP6110770B2 (en) 2013-10-17 2013-10-17 3D map display system

Country Status (1)

Country Link
JP (1) JP6110770B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330453A (en) * 2000-03-17 2001-11-30 Matsushita Electric Ind Co Ltd Map display and automobile navigation system
JP2006330360A (en) * 2005-05-26 2006-12-07 Denso Corp Information display for vehicle
JP2011186960A (en) * 2010-03-11 2011-09-22 Geo Technical Laboratory Co Ltd Three-dimensional map drawing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330453A (en) * 2000-03-17 2001-11-30 Matsushita Electric Ind Co Ltd Map display and automobile navigation system
JP2006330360A (en) * 2005-05-26 2006-12-07 Denso Corp Information display for vehicle
JP2011186960A (en) * 2010-03-11 2011-09-22 Geo Technical Laboratory Co Ltd Three-dimensional map drawing system

Also Published As

Publication number Publication date
JP6110770B2 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
JP5223062B2 (en) 3D map drawing system
JP4964762B2 (en) Map display device and map display method
KR101931821B1 (en) Method for re-using photorealistic 3d landmarks for nonphotorealistic 3d maps
JP5036179B2 (en) Two-dimensional linear data real-time three-dimensional conversion method and apparatus, two-dimensional linear data real-time three-dimensional image display method and display apparatus
CN100403340C (en) Image generating apparatus, image generating method, and computer program
US8907950B2 (en) Driving simulation apparatus, wide-angle camera video simulation apparatus, and image deforming/compositing apparatus
JP3447900B2 (en) Navigation device
JP5997640B2 (en) 3D image output apparatus and background image generation apparatus
CN107705364A (en) A kind of immersion virtual display system based on three-dimensional geographic information
KR102090852B1 (en) three dimensional map display system
JP5964771B2 (en) 3D map display device, 3D map display method, and computer program
US20160239996A1 (en) 3d map display system
JP5883723B2 (en) 3D image display system
JP6022386B2 (en) 3D map display device, 3D map display method, and computer program
CN106204703A (en) Three-dimensional scene models rendering intent and device
JP2012150823A (en) Three-dimensional map drawing system
JP5959479B2 (en) 3D map display system
JPH06195436A (en) Symbol display system on three dimensional map
JP2007041692A (en) Three-dimensional geographical data controller and three-dimensional geographical data control method
JP6110770B2 (en) 3D map display system
JP2013161465A (en) Three-dimensional map display system
CN114894198A (en) Navigation method and system based on market three-dimensional navigation map
JP2015187795A (en) image display system
JP6091676B2 (en) 3D map display system
JP2013161466A (en) Point designation system in three-dimensional map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170310

R150 Certificate of patent or registration of utility model

Ref document number: 6110770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees