JP6247456B2 - Navigation device and map drawing method - Google Patents

Navigation device and map drawing method Download PDF

Info

Publication number
JP6247456B2
JP6247456B2 JP2013111541A JP2013111541A JP6247456B2 JP 6247456 B2 JP6247456 B2 JP 6247456B2 JP 2013111541 A JP2013111541 A JP 2013111541A JP 2013111541 A JP2013111541 A JP 2013111541A JP 6247456 B2 JP6247456 B2 JP 6247456B2
Authority
JP
Japan
Prior art keywords
map
image information
background object
image
information corresponding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013111541A
Other languages
Japanese (ja)
Other versions
JP2014231996A (en
Inventor
阿部 誠
阿部  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2013111541A priority Critical patent/JP6247456B2/en
Publication of JP2014231996A publication Critical patent/JP2014231996A/en
Application granted granted Critical
Publication of JP6247456B2 publication Critical patent/JP6247456B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両位置周辺の地図画像等を表示するナビゲーション装置および地図描画方法に関する。   The present invention relates to a navigation device and a map drawing method for displaying a map image and the like around a vehicle position.

一般に、車載のナビゲーション装置では、地図データベースに格納されている背景データ、道路データ、文字・記号データなどを取得して描画することにより、表示装置に地図画像を表示している。また、従来から、背景データをポリゴンで表すようにしたナビゲーション装置が知られている(例えば、特許文献1参照。)。   In general, in-vehicle navigation devices display a map image on a display device by acquiring and drawing background data, road data, character / symbol data, and the like stored in a map database. Conventionally, a navigation apparatus in which background data is represented by polygons is known (see, for example, Patent Document 1).

背景データには、海や湖などの水系ポリゴンや、森林、田、畑、建物密集地などの土地利用ポリゴン、行政界を表す住所ポリゴン、建物を表す建物ポリゴンや施設の敷地を表す敷地ポリゴンなどの多種多様な形状データが存在する。これらの形状要素点が多くなると、地図描画処理の負担が高くなり、円滑な地図表示を行うことができなくなるため、各カーナビゲーション装置の性能に合わせて、形状要素点を間引きして地図データベースに格納している。   Background data includes water-based polygons such as seas and lakes, land-use polygons such as forests, fields, fields, and densely populated areas, address polygons that represent administrative boundaries, building polygons that represent buildings, and site polygons that represent facility sites There are various types of shape data. If these shape element points increase, the burden of map drawing processing increases and smooth map display cannot be performed. Therefore, the shape element points are thinned out in the map database according to the performance of each car navigation device. Storing.

特開2006−58530号公報JP 2006-58530 A

ところで、経年変化や新規描画アイテムの追加などによって背景データの種類が増加していくと、描画する形状要素点の数が多くなるため、ナビゲーション装置が円滑に地図描画することができる要素点数になるまで、形状要素点を間引いて地図データベースを作成する必要がある。その結果、本来のポリゴンが持つ曲線に近い滑らかな形状ではなく、角が目立つ多角形形状になってしまい、地図として表示した際に、その形状の荒さが非常に目立つことになって、背景の表示が不自然になるという問題があった。特に、画面上に複数の形状の荒いポリゴンが表示されると、その形状が表す線が目立ち、本来ナビゲーション装置の地図で確認したい道路の線を瞬時に見分けることが困難となり、地図全体としての視認性に影響を与えてしまうことになる。   By the way, if the number of types of background data increases due to changes over time or addition of new drawing items, the number of shape element points to be drawn increases, so the number of element points that the navigation device can smoothly draw on the map becomes. Until then, it is necessary to create a map database by thinning out shape element points. As a result, it is not a smooth shape close to the curve of the original polygon, but a polygon shape with conspicuous corners, and when displayed as a map, the roughness of the shape becomes very noticeable, and the background There was a problem that the display became unnatural. In particular, when multiple polygons with multiple shapes are displayed on the screen, the lines represented by the shapes are conspicuous, making it difficult to instantly identify the road line that you originally want to check on the map of the navigation device. It will affect the sex.

本発明は、このような点に鑑みて創作されたものであり、その目的は、ポリゴンで構成された背景データを描画する際の表示の不自然さを改善することができるナビゲーション装置および地図描画方法を提供することにある。   The present invention was created in view of the above points, and an object of the present invention is to provide a navigation device and map drawing that can improve display unnaturalness when drawing background data composed of polygons. It is to provide a method.

上述した課題を解決するために、本発明のナビゲーション装置は、ポリゴンで構成された背景オブジェクトおよびその他のオブジェクトの描画に必要な地図データを取得する地図データ取得手段と、地図データに基づいて、背景オブジェクトおよびその他のオブジェクトに対応する画像情報を生成してフレームメモリに格納する描画手段と、フレームメモリに格納された画像情報を読み出して表示装置に地図画像を表示する表示処理手段とを備え、描画手段は、背景オブジェクトに対応する画像情報を生成する際にぼかし処理を行っている。   In order to solve the above-described problems, a navigation device according to the present invention includes a map data acquisition unit that acquires map data necessary for drawing a background object composed of polygons and other objects, and a background based on the map data. A drawing unit that generates image information corresponding to an object and other objects and stores the image information in a frame memory; and a display processing unit that reads the image information stored in the frame memory and displays a map image on the display device. The means performs blurring processing when generating image information corresponding to the background object.

また、本発明の地図描画方法は、ポリゴンで構成された背景オブジェクトおよびその他のオブジェクトの描画に必要な地図データを地図データ取得手段によって取得する地図データ取得ステップと、地図データに基づいて、背景オブジェクトおよびその他のオブジェクトに対応する画像情報を生成してフレームメモリに格納する動作を描画手段によって行う地図描画ステップと、フレームメモリに格納された画像情報を読み出して表示装置に地図画像を表示する動作を表示処理手段によって行う表示処理ステップとを有し、描画ステップにおいて、描画手段は、背景オブジェクトに対応する画像情報を生成する際にぼかし処理を行っている。   The map drawing method of the present invention includes a map data acquisition step for acquiring map data necessary for drawing a background object composed of polygons and other objects, and a background object based on the map data. A map drawing step for generating image information corresponding to the object and storing it in the frame memory by the drawing means, and an operation for reading the image information stored in the frame memory and displaying the map image on the display device. And a display processing step performed by the display processing means. In the drawing step, the drawing means performs blurring processing when generating image information corresponding to the background object.

ポリゴンで構成された背景を描画する際にぼかし処理が行われるため、間引きによって形状要素点の数が減った荒いポリゴンを用いた場合であっても、外形部分を示す多角形形状の角や直線状の輪郭が目立つことがなく、背景データを描画する際の不自然さを改善することができる。このため、本来確認したい道路の線などを識別しやすくなり、地図全体としての視認性を向上させることができる。   Since a blur process is performed when drawing a background composed of polygons, even when using rough polygons with a reduced number of shape element points due to thinning, polygonal corners and straight lines that indicate the outline The contour of the shape does not stand out, and the unnaturalness when drawing the background data can be improved. For this reason, it becomes easy to identify the road line or the like to be originally confirmed, and the visibility of the entire map can be improved.

また、上述した描画手段は、背景オブジェクトに対応する画像情報に対して縮小・拡大を1回あるいは複数回繰り返し行うことによりぼかし処理を行う。また、上述した描画手段は、背景オブジェクトに対応する画像情報と、縮小・拡大後の画像情報とをαブレンド処理によって合成することが望ましい。これにより、背景の輪郭を確実にぼかすことが可能となる。 In addition, the above-described drawing unit performs the blurring process by repeatedly reducing or enlarging the image information corresponding to the background object once or a plurality of times . In addition , it is desirable that the above-described drawing unit synthesizes the image information corresponding to the background object and the image information after reduction / enlargement by α blend processing. This makes it possible to blur the background outline reliably.

また、上述したフレームメモリと同じ大きさを有し、背景オブジェクトに対応する画像情報あるいは拡大後の画像情報を格納する第1の作業領域と、第1の作業領域よりも小さく、縮小後の画像情報を格納する第2の作業領域とを用いてぼかし処理が行われることが望ましい。このように、大きさの異なる2つの作業領域を用いることにより、効率よく縮小・拡大を伴うぼかし処理を行うことができる。   Also, a first work area having the same size as the frame memory described above, storing image information corresponding to the background object or image information after enlargement, and a reduced image smaller than the first work area It is desirable that the blurring process is performed using the second work area that stores information. As described above, by using two work areas having different sizes, it is possible to efficiently perform the blurring process with reduction / enlargement.

また、上述した縮小・拡大の繰り返し回数は、車両の走行速度に応じて変更する。また、車両の走行速度が所定値以下の場合に繰り返し回数を複数回とし、車両の走行速度が所定値を超える場合に繰り返し回数を1回とすることが望ましい。また、車両が停車中の場合に繰り返し回数を複数回とし、車両の走行中の場合に繰り返し回数を1回とすることが望ましい。これにより、車両位置に応じた地図画像のスクロール等によって処理負担が大きい走行時(あるいは高速走行時)にはぼかし処理を行うことによる処理の負担を軽減することができ、処理負担が小さい停車時(あるいは低速走行時)にはぼかし処理によるぼかしの程度を高めて地図全体としての視認性をさらに向上させることができる。 Further, the number of repetitions of the above-described reduction / enlargement is changed according to the traveling speed of the vehicle . Further, it is desirable that the number of repetitions is set to a plurality of times when the traveling speed of the vehicle is a predetermined value or less, and the number of repetitions is set to one when the traveling speed of the vehicle exceeds a predetermined value. Further, it is desirable that the number of repetitions is a plurality of times when the vehicle is stopped, and the number of repetitions is one when the vehicle is traveling. This makes it possible to reduce the processing burden caused by blurring when traveling with a large processing load (or during high-speed traveling) by scrolling the map image according to the vehicle position, etc. (Or during low-speed driving), the degree of blurring by blurring processing can be increased to further improve the visibility of the entire map.

一実施形態のナビゲーション装置の詳細構成を示す図である。It is a figure which shows the detailed structure of the navigation apparatus of one Embodiment. 背景オブジェクトに対してぼかし処理を行う動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure which performs a blurring process with respect to a background object. 図2に示した動作手順にしたがった描画状態の説明図である。FIG. 3 is an explanatory diagram of a drawing state according to the operation procedure shown in FIG. 2. 図2に示した動作手順にしたがった描画状態の説明図である。FIG. 3 is an explanatory diagram of a drawing state according to the operation procedure shown in FIG. 2.

以下、本発明の一実施形態のナビゲーション装置について、図面を参照しながら説明する。図1は、一実施形態のナビゲーション装置の構成を示す図である。図1に示すナビゲーション装置は、ナビゲーションコントローラ1、地図データ記憶装置3、操作部4、車両位置検出部5、表示装置6、オーディオ部7を含んで構成されている。このナビゲーション装置は、車両に搭載されている。   Hereinafter, a navigation device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a navigation device according to an embodiment. The navigation device shown in FIG. 1 includes a navigation controller 1, a map data storage device 3, an operation unit 4, a vehicle position detection unit 5, a display device 6, and an audio unit 7. This navigation device is mounted on a vehicle.

ナビゲーションコントローラ1は、CPU、ROM、RAM等を用いて所定の動作プログラムを実行することにより、自車位置周辺の地図画像表示動作や施設検索動作、経路探索・誘導動作などの各種機能を実現する。ナビゲーションコントローラ1の詳細構成については後述する。   The navigation controller 1 implements various functions such as a map image display operation around the own vehicle position, a facility search operation, and a route search / guidance operation by executing a predetermined operation program using a CPU, ROM, RAM, and the like. . The detailed configuration of the navigation controller 1 will be described later.

地図データ記憶装置3は、地図表示、施設検索、経路探索などに必要な地図データが格納されている記憶媒体およびその読み取り装置である。この地図データ記憶装置3には、経度および緯度で適当な大きさに区切られた矩形形状の図葉を単位とした地図データが格納されている。各図葉の地図データは、図葉番号を指定することにより特定され、読み出すことが可能となる。   The map data storage device 3 is a storage medium that stores map data necessary for map display, facility search, route search, and the like and a reading device thereof. The map data storage device 3 stores map data in units of rectangular figure leaves divided into appropriate sizes by longitude and latitude. The map data of each leaf can be specified and read by designating the leaf number.

この地図データは、経緯度で表現された点(ノード)の座標集合で表されており、また、道路は2以上のノードの連結からなり、2つのノードを連結した部分はリンクと呼ばれる。地図データは、道路リスト、ノードテーブル、交差点構成ノードリスト、交差点ネットリスト等からなるマップマッチング用及び経路探索用の道路データ、地図画面上に道路、公園、河川、目印となる建物や施設等の各種物件を表示するための背景データ、市町村名などの行政区画名、道路名、交差点名、建物の名前等の文字や地図記号等を表示するための文字・記号データなどから構成されている。   This map data is represented by a coordinate set of points (nodes) expressed by longitude and latitude, and a road is formed by connecting two or more nodes, and a portion connecting two nodes is called a link. Map data includes road data for map matching and route search consisting of road lists, node tables, intersection configuration node lists, intersection net lists, etc., roads, parks, rivers, landmark buildings and facilities on the map screen, etc. It consists of background data for displaying various properties, administrative division names such as municipalities, road names, intersection names, characters such as building names, and character / symbol data for displaying map symbols.

地図データを構成する各種データのうち本発明に関連するのは背景データであり、そのデータ構造について特に図示はしないが、背景データには、海や湖などの水系ポリゴンや、森林、田、畑、建物密集地などの土地利用ポリゴン、行政界を表す住所ポリゴン、建物を表す建物ポリゴンや施設の敷地を表す敷地ポリゴンなどの多種多様な形状データが含まれる。また、形状ポリゴンで表された背景画像としてのオブジェクト(背景オブジェクト)の中には、ぼかし処理の対象となる背景オブジェクトが含まれている。   Of the various data composing the map data, the background data is related to the present invention, and the data structure is not particularly shown. However, the background data includes water-based polygons such as seas and lakes, forests, fields, and fields. A variety of shape data such as a land use polygon such as a densely populated area, an address polygon representing an administrative boundary, a building polygon representing a building, and a site polygon representing a site of a facility are included. In addition, a background object to be blurred is included in an object (background object) as a background image represented by a shape polygon.

地図データ記憶装置3は、ハードディスク装置や半導体メモリによって、あるいは、DVDとその読み取り装置によって実現される。また、地図データ記憶装置3を通信装置に置き換えて、外部の地図配信サーバ(図示せず)から地図データを取得するようにしてもよい。   The map data storage device 3 is realized by a hard disk device or a semiconductor memory, or by a DVD and its reading device. Further, the map data storage device 3 may be replaced with a communication device to acquire map data from an external map distribution server (not shown).

操作部4は、利用者の指示(操作)を受け付けるためのものであり、各種の操作ボタンや操作つまみ類を備えている。また、操作部4は、表示装置6の画面に取り付けられたタッチパネルを含んでおり、画面上の一部を直接利用者が指等で指し示すことにより、操作指示を行うことができるようになっている。車両位置検出部5は、例えば、GPS受信機、方位センサ、距離センサなどを備えており、所定のタイミングで車両位置(経度、緯度)の検出を行い、検出結果を出力する。   The operation unit 4 is for receiving user instructions (operations), and includes various operation buttons and operation knobs. In addition, the operation unit 4 includes a touch panel attached to the screen of the display device 6, and the user can directly perform an operation instruction by pointing a part on the screen with a finger or the like. Yes. The vehicle position detection unit 5 includes, for example, a GPS receiver, an orientation sensor, a distance sensor, and the like, detects the vehicle position (longitude, latitude) at a predetermined timing, and outputs a detection result.

表示装置6は、例えばLCD(液晶表示装置)によって構成されており、ナビゲーションコントローラ1から出力される映像信号に基づいて自車位置周辺の地図画像や交差点案内画像、あるいは、施設検索によって得られた施設やその周辺駐車場が含まれる検索結果画像などを表示する。例えば、この表示装置6は、ダッシュボード中央あるいはダッシュボード上に配置されたナビゲーション装置の筐体と一体になっている。なお、表示装置6は、ナビゲーション装置の筐体とは分離し、運転者の見やすい位置に離して配置するようにしてもよい。オーディオ部7は、ナビゲーションコントローラ1から入力される音声信号に基づいて生成した案内音声等を車室内に出力する。   The display device 6 is composed of, for example, an LCD (liquid crystal display device), and is obtained by a map image around the vehicle position, an intersection guide image, or a facility search based on the video signal output from the navigation controller 1. A search result image including the facility and the surrounding parking lot is displayed. For example, the display device 6 is integrated with a housing of a navigation device arranged in the center of the dashboard or on the dashboard. The display device 6 may be separated from the casing of the navigation device and separated from the driver's legible position. The audio unit 7 outputs a guidance voice or the like generated based on the voice signal input from the navigation controller 1 into the vehicle interior.

次に、ナビゲーションコントローラ1の詳細構成について説明する。図1に示すナビゲーションコントローラ1は、地図バッファ10、地図読出制御部12、地図描画部14、車両位置計算部20、目的地設定部22、経路探索処理部24、経路誘導処理部26、入力処理部30、表示処理部40を含んで構成されている。   Next, a detailed configuration of the navigation controller 1 will be described. 1 includes a map buffer 10, a map readout control unit 12, a map drawing unit 14, a vehicle position calculation unit 20, a destination setting unit 22, a route search processing unit 24, a route guidance processing unit 26, and input processing. The unit 30 and the display processing unit 40 are included.

地図バッファ10は、地図データ記憶装置3から読み出された地図データを一時的に格納する。地図読出制御部12は、車両位置計算部20により算出される車両位置や利用者が操作部4を操作して指定した位置に応じて、所定範囲の地図データの読み出し要求を地図データ記憶装置3に出力する。地図描画部14は、地図バッファ10に格納された地図データに基づいて、表示装置6に地図画像を表示するために必要な描画処理を行って地図画像描画データを作成する。地図描画部14の詳細については後述する。   The map buffer 10 temporarily stores map data read from the map data storage device 3. The map reading control unit 12 sends a request for reading a predetermined range of map data in accordance with the vehicle position calculated by the vehicle position calculating unit 20 and the position designated by the user by operating the operation unit 4. Output to. Based on the map data stored in the map buffer 10, the map drawing unit 14 performs drawing processing necessary for displaying a map image on the display device 6 to create map image drawing data. Details of the map drawing unit 14 will be described later.

車両位置計算部20は、車両位置検出部5から出力される検出データに基づいて自車位置を計算するとともに、計算した自車位置が地図データの道路上にない場合には、自車位置を修正するマップマッチング処理を行う。   The vehicle position calculation unit 20 calculates the vehicle position based on the detection data output from the vehicle position detection unit 5, and if the calculated vehicle position is not on the road of the map data, the vehicle position is calculated. Perform map matching processing to correct.

目的地設定部22は、経路探索処理の目的地を設定する。例えば、目的地設定部22は、利用者によって指定される検索条件を満足する施設を検索して目的地として設定する。経路探索処理部24は、出発地と目的地(あるいは経由地)との間を所定の探索条件にしたがって結ぶ走行経路(誘導経路)を探索する。経路誘導処理部26は、経路探索処理部24による探索処理によって得られた誘導経路を地図上に重ねて表示したり、右左折交差点の拡大図を表示するための誘導経路描画データを作成するとともに、誘導経路に沿って車両を誘導するために必要な交差点案内等の音声信号を生成する。   The destination setting unit 22 sets a destination for route search processing. For example, the destination setting unit 22 searches for a facility that satisfies the search condition specified by the user and sets it as the destination. The route search processing unit 24 searches for a travel route (guidance route) connecting the departure point and the destination (or waypoint) according to a predetermined search condition. The route guidance processing unit 26 creates guidance route drawing data for displaying the guidance route obtained by the search processing by the route search processing unit 24 so as to be superimposed on the map or displaying an enlarged view of the right / left turn intersection. Then, an audio signal such as intersection guidance necessary for guiding the vehicle along the guidance route is generated.

入力処理部30は、操作部4から入力される各種の操作指示に対応する動作を行うための命令をナビゲーションコントローラ1内の各部に向けて出力する。表示処理部40は、地図描画部14によって作成される地図画像描画データが入力されており、この描画データに基づいて所定範囲の地図画像を表示装置6の画面に表示する。   The input processing unit 30 outputs commands for performing operations corresponding to various operation instructions input from the operation unit 4 to each unit in the navigation controller 1. The display processing unit 40 receives the map image drawing data created by the map drawing unit 14 and displays a predetermined range of map images on the screen of the display device 6 based on the drawing data.

次に、地図描画部14の詳細について説明する。図1に示すように、地図描画部14は、ポリゴン演算部50、53、テクスチャ処理部51、54、フレームメモリ52、作業用メモリ55、56、縮小・拡大処理部57、αブレンド処理部58、文字・記号情報描画部59、アイコン描画部60を備えている。本実施形態では、表示対象となる地図画像は、背景画像とその上に表示される文字・記号情報およびアイコンによって構成されているものとする。また、背景画像には、海や湖等の水系と、道路や建物、森林等の陸系とが含まれている。これらの領域の各構成要素はポリゴンによって表現され、各ポリゴンに対してテクスチャ画像を貼り付けるテクスチャマッピングの処理を行うことによって背景画像が生成される。また、森林等の一部の背景オブジェクトについてはぼかし処理が行われる。さらに、背景画像上に、地名や地図記号等の文字・記号情報と、表示が指示された特定施設を示すアイコン画像とが重ねて合成されて、地図画像が生成される。   Next, details of the map drawing unit 14 will be described. As shown in FIG. 1, the map drawing unit 14 includes polygon calculation units 50 and 53, texture processing units 51 and 54, a frame memory 52, work memories 55 and 56, a reduction / enlargement processing unit 57, and an α blend processing unit 58. A character / symbol information drawing unit 59 and an icon drawing unit 60. In this embodiment, it is assumed that the map image to be displayed is composed of a background image, character / symbol information and icons displayed thereon. In addition, the background image includes water systems such as seas and lakes, and land systems such as roads, buildings, and forests. Each component of these areas is represented by a polygon, and a background image is generated by performing a texture mapping process in which a texture image is pasted on each polygon. Also, blur processing is performed on some background objects such as forests. Furthermore, on the background image, character / symbol information such as a place name and a map symbol and an icon image indicating a specific facility instructed to be displayed are superimposed and synthesized to generate a map image.

ポリゴン演算部50は、背景オブジェクトを構成する各ポリゴンの頂点座標を計算する。テクスチャ処理部51は、計算されたポリゴンの頂点座標に基づいて、各ポリゴンにテクスチャ画像を貼り付けるテクスチャマッピング処理を行う。例えば、背景画像の一部に森林を表す陸系のオブジェクトが含まれる場合には、テクスチャ処理部51は、この水系のオブジェクトを構成するポリゴンに対して、森林をイメージする色彩のテクスチャ画像(青色の画像)を貼り付ける処理を行って、背景画像に対応する地図画像描画データを生成する。この地図画像描画データは、フレームメモリ52に格納される。フレームメモリ52は、現在の表示縮尺に対応する複数の図葉について地図画像描画データを格納する。例えば、自車位置周辺の地図画像表示を行う際には、自車位置が含まれる図葉と、その周囲に配置される8枚の図葉の合計9枚分の図葉について生成された地図画像描画データが格納される。   The polygon calculation unit 50 calculates vertex coordinates of each polygon constituting the background object. The texture processing unit 51 performs texture mapping processing for pasting a texture image to each polygon based on the calculated vertex coordinates of the polygon. For example, when a terrestrial object representing a forest is included in a part of the background image, the texture processing unit 51 uses a texture image (blue color) that images a forest with respect to a polygon constituting the water-based object. The map image drawing data corresponding to the background image is generated. This map image drawing data is stored in the frame memory 52. The frame memory 52 stores map image drawing data for a plurality of map leaves corresponding to the current display scale. For example, when displaying a map image around the vehicle position, a map generated for a total of 9 sheets of the leaf including the vehicle position and the 8 leafs arranged around the vehicle. Image drawing data is stored.

ポリゴン演算部53は、背景画像にぼかし処理の対象となる背景オブジェクトが含まれる場合に、この背景オブジェクトを構成するポリゴンの頂点座標を計算する。テクスチャ処理部54は、ポリゴン演算部53によって計算されたポリゴンの頂点座標に基づいて、各ポリゴンに所定のテクスチャ画像を貼り付けるテクスチャマッピング処理を行う。作業用メモリ(大)55は、フレームメモリ52と同じ大きさおよび格納位置の作業領域(第1の作業領域)を有し、テクスチャ処理部54によって生成された描画データを格納する。作業用メモリ(小)56は、フレームメモリ52の1/N(水平、垂直のそれぞれの画素数が1/N、Nは2よりも大、例えばN=4)の大きさの作業領域(第2の作業領域)を有し、縮小処理後の描画データを格納する。縮小・拡大処理部57は、作業用メモリ55に格納された描画データに対して、1/N倍あるいは1/2倍の画像の縮小処理と、2倍あるいはN/2倍の画像の拡大処理を行う。αブレンド処理部58は、縮小・拡大処理部57によって拡大された画像と、フレームメモリ52あるいは作業用メモリ55に格納された画像に対してαブレンド処理を行い、処理結果をフレームメモリ52あるいは作業用メモリ55に上書きする。   When the background image includes a background object to be blurred, the polygon calculation unit 53 calculates the vertex coordinates of the polygons constituting the background object. The texture processing unit 54 performs texture mapping processing for pasting a predetermined texture image to each polygon based on the vertex coordinates of the polygon calculated by the polygon calculation unit 53. The work memory (large) 55 has a work area (first work area) having the same size and storage position as the frame memory 52, and stores drawing data generated by the texture processing unit 54. The working memory (small) 56 has a working area (first number) of 1 / N (the horizontal and vertical number of pixels is 1 / N and N is larger than 2, for example, N = 4) of the frame memory 52. 2), and stores the drawing data after the reduction processing. The reduction / enlargement processing unit 57 performs 1 / N times or 1/2 times image reduction processing and 2 times or N / 2 times image enlargement processing on the drawing data stored in the work memory 55. I do. The α blend processing unit 58 performs α blend processing on the image enlarged by the reduction / enlargement processing unit 57 and the image stored in the frame memory 52 or the work memory 55, and the processing result is displayed in the frame memory 52 or the work. The memory 55 is overwritten.

文字・記号情報描画部59は、描画範囲の地図画像上に重ねて表示される地名や建物名称等の各種の文字情報画像を描画する。アイコン描画部60は、表示が指示された特定施設のアイコン画像(例えば、コンビニエンスストアのアイコン表示が指示されている場合にはコンビニエンスストアの種類に応じた各種形状を有するアイコン画像)を描画する。これらの文字情報画像やアイコン画像は、フレームメモリ52に格納された背景画像に対応する地図画像描画データに重ねられる。   The character / symbol information drawing unit 59 draws various character information images such as place names and building names that are displayed superimposed on the map image in the drawing range. The icon drawing unit 60 draws an icon image of a specific facility instructed to be displayed (for example, an icon image having various shapes according to the type of convenience store when the icon display of a convenience store is instructed). These character information image and icon image are superimposed on the map image drawing data corresponding to the background image stored in the frame memory 52.

上述した地図データ記憶装置3、地図バッファ10が地図データ取得手段に、地図描画部14が描画手段に、表示処理部40が表示処理手段にそれぞれ対応する。また、地図データ記憶装置3および地図バッファ10を用いて地図データを取得する動作が地図データ取得ステップの動作に、地図描画部14による描画処理(具体的には、後述する図2に示された動作)が描画ステップの動作に、表示処理部40を用いて地図画像を表示する動作が表示処理ステップの動作にそれぞれ対応する。   The map data storage device 3 and the map buffer 10 described above correspond to the map data acquisition unit, the map drawing unit 14 corresponds to the drawing unit, and the display processing unit 40 corresponds to the display processing unit. Further, the operation of acquiring map data using the map data storage device 3 and the map buffer 10 is the operation of the map data acquisition step, and the drawing process by the map drawing unit 14 (specifically, as shown in FIG. 2 described later). Operation) corresponds to the operation of the drawing step, and the operation of displaying the map image using the display processing unit 40 corresponds to the operation of the display processing step.

本実施形態のナビゲーション装置はこのような構成を有しており、次に、一部の背景オブジェクトに対してぼかし処理を行う描画処理について説明する。図2は、背景オブジェクトに対してぼかし処理を行う動作手順を示す流れ図である。また、図3および図4は、図2に示した動作手順にしたがった描画状態の説明図である。   The navigation apparatus of the present embodiment has such a configuration. Next, a rendering process for performing a blurring process on some background objects will be described. FIG. 2 is a flowchart showing an operation procedure for performing the blurring process on the background object. 3 and 4 are explanatory diagrams of a drawing state according to the operation procedure shown in FIG.

まず、フレームメモリ52が背景テクスチャで初期化される(ステップ100)。例えば、この初期化処理がテクスチャ処理部51によって行われ、背景テクスチャとして、フレームメモリ52全体を埋め尽くす規則的な模様が用いられる。   First, the frame memory 52 is initialized with a background texture (step 100). For example, the initialization processing is performed by the texture processing unit 51, and a regular pattern that fills the entire frame memory 52 is used as the background texture.

また、作業用メモリ55が背景色で初期化される(ステップ104)。例えば、この初期化処理がテクスチャ処理部54によって行われ、背景色として、その上に描画される画像の視認性を害さない色が用いられる。次に、ポリゴン演算部53は、ぼかし対象となる背景オブジェクトを構成する各ポリゴンの頂点座標を計算し、テクスチャ処理部54は、計算されたポリゴンの頂点座標に基づいて、各ポリゴンにテクスチャ画像を貼り付けるテクスチャマッピング処理を行う。このようにして、ぼかし対象の背景オブジェクトに対応する描画処理が行われ、その描画結果が作業用メモリ55に書き込まれる(ステップ106)。   Further, the work memory 55 is initialized with the background color (step 104). For example, the initialization processing is performed by the texture processing unit 54, and a color that does not impair the visibility of the image drawn thereon is used as the background color. Next, the polygon calculation unit 53 calculates vertex coordinates of each polygon constituting the background object to be blurred, and the texture processing unit 54 assigns a texture image to each polygon based on the calculated vertex coordinates of the polygon. Perform the texture mapping process to be pasted. In this way, the drawing process corresponding to the background object to be blurred is performed, and the drawing result is written in the work memory 55 (step 106).

次に、縮小・拡大処理部57は、作業用メモリ55に格納された描画データに対して縦横それぞれのサイズを1/Nにする縮小処理を行い、縮小処理後の描画データを作業用メモリ56に格納する(ステップ108)。また、縮小・拡大処理部57は、作業用メモリ56に格納された描画データに対して縦横それぞれのサイズを2倍にする拡大処理を行い、拡大処理後の描画データを作業用メモリ55に格納する(ステップ110)。   Next, the reduction / enlargement processing unit 57 performs reduction processing for reducing the vertical and horizontal sizes to 1 / N with respect to the drawing data stored in the work memory 55, and the drawing data after the reduction processing is used as the work memory 56. (Step 108). The reduction / enlargement processing unit 57 performs enlargement processing for doubling the vertical and horizontal sizes of the drawing data stored in the work memory 56 and stores the drawing data after the enlargement processing in the work memory 55. (Step 110).

次に、縮小・拡大処理部57は、車両の走行速度が所定値以下か否かを判定する(ステップ111)。この判定は、地図画像をスクロールする速度の違いによる処理負担を考慮するためのものであり、最も簡単には車両が停車中か否か(この場合は所定値として0km/hが用いられる)が判定される。走行速度が所定値以下の場合には、ステップ111の判定において肯定判断が行われる。   Next, the reduction / enlargement processing unit 57 determines whether or not the traveling speed of the vehicle is equal to or less than a predetermined value (step 111). This determination is for considering the processing load due to the difference in the scrolling speed of the map image. In the simplest case, it is determined whether or not the vehicle is stopped (in this case, 0 km / h is used as a predetermined value). Determined. If the traveling speed is less than or equal to the predetermined value, an affirmative determination is made in the determination of step 111.

次に、縮小・拡大処理部57は、作業用メモリ55に格納された描画データに対して縦横それぞれのサイズを1/2にする縮小処理を行い、縮小処理後の描画データを作業用メモリ56に格納する(ステップ112)。また、縮小・拡大処理部57は、作業用メモリ56に格納された描画データに対して縦横それぞれのサイズを2倍にする拡大処理を行い、αブレンド処理部58は、この拡大処理後の描画データと、作業用メモリ55に格納されている描画データ(ステップ110において格納された描画データ)とを用いてαブレンド処理を行い、αブレンド処理後の描画データを作業用メモリ55に上書きする(ステップ114)。   Next, the reduction / enlargement processing unit 57 performs reduction processing for reducing the vertical and horizontal sizes to ½ with respect to the drawing data stored in the work memory 55, and the drawing data after the reduction processing is used as the work memory 56. (Step 112). The reduction / enlargement processing unit 57 performs an enlargement process for doubling the vertical and horizontal sizes of the drawing data stored in the work memory 56, and the α blend processing unit 58 performs drawing after the enlargement process. Α blend processing is performed using the data and the drawing data stored in the work memory 55 (drawing data stored in step 110), and the work data 55 is overwritten with the drawing data after the α blend processing ( Step 114).

次に、あるいは、ステップ111の判定において否定判断が行われた場合(車両の走行速度が所定値よりも速い場合)にはその後、縮小・拡大処理部57は、作業用メモリ55に格納された描画データに対して縦横それぞれのサイズをN/2倍にする拡大処理を行い、αブレンド処理部58は、この拡大処理後の描画データと、フレームメモリ52に格納されている描画データ(ステップ100において初期化された描画データであって、ぼかし対象の背景オブジェクトに対応する位置に格納された描画データ)とを用いてαブレンド処理を行い、αブレンド処理後の描画データをフレームメモリ52に上書きする(ステップ116)。例えば、フレームメモリ52に格納されている描画データと、拡大処理後の描画データとのそれぞれの割合が8:2となるように合成するαブレンド処理が行われる。   Next, or when a negative determination is made in the determination of step 111 (when the traveling speed of the vehicle is faster than a predetermined value), the reduction / enlargement processing unit 57 is then stored in the work memory 55. Enlargement processing is performed on the drawing data so that the vertical and horizontal sizes are N / 2 times. The α blend processing unit 58 draws the drawing data after the enlargement processing and the drawing data stored in the frame memory 52 (step 100). The α blend process is performed using the rendering data initialized in step 1 and stored in the position corresponding to the background object to be blurred), and the rendering data after the α blend process is overwritten in the frame memory 52 (Step 116). For example, an α blend process is performed so that the ratio between the drawing data stored in the frame memory 52 and the drawing data after the enlargement process is 8: 2.

このようにして背景オブジェクトに対するぼかし処理が終了した後、その他のオブジェクト(ぼかし対象ではない背景画像のオブジェクトや文字・記号あるいは各種アイコン等)について描画処理が行われる(ステップ118)。   After the blurring process for the background object is completed in this way, the drawing process is performed for other objects (background image objects, characters / symbols, various icons, etc. that are not to be blurred) (step 118).

このように、本実施形態のナビゲーション装置では、ポリゴンで構成された背景を描画する際に特定の背景オブジェクトについてぼかし処理が行われるため、間引きによって形状要素点の数が減った荒いポリゴンを用いた場合であっても、外形部分を示す多角形形状の角や直線状の輪郭が目立つことがなく、背景データを描画する際の不自然さを改善することができる。このため、本来確認したい道路の線などを識別しやすくなり、地図全体としての視認性を向上させることができる。   As described above, in the navigation device of the present embodiment, when a background composed of polygons is drawn, a specific background object is subjected to blurring processing. Therefore, rough polygons whose number of shape element points is reduced by thinning are used. Even in this case, polygonal corners and linear outlines indicating the outer portion are not conspicuous, and unnaturalness in drawing background data can be improved. For this reason, it becomes easy to identify the road line or the like to be originally confirmed, and the visibility of the entire map can be improved.

また、背景オブジェクトに対応する画像情報に対して縮小・拡大を行うことにより、あるいは、縮小・拡大を複数回繰り返し行うことにより、さらには、背景オブジェクトに対応する画像情報と縮小・拡大後の画像情報とをαブレンド処理によって合成することによりぼかし処理を行っており、背景の輪郭を確実にぼかすことが可能となる。特に、大小異なる大きさの作業領域を有する作業用メモリ55、56を用いることにより、効率よく縮小・拡大を伴うぼかし処理を行うことができる。   Further, by reducing or enlarging the image information corresponding to the background object, or by repeating the reduction or enlargement a plurality of times, the image information corresponding to the background object and the image after the reduction / enlargement are also obtained. The blurring process is performed by combining the information with the α blend process, and the background contour can be surely blurred. In particular, by using the work memories 55 and 56 having work areas of different sizes, it is possible to efficiently perform blurring processing with reduction / enlargement.

また、縮小・拡大の繰り返し回数を車両の走行速度に応じて変更している。具体的には、車両の走行速度が所定値以下(望ましくは速度が0km/hの停車中)の場合に繰り返し回数を2回とし、車両の走行速度が所定値を超える場合に繰り返し回数を1回としている。これにより、車両位置に応じた地図画像のスクロール等によって処理負担が大きい走行時(あるいは高速走行時)にはぼかし処理を行うことによる処理の負担を軽減することができ、処理負担が小さい停車時(あるいは低速走行時)にはぼかし処理によるぼかしの程度を高めて地図全体としての視認性をさらに向上させることができる。また、走行速度が所定値以下の場合の繰り返し回数「2」を3以上の複数回に変更してもよい。この場合には、ステップ112、114の動作を必要回数繰り返せばよい。   Further, the number of repetitions of reduction / enlargement is changed according to the traveling speed of the vehicle. Specifically, the number of repetitions is set to 2 when the traveling speed of the vehicle is equal to or less than a predetermined value (desirably, when the speed is 0 km / h), and the number of repetitions is set to 1 when the traveling speed of the vehicle exceeds the predetermined value. I'm trying. This makes it possible to reduce the processing burden caused by blurring when traveling with a large processing load (or during high-speed traveling) by scrolling the map image according to the vehicle position, etc. (Or during low-speed driving), the degree of blurring by blurring processing can be increased to further improve the visibility of the entire map. Further, the number of repetitions “2” when the traveling speed is less than or equal to a predetermined value may be changed to a plurality of times of 3 or more. In this case, the operations in steps 112 and 114 may be repeated as many times as necessary.

なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。例えば、上述した実施形態では、背景オブジェクトの描画データを最初に1/N倍し、次に2倍したが(2倍する場合には、例えば同じ画素値を2回繰り返すことにより拡大処理を行うことができるため、拡大処理の負担を軽減することが可能となる)、2倍以外の値で拡大するようにしてもよい。例えば、N倍して元の描画データと同サイズに戻すようにしてもよい。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation implementation is possible within the range of the summary of this invention. For example, in the above-described embodiment, the drawing data of the background object is first multiplied by 1 / N and then doubled (in the case of doubling, for example, the enlargement process is performed by repeating the same pixel value twice. Therefore, it is possible to reduce the burden of the enlargement process). For example, it may be multiplied by N and returned to the same size as the original drawing data.

また、上述した実施形態では、フレームメモリ52とは別に作業用メモリ55、56を備えるようにしたが、フレームメモリ52の一部を作業用メモリ55、56として用いるようにしてもよい。   In the above-described embodiment, the work memories 55 and 56 are provided separately from the frame memory 52. However, a part of the frame memory 52 may be used as the work memories 55 and 56.

また、上述した実施形態では、ポリゴンで表された背景オブジェクトについてぼかし処理を行う場合について説明したが、ポリゴン以外で表された各種のオブジェクトについてぼかし処理を行う場合にも本発明を適用することができる。例えば、道路に沿って影画像を生成した後、この影画像についてぼかし処理を行うようにしてもよい。   In the above-described embodiment, the case where the blurring process is performed on the background object represented by the polygon has been described. However, the present invention can also be applied to the case where the blurring process is performed on various objects represented by other than the polygon. it can. For example, after a shadow image is generated along the road, blur processing may be performed on the shadow image.

また、上述した実施形態では、図2のステップ116において、拡大処理後の描画データと、初期化された描画データとを用いてαブレンド処理を行うようにしたが、すでにステップ114においてαブレンド処理が行われている場合にはステップ116におけるαブレンド処理を省略して、拡大処理後の描画データをフレームメモリ52に上書きするようにしてもよい。また、ポリゴン演算部50とテクスチャ処理部51とを用いて、ぼかし対象の背景オブジェクトに対応する描画データを生成しておいて、この描画データと、拡大処理後の描画データとを用いてステップ116のαブレンド処理を行うようにしてもよい。   In the above-described embodiment, the α blend process is performed using the drawing data after the enlargement process and the initialized drawing data in step 116 of FIG. May be omitted, the drawing data after the enlargement process may be overwritten in the frame memory 52. Further, drawing data corresponding to the background object to be blurred is generated using the polygon calculation unit 50 and the texture processing unit 51, and step 116 is performed using the drawing data and the drawing data after the enlargement processing. The α blending process may be performed.

上述したように、本発明によれば、ポリゴンで構成された背景を描画する際にぼかし処理が行われるため、間引きによって形状要素点の数が減った荒いポリゴンを用いた場合であっても、外形部分を示す多角形形状の角や直線状の輪郭が目立つことがなく、背景データを描画する際の不自然さを改善することができる。   As described above, according to the present invention, since a blurring process is performed when a background composed of polygons is drawn, even when a rough polygon having a reduced number of shape element points by thinning is used, Polygonal corners and linear outlines indicating the outer portion are not conspicuous, and unnaturalness when drawing background data can be improved.

1 ナビゲーションコントローラ
3 地図データ記憶装置
6 表示装置
10 地図バッファ
12 地図読出制御部
14 地図描画部
20 車両位置計算部
40 表示処理部
50、53 ポリゴン演算部
51、54 テクスチャ処理部
52 フレームメモリ
55、56 作業用メモリ
57 縮小・拡大処理部
58 αブレンド処理部
59 文字・記号情報描画部
60 アイコン描画部
DESCRIPTION OF SYMBOLS 1 Navigation controller 3 Map data storage device 6 Display apparatus 10 Map buffer 12 Map reading control part 14 Map drawing part 20 Vehicle position calculation part 40 Display processing part 50, 53 Polygon calculating part 51, 54 Texture processing part 52 Frame memory 55, 56 Work memory 57 Reduction / enlargement processing unit 58 α blend processing unit 59 Character / symbol information drawing unit 60 Icon drawing unit

Claims (6)

ポリゴンで構成された背景オブジェクトおよびその他のオブジェクトの描画に必要な地図データを取得する地図データ取得手段と、
前記地図データに基づいて、前記背景オブジェクトおよびその他のオブジェクトに対応する画像情報を生成してフレームメモリに格納する描画手段と、
前記フレームメモリに格納された画像情報を読み出して表示装置に地図画像を表示する表示処理手段と、
を備え、前記描画手段は、前記背景オブジェクトに対応する画像情報を生成する際に、前記背景オブジェクトに対応する画像情報に対して縮小・拡大を1回あるいは複数回繰り返し行うことによりぼかし処理を行い、
前記縮小・拡大の繰り返し回数は、車両の走行速度に応じて変更することを特徴とするナビゲーション装置
Map data acquisition means for acquiring map data necessary for drawing a background object composed of polygons and other objects,
Drawing means for generating image information corresponding to the background object and other objects based on the map data and storing the image information in a frame memory;
Display processing means for reading out image information stored in the frame memory and displaying a map image on a display device;
And the rendering means performs blurring processing by repeatedly reducing or enlarging the image information corresponding to the background object one or more times when generating the image information corresponding to the background object. Yes,
The number of repetitions of the Scaling the navigation device and changes according to the traveling speed of the vehicle.
請求項において、
前記描画手段は、前記背景オブジェクトに対応する画像情報と、前記縮小・拡大後の画像情報とをαブレンド処理によって合成することを特徴とするナビゲーション装置。
In claim 1 ,
The navigation apparatus characterized in that the drawing means synthesizes image information corresponding to the background object and the image information after the reduction / enlargement by α blend processing.
請求項1または2において、
前記フレームメモリと同じ大きさを有し、前記背景オブジェクトに対応する画像情報あるいは拡大後の画像情報を格納する第1の作業領域と、前記第1の作業領域よりも小さく、縮小後の画像情報を格納する第2の作業領域とを用いて前記ぼかし処理が行われることを特徴とするナビゲーション装置。
In claim 1 or 2 ,
A first work area having the same size as the frame memory and storing image information corresponding to the background object or image information after enlargement, and image information that is smaller than the first work area and is reduced The blurring process is performed using the second work area that stores the navigation device.
請求項1〜3のいずれか一項において、
車両の走行速度が所定値以下の場合に前記繰り返し回数を複数回とし、車両の走行速度が所定値を超える場合に前記繰り返し回数を1回とすることを特徴とするナビゲーション装置。
In any one of Claims 1-3 ,
A navigation device characterized in that the number of repetitions is set to a plurality of times when the traveling speed of the vehicle is a predetermined value or less, and the number of repetitions is set to one when the traveling speed of the vehicle exceeds a predetermined value.
請求項において、
車両が停車中の場合に前記繰り返し回数を複数回とし、車両の走行中の場合に前記繰り返し回数を1回とすることを特徴とするナビゲーション装置。
In claim 4 ,
A navigation apparatus, wherein the number of repetitions is set to a plurality of times when the vehicle is stopped, and the number of repetitions is set to one when the vehicle is running.
ポリゴンで構成された背景オブジェクトおよびその他のオブジェクトの描画に必要な地図データを地図データ取得手段によって取得する地図データ取得ステップと、
前記地図データに基づいて、前記背景オブジェクトおよびその他のオブジェクトに対応する画像情報を生成してフレームメモリに格納する動作を描画手段によって行う地図描画ステップと、
前記フレームメモリに格納された画像情報を読み出して表示装置に地図画像を表示する動作を表示処理手段によって行う表示処理ステップと、
を有し、前記描画ステップにおいて、前記描画手段は、前記背景オブジェクトに対応する画像情報を生成する際に、前記背景オブジェクトに対応する画像情報に対して縮小・拡大を1回あるいは複数回繰り返し行うことによりぼかし処理を行い、
前記縮小・拡大の繰り返し回数は、車両の走行速度に応じて変更することを特徴とする地図描画方法。
A map data acquisition step for acquiring map data necessary for drawing a background object and other objects composed of polygons by a map data acquisition means;
Based on the map data, a map drawing step for generating an image information corresponding to the background object and other objects and storing it in a frame memory by a drawing means;
A display processing step of performing an operation of reading image information stored in the frame memory and displaying a map image on a display device by a display processing unit;
In the drawing step, the drawing means repeatedly reduces or enlarges the image information corresponding to the background object once or a plurality of times when generating the image information corresponding to the background object. There line blurring processing by,
The map drawing method, wherein the number of repetitions of the reduction / enlargement is changed according to a traveling speed of the vehicle .
JP2013111541A 2013-05-28 2013-05-28 Navigation device and map drawing method Active JP6247456B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013111541A JP6247456B2 (en) 2013-05-28 2013-05-28 Navigation device and map drawing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013111541A JP6247456B2 (en) 2013-05-28 2013-05-28 Navigation device and map drawing method

Publications (2)

Publication Number Publication Date
JP2014231996A JP2014231996A (en) 2014-12-11
JP6247456B2 true JP6247456B2 (en) 2017-12-13

Family

ID=52125475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013111541A Active JP6247456B2 (en) 2013-05-28 2013-05-28 Navigation device and map drawing method

Country Status (1)

Country Link
JP (1) JP6247456B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7217803B2 (en) 2018-11-07 2023-02-03 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ Cutting device and cutting method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09304087A (en) * 1996-05-16 1997-11-28 Matsushita Electric Ind Co Ltd On-vehicle navigation apparatus
JP2004219182A (en) * 2003-01-14 2004-08-05 Alpine Electronics Inc Navigation system
JP4353358B2 (en) * 2003-06-04 2009-10-28 株式会社ジオ技術研究所 DATA GENERATION DEVICE, DATA GENERATION METHOD, AND COMPUTER PROGRAM
JP4642431B2 (en) * 2003-11-13 2011-03-02 パナソニック株式会社 Map display device, map display system, map display method and program
JP4632855B2 (en) * 2005-05-16 2011-02-16 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7217803B2 (en) 2018-11-07 2023-02-03 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ Cutting device and cutting method

Also Published As

Publication number Publication date
JP2014231996A (en) 2014-12-11

Similar Documents

Publication Publication Date Title
CA2560386C (en) A digital mapping system
JP2002098538A (en) Navigation system and method for displaying information of pseudo three dimensional map
US20060267803A1 (en) Non-perspective variable-scale map displays
EP2610589A1 (en) Method of displaying points of interest
KR101343160B1 (en) Animation display device
CN103137009B (en) Display method and device for map and vehicle-mounted system
US8988425B2 (en) Image display control system, image display control method, and image display control program
JP4763041B2 (en) Display processing apparatus, display processing method, and display processing program
US20090112455A1 (en) Method and system for rendering simplified point finding maps
JP5007059B2 (en) Stereoscopic in-vehicle display
JP5556526B2 (en) Map display device, map display method and program
JP6247456B2 (en) Navigation device and map drawing method
JP2610998B2 (en) Drawing method of car navigation system
US9846819B2 (en) Map image display device, navigation device, and map image display method
JP6242080B2 (en) Navigation device and map drawing method
JP6571477B2 (en) Map display device and computer program
CN111226095B (en) Dynamic remodelling of digital maps
JP5738442B2 (en) Map drawing device, navigation device, and map drawing method
JP2008209506A (en) Graphic system and mask deformation method
JP2004333155A (en) Information presenting device, information presenting method, and computer program
JP5777736B2 (en) MAP DATA CREATION DEVICE, MAP DATA CREATION METHOD, AND STORAGE MEDIUM
JP5734451B2 (en) Map data conversion method, storage medium, and map display device
JP2017102318A (en) Map display device
JP2004354538A (en) Method and device for generating polygon data of map or the like, and display device for polygon data of map or the like
CN116681843A (en) Map rendering method, apparatus, device, storage medium, and program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171117

R150 Certificate of patent or registration of utility model

Ref document number: 6247456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150