JP2006349964A - Map display apparatus for portable device - Google Patents

Map display apparatus for portable device Download PDF

Info

Publication number
JP2006349964A
JP2006349964A JP2005175736A JP2005175736A JP2006349964A JP 2006349964 A JP2006349964 A JP 2006349964A JP 2005175736 A JP2005175736 A JP 2005175736A JP 2005175736 A JP2005175736 A JP 2005175736A JP 2006349964 A JP2006349964 A JP 2006349964A
Authority
JP
Japan
Prior art keywords
map
portable
data
display
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005175736A
Other languages
Japanese (ja)
Other versions
JP5063871B2 (en
Inventor
Masayoshi Kayano
政義 栢野
Original Assignee
Denso Corp
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, 株式会社デンソー filed Critical Denso Corp
Priority to JP2005175736A priority Critical patent/JP5063871B2/en
Publication of JP2006349964A publication Critical patent/JP2006349964A/en
Application granted granted Critical
Publication of JP5063871B2 publication Critical patent/JP5063871B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a map display apparatus for a portable device capable of displaying, on a display screen as a three-dimensional map, the landscape that is actually seen by a possessor of a portable device. <P>SOLUTION: A computer 220 calculates, based on the present position of a cellular phone unit 300, angle of inclination of a display screen 210, and the bearing of the cellular phone unit 300, a virtual vision range which is supposed to be visually recognized by the possessor of the cellular phone unit 300 at the back of the display screen 210. A three-dimensional map can be displayed on the display screen 210 in such a manner that the calculated virtual vision range corresponds to the landscape seen from the viewing position of the possessor of the cellular phone unit 300. Thus, the landscape actually seen by the possessor of the cellular phone unit 300 can be displayed on the display screen 210 as the three-dimensional map. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、携帯機用地図表示装置に関する。   The present invention relates to a map display device for a portable device.
従来、地図表示の表現力を十分に高めることができ、しかも、特別な操作スイッチを必要とせずに、通常の表示と表現力を高めた表示を切り換える地図表示装置が提案されている(例えば、特許文献1参照。)。この特許文献1に開示されている地図表示装置によれば、例えば、2次元地図を表示するための2次元地図データ、及び3次元地図を表示するための3次元地図データを記憶する地図情報記憶部と、表示部と、当該装置の傾斜角度を感知する傾斜感知部とを備え、感知された傾斜角度に基づいて、制御部は地図情報記憶部より対応する2次元地図データまたは3次元地図データを読み出して2次元地図または3次元地図を表示する。   Conventionally, there has been proposed a map display device that can sufficiently enhance the expressive power of a map display and switches between normal display and highly expressive display without requiring a special operation switch (for example, (See Patent Document 1). According to the map display device disclosed in Patent Document 1, for example, map information storage for storing 2D map data for displaying a 2D map and 3D map data for displaying a 3D map. Unit, a display unit, and a tilt sensing unit that senses the tilt angle of the device, and based on the sensed tilt angle, the control unit corresponds to the corresponding two-dimensional map data or three-dimensional map data from the map information storage unit Is read and a two-dimensional map or a three-dimensional map is displayed.
具体的には、傾斜感知部は、当該装置が地面に対して「垂直状態」になった場合には、アクティブ信号を制御部に出力し、「水平状態」になった場合には、インアクティブ信号を制御部に出力する。制御部は、傾斜感知部からインアクティブ信号/アクティブ信号が出力された場合、地図情報記憶部から2次元地図データ/3次元地図データを読み出し、表示部の画面に2次元地図/3次元地図を表示する。
特開2004−151752号公報
Specifically, the tilt sensing unit outputs an active signal to the control unit when the device is in a “vertical state” with respect to the ground, and inactive when the device is in a “horizontal state”. The signal is output to the control unit. When the inactive signal / active signal is output from the tilt sensing unit, the control unit reads the 2D map data / 3D map data from the map information storage unit, and displays the 2D map / 3D map on the screen of the display unit. indicate.
JP 2004-151752 A
上述したように、従来の装置では、特別な操作スイッチを必要とせずに、地図表示の表現力を十分に高めるために、従来の装置の傾斜角度が「水平状態」であるか「垂直状態」であるかに基づいて、2次元地図と3次元地図とを切り換えて表示するに過ぎなかった。また、当該3次元地図は、ユーザの視点位置等は何ら考慮していない鳥瞰図であった。従って、例えば、従来の装置を「垂直状態」以上に傾けた場合であっても、表示される3次元地図は同じものであった。すなわち、実際にユーザの目に見える景色と3次元地図とは異なるものであった。   As described above, in the conventional apparatus, the tilt angle of the conventional apparatus is “horizontal state” or “vertical state” in order to sufficiently enhance the display power of the map display without requiring a special operation switch. Based on whether or not, the two-dimensional map and the three-dimensional map are merely switched and displayed. In addition, the three-dimensional map is a bird's-eye view that does not consider the viewpoint position of the user. Therefore, for example, even when the conventional apparatus is tilted beyond the “vertical state”, the displayed three-dimensional map is the same. That is, the scenery actually visible to the user is different from the 3D map.
本発明は、上述した点に鑑みてなされたもので、実際に携帯機の保持者の目に見える景観を3次元地図として表示画面に表示することが可能な携帯機用地図表示装置を提供することを目的とする。   The present invention has been made in view of the above points, and provides a map display device for a portable device capable of displaying a landscape that is actually visible to the holder of the portable device on a display screen as a three-dimensional map. For the purpose.
上記目的を達成するために、請求項1に記載の携帯機用地図表示装置は、
表示画面を有する携帯機に適用され、表示画面に3次元地図を表示する携帯機用地図表示装置であって、
3次元地図を表示するための地図データを記憶する携帯機用地図データ記憶手段と、
携帯機の現在位置を検出する現在位置検出手段と、
携帯機の表示画面の傾斜角を検出する傾斜角検出手段と、
携帯機の保持者が表示画面を見る方向を、携帯機の方位として検出する方位検出手段と、
携帯機の現在位置、表示画面の傾斜角、及び携帯機の方位に基づいて、携帯機の保持者が表示画面後方において視認すると想定される視野範囲を算出する算出手段と、
算出手段によって算出された視野範囲を、携帯機の保持者の視線位置から見た場合の景観に対応するように、地図データに基づいて表示画面に3次元地図を表示させる地図表示制御手段とを備えることを特徴とする。
In order to achieve the above object, a map display device for a portable device according to claim 1,
A map display device for a portable device that is applied to a portable device having a display screen and displays a three-dimensional map on the display screen,
Portable data map data storage means for storing map data for displaying a three-dimensional map;
Current position detecting means for detecting the current position of the portable device;
An inclination angle detecting means for detecting an inclination angle of the display screen of the portable device;
Orientation detection means for detecting the direction in which the holder of the portable device views the display screen as the orientation of the portable device;
Based on the current position of the portable device, the tilt angle of the display screen, and the orientation of the portable device, a calculation means for calculating a visual field range that is assumed to be visually recognized by the holder of the portable device behind the display screen;
Map display control means for displaying a three-dimensional map on a display screen based on map data so as to correspond to a landscape when the visual field range calculated by the calculation means is viewed from the line of sight of the holder of the portable device It is characterized by providing.
上述したように、請求項1に記載の携帯機用地図表示装置では、携帯機の現在位置、表示画面の傾斜角、及び携帯機の方位に基づいて、携帯機の保持者が表示画面後方において視認すると想定される視野範囲が算出される。この算出された視野範囲を、携帯機の保持者の視線位置から見た場合の景観に対応するように、表示画面に3次元地図が表示される。これにより、実際に携帯機の保持者の目に見える景観を3次元地図として表示画面に表示することができる。   As described above, in the map display device for a portable device according to claim 1, the holder of the portable device is located behind the display screen based on the current position of the portable device, the tilt angle of the display screen, and the orientation of the portable device. The visual field range assumed to be visually recognized is calculated. A three-dimensional map is displayed on the display screen so as to correspond to the landscape when the calculated visual field range is viewed from the line of sight of the holder of the portable device. Thereby, the scenery actually visible to the holder of the portable device can be displayed on the display screen as a three-dimensional map.
請求項2に記載したように、携帯機用地図データ記憶手段は、2次元地図を表示するための地図データを有し、携帯機の保持者が、表示画面を地面と水平となるまで傾けた場合、地図表示制御手段は、表示画面に、携帯機の現在位置を基準とする2次元地図を表示することもできる。これにより、表示画面が地面と水平となるまで傾けられた場合、表示画面には、2次元地図が表示される。   According to a second aspect of the present invention, the portable device map data storage means has map data for displaying a two-dimensional map, and the holder of the portable device tilts the display screen until it is level with the ground. In this case, the map display control means can display a two-dimensional map with the current position of the portable device as a reference on the display screen. Thus, when the display screen is tilted until it is level with the ground, a two-dimensional map is displayed on the display screen.
請求項3に記載したように、携帯機の保持者と、携帯機との距離を計測する距離計測手段を有し、算出手段は、距離計測手段によって計測される距離が短くなるほど、視野範囲が大きくなるように、視野範囲を算出することもできる。これにより、より精度の高い視野範囲を算出することができる。   According to a third aspect of the present invention, the distance measuring means for measuring the distance between the holder of the portable device and the portable device has a field-of-view range as the distance measured by the distance measuring means becomes shorter. The visual field range can also be calculated so as to increase. Thereby, a more accurate visual field range can be calculated.
請求項4に記載したように、携帯機用地図表示装置は、車載ナビゲーション装置と携帯機用地図表示装置とからなる携帯機用地図表示システムに適用されるものであって、車載ナビゲーション装置は、3次元地図に関する地図データを記憶する地図データ記憶手段と、携帯機用地図表示装置に対して、地図データを送信するナビ用送信手段とを備えるものであり、携帯機用地図表示装置は、車載ナビゲーション装置から送信された地図データを受信する携帯機用受信手段を備え、携帯機用地図データ記憶手段は、受信した地図データを記憶することが好ましい。このように、携帯機用地図表示装置は、車載ナビゲーション装置から3次元地図に関する地図データを受信し、受信した地図データを記憶することができる。   According to a fourth aspect of the present invention, the map display device for a portable device is applied to a map display system for a portable device composed of a vehicle-mounted navigation device and a map display device for a portable device, A map data storage means for storing map data relating to a three-dimensional map, and a navigation transmission means for transmitting map data to the map display device for portable devices are provided. It is preferable that a portable device receiving unit that receives map data transmitted from the navigation device is provided, and the portable device map data storage unit stores the received map data. Thus, the map display apparatus for portable devices can receive the map data regarding a three-dimensional map from a vehicle-mounted navigation apparatus, and can store the received map data.
請求項5に記載したように、車載ナビゲーション装置は、携帯機用地図表示装置から地図データを送信すべき所望の区域を示す区域データを受信するナビ用受信手段を備え、ナビ用送信手段は、ナビ用受信手段が区域データを受信した場合、所望の区域に該当する地図データを送信するものであり、携帯機用地図表示装置は、携帯機の保持者によって所望の区域を選択させる選択手段と、車載ナビゲーション装置に対して、選択された所望の区域を示す区域データを送信する携帯機用送信手段とを備え、携帯機用受信手段は、ナビ用送信手段から所望の区域に該当する地図データを受信することもできる。このようにすることにより、携帯機の保持者の所望の区域に該当する地図データを取得することができる。   According to a fifth aspect of the present invention, the in-vehicle navigation device includes navigation receiving means for receiving area data indicating a desired area in which map data should be transmitted from the map display device for portable devices, and the navigation transmission means includes: When the navigation receiving means receives the area data, the map data corresponding to the desired area is transmitted, and the portable device map display device includes a selection means for selecting a desired area by the holder of the portable device; A portable device transmitting means for transmitting area data indicating the selected desired area to the in-vehicle navigation device, and the portable device receiving means receives map data corresponding to the desired area from the navigation transmitting means. Can also be received. By doing in this way, the map data applicable to the desired area of the holder of a portable machine can be acquired.
請求項6に記載したように、地図データは、地図データ上の施設に関する施設データを含み、施設データに基づいて、歩行者用目的地を設定する歩行者用目的地設定手段と、地図データに基づいて、歩行者用出発地から歩行者用目的地までの歩行者用案内経路を探索する携帯機用歩行者用案内経路探索手段とを備えることが好ましい。このように、歩行者用案内経路を探索することができる。   As described in claim 6, the map data includes facility data relating to facilities on the map data, and based on the facility data, pedestrian destination setting means for setting a pedestrian destination, and the map data Based on this, it is preferable to include a pedestrian guide route searching means for a portable device that searches for a pedestrian guide route from a pedestrian departure point to a pedestrian destination. In this way, a pedestrian guidance route can be searched.
請求項7に記載したように、車載ナビゲーション装置は、地図データ記憶手段は、地図データ上の施設に関する施設データを記憶し、施設データに基づいて、最終目的地を設定する最終目的地設定手段と、設定された最終目的地に対応する施設に駐車場が不設である場合、最終目的地周辺における駐車場を検索する駐車場検索手段と、検索された駐車場を車両用目的地として設定する車両用目的地設定手段と、出発地から車両用目的地までの車両用案内経路を探索する車両用案内経路探索手段と、車両用目的地から最終目的地までの歩行者用案内経路を探索するナビ用歩行者用案内経路探索手段とを備え、ナビ用送信手段は、携帯機用地図表示装置に対して、歩行者用案内経路、及び歩行者用案内経路に関する地図データを送信するものであり、携帯機用受信手段は、車載ナビゲーション装置から送信された歩行者用案内経路、及び歩行者用案内経路に関する地図データを受信し、携帯機用地図データ記憶手段は、受信した歩行者用案内経路に関する地図データを記憶し、携帯機用地図表示装置は、さらに、受信した歩行者用案内経路を記憶する歩行者用案内経路記憶手段を備えることが好ましい。このようにすることにより、車載ナビゲーション装置から歩行者用案内経路、及び歩行者用案内経路に関する地図データを受信及び記憶することができる。   According to a seventh aspect of the present invention, in the in-vehicle navigation device, the map data storage means stores facility data related to facilities on the map data, and based on the facility data, final destination setting means for setting a final destination When there is no parking lot at the facility corresponding to the set final destination, a parking lot search means for searching for a parking lot around the final destination, and the searched parking lot is set as the vehicle destination. Vehicle destination setting means, vehicle guidance route searching means for searching for a vehicle guidance route from the departure point to the vehicle destination, and pedestrian guidance route from the vehicle destination to the final destination A navigation pedestrian guidance route search means, and the navigation transmission means transmits map data relating to the pedestrian guidance route and the pedestrian guidance route to the map display device for portable devices. The portable device receiving means receives the pedestrian guide route and the map data related to the pedestrian guide route transmitted from the in-vehicle navigation device, and the portable device map data storage means receives the received pedestrian guide route. It is preferable that the map data display device for portable devices further includes pedestrian guide route storage means for storing the received pedestrian guide route. By doing in this way, the pedestrian guidance route and the map data regarding the pedestrian guidance route can be received and stored from the in-vehicle navigation device.
請求項8に記載したように、地図データは、3次元地図上の3次元オブジェクトをポリゴンで形成したポリゴンデータと、3次元オブジェクトを実際の景観に近づけるために、ポリゴンデータに対してポリゴン表面に模様をつけるためのデータであるテクスチャデータと、3次元地図上の空を表示するためのデータである空表示用データを含むことが好ましい。これらのデータを用いることによって、3次元地図を生成することができる。   As described in claim 8, the map data includes polygon data obtained by forming a three-dimensional object on a three-dimensional map with polygons and a polygon surface with respect to the polygon data in order to bring the three-dimensional object closer to an actual landscape. It is preferable to include texture data that is data for applying a pattern and sky display data that is data for displaying the sky on the three-dimensional map. By using these data, a three-dimensional map can be generated.
請求項9に記載したように、車載ナビゲーション装置において、地図データ記憶手段は、地図データとして、昼間用地図データ及び夜間用地図データを記憶し、ナビ用送信手段は、携帯機用地図表示装置に対して、現在時刻に応じて、昼間用地図データまたは夜間用地図データのいずれか一方を送信するものであり、携帯機用受信手段は、車載ナビゲーション装置から送信された昼間用地図データまたは夜間用地図データのいずれか一方を受信することが好ましい。これにより、携帯機用地図表示装置は、現在時刻に応じた、昼間用地図データまたは夜間用地図データのいずれか一方を受信することができる。   According to a ninth aspect of the present invention, in the in-vehicle navigation device, the map data storage means stores the daytime map data and the nighttime map data as the map data, and the navigation transmission means is connected to the map display device for the portable device. On the other hand, either one of daytime map data or nighttime map data is transmitted according to the current time, and the portable device receiving means is the daytime map data or nighttime data transmitted from the in-vehicle navigation device. It is preferable to receive either one of the map data. Thereby, the map display apparatus for portable devices can receive either daytime map data or nighttime map data according to the current time.
請求項10に記載したように、昼間用地図データは、テクスチャデータとして、昼間用テクスチャデータと、空表示用データとして、昼空表示用データとを含み、夜間用地図データは、テクスチャデータとして、夜間用テクスチャデータと、空表示用データとして、夜空表示用データとを含むことが好ましい。このようにすることにより、昼間用地図データを用いることによって、昼間用3次元地図を生成することができる。また、夜間用地図データを用いることによって、夜間用3次元地図を生成することができる。   As described in claim 10, the daytime map data includes the daytime texture data and the sky display data as the daytime sky display data as the texture data, and the nighttime map data as the texture data, It is preferable that night texture data and night sky display data are included as sky display data. Thus, a daytime three-dimensional map can be generated by using daytime map data. Further, a night three-dimensional map can be generated by using the night map data.
請求項11に記載したように、夜間用テクスチャデータは、照明に関する模様をつけるためのものであることが好ましい。これにより、例えば、照明に関する模様として、看板のネオンライトをつけることによって、携帯機の保持者はビルを特定することができる。   As described in claim 11, it is preferable that the nighttime texture data is for applying a pattern related to lighting. Thereby, for example, the holder of the portable device can identify the building by turning on a signboard neon light as a pattern related to lighting.
請求項12に記載したように、昼空表示用データは、現在の年月日及び時刻に応じて、太陽位置を異ならせ、夜空表示用データは、現在の年月日及び時刻に応じて、月と星座との位置、及び星座の種類を異ならせることができる。このようにすることにより、現在の年月日及び時刻に応じた、正確な太陽位置などを携帯機の保持者が把握することができる。   As described in claim 12, the daytime sky display data varies the sun position according to the current date and time, and the night sky display data varies according to the current date and time. The position of the moon and the constellation and the kind of constellation can be made different. By doing in this way, the holder of a portable machine can grasp the exact sun position etc. according to the present date and time.
請求項13に記載したように、夜空表示用データは、所定の区域において、空気の汚れ度合を示すものであっても良い。例えば、都心などでは、空気が汚れているためである。これにより、より精度の高い夜空を3次元地図上に表示することができる。   As described in claim 13, the night sky display data may indicate the degree of air contamination in a predetermined area. For example, in the city center, the air is dirty. Thereby, the night sky with higher accuracy can be displayed on the three-dimensional map.
請求項14に記載したように、探索された歩行者用案内経路に基づいて、歩行者用経路案内を行なう歩行者用経路案内手段を備えることが好ましい。これにより、携帯機の保持者に対して、歩行者用経路案内を行なうことができる。   As described in claim 14, it is preferable to provide pedestrian route guidance means for performing pedestrian route guidance based on the searched pedestrian guidance route. Thereby, the route guidance for pedestrians can be performed with respect to the holder of a portable device.
請求項15に記載したように、表示画面は、コントラストを変更可能に構成されており、表示制御手段は、歩行者用案内経路を、歩行者用案内経路に該当する道路データに重ねて強調表示し、歩行者用案内経路における進行方向を含む表示範囲のコントラストを明るく変更しても良い。これにより、携帯機の保持者は、明確に歩行者用案内経路における進行方向を把握することができる。   As described in claim 15, the display screen is configured so that the contrast can be changed, and the display control means highlights the pedestrian guidance route by superimposing it on the road data corresponding to the pedestrian guidance route. The contrast of the display range including the traveling direction in the pedestrian guidance route may be changed brightly. Thereby, the holder | retainer of a portable machine can grasp | ascertain the advancing direction in the guidance route for pedestrians clearly.
請求項16に記載したように、表示制御手段は、歩行者用案内経路沿いにおける3次元オブジェクトのみ表示することもできる。このようにすることにより、携帯機の保持者は、歩行者用案内経路における進行方向を明確に把握可能である。   As described in claim 16, the display control means can also display only a three-dimensional object along the pedestrian guide route. By doing in this way, the holder of the portable device can clearly grasp the traveling direction in the pedestrian guide route.
請求項17に記載したように、携帯機の現在位置の変化に基づいて、携帯機の保持者が歩行中であるか否かを判定する判定手段を備え、判定手段によって携帯機の保持者が歩行中であると判定された場合、表示制御手段に対して、3次元地図の表示を中止するよう指示する指示手段を備えることもできる。これにより、携帯機の保持者が歩行中に、仮想視野範囲に応じた3次元地図を見ようと試みた場合、当該3次元地図が表示画面に表示されなくなる。   According to a seventeenth aspect of the present invention, there is provided determination means for determining whether or not the holder of the portable device is walking based on a change in the current position of the portable device. An instruction means for instructing the display control means to stop displaying the three-dimensional map when it is determined that the user is walking can be provided. Thereby, when the holder of the portable device tries to view the three-dimensional map corresponding to the virtual visual field range while walking, the three-dimensional map is not displayed on the display screen.
(第1実施形態)
以下、本発明の好ましい実施形態について図面を参照して説明する。本実施形態では、携帯機用地図表示装置が携帯電話に適用された例を説明する。図1は、本実施形態による携帯電話装置300の概略構成を示すブロック図である。以下、本実施形態による携帯電話装置300について詳細に説明する。
(First embodiment)
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the present embodiment, an example in which the map display device for a portable device is applied to a cellular phone will be described. FIG. 1 is a block diagram illustrating a schematic configuration of a mobile phone device 300 according to the present embodiment. Hereinafter, the mobile phone device 300 according to the present embodiment will be described in detail.
図1に示すように、携帯電話装置300は、表示画面210、GPS受信機211、地磁気センサ212、傾斜角センサ213、コンピュータ220、第1の記憶部230、第2の記憶部240、第3の記憶部245、操作部250、音声出力部260、通信部270を備えている。また、通信部270は、車載ナビゲーション装置100との通信を行なう。   As shown in FIG. 1, the mobile phone device 300 includes a display screen 210, a GPS receiver 211, a geomagnetic sensor 212, a tilt angle sensor 213, a computer 220, a first storage unit 230, a second storage unit 240, a third storage unit. Storage unit 245, operation unit 250, audio output unit 260, and communication unit 270. The communication unit 270 communicates with the in-vehicle navigation device 100.
まず、車載ナビゲーション装置100の概略構成について、図2を用いて説明する。図2は、本実施形態による車載ナビゲーション装置100の概略構成を示すブロック図である。   First, a schematic configuration of the in-vehicle navigation device 100 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a schematic configuration of the in-vehicle navigation device 100 according to the present embodiment.
図2に示すように、車載ナビゲーション装置100は、位置検出器10、デジタル道路地図データベース20、コンピュータ30、表示部40、操作スイッチ群50、音声出力部60、音声入力部70、記憶装置80、及び通信機90を備えている。   As shown in FIG. 2, the in-vehicle navigation device 100 includes a position detector 10, a digital road map database 20, a computer 30, a display unit 40, an operation switch group 50, an audio output unit 60, an audio input unit 70, a storage device 80, And a communication device 90.
コンピュータ30は、内部には周知のCPU、ROM、RAM、I/O及びこれらの構成を接続するバスラインを備えている。ROMには、コンピュータ30が実行するためのプログラムが書き込まれており、このプログラムに従ってCPU等が所定の演算処理を実行する。   The computer 30 includes a known CPU, ROM, RAM, I / O, and a bus line for connecting these components. In the ROM, a program to be executed by the computer 30 is written, and a CPU or the like executes predetermined arithmetic processing according to this program.
位置検出器10は、衛星からの電波に基づいて車両の位置を測定するグローバルポジショニングシステム(GPS)のためのGPS受信機11、車両の絶対方位を検出するための地磁気センサ12、車両の相対方位を検出するためのステアリングセンサ13を有している。さらに、位置検出器10は、車両の走行速度から走行距離を検出するために車速センサ14を備えている。   The position detector 10 includes a GPS receiver 11 for a global positioning system (GPS) that measures the position of a vehicle based on radio waves from a satellite, a geomagnetic sensor 12 for detecting the absolute direction of the vehicle, and a relative direction of the vehicle. Has a steering sensor 13 for detecting. Further, the position detector 10 includes a vehicle speed sensor 14 for detecting a travel distance from the travel speed of the vehicle.
このように、位置検出器10は、電波航法による車両位置測定のためにGPS受信機11を有するとともに、自立航法による車両位置推定のために地磁気センサ12、ステアリングセンサ13及び車速センサ14を有している。また、電波航法としては、GPSに限らず、例えばVICSの光ビーコンを利用しても良い。また、自立航法における車両の相対方位を検出するために、ステアリングセンサ13に代えて、ジャイロセンサや車両の左右輪に設けられた車輪速センサを用いても良い。   As described above, the position detector 10 includes the GPS receiver 11 for vehicle position measurement by radio wave navigation, and the geomagnetic sensor 12, the steering sensor 13, and the vehicle speed sensor 14 for vehicle position estimation by self-contained navigation. ing. Further, the radio navigation is not limited to the GPS, but, for example, a VICS optical beacon may be used. Further, in order to detect the relative orientation of the vehicle in the self-contained navigation, a gyro sensor or wheel speed sensors provided on the left and right wheels of the vehicle may be used instead of the steering sensor 13.
デジタル道路地図データベース20は、3次元地図データ、ポリゴンデータ、テクスチャデータ、背景データ、文字データ、及び施設データなどの各種の地図データをコンピュータ30に入力するための装置である。デジタル道路地図データベース20は、デジタル地図データを記憶する情報記憶媒体21を有し、情報記憶媒体21としては、そのデータ量からCD−ROMまたはDVD−ROMを用いるのが一般的であるが、メモリカード、ハードディスク等を用いてもよい。   The digital road map database 20 is a device for inputting various map data such as 3D map data, polygon data, texture data, background data, character data, and facility data to the computer 30. The digital road map database 20 has an information storage medium 21 for storing digital map data. As the information storage medium 21, a CD-ROM or a DVD-ROM is generally used depending on the data amount. A card, a hard disk, or the like may be used.
ここで、デジタル道路地図データベース20の記憶媒体に記憶されている3次元地図データについて、簡単に説明する。まず、3次元地図データは、複数の道路が交差、合流、分岐する地点に関するノードデータと、その地点間を結ぶ道路に関するリンクデータを有する。ノードデータは、ノード毎に固有の番号を付したノードID、ノード座標(緯度・経度・高度)、ノード名称、ノードに接続する全てのリンクのリンクIDが記述される接続リンクID、及び交差点種類などの各データから構成される。また、リンクデータは、道路毎に固有の番号を付したリンクID、リンク長、始点及び終点座標(緯度・経度・高度)、高速道路や一般道路などの道路種別、道路幅員、リンク旅行時間などの各データから構成されている。   Here, the three-dimensional map data stored in the storage medium of the digital road map database 20 will be briefly described. First, the three-dimensional map data includes node data regarding points where a plurality of roads intersect, merge and branch, and link data regarding roads connecting the points. The node data includes a node ID with a unique number for each node, node coordinates (latitude / longitude / altitude), node name, connection link ID in which link IDs of all links connected to the node are described, and intersection type It consists of each data such as. The link data includes a link ID with a unique number for each road, link length, start and end coordinates (latitude / longitude / altitude), road type such as expressway and general road, road width, link travel time, etc. It consists of each data.
ポリゴンデータは、地形、建造物等の施設、道路等の3次元オブジェクトをポリゴンで形成したものである。なお、ポリゴンデータにおける各3次元オブジェクトには、緯度、経度、高度の座標が付与されており、上述した3次元地図データと対応している。   The polygon data is formed by polygons of three-dimensional objects such as terrain, facilities such as buildings, and roads. Note that latitude, longitude, and altitude coordinates are assigned to each three-dimensional object in the polygon data, and correspond to the above-described three-dimensional map data.
テクスチャデータは、地形、建造物等の施設、道路等の3次元オブジェクトを実際の景観に近づけるために、上述したポリゴンデータに対して、ポリゴン表面に模様をつけるためのデータである。   The texture data is data for applying a pattern to the polygon surface with respect to the polygon data described above in order to bring a three-dimensional object such as a landform, a building or other facility, or a road close to an actual landscape.
背景データは、3次元地図を表示部40に表示する際に、建造物等の施設、道路等の3次元オブジェクト以外の表示対象となる背景を表示するためのデータである。なお、本実施形態には、背景データの1つとして、3次元地図上の空を表示するための空表示用データがある。これらのデータを用いることによって、3次元地図を生成することができる。   The background data is data for displaying a background to be displayed other than a three-dimensional object such as a facility such as a building or a road when a three-dimensional map is displayed on the display unit 40. In the present embodiment, there is sky display data for displaying the sky on the three-dimensional map as one of the background data. By using these data, a three-dimensional map can be generated.
文字データは、地名、施設名、道路名等を道路地図上に表示するためのものであり、表示位置に対応する地図上の座標を関連付けたデータとして構成している。   The character data is for displaying place names, facility names, road names, and the like on the road map, and is configured as data in which coordinates on the map corresponding to the display positions are associated.
施設データは、施設の検索に用いられるものであり、施設種類、施設名称、緯度・経度の座標、駐車場フラグ等の各データから構成されている。施設データにおける駐車場フラグは、当該施設データに対応する施設に駐車場が設けられている場合には、「1」にセットされ、当該施設に駐車場が設けられていない場合には、「0」にセットされる。   The facility data is used for facility search, and is composed of data such as a facility type, a facility name, latitude / longitude coordinates, and a parking lot flag. The parking lot flag in the facility data is set to “1” if a parking lot is provided in the facility corresponding to the facility data, and “0” if no parking lot is provided in the facility. Is set.
なお、地図データは、昼間用地図データ及び夜間用地図データがある。昼間用地図データは、テクスチャデータとして、昼間用テクスチャデータと、空表示用データとして、昼空表示用データを含み、夜間用地図データは、テクスチャデータとして、夜間用テクスチャデータと、空表示用データとして、夜空表示用データを含む。このようにすることにより、昼間用地図データを用いることによって、昼間用3次元地図を生成することができる。また、夜間用地図データを用いることによって、夜間用3次元地図を生成することができる。   The map data includes daytime map data and nighttime map data. The daytime map data includes the daytime texture data as the texture data and the daytime sky display data as the sky display data, and the nighttime map data includes the nighttime texture data and the sky display data as the texture data. Including data for displaying the night sky. Thus, a daytime three-dimensional map can be generated by using daytime map data. Further, a night three-dimensional map can be generated by using the night map data.
なお、昼間用テクスチャデータと夜間用テクスチャデータとの相違として、例えば、夜間用テクスチャデータは、施設の3次元オブジェクトを示すポリゴンデータに対して、室内の照明や看板のネオンサインなどの照明に関する模様をつけるためのものである。これにより、夜間らしい実際の景観に近づけることができる。このように、照明に関する模様として、看板のネオンライトをつけることによって、携帯電話装置300の保持者はビルを特定することができる。   In addition, as a difference between the texture data for daytime and the texture data for nighttime, for example, the texture data for nighttime is a pattern related to lighting such as indoor lighting and a neon sign of a signboard with respect to polygon data indicating a three-dimensional object of a facility. It is for attaching. Thereby, it can be brought close to the actual scenery that seems to be at night. As described above, the holder of the mobile phone device 300 can specify the building by turning on the neon light of the sign as a pattern related to lighting.
また、昼空表示用データは、現在の年月日及び時刻に応じて、太陽位置を異ならせ、夜空表示用データは、現在の年月日及び時刻に応じて、月と星座との位置、及び星座の種類を異ならせる。このようにすることにより、現在の年月日及び時刻に応じた、正確な太陽位置などを携帯電話装置300の保持者が把握することができる。   In addition, the day sky display data varies the position of the sun according to the current date and time, and the night sky display data includes the position of the moon and the constellation according to the current date and time, And different constellation types. By doing in this way, the holder of the mobile phone device 300 can grasp the exact sun position according to the current date and time.
さらに、夜空表示用データは、夜空表示用データは、所定の区域において、空気の汚れ度合を示すものである。例えば、都心などでは、空気が汚れているためである。これにより、より精度の高い夜空を3次元地図上に表示することができる。   Further, the night sky display data indicates the degree of air contamination in a predetermined area. For example, in the city center, the air is dirty. Thereby, the night sky with higher accuracy can be displayed on the three-dimensional map.
表示部40は、例えば、液晶ディスプレイによって構成され、表示部40の画面には車両の現在位置に対応する自車位置マーク、及び、デジタル道路地図データベース20より入力された地図データによって生成される車両周辺の3次元地図を表示することができる。また、最終目的地または車両用目的地が設定された場合、道路地図上には、現在位置から最終目的地または車両用目的地までの案内経路または車両用案内経路が重ねて表示される。   The display unit 40 is configured by, for example, a liquid crystal display, and the vehicle generated by the vehicle position mark corresponding to the current position of the vehicle on the screen of the display unit 40 and the map data input from the digital road map database 20. A surrounding 3D map can be displayed. When the final destination or the vehicle destination is set, a guide route or a vehicle guide route from the current position to the final destination or the vehicle destination is displayed on the road map in an overlapping manner.
操作スイッチ群50は、例えば、表示部40と一体になったタッチパネルスイッチもしくは表示部40の周辺に設けられるメカニカルなスイッチ等からなり、各種入力に使用される。   The operation switch group 50 includes, for example, a touch panel switch integrated with the display unit 40 or a mechanical switch provided around the display unit 40, and is used for various inputs.
音声出力部60はスピーカ等からなり、経路案内または車両用経路案内が行なわれている場合に、案内音声を出力したり、音声認識時に、入力音声に関するガイダンスを出力したりするものである。また、音声入力部70は、マイク等からなり、携帯電話装置300の保持者によって発せられた音声を取り込んで、コンピュータ30に入力する。コンピュータ30は、入力された音声の認識処理を行い、その認識結果に基づいて、各種の制御を実行する。記憶装置80には、後述する歩行者用案内経路が記憶される。   The voice output unit 60 includes a speaker or the like, and outputs a guidance voice when route guidance or vehicular route guidance is performed, or outputs guidance related to an input voice at the time of voice recognition. The voice input unit 70 includes a microphone and the like. The voice input unit 70 takes in a voice uttered by the holder of the mobile phone device 300 and inputs it to the computer 30. The computer 30 performs a process for recognizing the input voice, and executes various controls based on the recognition result. The storage device 80 stores a pedestrian guide route to be described later.
通信機90は、例えば、Bluetooth(登録商標、以下は省略する)通信機であり、公知のBluetoothプロトコルに従って、歩行者用案内経路、及び歩行者用案内経路に関する地図データを携帯電話装置300に送信する。上述したBluetoothプロトコルは、無線通信プロトコルの一種であり、2.45GHzの帯の電波を利用して1Mbpsのデータ転送速度で通信を行なうものである。その際、機器間の距離が10m以内であれば障害物があっても通信可能である。   The communication device 90 is, for example, a Bluetooth (registered trademark, the following is omitted) communication device, and transmits a pedestrian guide route and map data related to the pedestrian guide route to the mobile phone device 300 in accordance with a known Bluetooth protocol. To do. The above-described Bluetooth protocol is a type of wireless communication protocol, and performs communication at a data transfer rate of 1 Mbps using radio waves in a band of 2.45 GHz. At that time, if the distance between the devices is within 10 m, communication is possible even if there is an obstacle.
また、本実施形態の車載ナビゲーション装置100は、操作スイッチ群50もしくは音声認識によって最終目的地の位置が入力されると、最終目的地に駐車場が設けられている場合、現在位置からその最終目的地までの案内経路を探索し表示する。また、最終目的地に駐車場が設けられていない場合、当該最終目的地周辺における駐車場を検索し、この検索された駐車場を車両用目的地として設定し、現在位置からその車両用目的地までの最適な車両用案内経路を探索し表示する、いわゆる経路案内機能も備えている。また、当該車両目的地から最終目的地までの最適な歩行者用案内経路を探索する歩行者用案内経路探索機能も備えている。このような最適な案内経路を設定する手法は、周知のダイクストラ法等の手法が知られている。また、携帯電話装置300の保持者によって入力された、例えば、住所、施設名称、電話番号等から施設等の位置を検索する検索機能も備えている。   Further, when the position of the final destination is input by the operation switch group 50 or voice recognition, the in-vehicle navigation device 100 of the present embodiment, when a parking lot is provided at the final destination, from the current position to the final destination. Search and display the guide route to the ground. If no parking lot is provided at the final destination, a parking lot is searched around the final destination, the searched parking lot is set as a vehicle destination, and the vehicle destination is determined from the current position. It also has a so-called route guidance function that searches and displays the optimum vehicle guidance route up to. In addition, a pedestrian guide route search function for searching for an optimal pedestrian guide route from the vehicle destination to the final destination is also provided. As a method for setting such an optimum guide route, a known method such as the Dijkstra method is known. In addition, a search function for searching for a location of a facility or the like based on, for example, an address, a facility name, a telephone number, or the like input by the holder of the mobile phone device 300 is also provided.
これらの機能は、主にコンピュータ30によって各種の演算処理がなされることによって実行される。すなわち、コンピュータ30は最終目的地または車両目的地が設定されるとデジタル道路地図データベース20の地図データを用いて案内経路または車両用案内経路を計算し、その案内経路または車両用案内経路を表示する。この他、コンピュータ30は、車両の位置を示す自車位置マークとその周辺の道路地図を表示部40に表示させたり、道路地図の縮尺を変更したりする。   These functions are executed mainly by the computer 30 performing various arithmetic processes. That is, when the final destination or the vehicle destination is set, the computer 30 calculates the guide route or the vehicle guide route using the map data of the digital road map database 20, and displays the guide route or the vehicle guide route. . In addition, the computer 30 displays the own vehicle position mark indicating the position of the vehicle and the surrounding road map on the display unit 40, or changes the scale of the road map.
次に、携帯電話装置300の概略構成について、図1を用いて説明する。コンピュータ220は、内部には周知のCPU、ROM、RAM、I/O及びこれらの構成を接続するバスラインを備えている。ROMには、コンピュータ220が実行するためのプログラムが書き込まれており、このプログラムに従ってCPU等が所定の演算処理を実行する。   Next, a schematic configuration of the mobile phone device 300 will be described with reference to FIG. The computer 220 includes a well-known CPU, ROM, RAM, I / O, and a bus line for connecting these components. In the ROM, a program to be executed by the computer 220 is written, and a CPU or the like executes predetermined arithmetic processing according to this program.
表示画面210は、例えば、液晶ディスプレイによって構成され、携帯電話装置300の現在位置に対応する現在位置マーク、及び後述する第1の記憶部230により入力された地図データによって生成される現在位置周辺の3次元地図を表示することができる。また、後述する第3の記憶部245に、車載ナビゲーション装置100から送信された歩行者用案内経路が記憶されている場合、3次元地図上には、歩行者用出発地から最終目的地までの歩行者用案内経路が重ねて表示される。   The display screen 210 is constituted by, for example, a liquid crystal display, and is displayed around a current position generated by a current position mark corresponding to the current position of the mobile phone device 300 and map data input by the first storage unit 230 described later. A three-dimensional map can be displayed. In addition, when the pedestrian guide route transmitted from the in-vehicle navigation device 100 is stored in the third storage unit 245 described later, on the three-dimensional map, from the pedestrian departure place to the final destination. Pedestrian guidance routes are displayed in an overlapping manner.
GPS受信機211は、衛星からの電波に基づいて携帯電話装置300の位置を測定するグローバルポジショニングシステム(GPS)である。なお、本実施形態では、携帯電話装置300における表示画面210の中央部分Gの位置を測定する。   The GPS receiver 211 is a global positioning system (GPS) that measures the position of the mobile phone device 300 based on radio waves from a satellite. In the present embodiment, the position of the central portion G of the display screen 210 in the mobile phone device 300 is measured.
地磁気センサ212は、地磁気に基づいて、携帯電話装置300の保持者が表示画面210を見る方向を、携帯電話装置300の方位として検出するためのものである。なお、本実施形態では、地磁気センサ212が検出する方位は、図7に示すように、東西方向(X軸)を基準として、真東Eに対して、表示画面210の中央部分Gが左方向に何度向いているかを示す方位角データαによって表わされる。図7において、E´、W´、S´、N´、T´、D´は、それぞれ、後述する仮想視点位置Eを原点とする東、西、南、北、上、下の方位を表わしている。方位角データαの例として、左方向に60°向いている場合には、α=60°となり、右方向に45°向いている場合には、α=−45°となる。   The geomagnetic sensor 212 is for detecting the direction in which the holder of the mobile phone device 300 views the display screen 210 as the orientation of the mobile phone device 300 based on the geomagnetism. In the present embodiment, as shown in FIG. 7, the azimuth direction detected by the geomagnetic sensor 212 is such that the central portion G of the display screen 210 is leftward with respect to the true east E with reference to the east-west direction (X axis). Is represented by the azimuth angle data α indicating how many times it is directed to. In FIG. 7, E ′, W ′, S ′, N ′, T ′, and D ′ represent east, west, south, north, up, and down directions with a virtual viewpoint position E described later as the origin. ing. As an example of the azimuth angle data α, α = 60 ° when it is 60 ° to the left, and α = −45 ° when it is 45 ° to the right.
傾斜角センサ213は、例えば、液封入式容量式傾斜角センサである。具体的には、傾斜角センサ213に封入された液体の傾斜に伴う静電容量の変化を傾斜角として検出する。なお、本実施形態では、傾斜角センサ213が検出する傾斜角は、図8に示すように、表示画面210を、上下方向(Z軸)の真上方向T´に向けて、東西方向(X軸)及び南北方向(Y軸)からなる水平平面(XY平面)を基準として、真上方向T´に対して上方向に何度傾いているかを示す傾斜角データγによって表わされる。傾斜角データγの例として、上方向に30°傾いている場合には、γ=30°となる。   The tilt angle sensor 213 is, for example, a liquid-filled capacitive tilt angle sensor. Specifically, a change in electrostatic capacitance accompanying the tilt of the liquid sealed in the tilt angle sensor 213 is detected as the tilt angle. In the present embodiment, as shown in FIG. 8, the tilt angle detected by the tilt angle sensor 213 is set so that the display screen 210 is oriented in the east-west direction (X (Axis) and a horizontal plane (XY plane) consisting of the north-south direction (Y-axis) as a reference, it is represented by tilt angle data γ indicating how many times it is tilted upward with respect to the directly upward direction T ′. As an example of the tilt angle data γ, when tilted upward by 30 °, γ = 30 °.
第1の記憶部230には、後述する通信機270が受信した、車載ナビゲーション装置100から送信された歩行者用案内経路に関する地図データが記憶される。   The first storage unit 230 stores map data related to the pedestrian guide route transmitted from the in-vehicle navigation device 100 and received by the communication device 270 described later.
第2の記憶部240には、携帯電話装置300の保持者の仮想的な視点位置を表わす仮想視点位置Eから表示画面210の中央部分Gまでの仮想的な視距離を表わす第1の仮想視距離L1、仮想視点位置Eから表示画面210の中央部分Gを通過し、仮想的な視対象を表わす仮想視対象Mまでの仮想的な視距離を表わす第2の仮想視距離L2、表示画面210の横の長さW、及び表示画面210の縦の長さHが記憶されている。   The second storage unit 240 stores a first virtual view representing a virtual viewing distance from the virtual viewpoint position E representing the virtual viewpoint position of the holder of the mobile phone device 300 to the central portion G of the display screen 210. A second virtual viewing distance L2 representing a virtual viewing distance from a distance L1, a virtual viewpoint position E to a virtual viewing target M passing through the central portion G of the display screen 210, and the display screen 210 The horizontal length W and the vertical length H of the display screen 210 are stored.
第3の記憶部245には、後述する通信機270が受信した、車載ナビゲーション装置100から送信された歩行者用案内経路が記憶される。   The third storage unit 245 stores a pedestrian guide route transmitted from the in-vehicle navigation device 100 and received by the communication device 270 described later.
操作部250は、例えば、メカニカルなスイッチ等からなり、各種入力に使用される。音声出力部260は、スピーカ等からなり、歩行者用経路案内が行なわれている場合に、案内音声を出力したりするものである。通信機270は、例えば、車載ナビゲーション装置100の通信機90と同様に、Bluetooth通信機であり、公知のBluetoothプロトコルに従って、車載ナビゲーション装置100から送信された歩行者用案内経路、及び歩行者用案内経路に関する地図データを受信する。   The operation unit 250 includes, for example, a mechanical switch and is used for various inputs. The voice output unit 260 includes a speaker or the like, and outputs a guidance voice when pedestrian route guidance is performed. The communication device 270 is, for example, a Bluetooth communication device, similar to the communication device 90 of the in-vehicle navigation device 100, and a pedestrian guide route and a pedestrian guide transmitted from the in-vehicle navigation device 100 in accordance with a well-known Bluetooth protocol. Receive map data about the route.
次に、本実施形態における車載ナビゲーション装置100の経路案内処理について、図3及び図4のフローチャートを用いて詳細に説明する。なお、図3は、車載ナビゲーション装置100の経路案内処理のメインルーチンを示すフローチャートであり、図4は、案内経路探索処理のルーチンを示すフローチャートである。   Next, route guidance processing of the in-vehicle navigation device 100 according to the present embodiment will be described in detail using the flowcharts of FIGS. 3 and 4. FIG. 3 is a flowchart showing a main routine of route guidance processing of the in-vehicle navigation device 100, and FIG. 4 is a flowchart showing a routine of guidance route search processing.
まず、図3のステップS10では、車両の現在位置を検出する。このとき、GPS受信機11による位置データは、上述の道路データの座標データ(緯度と経度と高度)と同じ形態で取得される。また、地磁気センサ12、ステアリングセンサ13、車速センサ14によって自車両の進行方向及び走行距離に関するデータが取得され、過去に算出、もしくは確定された車両位置を基準として、現在位置の座標データの算出を行なう(自立航法による座標データの算出)。なお、現在位置は、基本的には、自立航法により算出された座標データに基づいて求められる。ただし、GPS受信機11による位置データが取得されている場合には、両者を比較し、その差が所定距離以上である場合には、現在位置として、GPS受信機11による位置データを採用する。   First, in step S10 of FIG. 3, the current position of the vehicle is detected. At this time, the position data by the GPS receiver 11 is acquired in the same form as the coordinate data (latitude, longitude, and altitude) of the road data described above. In addition, the geomagnetic sensor 12, the steering sensor 13, and the vehicle speed sensor 14 acquire data related to the traveling direction and travel distance of the host vehicle, and calculate the coordinate data of the current position based on the vehicle position calculated or determined in the past. Perform (calculation of coordinate data by self-contained navigation). The current position is basically obtained based on coordinate data calculated by self-contained navigation. However, when the position data by the GPS receiver 11 is acquired, the two are compared, and when the difference is equal to or greater than a predetermined distance, the position data by the GPS receiver 11 is adopted as the current position.
ステップS20では、車両の現在位置を含む、周辺地図の地図データがデジタル道路地図データベース20から読み込まれ、3次元地図が表示部40に表示される。ステップS30では、最終目的地が設定されるか否かを判定する。具体的には、例えば、メニュー画面が表示部40に表示され、操作スイッチ群50を介して、このメニュー画面の「最終目的地設定メニュー」項目が選択されたか否かを判定する。「最終目的地設定メニュー」項目が選択されなかったと判定された場合、ステップS10に戻る。一方、「最終目的地設定メニュー」項目が選択されたと判定された場合、ステップS40に進む。   In step S20, map data of a surrounding map including the current position of the vehicle is read from the digital road map database 20, and a three-dimensional map is displayed on the display unit 40. In step S30, it is determined whether or not a final destination is set. Specifically, for example, a menu screen is displayed on the display unit 40, and it is determined whether or not the “final destination setting menu” item on the menu screen is selected via the operation switch group 50. If it is determined that the “final destination setting menu” item has not been selected, the process returns to step S10. On the other hand, if it is determined that the “final destination setting menu” item has been selected, the process proceeds to step S40.
ステップS40では、最終目的地が設定される。具体的には、例えば、表示部40に最終目的地設定メニューが表示される。この最終目的地設定メニューには、「名称で探す」、「ジャンルで探す」、「電話番号で探す」などがある。携帯電話装置300の保持者は、操作スイッチ群50を介して、この最終目的地設定メニューのいずれかを選択し、選択したメニューに応じた検索条件を入力する。例として、携帯電話装置300の保持者が「電話番号で探す」を選択した場合、携帯電話装置300の保持者の所望する施設の電話番号「000−123−4567」が検索条件として入力され、コンピュータ30は、この入力された電話番号「000−123−4567」と一致する電話番号を付している施設データを検索する。この検索された施設データに対応する施設が最終目的地として設定される。ステップS50では、案内経路探索処理が実行される。この経路探索処理を図4のフローチャートを用いて説明する。   In step S40, the final destination is set. Specifically, for example, a final destination setting menu is displayed on the display unit 40. The final destination setting menu includes “search by name”, “search by genre”, “search by phone number”, and the like. The holder of the mobile phone device 300 selects one of the final destination setting menus via the operation switch group 50, and inputs a search condition corresponding to the selected menu. For example, when the holder of the mobile phone device 300 selects “Search by phone number”, the phone number “000-123-4567” of the facility desired by the holder of the mobile phone device 300 is input as a search condition. The computer 30 searches for facility data having a telephone number that matches the input telephone number “000-123-4567”. The facility corresponding to the retrieved facility data is set as the final destination. In step S50, a guidance route search process is executed. This route search process will be described with reference to the flowchart of FIG.
図4のフローチャートにおいて、まずステップS210では、ステップS50にて設定された最終目的地に駐車場があるか否かを判定する。具体的には、例えば、ステップS50にて設定された最終目的地に対応する施設データにおける駐車場フラグが「1」にセットされているか否かを判定する。駐車場フラグが「1」にセットされていると判定された場合、ステップS220に進む。   In the flowchart of FIG. 4, first, in step S210, it is determined whether or not there is a parking lot at the final destination set in step S50. Specifically, for example, it is determined whether or not the parking lot flag in the facility data corresponding to the final destination set in step S50 is set to “1”. When it is determined that the parking lot flag is set to “1”, the process proceeds to step S220.
ステップS220では、特に指示がない限り、ステップS10にて検出された現在位置を出発地とし、ステップS40にて設定された最終目的地までの案内経路をダイクストラ法等の手法で探索する。   In step S220, unless otherwise specified, the current position detected in step S10 is set as the departure point, and a guide route to the final destination set in step S40 is searched by a technique such as the Dijkstra method.
ステップS210において、駐車場フラグが「1」にセットされていないと判定された場合、すなわち、駐車場フラグが「0」にセットされていると判定された場合、ステップS230に進む。ステップS230では、ステップS40にて設定された最終目的地周辺における駐車場が検索される。具体的には、例えば、ステップS40にて設定された最終目的地から施設位置までの直線距離が最も短いと推測される、施設種類「駐車場」に該当する施設データが検索される。ステップS235では、ステップS220にて検索された駐車場が車両用目的地として設定される。   If it is determined in step S210 that the parking lot flag is not set to “1”, that is, if it is determined that the parking lot flag is set to “0”, the process proceeds to step S230. In step S230, a parking lot around the final destination set in step S40 is searched. Specifically, for example, the facility data corresponding to the facility type “parking lot” that is estimated to have the shortest straight line distance from the final destination set in step S40 to the facility position is searched. In step S235, the parking lot searched in step S220 is set as the vehicle destination.
ステップS240では、特に指示がない限り、ステップS10にて検出された現在位置を出発地とし、ステップS235にて設定された車両用目的地までの車両用案内経路をダイクストラ法等の手法で探索する。ステップS250では、ステップS230にて検索された駐車場を出発地とし、ステップS40にて設定された最終目的地までの歩行者用案内経路をダイクストラ法等の手法で探索する。   In step S240, unless otherwise specified, the current position detected in step S10 is set as the departure point, and a vehicle guide route to the vehicle destination set in step S235 is searched by a technique such as the Dijkstra method. . In step S250, the parking lot searched in step S230 is used as a departure place, and a pedestrian guide route to the final destination set in step S40 is searched by a technique such as the Dijkstra method.
ステップS260では、ステップS250にて探索された歩行者用案内経路が記憶装置80に記憶される。   In step S260, the pedestrian guide route searched in step S250 is stored in the storage device 80.
図3のフローチャートに戻り、ステップS60では、ステップS250にて歩行者用案内経路が探索されたか否かを判定する。歩行者用案内経路が探索されていないと判定された場合、ステップS70に進む。ステップS70では、ステップS220にて探索された案内経路が表示される。具体的には、コンピュータ30は、探索された案内経路を道路に重ねて強調表示し、表示部40へ表示する。   Returning to the flowchart of FIG. 3, in step S60, it is determined whether or not a pedestrian guidance route has been searched in step S250. When it is determined that the pedestrian guidance route has not been searched, the process proceeds to step S70. In step S70, the guide route searched in step S220 is displayed. Specifically, the computer 30 highlights the searched guidance route on the road and displays it on the display unit 40.
ステップS80では、ステップS220にて探索された案内経路に基づいて、経路案内が行なわれる。ステップS90では、ステップS10にて検出された現在位置が、ステップS40にて設定された最終目的地に到着したか否かを判定する。到着していないと判定された場合、ステップS80に戻る。一方、到着したと判定された場合、処理が終了される。   In step S80, route guidance is performed based on the guidance route searched in step S220. In step S90, it is determined whether or not the current position detected in step S10 has arrived at the final destination set in step S40. If it is determined that it has not arrived, the process returns to step S80. On the other hand, if it is determined that it has arrived, the process is terminated.
ステップS60において、歩行者用案内経路が探索されたと判定された場合、ステップS100に進む。ステップS100では、ステップS240にて探索された車両用案内経路が表示される。具体的には、コンピュータ30は、探索された車両用案内経路を道路に重ねて強調表示し、表示部40へ表示する。   If it is determined in step S60 that a pedestrian guidance route has been searched, the process proceeds to step S100. In step S100, the vehicle guidance route searched in step S240 is displayed. Specifically, the computer 30 highlights the searched vehicle guide route on the road and displays it on the display unit 40.
ステップS110では、ステップS240にて探索された車両用案内経路に基づいて、車両用経路案内が行なわれる。ステップS120では、ステップS10にて検出された現在位置が、ステップS235にて設定された車両用目的地に到着したか否かを判定する。到着していないと判定された場合、ステップS110に戻る。一方、到着したと判定された場合、ステップS125に進む。   In step S110, vehicle route guidance is performed based on the vehicle guidance route searched in step S240. In step S120, it is determined whether or not the current position detected in step S10 has arrived at the vehicle destination set in step S235. If it is determined that it has not arrived, the process returns to step S110. On the other hand, if it is determined that it has arrived, the process proceeds to step S125.
ステップS125では、コンピュータ30は、歩行者用案内経路を記憶装置80から抽出する。通信機90は、携帯電話装置300に対して、この抽出された歩行者用案内経路を送信する。   In step S125, the computer 30 extracts the pedestrian guide route from the storage device 80. The communication device 90 transmits the extracted pedestrian guide route to the mobile phone device 300.
ステップS130では、コンピュータ30に設けられた内部時計(図示せず)が示す現在時刻に従って、昼間であるか否かを判定する。昼間であると判定された場合、ステップS140に進む。ステップS140では、コンピュータ30は、デジタル道路地図データベース20から、ステップS250にて探索された歩行者用案内経路に関する昼間用地図データを抽出する。通信機90は、携帯電話装置300に対して、抽出された歩行者用案内経路に関する昼間用地図データを送信する。   In step S130, it is determined whether it is daytime according to the current time indicated by an internal clock (not shown) provided in the computer 30. When it is determined that it is daytime, the process proceeds to step S140. In step S140, the computer 30 extracts daytime map data related to the guide route for pedestrians searched in step S250 from the digital road map database 20. The communication device 90 transmits the daytime map data regarding the extracted pedestrian guidance route to the mobile phone device 300.
ステップS130において、昼間でないと判定された場合、ステップS150に進む。ステップS150では、コンピュータ30は、デジタル道路地図データベース20から、ステップS250にて探索された歩行者用案内経路に関する夜間用地図データを抽出する。通信機90は、携帯電話装置300に対して、抽出された歩行者用案内経路に関する夜間用地図データを送信する。   If it is determined in step S130 that it is not daytime, the process proceeds to step S150. In step S150, the computer 30 extracts night map data related to the guide route for pedestrians searched in step S250 from the digital road map database 20. The communication device 90 transmits night map data regarding the extracted pedestrian guidance route to the mobile phone device 300.
次に、本実施形態における携帯電話装置300の経路案内処理について、図5及び図6のフローチャートを用いて詳細に説明する。なお、図5は、携帯電話装置300の経路案内処理のメインルーチンを示すフローチャートであり、図6は、仮想視野範囲算出処理のルーチンを示すフローチャートである。なお、具体的な例として、携帯電話装置300の保持者が表示画面210の中央部分Gを直視している場合を想定して説明を進める。   Next, route guidance processing of the cellular phone device 300 in the present embodiment will be described in detail with reference to the flowcharts of FIGS. 5 is a flowchart showing a main routine of route guidance processing of the mobile phone device 300, and FIG. 6 is a flowchart showing a routine of virtual visual field range calculation processing. As a specific example, the description will be made assuming that the holder of the mobile phone device 300 is looking directly at the central portion G of the display screen 210.
まず、図5のステップS310では、車載ナビゲーション装置100から、歩行者用案内経路、及び歩行者用案内経路に関する地図データを通信部270が受信したか否かを判定する。通信部270が受信していないと判定された場合、そのまま待機状態となる。一方、通信部270が受信したと判定された場合、ステップS315に進む。   First, in step S310 of FIG. 5, it is determined whether or not the communication unit 270 has received the pedestrian guide route and the map data related to the pedestrian guide route from the in-vehicle navigation device 100. When it is determined that the communication unit 270 has not received, the communication unit 270 is in a standby state. On the other hand, when it determines with the communication part 270 having received, it progresses to step S315.
ステップS312では、通信部270は、受信した歩行者用経路をコンピュータ220に入力し、コンピュータ220は、入力された歩行者用案内経路を第3の記憶部245に記憶させる。   In step S312, the communication unit 270 inputs the received pedestrian route to the computer 220, and the computer 220 stores the input pedestrian guide route in the third storage unit 245.
ステップS315では、通信部270は、受信した歩行者用経路に関する地図データをコンピュータ220に入力し、コンピュータ220は、入力された歩行者用経路に関する地図データを第1の記憶部230に記憶させる。このようにすることにより、車載ナビゲーション装置100から歩行者用案内経路、及び歩行者用案内経路に関する地図データを受信及び記憶することができる。   In step S315, the communication unit 270 inputs the received map data regarding the pedestrian route to the computer 220, and the computer 220 causes the first storage unit 230 to store the input map data regarding the pedestrian route. By doing in this way, the pedestrian guidance route and the map data regarding the pedestrian guidance route can be received and stored from the in-vehicle navigation device 100.
ステップS320では、仮想視野範囲算出処理が実行される。この仮想視野範囲算出処理を図6のフローチャートを用いて説明する。   In step S320, a virtual visual field range calculation process is executed. This virtual visual field range calculation process will be described with reference to the flowchart of FIG.
図6のフローチャートにおいて、まずステップS410では、表示画面210の中央部分Gの現在位置が検出される。具体的には、例えば、GPS受信機211による位置データは、上述の道路データの座標データ(緯度と経度と高度)と同じ形態で取得される。なお、本実施形態では、表示画面210の中央部分Gの現在位置がG=(xg、yg、zg)で表わされる。   In the flowchart of FIG. 6, first, in step S410, the current position of the central portion G of the display screen 210 is detected. Specifically, for example, the position data by the GPS receiver 211 is acquired in the same form as the coordinate data (latitude, longitude, and altitude) of the road data described above. In the present embodiment, the current position of the central portion G of the display screen 210 is represented by G = (xg, yg, zg).
ステップS420では、携帯電話装置300の保持者が表示画面210を見る方向を、携帯電話装置300の方位として検出される。具体的には、例えば、地磁気センサ212によって検出された地磁気に基づいて、真東Eに対して、表示画面210の中央部分Gが左方向に何度向いているかを示す方位角データαが算出される。   In step S <b> 420, the direction in which the holder of mobile phone device 300 views display screen 210 is detected as the orientation of mobile phone device 300. Specifically, for example, based on the geomagnetism detected by the geomagnetic sensor 212, the azimuth angle data α indicating how many times the central portion G of the display screen 210 is directed leftward relative to the true east E is calculated. Is done.
ステップS430では、表示画面210の傾斜角が検出される。具体的には、例えば、傾斜角センサ213によって出力された傾斜角データγを示す信号が出力される。   In step S430, the tilt angle of display screen 210 is detected. Specifically, for example, a signal indicating the tilt angle data γ output by the tilt angle sensor 213 is output.
ステップS440では、仮想的な視線方向を表わす仮想視線方向が算出される。具体的には、例えば、仮定より、携帯電話装置300の保持者は表示画面210の中央部分Gを正面から見ているため、仮想視線方向は、表示画面210の中央部分に対して垂直である。このため、仮想視線方向の俯角・仰角データβは、次式により算出される。   In step S440, a virtual gaze direction representing a virtual gaze direction is calculated. Specifically, for example, since the holder of the mobile phone device 300 is viewing the central portion G of the display screen 210 from the front, the virtual line-of-sight direction is perpendicular to the central portion of the display screen 210. . Therefore, the depression / elevation angle data β in the virtual visual line direction is calculated by the following equation.
(数1)β=γ−90°
図9の例に示すように、(数1)により算出された俯角・仰角データβに基づいて、仮想視線方向として直線Xが算出される。
(Equation 1) β = γ−90 °
As shown in the example of FIG. 9, the straight line X is calculated as the virtual visual line direction based on the depression / elevation angle data β calculated by (Equation 1).
ステップS450では、コンピュータ220は、第2の記憶部240から予め決められた第1の仮想視距離L1を読み出す。ステップS460では、ステップS420にて算出された方位角データα、ステップS440にて算出された仮想視線方向を示す直線X、及びステップS450にて抽出された第1の仮想視距離L1に基づいて、仮想視点位置E=(xe、ye、ze)が算出される。具体的には、例えば、ステップS420にて検出された表示画面210の中央部分Gの現在位置G=(xg、yg、zg)を起点として、携帯電話装置300の方位の反対側に向かって、直線Xを第1の仮想視距離L1だけ延長させ、当該直線Xの終点を仮想視点位置E=(xe、ye、ze)として算出する。なお、仮想視点位置Eの座標データは、上述の道路データの座標データ(緯度と経度と高度)と同じ形態で表わされる。   In step S450, the computer 220 reads a predetermined first virtual visual distance L1 from the second storage unit 240. In step S460, based on the azimuth angle data α calculated in step S420, the straight line X indicating the virtual visual line direction calculated in step S440, and the first virtual visual distance L1 extracted in step S450, A virtual viewpoint position E = (xe, ye, ze) is calculated. Specifically, for example, starting from the current position G = (xg, yg, zg) of the central portion G of the display screen 210 detected in step S420, toward the opposite side of the orientation of the mobile phone device 300, The straight line X is extended by the first virtual viewing distance L1, and the end point of the straight line X is calculated as the virtual viewpoint position E = (xe, ye, ze). The coordinate data of the virtual viewpoint position E is represented in the same form as the coordinate data (latitude, longitude, and altitude) of the road data described above.
ステップS470では、コンピュータ220は、第2の記憶部240から予め決められた、第2の仮想視距離L2、及び表示画面210における横の長さW及び縦の長さHを読み出す。   In step S <b> 470, the computer 220 reads the second virtual viewing distance L <b> 2, the horizontal length W and the vertical length H on the display screen 210, which are determined in advance from the second storage unit 240.
ステップS480では、仮想視野範囲が算出される。具体的には、例えば、表示画面210における4隅を示す4点がA、B、C、Dと表わされる。4点A、B、C、Dの座標データは、表示画面の中央部分G=(xg、yg、zg)、方位角データα、傾斜角データγ、及び表示画面210の横の長さW及び縦の長さHに基づいて算出される。なお、4点A、B、C、Dの座標データは、上述の道路データの座標データ(緯度と経度と高度)と同じ形態で表わされる。   In step S480, a virtual visual field range is calculated. Specifically, for example, four points indicating four corners on the display screen 210 are represented as A, B, C, and D. The coordinate data of the four points A, B, C, and D are the center portion G = (xg, yg, zg) of the display screen, the azimuth angle data α, the tilt angle data γ, and the horizontal length W of the display screen 210. It is calculated based on the vertical length H. The coordinate data of the four points A, B, C, and D are represented in the same form as the coordinate data (latitude, longitude, and altitude) of the road data described above.
次に、仮想視点位置Eを起点として、表示画面210における点Aを通過する直線(以後、直線aと呼ぶ)が算出される。同様にして、仮想視点位置Eを起点として、表示画面210における他の3点B、C、Dを通過する各直線(以後、直線b、直線c、及び直線dと呼ぶ)が算出される。   Next, a straight line passing through the point A on the display screen 210 (hereinafter referred to as a straight line a) is calculated from the virtual viewpoint position E as a starting point. Similarly, each straight line passing through the other three points B, C, and D on the display screen 210 (hereinafter referred to as a straight line b, a straight line c, and a straight line d) is calculated from the virtual viewpoint position E as a starting point.
そして、直線a上において、線分EAと線分EIとの比が、第1の仮想視距離L1と第2の仮想視距離L2との比が同一となる点Iの座標データが算出される。同様にして、直線b、c、d上の点J、K、Lの座標データが算出される。なお、4点I、J、K、Lの座標データは、上述の道路データの座標データ(緯度と経度と高度)と同じ形態で表わされる。例えば、図10の例に示すように、この算出された4点I、J、K、Lを結んだ平面が仮想視野範囲として算出される。このようにすることにより、仮想視野範囲を算出することができる。   Then, on the straight line a, the coordinate data of the point I at which the ratio between the line segment EA and the line segment EI is the same as the ratio between the first virtual visual distance L1 and the second virtual visual distance L2 is calculated. . Similarly, coordinate data of points J, K, and L on the straight lines b, c, and d are calculated. The coordinate data of the four points I, J, K, and L are represented in the same form as the coordinate data (latitude, longitude, and altitude) of the road data described above. For example, as shown in the example of FIG. 10, a plane connecting these calculated four points I, J, K, and L is calculated as the virtual visual field range. In this way, the virtual visual field range can be calculated.
図5のフローチャートに戻り、ステップS330では、表示画面210の中央部分Gの現在位置を含む、周辺地図の地図データが第1の記憶部230から読み込まれ、ステップS480にて算出された仮想視野範囲に応じた3次元地図が表示画面210に表示される。具体的には、例えば、表示画面210の中央部分Gの現在位置を含む、3次元地図データが第1の記憶部230から読み込まれ、当該3次元地図データに対応するポリゴンデータが表示される。この表示されたポリゴンデータに対して、当該ポリゴンデータに対応するテクスチャデータを用いてテクスチャマッピングが行なわれることによって、ポリゴン表面に模様がつけられる。そして、具体的には、図14の例に示すように、ステップS480にて算出された仮想視野範囲を示す4点I、J、K、Lを結ぶ平面に対応する3次元地図が表示画面210に表示される。なお、図14の例では、表示画面210において、仮想視野範囲に応じた昼間用3次元地図が表示されている。   Returning to the flowchart of FIG. 5, in step S330, the map data of the surrounding map including the current position of the central portion G of the display screen 210 is read from the first storage unit 230, and the virtual visual field range calculated in step S480 is obtained. A three-dimensional map corresponding to is displayed on the display screen 210. Specifically, for example, 3D map data including the current position of the central portion G of the display screen 210 is read from the first storage unit 230, and polygon data corresponding to the 3D map data is displayed. The displayed polygon data is subjected to texture mapping using texture data corresponding to the polygon data, thereby providing a pattern on the polygon surface. Specifically, as shown in the example of FIG. 14, a three-dimensional map corresponding to a plane connecting the four points I, J, K, and L indicating the virtual visual field range calculated in step S480 is displayed on the display screen 210. Is displayed. In the example of FIG. 14, a daytime three-dimensional map corresponding to the virtual visual field range is displayed on the display screen 210.
ステップS340では、コンピュータ220は、第3の記憶部245から、歩行者用案内経路を抽出する。この抽出された歩行者用案内経路が表示される。具体的には、コンピュータ220は、抽出された歩行者用案内経路を道路に重ねて強調表示し、表示画面210へ表示する。   In step S340, the computer 220 extracts a pedestrian guide route from the third storage unit 245. The extracted pedestrian guidance route is displayed. Specifically, the computer 220 highlights the extracted pedestrian guidance route so as to overlap the road, and displays it on the display screen 210.
ステップS350では、ステップS340にて抽出された歩行者用案内経路に基づいて、歩行者用経路案内が行なわれる。ステップS360では、ステップS410にて検出された現在位置が、ステップS40にて設定された最終目的地に到着したか否かを判定する。到着していないと判定された場合、ステップS320に戻る。一方、到着したと判定された場合、処理が終了される。   In step S350, pedestrian route guidance is performed based on the pedestrian guidance route extracted in step S340. In step S360, it is determined whether or not the current position detected in step S410 has arrived at the final destination set in step S40. If it is determined that it has not arrived, the process returns to step S320. On the other hand, if it is determined that it has arrived, the process is terminated.
(変形例)
例えば、上述した第1実施形態においては、歩行者用案内経路が探索された場合、車両が車両用目的地に到達してから、携帯電話装置300に対して、歩行者用案内経路、及び当該歩行者用案内経路に関する地図データを通信機90が送信する例について説明した。しかしながら、歩行者用案内経路が探索された時点にて、携帯電話装置300に対して、歩行者用案内経路、及び当該歩行者用案内経路に関する地図データを通信機90が送信しても良い。
(Modification)
For example, in the above-described first embodiment, when a pedestrian guide route is searched, the mobile phone device 300 is informed of the pedestrian guide route and the relevant route after the vehicle has reached the vehicle destination. The example in which the communication device 90 transmits map data related to the pedestrian guidance route has been described. However, the communicator 90 may transmit the pedestrian guide route and map data related to the pedestrian guide route to the mobile phone device 300 when the pedestrian guide route is searched.
(第2実施形態)
次に、本発明の第2実施形態について説明する。本実施形態による携帯機用地図表示装置は、上述した第1実施形態による携帯電話装置300と車載ナビゲーション装置100とほぼ同様の構成を有する。従って、この同様な構成に関する説明は省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The map display device for a portable device according to the present embodiment has substantially the same configuration as the mobile phone device 300 and the in-vehicle navigation device 100 according to the first embodiment described above. Therefore, the description regarding the same configuration is omitted.
第2実施形態による携帯電話装置300におけるコンピュータ220は、携帯電話装置300の保持者の所望する区域に該当する地図データを車載ナビゲーション装置100から取得する地図データ取得機能を備えている。また、取得した地図データに基づいて、操作部250によって歩行者用目的地の位置が入力されると、現在位置からその歩行者用目的地までの歩行者用案内経路を探索し表示する。いわゆる歩行者用経路案内機能も備えている。このような最適な案内経路を設定する手法は、周知のダイクストラ法等の手法が知られている。また、携帯電話装置300の保持者によって入力された、例えば、住所、施設名称、電話番号等から施設等の位置を検索する検索機能も備えている。   The computer 220 in the mobile phone device 300 according to the second embodiment has a map data acquisition function for acquiring map data corresponding to an area desired by the holder of the mobile phone device 300 from the in-vehicle navigation device 100. When the position of the pedestrian destination is input by the operation unit 250 based on the acquired map data, a pedestrian guide route from the current position to the pedestrian destination is searched and displayed. A so-called pedestrian route guidance function is also provided. As a method for setting such an optimum guide route, a known method such as the Dijkstra method is known. In addition, a search function for searching for a location of a facility or the like based on, for example, an address, a facility name, a telephone number, or the like input by the holder of the mobile phone device 300 is also provided.
このように、第2実施形態による携帯電話装置300は、第1実施形態と異なり、携帯電話装置300が歩行者用案内経路を探索し、探索された歩行者用案内経路に基づいて、歩行者用経路案内を行なうことができる。   Thus, unlike the first embodiment, the mobile phone device 300 according to the second embodiment searches for a pedestrian guide route, and the pedestrian is based on the searched pedestrian guide route. Route guidance can be performed.
次に、携帯電話装置300及び車載ナビゲーション装置100において実行される処理について、図11及び図12のフローチャートを用いて説明する。なお、図11及び図12の左側に記載した各ステップは携帯機用地図表示装置である携帯電話装置300において実行される処理を示し、図11の右側に記載した各ステップは、車載ナビゲーション装置100において実行される処理を示すものである。なお、第1実施形態の各フローチャートにおけるステップと同様のステップに関しては、具体的な説明は省略する。   Next, processing executed in the mobile phone device 300 and the vehicle-mounted navigation device 100 will be described using the flowcharts of FIGS. 11 and 12. Each step described on the left side of FIG. 11 and FIG. 12 shows processing executed in the mobile phone device 300 which is a map display device for portable devices, and each step described on the right side of FIG. The process performed in is shown. In addition, specific description is abbreviate | omitted regarding the step similar to the step in each flowchart of 1st Embodiment.
まず、図11のステップS510では、地図データを車載ナビゲーション装置100から取得するか否かを判定する。具体的には、例えば、メニュー画面が表示画面210に表示され、操作部250を介して、このメニュー画面の「地図データ取得メニュー」項目が選択されたか否かを判定する。「地図データ取得メニュー」項目が選択されなかったと判定された場合、処理が終了される。一方、「地図データ取得メニュー」項目が選択されたと判定された場合、ステップS520に進む。   First, in step S510 of FIG. 11, it is determined whether or not map data is acquired from the in-vehicle navigation device 100. Specifically, for example, a menu screen is displayed on the display screen 210, and it is determined whether or not the “map data acquisition menu” item on the menu screen is selected via the operation unit 250. If it is determined that the “map data acquisition menu” item has not been selected, the process ends. On the other hand, if it is determined that the “map data acquisition menu” item has been selected, the process proceeds to step S520.
ステップS520では、例えば、図13に示すような、区域選択画面710が表示される。この区域選択画面710において、操作部250を介して、携帯電話装置300の保持者の所望の区域が選択される。   In step S520, for example, an area selection screen 710 as shown in FIG. 13 is displayed. On this area selection screen 710, a desired area of the holder of the mobile phone device 300 is selected via the operation unit 250.
ステップS530では、例えば、区域選択画面710において、操作部250を介して、「名古屋市中川区」項目が選択され、「送信」項目が選択されることによって、通信部270が、車載ナビゲーション装置100に対して、携帯電話装置300の保持者によって選択された「名古屋市中川区」を送信する。   In step S530, for example, in the area selection screen 710, the “Nakagawa-ku, Nagoya-shi” item is selected via the operation unit 250, and the “transmission” item is selected. In response, “Nakagawa Ward, Nagoya City” selected by the holder of the mobile phone device 300 is transmitted.
ステップS540では、ステップS530にて送信された所望の区域が車載ナビゲーション装置100における通信機90が受信する。通信機90は受信した所望の区域をコンピュータ30に入力する。ステップS550では、現在時刻が昼間であるか否かを判定する。昼間であると判定された場合、ステップS560に進む。ステップS560では、コンピュータ30に入力された所望の区域に該当する昼間用地図データがデジタル道路地図データベース20から抽出される。   In step S540, the communication device 90 in the in-vehicle navigation device 100 receives the desired area transmitted in step S530. The communication device 90 inputs the received desired area to the computer 30. In step S550, it is determined whether the current time is daytime. If it is determined that it is daytime, the process proceeds to step S560. In step S 560, daytime map data corresponding to a desired area input to the computer 30 is extracted from the digital road map database 20.
ステップS550において、昼間でないと判定された場合、ステップS570に進む。ステップS570では、コンピュータ30に入力された所望の区域に該当する夜間用地図データがデジタル道路地図データベース20から抽出される。   If it is determined in step S550 that it is not daytime, the process proceeds to step S570. In step S <b> 570, night map data corresponding to a desired area input to the computer 30 is extracted from the digital road map database 20.
ステップS580では、通信機90は、携帯機用地図表示装置300に対して、ステップS560またはステップS570にて抽出された所望の地域に該当する地図データを送信する。   In step S580, the communication device 90 transmits the map data corresponding to the desired area extracted in step S560 or step S570 to the map display device 300 for portable device.
ステップS590では、通信部270が、車載ナビゲーション装置100から送信された携帯電話装置300の保持者の所望の地域に該当する地図データを受信する。ステップS600では、通信部270が受信した地図データがコンピュータ220に入力され、コンピュータ220は、入力された地図データを第1の記憶部230に記憶させる。このように、携帯電話装置300は、車載ナビゲーション装置100から3次元地図に関する地図データを受信し、受信した地図データを記憶することができる。また、このようにすることにより、携帯電話装置300の保持者の所望の区域に該当する地図データを取得することができる。   In step S590, the communication unit 270 receives the map data corresponding to the desired area of the holder of the mobile phone device 300 transmitted from the in-vehicle navigation device 100. In step S600, the map data received by the communication unit 270 is input to the computer 220, and the computer 220 stores the input map data in the first storage unit 230. Thus, the mobile phone device 300 can receive the map data related to the three-dimensional map from the in-vehicle navigation device 100 and store the received map data. Moreover, by doing in this way, the map data applicable to the desired area of the holder | retainer of the mobile telephone apparatus 300 is acquirable.
ステップS610では、仮想視野範囲算出処理が実行される。この仮想視野範囲算出処理は、第1実施形態におけるステップS320と同様の処理のため、説明は省略する。ステップS620では、表示画面210の中央部分Gの現在位置を含む、周辺地図の地図データが第1の記憶部230から読み込まれ、図15の例に示すように、算出された仮想視野範囲に応じた3次元地図が表示画面210に表示される。なお、図15の例では、表示画面210において、仮想視野範囲に応じた夜間用3次元地図が表示されている。   In step S610, a virtual visual field range calculation process is executed. Since this virtual visual field range calculation process is the same process as step S320 in the first embodiment, a description thereof will be omitted. In step S620, map data of the surrounding map including the current position of the central portion G of the display screen 210 is read from the first storage unit 230, and, as shown in the example of FIG. 15, according to the calculated virtual visual field range. The three-dimensional map is displayed on the display screen 210. In the example of FIG. 15, the nighttime three-dimensional map corresponding to the virtual visual field range is displayed on the display screen 210.
ステップS630では、歩行者用経路案内中であるか否かが判定される。歩行者用経路案内中でないと判定された場合、ステップS640に進む。ステップS640では、歩行者用目的地が設定されるか否かを判定する。具体的には、例えば、メニュー画面が表示画面210に表示され、操作部250を介して、このメニュー画面の「歩行者用目的地設定メニュー」項目が選択されたか否かを判定する。「歩行者用目的地設定メニュー」項目が選択されなかったと判定された場合、ステップS610に戻る。一方、「歩行者用目的地設定メニュー」項目が選択されたと判定された場合、ステップS650に進む。   In step S630, it is determined whether route guidance for pedestrians is being performed. If it is determined that the route guidance for pedestrians is not being performed, the process proceeds to step S640. In step S640, it is determined whether a pedestrian destination is set. Specifically, for example, a menu screen is displayed on the display screen 210, and it is determined whether or not the “pedestrian destination setting menu” item on the menu screen is selected via the operation unit 250. If it is determined that the “pedestrian destination setting menu” item has not been selected, the process returns to step S610. On the other hand, when it is determined that the “pedestrian destination setting menu” item is selected, the process proceeds to step S650.
ステップS650では、歩行者用目的地が設定される。具体的には、例えば、表示画面210に歩行者用目的地設定メニューが表示される。この最終目的地設定メニューには、「名称で探す」、「ジャンルで探す」、「電話番号で探す」などがある。携帯電話装置300の保持者は、操作部250を介して、この最終目的地設定メニューのいずれかを選択し、選択したメニューに応じた検索条件を入力する。例として、携帯電話装置300の保持者が「名称で探す」を選択した場合、携帯機の保持者の所望する施設の名称「戸田小学校」が検索条件として入力され、コンピュータ220は、この入力された名称「戸田小学校」と一致する名称を付している施設データを検索する。この検索された施設データに対応する施設が歩行者用目的地として設定される。   In step S650, a pedestrian destination is set. Specifically, for example, a pedestrian destination setting menu is displayed on the display screen 210. The final destination setting menu includes “search by name”, “search by genre”, “search by phone number”, and the like. The holder of the mobile phone device 300 selects one of the final destination setting menus via the operation unit 250 and inputs a search condition corresponding to the selected menu. As an example, when the holder of the mobile phone device 300 selects “Search by name”, the name “Toda Elementary School” of the facility desired by the holder of the portable device is input as a search condition, and the computer 220 is input Search for facility data with a name that matches the name “Toda Elementary School”. A facility corresponding to the retrieved facility data is set as a pedestrian destination.
ステップS660では、特に指示がない限り、仮想視野範囲算出処理において検出された表示画面210の中央部分Gの現在位置を出発地とし、ステップS650にて設定された歩行者用目的地までの歩行者用案内経路をダイクストラ法等の手法で探索する。このように、携帯電話装置300は、歩行者用案内経路を探索することができる。   In step S660, unless otherwise specified, a pedestrian to the pedestrian destination set in step S650, starting from the current position of the central portion G of the display screen 210 detected in the virtual visual field range calculation process. The guide route is searched using a method such as the Dijkstra method. Thus, the mobile phone device 300 can search for a pedestrian guide route.
ステップS670では、ステップS660にて探索された歩行者用案内経路に基づいて、歩行者用経路案内が行なわれる。これにより、携帯機の保持者に対して、歩行者用経路案内を行なうことができる。   In step S670, pedestrian route guidance is performed based on the pedestrian guidance route searched in step S660. Thereby, the route guidance for pedestrians can be performed with respect to the holder of a portable device.
ステップS690では、仮想視野範囲算出処理において検出された表示画面210の中央部分Gの現在位置が、ステップS650にて設定された歩行者用目的地に到着したか否かを判定する。到着していないと判定された場合、ステップS610に戻る。一方、到着したと判定された場合、処理が終了される。   In step S690, it is determined whether the current position of the central portion G of the display screen 210 detected in the virtual visual field range calculation process has arrived at the pedestrian destination set in step S650. If it is determined that it has not arrived, the process returns to step S610. On the other hand, if it is determined that it has arrived, the process is terminated.
以上、説明したように各実施形態によれば、コンピュータ220は、携帯電話装置300の現在位置、表示画面210の傾斜角、及び携帯電話装置300の方位に基づいて、携帯電話装置300の保持者が表示画面210後方において視認すると想定される仮想視野範囲を算出する。この算出された仮想視野範囲を、携帯電話装置300の保持者の視線位置から見た場合の景観に対応するように、表示画面210に3次元地図を表示することができるようにした。これにより、実際に携帯電話装置300の保持者の目に見える景観を3次元地図として表示画面210に表示することができる。   As described above, according to each embodiment, the computer 220 holds the mobile phone device 300 based on the current position of the mobile phone device 300, the tilt angle of the display screen 210, and the orientation of the mobile phone device 300. Calculates a virtual visual field range that is assumed to be visually recognized behind the display screen 210. The calculated virtual visual field range can be displayed on the display screen 210 so as to correspond to a landscape when viewed from the line-of-sight position of the holder of the mobile phone device 300. As a result, the scenery that is actually visible to the holder of the mobile phone device 300 can be displayed on the display screen 210 as a three-dimensional map.
なお、本発明は、上述した各実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することが可能である。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.
例えば、上述した各実施形態においては、第2の記憶部240に記憶されている第1の仮想視距離L1、及び第2の仮想視距離L2に基づいて、仮想視野範囲が算出される例について説明した。しかしながら、表示画面210までの実際の視距離を表わす実視距離を算出し、この算出された実視距離、及び第2の記憶部240に記憶されている第2の仮想視距離L2に基づいて、仮想視野範囲が算出されても良い。   For example, in each embodiment described above, an example in which the virtual visual field range is calculated based on the first virtual visual distance L1 and the second virtual visual distance L2 stored in the second storage unit 240. explained. However, the actual viewing distance representing the actual viewing distance to the display screen 210 is calculated, and based on the calculated actual viewing distance and the second virtual viewing distance L2 stored in the second storage unit 240. The virtual visual field range may be calculated.
具体的には、例えば、超音波センサ(図示せず)が携帯電話装置300に設けられる。超音波センサは、携帯電話装置300の保持者にミリ波の電波を照射し、その反射波から携帯電話装置300までの距離を計測するものである。この超音波センサによって計測された距離を、実視距離とする。この超音波センサによって検出された実視距離と第2の仮想視距離L2との比となる、仮想視点位置Eから表示画面の4隅を示す4点A、B、C、Dをそれぞれ通過する直線a、b、c、d上の4点I、J、K、Lを算出する。そして、算出された4点I、J、K、Lを結ぶ平面が仮想視野範囲として算出される。   Specifically, for example, an ultrasonic sensor (not shown) is provided in the mobile phone device 300. The ultrasonic sensor irradiates the holder of the mobile phone device 300 with millimeter-wave radio waves and measures the distance from the reflected wave to the mobile phone device 300. The distance measured by this ultrasonic sensor is taken as the actual viewing distance. The four points A, B, C, and D indicating the four corners of the display screen are respectively passed from the virtual viewpoint position E, which is the ratio of the actual visual distance detected by the ultrasonic sensor and the second virtual visual distance L2. Four points I, J, K, and L on the straight lines a, b, c, and d are calculated. Then, a plane connecting the calculated four points I, J, K, and L is calculated as a virtual visual field range.
そして、超音波センサによって計測された実視距離が短くなるほど、仮想視野範囲が大きくなるように、仮想視野範囲を算出することができる。これにより、より精度の高い仮想視野範囲を算出することができる。   Then, the virtual visual field range can be calculated so that the virtual visual field range becomes larger as the actual viewing distance measured by the ultrasonic sensor becomes shorter. Thereby, the virtual visual field range with higher accuracy can be calculated.
また、上述した各実施形態では、表示画面210において、歩行者用案内経路を、当該歩行者用案内経路に該当する道路データに重ねて強調表示する例について説明した。しかしながら、歩行者用案内経路における進行方向を含む表示範囲を明るくしても良い。具体的には、例えば、表示画面210は、コントラストを変更可能であり、コンピュータ220からのコントラスト変更信号に従って、コントラストの変更を行なう。従って、表示画面210に対して、コンピュータ220から進行方向を含む表示範囲のコントラストを明るくするコントラスト変更信号を出力する。この結果、歩行者用案内経路における進行方向を含む表示範囲のコントラストを明るくすることができる。これにより、携帯電話装置300の保持者は、明確に歩行者用案内経路における進行方向を把握することができる。   Moreover, in each embodiment mentioned above, the example which superimposes and displays the pedestrian guidance route on the road data applicable to the said pedestrian guidance route on the display screen 210 was demonstrated. However, the display range including the traveling direction in the pedestrian guidance route may be brightened. Specifically, for example, the display screen 210 can change the contrast, and the contrast is changed in accordance with a contrast change signal from the computer 220. Therefore, a contrast change signal for increasing the contrast of the display range including the traveling direction is output from the computer 220 to the display screen 210. As a result, the contrast of the display range including the traveling direction in the pedestrian guidance route can be increased. Thereby, the holder of the mobile phone device 300 can clearly grasp the traveling direction in the pedestrian guide route.
また、例えば、表示画面210において、歩行者用案内経路沿いにおける3次元オブジェクトのみ表示しても良い。このようにすることにより、携帯電話装置300の保持者は、歩行者用案内経路における進行方向を明確に把握可能である。   Further, for example, on the display screen 210, only a three-dimensional object along the pedestrian guidance route may be displayed. By doing so, the holder of the mobile phone device 300 can clearly grasp the traveling direction in the pedestrian guide route.
さらに、上述した各実施形態では、安全性を考慮して、携帯電話装置300の保持者が立ち止って、仮想視野範囲に応じた3次元地図を見ている場合を想定して説明した。しかしながら、携帯電話装置300の保持者が歩行中に、仮想視野範囲に応じた3次元地図を見ることが考えられる。この場合、表示画面210の現在位置の変化に基づいて、携帯電話装置300の保持者が歩行中であるか否かを判定し、携帯電話装置300の保持者が歩行中であると判定された場合、表示画面において、3次元地図の表示を中止する。これにより、携帯電話装置300の保持者が歩行中に、仮想視野範囲に応じた3次元地図を見ようと試みた場合、3次元地図が表示画面210に表示されなくなる。   Furthermore, in each of the above-described embodiments, the case where the holder of the mobile phone device 300 stops and looks at the three-dimensional map corresponding to the virtual visual field range has been described in consideration of safety. However, it is conceivable that the holder of the mobile phone device 300 sees a three-dimensional map corresponding to the virtual visual field range while walking. In this case, based on the change in the current position of the display screen 210, it is determined whether or not the holder of the mobile phone device 300 is walking, and it is determined that the holder of the mobile phone device 300 is walking. In this case, the display of the 3D map is stopped on the display screen. As a result, when the holder of the mobile phone device 300 tries to view a three-dimensional map corresponding to the virtual visual field range while walking, the three-dimensional map is not displayed on the display screen 210.
また、上述した各実施形態では、携帯電話装置300の保持者が、表示画面210を地面と水平となるまで傾けた場合、表示画面210に、3次元地図を垂直に見下ろした地図を表示する例について説明した。しかしながら、第4の記憶部(図示せず)に、2次元地図を表示するための地図データを記憶し、携帯電話装置300の保持者が、表示画面210を地面と水平となるまで傾けた場合、第4の記憶部から地図データが抽出され、この抽出された地図データに基づいて2次元地図を表示画面210に表示しても良い。   Moreover, in each embodiment mentioned above, when the holder of the mobile phone device 300 tilts the display screen 210 until it is level with the ground, the display screen 210 displays a map in which the three-dimensional map is looked down vertically. Explained. However, when map data for displaying a two-dimensional map is stored in a fourth storage unit (not shown) and the holder of the mobile phone device 300 tilts the display screen 210 until it is level with the ground. The map data may be extracted from the fourth storage unit, and a two-dimensional map may be displayed on the display screen 210 based on the extracted map data.
本実施形態による携帯電話装置300の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the mobile telephone apparatus 300 by this embodiment. 本実施形態による車載ナビゲーション装置100の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the vehicle-mounted navigation apparatus 100 by this embodiment. 本実施形態における、車載ナビゲーション装置100の経路案内処理のメインルーチンを示すフローチャートである。It is a flowchart which shows the main routine of the route guidance process of the vehicle-mounted navigation apparatus 100 in this embodiment. 本実施形態における、案内経路探索処理のルーチンを示すフローチャートである。It is a flowchart which shows the routine of the guidance route search process in this embodiment. 本実施形態における、携帯電話装置300の経路案内処理のメインルーチンを示すフローチャートである。5 is a flowchart showing a main routine of route guidance processing of the mobile phone device 300 in the present embodiment. 本実施形態における、仮想視野範囲算出処理のルーチンを示すフローチャートである。It is a flowchart which shows the routine of the virtual visual field range calculation process in this embodiment. 本実施形態における、表示画面210の方位角データαを説明するための説明図である。It is explanatory drawing for demonstrating the azimuth angle data (alpha) of the display screen 210 in this embodiment. 本実施形態における、表示画面210の傾斜角データγを説明するための説明図である。It is explanatory drawing for demonstrating the inclination-angle data (gamma) of the display screen 210 in this embodiment. 本実施形態における、仮想視線方向を説明するための説明図である。It is explanatory drawing for demonstrating the virtual gaze direction in this embodiment. 本実施形態における、仮想視野範囲を説明するための説明図である。It is explanatory drawing for demonstrating the virtual visual field range in this embodiment. 本実施形態における、携帯機用地図表示装置300及び車載ナビゲーション装置100において実行される制御処理の前半部分を示すフローチャートである。It is a flowchart which shows the first half part of the control processing performed in the map display apparatus 300 for portable devices and the vehicle-mounted navigation apparatus 100 in this embodiment. 本実施形態における、携帯機用地図表示装置300及び車載ナビゲーション装置100において実行される制御処理の後半部分を示すフローチャートである。It is a flowchart which shows the latter half part of the control processing performed in the map display apparatus 300 for portable devices and the vehicle-mounted navigation apparatus 100 in this embodiment. 本実施形態における、区域選択画面710の表示例を示すイメージ図である。It is an image figure which shows the example of a display of the area selection screen 710 in this embodiment. 本実施形態における、仮想視野範囲に応じた昼間用3次元地図の表示例を示すイメージ図である。It is an image figure which shows the example of a display of the three-dimensional map for daytime according to the virtual visual field range in this embodiment. 本実施形態における、仮想視野範囲に応じた夜間用3次元地図の表示例を示すイメージ図である。It is an image figure which shows the example of a display of the night three-dimensional map according to the virtual visual field range in this embodiment. 本実施形態における、歩行者用案内経路における進行方向を含む表示範囲のコントラストを明るくした表示例を示すイメージ図である。It is an image figure which shows the example of a display which brightened the contrast of the display range containing the advancing direction in the guide route for pedestrians in this embodiment.
符号の説明Explanation of symbols
10…位置検出器
11…GPS受信機
12…地磁気センサ
13…ステアリングセンサ
14…車速センサ
20…デジタル道路地図データベース
21…情報記録媒体
30…コンピュータ
40…表示部
50…操作スイッチ群
60…音声出力部
70…音声入力部
80…記憶装置
90…通信機
210…表示画面
211…GPS受信機
212…地磁気センサ
213…傾斜角センサ
220…コンピュータ
230…第1の記憶部
240…第2の記憶部
245…第3の記憶部
250…操作部
260…音声出力部
270…通信部
DESCRIPTION OF SYMBOLS 10 ... Position detector 11 ... GPS receiver 12 ... Geomagnetic sensor 13 ... Steering sensor 14 ... Vehicle speed sensor 20 ... Digital road map database 21 ... Information recording medium 30 ... Computer 40 ... Display part 50 ... Operation switch group 60 ... Sound output part 70 ... voice input unit 80 ... storage device 90 ... communication device 210 ... display screen 211 ... GPS receiver 212 ... geomagnetic sensor 213 ... tilt angle sensor 220 ... computer 230 ... first storage unit 240 ... second storage unit 245 ... Third storage unit 250 ... operation unit 260 ... audio output unit 270 ... communication unit

Claims (17)

  1. 表示画面を有する携帯機に適用され、当該表示画面に3次元地図を表示する携帯機用地図表示装置であって、
    3次元地図を表示するための地図データを記憶する携帯機用地図データ記憶手段と、
    前記携帯機の現在位置を検出する現在位置検出手段と、
    前記携帯機の表示画面の傾斜角を検出する傾斜角検出手段と、
    前記携帯機の保持者が前記表示画面を見る方向を、前記携帯機の方位として検出する方位検出手段と、
    前記携帯機の現在位置、表示画面の傾斜角、及び携帯機の方位に基づいて、前記携帯機の保持者が前記表示画面後方において視認すると想定される視野範囲を算出する算出手段と、
    前記算出手段によって算出された視野範囲を、前記携帯機の保持者の視線位置から見た場合の景観に対応するように、前記地図データに基づいて前記表示画面に3次元地図を表示させる地図表示制御手段とを備えることを特徴とする携帯機用地図表示装置。
    A map display device for a portable device that is applied to a portable device having a display screen and displays a three-dimensional map on the display screen,
    Portable data map data storage means for storing map data for displaying a three-dimensional map;
    Current position detecting means for detecting the current position of the portable device;
    An inclination angle detecting means for detecting an inclination angle of the display screen of the portable device;
    Orientation detecting means for detecting a direction in which the holder of the portable device views the display screen as the orientation of the portable device;
    Based on the current position of the portable device, the tilt angle of the display screen, and the orientation of the portable device, a calculating means for calculating a visual field range that is assumed to be viewed by the holder of the portable device behind the display screen;
    Map display for displaying a three-dimensional map on the display screen based on the map data so as to correspond to a landscape when the visual field range calculated by the calculation means is viewed from the line-of-sight position of the holder of the portable device A map display device for a portable device comprising a control means.
  2. 前記携帯機用地図データ記憶手段は、2次元地図を表示するための地図データを有し、
    前記携帯機の保持者が、前記表示画面を地面と水平となるまで傾けた場合、前記地図表示制御手段は、前記表示画面に、前記携帯機の現在位置を基準とする2次元地図を表示することを特徴とする請求項1に記載の携帯機用地図表示装置。
    The portable device map data storage means has map data for displaying a two-dimensional map,
    When the holder of the portable device tilts the display screen until it is level with the ground, the map display control means displays a two-dimensional map based on the current position of the portable device on the display screen. The map display apparatus for portable devices according to claim 1.
  3. 前記携帯機の保持者と、前記携帯機との距離を計測する距離計測手段を有し、
    前記算出手段は、前記距離計測手段によって計測される距離が短くなるほど、前記視野範囲が大きくなるように、前記視野範囲を算出することを特徴とする請求項1または請求項2に記載の携帯機用地図表示装置。
    A distance measuring means for measuring a distance between the holder of the portable device and the portable device;
    The portable device according to claim 1, wherein the calculation unit calculates the visual field range such that the visual field range becomes larger as the distance measured by the distance measurement unit becomes shorter. Map display device.
  4. 前記携帯機用地図表示装置は、車載ナビゲーション装置と当該携帯機用地図表示装置とからなる携帯機用地図表示システムに適用されるものであって、
    前記車載ナビゲーション装置は、
    前記3次元地図に関する地図データを記憶する地図データ記憶手段と、
    前記携帯機用地図表示装置に対して、前記地図データを送信するナビ用送信手段とを備えるものであり、
    前記携帯機用地図表示装置は、
    前記車載ナビゲーション装置から送信された地図データを受信する携帯機用受信手段を備え、
    前記携帯機用地図データ記憶手段は、前記受信した地図データを記憶することを特徴とする請求項1乃至請求項3のいずれかに記載の携帯機用地図表示装置。
    The portable device map display device is applied to a portable device map display system comprising an in-vehicle navigation device and the portable device map display device,
    The in-vehicle navigation device is
    Map data storage means for storing map data relating to the three-dimensional map;
    A navigation transmission means for transmitting the map data to the map display device for portable devices,
    The map display device for portable devices is:
    Comprising portable device receiving means for receiving map data transmitted from the in-vehicle navigation device;
    The map display device for a portable device according to any one of claims 1 to 3, wherein the map data storage unit for the portable device stores the received map data.
  5. 前記車載ナビゲーション装置は、
    前記携帯機用地図表示装置から地図データを送信すべき所望の区域を示す区域データを受信するナビ用受信手段を備え、
    前記ナビ用送信手段は、前記ナビ用受信手段が区域データを受信した場合、当該所望の区域に該当する地図データを送信するものであり、
    前記携帯機用地図表示装置は、
    携帯機の保持者によって所望の区域を選択させる選択手段と、
    前記車載ナビゲーション装置に対して、前記選択された所望の区域を示す区域データを送信する携帯機用送信手段とを備え、
    前記携帯機用受信手段は、前記ナビ用送信手段から前記所望の区域に該当する地図データを受信することを特徴とする請求項4に記載の携帯機用地図表示装置。
    The in-vehicle navigation device is
    A navigation receiving means for receiving area data indicating a desired area where map data should be transmitted from the map display device for portable devices;
    When the navigation receiving means receives the area data, the navigation transmitting means transmits map data corresponding to the desired area.
    The map display device for portable devices is:
    Selection means for selecting a desired area by the holder of the portable device;
    A portable device transmitting means for transmitting area data indicating the selected desired area to the in-vehicle navigation device;
    5. The map display device for a portable device according to claim 4, wherein the portable device receiving means receives map data corresponding to the desired area from the navigation transmitting means.
  6. 前記地図データは、当該地図データ上の施設に関する施設データを含み、
    前記施設データに基づいて、歩行者用目的地を設定する歩行者用目的地設定手段と、
    前記地図データに基づいて、歩行者用出発地から前記歩行者用目的地までの歩行者用案内経路を探索する携帯機用歩行者用案内経路探索手段とを備えることを特徴とする請求項5に記載の携帯機用地図表示装置。
    The map data includes facility data regarding facilities on the map data,
    Pedestrian destination setting means for setting a pedestrian destination based on the facility data;
    6. A pedestrian guide route searching unit for portable devices that searches for a pedestrian guide route from a pedestrian departure point to the pedestrian destination based on the map data. The map display apparatus for portable devices as described in 2.
  7. 前記車載ナビゲーション装置は、
    前記地図データ記憶手段は、前記地図データ上の施設に関する施設データを記憶し、
    前記施設データに基づいて、最終目的地を設定する最終目的地設定手段と、
    前記設定された最終目的地に対応する施設に駐車場が不設である場合、当該最終目的地周辺における駐車場を検索する駐車場検索手段と、
    前記検索された駐車場を車両用目的地として設定する車両用目的地設定手段と、
    前記出発地から前記車両用目的地までの車両用案内経路を探索する車両用案内経路探索手段と、
    前記車両用目的地から前記最終目的地までの歩行者用案内経路を探索するナビ用歩行者用案内経路探索手段とを備え、
    前記ナビ用送信手段は、前記携帯機用地図表示装置に対して、前記歩行者用案内経路、及び当該歩行者用案内経路に関する地図データを送信するものであり、
    前記携帯機用受信手段は、前記車載ナビゲーション装置から送信された歩行者用案内経路、及び当該歩行者用案内経路に関する地図データを受信し、
    前記携帯機用地図データ記憶手段は、前記受信した歩行者用案内経路に関する地図データを記憶し、
    前記携帯機用地図表示装置は、さらに、
    前記受信した歩行者用案内経路を記憶する歩行者用案内経路記憶手段を備えることを特徴とする請求項4に記載の携帯機用地図表示装置。
    The in-vehicle navigation device is
    The map data storage means stores facility data relating to facilities on the map data,
    A final destination setting means for setting a final destination based on the facility data;
    When there is no parking lot at the facility corresponding to the set final destination, a parking lot search means for searching for a parking lot around the final destination,
    Vehicle destination setting means for setting the searched parking lot as a vehicle destination;
    Vehicle guide route search means for searching for a vehicle guide route from the departure place to the vehicle destination;
    A pedestrian guidance route search means for searching for a pedestrian guidance route from the vehicle destination to the final destination,
    The navigation transmitting means transmits the pedestrian guide route and map data related to the pedestrian guide route to the portable device map display device,
    The portable device receiving means receives the pedestrian guide route transmitted from the in-vehicle navigation device and map data related to the pedestrian guide route,
    The portable device map data storage means stores map data relating to the received pedestrian guide route,
    The portable device map display device further includes:
    5. The map display device for a portable device according to claim 4, further comprising pedestrian guide route storage means for storing the received pedestrian guide route.
  8. 前記地図データは、前記3次元地図上の3次元オブジェクトをポリゴンで形成したポリゴンデータと、当該3次元オブジェクトを実際の景観に近づけるために、前記ポリゴンデータに対してポリゴン表面に模様をつけるためのデータであるテクスチャデータと、当該3次元地図上の空を表示するためのデータである空表示用データを含むことを特徴とする請求項1乃至請求項7のいずれかに記載の携帯機用地図表示装置。   The map data includes polygon data obtained by forming a three-dimensional object on the three-dimensional map with polygons, and a pattern on the polygon surface for making the three-dimensional object closer to an actual landscape. The map display device for portable devices according to any one of claims 1 to 7, comprising texture data that is data and sky display data that is data for displaying the sky on the three-dimensional map. .
  9. 前記車載ナビゲーション装置において、
    前記地図データ記憶手段は、前記地図データとして、昼間用地図データ及び夜間用地図データを記憶し、
    前記ナビ用送信手段は、前記携帯機用地図表示装置に対して、現在時刻に応じて、前記昼間用地図データまたは前記夜間用地図データのいずれか一方を送信するものであり、
    前記携帯機用受信手段は、前記車載ナビゲーション装置から送信された前記昼間用地図データまたは前記夜間用地図データのいずれか一方を受信することを特徴とする請求項4乃至請求項8のいずれかに記載の携帯機用地図表示装置。
    In the in-vehicle navigation device,
    The map data storage means stores daytime map data and nighttime map data as the map data,
    The navigation transmission means transmits either the daytime map data or the nighttime map data to the portable device map display device according to the current time,
    9. The portable device receiving means receives either the daytime map data or the nighttime map data transmitted from the in-vehicle navigation device. The map display apparatus for portable devices as described.
  10. 前記昼間用地図データは、前記テクスチャデータとして、昼間用テクスチャデータと、前記空表示用データとして、昼空表示用データとを含み、
    前記夜間用地図データは、前記テクスチャデータとして、夜間用テクスチャデータと、前記空表示用データとして、夜空表示用データとを含むことを特徴とする請求項9に記載の携帯機用地図表示装置。
    The daytime map data includes daytime texture data as the texture data and daytime sky display data as the sky display data.
    The map display device for a portable device according to claim 9, wherein the night map data includes night texture data as the texture data and night sky display data as the sky display data.
  11. 前記夜間用テクスチャデータは、照明に関する模様をつけるためのものであることを特徴とする請求項10に記載の携帯機用地図表示装置。   11. The map display device for a portable device according to claim 10, wherein the nighttime texture data is for attaching a pattern relating to lighting.
  12. 前記昼空表示用データは、現在の年月日及び時刻に応じて、太陽位置を異ならせ、
    前記夜空表示用データは、現在の年月日及び時刻に応じて、月と星座との位置、及び星座の種類を異ならせることを特徴とする請求項10または請求項11に記載の携帯機用地図表示装置。
    The daytime sky display data, depending on the current date and time, the sun position is different,
    12. The portable device according to claim 10, wherein the night sky display data varies a position of a moon and a constellation and a kind of constellation according to a current date and time. Map display device.
  13. 前記夜空表示用データは、所定の区域において、空気の汚れ度合を示すものであることを特徴とする請求項12に記載の携帯機用地図表示装置。   The map display device for a portable device according to claim 12, wherein the night sky display data indicates a degree of air pollution in a predetermined area.
  14. 前記探索された歩行者用案内経路に基づいて、歩行者用経路案内を行なう歩行者用経路案内手段を備えることを特徴とする請求項5乃至請求項13のいずれかに記載の携帯機用地図表示装置。   The portable device map according to any one of claims 5 to 13, further comprising pedestrian route guidance means for performing pedestrian route guidance based on the searched pedestrian guidance route. Display device.
  15. 前記表示画面は、コントラストを変更可能に構成されており、
    前記表示制御手段は、前記歩行者用案内経路を、当該歩行者用案内経路に該当する道路データに重ねて強調表示し、当該歩行者用案内経路における進行方向を含む表示範囲のコントラストを明るく変更することを特徴とする請求項14に記載の携帯機用地図表示装置。
    The display screen is configured to change the contrast,
    The display control means highlights the pedestrian guidance route superimposed on the road data corresponding to the pedestrian guidance route, and brightly changes the contrast of the display range including the traveling direction in the pedestrian guidance route. The map display device for a portable device according to claim 14, wherein:
  16. 前記表示制御手段は、前記歩行者用案内経路沿いにおける前記3次元オブジェクトのみ表示することを特徴とする請求項15に記載の携帯機用地図表示装置。   The map display device for a portable device according to claim 15, wherein the display control means displays only the three-dimensional object along the pedestrian guide route.
  17. 前記携帯機の現在位置の変化に基づいて、携帯機の保持者が歩行中であるか否かを判定する判定手段を備え、
    前記判定手段によって携帯機の保持者が歩行中であると判定された場合、前記表示制御手段に対して、前記3次元地図の表示を中止するよう指示する指示手段を備えることを特徴とする請求項1乃至請求項16のいずれかに記載の携帯機用地図表示装置。
    Based on a change in the current position of the portable device, comprising a determination means for determining whether the holder of the portable device is walking,
    When the determination unit determines that the holder of the portable device is walking, the display control unit includes an instruction unit that instructs the display control unit to stop displaying the three-dimensional map. The map display device for portable devices according to any one of claims 1 to 16.
JP2005175736A 2005-06-15 2005-06-15 Map display system for portable devices Expired - Fee Related JP5063871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005175736A JP5063871B2 (en) 2005-06-15 2005-06-15 Map display system for portable devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005175736A JP5063871B2 (en) 2005-06-15 2005-06-15 Map display system for portable devices

Publications (2)

Publication Number Publication Date
JP2006349964A true JP2006349964A (en) 2006-12-28
JP5063871B2 JP5063871B2 (en) 2012-10-31

Family

ID=37645902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005175736A Expired - Fee Related JP5063871B2 (en) 2005-06-15 2005-06-15 Map display system for portable devices

Country Status (1)

Country Link
JP (1) JP5063871B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025013A (en) * 2007-07-17 2009-02-05 Pioneer Electronic Corp Image display device, image display method, and program for image display device
JP2009109400A (en) * 2007-10-31 2009-05-21 Pioneer Electronic Corp Navigation system, navigation method, navigation program, and record medium
JP2010038586A (en) * 2008-07-31 2010-02-18 Fujitsu Ten Ltd Onboard device, navigation system, and method of controlling the same
US20100045667A1 (en) * 2008-08-22 2010-02-25 Google Inc. Navigation In a Three Dimensional Environment Using An Orientation Of A Mobile Device
JP2014224822A (en) * 2014-07-03 2014-12-04 パイオニア株式会社 Display control device, display control method, and program for display control device
US8948788B2 (en) 2008-05-28 2015-02-03 Google Inc. Motion-controlled views on mobile computing devices
EP2672360A3 (en) * 2012-06-06 2016-03-30 Samsung Electronics Co., Ltd Mobile communication terminal for providing augmented reality service and method of changing into augmented reality service screen

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311625A (en) * 1996-05-22 1997-12-02 Sony Corp Display device, map display device, display method, and map display method
JPH10103975A (en) * 1996-10-02 1998-04-24 Nissan Motor Co Ltd Portable navigation system
JPH10333562A (en) * 1997-06-05 1998-12-18 Aisin Aw Co Ltd Guiding device by building shape map and recording medium for guiding device
JP2000123198A (en) * 1997-12-05 2000-04-28 Wall:Kk Application system utilizing three-dimensional urban data base
JP2000346658A (en) * 1999-06-08 2000-12-15 Mitsubishi Electric Corp Mobile information unit
JP2001027534A (en) * 1999-05-12 2001-01-30 Denso Corp Map display apparatus
JP2001074477A (en) * 1999-09-06 2001-03-23 Fujitsu Ten Ltd Navigation system
JP2001273526A (en) * 2000-03-27 2001-10-05 Hitachi Ltd Stereoscopic map display device
JP2002116030A (en) * 2000-10-12 2002-04-19 Sony Corp Map display device, navigation system, map-data generation method, storage medium and program transmission device
JP2002298162A (en) * 2001-03-29 2002-10-11 Mitsubishi Electric Corp Three-dimensional view display device and three- dimensional view generating device
JP2002340607A (en) * 2001-05-18 2002-11-27 Ntt Advanced Technology Corp Position guiding information providing system
JP2002357450A (en) * 2001-03-27 2002-12-13 Denso Corp Portable terminal, data transfer system, and program
JP2003044879A (en) * 2001-08-02 2003-02-14 Mitsubishi Electric Corp Method and device for generating three-dimensional data, program for executing this method on computer, method and device for transmitting three-dimensional data, and program for executing this method on computer
JP2003132068A (en) * 2001-10-22 2003-05-09 Nec Corp Navigation system and navigation terminal
JP2003223095A (en) * 2002-01-29 2003-08-08 Seiko Epson Corp Portable equipment and program
JP2004117294A (en) * 2002-09-27 2004-04-15 Clarion Co Ltd Navigation system, method, and program
JP2004128712A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Portable terminal device
JP2004151752A (en) * 2002-10-28 2004-05-27 Casio Comput Co Ltd Electronic map display device
JP2004317813A (en) * 2003-04-16 2004-11-11 Sony Corp Image display device and image blur preventing method
JP2004317418A (en) * 2003-04-18 2004-11-11 Denso Corp Map display apparatus for vehicle
JP2005134242A (en) * 2003-10-30 2005-05-26 Cad Center:Kk Navigation system, navigation apparatus, navigation method, and navigation program
JP2005147946A (en) * 2003-11-18 2005-06-09 Oki Joho Systems:Kk Car navigation system

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311625A (en) * 1996-05-22 1997-12-02 Sony Corp Display device, map display device, display method, and map display method
JPH10103975A (en) * 1996-10-02 1998-04-24 Nissan Motor Co Ltd Portable navigation system
JPH10333562A (en) * 1997-06-05 1998-12-18 Aisin Aw Co Ltd Guiding device by building shape map and recording medium for guiding device
JP2000123198A (en) * 1997-12-05 2000-04-28 Wall:Kk Application system utilizing three-dimensional urban data base
JP2001027534A (en) * 1999-05-12 2001-01-30 Denso Corp Map display apparatus
JP2000346658A (en) * 1999-06-08 2000-12-15 Mitsubishi Electric Corp Mobile information unit
JP2001074477A (en) * 1999-09-06 2001-03-23 Fujitsu Ten Ltd Navigation system
JP2001273526A (en) * 2000-03-27 2001-10-05 Hitachi Ltd Stereoscopic map display device
JP2002116030A (en) * 2000-10-12 2002-04-19 Sony Corp Map display device, navigation system, map-data generation method, storage medium and program transmission device
JP2002357450A (en) * 2001-03-27 2002-12-13 Denso Corp Portable terminal, data transfer system, and program
JP2002298162A (en) * 2001-03-29 2002-10-11 Mitsubishi Electric Corp Three-dimensional view display device and three- dimensional view generating device
JP2002340607A (en) * 2001-05-18 2002-11-27 Ntt Advanced Technology Corp Position guiding information providing system
JP2003044879A (en) * 2001-08-02 2003-02-14 Mitsubishi Electric Corp Method and device for generating three-dimensional data, program for executing this method on computer, method and device for transmitting three-dimensional data, and program for executing this method on computer
JP2003132068A (en) * 2001-10-22 2003-05-09 Nec Corp Navigation system and navigation terminal
JP2003223095A (en) * 2002-01-29 2003-08-08 Seiko Epson Corp Portable equipment and program
JP2004117294A (en) * 2002-09-27 2004-04-15 Clarion Co Ltd Navigation system, method, and program
JP2004128712A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Portable terminal device
JP2004151752A (en) * 2002-10-28 2004-05-27 Casio Comput Co Ltd Electronic map display device
JP2004317813A (en) * 2003-04-16 2004-11-11 Sony Corp Image display device and image blur preventing method
JP2004317418A (en) * 2003-04-18 2004-11-11 Denso Corp Map display apparatus for vehicle
JP2005134242A (en) * 2003-10-30 2005-05-26 Cad Center:Kk Navigation system, navigation apparatus, navigation method, and navigation program
JP2005147946A (en) * 2003-11-18 2005-06-09 Oki Joho Systems:Kk Car navigation system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025013A (en) * 2007-07-17 2009-02-05 Pioneer Electronic Corp Image display device, image display method, and program for image display device
JP2009109400A (en) * 2007-10-31 2009-05-21 Pioneer Electronic Corp Navigation system, navigation method, navigation program, and record medium
US8948788B2 (en) 2008-05-28 2015-02-03 Google Inc. Motion-controlled views on mobile computing devices
JP2010038586A (en) * 2008-07-31 2010-02-18 Fujitsu Ten Ltd Onboard device, navigation system, and method of controlling the same
US20100045667A1 (en) * 2008-08-22 2010-02-25 Google Inc. Navigation In a Three Dimensional Environment Using An Orientation Of A Mobile Device
KR20110049873A (en) * 2008-08-22 2011-05-12 구글 인코포레이티드 Navigation in a three dimensional environment on a mobile device
US8847992B2 (en) * 2008-08-22 2014-09-30 Google Inc. Navigation in a three dimensional environment using an orientation of a mobile device
KR101665034B1 (en) * 2008-08-22 2016-10-24 구글 인코포레이티드 Navigation in a three dimensional environment on a mobile device
EP2672360A3 (en) * 2012-06-06 2016-03-30 Samsung Electronics Co., Ltd Mobile communication terminal for providing augmented reality service and method of changing into augmented reality service screen
US9454850B2 (en) 2012-06-06 2016-09-27 Samsung Electronics Co., Ltd. Mobile communication terminal for providing augmented reality service and method of changing into augmented reality service screen
JP2014224822A (en) * 2014-07-03 2014-12-04 パイオニア株式会社 Display control device, display control method, and program for display control device

Also Published As

Publication number Publication date
JP5063871B2 (en) 2012-10-31

Similar Documents

Publication Publication Date Title
EP3055651B1 (en) Apparatus and methods of displaying navigation instructions
US8352180B2 (en) Device with camera-info
US8423292B2 (en) Navigation device with camera-info
KR100268071B1 (en) Map display method and apparatus and navigation apparatus therewith
JP4674481B2 (en) Car navigation system
US8260543B2 (en) Hidden point detection and warning method and apparatus for navigation system
JP4705170B2 (en) Navigation device and method for scrolling map data displayed on navigation device
JP2005308543A (en) Electronic equipment with map display function and program
EP2023091B1 (en) Navigation device and navigation program
JP5063871B2 (en) Map display system for portable devices
WO2008068849A1 (en) Navigation system, portable terminal device, and peripheral-image display method
KR20000071517A (en) Navigation Apparatus
WO2008044309A1 (en) Navigation system, mobile terminal device, and route guiding method
JP2008139295A (en) Device and method for intersection guide in vehicle navigation using camera
JP2007298301A (en) Map display device
JP2005326210A (en) Map information display control device, map information display device, system, method and program therefor, and storage medium recording the program
JP2007309823A (en) On-board navigation device
JP2007178378A (en) Car navigation device
JP2007040761A (en) Navigation system, terminal, and map display method
JP2007071539A (en) On-vehicle navigation device
JP3854520B2 (en) Navigation device and navigation method
JP2009036541A (en) Navigation apparatus and navigation program
JP2006064414A (en) Display method for navigation system
JP4695933B2 (en) Navigation device
JP2008151750A (en) Map display device and map scrolling technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120808

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees