JP2019045325A - Weather distribution display device, weather distribution display method and weather distribution display program - Google Patents

Weather distribution display device, weather distribution display method and weather distribution display program Download PDF

Info

Publication number
JP2019045325A
JP2019045325A JP2017169248A JP2017169248A JP2019045325A JP 2019045325 A JP2019045325 A JP 2019045325A JP 2017169248 A JP2017169248 A JP 2017169248A JP 2017169248 A JP2017169248 A JP 2017169248A JP 2019045325 A JP2019045325 A JP 2019045325A
Authority
JP
Japan
Prior art keywords
weather
image
map
image data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017169248A
Other languages
Japanese (ja)
Other versions
JP7140478B2 (en
Inventor
哲史 奥山
Tetsushi Okuyama
哲史 奥山
淳吾 有本
Jungo Arimoto
淳吾 有本
宏樹 谷澤
Hiroki Tanizawa
宏樹 谷澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Business Systems Corp
Original Assignee
Shimadzu Business Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Business Systems Corp filed Critical Shimadzu Business Systems Corp
Priority to JP2017169248A priority Critical patent/JP7140478B2/en
Publication of JP2019045325A publication Critical patent/JP2019045325A/en
Application granted granted Critical
Publication of JP7140478B2 publication Critical patent/JP7140478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a weather distribution display device, a weather distribution display method and a weather distribution display program capable of displaying an image of weather distribution on a map in a three-dimensional manner, and allowing a user to easily grasp relative position relationship between a map and a view point.SOLUTION: A reference position which is fixed to a real space is virtually set, and relative position relationship between a reference position and a portable device 100 is calculated. Map data indicating a map is acquired, then two-dimensional map image data indicating a map image having a three-dimensional feeling is generated based on the map data. Weather data indicating weather distribution is acquired, then two-dimensional weather image data which indicates a weather image and has a three-dimensional feeling and which is superposed to the map image and corresponds to the weather distribution, is generated based on the weather data. Then a combined image based on combined image data formed by combining the map image data and the weather image data is displayed on a display part 80. According to change of the relative position relationship, at least ones of positions, sizes and directions of the map image and weather image are changed.SELECTED DRAWING: Figure 1

Description

本発明は、気象分布を表示する気象分布表示装置、気象分布表示方法および気象分布表示プログラムに関する。   The present invention relates to a meteorological distribution display device for displaying meteorological distribution, a meteorological distribution display method, and a meteorological distribution display program.

現在、テレビ放送またはインターネット等の情報配信メディアにより気象情報の配信が行われている。このような配信においては、主として平面の地図に気象分布が重畳して表示される。例えば非特許文献1においては、降水量の分布が日本列島およびその周辺領域を示す二次元の地図に重畳して表示される。また、例えば非特許文献2においては、静止気象衛星により観測された雲の分布が日本列島およびその周辺領域を示す二次元の地図に重畳して表示される。さらに、非特許文献3には、地図情報等の種々のデータを三次元的に可視化する可視化ソフトウエアが紹介されている。   Currently, distribution of weather information is performed by information distribution media such as television broadcasting or the Internet. In such a distribution, the meteorological distribution is mainly superimposed and displayed on a planar map. For example, in Non-Patent Document 1, the distribution of precipitation is displayed superimposed on a two-dimensional map showing the Japanese Archipelago and its surrounding area. Also, for example, in Non-Patent Document 2, the distribution of clouds observed by geostationary meteorological satellites is displayed superimposed on a two-dimensional map showing the Japanese Archipelago and its surrounding area. Further, Non-Patent Document 3 introduces visualization software for three-dimensionally visualizing various data such as map information.

気象庁、“レーダー・ナウキャスト(降水・雷・竜巻):全国”、[online]、[平成29年8月15日検索]、インターネット〈URL:http://www.jma.go.jp/jp/radnowc/〉Japan Meteorological Agency, "Radar · Nowcast (rainfall · thunder · tornado): Nationwide", [online], [August 15, 2017 search], Internet <URL: http://www.jma.go.jp/jp / radnowc /> 気象庁、“気象衛星”、[online]、[平成29年8月15日検索]、インターネット〈URL:http://www.jma.go.jp/jp/gms/〉Meteorological Agency, "weather satellite", [online], [August 15, 2017 search], Internet <URL: http://www.jma.go.jp/jp/gms/> サイバネットシステム株式会社、“汎用可視化ソフトウエアAVS”、[online]、[平成29年8月15日検索]、インターネット〈URL:http://www.cybernet.co.jp/avs/products/〉Cybernet Systems Co., Ltd., "general-purpose visualization software AVS", [online], [August 15, 2017 search], Internet <URL: http://www.cybernet.co.jp/avs/products/>

非特許文献3において紹介された可視化ソフトウエアによれば、三次元的に可視化された対象物の画像を表示装置の画面上に表示させることができる。また、このような可視化ソフトウエアでは、マウスにより対象物を見る視点の位置を変更することにより視点の位置に応じた画像を表示させることが可能である。しかしながら、使用者は、画面上に表示された画像から対象物と視点との相対的な位置関係を把握することは困難である。   According to the visualization software introduced in Non-Patent Document 3, it is possible to display an image of a three-dimensionally visualized object on the screen of the display device. In addition, in such visualization software, it is possible to display an image according to the position of the viewpoint by changing the position of the viewpoint that looks at the object with the mouse. However, it is difficult for the user to grasp the relative positional relationship between the object and the viewpoint from the image displayed on the screen.

本発明の目的は、地図上の気象分布の画像を三次元的に表示可能であるとともに使用者に地図と視点との相対的な位置関係を容易に把握させることが可能な気象分布表示装置、気象分布表示方法および気象分布表示プログラムを提供することである。   An object of the present invention is a weather distribution display device capable of three-dimensionally displaying an image of weather distribution on a map and allowing a user to easily grasp the relative positional relationship between the map and the viewpoint. A weather distribution display method and a weather distribution display program are provided.

(1)第1の発明に係る気象分布表示装置は、携帯装置の表示部に気象分布を表示させる気象分布表示装置であって、現実空間に固定的な基準位置を仮想的に設定する基準設定部と、地図を示す地図データを取得する地図データ取得部と、気象分布を示す気象データを取得する気象データ取得部と、基準位置と携帯装置との相対位置関係を算出する相対位置関係算出部と、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成するとともに、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成する画像データ生成部とを備え、画像データ生成部は、地図画像データおよび気象画像データを合成することにより合成画像データを生成し、生成された合成画像データに基づく合成画像を表示部に表示させるとともに、相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように地図画像データおよび気象画像データを変化させる。   (1) The weather distribution display device according to the first aspect of the present invention is a weather distribution display device for displaying the weather distribution on the display unit of the portable device, and a reference setting for virtually setting a fixed reference position in real space , A map data acquisition unit that acquires map data that indicates a map, a weather data acquisition unit that acquires weather data that indicates a weather distribution, and a relative positional relationship calculation unit that calculates a relative positional relationship between a reference position and a mobile device And generates a two-dimensional map image data indicating a map image having a three-dimensional effect based on the map data, and indicates a meteorological image superimposed on the map image based on the meteorological data and having a three-dimensional effect corresponding to the weather distribution. An image data generation unit that generates two-dimensional weather image data, and the image data generation unit generates synthetic image data by synthesizing the map image data and the weather image data; While displaying a composite image based on the generated composite image data on the display unit, map image data such that at least one of the position, size, and orientation of the map image and the weather image changes according to the change in relative positional relationship. And change the weather image data.

この気象分布表示装置においては、現実空間に固定的な基準位置が仮想的に設定され、基準位置と携帯装置との相対位置関係が算出される。地図を示す地図データが取得され、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データが生成される。また、気象分布を示す気象データが取得され、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データが生成される。地図画像データおよび気象画像データを合成することにより合成画像データが生成され、生成された合成画像データに基づく合成画像が表示部に表示される。   In this weather distribution display device, a fixed reference position is virtually set in the real space, and the relative positional relationship between the reference position and the portable device is calculated. Map data representing a map is acquired, and two-dimensional map image data representing a map image having a three-dimensional effect is generated based on the map data. In addition, meteorological data indicating a meteorological distribution is acquired, and two-dimensional meteorological image data indicating a meteorological image superimposed on the map image and having a stereoscopic effect corresponding to the meteorological distribution is generated based on the meteorological data. By combining the map image data and the weather image data, composite image data is generated, and a composite image based on the generated composite image data is displayed on the display unit.

この構成によれば、立体感を有する地図画像に重畳するように気象画像を携帯装置の表示部に表示することができる。また、基準位置と携帯装置との相対位置関係が変化することにより、その変化に応じて地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化する。そのため、使用者は、携帯装置を操作して基準位置に対する携帯装置の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部に表示させることができる。ここで、使用者は、携帯装置の位置を視点の位置として直感的に認識し、基準位置に対する視点の位置を容易に把握することができる。したがって、地図上の気象分布の画像を三次元的に表示するとともに、使用者に地図画像と視点との相対的な位置関係を容易に把握させることが可能となる。   According to this configuration, the weather image can be displayed on the display unit of the portable device so as to be superimposed on the map image having a three-dimensional effect. In addition, when the relative positional relationship between the reference position and the portable device changes, at least one of the position, the size, and the direction of the map image and the weather image changes in accordance with the change. Therefore, the user operates the portable device to change the relative positional relationship of the portable device with respect to the reference position, thereby causing the display unit to display the desired portion of the map image and the weather image in the composite image at a desired angle. Can. Here, the user can intuitively recognize the position of the portable device as the position of the viewpoint and can easily grasp the position of the viewpoint with respect to the reference position. Therefore, while displaying the image of the weather distribution on a map three-dimensionally, it becomes possible to make a user grasp | ascertain the relative positional relationship of a map image and a viewpoint easily.

(2)画像データ生成部は、基準位置に仮想的に配置された地図画像が携帯装置の位置から視認された際に認識可能な地図画像を示す地図画像データを、相対位置関係および地図データに基づいて生成するとともに、基準位置の仮想的な地図画像に重畳するように基準位置に仮想的に配置された気象画像が携帯装置の位置から視認された際に認識可能な気象画像を示す気象画像データを、相対位置関係および気象データに基づいて生成してもよい。この場合、立体感を有する地図画像を示す地図画像データおよび立体感を有する気象画像を示す気象画像データを容易に生成することができる。   (2) The image data generation unit generates map image data representing a map image that can be recognized when the map image virtually arranged at the reference position is visually recognized from the position of the portable device as the relative positional relationship and the map data. A weather image that is generated based on the weather image that can be recognized when the weather image virtually arranged at the reference position so as to be superimposed on the virtual map image at the reference position is visually recognized from the position of the portable device Data may be generated based on relative position and weather data. In this case, it is possible to easily generate map image data indicating a map image having a three-dimensional effect and weather image data indicating a meteorological image having a three-dimensional effect.

(3)基準設定部は、基準位置として現実空間に固定的な第1の基準平面を仮想的に設定し、地図画像は第1の基準平面に仮想的に配置され、相対位置関係算出部は、第1の基準平面上の予め定められた基準点と携帯装置の位置との相対位置関係を算出してもよい。この場合、合成画像において、気象画像が地図画像と同一の高さに表示される。これにより、使用者は、地図画像の各地域と当該地域に対応する気象画像との関係を容易に認識することができる。   (3) The reference setting unit virtually sets a fixed first reference plane in the real space as a reference position, the map image is virtually arranged on the first reference plane, and the relative positional relationship calculation unit The relative positional relationship between the predetermined reference point on the first reference plane and the position of the portable device may be calculated. In this case, the weather image is displayed at the same height as the map image in the composite image. Thereby, the user can easily recognize the relationship between each area of the map image and the weather image corresponding to the area.

(4)気象データ取得部により取得される気象データは、互いに異なる種類の第1および第2の気象分布を示し、基準設定部は、現実空間に固定されかつ第1の基準平面と所定の位置関係を有する仮想的な第2の基準平面をさらに設定し、画像データ生成部は、仮想的な地図画像に重畳するように第1の基準平面上に仮想的に配置された第1の気象分布に対応する第1の気象画像および第2の基準平面上に仮想的に配置された第2の気象分布に対応する第2の気象画像が携帯装置の位置から視認される際に認識可能な気象画像を示す気象画像データを、相対位置関係および気象データに基づいて生成してもよい。   (4) The weather data acquired by the weather data acquisition unit indicates the first and second weather distributions of different types, and the reference setting unit is fixed to the real space and has a predetermined position with the first reference plane. A virtual second reference plane having a relationship is further set, and the image data generation unit is configured to generate a first weather distribution virtually arranged on the first reference plane so as to be superimposed on the virtual map image. Weather that can be recognized when a second weather image corresponding to a first weather image corresponding to and a second weather image corresponding to a second weather distribution virtually arranged on a second reference plane are viewed from the position of the portable device Weather image data representing an image may be generated based on the relative positional relationship and the weather data.

この場合、気象分布の種類に応じて第1の気象画像と第2の気象画像とを合成画像における異なる高さに表示することができる。また、第1の気象画像は地図画像と同一の高さに表示されるので、使用者は、地図画像の各地域と当該地域に対応する第1の気象画像との関係を容易に認識することができる。   In this case, the first weather image and the second weather image can be displayed at different heights in the composite image according to the type of weather distribution. Also, since the first weather image is displayed at the same height as the map image, the user can easily recognize the relationship between each area of the map image and the first weather image corresponding to the area. Can.

(5)気象データ取得部は、所定の時間間隔で気象データ取得を取得し、画像データ生成部は、気象データ取得部により気象データが取得されるごとに生成される気象画像データを更新してもよい。この場合、時間経過に伴う気象データの変化に追従して合成画像における気象画像を更新することができる。   (5) The weather data acquisition unit acquires weather data acquisition at predetermined time intervals, and the image data generation unit updates the weather image data generated each time weather data is acquired by the weather data acquisition unit. It is also good. In this case, it is possible to update the weather image in the composite image following the change of the weather data with the passage of time.

(6)携帯装置は、カメラと、カメラの撮像方向を検出する検出器とを含み、相対位置関係算出部は、カメラにより得られる撮像データおよび検出器により検出される撮像方向に基づいて、カメラから基準位置に向かう方向および基準位置とカメラとの間の距離を相対位置関係として算出してもよい。この場合、基準位置と携帯装置との相対位置関係を容易に算出することができる。   (6) The portable device includes a camera and a detector that detects an imaging direction of the camera, and the relative positional relationship calculation unit calculates the camera based on imaging data obtained by the camera and an imaging direction detected by the detector. The direction from the position to the reference position and the distance between the reference position and the camera may be calculated as a relative positional relationship. In this case, the relative positional relationship between the reference position and the portable device can be easily calculated.

(7)相対位置関係算出部は、カメラの位置を携帯装置の位置として相対位置関係を算出してもよい。この場合、撮像データに基づいて携帯装置の位置をより容易に算出することができる。また、使用者は、カメラの位置を視点の位置として直感的に認識し、基準位置に対する視点の位置をより容易に把握することができる。   (7) The relative positional relationship calculation unit may calculate the relative positional relationship with the position of the camera as the position of the mobile device. In this case, the position of the mobile device can be calculated more easily based on the imaging data. Also, the user can intuitively recognize the position of the camera as the position of the viewpoint, and can more easily grasp the position of the viewpoint with respect to the reference position.

(8)検出器は、重力方向を検出する加速度センサと、地磁気の方向を検出する電子コンパスとを含み、相対位置関係算出部は、加速度センサおよび電子コンパスの検出結果に基づいてカメラから基準位置に向かう方向を算出してもよい。この場合、互いに直交する2方向において、カメラの方向を容易に検出することができる。これにより、カメラから基準位置に向かう方向を容易に算出することができる。   (8) The detector includes an acceleration sensor that detects the direction of gravity, and an electronic compass that detects the direction of geomagnetism. The relative positional relationship calculation unit calculates the reference position from the camera based on the detection results of the acceleration sensor and the electronic compass. The direction towards may be calculated. In this case, the camera direction can be easily detected in two directions orthogonal to each other. Thereby, the direction from the camera to the reference position can be easily calculated.

(9)基準設定部は、所定の時点において携帯装置に対して所定の位置関係を有する仮想的な位置を基準位置として設定してもよい。この場合、基準位置を容易に設定することができる。   (9) The reference setting unit may set, as the reference position, a virtual position having a predetermined positional relationship with the portable device at a predetermined time. In this case, the reference position can be easily set.

(10)気象データは、気象に関する場所的分布を含んでもよい。この場合、使用者は、合成画像を視認することにより気象に関する場所的分布を認識することができる。   (10) The weather data may include a spatial distribution regarding the weather. In this case, the user can recognize the spatial distribution related to the weather by visually recognizing the composite image.

(11)第2の発明に係る気象分布表示方法は、携帯装置の表示部に気象分布を表示させる気象分布表示方法であって、現実空間に固定的な基準位置を仮想的に設定するステップと、地図を示す地図データを取得するステップと、気象分布を示す気象データを取得するステップと、基準位置と携帯装置との相対位置関係を算出するステップと、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成するステップと、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成するステップと、地図画像データおよび気象画像データを合成することにより合成画像データを生成するステップと、生成された合成画像データに基づく合成画像を表示部に表示させるステップとを含み、合成画像を表示部に表示させるステップは、相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように地図画像データおよび気象画像データを変化させることを含む。   (11) A weather distribution display method according to a second aspect of the present invention is a weather distribution display method for displaying a weather distribution on a display unit of a portable device, and virtually setting a fixed reference position in a real space; , Obtaining map data indicating a map, obtaining weather data indicating a weather distribution, calculating a relative positional relationship between a reference position and a portable device, and a map having a three-dimensional effect based on the map data Generating two-dimensional map image data representing an image; generating two-dimensional meteorological image data representing a meteorological image superimposed on the map image based on the meteorological data and having a stereoscopic effect corresponding to the meteorological distribution Generating synthetic image data by synthesizing map image data and meteorological image data, and displaying a synthetic image based on the generated synthetic image data Displaying the composite image on the display unit including changing the position of the map image and the weather image so that at least one of the position, the size, and the direction of the map image changes. Including changing image data and weather image data.

この構成によれば、使用者は、携帯装置を操作して基準位置に対する携帯装置の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部に表示させることができる。使用者は、携帯装置の位置を視点の位置として直感的に認識し、基準位置に対する視点の位置を容易に把握することができる。したがって、地図上の気象分布の画像を三次元的に表示するとともに、使用者に地図画像と視点との相対的な位置関係を容易に把握させることが可能となる。   According to this configuration, the user operates the portable device to change the relative positional relationship of the portable device to the reference position, thereby displaying the desired portion of the map image and the weather image in the composite image at the desired angle. Can be displayed. The user can intuitively recognize the position of the portable device as the position of the viewpoint and can easily grasp the position of the viewpoint with respect to the reference position. Therefore, while displaying the image of the weather distribution on a map three-dimensionally, it becomes possible to make a user grasp | ascertain the relative positional relationship of a map image and a viewpoint easily.

(12)第3の発明に係る気象分布表示プログラムは、携帯装置の表示部への気象分布の表示を処理装置により実行可能な気象分布表示プログラムであって、現実空間に固定的な基準位置を仮想的に設定する処理と、地図を示す地図データを取得する処理と、気象分布を示す気象データを取得する処理と、基準位置と携帯装置との相対位置関係を算出する処理と、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成する処理と、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成する処理と、地図画像データおよび気象画像データを合成することにより合成画像データを生成する処理と、生成された合成画像データに基づく合成画像を表示部に表示させる処理とを、処理装置に実行させ、合成画像を表示部に表示させる処理は、相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように地図画像データおよび気象画像データを変化させることを含む。   (12) A weather distribution display program according to the third aspect of the present invention is a weather distribution display program capable of executing display of weather distribution on the display unit of the portable device by the processing device, wherein the reference position fixed in the real space is fixed. Processing for virtually setting processing, processing for acquiring map data indicating a map, processing for acquiring weather data indicating a meteorological distribution, processing for calculating a relative positional relationship between a reference position and a portable device, map data A process of generating two-dimensional map image data showing a map image having a three-dimensional effect, and a two-dimensional weather showing a meteorological image superimposed on the map image based on meteorological data and having a three-dimensional effect corresponding to the weather distribution A process of generating image data, a process of generating composite image data by combining map image data and weather image data, and a composite image based on the generated composite image data The processing for causing the processing unit to execute the processing for displaying on the display unit and the processing for displaying the composite image on the display unit includes at least the position, size, and orientation of the map image and the weather image according to the change in relative positional relationship. Changing the map image data and the weather image data to change one.

この構成によれば、使用者は、携帯装置を操作して基準位置に対する携帯装置の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部に表示させることができる。使用者は、携帯装置の位置を視点の位置として直感的に認識し、基準位置に対する視点の位置を容易に把握することができる。したがって、地図上の気象分布の画像を三次元的に表示するとともに、使用者に地図画像と視点との相対的な位置関係を容易に把握させることが可能となる。   According to this configuration, the user operates the portable device to change the relative positional relationship of the portable device to the reference position, thereby displaying the desired portion of the map image and the weather image in the composite image at the desired angle. Can be displayed. The user can intuitively recognize the position of the portable device as the position of the viewpoint and can easily grasp the position of the viewpoint with respect to the reference position. Therefore, while displaying the image of the weather distribution on a map three-dimensionally, it becomes possible to make a user grasp | ascertain the relative positional relationship of a map image and a viewpoint easily.

本発明によれば、地図上の気象分布の画像を三次元的に表示するとともに使用者に地図と視点との相対的な位置関係を容易に把握させることができる。   According to the present invention, the image of the weather distribution on the map can be displayed three-dimensionally, and the user can easily grasp the relative positional relationship between the map and the viewpoint.

本発明の実施の形態に係る気象分布表示装置を含む携帯装置の構成を示すブロック図である。It is a block diagram showing composition of a portable device containing a weather distribution display concerning an embodiment of the invention. 基準平面の設定方法の一例を示す図である。It is a figure which shows an example of the setting method of a reference plane. 合成画像の表示の一例を示す図である。It is a figure which shows an example of a display of a synthesized image. レンズの位置が変化したときの合成画像の変化を示す図である。It is a figure which shows the change of a synthesized image when the position of a lens changes. レンズの位置が変化したときの合成画像の変化を示す図である。It is a figure which shows the change of a synthesized image when the position of a lens changes. レンズの方向が変化したときの合成画像の変化を示す図である。It is a figure which shows the change of a synthesized image when the direction of a lens changes. レンズの方向が変化したときの合成画像の変化を示す図である。It is a figure which shows the change of a synthesized image when the direction of a lens changes. 気象分布表示プログラムにより行われる気象分布表示処理のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm of the weather distribution display process performed by a weather distribution display program.

以下、本発明の実施の形態に係る気象分布表示装置、気象分布表示方法および気象分布表示プログラムについて図面を参照しながら詳細に説明する。   Hereinafter, a weather distribution display device, a weather distribution display method, and a weather distribution display program according to an embodiment of the present invention will be described in detail with reference to the drawings.

(1)携帯装置の構成
図1は、本発明の実施の形態に係る気象分布表示装置を含む携帯装置の構成を示すブロック図である。携帯装置100は、例えば携帯端末等の移動可能なスマートデバイス(smart device)であり、気象分布を示す気象データを配信する気象サーバ200と通信可能に構成される。気象データは、雨、雪、雲、雷、風、波、気温または気圧等の気象が場所に対応付けられたデータであり、観測または予測により得られる。本実施の形態においては、気象データは、降水量の観測値、気象レーダにより観測される降水強度の分布および気象衛星により観測される雲の分布である。
(1) Configuration of Mobile Device FIG. 1 is a block diagram showing a configuration of a mobile device including a weather distribution display device according to an embodiment of the present invention. The portable device 100 is, for example, a movable smart device such as a portable terminal, and is configured to be communicable with a weather server 200 that distributes weather data indicating a weather distribution. The meteorological data is data in which weather such as rain, snow, clouds, thunder, wind, waves, air temperature or atmospheric pressure is associated with a place, and is obtained by observation or prediction. In the present embodiment, the meteorological data is an observation value of precipitation, a distribution of precipitation intensity observed by a meteorological radar, and a distribution of clouds observed by a meteorological satellite.

気象データは、降水量の予測値、予測される降水強度分布または予測される雲の分布であってもよい。あるいは、気象データは、降雪量、風向風速、気温、地上気温分布、高層気温分布、地上気圧分布、高層気圧分布、地上風分布、高層風分布(鉛直成分を含む)、雷発生確度分布、竜巻発生確度分布、推計気象の天気分布、震度観測点の震度または津波観測点の津波高さ等の観測値もしくは予報値であってもよい。なお、地震に関するデータも場所に対応付けることが可能である。したがって、本実施の形態において、気象データは、地震に関するデータを含んでもよい。   The weather data may be a predicted value of precipitation, a predicted rainfall intensity distribution or a predicted cloud distribution. Alternatively, meteorological data may be snowfall amount, wind direction wind speed, air temperature, ground air temperature distribution, high air temperature distribution, ground air pressure distribution, high air pressure distribution, ground air distribution, high air wind distribution (including vertical component), lightning probability distribution, tornado It may be an observed value or a forecasted value such as occurrence probability distribution, weather distribution of estimated weather, seismic intensity of seismic observation point or tsunami height of tsunami observation point. In addition, it is possible to associate data about earthquakes with places. Therefore, in the present embodiment, the weather data may include data on earthquakes.

携帯装置100は、気象分布表示装置10、加速度センサ20、電子コンパス30、カメラ40、位置方向算出部50、記憶部60、通信部70および表示部80を含む。また、携帯装置100は、図示しないCPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、ROM(リードオンリメモリ)および記憶装置を含む。ROMまたは記憶装置には、システムプログラム、位置方向算出プログラムおよび気象分布表示プログラムが記憶される。   The portable device 100 includes a weather distribution display device 10, an acceleration sensor 20, an electronic compass 30, a camera 40, a position / direction calculation unit 50, a storage unit 60, a communication unit 70, and a display unit 80. The portable device 100 also includes a CPU (central processing unit), a RAM (random access memory), a ROM (read only memory), and a storage device (not shown). A system program, a position and direction calculation program, and a weather distribution display program are stored in the ROM or the storage device.

加速度センサ20は、地球の重力加速度の方向を検出する。電子コンパス30は、地磁気の方向を検出する。カメラ40は、レンズ41を有し、当該レンズ41を通して任意の被写体を撮像することにより、被写体の画像を示す撮像データを生成する。加速度センサ20および電子コンパス30は、カメラ40の撮像方向を検出する検出器の例である。   The acceleration sensor 20 detects the direction of the gravitational acceleration of the earth. The electronic compass 30 detects the direction of geomagnetism. The camera 40 has a lens 41, and picks up an arbitrary subject through the lens 41 to generate imaging data indicating an image of the subject. The acceleration sensor 20 and the electronic compass 30 are examples of a detector that detects the imaging direction of the camera 40.

位置方向算出部50の機能は、携帯装置100のCPUが位置方向算出プログラムをRAM上で実行することにより実現される。位置方向算出部50は、カメラ40により生成される撮像データ基づいて、被写体に対するレンズ41の相対的な位置を所定の時間間隔で逐次算出する。また、位置方向算出部50は、加速度センサ20により検出された重力加速度の方向および電子コンパス30により検出された地磁気の方向に基づいて、レンズ41の光軸の方向(以下、単にレンズ41の方向と呼ぶ。)を所定の時間間隔で逐次算出する。   The function of the position / direction calculation unit 50 is realized by the CPU of the mobile device 100 executing a position / direction calculation program on the RAM. The position / direction calculation unit 50 sequentially calculates the relative position of the lens 41 with respect to the subject at predetermined time intervals based on the imaging data generated by the camera 40. Further, based on the direction of gravitational acceleration detected by the acceleration sensor 20 and the direction of geomagnetism detected by the electronic compass 30, the position / direction calculation unit 50 determines the direction of the optical axis of the lens 41 (hereinafter simply referred to as the direction of the lens 41 Is sequentially calculated at predetermined time intervals.

ここで、レンズ41の方向は、レンズ41の仰角および水平角により表される。レンズ41の仰角は、例えば加速度センサ20により検出される重力加速度の方向に直交する平面(水平面)に対してレンズ41の光軸が成す角度として定義される。レンズ41の水平角は、例えば水平面内において電子コンパス30により検出される地磁気の方向(南北方向)に対してレンズ41の光軸が成す角度として定義される。   Here, the direction of the lens 41 is represented by the elevation angle and the horizontal angle of the lens 41. The elevation angle of the lens 41 is defined as, for example, an angle formed by the optical axis of the lens 41 with respect to a plane (horizontal plane) orthogonal to the direction of the gravitational acceleration detected by the acceleration sensor 20. The horizontal angle of the lens 41 is defined, for example, as an angle formed by the optical axis of the lens 41 with respect to the direction of the geomagnetism (North-South direction) detected by the electronic compass 30 in a horizontal plane.

記憶部60は、上記のRAM、ROMおよび記憶装置により構成される。記憶部60には、地図を示す三次元の地図データが記憶される。地図データは、例えば、日本列島およびその周辺領域を示す。通信部70は、気象サーバ200と無線通信可能に構成される。表示部80は、例えばタッチパネルディスプレイを含み、種々の画像を表示する。   The storage unit 60 is configured by the above-described RAM, ROM, and storage device. The storage unit 60 stores three-dimensional map data indicating a map. The map data indicates, for example, the Japanese archipelago and its surrounding area. The communication unit 70 is configured to be able to wirelessly communicate with the weather server 200. The display unit 80 includes, for example, a touch panel display, and displays various images.

気象分布表示装置10は、基準設定部1、相対位置関係算出部2、地図データ取得部3、地図画像データ生成部4、気象データ取得部5、気象画像データ生成部6および画像データ合成部7を含む。携帯装置100のCPUがROMまたは記憶装置に記憶された気象分布表示プログラムを実行することにより、気象分布表示装置10の構成要素(1〜7)の機能が実現される。気象分布表示装置10の構成要素(1〜7)の一部または全てが電子回路等のハードウエアにより構成されてもよい。   The weather distribution display device 10 includes a reference setting unit 1, a relative positional relationship calculation unit 2, a map data acquisition unit 3, a map image data generation unit 4, a weather data acquisition unit 5, a weather image data generation unit 6 and an image data synthesis unit 7. including. The CPU of the mobile device 100 executes the weather distribution display program stored in the ROM or the storage device to realize the functions of the components (1 to 7) of the weather distribution display device 10. Some or all of the components (1 to 7) of the weather distribution display device 10 may be configured by hardware such as an electronic circuit.

基準設定部1は、初期動作として、現実空間に固定的な基準位置を仮想的に設定する。本実施の形態においては、基準設定部1は、カメラ40の視野内の現実空間に仮想的な基準平面を基準位置として設定する。基準平面上の所定の点(例えば中心点)に基準点が設定される。具体的には、カメラ40が起動し、カメラ40の視野内のいずれかの被写体に焦点が合ったときのレンズ41の位置および方向に基づいて基準平面が設定される。基準平面が設定された後、レンズ41の位置または方向が変化しても基準平面の位置は変化しない。基準平面の設定方法の詳細については後述する。   The reference setting unit 1 virtually sets a fixed reference position in the real space as an initial operation. In the present embodiment, the reference setting unit 1 sets a virtual reference plane as a reference position in the real space in the field of view of the camera 40. A reference point is set at a predetermined point (for example, a center point) on the reference plane. Specifically, the reference plane is set based on the position and direction of the lens 41 when the camera 40 is activated and any subject within the field of view of the camera 40 is in focus. After the reference plane is set, the position of the reference plane does not change even if the position or the direction of the lens 41 changes. Details of the method of setting the reference plane will be described later.

相対位置関係算出部2は、位置方向算出部50により算出されたレンズ41の位置および方向に基づいて、基準設定部1により設定された基準平面の基準点とレンズ41との相対位置関係を算出する。基準点とレンズ41との相対位置関係は、レンズ41から基準点に向かう方向および基準点とレンズ41との間の距離を含む。   The relative positional relationship calculation unit 2 calculates the relative positional relationship between the reference point of the reference plane set by the reference setting unit 1 and the lens 41 based on the position and direction of the lens 41 calculated by the position / direction calculation unit 50. Do. The relative positional relationship between the reference point and the lens 41 includes the direction from the lens 41 to the reference point and the distance between the reference point and the lens 41.

地図データ取得部3は、記憶部60から三次元の地図データを取得する。気象サーバ200が地図データを配信する場合には、地図データ取得部3は、通信部70を介して気象サーバ200から地図データを取得してもよい。   The map data acquisition unit 3 acquires three-dimensional map data from the storage unit 60. When the weather server 200 distributes map data, the map data acquisition unit 3 may acquire map data from the weather server 200 via the communication unit 70.

ここで、基準設定部1により設定された基準平面に三次元の地図画像が仮想的に配置される。地図画像データ生成部4は、地図データ取得部3により取得された三次元の地図データおよび相対位置関係算出部2により算出された相対位置関係に基づいて、カメラ40が現時点のレンズ41の位置から仮想的な三次元の地図画像を撮像することにより得られる二次元の地図画像を示す二次元の地図画像データを所定の時間間隔で逐次生成する。ここで、二次元の地図画像は立体感を有する画像である。   Here, a three-dimensional map image is virtually arranged on the reference plane set by the reference setting unit 1. Based on the three-dimensional map data acquired by the map data acquisition unit 3 and the relative positional relationship calculated by the relative positional relationship calculation unit 2, the map image data generation unit 4 determines the camera 40 from the current position of the lens 41. Two-dimensional map image data representing a two-dimensional map image obtained by capturing a virtual three-dimensional map image is sequentially generated at predetermined time intervals. Here, the two-dimensional map image is an image having a three-dimensional effect.

気象データ取得部5は、通信部70を介して気象サーバ200から気象データを取得する。ここで、気象データに基づいて気象分布を視覚的に示す仮想的な三次元の気象画像が定義され、三次元の気象画像が基準平面の仮想的な三次元の地図画像に重畳するように基準平面上に仮想的に配置される。気象画像データ生成部6は、気象データ取得部5により取得された気象データおよび相対位置関係算出部2により算出された相対位置関係に基づいて、カメラ40が現時点のレンズ41の位置から仮想的な三次元の気象画像を撮像することにより得られる二次元の気象画像を示す二次元の気象画像データを所定の時間間隔で逐次生成する。ここで、二次元の気象画像は立体感を有する画像である。   The weather data acquisition unit 5 acquires weather data from the weather server 200 via the communication unit 70. Here, a virtual three-dimensional meteorological image visually indicating the meteorological distribution is defined based on meteorological data, and a reference is made so that the three-dimensional meteorological image is superimposed on the virtual three-dimensional map image of the reference plane. Virtually arranged on a plane. The weather image data generation unit 6 virtually detects the camera 40 from the current position of the lens 41 based on the weather data acquired by the weather data acquisition unit 5 and the relative positional relationship calculated by the relative positional relationship calculation unit 2. Two-dimensional weather image data representing a two-dimensional weather image obtained by capturing a three-dimensional weather image is sequentially generated at predetermined time intervals. Here, the two-dimensional weather image is an image having a three-dimensional effect.

画像データ合成部7は、地図画像データ生成部4により生成される二次元の地図画像データ、気象画像データ生成部6により生成される二次元の気象画像データおよびカメラ40により生成される撮像データを合成することにより合成画像データを生成する。また、画像データ合成部7は、合成された合成画像データに基づく合成画像を表示部80に表示させる。表示される合成画像における地図および気象画像の大きさ、位置および方向は、レンズ41の位置および方向により変化する。このように、地図画像データ生成部4、気象画像データ生成部6および画像データ合成部7が画像データ生成部の例である。   The image data synthesis unit 7 generates two-dimensional map image data generated by the map image data generation unit 4, two-dimensional weather image data generated by the weather image data generation unit 6, and imaging data generated by the camera 40. Composite image data is generated by combining. Further, the image data combining unit 7 causes the display unit 80 to display a combined image based on the combined image data that has been combined. The size, position and orientation of the map and the weather image in the composite image to be displayed change depending on the position and orientation of the lens 41. Thus, the map image data generation unit 4, the weather image data generation unit 6, and the image data combining unit 7 are examples of the image data generation unit.

(2)合成画像の表示
図2は、基準平面の設定方法の一例を示す図である。図1の基準設定部1は、カメラ40の起動後、図2に示すように、レンズ41から光軸42の方向に600mm離間した仮想的な点を基準点R1として設定する。また、基準設定部1は、基準点R1を含みかつ水平面に平行な800mm×800mmの仮想的な平面を基準平面R2として設定する。さらに、基準設定部1は、基準平面R2から予め定められた高さに、水平面に平行な800mm×800mmの仮想的な平面を上空平面R3として設定する。基準平面R2および上空平面R3は、それぞれ第1および第2の基準平面の例である。
(2) Display of Composite Image FIG. 2 is a diagram showing an example of a method of setting a reference plane. After activation of the camera 40, as shown in FIG. 2, the reference setting unit 1 of FIG. 1 sets a virtual point separated from the lens 41 in the direction of the optical axis 42 by 600 mm as the reference point R1. Further, the reference setting unit 1 sets an 800 mm × 800 mm virtual plane parallel to the horizontal plane including the reference point R1 as a reference plane R2. Further, the reference setting unit 1 sets a virtual plane of 800 mm × 800 mm parallel to the horizontal plane as the sky plane R3 at a predetermined height from the reference plane R2. The reference plane R2 and the sky plane R3 are examples of the first and second reference planes, respectively.

図3は、合成画像の表示の一例を示す図である。図3に示すように、基準平面R2には、三次元の地図画像が仮想的に配置されている。図1の地図画像データ生成部4は、カメラ40が現時点のレンズ41の位置から基準平面R2に配置された仮想的な三次元の地図画像を撮像することにより得られる二次元の地図画像を示す二次元の地図画像データを生成する。図3の例では、レンズ41は地図画像の南上方に位置する。また、レンズ41と基準平面R2との距離が比較的大きいため、地図画像の全体がカメラ40の視野に含まれる。そのため、南上方から三次元の地図画像の全体を撮像することにより得られる二次元の地図画像を示す二次元の地図データが生成される。   FIG. 3 is a view showing an example of display of a composite image. As shown in FIG. 3, a three-dimensional map image is virtually arranged on the reference plane R2. The map image data generation unit 4 of FIG. 1 shows a two-dimensional map image obtained by capturing a virtual three-dimensional map image in which the camera 40 is disposed on the reference plane R2 from the position of the lens 41 at the current time. Generate two-dimensional map image data. In the example of FIG. 3, the lens 41 is located at the south upper side of the map image. Further, since the distance between the lens 41 and the reference plane R2 is relatively large, the entire map image is included in the field of view of the camera 40. Therefore, two-dimensional map data indicating a two-dimensional map image obtained by imaging the entire three-dimensional map image from the south upper side is generated.

また、図3の例では、三次元の気象画像として、降水量および降水強度の分布を示す画像が基準平面R2に仮想的に配置され、雲の分布を示す画像が上空平面R3に仮想的に配置されている。図1の気象画像データ生成部6は、カメラ40が現時点のレンズ41の位置から基準平面R2および上空平面R3に配置された仮想的な気象画像を撮像することにより得られる二次元の気象画像を示す二次元の気象画像データを生成する。   Further, in the example of FIG. 3, as a three-dimensional meteorological image, an image showing the distribution of precipitation and precipitation intensity is virtually arranged on the reference plane R2, and an image showing the distribution of clouds is virtually on the upper plane R3. It is arranged. The weather image data generation unit 6 of FIG. 1 obtains a two-dimensional weather image obtained by imaging a virtual weather image arranged on the reference plane R2 and the sky plane R3 from the position of the lens 41 at the current time. Generate two-dimensional weather image data as shown.

生成される気象画像データは、降水量を示す降水量画像G1、降水強度の分布を示す降水強度分布画像G2および雲の分布を示す雲分布画像G3を含む。降水量画像G1は、1または複数の円柱により構成される画像であり、円柱の高さおよび色により降水量を示す。降水強度分布画像G2は、所定の降水強度を有する地域を示す領域(ポリゴン)の画像である。雲分布画像G3は、雲の位置を示すポリゴンの画像である。なお、気象データが風向風速である場合には、気象画像は風車の画像または粒子の画像であってもよい。この場合、風車の回転の態様または粒子の飛散の態様により風向風速を表すことができる。   The generated meteorological image data includes a precipitation image G1 indicating the amount of precipitation, a precipitation intensity distribution image G2 indicating the distribution of precipitation intensity, and a cloud distribution image G3 indicating the distribution of clouds. The precipitation image G1 is an image constituted by one or more cylinders, and indicates the amount of precipitation by the height and color of the cylinders. The precipitation intensity distribution image G2 is an image of an area (polygon) indicating an area having a predetermined precipitation intensity. The cloud distribution image G3 is an image of a polygon indicating the position of the cloud. When the weather data is the wind direction and the wind speed, the weather image may be an image of a windmill or an image of particles. In this case, the wind direction can be expressed by the rotation aspect of the wind turbine or the scattering aspect of the particles.

図1の画像データ合成部7は、生成された二次元の地図画像データ、二次元の気象画像データおよび撮像データを合成することにより合成画像データを生成する。また、画像データ合成部7は、生成された合成画像データに基づいて、合成画像を表示部80に表示させる。基準点R1とレンズ41との相対位置関係が変化した場合、その変化に対応するように表示部80に表示される合成画像の大きさ、位置または方向が変化する。   The image data combining unit 7 of FIG. 1 generates combined image data by combining the generated two-dimensional map image data, the two-dimensional weather image data, and the imaging data. Further, the image data combining unit 7 causes the display unit 80 to display a combined image based on the generated combined image data. When the relative positional relationship between the reference point R1 and the lens 41 changes, the size, position, or direction of the composite image displayed on the display unit 80 changes to correspond to the change.

使用者は、表示部80を視認することにより、基準平面R2に仮想的に配置された三次元の地図画像を認識するとともに、基準平面R2の地図画像の各地域に重畳するように基準平面R2および上空平面R3に仮想的に配置された当該地域の気象画像を認識することができる。また、使用者は、基準平面R2よりも外の領域には、カメラ40により撮像された被写体の画像を認識することができる。   The user recognizes the three-dimensional map image virtually arranged on the reference plane R2 by visually recognizing the display unit 80, and the reference plane R2 is superimposed on each area of the map image of the reference plane R2. And the weather image of the said area virtually arrange | positioned in sky top R3 can be recognized. In addition, the user can recognize the image of the subject captured by the camera 40 in an area outside the reference plane R2.

図4および図5は、レンズ41の位置が変化したときの合成画像の変化を示す図である。図4の例では、太い点線の矢印で示すように、レンズ41の位置が図3における位置から基準点R1に近づくように移動される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像を基準点R1により近い位置から認識することとなる。そのため、基準点R1とレンズ41との距離に基づいて合成画像データが更新される。更新された合成画像データに基づいて、拡大された合成画像が表示部80に表示される。   FIG. 4 and FIG. 5 are diagrams showing the change of the composite image when the position of the lens 41 is changed. In the example of FIG. 4, as shown by the thick dotted arrow, the position of the lens 41 is moved from the position in FIG. 3 so as to approach the reference point R1. In this case, the user recognizes the map image virtually arranged on the reference plane R2 from a position closer to the reference point R1. Therefore, the composite image data is updated based on the distance between the reference point R1 and the lens 41. The enlarged composite image is displayed on the display unit 80 based on the updated composite image data.

図4の例では、地図画像における近畿地方および中部地方が拡大表示されるとともに、これらの地域に対応する降水量画像G1および降水強度分布画像G2が拡大表示される。なお、基準点R1とレンズ41との距離が所定値以上小さい場合には、上空平面R3がカメラ40の視野内に含まれなくなるため、図4の例のように、表示部80に雲分布画像G3が表示されない。   In the example of FIG. 4, the Kinki region and the Chubu region in the map image are displayed enlarged, and the precipitation image G1 and the precipitation intensity distribution image G2 corresponding to these regions are displayed enlarged. When the distance between the reference point R1 and the lens 41 is smaller than a predetermined value, the sky plane R3 is not included in the field of view of the camera 40, and as shown in FIG. G3 is not displayed.

図5の例では、太い点線の矢印で示すように、レンズ41の位置が図4における位置から地図画像における東方に移動される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像をより東方から認識することとなる。そのため、レンズ41から基準点R1に向かう方向および基準点R1とレンズ41との距離に基づいて合成画像データが更新される。更新された合成画像データに基づいて、より東方から見た地域(図5の例では中部地方および関東地方)に対応する合成画像が表示部80に表示される。   In the example of FIG. 5, the position of the lens 41 is moved from the position in FIG. 4 to the east in the map image, as indicated by the thick dotted arrow. In this case, the user recognizes the map image virtually arranged on the reference plane R2 from the east. Therefore, the composite image data is updated based on the direction from the lens 41 toward the reference point R1 and the distance between the reference point R1 and the lens 41. Based on the updated composite image data, a composite image corresponding to the area viewed from the east (the Chubu region and the Kanto region in the example of FIG. 5) is displayed on the display unit 80.

図6および図7は、レンズ41の方向が変化したときの合成画像の変化を示す図である。図6の例では、太い点線の矢印で示すように、レンズ41の水平角が図5の方向から地図画像における東方に回転される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像をより東方に認識することとなる。そのため、レンズ41から基準点R1に向かう方向に基づいて合成画像データが更新される。更新された合成画像データに基づいて、より東方に見た地域(図6の例では東北地方および北海道)に対応する合成画像が表示部80に表示される。   6 and 7 are diagrams showing changes in the composite image when the direction of the lens 41 changes. In the example of FIG. 6, as indicated by the thick dotted arrow, the horizontal angle of the lens 41 is rotated from the direction of FIG. 5 to the east in the map image. In this case, the user recognizes the map image virtually arranged on the reference plane R2 more to the east. Therefore, the composite image data is updated based on the direction from the lens 41 toward the reference point R1. Based on the updated composite image data, a composite image corresponding to a region seen to the east (in the example of FIG. 6, the Tohoku region and Hokkaido) is displayed on the display unit 80.

図7の例では、太い点線の矢印で示すように、レンズ41の仰角が図5の方向から下方に回転される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像をより下方に認識することとなる。そのため、レンズ41から基準点R1に向かう方向に基づいて合成画像データが更新される。更新された合成画像データに基づいて、より下方に見た地域(図7の例では北海道)に対応する合成画像が表示部80に表示される。   In the example of FIG. 7, the elevation angle of the lens 41 is rotated downward from the direction of FIG. 5, as indicated by the thick dotted arrow. In this case, the user recognizes the map image virtually arranged on the reference plane R2 lower. Therefore, the composite image data is updated based on the direction from the lens 41 toward the reference point R1. Based on the updated composite image data, a composite image corresponding to the area (Hokkaido in the example of FIG. 7) viewed further downward is displayed on the display unit 80.

(3)気象分布表示処理
図8は、気象分布表示プログラムにより行われる気象分布表示処理のアルゴリズムを示すフローチャートである。まず、基準設定部1は、レンズ41の焦点がカメラ40の視野内のいずれかの被写体に合ったか否かを判定する(ステップS1)。レンズ41の焦点がいずれの被写体にも合っていない場合、基準設定部1は、レンズ41の焦点がいずれかの被写体に合うまで待機する。レンズ41の焦点がカメラ40の視野内のいずれかの被写体に合った場合、基準設定部1は、位置方向算出部50により算出されるレンズ41の位置および方向に基づいて基準点、基準平面および上空平面を設定する(ステップS2)。
(3) Weather Distribution Display Process FIG. 8 is a flowchart showing an algorithm of the weather distribution display process performed by the weather distribution display program. First, the reference setting unit 1 determines whether the focal point of the lens 41 matches any subject within the field of view of the camera 40 (step S1). If the focus of the lens 41 does not match any subject, the reference setting unit 1 stands by until the focus of the lens 41 matches any subject. When the focal point of the lens 41 matches any subject within the field of view of the camera 40, the reference setting unit 1 determines the reference point, the reference plane, and the reference plane based on the position and direction of the lens 41 calculated by the position / direction calculation unit 50. An upper sky plane is set (step S2).

次に、地図データ取得部3は、記憶部60から三次元の地図データを取得する(ステップS3)。気象データ取得部5は、通信部70を介して気象サーバ200から気象データを取得する(ステップS4)。ステップS4は、気象サーバ200から配信される気象データを更新するための割り込み処理であり、所定の時間間隔ごとに実行される。所定の時間間隔は、例えば5分間隔であってもよいし、1時間間隔であってもよい。続いて、相対位置関係算出部2は、位置方向算出部50により算出されるレンズ41の位置および方向に基づいて、ステップS2で設定された基準点とレンズ41との相対位置関係を算出する(ステップS5)。   Next, the map data acquisition unit 3 acquires three-dimensional map data from the storage unit 60 (step S3). The weather data acquisition unit 5 acquires weather data from the weather server 200 via the communication unit 70 (step S4). Step S4 is an interrupt process for updating the weather data distributed from the weather server 200, and is executed at predetermined time intervals. The predetermined time interval may be, for example, 5 minutes or 1 hour. Subsequently, the relative positional relationship calculation unit 2 calculates the relative positional relationship between the reference point set in step S2 and the lens 41 based on the position and direction of the lens 41 calculated by the position / direction calculation unit 50 ( Step S5).

その後、地図画像データ生成部4は、ステップS3で取得された三次元の地図データおよびステップS5で算出された相対位置関係に基づいて、二次元の地図画像データを生成する(ステップS6)。また、気象画像データ生成部6は、ステップS4で取得された気象データおよびステップS5で算出された相対位置関係に基づいて、二次元の気象画像データを生成する(ステップS7)。ステップS6,S7は、いずれが先に実行されてもよいし、同時に実行されてもよい。   Thereafter, the map image data generation unit 4 generates two-dimensional map image data based on the three-dimensional map data acquired in step S3 and the relative positional relationship calculated in step S5 (step S6). Further, the weather image data generation unit 6 generates two-dimensional weather image data based on the weather data acquired in step S4 and the relative positional relationship calculated in step S5 (step S7). Either step S6 or S7 may be performed first or may be performed simultaneously.

画像データ合成部7は、カメラ40から撮像データを取得する(ステップS8)。ステップS8は、ステップS4〜S7のいずれかの時点で実行されてもよい。また、画像データ合成部7は、ステップS6で生成された地図画像データ、ステップS7で生成された気象画像データおよびステップS8で取得された撮像データを合成することにより合成画像データを生成する(ステップS9)。その後、画像データ合成部7は、ステップS9で生成された合成画像データに基づく合成画像を表示部80に表示させ(ステップS10)、ステップS4に戻る。   The image data combining unit 7 acquires imaging data from the camera 40 (step S8). Step S8 may be performed at any time of steps S4 to S7. In addition, the image data combining unit 7 generates combined image data by combining the map image data generated in step S6, the weather image data generated in step S7, and the imaging data acquired in step S8 (step S9). Thereafter, the image data combining unit 7 causes the display unit 80 to display a combined image based on the combined image data generated in step S9 (step S10), and returns to step S4.

使用者により気象分布表示処理の終了が指示されるまでステップS4〜S10が繰り返される。これにより、基準点とレンズ41との相対位置関係が変化するごとに表示される合成画像の大きさ、位置または方向が更新される。また、気象サーバ200から配信される気象データが更新されることにより、合成画像における気象画像が更新される。なお、ステップS4の実行タイミングが気象データの取得タイミングでない場合には、ステップS4,S7はスキップされる。   Steps S4 to S10 are repeated until the user instructs to end the weather distribution display process. Thus, the size, position or direction of the composite image displayed is updated each time the relative positional relationship between the reference point and the lens 41 changes. Further, by updating the weather data distributed from the weather server 200, the weather image in the composite image is updated. If the execution timing of step S4 is not the acquisition timing of the weather data, steps S4 and S7 are skipped.

(4)効果
本実施の形態に係る気象分布表示装置10においては、立体感を有する地図画像に重畳するように気象画像を携帯装置100の表示部80に表示することができる。また、基準平面とレンズ41との相対位置関係が変化することにより、その変化に応じて地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化する。そのため、使用者は、携帯装置100を操作して基準平面に対するレンズ41の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部80に表示させることができる。ここで、使用者は、レンズ41の位置を視点の位置として直感的に認識し、基準平面に対する視点の位置を容易に把握することができる。したがって、使用者に地図画像と視点との相対的な位置関係を容易に把握させることができる。
(4) Effects In the weather distribution display device 10 according to the present embodiment, the weather image can be displayed on the display unit 80 of the portable device 100 so as to be superimposed on the map image having a three-dimensional effect. In addition, when the relative positional relationship between the reference plane and the lens 41 changes, at least one of the position, the size, and the direction of the map image and the weather image changes according to the change. Therefore, the user operates the portable device 100 to change the relative positional relationship of the lens 41 with respect to the reference plane, thereby displaying on the display 80 the desired portions of the map image and the weather image in the composite image. It can be done. Here, the user can intuitively recognize the position of the lens 41 as the position of the viewpoint and can easily grasp the position of the viewpoint with respect to the reference plane. Therefore, the user can easily grasp the relative positional relationship between the map image and the viewpoint.

気象分布の種類に応じて気象画像を合成画像における適切な高さに配置することができる。例えば、降水量画像G1および降水強度分布画像G2は地図画像と同一の高さに配置され、雲分布画像G3は地図画像の上方の空間に配置される。これにより、使用者は、地図画像の各地域と当該地域に対応する降水量および降水強度の分布との関係を容易に認識するとともに、地図画像の上方の雲の分布を俯瞰的に認識することができる。   The weather image can be placed at an appropriate height in the composite image according to the type of weather distribution. For example, the precipitation image G1 and the precipitation intensity distribution image G2 are disposed at the same height as the map image, and the cloud distribution image G3 is disposed in the space above the map image. Thus, the user can easily recognize the relationship between each area of the map image and the distribution of precipitation and rainfall intensity corresponding to the area, and also comprehensively recognize the distribution of clouds above the map image. Can.

第1の基準平面および第2の基準平面(上空平面)に表示する気象画像の種類および組み合わせは特に限定されないが、第1の基準平面には、降水強度分布、地上気温分布、地上気圧分布または地上風分布の気象データに対応する気象画像が表示されることが好ましい。一方、第2の基準平面には、雲分布、高層気温分布、高層気圧分布または高層風分布の気象データに対応する気象画像が表示されることが好ましい。これらの表示によれば、使用者は、実際の気象分布をより容易に視認することができる。   There are no particular limitations on the type and combination of weather images displayed on the first reference plane and the second reference plane (upper sky plane), but on the first reference plane, precipitation intensity distribution, surface temperature distribution, surface pressure distribution or surface pressure distribution Preferably, a weather image corresponding to the weather data of the ground wind distribution is displayed. On the other hand, it is preferable that a weather image corresponding to the weather data of cloud distribution, upper air temperature distribution, upper air pressure distribution, or upper air distribution is displayed on the second reference plane. According to these displays, the user can more easily view the actual weather distribution.

(5)他の実施の形態
(a)上記実施の形態において、気象分布表示装置10がスマートデバイスに設けられるが、本発明はこれに限定されない。気象分布表示装置10は、パーソナルコンピュータまたはゲーム機器等の移動可能な電子機器に設けられてもよい。また、気象分布表示装置10は、携帯装置100と一体的に設けられずに、別体として設けられてもよい。
(5) Other Embodiments (a) In the above embodiments, the weather distribution display device 10 is provided in a smart device, but the present invention is not limited to this. The weather distribution display device 10 may be provided in a movable electronic device such as a personal computer or a game device. Also, the weather distribution display device 10 may not be provided integrally with the portable device 100, but may be provided separately.

(b)上記実施の形態において、基準点、基準平面および上空平面はカメラ40の起動時におけるレンズ41の位置および方向に基づいて設定されるが、本発明はこれに限定されない。基準点、基準平面および上空平面は、所望の時点で設定されてもよい。例えば、使用者が携帯装置100の特定のスイッチを操作することにより基準点、基準平面および上空平面が設定されてもよい。また、基準点、基準平面および上空平面は、レンズ41の位置および方向とは無関係に固定的に現実空間に設定されてもよい。   (B) In the above embodiment, the reference point, the reference plane and the sky plane are set based on the position and the direction of the lens 41 when the camera 40 is activated, but the present invention is not limited to this. The reference points, reference planes and sky planes may be set at desired times. For example, the reference point, the reference plane and the sky plane may be set by the user operating a specific switch of the portable device 100. Also, the reference point, the reference plane and the sky plane may be fixedly set in the real space regardless of the position and the direction of the lens 41.

(c)上記実施の形態において、基準平面と携帯装置との相対位置関係を算出するために、レンズ41の位置および方向が携帯装置100の位置および方向として扱われるが、本発明はこれに限定されない。携帯装置100の所望の部分の位置および方向が携帯装置100の位置および方向として扱われてもよい。   (C) In the above embodiment, the position and the direction of the lens 41 are treated as the position and the direction of the portable device 100 in order to calculate the relative positional relationship between the reference plane and the portable device, but the present invention is limited thereto I will not. The position and orientation of the desired portion of the portable device 100 may be treated as the position and orientation of the portable device 100.

(d)上記実施の形態において、加速度センサ20により検出される重力加速度の方向、電子コンパス30により検出される地磁気の方向およびカメラ40により生成される撮像データに基づいて携帯装置100の位置および方向が算出されるが、本発明はこれに限定されない。携帯装置100がGPS(Global Positioning System)等の衛星を用いた測位システムを有する場合には、測位システムにより取得された測位情報に基づいて携帯装置100の位置または方向が算出されてもよい。この場合、携帯装置100に加速度センサ20、電子コンパス30またはカメラ40が設けられなくてもよい。   (D) In the above embodiment, the position and the direction of the portable device 100 based on the direction of gravitational acceleration detected by the acceleration sensor 20, the direction of geomagnetism detected by the electronic compass 30, and imaging data generated by the camera 40. Is calculated, but the present invention is not limited thereto. When the mobile device 100 has a positioning system using satellites such as GPS (Global Positioning System), the position or direction of the mobile device 100 may be calculated based on the positioning information acquired by the positioning system. In this case, the acceleration sensor 20, the electronic compass 30, or the camera 40 may not be provided in the portable device 100.

(e)上記実施の形態において、地図データ取得部3は三次元の地図データを取得するが、本発明はこれに限定されない。地図データ取得部3は二次元の地図データを取得してもよい。この場合、基準平面には、二次元の地図画像が仮想的に配置されることとなる。また、基準平面には、三次元ではなく二次元の気象画像が仮想的に配置されてもよい。   (E) In the above embodiment, the map data acquisition unit 3 acquires three-dimensional map data, but the present invention is not limited to this. The map data acquisition unit 3 may acquire two-dimensional map data. In this case, a two-dimensional map image is virtually arranged on the reference plane. In addition, two-dimensional weather images may be virtually arranged on the reference plane instead of three-dimensional.

(f)上記実施の形態においては、相対位置関係の変化に応じて地図画像の位置、大きさおよび向きの少なくとも1つが変化するように、地図データに基づいて地図画像データが生成される。また、相対位置関係の変化に応じて気象画像の位置、大きさおよび向きの少なくとも1つが変化するように、気象データに基づいて気象画像データが生成される。これらの地図画像データおよび気象画像データが合成されることにより合成画像データが生成される。しかしながら、本発明は、上記の例に限定されない。   (F) In the above embodiment, the map image data is generated based on the map data so that at least one of the position, the size, and the direction of the map image changes according to the change of the relative positional relationship. Further, the weather image data is generated based on the weather data so that at least one of the position, the size, and the direction of the weather image changes according to the change of the relative positional relationship. Composite image data is generated by combining the map image data and the weather image data. However, the present invention is not limited to the above example.

例えば、相対位置関係に依存せずに、地図データに基づいて地図画像データが生成され、気象データに基づいて気象画像データが生成され、地図画像データおよび気象画像データが合成されることにより合成画像データが生成されてもよい。この場合、相対位置関係の変化に応じて、合成画像における地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように合成画像データが変化される。また、相対位置関係の変化に応じて、地図画像および気象画像の両方が視覚的に見て特定の基準位置付近に表示されるように合成画像データを生成する限りにおいて、種々の実施の形態の変形を行うことが可能である。   For example, map image data is generated based on map data without depending on relative positional relationship, weather image data is generated based on weather data, and a composite image is generated by combining the map image data and the weather image data. Data may be generated. In this case, the composite image data is changed such that at least one of the position, size, and orientation of the map image and the weather image in the composite image changes in accordance with the change in the relative positional relationship. Further, according to various embodiments, as long as composite image data is generated so that both the map image and the weather image are visually displayed and displayed near a specific reference position according to a change in relative positional relationship, It is possible to make a transformation.

1…基準設定部,2…相対位置関係算出部,3…地図データ取得部,4…地図画像データ生成部,5…気象データ取得部,6…気象画像データ生成部,7…画像データ合成部,10…気象分布表示装置,20…加速度センサ,30…電子コンパス,40…カメラ,41…レンズ,42…光軸,50…位置方向算出部,60…記憶部,70…通信部,80…表示部,100…携帯装置,200…気象サーバ,G1…降水量画像,G2…降水強度分布画像,G3…雲分布画像,R1…基準点,R2…基準平面,R3…上空平面   DESCRIPTION OF SYMBOLS 1 ... standard setting part, 2 ... relative position relation calculation part, 3 ... map data acquisition part, 4 ... map image data generation part, 5 ... weather data acquisition part, 6 ... weather image data generation part, 7 ... image data synthesis part , 10 ... Weather distribution display device, 20 ... Acceleration sensor, 30 ... Electronic compass, 40 ... Camera, 41 ... Lens, 42 ... Optical axis, 50 ... Position / direction calculation unit, 60 ... Storage unit, 70 ... Communication unit, 80 ... Display unit, 100: Portable device, 200: Weather server, G1: Precipitation image, G2: Precipitation intensity distribution image, G3: Cloud distribution image, R1: Reference point, R2: Reference plane, R3: Sky plane

Claims (12)

携帯装置の表示部に気象分布を表示させる気象分布表示装置であって、
現実空間に固定的な基準位置を仮想的に設定する基準設定部と、
地図を示す地図データを取得する地図データ取得部と、
気象分布を示す気象データを取得する気象データ取得部と、
前記基準位置と前記携帯装置との相対位置関係を算出する相対位置関係算出部と、
前記地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成するとともに、前記気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成する画像データ生成部とを備え、
前記画像データ生成部は、前記地図画像データおよび前記気象画像データを合成することにより合成画像データを生成し、生成された前記合成画像データに基づく合成画像を前記表示部に表示させるとともに、前記相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように前記地図画像データおよび前記気象画像データを変化させる、気象分布表示装置。
A weather distribution display device for displaying weather distribution on a display unit of a portable device,
A reference setting unit for virtually setting a fixed reference position in the real space;
A map data acquisition unit that acquires map data indicating a map;
A meteorological data acquisition unit that acquires meteorological data indicating a meteorological distribution;
A relative positional relationship calculation unit that calculates a relative positional relationship between the reference position and the portable device;
A two-dimensional map image data showing a map image having a three-dimensional effect is generated based on the map data, and a meteorological image superimposed on the map image based on the meteorological data and having a three-dimensional effect corresponding to the weather distribution is shown. An image data generation unit for generating two-dimensional weather image data;
The image data generation unit generates composite image data by combining the map image data and the weather image data, and causes the display unit to display a composite image based on the generated composite image data, and the relative A weather distribution display device, wherein the map image data and the weather image data are changed such that at least one of a position, a size and an orientation of the map image and the weather image changes according to a change in positional relationship.
前記画像データ生成部は、前記基準位置に仮想的に配置された地図画像が前記携帯装置の位置から視認された際に認識可能な地図画像を示す前記地図画像データを、前記相対位置関係および前記地図データに基づいて生成するとともに、前記基準位置の仮想的な地図画像に重畳するように前記基準位置に仮想的に配置された気象画像が前記携帯装置の位置から視認された際に認識可能な気象画像を示す前記気象画像データを、前記相対位置関係および前記気象データに基づいて生成する、請求項1記載の気象分布表示装置。 The image data generation unit may be configured to generate the map image data representing a map image that can be recognized when the map image virtually arranged at the reference position is visually recognized from the position of the portable device, the relative positional relationship and the map data. While generating based on map data, it can be recognized when a weather image virtually arranged at the reference position so as to be superimposed on the virtual map image of the reference position is visually recognized from the position of the portable device The weather distribution display device according to claim 1, wherein the weather image data indicating a weather image is generated based on the relative positional relationship and the weather data. 前記基準設定部は、前記基準位置として現実空間に固定的な第1の基準平面を仮想的に設定し、
地図画像は前記第1の基準平面に仮想的に配置され、
前記相対位置関係算出部は、前記第1の基準平面上の予め定められた基準点と前記携帯装置の位置との前記相対位置関係を算出する、請求項2記載の気象分布表示装置。
The reference setting unit virtually sets a fixed first reference plane in the real space as the reference position,
The map image is virtually arranged on the first reference plane,
The weather distribution display device according to claim 2, wherein the relative positional relationship calculation unit calculates the relative positional relationship between a predetermined reference point on the first reference plane and the position of the portable device.
前記気象データ取得部により取得される前記気象データは、互いに異なる種類の第1および第2の気象分布を示し、
前記基準設定部は、現実空間に固定されかつ前記第1の基準平面と所定の位置関係を有する仮想的な第2の基準平面をさらに設定し、
前記画像データ生成部は、仮想的な地図画像に重畳するように前記第1の基準平面上に仮想的に配置された第1の気象分布に対応する第1の気象画像および前記第2の基準平面上に仮想的に配置された第2の気象分布に対応する第2の気象画像が前記携帯装置の位置から視認される際に認識可能な気象画像を示す前記気象画像データを、前記相対位置関係および前記気象データに基づいて生成する、請求項3記載の気象分布表示装置。
The meteorological data acquired by the meteorological data acquisition unit indicates first and second meteorological distributions of different types.
The reference setting unit further sets a virtual second reference plane fixed to the real space and having a predetermined positional relationship with the first reference plane,
The image data generation unit is configured to generate a first weather image and a second reference corresponding to a first weather distribution virtually arranged on the first reference plane so as to be superimposed on a virtual map image. The relative position of the meteorological image data indicating a meteorological image that can be recognized when a second meteorological image corresponding to a second meteorological distribution virtually arranged on a plane is viewed from the position of the portable device The weather distribution display device according to claim 3, wherein the weather distribution display device is generated based on a relationship and the weather data.
前記気象データ取得部は、所定の時間間隔で前記気象データ取得を取得し、
前記画像データ生成部は、前記気象データ取得部により前記気象データが取得されるごとに生成される前記気象画像データを更新する、請求項1〜4のいずれか一項に記載の気象分布表示装置。
The meteorological data acquisition unit acquires the meteorological data acquisition at predetermined time intervals,
The weather distribution display device according to any one of claims 1 to 4, wherein the image data generation unit updates the weather image data generated each time the weather data acquisition unit acquires the weather data. .
前記携帯装置は、カメラと、前記カメラの撮像方向を検出する検出器とを含み、
前記相対位置関係算出部は、前記カメラにより得られる撮像データおよび前記検出器により検出される撮像方向に基づいて、前記カメラから前記基準位置に向かう方向および前記基準位置と前記カメラとの間の距離を前記相対位置関係として算出する、請求項1〜5記載の気象分布表示装置。
The portable device includes a camera and a detector for detecting an imaging direction of the camera,
The relative positional relationship calculation unit calculates a direction from the camera toward the reference position and a distance between the reference position and the camera based on imaging data obtained by the camera and an imaging direction detected by the detector. The weather distribution display device according to claim 1, wherein the relative positional relationship is calculated.
前記相対位置関係算出部は、前記カメラの位置を前記携帯装置の位置として前記相対位置関係を算出する、請求項6記載の気象分布表示装置。 The weather distribution display device according to claim 6, wherein the relative positional relationship calculation unit calculates the relative positional relationship by using the position of the camera as the position of the portable device. 前記検出器は、重力方向を検出する加速度センサと、地磁気の方向を検出する電子コンパスとを含み、
前記相対位置関係算出部は、前記加速度センサおよび前記電子コンパスの検出結果に基づいて前記カメラから前記基準位置に向かう方向を算出する、請求項5または7記載の気象分布表示装置。
The detector includes an acceleration sensor that detects a gravity direction, and an electronic compass that detects a geomagnetic direction.
The weather distribution display device according to claim 5, wherein the relative positional relationship calculation unit calculates a direction from the camera toward the reference position based on detection results of the acceleration sensor and the electronic compass.
前記基準設定部は、所定の時点において前記携帯装置に対して所定の位置関係を有する仮想的な位置を前記基準位置として設定する、請求項1〜8のいずれか一項に記載の気象分布表示装置。 The weather distribution display according to any one of claims 1 to 8, wherein the reference setting unit sets, as the reference position, a virtual position having a predetermined positional relationship with respect to the portable device at a predetermined time. apparatus. 前記気象データは、気象に関する場所的分布を含む、請求項1〜9のいずれか一項に記載の気象分布表示装置。 The weather distribution display device according to any one of claims 1 to 9, wherein the weather data includes a spatial distribution related to the weather. 携帯装置の表示部に気象分布を表示させる気象分布表示方法であって、
現実空間に固定的な基準位置を仮想的に設定するステップと、
地図を示す地図データを取得するステップと、
気象分布を示す気象データを取得するステップと、
前記基準位置と前記携帯装置との相対位置関係を算出するステップと、
前記地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成するステップと、
前記気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成するステップと、
前記地図画像データおよび前記気象画像データを合成することにより合成画像データを生成するステップと、
生成された前記合成画像データに基づく合成画像を前記表示部に表示させるステップとを含み、
前記合成画像を前記表示部に表示させるステップは、前記相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように前記地図画像データおよび前記気象画像データを変化させることを含む、気象分布表示方法。
A weather distribution display method for displaying weather distribution on a display unit of a portable device, comprising:
Virtually setting a fixed reference position in the real space;
Obtaining map data indicating a map;
Acquiring meteorological data indicative of meteorological distribution;
Calculating a relative positional relationship between the reference position and the portable device;
Generating two-dimensional map image data indicating a map image having a three-dimensional effect based on the map data;
Generating two-dimensional weather image data indicating a weather image superimposed on the map image and having a three-dimensional effect corresponding to the weather distribution based on the weather data;
Generating composite image data by combining the map image data and the weather image data;
Displaying a composite image based on the generated composite image data on the display unit;
In the step of displaying the composite image on the display unit, the map image data and the weather such that at least one of the position, the size, and the direction of the map image and the weather image changes according to a change in the relative positional relationship. A weather distribution display method comprising changing image data.
携帯装置の表示部への気象分布の表示を処理装置により実行可能な気象分布表示プログラムであって、
現実空間に固定的な基準位置を仮想的に設定する処理と、
地図を示す地図データを取得する処理と、
気象分布を示す気象データを取得する処理と、
前記基準位置と前記携帯装置との相対位置関係を算出する処理と、
前記地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成する処理と、
前記気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成する処理と、
前記地図画像データおよび前記気象画像データを合成することにより合成画像データを生成する処理と、
生成された前記合成画像データに基づく合成画像を前記表示部に表示させる処理とを、
前記処理装置に実行させ、
前記合成画像を前記表示部に表示させる処理は、前記相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように前記地図画像データおよび前記気象画像データを変化させることを含む、気象分布表示プログラム。
It is a weather distribution display program which can execute display of weather distribution on a display unit of a portable device by a processing device
A process of virtually setting a fixed reference position in the real space;
A process of acquiring map data indicating a map;
A process of acquiring meteorological data indicating a meteorological distribution;
A process of calculating a relative positional relationship between the reference position and the portable device;
A process of generating two-dimensional map image data indicating a map image having a three-dimensional effect based on the map data;
A process of generating two-dimensional weather image data indicating a weather image superimposed on the map image and having a three-dimensional effect corresponding to the weather distribution based on the weather data;
A process of generating composite image data by combining the map image data and the weather image data;
Displaying a composite image based on the generated composite image data on the display unit;
Run on the processing device,
In the process of displaying the composite image on the display unit, the map image data and the weather such that at least one of the position, the size, and the direction of the map image and the weather image changes according to a change in the relative positional relationship. A weather distribution display program, including changing image data.
JP2017169248A 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM Active JP7140478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017169248A JP7140478B2 (en) 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169248A JP7140478B2 (en) 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Publications (2)

Publication Number Publication Date
JP2019045325A true JP2019045325A (en) 2019-03-22
JP7140478B2 JP7140478B2 (en) 2022-09-21

Family

ID=65816226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169248A Active JP7140478B2 (en) 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Country Status (1)

Country Link
JP (1) JP7140478B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172971A1 (en) * 2021-02-09 2022-08-18 株式会社スカイマティクス Thematic drawing creation device, and thematic drawing creation method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186691A (en) * 2012-03-08 2013-09-19 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014142847A (en) * 2013-01-25 2014-08-07 Masanori Ihara Service method for providing information in augmented reality
JP2014240754A (en) * 2013-06-11 2014-12-25 株式会社島津ビジネスシステムズ Meteorological information provision device and meteorological information provision program
JP2016009374A (en) * 2014-06-25 2016-01-18 株式会社東芝 Information processing device, method, and program
JP2016081110A (en) * 2014-10-10 2016-05-16 ビーコア株式会社 Image display device, image display method, and program
US20170023702A1 (en) * 2015-07-23 2017-01-26 Hartford Fire Insurance Company System for sensor enabled reporting and notification in a distributed network
JP2017142856A (en) * 2017-05-02 2017-08-17 アキュウェザー, インク.Accuweather, Inc. Customizable weather analysis system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186691A (en) * 2012-03-08 2013-09-19 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014142847A (en) * 2013-01-25 2014-08-07 Masanori Ihara Service method for providing information in augmented reality
JP2014240754A (en) * 2013-06-11 2014-12-25 株式会社島津ビジネスシステムズ Meteorological information provision device and meteorological information provision program
JP2016009374A (en) * 2014-06-25 2016-01-18 株式会社東芝 Information processing device, method, and program
JP2016081110A (en) * 2014-10-10 2016-05-16 ビーコア株式会社 Image display device, image display method, and program
US20170023702A1 (en) * 2015-07-23 2017-01-26 Hartford Fire Insurance Company System for sensor enabled reporting and notification in a distributed network
JP2017142856A (en) * 2017-05-02 2017-08-17 アキュウェザー, インク.Accuweather, Inc. Customizable weather analysis system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
菊池時夫 他: "GMS−5気象衛星画像データベースと統合視覚化システムの構築", 情報処理学会論文誌, vol. 42, no. 8, JPN6021011006, 2001, JP, pages 148 - 155, ISSN: 0004473548 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172971A1 (en) * 2021-02-09 2022-08-18 株式会社スカイマティクス Thematic drawing creation device, and thematic drawing creation method

Also Published As

Publication number Publication date
JP7140478B2 (en) 2022-09-21

Similar Documents

Publication Publication Date Title
US10366511B2 (en) Method and system for image georegistration
JP5980295B2 (en) Camera posture determination method and real environment object recognition method
CN108474666B (en) System and method for locating a user in a map display
US8633970B1 (en) Augmented reality with earth data
US20110261187A1 (en) Extracting and Mapping Three Dimensional Features from Geo-Referenced Images
US20180262789A1 (en) System for georeferenced, geo-oriented realtime video streams
JP6155510B2 (en) Weather information providing apparatus and weather information providing program
CN108154558B (en) Augmented reality method, device and system
TW200825984A (en) Modeling and texturing digital surface models in a mapping application
EP2879096A1 (en) Information processing device and program
US20130127852A1 (en) Methods for providing 3d building information
KR20140090022A (en) Method and Apparatus for displaying the video on 3D map
JP2019027799A (en) Positioning accuracy information calculation device and positioning accuracy information calculation method
JP2014240754A5 (en)
CN105917329B (en) Information display device and information display program
CN114495416A (en) Fire monitoring method and device based on unmanned aerial vehicle and terminal equipment
JP6665402B2 (en) Content display terminal, content providing system, content providing method, and content display program
JP2014215731A (en) Distribution data display device, method, and program
KR101729942B1 (en) Method for providing meteorological model in urban area, and apparatus and computer-readable recording media using the same
US20090019382A1 (en) Systems and methods for side angle radar training and simulation
JP7140478B2 (en) WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM
KR20130100851A (en) Method for processing satellite image and system for processing the same
JP5862865B2 (en) Composite image display device and composite image display program
JP2012242322A (en) Aerial object position measuring device, aerial object position measuring system and aerial object position measuring method
KR101579970B1 (en) Method and apparatus for calculating location of points captured in image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211012

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20211109

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211209

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211214

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220107

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220118

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220201

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220802

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220906

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150