JP7140478B2 - WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM - Google Patents

WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM Download PDF

Info

Publication number
JP7140478B2
JP7140478B2 JP2017169248A JP2017169248A JP7140478B2 JP 7140478 B2 JP7140478 B2 JP 7140478B2 JP 2017169248 A JP2017169248 A JP 2017169248A JP 2017169248 A JP2017169248 A JP 2017169248A JP 7140478 B2 JP7140478 B2 JP 7140478B2
Authority
JP
Japan
Prior art keywords
weather
image
map
image data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017169248A
Other languages
Japanese (ja)
Other versions
JP2019045325A (en
Inventor
哲史 奥山
淳吾 有本
宏樹 谷澤
Original Assignee
株式会社島津ビジネスシステムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津ビジネスシステムズ filed Critical 株式会社島津ビジネスシステムズ
Priority to JP2017169248A priority Critical patent/JP7140478B2/en
Publication of JP2019045325A publication Critical patent/JP2019045325A/en
Application granted granted Critical
Publication of JP7140478B2 publication Critical patent/JP7140478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、気象分布を表示する気象分布表示装置、気象分布表示方法および気象分布表示プログラムに関する。 The present invention relates to a weather distribution display device, a weather distribution display method, and a weather distribution display program for displaying weather distribution.

現在、テレビ放送またはインターネット等の情報配信メディアにより気象情報の配信が行われている。このような配信においては、主として平面の地図に気象分布が重畳して表示される。例えば非特許文献1においては、降水量の分布が日本列島およびその周辺領域を示す二次元の地図に重畳して表示される。また、例えば非特許文献2においては、静止気象衛星により観測された雲の分布が日本列島およびその周辺領域を示す二次元の地図に重畳して表示される。さらに、非特許文献3には、地図情報等の種々のデータを三次元的に可視化する可視化ソフトウエアが紹介されている。 Currently, weather information is distributed by information distribution media such as television broadcasting or the Internet. In such distribution, the weather distribution is mainly displayed superimposed on a flat map. For example, in Non-Patent Document 1, the distribution of precipitation is displayed superimposed on a two-dimensional map showing the Japanese archipelago and its surrounding areas. Further, for example, in Non-Patent Document 2, the distribution of clouds observed by a geostationary meteorological satellite is superimposed and displayed on a two-dimensional map showing the Japanese archipelago and its surrounding areas. Furthermore, Non-Patent Document 3 introduces visualization software for three-dimensionally visualizing various data such as map information.

気象庁、“レーダー・ナウキャスト(降水・雷・竜巻):全国”、[online]、[平成29年8月15日検索]、インターネット〈URL:http://www.jma.go.jp/jp/radnowc/〉Japan Meteorological Agency, "Radar Nowcast (Precipitation, Thunder, Tornado): Nationwide", [online], [searched on August 15, 2017], Internet <URL: http://www.jma.go.jp/jp /radnowc/> 気象庁、“気象衛星”、[online]、[平成29年8月15日検索]、インターネット〈URL:http://www.jma.go.jp/jp/gms/〉Japan Meteorological Agency, "Meteorological Satellite", [online], [searched on August 15, 2017], Internet <URL: http://www.jma.go.jp/jp/gms/> サイバネットシステム株式会社、“汎用可視化ソフトウエアAVS”、[online]、[平成29年8月15日検索]、インターネット〈URL:http://www.cybernet.co.jp/avs/products/〉Cybernet System Co., Ltd., "General-purpose visualization software AVS", [online], [searched on August 15, 2017], Internet <URL: http://www.cybernet.co.jp/avs/products/>

非特許文献3において紹介された可視化ソフトウエアによれば、三次元的に可視化された対象物の画像を表示装置の画面上に表示させることができる。また、このような可視化ソフトウエアでは、マウスにより対象物を見る視点の位置を変更することにより視点の位置に応じた画像を表示させることが可能である。しかしながら、使用者は、画面上に表示された画像から対象物と視点との相対的な位置関係を把握することは困難である。 According to the visualization software introduced in Non-Patent Document 3, a three-dimensionally visualized image of an object can be displayed on the screen of a display device. In addition, with such visualization software, it is possible to display an image according to the position of the viewpoint by changing the position of the viewpoint from which the object is viewed using a mouse. However, it is difficult for the user to grasp the relative positional relationship between the object and the viewpoint from the image displayed on the screen.

本発明の目的は、地図上の気象分布の画像を三次元的に表示可能であるとともに使用者に地図と視点との相対的な位置関係を容易に把握させることが可能な気象分布表示装置、気象分布表示方法および気象分布表示プログラムを提供することである。 An object of the present invention is to provide a weather distribution display device capable of displaying an image of weather distribution on a map three-dimensionally and allowing the user to easily grasp the relative positional relationship between the map and the viewpoint. It is to provide a weather distribution display method and a weather distribution display program.

(1)第1の発明に係る気象分布表示装置は、携帯装置の表示部に気象分布を表示させる気象分布表示装置であって、現実空間に固定的な基準位置を仮想的に設定する基準設定部と、地図を示す地図データを取得する地図データ取得部と、気象分布を示す気象データを取得する気象データ取得部と、基準位置と携帯装置との相対位置関係を算出する相対位置関係算出部と、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成するとともに、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成する画像データ生成部とを備え、画像データ生成部は、地図画像データおよび気象画像データを合成することにより合成画像データを生成し、生成された合成画像データに基づく合成画像を表示部に表示させるとともに、相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように地図画像データおよび気象画像データを変化させる。 (1) A weather distribution display device according to a first aspect of the invention is a weather distribution display device for displaying weather distribution on a display unit of a portable device, and is a reference setting that virtually sets a fixed reference position in real space. a map data acquisition unit that acquires map data showing a map; a weather data acquisition unit that acquires weather data showing weather distribution; and a relative positional relationship calculation unit that calculates the relative positional relationship between the reference position and the mobile device Then, based on the map data, two-dimensional map image data showing a map image with a three-dimensional effect is generated, and based on the weather data, a weather image with a three-dimensional effect corresponding to the weather distribution is superimposed on the map image. an image data generation unit for generating two-dimensional weather image data, the image data generation unit generating composite image data by combining the map image data and the weather image data, and based on the generated composite image data The synthesized image is displayed on the display unit, and the map image data and the weather image data are changed so that at least one of the position, size and direction of the map image and the weather image is changed according to the change in the relative positional relationship.

この気象分布表示装置においては、現実空間に固定的な基準位置が仮想的に設定され、基準位置と携帯装置との相対位置関係が算出される。地図を示す地図データが取得され、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データが生成される。また、気象分布を示す気象データが取得され、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データが生成される。地図画像データおよび気象画像データを合成することにより合成画像データが生成され、生成された合成画像データに基づく合成画像が表示部に表示される。 In this weather distribution display device, a fixed reference position is virtually set in the real space, and the relative positional relationship between the reference position and the portable device is calculated. Map data representing a map is acquired, and two-dimensional map image data representing a map image having a stereoscopic effect is generated based on the map data. Also, weather data indicating the weather distribution is acquired, and two-dimensional weather image data is generated based on the weather data to indicate a weather image superimposed on the map image and having a three-dimensional effect corresponding to the weather distribution. Composite image data is generated by combining the map image data and the weather image data, and a composite image based on the generated composite image data is displayed on the display unit.

この構成によれば、立体感を有する地図画像に重畳するように気象画像を携帯装置の表示部に表示することができる。また、基準位置と携帯装置との相対位置関係が変化することにより、その変化に応じて地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化する。そのため、使用者は、携帯装置を操作して基準位置に対する携帯装置の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部に表示させることができる。ここで、使用者は、携帯装置の位置を視点の位置として直感的に認識し、基準位置に対する視点の位置を容易に把握することができる。したがって、地図上の気象分布の画像を三次元的に表示するとともに、使用者に地図画像と視点との相対的な位置関係を容易に把握させることが可能となる。 According to this configuration, the weather image can be displayed on the display unit of the portable device so as to be superimposed on the map image having a stereoscopic effect. Also, when the relative positional relationship between the reference position and the portable device changes, at least one of the position, size and orientation of the map image and the weather image changes accordingly. Therefore, the user can operate the portable device to change the relative positional relationship of the portable device with respect to the reference position, thereby displaying desired portions of the map image and the weather image in the composite image at a desired angle on the display unit. can be done. Here, the user can intuitively recognize the position of the mobile device as the position of the viewpoint, and can easily grasp the position of the viewpoint with respect to the reference position. Therefore, it is possible to display the image of the weather distribution on the map three-dimensionally and to allow the user to easily grasp the relative positional relationship between the map image and the viewpoint.

(2)画像データ生成部は、基準位置に仮想的に配置された地図画像が携帯装置の位置から視認された際に認識可能な地図画像を示す地図画像データを、相対位置関係および地図データに基づいて生成するとともに、基準位置の仮想的な地図画像に重畳するように基準位置に仮想的に配置された気象画像が携帯装置の位置から視認された際に認識可能な気象画像を示す気象画像データを、相対位置関係および気象データに基づいて生成してもよい。この場合、立体感を有する地図画像を示す地図画像データおよび立体感を有する気象画像を示す気象画像データを容易に生成することができる。 (2) The image data generator converts the map image data representing the map image that is recognizable when the map image virtually arranged at the reference position is viewed from the position of the mobile device into the relative positional relationship and the map data. A weather image that is generated based on the above and that is virtually placed at the reference position so as to be superimposed on the virtual map image at the reference position and that is recognizable when the weather image is viewed from the position of the portable device. Data may be generated based on relative positional relationships and weather data. In this case, it is possible to easily generate map image data representing a map image having a stereoscopic effect and weather image data representing a weather image having a stereoscopic effect.

(3)基準設定部は、基準位置として現実空間に固定的な第1の基準平面を仮想的に設定し、地図画像は第1の基準平面に仮想的に配置され、相対位置関係算出部は、第1の基準平面上の予め定められた基準点と携帯装置の位置との相対位置関係を算出してもよい。この場合、合成画像において、気象画像が地図画像と同一の高さに表示される。これにより、使用者は、地図画像の各地域と当該地域に対応する気象画像との関係を容易に認識することができる。 (3) The reference setting unit virtually sets a first reference plane fixed in the physical space as a reference position, the map image is virtually arranged on the first reference plane, and the relative positional relationship calculation unit , a relative positional relationship between a predetermined reference point on the first reference plane and the position of the mobile device may be calculated. In this case, the weather image is displayed at the same height as the map image in the synthesized image. This allows the user to easily recognize the relationship between each region on the map image and the weather image corresponding to that region.

(4)気象データ取得部により取得される気象データは、互いに異なる種類の第1および第2の気象分布を示し、基準設定部は、現実空間に固定されかつ第1の基準平面と所定の位置関係を有する仮想的な第2の基準平面をさらに設定し、画像データ生成部は、仮想的な地図画像に重畳するように第1の基準平面上に仮想的に配置された第1の気象分布に対応する第1の気象画像および第2の基準平面上に仮想的に配置された第2の気象分布に対応する第2の気象画像が携帯装置の位置から視認される際に認識可能な気象画像を示す気象画像データを、相対位置関係および気象データに基づいて生成してもよい。 (4) The meteorological data acquired by the meteorological data acquiring unit represent first and second meteorological distributions of different types, and the reference setting unit is fixed to the physical space and is positioned between the first reference plane and the predetermined position. A virtual second reference plane having a relationship is further set, and the image data generation unit generates the first weather distribution virtually placed on the first reference plane so as to be superimposed on the virtual map image. and a second weather image corresponding to a second weather distribution virtually placed on a second reference plane are viewed from the position of the portable device. Weather image data representing the image may be generated based on the relative positions and the weather data.

この場合、気象分布の種類に応じて第1の気象画像と第2の気象画像とを合成画像における異なる高さに表示することができる。また、第1の気象画像は地図画像と同一の高さに表示されるので、使用者は、地図画像の各地域と当該地域に対応する第1の気象画像との関係を容易に認識することができる。 In this case, the first weather image and the second weather image can be displayed at different heights in the composite image according to the type of weather distribution. Also, since the first weather image is displayed at the same height as the map image, the user can easily recognize the relationship between each area of the map image and the first weather image corresponding to the area. can be done.

(5)気象データ取得部は、所定の時間間隔で気象データ取得を取得し、画像データ生成部は、気象データ取得部により気象データが取得されるごとに生成される気象画像データを更新してもよい。この場合、時間経過に伴う気象データの変化に追従して合成画像における気象画像を更新することができる。 (5) The weather data acquisition unit acquires weather data at predetermined time intervals, and the image data generation unit updates weather image data generated each time weather data is acquired by the weather data acquisition unit. good too. In this case, it is possible to update the weather image in the composite image by following changes in weather data over time.

(6)携帯装置は、カメラと、カメラの撮像方向を検出する検出器とを含み、相対位置関係算出部は、カメラにより得られる合焦した被写体の画像を示す撮像データおよび検出器により検出される撮像方向に基づいて、カメラから基準位置に向かう方向および基準位置とカメラとの間の距離を相対位置関係として算出してもよい。この場合、基準位置と携帯装置との相対位置関係を容易に算出することができる。 (6) The portable device includes a camera and a detector that detects the imaging direction of the camera, and the relative positional relationship calculation unit includes imaging data representing an image of the subject in focus obtained by the camera and detected by the detector. The direction from the camera to the reference position and the distance between the reference position and the camera may be calculated as the relative positional relationship based on the imaging direction. In this case, the relative positional relationship between the reference position and the mobile device can be easily calculated.

(7)相対位置関係算出部は、カメラの位置を携帯装置の位置として相対位置関係を算出してもよい。この場合、撮像データに基づいて携帯装置の位置をより容易に算出することができる。また、使用者は、カメラの位置を視点の位置として直感的に認識し、基準位置に対する視点の位置をより容易に把握することができる。 (7) The relative positional relationship calculator may calculate the relative positional relationship using the position of the camera as the position of the mobile device. In this case, the position of the mobile device can be calculated more easily based on the imaging data. In addition, the user can intuitively recognize the position of the camera as the position of the viewpoint, and can more easily grasp the position of the viewpoint with respect to the reference position.

(8)検出器は、重力方向を検出する加速度センサと、地磁気の方向を検出する電子コンパスとを含み、相対位置関係算出部は、加速度センサおよび電子コンパスの検出結果に基づいてカメラから基準位置に向かう方向を算出してもよい。この場合、互いに直交する2方向において、カメラの方向を容易に検出することができる。これにより、カメラから基準位置に向かう方向を容易に算出することができる。 (8) The detector includes an acceleration sensor that detects the direction of gravity and an electronic compass that detects the direction of geomagnetism. may be calculated. In this case, the direction of the camera can be easily detected in two directions perpendicular to each other. This makes it possible to easily calculate the direction from the camera toward the reference position.

(9)基準設定部は、所定の時点において携帯装置に対して所定の位置関係を有する仮想的な位置を基準位置として設定してもよい。この場合、基準位置を容易に設定することができる。 (9) The reference setting unit may set, as the reference position, a virtual position having a predetermined positional relationship with respect to the mobile device at a predetermined point in time. In this case, the reference position can be easily set.

(10)気象データは、気象に関する場所的分布を含んでもよい。この場合、使用者は、合成画像を視認することにより気象に関する場所的分布を認識することができる。 (10) Weather data may include geographic distributions of weather. In this case, the user can recognize the spatial distribution of the weather by visually recognizing the synthesized image.

(11)第2の発明に係る気象分布表示方法は、携帯装置の表示部に気象分布を表示させる気象分布表示方法であって、現実空間に固定的な基準位置を仮想的に設定するステップと、地図を示す地図データを取得するステップと、気象分布を示す気象データを取得するステップと、基準位置と携帯装置との相対位置関係を算出するステップと、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成するステップと、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成するステップと、地図画像データおよび気象画像データを合成することにより合成画像データを生成するステップと、生成された合成画像データに基づく合成画像を表示部に表示させるステップとを含み、合成画像を表示部に表示させるステップは、相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように地図画像データおよび気象画像データを変化させることを含む。 (11) A weather distribution display method according to a second aspect of the invention is a weather distribution display method for displaying a weather distribution on a display unit of a portable device, the step of virtually setting a fixed reference position in a real space. a step of acquiring map data showing a map; a step of acquiring weather data showing weather distribution; a step of calculating a relative positional relationship between a reference position and a portable device; a step of generating two-dimensional map image data representing an image; and a step of generating two-dimensional weather image data representing a weather image superimposed on the map image based on the weather data and having a three-dimensional effect corresponding to the weather distribution. , generating composite image data by synthesizing map image data and weather image data; and displaying a composite image based on the generated composite image data on a display unit, wherein the composite image is displayed on the display unit. The step of causing includes changing the map image data and the weather image data such that at least one of the position, size and orientation of the map image and the weather image changes according to the change in the relative positional relationship.

この構成によれば、使用者は、携帯装置を操作して基準位置に対する携帯装置の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部に表示させることができる。使用者は、携帯装置の位置を視点の位置として直感的に認識し、基準位置に対する視点の位置を容易に把握することができる。したがって、地図上の気象分布の画像を三次元的に表示するとともに、使用者に地図画像と視点との相対的な位置関係を容易に把握させることが可能となる。 According to this configuration, the user operates the portable device to change the relative positional relationship of the portable device with respect to the reference position, thereby displaying desired portions of the map image and the weather image in the composite image at a desired angle on the display unit. can be displayed. The user can intuitively recognize the position of the mobile device as the position of the viewpoint, and can easily grasp the position of the viewpoint with respect to the reference position. Therefore, it is possible to display the image of the weather distribution on the map three-dimensionally and to allow the user to easily grasp the relative positional relationship between the map image and the viewpoint.

(12)第3の発明に係る気象分布表示プログラムは、携帯装置の表示部への気象分布の表示を処理装置により実行可能な気象分布表示プログラムであって、現実空間に固定的な基準位置を仮想的に設定する処理と、地図を示す地図データを取得する処理と、気象分布を示す気象データを取得する処理と、基準位置と携帯装置との相対位置関係を算出する処理と、地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成する処理と、気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成する処理と、地図画像データおよび気象画像データを合成することにより合成画像データを生成する処理と、生成された合成画像データに基づく合成画像を表示部に表示させる処理とを、処理装置に実行させ、合成画像を表示部に表示させる処理は、相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように地図画像データおよび気象画像データを変化させることを含む。 (12) A weather distribution display program according to a third aspect of the invention is a weather distribution display program capable of displaying a weather distribution on a display unit of a portable device by a processing device, wherein a fixed reference position is set in the real space. Virtual setting processing, processing for acquiring map data showing a map, processing for acquiring weather data showing weather distribution, processing for calculating the relative positional relationship between the reference position and the portable device, and map data a process for generating two-dimensional map image data showing a map image with a three-dimensional effect based on the weather data; A process of generating image data, a process of generating composite image data by combining map image data and weather image data, and a process of displaying a composite image based on the generated composite image data on the display unit. The processing to be executed by the device and to display the synthesized image on the display unit is performed by combining the map image data and the weather image so that at least one of the position, size and orientation of the map image and the weather image changes according to the change in the relative positional relationship. Including changing the image data.

この構成によれば、使用者は、携帯装置を操作して基準位置に対する携帯装置の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部に表示させることができる。使用者は、携帯装置の位置を視点の位置として直感的に認識し、基準位置に対する視点の位置を容易に把握することができる。したがって、地図上の気象分布の画像を三次元的に表示するとともに、使用者に地図画像と視点との相対的な位置関係を容易に把握させることが可能となる。 According to this configuration, the user operates the portable device to change the relative positional relationship of the portable device with respect to the reference position, thereby displaying desired portions of the map image and the weather image in the composite image at a desired angle on the display unit. can be displayed. The user can intuitively recognize the position of the mobile device as the position of the viewpoint, and can easily grasp the position of the viewpoint with respect to the reference position. Therefore, it is possible to display the image of the weather distribution on the map three-dimensionally and to allow the user to easily grasp the relative positional relationship between the map image and the viewpoint.

本発明によれば、地図上の気象分布の画像を三次元的に表示するとともに使用者に地図と視点との相対的な位置関係を容易に把握させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the image of the weather distribution on a map can be displayed three-dimensionally, and a user can easily grasp the relative positional relationship between a map and a viewpoint.

本発明の実施の形態に係る気象分布表示装置を含む携帯装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a portable device including a weather distribution display device according to an embodiment of the present invention; FIG. 基準平面の設定方法の一例を示す図である。It is a figure which shows an example of the setting method of a reference plane. 合成画像の表示の一例を示す図である。FIG. 10 is a diagram showing an example of display of a synthesized image; レンズの位置が変化したときの合成画像の変化を示す図である。It is a figure which shows the change of a synthetic image when the position of a lens changes. レンズの位置が変化したときの合成画像の変化を示す図である。It is a figure which shows the change of a synthetic image when the position of a lens changes. レンズの方向が変化したときの合成画像の変化を示す図である。FIG. 10 is a diagram showing changes in a synthesized image when the direction of the lens changes; レンズの方向が変化したときの合成画像の変化を示す図である。FIG. 10 is a diagram showing changes in a synthesized image when the direction of the lens changes; 気象分布表示プログラムにより行われる気象分布表示処理のアルゴリズムを示すフローチャートである。4 is a flow chart showing an algorithm of weather distribution display processing performed by a weather distribution display program;

以下、本発明の実施の形態に係る気象分布表示装置、気象分布表示方法および気象分布表示プログラムについて図面を参照しながら詳細に説明する。 Hereinafter, a weather distribution display device, a weather distribution display method, and a weather distribution display program according to embodiments of the present invention will be described in detail with reference to the drawings.

(1)携帯装置の構成
図1は、本発明の実施の形態に係る気象分布表示装置を含む携帯装置の構成を示すブロック図である。携帯装置100は、例えば携帯端末等の移動可能なスマートデバイス(smart device)であり、気象分布を示す気象データを配信する気象サーバ200と通信可能に構成される。気象データは、雨、雪、雲、雷、風、波、気温または気圧等の気象が場所に対応付けられたデータであり、観測または予測により得られる。本実施の形態においては、気象データは、降水量の観測値、気象レーダにより観測される降水強度の分布および気象衛星により観測される雲の分布である。
(1) Configuration of Portable Device FIG. 1 is a block diagram showing the configuration of a portable device including a weather distribution display device according to an embodiment of the present invention. The mobile device 100 is, for example, a mobile smart device such as a mobile terminal, and is configured to be able to communicate with a weather server 200 that distributes weather data indicating weather distribution. Meteorological data is data in which weather such as rain, snow, clouds, thunder, wind, waves, temperature, or atmospheric pressure is associated with locations, and is obtained by observation or prediction. In the present embodiment, the meteorological data is the observed value of precipitation, the distribution of precipitation intensity observed by weather radar, and the distribution of clouds observed by meteorological satellites.

気象データは、降水量の予測値、予測される降水強度分布または予測される雲の分布であってもよい。あるいは、気象データは、降雪量、風向風速、気温、地上気温分布、高層気温分布、地上気圧分布、高層気圧分布、地上風分布、高層風分布(鉛直成分を含む)、雷発生確度分布、竜巻発生確度分布、推計気象の天気分布、震度観測点の震度または津波観測点の津波高さ等の観測値もしくは予報値であってもよい。なお、地震に関するデータも場所に対応付けることが可能である。したがって、本実施の形態において、気象データは、地震に関するデータを含んでもよい。 The meteorological data may be precipitation forecasts, forecasted precipitation intensity distributions, or forecasted cloud distributions. Alternatively, meteorological data includes snowfall, wind speed and direction, air temperature, surface temperature distribution, upper air temperature distribution, surface pressure distribution, upper air pressure distribution, surface wind distribution, upper wind distribution (including vertical component), lightning probability distribution, and tornado. Observed values or forecast values such as occurrence probability distribution, weather distribution of estimated weather, seismic intensity at seismic intensity observation points, or tsunami height at tsunami observation points may be used. It should be noted that data on earthquakes can also be associated with places. Therefore, in the present embodiment, weather data may include data on earthquakes.

携帯装置100は、気象分布表示装置10、加速度センサ20、電子コンパス30、カメラ40、位置方向算出部50、記憶部60、通信部70および表示部80を含む。また、携帯装置100は、図示しないCPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、ROM(リードオンリメモリ)および記憶装置を含む。ROMまたは記憶装置には、システムプログラム、位置方向算出プログラムおよび気象分布表示プログラムが記憶される。 Portable device 100 includes weather distribution display device 10 , acceleration sensor 20 , electronic compass 30 , camera 40 , position/direction calculation unit 50 , storage unit 60 , communication unit 70 and display unit 80 . Portable device 100 also includes a CPU (central processing unit), a RAM (random access memory), a ROM (read only memory), and a storage device (not shown). The ROM or storage device stores a system program, a position/direction calculation program, and a weather distribution display program.

加速度センサ20は、地球の重力加速度の方向を検出する。電子コンパス30は、地磁気の方向を検出する。カメラ40は、レンズ41を有し、当該レンズ41を通して任意の被写体を撮像することにより、被写体の画像を示す撮像データを生成する。加速度センサ20および電子コンパス30は、カメラ40の撮像方向を検出する検出器の例である。 The acceleration sensor 20 detects the direction of gravitational acceleration of the earth. The electronic compass 30 detects the direction of geomagnetism. The camera 40 has a lens 41 and captures an image of an arbitrary subject through the lens 41 to generate imaging data representing an image of the subject. Acceleration sensor 20 and electronic compass 30 are examples of detectors that detect the imaging direction of camera 40 .

位置方向算出部50の機能は、携帯装置100のCPUが位置方向算出プログラムをRAM上で実行することにより実現される。位置方向算出部50は、カメラ40により生成される撮像データ基づいて、被写体に対するレンズ41の相対的な位置を所定の時間間隔で逐次算出する。また、位置方向算出部50は、加速度センサ20により検出された重力加速度の方向および電子コンパス30により検出された地磁気の方向に基づいて、レンズ41の光軸の方向(以下、単にレンズ41の方向と呼ぶ。)を所定の時間間隔で逐次算出する。 The function of the position/direction calculator 50 is implemented by the CPU of the mobile device 100 executing a position/direction calculation program on the RAM. The position/direction calculator 50 sequentially calculates the relative position of the lens 41 with respect to the subject at predetermined time intervals based on the imaging data generated by the camera 40 . Further, the position/direction calculator 50 calculates the direction of the optical axis of the lens 41 (hereinafter simply referred to as the direction of the lens 41) based on the direction of gravitational acceleration detected by the acceleration sensor 20 and the direction of geomagnetism detected by the electronic compass 30. ) are sequentially calculated at predetermined time intervals.

ここで、レンズ41の方向は、レンズ41の仰角および水平角により表される。レンズ41の仰角は、例えば加速度センサ20により検出される重力加速度の方向に直交する平面(水平面)に対してレンズ41の光軸が成す角度として定義される。レンズ41の水平角は、例えば水平面内において電子コンパス30により検出される地磁気の方向(南北方向)に対してレンズ41の光軸が成す角度として定義される。 Here, the direction of the lens 41 is represented by the elevation angle and horizontal angle of the lens 41 . The elevation angle of the lens 41 is defined as the angle formed by the optical axis of the lens 41 with respect to a plane (horizontal plane) orthogonal to the direction of gravitational acceleration detected by the acceleration sensor 20, for example. The horizontal angle of the lens 41 is defined, for example, as the angle formed by the optical axis of the lens 41 with respect to the geomagnetic direction (north-south direction) detected by the electronic compass 30 in the horizontal plane.

記憶部60は、上記のRAM、ROMおよび記憶装置により構成される。記憶部60には、地図を示す三次元の地図データが記憶される。地図データは、例えば、日本列島およびその周辺領域を示す。通信部70は、気象サーバ200と無線通信可能に構成される。表示部80は、例えばタッチパネルディスプレイを含み、種々の画像を表示する。 The storage unit 60 is configured by the RAM, ROM, and storage device described above. The storage unit 60 stores three-dimensional map data representing a map. The map data indicates, for example, the Japanese archipelago and its surrounding areas. Communication unit 70 is configured to be wirelessly communicable with weather server 200 . The display unit 80 includes, for example, a touch panel display, and displays various images.

気象分布表示装置10は、基準設定部1、相対位置関係算出部2、地図データ取得部3、地図画像データ生成部4、気象データ取得部5、気象画像データ生成部6および画像データ合成部7を含む。携帯装置100のCPUがROMまたは記憶装置に記憶された気象分布表示プログラムを実行することにより、気象分布表示装置10の構成要素(1~7)の機能が実現される。気象分布表示装置10の構成要素(1~7)の一部または全てが電子回路等のハードウエアにより構成されてもよい。 The weather distribution display device 10 includes a reference setting unit 1, a relative positional relationship calculation unit 2, a map data acquisition unit 3, a map image data generation unit 4, a weather data acquisition unit 5, a weather image data generation unit 6, and an image data synthesis unit 7. including. The functions of the components (1 to 7) of the weather distribution display device 10 are realized by the CPU of the portable device 100 executing the weather distribution display program stored in the ROM or storage device. Some or all of the components (1 to 7) of the weather distribution display device 10 may be configured by hardware such as electronic circuits.

基準設定部1は、初期動作として、現実空間に固定的な基準位置を仮想的に設定する。本実施の形態においては、基準設定部1は、カメラ40の視野内の現実空間に仮想的な基準平面を基準位置として設定する。基準平面上の所定の点(例えば中心点)に基準点が設定される。具体的には、カメラ40が起動し、カメラ40の視野内のいずれかの被写体に焦点が合ったときのレンズ41の位置および方向に基づいて基準平面が設定される。基準平面が設定された後、レンズ41の位置または方向が変化しても基準平面の位置は変化しない。基準平面の設定方法の詳細については後述する。 As an initial operation, the reference setting unit 1 virtually sets a fixed reference position in the physical space. In this embodiment, the reference setting unit 1 sets a virtual reference plane in the real space within the field of view of the camera 40 as the reference position. A reference point is set at a predetermined point (for example, center point) on the reference plane. Specifically, the reference plane is set based on the position and direction of the lens 41 when the camera 40 is activated and any subject within the field of view of the camera 40 is in focus. After the reference plane is set, the position of the reference plane does not change even if the position or orientation of the lens 41 changes. The details of how to set the reference plane will be described later.

相対位置関係算出部2は、位置方向算出部50により算出されたレンズ41の位置および方向に基づいて、基準設定部1により設定された基準平面の基準点とレンズ41との相対位置関係を算出する。基準点とレンズ41との相対位置関係は、レンズ41から基準点に向かう方向および基準点とレンズ41との間の距離を含む。 The relative positional relationship calculator 2 calculates the relative positional relationship between the reference point of the reference plane set by the reference setting unit 1 and the lens 41 based on the position and direction of the lens 41 calculated by the position/direction calculator 50 . do. The relative positional relationship between the reference point and the lens 41 includes the direction from the lens 41 to the reference point and the distance between the reference point and the lens 41 .

地図データ取得部3は、記憶部60から三次元の地図データを取得する。気象サーバ200が地図データを配信する場合には、地図データ取得部3は、通信部70を介して気象サーバ200から地図データを取得してもよい。 The map data acquisition unit 3 acquires three-dimensional map data from the storage unit 60 . When weather server 200 distributes map data, map data acquisition unit 3 may acquire map data from weather server 200 via communication unit 70 .

ここで、基準設定部1により設定された基準平面に三次元の地図画像が仮想的に配置される。地図画像データ生成部4は、地図データ取得部3により取得された三次元の地図データおよび相対位置関係算出部2により算出された相対位置関係に基づいて、カメラ40が現時点のレンズ41の位置から仮想的な三次元の地図画像を撮像することにより得られる二次元の地図画像を示す二次元の地図画像データを所定の時間間隔で逐次生成する。ここで、二次元の地図画像は立体感を有する画像である。 Here, a three-dimensional map image is virtually arranged on the reference plane set by the reference setting unit 1 . Based on the three-dimensional map data acquired by the map data acquisition unit 3 and the relative positional relationship calculated by the relative positional relationship calculation unit 2, the map image data generation unit 4 moves the camera 40 from the current position of the lens 41. Two-dimensional map image data representing a two-dimensional map image obtained by capturing a virtual three-dimensional map image is sequentially generated at predetermined time intervals. Here, the two-dimensional map image is an image having a stereoscopic effect.

気象データ取得部5は、通信部70を介して気象サーバ200から気象データを取得する。ここで、気象データに基づいて気象分布を視覚的に示す仮想的な三次元の気象画像が定義され、三次元の気象画像が基準平面の仮想的な三次元の地図画像に重畳するように基準平面上に仮想的に配置される。気象画像データ生成部6は、気象データ取得部5により取得された気象データおよび相対位置関係算出部2により算出された相対位置関係に基づいて、カメラ40が現時点のレンズ41の位置から仮想的な三次元の気象画像を撮像することにより得られる二次元の気象画像を示す二次元の気象画像データを所定の時間間隔で逐次生成する。ここで、二次元の気象画像は立体感を有する画像である。 The weather data acquisition unit 5 acquires weather data from the weather server 200 via the communication unit 70 . Here, a virtual three-dimensional weather image that visually shows the weather distribution is defined based on the weather data, and the three-dimensional weather image is superimposed on the virtual three-dimensional map image on the reference plane. Placed virtually on a plane. Based on the weather data acquired by the weather data acquisition unit 5 and the relative positional relationship calculated by the relative positional relationship calculation unit 2, the weather image data generation unit 6 generates a virtual image of the camera 40 from the current position of the lens 41. Two-dimensional weather image data representing a two-dimensional weather image obtained by capturing a three-dimensional weather image is sequentially generated at predetermined time intervals. Here, the two-dimensional weather image is an image having a stereoscopic effect.

画像データ合成部7は、地図画像データ生成部4により生成される二次元の地図画像データ、気象画像データ生成部6により生成される二次元の気象画像データおよびカメラ40により生成される撮像データを合成することにより合成画像データを生成する。また、画像データ合成部7は、合成された合成画像データに基づく合成画像を表示部80に表示させる。表示される合成画像における地図および気象画像の大きさ、位置および方向は、レンズ41の位置および方向により変化する。このように、地図画像データ生成部4、気象画像データ生成部6および画像データ合成部7が画像データ生成部の例である。 The image data synthesizing unit 7 combines two-dimensional map image data generated by the map image data generating unit 4, two-dimensional weather image data generated by the weather image data generating unit 6, and imaging data generated by the camera 40. By synthesizing, synthetic image data is generated. Further, the image data synthesizing section 7 causes the display section 80 to display a synthetic image based on the synthesized synthetic image data. The size, position and orientation of the map and weather image in the displayed composite image change depending on the position and orientation of the lens 41 . Thus, the map image data generator 4, the weather image data generator 6, and the image data synthesizer 7 are examples of the image data generator.

(2)合成画像の表示
図2は、基準平面の設定方法の一例を示す図である。図1の基準設定部1は、カメラ40の起動後、図2に示すように、レンズ41から光軸42の方向に600mm離間した仮想的な点を基準点R1として設定する。また、基準設定部1は、基準点R1を含みかつ水平面に平行な800mm×800mmの仮想的な平面を基準平面R2として設定する。さらに、基準設定部1は、基準平面R2から予め定められた高さに、水平面に平行な800mm×800mmの仮想的な平面を上空平面R3として設定する。基準平面R2および上空平面R3は、それぞれ第1および第2の基準平面の例である。
(2) Display of Composite Image FIG. 2 is a diagram showing an example of a method of setting a reference plane. After starting the camera 40, the reference setting unit 1 in FIG. 1 sets a virtual point 600 mm away from the lens 41 in the direction of the optical axis 42 as the reference point R1, as shown in FIG. The reference setting unit 1 also sets a virtual plane of 800 mm×800 mm that includes the reference point R1 and is parallel to the horizontal plane as the reference plane R2. Furthermore, the reference setting unit 1 sets a virtual plane of 800 mm×800 mm parallel to the horizontal plane at a predetermined height from the reference plane R2 as a sky plane R3. Reference plane R2 and sky plane R3 are examples of first and second reference planes, respectively.

図3は、合成画像の表示の一例を示す図である。図3に示すように、基準平面R2には、三次元の地図画像が仮想的に配置されている。図1の地図画像データ生成部4は、カメラ40が現時点のレンズ41の位置から基準平面R2に配置された仮想的な三次元の地図画像を撮像することにより得られる二次元の地図画像を示す二次元の地図画像データを生成する。図3の例では、レンズ41は地図画像の南上方に位置する。また、レンズ41と基準平面R2との距離が比較的大きいため、地図画像の全体がカメラ40の視野に含まれる。そのため、南上方から三次元の地図画像の全体を撮像することにより得られる二次元の地図画像を示す二次元の地図データが生成される。 FIG. 3 is a diagram showing an example of display of a synthesized image. As shown in FIG. 3, a three-dimensional map image is virtually arranged on the reference plane R2. The map image data generator 4 in FIG. 1 shows a two-dimensional map image obtained by capturing a virtual three-dimensional map image arranged on the reference plane R2 by the camera 40 from the current position of the lens 41. Generate two-dimensional map image data. In the example of FIG. 3, the lens 41 is located above and to the south of the map image. Further, since the distance between the lens 41 and the reference plane R2 is relatively large, the entire map image is included in the field of view of the camera 40. FIG. Therefore, two-dimensional map data representing a two-dimensional map image obtained by imaging the entire three-dimensional map image from the upper south direction is generated.

また、図3の例では、三次元の気象画像として、降水量および降水強度の分布を示す画像が基準平面R2に仮想的に配置され、雲の分布を示す画像が上空平面R3に仮想的に配置されている。図1の気象画像データ生成部6は、カメラ40が現時点のレンズ41の位置から基準平面R2および上空平面R3に配置された仮想的な気象画像を撮像することにより得られる二次元の気象画像を示す二次元の気象画像データを生成する。 Further, in the example of FIG. 3, as three-dimensional weather images, an image showing the distribution of precipitation amount and precipitation intensity is virtually arranged on the reference plane R2, and an image showing the distribution of clouds is virtually arranged on the sky plane R3. are placed. The weather image data generator 6 in FIG. 1 generates a two-dimensional weather image obtained by capturing a virtual weather image arranged on the reference plane R2 and the sky plane R3 from the current position of the lens 41 by the camera 40. 2D weather image data shown in FIG.

生成される気象画像データは、降水量を示す降水量画像G1、降水強度の分布を示す降水強度分布画像G2および雲の分布を示す雲分布画像G3を含む。降水量画像G1は、1または複数の円柱により構成される画像であり、円柱の高さおよび色により降水量を示す。降水強度分布画像G2は、所定の降水強度を有する地域を示す領域(ポリゴン)の画像である。雲分布画像G3は、雲の位置を示すポリゴンの画像である。なお、気象データが風向風速である場合には、気象画像は風車の画像または粒子の画像であってもよい。この場合、風車の回転の態様または粒子の飛散の態様により風向風速を表すことができる。 The generated weather image data includes a precipitation amount image G1 indicating the amount of precipitation, a precipitation intensity distribution image G2 indicating the distribution of precipitation intensity, and a cloud distribution image G3 indicating the distribution of clouds. The precipitation image G1 is an image composed of one or more cylinders, and the height and color of the cylinders indicate the amount of precipitation. The precipitation intensity distribution image G2 is an image of an area (polygon) indicating an area having a predetermined precipitation intensity. The cloud distribution image G3 is an image of polygons indicating the positions of clouds. Note that if the weather data is wind speed and direction, the weather image may be an image of a wind turbine or an image of particles. In this case, the direction and speed of the wind can be represented by the manner of rotation of the windmill or the manner of scattering of particles.

図1の画像データ合成部7は、生成された二次元の地図画像データ、二次元の気象画像データおよび撮像データを合成することにより合成画像データを生成する。また、画像データ合成部7は、生成された合成画像データに基づいて、合成画像を表示部80に表示させる。基準点R1とレンズ41との相対位置関係が変化した場合、その変化に対応するように表示部80に表示される合成画像の大きさ、位置または方向が変化する。 The image data synthesizing unit 7 in FIG. 1 synthesizes the generated two-dimensional map image data, two-dimensional weather image data, and imaging data to generate synthetic image data. Further, the image data synthesizing unit 7 causes the display unit 80 to display a synthetic image based on the generated synthetic image data. When the relative positional relationship between the reference point R1 and the lens 41 changes, the size, position or direction of the synthesized image displayed on the display unit 80 changes corresponding to the change.

使用者は、表示部80を視認することにより、基準平面R2に仮想的に配置された三次元の地図画像を認識するとともに、基準平面R2の地図画像の各地域に重畳するように基準平面R2および上空平面R3に仮想的に配置された当該地域の気象画像を認識することができる。また、使用者は、基準平面R2よりも外の領域には、カメラ40により撮像された被写体の画像を認識することができる。 By visually recognizing the display unit 80, the user recognizes the three-dimensional map image virtually arranged on the reference plane R2, and also recognizes the reference plane R2 so as to be superimposed on each area of the map image on the reference plane R2. and a weather image of the area virtually placed on the sky plane R3. Also, the user can recognize the image of the subject captured by the camera 40 in the area outside the reference plane R2.

図4および図5は、レンズ41の位置が変化したときの合成画像の変化を示す図である。図4の例では、太い点線の矢印で示すように、レンズ41の位置が図3における位置から基準点R1に近づくように移動される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像を基準点R1により近い位置から認識することとなる。そのため、基準点R1とレンズ41との距離に基づいて合成画像データが更新される。更新された合成画像データに基づいて、拡大された合成画像が表示部80に表示される。 4 and 5 are diagrams showing changes in the synthesized image when the position of the lens 41 changes. In the example of FIG. 4, the position of the lens 41 is moved from the position in FIG. 3 to approach the reference point R1, as indicated by the thick dotted arrow. In this case, the user will recognize the map image virtually placed on the reference plane R2 from a position closer to the reference point R1. Therefore, the synthesized image data is updated based on the distance between the reference point R1 and the lens 41. FIG. The enlarged composite image is displayed on the display unit 80 based on the updated composite image data.

図4の例では、地図画像における近畿地方および中部地方が拡大表示されるとともに、これらの地域に対応する降水量画像G1および降水強度分布画像G2が拡大表示される。なお、基準点R1とレンズ41との距離が所定値以上小さい場合には、上空平面R3がカメラ40の視野内に含まれなくなるため、図4の例のように、表示部80に雲分布画像G3が表示されない。 In the example of FIG. 4, the Kinki region and the Chubu region in the map image are enlarged and displayed, and the precipitation amount image G1 and the precipitation intensity distribution image G2 corresponding to these regions are also enlarged and displayed. Note that when the distance between the reference point R1 and the lens 41 is smaller than a predetermined value, the sky plane R3 is not included in the field of view of the camera 40, so the cloud distribution image is displayed on the display unit 80 as in the example of FIG. G3 is not displayed.

図5の例では、太い点線の矢印で示すように、レンズ41の位置が図4における位置から地図画像における東方に移動される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像をより東方から認識することとなる。そのため、レンズ41から基準点R1に向かう方向および基準点R1とレンズ41との距離に基づいて合成画像データが更新される。更新された合成画像データに基づいて、より東方から見た地域(図5の例では中部地方および関東地方)に対応する合成画像が表示部80に表示される。 In the example of FIG. 5, the position of the lens 41 is moved eastward in the map image from the position in FIG. 4, as indicated by the thick dotted arrow. In this case, the user will recognize the map image virtually placed on the reference plane R2 from the east. Therefore, the synthesized image data is updated based on the direction from the lens 41 to the reference point R1 and the distance between the reference point R1 and the lens 41. FIG. Based on the updated composite image data, a composite image corresponding to the region viewed from the east (Chubu region and Kanto region in the example of FIG. 5) is displayed on the display unit 80 .

図6および図7は、レンズ41の方向が変化したときの合成画像の変化を示す図である。図6の例では、太い点線の矢印で示すように、レンズ41の水平角が図5の方向から地図画像における東方に回転される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像をより東方に認識することとなる。そのため、レンズ41から基準点R1に向かう方向に基づいて合成画像データが更新される。更新された合成画像データに基づいて、より東方に見た地域(図6の例では東北地方および北海道)に対応する合成画像が表示部80に表示される。 6 and 7 are diagrams showing changes in the synthesized image when the direction of the lens 41 changes. In the example of FIG. 6, the horizontal angle of the lens 41 is rotated eastward in the map image from the direction of FIG. 5, as indicated by the thick dotted arrow. In this case, the user will perceive the map image virtually placed on the reference plane R2 further eastward. Therefore, the composite image data is updated based on the direction from the lens 41 toward the reference point R1. Based on the updated composite image data, the display unit 80 displays a composite image corresponding to an area viewed further east (the Tohoku region and Hokkaido in the example of FIG. 6).

図7の例では、太い点線の矢印で示すように、レンズ41の仰角が図5の方向から下方に回転される。この場合、使用者は、基準平面R2に仮想的に配置された地図画像をより下方に認識することとなる。そのため、レンズ41から基準点R1に向かう方向に基づいて合成画像データが更新される。更新された合成画像データに基づいて、より下方に見た地域(図7の例では北海道)に対応する合成画像が表示部80に表示される。 In the example of FIG. 7, the elevation angle of the lens 41 is rotated downward from the direction of FIG. 5, as indicated by the thick dotted arrow. In this case, the user will recognize the map image virtually placed on the reference plane R2 further downward. Therefore, the composite image data is updated based on the direction from the lens 41 toward the reference point R1. Based on the updated composite image data, the display unit 80 displays a composite image corresponding to an area (Hokkaido in the example of FIG. 7) viewed from below.

(3)気象分布表示処理
図8は、気象分布表示プログラムにより行われる気象分布表示処理のアルゴリズムを示すフローチャートである。まず、基準設定部1は、レンズ41の焦点がカメラ40の視野内のいずれかの被写体に合ったか否かを判定する(ステップS1)。レンズ41の焦点がいずれの被写体にも合っていない場合、基準設定部1は、レンズ41の焦点がいずれかの被写体に合うまで待機する。レンズ41の焦点がカメラ40の視野内のいずれかの被写体に合った場合、基準設定部1は、位置方向算出部50により算出されるレンズ41の位置および方向に基づいて基準点、基準平面および上空平面を設定する(ステップS2)。
(3) Weather Distribution Display Processing FIG. 8 is a flow chart showing an algorithm for weather distribution display processing performed by the weather distribution display program. First, the reference setting unit 1 determines whether or not the focus of the lens 41 is on any subject within the field of view of the camera 40 (step S1). If the lens 41 is not focused on any subject, the reference setting unit 1 waits until the lens 41 is focused on any subject. When the lens 41 is focused on any subject within the field of view of the camera 40, the reference setting unit 1 determines the reference point, reference plane and A sky plane is set (step S2).

次に、地図データ取得部3は、記憶部60から三次元の地図データを取得する(ステップS3)。気象データ取得部5は、通信部70を介して気象サーバ200から気象データを取得する(ステップS4)。ステップS4は、気象サーバ200から配信される気象データを更新するための割り込み処理であり、所定の時間間隔ごとに実行される。所定の時間間隔は、例えば5分間隔であってもよいし、1時間間隔であってもよい。続いて、相対位置関係算出部2は、位置方向算出部50により算出されるレンズ41の位置および方向に基づいて、ステップS2で設定された基準点とレンズ41との相対位置関係を算出する(ステップS5)。 Next, the map data acquisition unit 3 acquires three-dimensional map data from the storage unit 60 (step S3). The weather data acquisition unit 5 acquires weather data from the weather server 200 via the communication unit 70 (step S4). Step S4 is interrupt processing for updating the weather data distributed from the weather server 200, and is executed at predetermined time intervals. The predetermined time interval may be, for example, 5 minute intervals or 1 hour intervals. Subsequently, the relative positional relationship calculator 2 calculates the relative positional relationship between the reference point set in step S2 and the lens 41 based on the position and direction of the lens 41 calculated by the position/direction calculator 50 ( step S5).

その後、地図画像データ生成部4は、ステップS3で取得された三次元の地図データおよびステップS5で算出された相対位置関係に基づいて、二次元の地図画像データを生成する(ステップS6)。また、気象画像データ生成部6は、ステップS4で取得された気象データおよびステップS5で算出された相対位置関係に基づいて、二次元の気象画像データを生成する(ステップS7)。ステップS6,S7は、いずれが先に実行されてもよいし、同時に実行されてもよい。 Thereafter, the map image data generator 4 generates two-dimensional map image data based on the three-dimensional map data obtained in step S3 and the relative positional relationship calculated in step S5 (step S6). Further, the weather image data generator 6 generates two-dimensional weather image data based on the weather data obtained in step S4 and the relative positional relationship calculated in step S5 (step S7). Either of steps S6 and S7 may be performed first, or may be performed simultaneously.

画像データ合成部7は、カメラ40から撮像データを取得する(ステップS8)。ステップS8は、ステップS4~S7のいずれかの時点で実行されてもよい。また、画像データ合成部7は、ステップS6で生成された地図画像データ、ステップS7で生成された気象画像データおよびステップS8で取得された撮像データを合成することにより合成画像データを生成する(ステップS9)。その後、画像データ合成部7は、ステップS9で生成された合成画像データに基づく合成画像を表示部80に表示させ(ステップS10)、ステップS4に戻る。 The image data synthesizing unit 7 acquires image data from the camera 40 (step S8). Step S8 may be executed at any time of steps S4 to S7. Further, the image data synthesizing unit 7 synthesizes the map image data generated in step S6, the weather image data generated in step S7, and the imaging data obtained in step S8 to generate synthesized image data (step S9). After that, the image data synthesizing unit 7 causes the display unit 80 to display a synthetic image based on the synthetic image data generated in step S9 (step S10), and returns to step S4.

使用者により気象分布表示処理の終了が指示されるまでステップS4~S10が繰り返される。これにより、基準点とレンズ41との相対位置関係が変化するごとに表示される合成画像の大きさ、位置または方向が更新される。また、気象サーバ200から配信される気象データが更新されることにより、合成画像における気象画像が更新される。なお、ステップS4の実行タイミングが気象データの取得タイミングでない場合には、ステップS4,S7はスキップされる。 Steps S4 to S10 are repeated until the user gives an instruction to end the weather distribution display process. As a result, the size, position, or direction of the displayed composite image is updated each time the relative positional relationship between the reference point and the lens 41 changes. Further, by updating the weather data distributed from the weather server 200, the weather image in the composite image is updated. If the execution timing of step S4 is not the weather data acquisition timing, steps S4 and S7 are skipped.

(4)効果
本実施の形態に係る気象分布表示装置10においては、立体感を有する地図画像に重畳するように気象画像を携帯装置100の表示部80に表示することができる。また、基準平面とレンズ41との相対位置関係が変化することにより、その変化に応じて地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化する。そのため、使用者は、携帯装置100を操作して基準平面に対するレンズ41の相対位置関係を変化させることにより、合成画像における地図画像および気象画像の所望の部分を所望の角度で表示部80に表示させることができる。ここで、使用者は、レンズ41の位置を視点の位置として直感的に認識し、基準平面に対する視点の位置を容易に把握することができる。したがって、使用者に地図画像と視点との相対的な位置関係を容易に把握させることができる。
(4) Effect In the weather distribution display device 10 according to the present embodiment, the weather image can be displayed on the display unit 80 of the portable device 100 so as to be superimposed on the map image having a three-dimensional effect. Further, when the relative positional relationship between the reference plane and the lens 41 changes, at least one of the position, size and orientation of the map image and the weather image changes accordingly. Therefore, the user operates the portable device 100 to change the relative positional relationship of the lens 41 with respect to the reference plane, thereby displaying a desired portion of the map image and the weather image in the composite image at a desired angle on the display unit 80. can be made Here, the user intuitively recognizes the position of the lens 41 as the position of the viewpoint, and can easily grasp the position of the viewpoint with respect to the reference plane. Therefore, the user can easily grasp the relative positional relationship between the map image and the viewpoint.

気象分布の種類に応じて気象画像を合成画像における適切な高さに配置することができる。例えば、降水量画像G1および降水強度分布画像G2は地図画像と同一の高さに配置され、雲分布画像G3は地図画像の上方の空間に配置される。これにより、使用者は、地図画像の各地域と当該地域に対応する降水量および降水強度の分布との関係を容易に認識するとともに、地図画像の上方の雲の分布を俯瞰的に認識することができる。 The weather image can be arranged at an appropriate height in the composite image according to the type of weather distribution. For example, the precipitation amount image G1 and the precipitation intensity distribution image G2 are arranged at the same height as the map image, and the cloud distribution image G3 is arranged in the space above the map image. As a result, the user can easily recognize the relationship between each area of the map image and the distribution of precipitation and precipitation intensity corresponding to the area, and can also recognize the distribution of clouds above the map image from a bird's-eye view. can be done.

第1の基準平面および第2の基準平面(上空平面)に表示する気象画像の種類および組み合わせは特に限定されないが、第1の基準平面には、降水強度分布、地上気温分布、地上気圧分布または地上風分布の気象データに対応する気象画像が表示されることが好ましい。一方、第2の基準平面には、雲分布、高層気温分布、高層気圧分布または高層風分布の気象データに対応する気象画像が表示されることが好ましい。これらの表示によれば、使用者は、実際の気象分布をより容易に視認することができる。 The type and combination of weather images displayed on the first reference plane and the second reference plane (sky plane) are not particularly limited. Preferably, a weather image corresponding to the weather data of surface wind distribution is displayed. On the other hand, on the second reference plane, it is preferable to display a weather image corresponding to weather data of cloud distribution, upper air temperature distribution, upper air pressure distribution, or upper wind distribution. These displays allow the user to visually recognize the actual weather distribution more easily.

(5)他の実施の形態
(a)上記実施の形態において、気象分布表示装置10がスマートデバイスに設けられるが、本発明はこれに限定されない。気象分布表示装置10は、パーソナルコンピュータまたはゲーム機器等の移動可能な電子機器に設けられてもよい。また、気象分布表示装置10は、携帯装置100と一体的に設けられずに、別体として設けられてもよい。
(5) Other Embodiments (a) In the above embodiments, the weather distribution display device 10 is provided in a smart device, but the present invention is not limited to this. The weather distribution display device 10 may be provided in a mobile electronic device such as a personal computer or a game device. Also, the weather distribution display device 10 may not be provided integrally with the portable device 100, but may be provided separately.

(b)上記実施の形態において、基準点、基準平面および上空平面はカメラ40の起動時におけるレンズ41の位置および方向に基づいて設定されるが、本発明はこれに限定されない。基準点、基準平面および上空平面は、所望の時点で設定されてもよい。例えば、使用者が携帯装置100の特定のスイッチを操作することにより基準点、基準平面および上空平面が設定されてもよい。また、基準点、基準平面および上空平面は、レンズ41の位置および方向とは無関係に固定的に現実空間に設定されてもよい。 (b) In the above embodiment, the reference point, reference plane and sky plane are set based on the position and direction of the lens 41 when the camera 40 is activated, but the present invention is not limited to this. The reference point, reference plane and sky plane may be set at any desired time. For example, the user may set the reference point, the reference plane, and the sky plane by operating specific switches on the mobile device 100 . Also, the reference point, the reference plane and the sky plane may be fixedly set in the physical space regardless of the position and direction of the lens 41 .

(c)上記実施の形態において、基準平面と携帯装置との相対位置関係を算出するために、レンズ41の位置および方向が携帯装置100の位置および方向として扱われるが、本発明はこれに限定されない。携帯装置100の所望の部分の位置および方向が携帯装置100の位置および方向として扱われてもよい。 (c) In the above embodiment, the position and direction of lens 41 are treated as the position and direction of portable device 100 in order to calculate the relative positional relationship between the reference plane and the portable device, but the present invention is limited to this. not. The position and orientation of a desired portion of mobile device 100 may be treated as the position and orientation of mobile device 100 .

(d)上記実施の形態において、加速度センサ20により検出される重力加速度の方向、電子コンパス30により検出される地磁気の方向およびカメラ40により生成される撮像データに基づいて携帯装置100の位置および方向が算出されるが、本発明はこれに限定されない。携帯装置100がGPS(Global Positioning System)等の衛星を用いた測位システムを有する場合には、測位システムにより取得された測位情報に基づいて携帯装置100の位置または方向が算出されてもよい。この場合、携帯装置100に加速度センサ20、電子コンパス30またはカメラ40が設けられなくてもよい。 (d) In the above embodiment, the position and direction of portable device 100 based on the direction of gravitational acceleration detected by acceleration sensor 20, the direction of geomagnetism detected by electronic compass 30, and image data generated by camera 40. is calculated, but the present invention is not limited to this. If the mobile device 100 has a positioning system using satellites such as GPS (Global Positioning System), the position or direction of the mobile device 100 may be calculated based on the positioning information acquired by the positioning system. In this case, mobile device 100 may not be provided with acceleration sensor 20 , electronic compass 30 or camera 40 .

(e)上記実施の形態において、地図データ取得部3は三次元の地図データを取得するが、本発明はこれに限定されない。地図データ取得部3は二次元の地図データを取得してもよい。この場合、基準平面には、二次元の地図画像が仮想的に配置されることとなる。また、基準平面には、三次元ではなく二次元の気象画像が仮想的に配置されてもよい。 (e) In the above embodiment, the map data acquisition section 3 acquires three-dimensional map data, but the present invention is not limited to this. The map data acquisition unit 3 may acquire two-dimensional map data. In this case, a two-dimensional map image is virtually arranged on the reference plane. Also, a two-dimensional weather image instead of a three-dimensional weather image may be virtually arranged on the reference plane.

(f)上記実施の形態においては、相対位置関係の変化に応じて地図画像の位置、大きさおよび向きの少なくとも1つが変化するように、地図データに基づいて地図画像データが生成される。また、相対位置関係の変化に応じて気象画像の位置、大きさおよび向きの少なくとも1つが変化するように、気象データに基づいて気象画像データが生成される。これらの地図画像データおよび気象画像データが合成されることにより合成画像データが生成される。しかしながら、本発明は、上記の例に限定されない。 (f) In the above embodiment, the map image data is generated based on the map data such that at least one of the position, size and orientation of the map image changes according to the change in the relative positional relationship. Further, weather image data is generated based on the weather data such that at least one of the position, size and orientation of the weather image changes according to changes in the relative positional relationship. Synthetic image data is generated by synthesizing the map image data and the weather image data. However, the invention is not limited to the above examples.

例えば、相対位置関係に依存せずに、地図データに基づいて地図画像データが生成され、気象データに基づいて気象画像データが生成され、地図画像データおよび気象画像データが合成されることにより合成画像データが生成されてもよい。この場合、相対位置関係の変化に応じて、合成画像における地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように合成画像データが変化される。また、相対位置関係の変化に応じて、地図画像および気象画像の両方が視覚的に見て特定の基準位置付近に表示されるように合成画像データを生成する限りにおいて、種々の実施の形態の変形を行うことが可能である。 For example, without depending on the relative positional relationship, map image data is generated based on the map data, weather image data is generated based on the weather data, and the map image data and the weather image data are synthesized to create a composite image. Data may be generated. In this case, the composite image data is changed such that at least one of the position, size and orientation of the map image and the weather image in the composite image changes according to the change in the relative positional relationship. In addition, as long as the combined image data is generated so that both the map image and the weather image are visually displayed near a specific reference position according to the change in the relative positional relationship, various embodiments are possible. Transformations are possible.

1…基準設定部,2…相対位置関係算出部,3…地図データ取得部,4…地図画像データ生成部,5…気象データ取得部,6…気象画像データ生成部,7…画像データ合成部,10…気象分布表示装置,20…加速度センサ,30…電子コンパス,40…カメラ,41…レンズ,42…光軸,50…位置方向算出部,60…記憶部,70…通信部,80…表示部,100…携帯装置,200…気象サーバ,G1…降水量画像,G2…降水強度分布画像,G3…雲分布画像,R1…基準点,R2…基準平面,R3…上空平面 REFERENCE SIGNS LIST 1: reference setting unit 2: relative positional relationship calculation unit 3: map data acquisition unit 4: map image data generation unit 5: weather data acquisition unit 6: weather image data generation unit 7: image data synthesis unit , 10... Weather distribution display device, 20... Acceleration sensor, 30... Electronic compass, 40... Camera, 41... Lens, 42... Optical axis, 50... Position/direction calculation unit, 60... Storage unit, 70... Communication unit, 80... Display unit 100 Portable device 200 Weather server G1 Precipitation image G2 Precipitation intensity distribution image G3 Cloud distribution image R1 Reference point R2 Reference plane R3 Sky plane

Claims (1)

携帯装置の表示部に気象分布を表示させる気象分布表示装置であって、
現実空間に固定的な基準平面と基準点を仮想的に設定する基準設定部と、
地図を示す地図データを取得する地図データ取得部と、
気象分布を示す気象データを取得する気象データ取得部と、
前記携帯装置に一体に備えられたカメラと、
前記カメラの撮像方向を検出する検出器と
前記基準点と前記携帯装置との相対位置関係を算出する相対位置関係算出部と、
前記地図データに基づいて立体感を有する地図画像を示す二次元の地図画像データを生成するとともに、前記気象データに基づいて地図画像に重畳されかつ気象分布に対応する立体感を有する気象画像を示す二次元の気象画像データを生成する画像データ生成部とを備え、
前記基準設定部は、現実空間に固定的な第1の基準平面を仮想的に設定し、前記第1の基準面上に前記基準点を設定し、前記地図画像を前記第1の基準平面に仮想的に配置し、
前記相対位置関係算出部は、前記カメラにより得られる合焦した被写体の画像を示す逐次的に取得される撮像データ、および前記検出器により検出される撮像方向に基づいて、前記カメラから前記基準点に向かう方向および前記基準点と前記カメラとの間の距離を前記相対位置関係として算出し、
前記画像データ生成部は、前記地図画像データおよび前記気象画像データを合成することにより合成画像データを生成し、生成された前記合成画像データに基づく合成画像を前記表示部に表示させるとともに、前記相対位置関係の変化に応じて、地図画像および気象画像の位置、大きさおよび向きの少なくとも1つが変化するように前記地図画像データおよび前記気象画像データを変化させ、さらに前記画像 データ生成部は、前記基準平面に仮想的に配置された前記地図画像が前記携帯装置の位置から視認された際に認識可能な地図画像を示す前記地図画像データを、前記相対位置関係、および前記地図データに基づいて生成するとともに、前記基準平面の仮想的な地図画像に重畳するように前記基準平面に仮想的に配置された気象画像が前記携帯装置の位置から視認された際に認識可能な気象画像を示す前記気象画像データを、前記相対位置関係および前記気象データに基づいて生成する気象分布表示装置。
A weather distribution display device for displaying weather distribution on a display unit of a portable device,
a reference setting unit that virtually sets a fixed reference plane and a reference point in the real space;
a map data acquisition unit that acquires map data representing a map;
a weather data acquisition unit that acquires weather data indicating weather distribution;
a camera integrated with the portable device ;
a detector that detects the imaging direction of the camera;
a relative positional relationship calculator that calculates a relative positional relationship between the reference point and the portable device;
Two-dimensional map image data representing a map image having a three-dimensional effect is generated based on the map data, and a weather image having a three-dimensional effect corresponding to the weather distribution is superimposed on the map image based on the weather data. an image data generation unit that generates two-dimensional weather image data,
The reference setting unit virtually sets a first reference plane that is fixed in the physical space, sets the reference point on the first reference plane, and places the map image on the first reference plane. placed virtually,
The relative positional relationship calculation unit calculates the distance from the camera to the reference point based on sequentially acquired image data indicating a focused image of a subject obtained by the camera and the imaging direction detected by the detector. calculating the direction toward and the distance between the reference point and the camera as the relative positional relationship;
The image data generation unit generates composite image data by combining the map image data and the weather image data, causes the display unit to display a composite image based on the generated composite image data, and displays the relative image data. changing the map image data and the weather image data so that at least one of the position, size and orientation of the map image and the weather image changes according to a change in positional relationship ; generating the map image data representing a map image that is recognizable when the map image virtually arranged on the reference plane is viewed from the position of the portable device, based on the relative positional relationship and the map data; Also, the weather image that is virtually placed on the reference plane so as to be superimposed on the virtual map image on the reference plane shows a recognizable weather image when viewed from the position of the portable device. A weather distribution display device that generates image data based on the relative positional relationship and the weather data.
JP2017169248A 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM Active JP7140478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017169248A JP7140478B2 (en) 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169248A JP7140478B2 (en) 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Publications (2)

Publication Number Publication Date
JP2019045325A JP2019045325A (en) 2019-03-22
JP7140478B2 true JP7140478B2 (en) 2022-09-21

Family

ID=65816226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169248A Active JP7140478B2 (en) 2017-09-04 2017-09-04 WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Country Status (1)

Country Link
JP (1) JP7140478B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172971A1 (en) * 2021-02-09 2022-08-18 株式会社スカイマティクス Thematic drawing creation device, and thematic drawing creation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186691A (en) 2012-03-08 2013-09-19 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014142847A (en) 2013-01-25 2014-08-07 Masanori Ihara Service method for providing information in augmented reality
JP2014240754A (en) 2013-06-11 2014-12-25 株式会社島津ビジネスシステムズ Meteorological information provision device and meteorological information provision program
JP2017142856A (en) 2017-05-02 2017-08-17 アキュウェザー, インク.Accuweather, Inc. Customizable weather analysis system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6223916B2 (en) * 2014-06-25 2017-11-01 株式会社東芝 Information processing apparatus, method, and program
JP5812550B1 (en) * 2014-10-10 2015-11-17 ビーコア株式会社 Image display device, image display method, and program
US10330826B2 (en) * 2015-07-23 2019-06-25 Hartford Fire Insurance Company System for sensor enabled reporting and notification in a distributed network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186691A (en) 2012-03-08 2013-09-19 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014142847A (en) 2013-01-25 2014-08-07 Masanori Ihara Service method for providing information in augmented reality
JP2014240754A (en) 2013-06-11 2014-12-25 株式会社島津ビジネスシステムズ Meteorological information provision device and meteorological information provision program
JP2017142856A (en) 2017-05-02 2017-08-17 アキュウェザー, インク.Accuweather, Inc. Customizable weather analysis system

Also Published As

Publication number Publication date
JP2019045325A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP5980295B2 (en) Camera posture determination method and real environment object recognition method
TWI483215B (en) Augmenting image data based on related 3d point cloud data
JP6155510B2 (en) Weather information providing apparatus and weather information providing program
US20110261187A1 (en) Extracting and Mapping Three Dimensional Features from Geo-Referenced Images
JP6672315B2 (en) Image generation device and image display control device
CN108269305A (en) A kind of two dimension, three-dimensional data linkage methods of exhibiting and system
US11042961B2 (en) Spatial processing for map geometry simplification
TW200825984A (en) Modeling and texturing digital surface models in a mapping application
US20130127852A1 (en) Methods for providing 3d building information
CN108352086A (en) It determines and solar flux information is presented
CN104867181A (en) Fast displaying and drawing method of weather elements on three dimensional earth model
KR20140090022A (en) Method and Apparatus for displaying the video on 3D map
JP6087712B2 (en) DISTRIBUTION DATA DISPLAY DEVICE, METHOD, AND PROGRAM
KR101729942B1 (en) Method for providing meteorological model in urban area, and apparatus and computer-readable recording media using the same
JP2013196616A (en) Information terminal device and information processing method
CN112348886A (en) Visual positioning method, terminal and server
CN111612901A (en) Extraction feature and generation method of geographic information image
JP2019027799A (en) Positioning accuracy information calculation device and positioning accuracy information calculation method
JP2014240754A5 (en)
KR101220271B1 (en) Numerical map manufacturing system for posting of reality building based on gps
JP6665402B2 (en) Content display terminal, content providing system, content providing method, and content display program
US20150009326A1 (en) Photographing plan creation device and program and method for the same
CN105917329B (en) Information display device and information display program
US20090019382A1 (en) Systems and methods for side angle radar training and simulation
JP7140478B2 (en) WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211012

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20211109

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211209

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211214

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220107

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220118

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220201

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220802

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220906

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150