JP2019125342A - Program, information processing device and information processing method - Google Patents

Program, information processing device and information processing method Download PDF

Info

Publication number
JP2019125342A
JP2019125342A JP2018186847A JP2018186847A JP2019125342A JP 2019125342 A JP2019125342 A JP 2019125342A JP 2018186847 A JP2018186847 A JP 2018186847A JP 2018186847 A JP2018186847 A JP 2018186847A JP 2019125342 A JP2019125342 A JP 2019125342A
Authority
JP
Japan
Prior art keywords
terminal
display image
control unit
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018186847A
Other languages
Japanese (ja)
Inventor
重里 糸井
Shigesato Itoi
重里 糸井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hobonichi Co Ltd
Original Assignee
Hobonichi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hobonichi Co Ltd filed Critical Hobonichi Co Ltd
Priority to JP2018186847A priority Critical patent/JP2019125342A/en
Publication of JP2019125342A publication Critical patent/JP2019125342A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a program which enables each user to freely set a content.SOLUTION: An information processing program causes a computer to execute processes to: receive selection of display image to be superimposed on a photographed image of a sphere having a marker on a surface thereof; acquire positional information corresponding to the display image; and transmit the received display image and acquired positional information in association with a user ID. Thus, the information processing program enables each user to freely set a content.SELECTED DRAWING: Figure 1

Description

本発明は、プログラム、情報処理装置及び情報処理方法に関する。   The present invention relates to a program, an information processing apparatus, and an information processing method.

近年、AR(Augmented Reality)システムを用いた商品の開発が行われている。AR
システムでは、スマートフォン、タブレット端末、携帯ゲーム機等のようにカメラ及び表示部を有する情報機器に、ARマーカを認識するためのアプリケーションプログラムをインストールしておく。このような情報機器を用いて、ARマーカが付された被写体を撮影すると、情報機器がARマーカを認識し、認識したARマーカに応じたコンテンツを、撮影画像の上に重ねて表示する。これにより、ユーザは、撮影対象の被写体にコンテンツが重畳された画像を表示部にて見ることができる。特許文献1には、立体対象物を撮影し、撮影した画像中の立体対象物の上に画像又は文字等の付加情報を重ねて表示するシステムが開示されている。
In recent years, products have been developed using an augmented reality (AR) system. AR
In the system, an application program for recognizing an AR marker is installed in an information device having a camera and a display unit such as a smartphone, a tablet terminal, a portable game machine, and the like. When the subject with the AR marker is photographed using such an information device, the information device recognizes the AR marker, and the content corresponding to the recognized AR marker is superimposed on the photographed image and displayed. Thus, the user can view an image in which the content is superimposed on the subject to be photographed on the display unit. Patent Document 1 discloses a system for photographing a three-dimensional object and superimposing additional information such as an image or a character on the three-dimensional object in the photographed image.

特開2013−92407号公報JP, 2013-92407, A

しかしながら、従来の技術では、被写体の撮影画像に重ねて表示されるコンテンツは業者から一方的に提供されるものにすぎないという問題がある。   However, in the prior art, there is a problem that the content displayed superimposed on the photographed image of the subject is only provided unilaterally from the vendor.

本発明は斯かる事情によりなされたものであって、その目的とするところは、各ユーザが自由にコンテンツの設定を行うことが可能なプログラム等を提供することにある。   The present invention has been made under such circumstances, and an object of the present invention is to provide a program and the like that allow each user to freely set contents.

本発明に係る情報処理プログラムは、コンピュータに、マーカを表面に有する球体は複数種類存在し、前記球体を識別する球体IDを特定し、前記球体の撮影画像に重ねて表示するためのコンテンツの選択を受け付け、前記コンテンツに対応する位置情報を取得し、受け付けた前記コンテンツ及び取得した前記位置情報を、特定した前記球体ID及びユーザIDに関連付けて送信する処理を実行させることを特徴とする。   In the information processing program according to the present invention, a plurality of types of spheres having markers on the surface exist in a computer, a sphere ID identifying the spheres is specified, and selection of content for overlapping and displaying on a photographed image of the spheres , And acquires position information corresponding to the content, and executes processing for transmitting the received content and the acquired position information in association with the specified sphere ID and user ID.

本発明によれば、各ユーザが自由にコンテンツの設定を行うことが可能なプログラム等を提供することができる。   According to the present invention, it is possible to provide a program or the like which allows each user to set contents freely.

ARシステムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of AR system. 実施形態1のサーバの構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a server according to the first embodiment. 実施形態1のユーザDBのレコードレイアウトの一例を示す説明図である。5 is an explanatory diagram showing an example of a record layout of the user DB of the first embodiment. FIG. 表示画像DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of display image DB. 説明情報DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of explanatory information DB. 公開情報DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of open information DB. 端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of a terminal. 実施形態1のARシステムの動作を説明する説明図である。FIG. 6 is an explanatory diagram for explaining the operation of the AR system of the first embodiment. 位置情報の取得例を示すイメージ図である。It is an image figure showing an example of acquisition of position information. 端末によるユーザIDの取得例を示すイメージ図である。It is an image figure showing an example of acquisition of user ID by a terminal. 実施形態1の端末が表示画像を送信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 1 transmitting a display image. 実施形態1の端末が表示画像を受信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 1 receiving a display image. 実施形態1の端末の説明情報を示す説明図である。FIG. 6 is an explanatory view showing the explanatory information of the terminal of the embodiment 1; 実施形態1の端末が説明情報を送信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 1 transmitting explanatory information. 実施形態1の端末が説明情報を受信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 1 receiving explanatory information. 実施形態1の端末が公開情報を送信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 1 transmitting publication | presentation information. 実施形態1の端末が公開情報に基づき表示画像を受信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 1 receiving a display image based on open information. 実施形態1の公開範囲判定のサブルーチンの処理手順を示すフローチャートである。5 is a flowchart showing a processing procedure of a subroutine of open range determination according to the first embodiment. 実施形態2の端末の順序表示の動作を説明する説明図である。FIG. 14 is an explanatory view for explaining an operation of order display of the terminal of the embodiment 2; 実施形態2の端末が複数の表示画像を受信する際の日時の順にソート処理手順を示すフローチャートである。It is a flowchart which shows the sort process procedure in order of the date at the time of the terminal of Embodiment 2 receiving several display images. 実施形態2の端末が切り替え表示を行う際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 2 performing switching display. 実施形態2の端末のソート処理手順を示すフローチャートである。It is a flowchart which shows the sort process procedure of the terminal of Embodiment 2. FIG. 実施形態2の端末の軌跡情報を含む動作を説明する説明図である。FIG. 14 is an explanatory diagram for explaining an operation including trajectory information of the terminal of the second embodiment. 実施形態2の端末が軌跡情報を含む切り替え表示を行う際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 2 performing the switching display containing locus | trajectory information. 実施形態3のサーバの構成例を示すブロック図である。FIG. 18 is a block diagram showing an example of the configuration of a server according to a third embodiment. 実施形態3のユーザDBのレコードレイアウトの一例を示す説明図である。FIG. 18 is an explanatory drawing showing an example of the record layout of the user DB of the third embodiment. 音楽DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of music DB. 実施形態3のARシステムの動作を説明する説明図である。FIG. 18 is an explanatory diagram for explaining the operation of the AR system of the third embodiment. 実施形態3の端末が表示画像及び音楽を送信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 3 transmitting a display image and a music. 実施形態3の端末が表示画像及び音楽を受信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 3 receiving a display image and music. 実施形態3のゲームの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the game of Embodiment 3. FIG. 実施形態4のサーバの構成例を示すブロック図である。FIG. 18 is a block diagram illustrating an exemplary configuration of a server according to a fourth embodiment. 実施形態4のユーザDBのレコードレイアウトの一例を示す説明図である。FIG. 18 is an explanatory view showing an example of a record layout of the user DB of the fourth embodiment. 球体DBのレコードレイアウトの一例を示す説明図である。It is an explanatory view showing an example of a record layout of sphere DB. 実施形態4のARシステムの動作を説明する説明図である。FIG. 18 is an explanatory diagram for explaining the operation of the AR system of the fourth embodiment. 実施形態4の端末が球体IDに基づき表示画像を送信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 4 transmitting a display image based on bulb | ball ID. 実施形態4の端末が球体IDに基づき表示画像を受信する際の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of the terminal of Embodiment 4 receiving a display image based on bulb | ball ID.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。   Hereinafter, the present invention will be described in detail based on the drawings showing the embodiments.

(実施形態1)
図1は、ARシステムの構成例を示す模式図である。本実施形態のARシステムは、情報処理装置1、情報処理端末2、及びARマーカ(マーカ)を表面に有する球体であるアースボール3を含む。情報処理装置1と情報処理端末2はインターネット等のネットワークNを介して情報の送受信を行う。
(Embodiment 1)
FIG. 1 is a schematic view showing a configuration example of an AR system. The AR system of the present embodiment includes an information processing apparatus 1, an information processing terminal 2, and an earth ball 3 which is a sphere having an AR marker (marker) on its surface. The information processing apparatus 1 and the information processing terminal 2 transmit and receive information via the network N such as the Internet.

情報処理装置1は、種々の情報処理、情報記憶及び情報送受信を行う情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ等である。本実施形態において情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。   The information processing apparatus 1 is an information processing apparatus that performs various information processing, information storage, and information transmission and reception, and is, for example, a server apparatus, a personal computer, or the like. In the present embodiment, the information processing apparatus 1 is assumed to be a server apparatus, and hereinafter the server 1 will be read for simplicity.

情報処理端末2は、各ユーザの端末装置であり、例えばスマートフォン、携帯電話、タブレット、パーソナルコンピュータ端末、ゲーム機等の情報処理機器である。以下では簡潔のため、情報処理端末2を端末2と読み替える。   The information processing terminal 2 is a terminal device of each user, and is, for example, an information processing device such as a smartphone, a mobile phone, a tablet, a personal computer terminal, or a game machine. Hereinafter, the information processing terminal 2 is replaced with the terminal 2 for the sake of simplicity.

アースボール3を被写体とし、アースボール3を端末2で撮影して使用する。アースボール3は例えば空気を充填することにより球体となるPVC(ポリ塩化ビニル)製のボールであるが、これに限られない。アースボール3の表面には、地球上の地図が印刷されており、地図中の適宜位置にARマーカが付されている。例えば図1に示す例では、地図中の海及び大陸のそれぞれに名称が付されており、各国及び都市のそれぞれに国名及び都市名が付されている。これらの文字はARマーカを構成する。また、図1では省略しているが、地図中に各国の国境線が含まれており、国境線もARマーカを構成する。また、地図中の河川、平野、山脈等は地形毎に所定の色で色分けされており、各色もARマーカを構成する。更に、地図中の海にはそれぞれの海、海域等を識別するために所定のマークM1〜M4(例えば船のマークM1、M2、亀又はカモメ等の動物のマークM3、M4)が付されている。また、地図中の大陸にはそれぞれの大陸、地域等を識別するために所定のマークM5〜M7が付されている。これらのマークM1〜M7もARマーカを構成する。   The earth ball 3 is taken as a subject, and the earth ball 3 is photographed by the terminal 2 and used. The earth ball 3 is, for example, a ball made of PVC (polyvinyl chloride) that becomes a sphere by being filled with air, but is not limited thereto. A map on the earth is printed on the surface of the earth ball 3 and AR markers are attached to appropriate positions in the map. For example, in the example shown in FIG. 1, each of the sea and the continent in the map is given a name, and each country and the city are given a country name and a city name. These characters constitute an AR marker. Moreover, although omitted in FIG. 1, the border lines of each country are included in the map, and the border lines also constitute an AR marker. Further, rivers, plains, mountain ranges, etc. in the map are color-coded with predetermined colors for each topography, and each color also constitutes an AR marker. Furthermore, the seas in the map are marked with predetermined marks M1 to M4 (for example, marks M1 and M2 of ships, and marks M3 and M4 of animals such as turtles or gulls) to identify the respective seas, sea areas, etc There is. In addition, predetermined marks M5 to M7 are attached to the continents in the map in order to identify the respective continents, regions, and the like. These marks M1 to M7 also constitute an AR marker.

図2は、実施形態1のサーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、大容量記憶部14、読み取り部15を含む。各構成はバスBで接続されている。   FIG. 2 is a block diagram showing a configuration example of the server 1 of the first embodiment. The server 1 includes a control unit 11, a storage unit 12, a communication unit 13, a large capacity storage unit 14, and a reading unit 15. Each configuration is connected by a bus B.

制御部11はCPU(Central Processing Unit)、MPU(Micro−Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1Pを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、図2では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための処理回路等を含み、ネットワークNを介して、端末2等と情報の送受信を行う。   The control unit 11 includes an arithmetic processing unit such as a central processing unit (CPU) or a micro-processing unit (MPU), and reads and executes the control program 1P stored in the storage unit 12 to execute various types of processing related to the server 1. Perform information processing, control processing, etc. Although the control unit 11 is described as a single processor in FIG. 2, it may be a multiprocessor. The storage unit 12 includes memory elements such as a random access memory (RAM) and a read only memory (ROM), and stores a control program 1 P or data required for the control unit 11 to execute a process. In addition, the storage unit 12 temporarily stores data and the like necessary for the control unit 11 to execute arithmetic processing. The communication unit 13 includes a processing circuit and the like for performing processing related to communication, and transmits and receives information with the terminal 2 and the like through the network N.

大容量記憶部14は、例えばハードディスク等を含む大容量の記憶装置である。大容量記憶部14は、ユーザDB141、表示画像DB142、説明情報DB143、公開情報DB144を記憶している。ユーザDB141は、各ユーザに関するユーザ情報、表示画像ID及び位置情報を記憶している。表示画像DB142は、アースボール3の撮影画像に重ねて表示するための種々の表示画像を記憶している。説明情報DB143は、表示画像に対する音声又はテキスト形式の説明情報を記憶している。公開情報DB144は、表示画像に対する公開情報を記憶している。   The large capacity storage unit 14 is a large capacity storage device including, for example, a hard disk. The large capacity storage unit 14 stores a user DB 141, a display image DB 142, an explanatory information DB 143, and a public information DB 144. The user DB 141 stores user information on each user, display image ID and position information. The display image DB 142 stores various display images to be superimposed and displayed on the photographed image of the earth ball 3. The explanatory information DB 143 stores explanatory information in the form of voice or text for the display image. The public information DB 144 stores public information on display images.

なお、本実施形態において記憶部12及び大容量記憶部14は一体の記憶装置として構成されていても良い。また、大容量記憶部14は複数の記憶装置により構成されていても良い。また、大容量記憶部14はサーバ1に接続された外部記憶装置であっても良い。   In the present embodiment, the storage unit 12 and the large capacity storage unit 14 may be configured as an integrated storage device. Further, the large capacity storage unit 14 may be configured by a plurality of storage devices. Further, the mass storage unit 14 may be an external storage device connected to the server 1.

読み取り部15は、CD(Compact Disc)−ROM又はDVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読み取り部15を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部14に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部14に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。   The reading unit 15 reads a portable storage medium 1 a including a CD (Compact Disc) -ROM or a DVD (Digital Versatile Disc) -ROM. The control unit 11 may read the control program 1 P from the portable storage medium 1 a via the reading unit 15 and store the control program 1 P in the large-capacity storage unit 14. The control unit 11 may download the control program 1P from another computer via the network N or the like and store the control program 1P in the large-capacity storage unit 14. Furthermore, the control unit 11 may read the control program 1P from the semiconductor memory 1b.

なお、本実施形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、サーバ1に係る情報を表示する表示部等を含んでも良い。なお、本実施形態でサーバ1は単体のものとして説明するがこれに限るものではない。例えば物理的に複数のサーバにより構成されていても良く、また複数の仮想マシンにより構成されていても良い。   In the present embodiment, the server 1 is not limited to the above configuration, and may include, for example, an input unit that receives an operation input, and a display unit that displays information related to the server 1. In addition, although the server 1 is demonstrated as a single-piece thing by this embodiment, it does not restrict to this. For example, they may be physically configured by a plurality of servers, or may be configured by a plurality of virtual machines.

図3は、実施形態1のユーザDB141のレコードレイアウトの一例を示す説明図である。ユーザDB141は、ユーザID列、ユーザランク列、画像ID列、位置(緯度、経度)列を含む。ユーザID列は、各ユーザを識別するために、一意に特定されるユーザのIDを記憶している。ユーザランク列は、ユーザアカウントのランク情報を記憶している。例えば、ユーザのランクは「レギュラー」、「シルバー」、「ゴールド」の三つのランクが設けられている。ユーザのランクに対するポイント制を導入し、購入回数、購入金額等によりポイントを加算し、ポイントがある一定まで到達すると、「レギュラー」、「シルバー」、「ゴールド」の順にランクアップする。画像ID列は、アースボール3の撮影画像に重ねて表示するための表示画像のIDを記憶している。位置(緯度、経度)列は、表示画像に関連付けられた位置情報を記憶している。位置情報は緯度、経度を含む。なお、位置情報は郵便番号、住所又は施設名等であっても良い。   FIG. 3 is an explanatory view showing an example of the record layout of the user DB 141 of the first embodiment. The user DB 141 includes a user ID column, a user rank column, an image ID column, and a position (latitude, longitude) column. The user ID column stores the ID of the uniquely identified user in order to identify each user. The user rank column stores rank information of user accounts. For example, the rank of the user is provided with three ranks of “regular”, “silver”, and “gold”. A point system for the user's rank is introduced, points are added according to the number of purchases, purchase price, etc., and when the points reach a certain level, ranks up in the order of "regular", "silver", "gold". The image ID column stores an ID of a display image to be displayed superimposed on the photographed image of the earth ball 3. The position (latitude, longitude) column stores position information associated with the display image. Position information includes latitude and longitude. The position information may be a zip code, an address or a facility name.

図4は、表示画像DB142のレコードレイアウトの一例を示す説明図である。表示画像DB142は、画像ID列、タイプ列、画像列、説明情報ID列、公開情報ID列を含む。画像ID列は、表示画像を識別するために、一意に特定される表示画像のIDを記憶している。タイプ列は、表示画像の種類を記憶している。表示画像の種類は、静止画像、立体画像、動画を含む。画像列は、画像IDに対応する表示画像のデータを記憶している。説明情報ID列は、表示画像に関連付けられた説明情報のIDを記憶している。公開情報ID列は、表示画像に関連付けられた公開情報のIDを記憶している。なお、表示画像毎に公開情報を設定することに限らず、コンテンツ全体に対し公開情報を設定しても良い。例えば、ユーザの友人に対して、当該ユーザのすべての表示画像を公開しても良い。   FIG. 4 is an explanatory view showing an example of the record layout of the display image DB 142. As shown in FIG. The display image DB 142 includes an image ID column, a type column, an image column, a description information ID column, and a public information ID column. The image ID column stores the ID of the display image uniquely identified in order to identify the display image. The type column stores the type of display image. Types of display images include still images, stereoscopic images, and moving images. The image sequence stores data of a display image corresponding to the image ID. The explanation information ID column stores the ID of the explanation information associated with the display image. The public information ID column stores the ID of public information associated with the display image. The disclosure information is not limited to setting the disclosure information for each display image, and the disclosure information may be set for the entire content. For example, all display images of the user may be disclosed to the friend of the user.

図5は、説明情報DB143のレコードレイアウトの一例を示す説明図である。説明情報DB143は、説明情報ID列、タイプ列、説明情報列を含む。説明情報ID列は、表示画像に関連付けられた説明情報を識別するために、一意に特定される説明情報のIDを記憶している。タイプ列は、説明情報の種類を記憶している。説明情報の種類は、音声情報又はテキスト情報を含む。テキスト情報は単なる文字でも良く、またURL(Uniform Resource Locator)等を含む文字でも良い。説明情報列は、説明情報IDに対応する音声データ又はテキストデータを記憶している。   FIG. 5 is an explanatory view showing an example of the record layout of the explanation information DB 143. As shown in FIG. The explanatory information DB 143 includes an explanatory information ID column, a type column, and an explanatory information column. The explanation information ID column stores the ID of the uniquely specified explanation information in order to identify the explanation information associated with the display image. The type column stores the type of explanatory information. The type of explanatory information includes voice information or text information. The text information may be a simple character or may be a character including a URL (Uniform Resource Locator) or the like. The explanation information string stores voice data or text data corresponding to the explanation information ID.

図6は、公開情報DB144のレコードレイアウトの一例を示す説明図である。公開情報DB144は、公開情報ID列、タイプ列、公開範囲列を含む。公開情報ID列は、公開情報を識別するために、一意に特定される公開情報のIDを記憶している。タイプ列は、公開の種類である。本実施形態において、公開の種類は公開、非公開及び一部公開を含む。公開範囲列は、公開情報IDに対応する公開範囲の情報を記憶している。本実施形態において、公開タイプは「公開」、「非公開」、「一部公開」に分類される。公開タイプに「公開」を設定した場合、公開範囲列に「全員」を設定する。公開タイプに「非公開」を設定した場合、公開範囲列に「−」を設定する。公開タイプに「一部公開」を設定した場合、公開範囲列にユーザのランクを設定する。ユーザのランクは、例えば、ユーザDB141のユーザランクと同じランクであり、「レギュラー」、「シルバー」、「ゴールド」の三つのランクがある。ユーザのランクに応じて公開範囲を設定することにより、先行販売情報、販促品情報又はお得な特典情報等を特定のユーザに対してだけ公開することが可能となる。   FIG. 6 is an explanatory view showing an example of the record layout of the public information DB 144. As shown in FIG. The public information DB 144 includes a public information ID column, a type column, and a public range column. The public information ID column stores the ID of the uniquely identified public information in order to identify the public information. The type column is the type of publication. In the present embodiment, the types of publication include publication, non-publication and partial publication. The disclosure range column stores information on the disclosure range corresponding to the disclosure information ID. In the present embodiment, the disclosure types are classified into "disclosure", "disclosure", and "partial disclosure". If "Public" is set as the public type, "All" is set in the Public range column. When "disclosure" is set as the disclosure type, "-" is set in the disclosure range column. When "partial release" is set for the release type, the rank of the user is set in the release range column. The rank of the user is, for example, the same rank as the user rank of the user DB 141, and there are three ranks of "regular", "silver", and "gold". By setting the disclosure range in accordance with the rank of the user, it becomes possible to disclose the pre-sales information, the sales promotion item information, the advantageous bonus information, and the like only to a specific user.

なお、公開範囲は上記の構成に限られず、例えば世界の地域に基づき、公開範囲を設定しても良い。具体的には、地理学的な区分によるアフリカ、アジア、ヨーロッパ、北米、中南米、オセアニア(大洋州)の6つに分ければ良い。更に細かく、例えばアフリカに対して、東アフリカ、中央アフリカ、北アフリカ、南アフリカ、西アフリカに分けても良い。地域に応じて公開範囲を設定することにより、先行販売地域、通信販売禁止地域又は販売終了地域等様々なサービスを提供することが可能となる。さらにまた、ユーザが自由に公開範囲を設定しても良い。例えば、ユーザが指定した友人のみに公開するようしても良い。   Note that the disclosure range is not limited to the above configuration, and the disclosure range may be set based on, for example, the region of the world. Specifically, it may be divided into six according to geographical division: Africa, Asia, Europe, North America, Central and South America, Oceania (Pacific State). Further, for example, with respect to Africa, East Africa, Central Africa, North Africa, South Africa, West Africa may be divided. By setting the release range according to the area, it is possible to provide various services such as a presales area, a mail order prohibited area or a sale end area. Furthermore, the user may freely set the disclosure range. For example, the information may be disclosed only to friends specified by the user.

図7は、端末2の構成例を示すブロック図である。端末2は、制御部21、記憶部22、通信部23、アルバム24、入力部25、表示部26、撮影部27、時計部28、マイク29、スピーカ20を含む。各構成はバスBで接続されている。   FIG. 7 is a block diagram showing a configuration example of the terminal 2. The terminal 2 includes a control unit 21, a storage unit 22, a communication unit 23, an album 24, an input unit 25, a display unit 26, a photographing unit 27, a clock unit 28, a microphone 29, and a speaker 20. Each configuration is connected by a bus B.

制御部21はCPU、MPU等の演算処理装置を含み、記憶部22に記憶された制御プログラム2Pを読み出して実行することにより、端末2に係る種々の情報処理、制御処理等を行う。なお、図7では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部22はRAM、ROM等のメモリ素子を含み、制御部21が処理を実行するために必要な制御プログラム2P又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部23は通信に関する処理を行うための処理回路等を含み、ネットワークNを介して、サーバ1と情報の送受信を行う。アルバム24は、表示画像、音楽を含む。入力部25は、キーボード又はマウスである。表示部26は液晶表示装置である。また、入力部25は表示部26と一体化したタッチパネルでも良い。   The control unit 21 includes an arithmetic processing unit such as a CPU and an MPU, and reads and executes the control program 2P stored in the storage unit 22 to perform various information processing, control processing, and the like related to the terminal 2. Although the control unit 21 is described as a single processor in FIG. 7, it may be a multiprocessor. The storage unit 22 includes memory elements such as a RAM and a ROM, and stores a control program 2P or data required for the control unit 21 to execute a process. The storage unit 22 also temporarily stores data and the like necessary for the control unit 21 to execute arithmetic processing. The communication unit 23 includes a processing circuit and the like for performing processing related to communication, and transmits and receives information to and from the server 1 via the network N. The album 24 includes a display image and music. The input unit 25 is a keyboard or a mouse. The display unit 26 is a liquid crystal display device. Further, the input unit 25 may be a touch panel integrated with the display unit 26.

撮影部27は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary metal Oxide Semiconductor)カメラ等の撮影装置である。制御部21は、撮影部27によりアースボール3の撮影画像中の球体表面のマーカ情報又はQRコード(登録商標)等を認識することが可能となる。なお、撮影部27は端末2の中に内蔵せず、外部で直接に端末2と接続し、撮影可能な構成としても良い。   The photographing unit 27 is, for example, a photographing device such as a charge coupled device (CCD) camera or a complementary metal oxide semiconductor (CMOS) camera. The control unit 21 can recognize marker information or a QR code (registered trademark) or the like on the surface of the sphere in the photographed image of the ground ball 3 by the photographing unit 27. The photographing unit 27 may not be built in the terminal 2 and may be directly connected to the terminal 2 outside so as to be capable of photographing.

時計部28は、時刻又は経過時間等を計時しており、制御部21からの求めに応じて、計時結果を制御部21に与える回路である。また、時計部28はタイマ機能を提供する。タイマ機能は開始を指示されてから、予め設定した時間が経過した場合、その旨を制御部21に通知する機能である。又は、タイマ機能は開始を指示されてから、予め設定した時間が経過したか否かを、制御部21からの問い合わせに対して回答する機能である。   The clock unit 28 is a circuit that counts time or elapsed time, etc., and provides the control unit 21 with a time measurement result in accordance with a request from the control unit 21. The clock unit 28 also provides a timer function. The timer function is a function of notifying the control unit 21 of that when a preset time has passed since the start instruction was given. Alternatively, the timer function is a function of responding to an inquiry from the control unit 21 whether or not a preset time has passed since the start instruction was issued.

マイク29は、音を電気信号に変換する装置である。スピーカ20は、電気信号を音に変換する装置である。なお、マイク29及びスピーカ20は、Bluetooth(登録商標)のような短距離無線通信方式により端末2に接続されたヘッドセットであっても良い。   The microphone 29 is a device that converts sound into an electrical signal. The speaker 20 is a device that converts an electrical signal into a sound. The microphone 29 and the speaker 20 may be a headset connected to the terminal 2 by a short distance wireless communication method such as Bluetooth (registered trademark).

図8は、実施形態1のARシステムの動作を説明する説明図である。本実施形態では、ARシステムの実施形態の一例として、コーヒー農園販売システムを例に挙げて説明する。図8Aは全体の動作を示す説明図である。コーヒー農園の端末2の制御部21は、アースボール3の撮影画像に重ねて表示するための表示画像の選択を受け付ける。表示画像は、静止画像、立体画像、動画を含む。表示画像は、コーヒー農園の端末2のアルバム24から取得しても良く、またコーヒー農園の端末2の撮影部27を用いて撮影しても良い。さらにまた、コーヒー農園の端末2の通信部23を介して図示しない外部装置から受信しても良い。例えば受け付けた表示画像は、農園の中に咲くコーヒーの花の写真、コーヒーの実の収穫写真、又はコーヒー豆の出荷写真等である。   FIG. 8 is an explanatory diagram for explaining the operation of the AR system of the first embodiment. In this embodiment, a coffee plantation sales system is described as an example of the embodiment of the AR system. FIG. 8A is an explanatory view showing the entire operation. The control unit 21 of the terminal 2 of the coffee plantation receives the selection of the display image to be superimposed and displayed on the photographed image of the earth ball 3. The display image includes a still image, a stereoscopic image, and a moving image. The display image may be acquired from the album 24 of the terminal 2 of the coffee plantation, or may be photographed using the photographing unit 27 of the terminal 2 of the coffee plantation. Furthermore, you may receive from the external device which is not shown in figure via the communication part 23 of the terminal 2 of a coffee plantation. For example, the received display image is a photograph of a coffee flower blooming in a farm, a crop photograph of a coffee seed, or a shipping photograph of coffee beans.

コーヒー農園の端末2の制御部21は、受け付けた表示画像に対する位置情報を取得する。なお、位置情報の取得処理は、サーバ1側で取得しても良い。この場合、画像に付随する緯度、経度情報を取得するようにすれば良い。位置情報の取得に関し、GPS機能付きのデジタルカメラ又はスマートフォン等を用いて画像を撮影した場合、GPSにより緯度、経度情報を付加して撮影した画像から位置情報を抽出しても良い。またコーヒー農園の端末2の入力部25により、位置情報を手動入力しても良い。   The control unit 21 of the terminal 2 of the coffee plantation acquires position information on the received display image. The acquisition process of the position information may be acquired on the server 1 side. In this case, latitude and longitude information attached to the image may be acquired. Regarding acquisition of position information, when an image is photographed using a digital camera with a GPS function or a smartphone, the position information may be extracted from an image photographed by adding latitude and longitude information by GPS. Further, position information may be manually input by the input unit 25 of the terminal 2 of the coffee plantation.

また、グーグル(登録商標)・マップ(Google(登録商標) Map)サービスによる位置情報を取得しても良い。例えば、Google Maps API(Application Programming Interface)を利用し、Google Mapのデータに基づいてマップを端末2のアプリケーションに埋め込み表示する。端末2は、マップ上でタップされた画面の箇所情報又は入力された住所のキーワード情報を受け付け、Google Maps APIを経由して、受け付けた情報をGoogle Mapサーバへ送信する。Google Mapサーバは、端末2から送信された情報に対応する緯度及び経度等位置情報を取得し、端末2に送信する。端末2の通信部23は、Google Mapサーバから送信された位置情報を受信する。   Also, location information may be acquired by a Google (registered trademark) map (Google (registered trademark) Map) service. For example, using the Google Maps API (Application Programming Interface), the map is embedded and displayed in the application of the terminal 2 based on the data of Google Map. The terminal 2 receives the location information of the screen tapped on the map or the keyword information of the input address, and transmits the received information to the Google Map server via the Google Maps API. The Google Map server acquires position information such as latitude and longitude corresponding to the information transmitted from the terminal 2, and transmits the position information to the terminal 2. The communication unit 23 of the terminal 2 receives the position information transmitted from the Google Map server.

さらにまた、アースボール3の撮影画像中のマーカ情報に基づき、位置情報を抽出しても良い。図9は、位置情報の取得例を示すイメージ図である。アースボール3の撮影画像中のARマーカ情報に基づいて位置情報の取得例である。   Furthermore, position information may be extracted based on marker information in the photographed image of the earth ball 3. FIG. 9 is an image diagram showing an example of acquisition of position information. It is an example of acquisition of position information based on AR marker information in a photography picture of earth ball 3.

図9Aは、ドラッグアンドドロップ操作による位置情報の取得例を示すイメージ図である。端末2の制御部21は、ドラッグアンドドロップ操作により、選択された表示画像をアースボール3の撮影画像中の設定目的地に移動する。端末2の制御部21は、アースボール3の撮影画像中の設定目的地に応じてARマーカ情報を認識し、認識したARマーカ情報に基づいて位置情報を抽出する。   FIG. 9A is an image diagram showing an example of acquisition of position information by a drag and drop operation. The control unit 21 of the terminal 2 moves the selected display image to the set destination in the photographed image of the earth ball 3 by the drag and drop operation. The control unit 21 of the terminal 2 recognizes AR marker information in accordance with the set destination in the captured image of the earth ball 3 and extracts position information based on the recognized AR marker information.

図9Bは、メニュー操作による位置情報の取得例を示すイメージ図である。端末2の制御部21は、アースボール3の撮影画像中の設定目的地のタップ操作により、撮影画像中の設定目的地に応じてARマーカ情報を認識する。端末2の制御部21は、認識したARマーカ情報に基づいて位置情報を抽出し、抽出した位置情報に基づき、位置選択用のメニューを生成する。端末2の表示部26を介して、端末2の制御部21は、生成した位置選択用のメニューをアースボール3の撮影画像に重ねて表示する。例えば、端末2の制御部21は、撮影画像中の「南アフリカ」地域にタップ操作を受け付け、タップされた箇所又は当該箇所の周りにあるARマーカを認識する。端末2の制御部21は、認識したARマーカ情報に基づいて「南アフリカ」地域の分類情報を取得し、取得した「南アフリカ」地域の分類情報に基づいてメニューを生成する。例えば、生成したメニューの項目は「スワジランド」、「ナミビア」、「ボツワナ」、「南アフリカ共和国」及び「レソト」である。端末2の表示部26を介して、端末2の制御部21は、生成したメニューをアースボール3の撮影画像に重ねて表示する。端末2の制御部21は、メニューの項目のタップ操作を受け付け、受け付けたメニューの項目に対応する位置情報を取得しても良い。なお、表示の形式に関しては、メニューに限らず、ダイアログボックス又はコンボボックス等であっても良い。   FIG. 9B is an image diagram showing an example of acquisition of position information by menu operation. The control unit 21 of the terminal 2 recognizes the AR marker information according to the setting destination in the photographed image by the tap operation of the setting destination in the photographed image of the earth ball 3. The control unit 21 of the terminal 2 extracts position information based on the recognized AR marker information, and generates a menu for position selection based on the extracted position information. Via the display unit 26 of the terminal 2, the control unit 21 of the terminal 2 displays the generated menu for position selection superimposed on the photographed image of the ground ball 3. For example, the control unit 21 of the terminal 2 receives a tap operation in the “South Africa” area in the captured image, and recognizes an AR marker located at or near the tapped point. The control unit 21 of the terminal 2 acquires classification information of the “South Africa” area based on the recognized AR marker information, and generates a menu based on the acquired classification information of the “South Africa” area. For example, the items of the generated menu are "Swaziland", "Namibia", "Botswana", "South Africa" and "Lesotho". The control unit 21 of the terminal 2 superimposes the generated menu on the photographed image of the earth ball 3 and displays the menu via the display unit 26 of the terminal 2. The control unit 21 of the terminal 2 may receive a tap operation of an item of the menu, and may acquire position information corresponding to the item of the received menu. The display format is not limited to the menu, and may be a dialog box or a combo box.

コーヒー農園の端末2の制御部21は、選択された表示画像及び表示画像に関連付けられた位置情報をコーヒー農園のユーザIDに関連付ける。コーヒー農園の端末2の通信部23は、コーヒー農園のユーザID、表示画像及び表示画像に関連付けられた位置情報をサーバ1に送信する。本実施形態において、端末2の制御部21は、先に表示画像の選択を受け付け、次いで位置情報の取得を受け付ける例を示したが、これに限るものではない。例えば、端末2の制御部21は、先に位置情報の取得を受け付け、その後受け付けた位置情報に対応する表示画像の選択を受け付けても良い。   The control unit 21 of the terminal 2 of the coffee plantation associates the selected display image and the position information associated with the display image with the user ID of the coffee plantation. The communication unit 23 of the terminal 2 of the coffee plantation transmits the user ID of the coffee plantation, the display image, and the position information associated with the display image to the server 1. In the present embodiment, the control unit 21 of the terminal 2 first receives the selection of the display image and then receives the acquisition of the position information, but the present invention is not limited to this. For example, control part 21 of terminal 2 may receive acquisition of position information first, and may receive selection of a display picture corresponding to the received position information.

サーバ1の通信部13は、コーヒー農園の端末2から送信されたコーヒー農園のユーザID、アースボール3の撮影画像に重ねて表示するための表示画像及び表示画像に関連付けられた位置情報を受信する。サーバ1の制御部11は、受信したコーヒー農園のユーザIDに関連付けて、受信した表示画像及び表示画像に関連付けられた位置情報を大容量記憶部14に記憶する。具体的には、サーバ1の制御部11は、表示画像に対してユニークな表示画像IDを振り、コーヒー農園のユーザID、当該表示画像ID及び位置情報をユーザDB141に一つのレコードとして記憶する。サーバ1の制御部11は、表示画像ID及び表示画像のデータを一つのレコードとして表示画像DB142に記憶する。   The communication unit 13 of the server 1 receives the user ID of the coffee plantation transmitted from the terminal 2 of the coffee plantation, the display image to be displayed superimposed on the photographed image of the earth ball 3 and the position information associated with the display image . The control unit 11 of the server 1 stores the received display image and the position information associated with the display image in the large-capacity storage unit 14 in association with the received user ID of the coffee plantation. Specifically, the control unit 11 of the server 1 assigns a unique display image ID to the display image, and stores the coffee farm user ID, the display image ID, and the position information in the user DB 141 as one record. The control unit 11 of the server 1 stores the display image ID and the data of the display image in the display image DB 142 as one record.

続いて、コーヒー農園のユーザが送信済みの表示画像を表示する処理について説明する。なお、アースボール3の撮影画像に重ねて表示されるコンテンツの種類は、コーヒー農園に加えて、クルーズ運航、宝探しゲーム、飛行機運航、ワールドミュージック及び世界遺産を含んでも良い。本実施形態において、コーヒー農園のコンテンツを利用する例に挙げて説明する。コーヒー農園のユーザIDに対応する表示画像を、アースボール3の撮影画像に重ねて表示するために、顧客の端末2の通信部23は、コーヒー農園のユーザIDをサーバ1に送信する。図10は、端末2によるユーザIDの取得例を示すイメージ図である。具体的には、顧客の端末2の制御部21は、顧客の端末2の撮影部27により撮影したアースボール3の撮影画像を取得する。顧客の端末2の制御部21は、顧客の端末2の入力部25により、「コーヒー農園」のタップ操作を受け付け、コーヒー農園のユーザIDを取得する。顧客の端末2の通信部23は、取得したコーヒー農園のユーザIDをサーバ1に送信する。なお、ユーザIDの取得に関しては、上述した方式に限らず、例えば、手動入力により取得しても良い。本実施形態では、コーヒー農園のユーザIDを送信する例を示したが、これに限るものではない。アースボール3の撮影画像に重ねて表示されるコンテンツの種類を特定することが可能なURL又はコンテンツID等情報を送信するようにしても良い。   Subsequently, a process of displaying a transmitted display image by the user of the coffee plantation will be described. In addition to the coffee plantation, the type of content displayed superimposed on the photographed image of the earth ball 3 may include cruise operation, a treasure hunt game, airplane operation, world music and world heritage. In the present embodiment, an example using contents of a coffee plantation will be described. The communication unit 23 of the customer terminal 2 transmits the user ID of the coffee plantation to the server 1 in order to display the display image corresponding to the user ID of the coffee plantation superimposed on the photographed image of the earth ball 3. FIG. 10 is an image diagram showing an example of acquisition of a user ID by the terminal 2. Specifically, the control unit 21 of the customer terminal 2 acquires a photographed image of the ground ball 3 photographed by the photographing unit 27 of the customer terminal 2. The control unit 21 of the terminal 2 of the customer receives the tap operation of “coffee plantation” by the input unit 25 of the terminal 2 of the customer, and acquires the user ID of the coffee plantation. The communication unit 23 of the terminal 2 of the customer transmits the acquired user ID of the coffee plantation to the server 1. The user ID may be acquired not only by the above method but also by manual input, for example. Although the example which transmits the user ID of a coffee plantation was shown in this embodiment, it does not restrict to this. It is also possible to transmit information such as a URL or a content ID that can specify the type of content to be displayed superimposed on the photographed image of the earth ball 3.

サーバ1の通信部13は、顧客の端末2から送信されたコーヒー農園のユーザIDを受信する。サーバ1の制御部11は、受信したコーヒー農園のユーザIDに基づいて大容量記憶部14のユーザDB141を検索し、コーヒー農園のユーザIDに対応する表示画像の表示画像ID及び位置情報を取得する。制御部11は、取得した表示画像IDに対応する表示画像を表示画像DB142から取得する。サーバ1の通信部13は、取得した表示画像及び表示画像に関連付けられた位置情報を顧客の端末2に送信する。   The communication unit 13 of the server 1 receives the user ID of the coffee plantation transmitted from the terminal 2 of the customer. The control unit 11 of the server 1 searches the user DB 141 of the large capacity storage unit 14 based on the received user ID of the coffee plantation, and acquires the display image ID and the position information of the display image corresponding to the user ID of the coffee plantation. . The control unit 11 acquires a display image corresponding to the acquired display image ID from the display image DB 142. The communication unit 13 of the server 1 transmits the acquired display image and the position information associated with the display image to the terminal 2 of the customer.

顧客の端末2の通信部23は、サーバ1から送信されたコーヒー農園のユーザIDに対応する表示画像及び表示画像に関連付けられた位置情報を受信する。図8Bに示すように、顧客の端末2の制御部21は、受信した位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。顧客の端末2の表示部26を介して、顧客の端末2の制御部21は、受信した表示画像のサムネイルを、特定した球体位置に重ねて表示する。また、顧客の端末2の制御部21は、顧客の端末2の入力部25により表示画像のタップ操作を受け付けた場合、表示画像の拡大処理を行う。顧客の端末2の表示部26を介して、顧客の端末2の制御部21は、拡大した表示画像をアースボール3の撮影画像に重ねて表示することが可能となる。なお、上記の表示形式に限らず、顧客の端末2の表示部26の全スクリーンに受信した表示画像を覆って表示しても良い。また、受信した表示画像が動画である場合、タップ操作により動画の再生を開始しても良い。   The communication unit 23 of the terminal 2 of the customer receives the display image corresponding to the coffee farm user ID transmitted from the server 1 and the position information associated with the display image. As shown in FIG. 8B, the control unit 21 of the terminal 2 of the customer specifies the ball position in the photographed image of the ground ball 3 corresponding to the received position information. Through the display unit 26 of the terminal 2 of the customer, the control unit 21 of the terminal 2 of the customer displays the thumbnail of the received display image superimposed on the specified spherical position. Further, when the input unit 25 of the customer terminal 2 accepts a tap operation on the display image, the control unit 21 of the customer terminal 2 performs enlargement processing of the display image. The control unit 21 of the customer terminal 2 can display the enlarged display image so as to be superimposed on the photographed image of the ground ball 3 through the display unit 26 of the customer terminal 2. In addition, you may cover and display not only the above-mentioned display format but the display image received on the whole screen of the display part 26 of the terminal 2 of a customer. If the received display image is a moving image, playback of the moving image may be started by a tap operation.

なお、本実施形態において、顧客の端末2にコーヒー農園のユーザの表示画像を受信し表示する例を挙げて説明するが、これは限らない。ユーザ自身が送信済み表示画像を受信し表示しても良い。例えば、コーヒー農園の端末2は、自身のユーザIDをサーバ1に送信することにより、サーバ1から自身のユーザIDに対応する表示画像及び表示画像に関連付けられた位置情報を受信する。コーヒー農園の端末2の制御部21は、受信した位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。コーヒー農園の端末2の表示部26を介して、コーヒー農園の端末2の制御部21は、受信した表示画像を特定した球体位置に重ねて表示しても良い。   In the present embodiment, although an example in which the display image of the user of the coffee plantation is received and displayed on the terminal 2 of the customer is described, this is not limited. The user may receive and display the transmitted display image. For example, by transmitting the user ID of the coffee plantation to the server 1, the terminal 2 of the coffee plantation receives from the server 1 a display image corresponding to the user ID of the user and position information associated with the display image. The control unit 21 of the terminal 2 of the coffee plantation specifies the position of the sphere in the photographed image of the earth ball 3 corresponding to the received position information. Through the display unit 26 of the terminal 2 of the coffee plantation, the control unit 21 of the terminal 2 of the coffee plantation may superimpose and display the received display image on the specified sphere position.

図11は、実施形態1の端末2が表示画像を送信する際の処理手順を示すフローチャートである。端末2の制御部21は端末2の入力部25を通して、ユーザID等の認証情報の入力を受け付ける。端末2の通信部23は、受け付けた認証情報をサーバ1に送信する(ステップS201)。サーバ1の制御部11は、サーバ1の通信部13により受信したユーザID等の認証情報に対して認証処理を行う(ステップS101)。サーバ1の制御部11は、ユーザ認証が成功したか否かを判断する(ステップS102)。ユーザ認証に成功したと判断した場合(ステップS102でYES)、サーバ1の通信部13は、成功した旨を端末2に送信する。ユーザ認証に失敗したと判断した場合(ステップS102でNO)、サーバ1の制御部11は、処理を終了する。端末2の通信部23は、ユーザ認証が成功した旨を受信した場合、端末2の制御部21は、アースボール3の撮影画像に重ねて表示するための表示画像の選択を受け付ける(ステップS202)。端末2の制御部21は、選択された表示画像に対応する位置情報を取得し(ステップS203)、選択された表示画像及び取得した位置情報をユーザIDに関連付ける。端末2の通信部23は、ユーザID、表示画像及び位置情報をサーバ1に送信する(ステップS204)。サーバ1の通信部13は、端末2から送信されたユーザID、表示画像及び表示画像に関連付けられた位置情報を受信する(ステップS103)。サーバ1の制御部11は、受信した表示画像及び表示画像に関連付けられた位置情報をユーザIDに関連付けて、ユーザID、表示画像及び位置情報を大容量記憶部14に記憶する(ステップS104)。なお、ステップS204では、ユーザIDを表示画像と共に送信する例を示したが、これに限るものではない。ステップS101で受信したユーザIDに基づき表示画像との関連付けを行っても良い。   FIG. 11 is a flowchart showing a processing procedure when the terminal 2 of the first embodiment transmits a display image. The control unit 21 of the terminal 2 receives an input of authentication information such as a user ID through the input unit 25 of the terminal 2. The communication unit 23 of the terminal 2 transmits the received authentication information to the server 1 (step S201). The control unit 11 of the server 1 performs an authentication process on authentication information such as a user ID received by the communication unit 13 of the server 1 (step S101). The control unit 11 of the server 1 determines whether user authentication has succeeded (step S102). If it is determined that the user authentication has succeeded (YES in step S102), the communication unit 13 of the server 1 transmits, to the terminal 2, an indication of success. If it is determined that the user authentication has failed (NO in step S102), the control unit 11 of the server 1 ends the process. When the communication unit 23 of the terminal 2 receives that the user authentication is successful, the control unit 21 of the terminal 2 receives a selection of a display image to be displayed superimposed on the photographed image of the ground ball 3 (step S202) . The control unit 21 of the terminal 2 acquires position information corresponding to the selected display image (step S203), and associates the selected display image and the acquired position information with the user ID. The communication unit 23 of the terminal 2 transmits the user ID, the display image, and the position information to the server 1 (step S204). The communication unit 13 of the server 1 receives the user ID, the display image, and the position information associated with the display image transmitted from the terminal 2 (step S103). The control unit 11 of the server 1 associates the received display image and the position information associated with the display image with the user ID, and stores the user ID, the display image and the position information in the large capacity storage unit 14 (step S104). In addition, although the example which transmits user ID with a display image was shown in step S204, it does not restrict to this. Association with the display image may be performed based on the user ID received in step S101.

図12は、実施形態1の端末2が表示画像を受信する際の処理手順を示すフローチャートである。図11と重複する内容については同一の符号を付して説明を省略する。端末2の制御部21は、端末2の撮影部27により撮影したアースボール3の撮影画像を取得する(ステップS205)。端末2の通信部23は、アースボール3の撮影画像に重ねて表示するための表示画像に対応するユーザIDをサーバ1に送信する(ステップS206)。サーバ1の通信部13は、端末2から送信されたユーザIDを受信する(ステップS105)。サーバ1の制御部11は、受信したユーザIDを大容量記憶部14のユーザDB141に記憶されたユーザIDと比較し、同一のユーザIDに対応する表示画像ID及び位置情報を取得する(ステップS106)。サーバ1の制御部11は、取得した表示画像IDに対応する表示画像を大容量記憶部14の表示画像DB142から取得する(ステップS107)。サーバ1の通信部13は、取得した表示画像及び表示画像に関連付けられた位置情報を端末2に送信する(ステップS108)。端末2の通信部23は、サーバ1から送信された表示画像及び表示画像に関連付けられた位置情報を受信する(ステップS207)。なお、複数の表示画像が存在する場合、一度に受信しても良く、また複数回に分けて受信しても良い。端末2の制御部21は、受信した位置情報に対応するアースボール3の撮影画像中の球体位置を特定する(ステップS208)。端末2の表示部26を介して、端末2の制御部21は、受信した表示画像を特定した撮影画像中の球体位置に重ねて表示する(ステップS209)。   FIG. 12 is a flowchart showing a processing procedure when the terminal 2 of the first embodiment receives a display image. About the content which overlaps with FIG. 11, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 21 of the terminal 2 acquires a photographed image of the ground ball 3 photographed by the photographing unit 27 of the terminal 2 (step S205). The communication unit 23 of the terminal 2 transmits the user ID corresponding to the display image to be displayed superimposed on the photographed image of the earth ball 3 to the server 1 (step S206). The communication unit 13 of the server 1 receives the user ID transmitted from the terminal 2 (step S105). The control unit 11 of the server 1 compares the received user ID with the user ID stored in the user DB 141 of the large capacity storage unit 14, and acquires the display image ID and the position information corresponding to the same user ID (step S106). ). The control unit 11 of the server 1 acquires a display image corresponding to the acquired display image ID from the display image DB 142 of the large capacity storage unit 14 (step S107). The communication unit 13 of the server 1 transmits the acquired display image and position information associated with the display image to the terminal 2 (step S108). The communication unit 23 of the terminal 2 receives the display image and the position information associated with the display image transmitted from the server 1 (step S207). If there are a plurality of display images, they may be received at one time or may be divided into a plurality of times and received. The control unit 21 of the terminal 2 specifies the ball position in the photographed image of the earth ball 3 corresponding to the received position information (step S208). Via the display unit 26 of the terminal 2, the control unit 21 of the terminal 2 displays the received display image so as to overlap the position of the sphere in the specified captured image (step S209).

続いて、アースボール3の撮影画像に重ねて表示する表示画像に対する説明情報の設定処理について説明する。説明情報は、音声情報又はテキスト情報を含む。端末2の制御部21は、端末2のマイク29を介して音声情報を受け付けても良い。また端末2の通信部23は、外部装置から音声情報を受信しても良い。端末2の制御部21は、端末2の入力部25を介してテキスト情報を受け付ける。説明情報を表示画像と同時に設定しても良く、また表示画像と別々に設定しても良い。表示画像と別々に設定する場合、ユーザIDに対応する表示画像の表示画像IDを取得し、取得した表示画像IDに対して、説明情報を設定する。   Subsequently, a process of setting explanation information for a display image to be displayed superimposed on the photographed image of the earth ball 3 will be described. The explanatory information includes voice information or text information. The control unit 21 of the terminal 2 may receive voice information via the microphone 29 of the terminal 2. The communication unit 23 of the terminal 2 may receive voice information from an external device. The control unit 21 of the terminal 2 receives text information via the input unit 25 of the terminal 2. The explanatory information may be set simultaneously with the display image, or may be set separately from the display image. When setting separately from the display image, the display image ID of the display image corresponding to the user ID is acquired, and the description information is set for the acquired display image ID.

本実施形態において、コーヒー農園の端末2が送信済み表示画像に対して、説明情報を設定する際の処理について説明する。コーヒー農園の端末2の通信部23は、サーバ1にコーヒー農園のユーザIDを送信する。サーバ1の制御部11は、サーバ1の通信部13により受信したコーヒー農園のユーザIDに対応する表示画像の表示画像IDを取得する。サーバ1の通信部13は、取得した表示画像IDをコーヒー農園の端末2に送信する。   In the present embodiment, a process when the terminal 2 of the coffee plantation sets the explanation information for the transmitted display image will be described. The communication unit 23 of the terminal 2 of the coffee plantation transmits the user ID of the coffee plantation to the server 1. The control unit 11 of the server 1 acquires the display image ID of the display image corresponding to the user ID of the coffee plantation received by the communication unit 13 of the server 1. The communication unit 13 of the server 1 transmits the acquired display image ID to the terminal 2 of the coffee plantation.

コーヒー農園の端末2の通信部23は、サーバ1から送信された表示画像IDを受信する。コーヒー農園の端末2の制御部21は、説明情報の入力を受け付け、受け付けた説明情報をコーヒー農園のユーザID及び表示画像IDに関連付ける。コーヒー農園の端末2の通信部23は、コーヒー農園のユーザID、表示画像ID及び説明情報をサーバ1に送信する。サーバ1の通信部13は、コーヒー農園の端末2から送信されたコーヒー農園のユーザID、表示画像ID及び説明情報を受信する。サーバ1の制御部11は、受信した説明情報をコーヒー農園のユーザID及び表示画像IDに関連付けて、大容量記憶部14に記憶する。具体的には、サーバ1の制御部11は、説明情報に対してユニークな説明情報IDを振り、受信したコーヒー農園のユーザID及び表示画像IDに対応するユーザDB141のレコードに、当該説明情報IDを記憶する。サーバ1の制御部11は、説明情報ID及び説明情報のデータを一つのレコードとして説明情報DB143に記憶する。   The communication unit 23 of the terminal 2 of the coffee plantation receives the display image ID transmitted from the server 1. The control unit 21 of the terminal 2 of the coffee plantation receives an input of the explanation information, and associates the received explanation information with the user ID of the coffee plantation and the display image ID. The communication unit 23 of the terminal 2 of the coffee plantation transmits the user ID of the coffee plantation, the display image ID and the explanation information to the server 1. The communication unit 13 of the server 1 receives the user ID of the coffee plantation, the display image ID, and the explanation information transmitted from the terminal 2 of the coffee plantation. The control unit 11 of the server 1 stores the received explanation information in the large-capacity storage unit 14 in association with the user ID of the coffee plantation and the display image ID. Specifically, the control unit 11 of the server 1 assigns a unique explanation information ID to the explanation information, and the explanation information ID is stored in the user DB 141 corresponding to the received user ID of the coffee plantation and the display image ID. Remember. The control unit 11 of the server 1 stores the data of the explanation information ID and the explanation information as one record in the explanation information DB 143.

これにより、コーヒー農園の端末2又は顧客の端末2の表示部26に、表示画像に関連付けられた説明情報をアースボール3の撮影画像に重ねて表示することが可能となる。例えば、顧客の端末2の通信部23は、コーヒー農園のユーザIDをサーバ1に送信する。サーバ1の制御部11は、サーバ1の通信部13により受信したコーヒー農園のユーザIDに対応する表示画像と、表示画像に関連付けられた位置情報及び説明情報とを取得する。サーバ1の通信部13は、取得した表示画像と、表示画像に関連付けられた位置情報及び説明情報とを顧客の端末2に送信する。   As a result, it is possible to superimpose the explanatory information associated with the display image on the photographed image of the earth ball 3 on the display unit 26 of the terminal 2 of the coffee plantation or the terminal 2 of the customer. For example, the communication unit 23 of the terminal 2 of the customer transmits the user ID of the coffee plantation to the server 1. The control unit 11 of the server 1 acquires a display image corresponding to the user ID of the coffee plantation received by the communication unit 13 of the server 1 and position information and explanation information associated with the display image. The communication unit 13 of the server 1 transmits the acquired display image and the position information and the explanation information associated with the display image to the terminal 2 of the customer.

図13は、実施形態1の端末2の説明情報を示す説明図である。顧客の端末2の通信部23は、サーバ1から送信された表示画像と、表示画像に関連付けられた位置情報及び説明情報とを受信する。   FIG. 13 is an explanatory view showing the explanatory information of the terminal 2 of the first embodiment. The communication unit 23 of the terminal 2 of the customer receives the display image transmitted from the server 1 and the position information and the explanation information associated with the display image.

図13Aは、テキスト形式の説明情報の表示イメージ図である。顧客の端末2の制御部21は、受信した位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。顧客の端末2の表示部26を介して、顧客の端末2の制御部21は、表示画像を、特定した球体位置に重ねて表示する。また、顧客の端末2の制御部21は、顧客の端末2の入力部25により表示画像のタップ操作を受け付けた場合、表示画像の拡大処理を行う。顧客の端末2の表示部26を介して、顧客の端末2の制御部21は、拡大した表示画像及び表示画像に関連付けられた説明情報をアースボール3の撮影画像に重ねて表示することが可能となる。なお、上記の表示形式に限らず、顧客の端末2の表示部26の全スクリーンに受信した表示画像及び表示画像に関連付けられた説明情報を覆って表示しても良い。   FIG. 13A is a display image diagram of explanatory information in text format. The control unit 21 of the terminal 2 of the customer specifies the ball position in the photographed image of the earth ball 3 corresponding to the received position information. Via the display unit 26 of the customer terminal 2, the control unit 21 of the customer terminal 2 superimposes and displays the display image on the specified spherical position. Further, when the input unit 25 of the customer terminal 2 accepts a tap operation on the display image, the control unit 21 of the customer terminal 2 performs enlargement processing of the display image. The control unit 21 of the customer terminal 2 can display the enlarged display image and the explanation information associated with the display image superimposed on the photographed image of the earth ball 3 through the display unit 26 of the customer terminal 2 It becomes. Note that the display image may be displayed on the entire screen of the display unit 26 of the customer terminal 2 without being limited to the display format described above, and may be displayed covering the display image and the explanation information associated with the display image.

図13Bは、音声形式の説明情報のイメージ図である。顧客の端末2の制御部21は、受信した位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。顧客の端末2の表示部26を介して、顧客の端末2の制御部21は、表示画像を、特定した球体位置に重ねて表示する。また、顧客の端末2の制御部21は、顧客の端末2の入力部25により表示画像のタップ操作を受け付けた場合、表示画像の拡大処理を行い、説明情報再生ボタンBTN1を生成する。顧客の端末2の表示部26を介して、顧客の端末2の制御部21は、拡大した表示画像及び生成した説明情報再生ボタンBTN1をアースボール3の撮影画像に重ねて表示する。顧客の端末2の制御部21は、顧客の端末2の入力部25により説明情報再生ボタンBTN1のタップ操作を受け付けた場合、顧客の端末2のスピーカ20を介して受信した音声情報を再生することが可能となる。なお、音声情報の再生に関して、上述の形式に限らない。例えば、説明情報再生ボタンBTN1を生成せずに、顧客の端末2の制御部21は、表示画像をアースボール3の撮影画像に重ねて表示する際に、顧客の端末2のスピーカ20を介して音声情報を自動的に再生しても良い。   FIG. 13B is an image diagram of the explanatory information on the audio format. The control unit 21 of the terminal 2 of the customer specifies the ball position in the photographed image of the earth ball 3 corresponding to the received position information. Via the display unit 26 of the customer terminal 2, the control unit 21 of the customer terminal 2 superimposes and displays the display image on the specified spherical position. In addition, when a tap operation of a display image is received by the input unit 25 of the customer terminal 2, the control unit 21 of the customer terminal 2 performs enlargement processing of the display image, and generates an explanatory information reproduction button BTN1. The control unit 21 of the customer terminal 2 superimposes and displays the enlarged display image and the generated explanation information reproduction button BTN 1 on the photographed image of the earth ball 3 via the display unit 26 of the customer terminal 2. When the control unit 21 of the customer terminal 2 receives the tap operation of the explanation information reproduction button BTN1 by the input unit 25 of the customer terminal 2, the control unit 21 reproduces the voice information received through the speaker 20 of the customer terminal 2 Is possible. Note that the reproduction of audio information is not limited to the above-described format. For example, when the control unit 21 of the terminal 2 of the customer displays the display image superimposed on the photographed image of the earth ball 3 without generating the explanation information reproduction button BTN 1, the control unit 21 of the terminal 2 via the speaker 20 of the customer 2 Audio information may be reproduced automatically.

図14は、実施形態1の端末2が説明情報を送信する際の処理手順を示すフローチャートである。図11、図12と重複する内容については同一の符号を付して説明を省略する。サーバ1の制御部11は、端末2から送信されたユーザIDに対応する表示画像IDを大容量記憶部14のユーザDB141から取得する(ステップS109)。サーバ1の通信部13は、取得した表示画像IDを端末2に送信する(ステップS110)。端末2の通信部23は、サーバ1から送信された表示画像IDを受信する(ステップS210)。端末2の制御部21は、ユーザID及び受信した表示画像IDに関連付けて、音声情報又はテキスト情報を含む説明情報を設定する(ステップS211)。端末2の通信部23は、ユーザID、表示画像ID及び説明情報をサーバ1に送信する(ステップS212)。サーバ1の通信部13は、端末2から送信されたユーザID、表示画像ID及び説明情報を受信する(ステップS111)。サーバ1の制御部11は、受信したユーザID及び表示画像IDに関連付けて、受信した説明情報を大容量記憶部14の説明情報DB143に記憶する(ステップS112)。   FIG. 14 is a flowchart showing a processing procedure when the terminal 2 of the first embodiment transmits the explanation information. About the content which overlaps with FIG. 11, FIG. 12, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 11 of the server 1 acquires a display image ID corresponding to the user ID transmitted from the terminal 2 from the user DB 141 of the large capacity storage unit 14 (step S109). The communication unit 13 of the server 1 transmits the acquired display image ID to the terminal 2 (step S110). The communication unit 23 of the terminal 2 receives the display image ID transmitted from the server 1 (step S210). The control unit 21 of the terminal 2 sets the explanatory information including the audio information or the text information in association with the user ID and the received display image ID (step S211). The communication unit 23 of the terminal 2 transmits the user ID, the display image ID and the explanation information to the server 1 (step S212). The communication unit 13 of the server 1 receives the user ID, the display image ID, and the explanation information transmitted from the terminal 2 (step S111). The control unit 11 of the server 1 stores the received explanation information in the explanation information DB 143 of the large capacity storage unit 14 in association with the received user ID and display image ID (step S112).

図15は、実施形態1の端末2が説明情報を受信する際の処理手順を示すフローチャートである。図12と重複する内容については同一の符号を付して説明を省略する。サーバ1の制御部11は、受信したユーザIDに対応する表示画像ID及び位置情報を大容量記憶部14のユーザDB141から取得する(ステップS113)。制御部11は、取得した表示画像IDに対応する表示画像及び説明情報IDを大容量記憶部14の表示画像DB142から取得する(ステップS114)。制御部11は、取得した説明情報IDに対応する説明情報を大容量記憶部14の説明情報DB143から取得する(ステップS115)。サーバ1の通信部23は、取得した表示画像と、表示画像に関連付けられた位置情報及び説明情報とを端末2に送信する(ステップS116)。端末2の通信部23は、サーバ1から送信された表示画像と、表示画像に関連付けられた位置情報及び説明情報とを受信する(ステップS213)。端末2の制御部21は、受信した位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。端末2の表示部26を介して、端末2の制御部21は、受信した表示画像及び表示画像に関連付けられた説明情報を、特定した球体位置に重ねて表示する(ステップS214)。   FIG. 15 is a flowchart showing a processing procedure when the terminal 2 of the first embodiment receives the explanatory information. About the content which overlaps with FIG. 12, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 11 of the server 1 acquires the display image ID and the position information corresponding to the received user ID from the user DB 141 of the large capacity storage unit 14 (step S113). The control unit 11 acquires the display image and the explanation information ID corresponding to the acquired display image ID from the display image DB 142 of the large capacity storage unit 14 (step S114). The control unit 11 acquires the explanation information corresponding to the acquired explanation information ID from the explanation information DB 143 of the large capacity storage unit 14 (step S115). The communication unit 23 of the server 1 transmits the acquired display image and the position information and the explanation information associated with the display image to the terminal 2 (step S116). The communication unit 23 of the terminal 2 receives the display image transmitted from the server 1 and the position information and the explanation information associated with the display image (step S213). The control unit 21 of the terminal 2 specifies the ball position in the photographed image of the earth ball 3 corresponding to the received position information. Via the display unit 26 of the terminal 2, the control unit 21 of the terminal 2 displays the received display image and the explanation information associated with the display image superimposed on the specified spherical position (step S214).

続いて、アースボール3の撮影画像に重ねて表示する表示画像に対する公開情報の設定処理について説明する。公開情報は、公開、非公開、一部公開を含む。公開の場合、表示画像を制限なしで全員に公開する。非公開の場合、表示画像を所有するユーザのみに公開し、他のユーザに公開しない。一部公開の場合、公開範囲内の条件を満たすユーザに公開する。本実施形態において、一部公開に設定可能な公開範囲は、ユーザDB141のユーザランクと同じランクであり、「レギュラー」、「シルバー」、「ゴールド」の三つがある。総括すると、指定されたランク以上のランクが設定されたユーザに公開する。具体的には、一部公開に「レギュラー」を設定した場合、いわゆる「レギュラー」、「シルバー」及び「ゴールド」ランクに属するユーザに対して表示画像を公開する。一部公開に「シルバー」を設定した場合、いわゆる「シルバー」及び「ゴールド」ランクに属するユーザに対して表示画像を公開する。一部公開に「ゴールド」を設定した場合、「ゴールド」ランクに属するユーザのみに対して表示画像を公開する。また、公開情報に関し、表示画像の選択時に公開情報を設定し、表示画像と同時にサーバ1に送信しても良く、また既に送信済み表示画像に対して、公開情報を追加設定し、サーバ1に送信するようにしても良い。サーバ1の制御部11は、端末2から送信された公開情報を大容量記憶部14の公開情報DB144に記憶する。   Subsequently, setting processing of public information with respect to a display image to be displayed superimposed on the photographed image of the earth ball 3 will be described. Public information includes public, private and partial public. In the case of disclosure, the displayed image is disclosed to everyone without restriction. In the case of non-disclosure, the display image is disclosed only to the user who owns the display image, and is not disclosed to other users. In the case of partial release, make it available to users who satisfy the conditions within the release range. In the present embodiment, the disclosure range that can be set to be partially published is the same rank as the user rank of the user DB 141, and there are three of “regular”, “silver”, and “gold”. In summary, it is made available to users who have been set to a specified rank or higher. Specifically, when “regular” is set to partial disclosure, the display image is disclosed to users belonging to so-called “regular”, “silver” and “gold” ranks. When "Silver" is set for partial disclosure, the display image is disclosed to users belonging to so-called "Silver" and "Gold" ranks. When "gold" is set for partial release, the display image is made available only to users belonging to the "gold" rank. In addition, regarding the public information, the public information may be set when the display image is selected, and may be transmitted to the server 1 simultaneously with the display image, or the public information is added to the display image already transmitted. You may send it. The control unit 11 of the server 1 stores the public information transmitted from the terminal 2 in the public information DB 144 of the large capacity storage unit 14.

図16は、実施形態1の端末2が公開情報を送信する際の処理手順を示すフローチャートである。図14と重複する内容については同一の符号を付して説明を省略する。端末2の制御部21は、ユーザID及び受信した表示画像IDに関連付けて、公開情報を設定する(ステップS215)。端末2の通信部23は、ユーザID、表示画像ID及び公開情報をサーバ1に送信する(ステップS216)。サーバ1の通信部13は、端末2から送信されたユーザID、表示画像ID及び公開情報を受信する(ステップS117)。サーバ1の制御部11は、受信したユーザID及び表示画像IDに関連付けて、受信した公開情報を大容量記憶部14の公開情報DB144に記憶する(ステップS118)。   FIG. 16 is a flowchart showing a processing procedure when the terminal 2 of the first embodiment transmits the public information. About the content which overlaps with FIG. 14, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 21 of the terminal 2 sets the public information in association with the user ID and the received display image ID (step S215). The communication unit 23 of the terminal 2 transmits the user ID, the display image ID, and the disclosure information to the server 1 (step S216). The communication unit 13 of the server 1 receives the user ID, the display image ID, and the disclosure information transmitted from the terminal 2 (step S117). The control unit 11 of the server 1 stores the received public information in the public information DB 144 of the mass storage unit 14 in association with the received user ID and display image ID (step S118).

図17は、実施形態1の端末2が公開情報に基づき表示画像を受信する際の処理手順を示すフローチャートである。図12、図14と重複する内容については同一の符号を付して説明を省略する。サーバ1の制御部11は、取得した表示画像IDに対応する公開情報IDを大容量記憶部14の表示画像DB142により取得する(ステップS119)。制御部11は、取得した公開情報IDに基づいて表示画像の公開範囲を判定する(ステップS120)。公開範囲判定のサブルーチンに関しては後述する。サーバ1の制御部11は、公開範囲判定結果が公開か否かを判断する(ステップS121)。公開範囲結果が公開であると判断した場合(ステップS121でYES)、サーバ1の制御部11は、表示画像及び表示画像に関連付けられた位置情報を取得する。公開範囲結果が非公開であると判断した場合(ステップS121でNO)、サーバ1の制御部11は、処理を終了する。   FIG. 17 is a flowchart showing a processing procedure when the terminal 2 of the first embodiment receives a display image based on public information. About the content which overlaps with FIG. 12, FIG. 14, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 11 of the server 1 acquires the public information ID corresponding to the acquired display image ID from the display image DB 142 of the large capacity storage unit 14 (step S119). The control unit 11 determines the disclosure range of the display image based on the acquired disclosure information ID (step S120). The subroutine of open range determination will be described later. The control unit 11 of the server 1 determines whether the release range determination result is release (step S121). When it is determined that the open range result is open (YES in step S121), the control unit 11 of the server 1 acquires the display image and the position information associated with the display image. When it is determined that the disclosure range result is non-disclosure (NO in step S121), the control unit 11 of the server 1 ends the process.

図18は、実施形態1の公開範囲判定のサブルーチンの処理手順を示すフローチャートである。サーバ1の制御部11は、受信したユーザIDとログインしたユーザIDが同一であるか否かを判断する(ステップS1801)。受信したユーザIDとログインしたユーザIDが同一であると判断した場合(ステップS1801でYES)、ユーザ自身が送信済み表示画像に対して表示制限がないため、制御部11は、判定結果に公開を設定する(ステップS1809)。受信したユーザIDとログインしたユーザIDが同一でないと判断した場合(ステップS1801でNO)、制御部11は、大容量記憶部14の公開情報DB144により公開情報IDに対応する公開情報を取得する(ステップS1802)。制御部11は、公開情報が非公開であるか否かを判定する(ステップS1803)。公開情報が非公開であると判断した場合(ステップS1803でYES)、制御部11は、判定結果に非公開を設定する(ステップS1810)。公開情報が非公開以外であると判断した場合(ステップS1803でNO)、制御部11は、公開情報が公開であるか否かを判定する(ステップS1804)。公開情報が公開であると判断した場合(ステップS1804でYES)、制御部11は、判定結果に公開を設定する(ステップS1809)。公開情報が公開以外であると判断した場合(ステップS1804でNO)、制御部11は、公開情報が一部公開であるか否かを判定する(ステップS1805)。公開情報が一部公開であると判断した場合(ステップS1805でYES)、制御部11は、サーバ1の大容量記憶部14のユーザDB141により、ログインしたユーザIDに対応するユーザのランクを取得する(ステップS1806)。制御部11は、取得したユーザのランクと公開情報を比較する(ステップS1807)。制御部11は、ユーザのランクが公開情報により以上であるか否かを判定する(ステップS1808)。ユーザのランクが公開情報により以上であると判断した場合(ステップS1808でYES)、制御部11は、判定結果に公開を設定する(ステップS1809)。ユーザのランクが公開情報により低いと判断した場合(ステップS1808でNO)、制御部11は、判定結果に非公開を設定する(ステップS1810)。公開情報が一部公開以外であると判断した場合(ステップS1805でNO)、制御部11は、判定結果に非公開を設定する(ステップS1810)。ステップS1809及びステップS1810の処理の後、制御部11は公開範囲判定結果を返却する(ステップS1811)。   FIG. 18 is a flowchart showing the processing procedure of the open range determination subroutine of the first embodiment. The control unit 11 of the server 1 determines whether the received user ID and the logged-in user ID are the same (step S1801). If it is determined that the received user ID and the logged-in user ID are the same (YES in step S1801), the user has no display restriction on the transmitted display image, and the control unit 11 discloses the determination result. The setting is made (step S1809). If it is determined that the received user ID and the logged-in user ID are not the same (NO in step S1801), the control unit 11 acquires public information corresponding to the public information ID from the public information DB 144 of the large capacity storage unit 14 ( Step S1802). The control unit 11 determines whether the public information is private (step S1803). If it is determined that the public information is non-disclosure (YES in step S1803), the control unit 11 sets non-disclosure as the determination result (step S1810). If it is determined that the public information is other than private (NO in step S1803), the control unit 11 determines whether the public information is public (step S1804). If it is determined that the public information is public (YES in step S1804), the control unit 11 sets public as the determination result (step S1809). If it is determined that the public information is other than public (NO in step S1804), the control unit 11 determines whether part of the public information is public (step S1805). If it is determined that the public information is partially public (YES in step S1805), control unit 11 acquires the rank of the user corresponding to the logged-in user ID by user DB 141 of large-capacity storage unit 14 of server 1 (Step S1806). The control unit 11 compares the acquired rank of the user with the public information (step S1807). The control unit 11 determines whether the rank of the user is equal to or greater than the public information (step S1808). If it is determined that the rank of the user is equal to or greater than the public information (YES in step S1808), the control unit 11 sets public as the determination result (step S1809). If it is determined that the rank of the user is low according to the public information (NO in step S1808), the control unit 11 sets the determination result as non-disclosure (step S1810). If it is determined that the disclosure information is other than partial disclosure (NO in step S1805), the control unit 11 sets the determination result to non-disclosure (step S1810). After the processing of step S1809 and step S1810, the control unit 11 returns the disclosure range determination result (step S1811).

本実施形態によると、ユーザが自由に表示画像の設定を行うことに応じて、ユーザの能動性を引き出すことが可能となる。   According to the present embodiment, it is possible to extract the user's activity in response to the user setting the display image freely.

本実施形態によると、表示画像に関連付けられた説明情報を球体の撮影画像に重ねて表示することが可能となる。   According to the present embodiment, it is possible to display the explanatory information associated with the display image superimposed on the photographed image of the sphere.

本実施形態によると、公開の対象ユーザに表示画像を共有させることが可能となる。また、公開、非公開及び一部公開の設定を行うことにより、セキュリティレベルを高めることができる。さらにまた、公開範囲を適切に設定し、多目的なARシステムを実現させることが可能となる。   According to the present embodiment, it is possible to share the display image with the user targeted for publication. In addition, the security level can be enhanced by setting public, private and partial public. Furthermore, it becomes possible to set the open range appropriately and to realize a versatile AR system.

(実施形態2)
本実施形態では、ARシステムの実施形態の一例として、クルーズ運航システムを例に挙げて説明する。旅行会社の端末2の制御部21は、クルーズ運航ルートに基づき、アースボール3の撮影画像に重ねて表示するための複数の観光スポットの表示画像の選択を受け付ける。観光スポットの表示画像は、旅行会社の端末2の撮影部27により撮影しても良く、また旅行会社の端末2のアルバム24から選択しても良く、さらにまた、旅行会社の端末2の通信部23を介して図示しない外部装置から受信しても良い。旅行会社の端末2の制御部21は、受け付けた複数の表示画像にそれぞれの位置情報を取得し、受け付けた複数の表示画像及び取得した位置情報をユーザIDに関連付ける。位置情報の取得処理に関しては、実施形態1の位置情報の取得処理と同様であるため説明を省略する。旅行会社の端末2の通信部23は、ユーザID、受け付けた複数の表示画像及び表示画像に関連付けられた位置情報をサーバ1に送信する。サーバ1は、旅行会社の端末2から送信されたユーザID、複数の表示画像及び表示画像に関連付けられた位置情報を大容量記憶部14に記憶する。
Second Embodiment
In the present embodiment, a cruise operation system will be described as an example of an embodiment of the AR system. The control unit 21 of the terminal 2 of the travel agency receives a selection of display images of a plurality of tourist spots to be superimposed and displayed on the photographed image of the earth ball 3 based on the cruise operation route. The display image of the tourist spot may be photographed by the photographing unit 27 of the terminal 2 of the travel company, or may be selected from the album 24 of the terminal 2 of the travel company, and furthermore, the communication unit of the terminal 2 of the travel company It may be received from an external device (not shown) via 23. The control unit 21 of the travel company terminal 2 acquires position information of each of the received plurality of display images, and associates the received plurality of display images and the acquired position information with the user ID. The acquisition process of the position information is the same as the acquisition process of the position information of the first embodiment, and thus the description thereof is omitted. The communication unit 23 of the travel company terminal 2 transmits the user ID, the plurality of received display images, and the position information associated with the display images to the server 1. The server 1 stores the user ID, the plurality of display images, and the position information associated with the display images transmitted from the terminal 2 of the travel company in the large-capacity storage unit 14.

これにより、旅行者の端末2の表示部26を通して、旅行会社が提供したクルーズの運航情報に関する表示画像をアースボール3の撮影画像に重ねて表示することが可能となる。旅行者の端末2の制御部21は、旅行者の端末2の撮影部27により撮影したアースボール3の撮影画像を取得する。旅行者の端末2の通信部23は、旅行会社のユーザIDをサーバ1に送信する。   As a result, it is possible to superimpose a display image on cruise operation information provided by a travel company on the photographed image of the earth ball 3 through the display unit 26 of the terminal 2 of the traveler. The control unit 21 of the traveler terminal 2 acquires a photographed image of the earth ball 3 photographed by the photographing unit 27 of the traveler terminal 2. The communication unit 23 of the traveler terminal 2 transmits the user ID of the travel company to the server 1.

サーバ1の通信部13は、旅行者の端末2から送信された旅行会社のユーザIDを受信する。サーバ1の制御部11は、大容量記憶部14のユーザDB141により旅行会社のユーザIDに対応する複数の表示画像及び表示画像に関連付けられた位置情報を取得する。サーバ1の通信部13は、取得した複数の表示画像及び表示画像に関連付けられた位置情報を旅行者の端末2に送信する。   The communication unit 13 of the server 1 receives the user ID of the travel company transmitted from the terminal 2 of the traveler. The control unit 11 of the server 1 acquires a plurality of display images corresponding to the user ID of the travel company and position information associated with the display images by the user DB 141 of the large-capacity storage unit 14. The communication unit 13 of the server 1 transmits the plurality of acquired display images and position information associated with the display images to the terminal 2 of the traveler.

旅行者の端末2の通信部23は、サーバ1から送信された旅行会社のクルーズ運航情報に関する複数の表示画像及び表示画像に関連付けられた位置情報を受信する。受信した複数の表示画像に応じて、日時の順又は表示順序の順にアースボール3の撮影画像に切り替え重ねて表示することが可能となる。日時の順は、日時の古い順又は新しい順である。表示順序の順は、手動入力で設定しても良く、また他の方式で設定しても良い。例えば、制御部21は、複数の表示画像に対しランダムに表示順序を設定しても良い。   The communication unit 23 of the traveler's terminal 2 receives a plurality of display images regarding the cruise operation information of the travel company transmitted from the server 1 and position information associated with the display images. It becomes possible to switch and display the photographed image of the earth ball 3 in order of date and time or in the order of display according to the plurality of received display images. The order of date and time is the old or new date order. The order of the display order may be set by manual input or may be set by another method. For example, the control unit 21 may set the display order at random for a plurality of display images.

図19は、実施形態2の端末2の順序表示の動作を説明する説明図である。以下では、日時の順に表示する例を挙げて説明する。例えば、図示したP1、P2、P3及びP4は、クルーズの運航ルートに関する観光地を代表する。旅行者の端末2の通信部23は、P1、P2、P3及びP4の表示画像を受信する。受信したP1、P2、P3及びP4の表示画像は、クルーズの運航ルートの進行方向に基づき、古い日時の順に作成された画像である。例えばP1が出発地である場合、P1の表示画像の日時が一番古い日時であり、P4が最終目的地である場合、P4の表示画像の日時が一番新しい日時である。旅行者の端末2の制御部21は、受信したP1、P2、P3及びP4の表示画像からそれぞれ日時情報を抽出する。旅行者の端末2の制御部21は、抽出した日時情報が示す古い日時の順に、P1、P2、P3及びP4の表示画像をソートする。例えば、表示画像のソート結果は、P1、P2、P3、P4の順序である。旅行者の端末2の制御部21は、ソートした複数の表示画像に対して表示時間間隔を5秒に設定する。なお、表示時間間隔は任意的な時間間隔で設定しても良い。   FIG. 19 is an explanatory diagram for explaining an operation of order display of the terminal 2 of the second embodiment. Below, the example displayed on the order of date is mentioned and demonstrated. For example, P 1, P 2, P 3 and P 4 shown in the figure represent tourist spots on the cruise route. The communication unit 23 of the traveler terminal 2 receives the display images of P1, P2, P3 and P4. The received display images of P1, P2, P3 and P4 are images created in the order of the old date and time based on the traveling direction of the cruise operation route. For example, when P1 is the departure point, the date and time of the display image of P1 is the oldest date, and when P4 is the final destination, the date and time of the display image of P4 is the latest date and time. The control unit 21 of the traveler terminal 2 extracts date and time information from the received display images of P1, P2, P3 and P4, respectively. The control unit 21 of the traveler terminal 2 sorts the display images of P1, P2, P3 and P4 in the order of the old date and time indicated by the extracted date and time information. For example, the sorting result of the display image is in the order of P1, P2, P3 and P4. The control unit 21 of the traveler terminal 2 sets the display time interval to 5 seconds for the plurality of sorted display images. The display time interval may be set at an arbitrary time interval.

旅行者の端末2の制御部21は、ソートした複数の表示画像中から最初の表示画像を取得する。旅行者の端末2の制御部21は、最初の表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置を特定する。旅行者の端末2の表示部26を介して、旅行者の端末2の制御部21は、最初の表示画像を、特定した球体位置に重ねて表示する。旅行者の端末2の時計部28によるタイマを起動し、経過時間を計算する。5秒経過後に、旅行者の端末2の制御部21は、表示中の最初の表示画像をアースボール3の撮影画像中からクリアし、複数の表示画像中から2番目の表示画像を取得する。旅行者の端末2の制御部21は、2番目の表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置を特定する。旅行者の端末2の表示部26を介して、旅行者の端末2の制御部21は、2番目の表示画像を特定した表示部26を介して、球体位置に重ねて表示する。なお、複数の表示画像中から次の表示画像を取得する前に、撮影画像中の球体位置に表示中の表示画像をクリアしなくても良い。3番目又は4番目の表示処理は、2番目と同様であるため説明を省略する。4番目の表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置に、4番目の表示画像を重ねて表示した後に、タイマを終了する。なお、タイマを終了せずに、上述した処理を継続して実行しても良い。この場合、例えば、再び複数の表示画像中から最初の表示画像を取得し、最初の表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置に重ねて表示することにより、複数の表示画像を繰り返し切り替えて表示させることが可能となる。   The control unit 21 of the traveler's terminal 2 obtains the first display image from among the plurality of sorted display images. The control unit 21 of the traveler's terminal 2 specifies the position of the sphere in the captured image corresponding to the position information associated with the first display image. Via the display unit 26 of the traveler terminal 2, the control unit 21 of the traveler terminal 2 superimposes and displays the first display image on the specified spherical position. The timer by the clock unit 28 of the traveler's terminal 2 is activated to calculate the elapsed time. After 5 seconds, the control unit 21 of the traveler's terminal 2 clears the first display image being displayed from among the photographed images of the earth ball 3 and acquires the second display image from among the plurality of display images. The control unit 21 of the traveler's terminal 2 specifies the position of the sphere in the captured image corresponding to the position information associated with the second display image. Via the display unit 26 of the traveler terminal 2, the control unit 21 of the traveler terminal 2 superimposes and displays the second display image on the sphere position via the specified display unit 26. In addition, before acquiring the next display image out of a plurality of display images, it is not necessary to clear the display image being displayed at the ball position in the photographed image. The third or fourth display process is the same as the second, and therefore the description thereof is omitted. After the fourth display image is superimposed and displayed on the position of the sphere in the captured image corresponding to the position information associated with the fourth display image, the timer is ended. Note that the above-described processing may be continued and executed without ending the timer. In this case, for example, the first display image is acquired again from among the plurality of display images, and the plurality of displays are displayed by overlapping and displaying on the spherical position in the photographed image corresponding to the position information associated with the first display image. Images can be repeatedly switched and displayed.

図20は、実施形態2の端末2が複数の表示画像を受信する際の日時の順にソート処理手順を示すフローチャートである。図12と重複する内容については同一の符号を付して説明を省略する。サーバ1の制御部11は、受信したユーザIDに対応する複数の表示画像ID及び位置情報を大容量記憶部14のユーザDB141により取得する(ステップS131)。サーバ1の制御部11は、取得した各の表示画像IDに対応する各の表示画像を大容量記憶部14の表示画像DB142により取得する(ステップS132)。サーバ1の通信部13は、取得した複数の表示画像及び表示画像に関連付けられた位置情報を端末2に送信する(ステップS133)。端末2の通信部23は、サーバ1から送信された複数の表示画像及び表示画像に関連付けられた位置情報を受信する(ステップS231)。端末2の制御部21は、取得したアースボール3の撮影画像中のARマーカ情報に基づいて表示範囲を特定し、受信した複数の表示画像中から特定した表示範囲内の表示画像を抽出する(ステップS232)。表示範囲の特定処理に関しては、例えば、端末2の制御部21は、アースボール3の撮影画像中の表示中心点及び表示半径を抽出し、抽出した表示中心点に対応する緯度、経度位置情報を認識する。端末2の制御部21は、認識した緯度、経度の点を中心に抽出した半径内の位置情報に応じて、表示範囲を特定しても良い。端末2の制御部21は、抽出した複数の表示画像により、順次日時情報を抽出し(ステップS233)、表示画像が最後であるか否かを判断する(ステップS234)。表示画像が最後でないと判断した場合(ステップS234でNO)、端末2の制御部21は、表示画像の日時情報抽出処理に戻り、次の表示画像の日時情報を抽出する(ステップS233)。表示画像が最後であると判断した場合(ステップS234でYES)、端末2の制御部21は、抽出した複数の日時情報により、日時の古い順又は新しい順に複数の表示画像をソートする(ステップS235)。端末2の制御部21は、ソートした複数の表示画像の切り替え表示を行う時間間隔を設定する(ステップS236)。   FIG. 20 is a flowchart showing a sorting process procedure in order of date and time when the terminal 2 of the second embodiment receives a plurality of display images. About the content which overlaps with FIG. 12, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 11 of the server 1 acquires a plurality of display image IDs and position information corresponding to the received user ID from the user DB 141 of the large capacity storage unit 14 (step S131). The control unit 11 of the server 1 acquires each display image corresponding to each acquired display image ID from the display image DB 142 of the large capacity storage unit 14 (step S132). The communication unit 13 of the server 1 transmits the plurality of acquired display images and position information associated with the display images to the terminal 2 (step S133). The communication unit 23 of the terminal 2 receives the plurality of display images transmitted from the server 1 and the position information associated with the display images (step S231). The control unit 21 of the terminal 2 specifies a display range based on the acquired AR marker information in the captured image of the ground ball 3 and extracts a display image within the specified display range from among the plurality of received display images (FIG. Step S232). For the process of specifying the display range, for example, the control unit 21 of the terminal 2 extracts the display center point and the display radius in the photographed image of the earth ball 3, and the latitude and longitude position information corresponding to the extracted display center point recognize. The control unit 21 of the terminal 2 may specify the display range according to the position information within the radius extracted centering on the recognized latitude and longitude points. The control unit 21 of the terminal 2 sequentially extracts date and time information from the plurality of extracted display images (step S233), and determines whether the display image is the last (step S234). If it is determined that the display image is not the last (NO in step S234), the control unit 21 of the terminal 2 returns to the process of extracting date and time information of the display image and extracts date and time information of the next display image (step S233). If it is determined that the display image is the last (YES in step S234), the control unit 21 of the terminal 2 sorts the plurality of display images in the chronological order or the chronological order according to the plurality of extracted date and time information (step S235). ). The control unit 21 of the terminal 2 sets a time interval for switching and displaying the plurality of sorted display images (step S236).

図21は、実施形態2の端末2が切り替え表示を行う際の処理手順を示すフローチャートである。時間間隔を監視するため、端末2の時計部28によりタイマを起動し実行する(ステップS237)。端末2の制御部21は、ソートした複数の表示画像中から順次に表示画像及び表示画像に関連付けられた位置情報を取得し(ステップS238)、取得した位置情報に対応する撮影画像中の球体位置を特定する(ステップS239)。端末2の表示部26を介して、端末2の制御部21は、特定した撮影画像中の球体位置に、表示画像を重ねて表示する(ステップS240)。端末2の制御部21は、取得した表示画像が最後の表示画像であるか否かを判断する(ステップS241)。最後の表示画像であると判断した場合(ステップS241でYES)、端末2の制御部21は、タイマを終了する(ステップS244)。最後の表示画像でないと判断した場合(ステップS241でNO)、端末2の制御部21は、設定時間間隔を経過したか否かを判定する(ステップS242)。設定時間間隔を経過していないと判断した場合(ステップS242でNO)、端末2の制御部21は、タイマによる時間を継続して監視する。設定時間間隔を経過したと判断した場合(ステップS242でYES)、端末2の制御部21は、撮影画像に表示中の表示画像をクリアする(ステップS243)。端末2の制御部21は、表示画像及び位置情報取得処理に戻り、複数の表示画像中から次の表示画像及び表示画像に関連付けられた位置情報を取得する(ステップS238)。   FIG. 21 is a flowchart showing a processing procedure when the terminal 2 of the second embodiment performs switching display. In order to monitor the time interval, a timer is started and executed by the clock unit 28 of the terminal 2 (step S237). The control unit 21 of the terminal 2 sequentially acquires the display image and the position information associated with the display image from among the plurality of sorted display images (step S238), and the ball position in the photographed image corresponding to the acquired position information Are identified (step S239). Via the display unit 26 of the terminal 2, the control unit 21 of the terminal 2 superimposes and displays a display image on the position of the sphere in the specified captured image (step S240). The control unit 21 of the terminal 2 determines whether the acquired display image is the last display image (step S241). If it is determined that the displayed image is the last one (YES in step S241), the control unit 21 of the terminal 2 ends the timer (step S244). If it is determined that the display image is not the last one (NO in step S241), the control unit 21 of the terminal 2 determines whether the set time interval has elapsed (step S242). If it is determined that the set time interval has not elapsed (NO in step S 242), the control unit 21 of the terminal 2 continuously monitors the time by the timer. If it is determined that the set time interval has elapsed (YES in step S242), the control unit 21 of the terminal 2 clears the display image being displayed on the captured image (step S243). The control unit 21 of the terminal 2 returns to the display image and position information acquisition process, and acquires position information associated with the next display image and the display image from among the plurality of display images (step S238).

図22は、実施形態2の端末2のソート処理手順を示すフローチャートである。図20と重複する内容については同一の符号を付して説明を省略する。端末2の制御部21は、受信した複数の表示画像に対して表示順序の入力を受け付ける(ステップS245)。端末2の制御部21は、受け付けた表示順序の順に複数の表示画像をソートする(ステップS246)。次の処理は、図21と同様であるため説明を省略する。   FIG. 22 is a flowchart of the sorting process of the terminal 2 of the second embodiment. About the content which overlaps with FIG. 20, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 21 of the terminal 2 receives an input of display order for the plurality of received display images (step S245). The control unit 21 of the terminal 2 sorts the plurality of display images in the order of the received display order (step S246). The next process is the same as that of FIG.

図23は、実施形態2の端末2の軌跡情報を含む動作を説明する説明図である。上述した複数の表示画像に対して日時の順に重ねて表示する例に基づき、軌跡情報を加えてアースボール3の撮影画像に重ねて表示する例を挙げて説明する。旅行者の端末2の制御部21は、複数の観光スポットの表示画像P1、P2、P3及びP4を日時の古い順にソートする。例えば、観光スポットの表示画像のソート結果は、P1、P2、P3、P4の順序である。旅行者の端末2の制御部21は、複数の表示画像を切り替えて表示する時間間隔を設定する。例えば、時間間隔を5秒に設定する。   FIG. 23 is an explanatory diagram for explaining an operation including trajectory information of the terminal 2 of the second embodiment. On the basis of an example in which a plurality of display images described above are displayed by being superimposed in order of date and time, locus information is added, and an example of being superimposed and displayed on a photographed image of the earth ball 3 will be described. The control unit 21 of the traveler's terminal 2 sorts the display images P1, P2, P3 and P4 of the plurality of tourist spots in order of date and time. For example, the sorting result of the display images of the tourist spots is in the order of P1, P2, P3 and P4. The control unit 21 of the traveler terminal 2 sets a time interval for switching and displaying a plurality of display images. For example, the time interval is set to 5 seconds.

図23Aに示すように、旅行者の端末2の制御部21は、複数の表示画像中から最初の表示画像P1及び最初の表示画像P1に関連付けられた位置情報を取得する。旅行者の端末2の制御部21は、取得した最初の表示画像P1に関連付けられた位置情報に基づき、軌跡情報T1を生成する。旅行者の端末2の制御部21は、取得した最初の表示画像P1に関連付けられた位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。旅行者の端末2の表示部26を介して、旅行者の端末2の制御部21は、取得した最初の表示画像P1及び生成した軌跡情報T1を、特定した球体位置に重ねて表示する。   As shown in FIG. 23A, the control unit 21 of the traveler terminal 2 acquires position information associated with the first display image P1 and the first display image P1 among the plurality of display images. The control unit 21 of the traveler terminal 2 generates locus information T1 based on the position information associated with the acquired first display image P1. The control unit 21 of the traveler terminal 2 specifies the position of the sphere in the photographed image of the ground ball 3 corresponding to the positional information associated with the acquired first display image P1. Via the display unit 26 of the traveler terminal 2, the control unit 21 of the traveler terminal 2 superimposes and displays the acquired first display image P1 and the generated trajectory information T1 on the specified spherical position.

続いて、図23Bに示すように、クルーズ運航ルートに沿って、設定した時間間隔5秒経過後に、旅行者の端末2の制御部21は、順次に複数の表示画像中から次の表示画像P2及び次の表示画像P2に関連付けられた位置情報を取得する。旅行者の端末2の制御部21は、最初の表示画像P1に関連付けられた位置情報及び次の表示画像P2に関連付けられた位置情報に基づき、既存の軌跡情報T1を更新する。旅行者の端末2の制御部21は、アースボール3の撮影画像中から表示中の最初の表示画像P1をクリアする。旅行者の端末2の制御部21は、取得した次の表示画像P2に関連付けられた位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。旅行者の端末2の表示部26を介して、旅行者の端末2の制御部21は、取得した次の表示画像P2及び更新した軌跡情報T1を、特定した球体位置に重ねて表示する。   Subsequently, as shown in FIG. 23B, after the set time interval of 5 seconds has elapsed along the cruise operation route, the control unit 21 of the traveler's terminal 2 sequentially displays the next display image P2 among the plurality of display images. And the positional information linked | related with the following display image P2 is acquired. The control unit 21 of the traveler terminal 2 updates the existing trajectory information T1 based on the position information associated with the first display image P1 and the position information associated with the next display image P2. The control unit 21 of the traveler terminal 2 clears the first display image P1 being displayed from among the photographed images of the earth ball 3. The control unit 21 of the traveler terminal 2 specifies the position of the sphere in the photographed image of the ground ball 3 corresponding to the positional information associated with the acquired next display image P2. Via the display unit 26 of the traveler terminal 2, the control unit 21 of the traveler terminal 2 displays the acquired next display image P2 and the updated trajectory information T1 superimposed on the identified spherical position.

続いて、図23Cに示すように、クルーズ運航ルートに沿って、設定した時間間隔5秒経過後に、旅行者の端末2の制御部21は、順次に複数の表示画像中から次の表示画像P3及び次の表示画像P3に関連付けられた位置情報を取得する。旅行者の端末2の制御部21は、表示画像P1、表示画像P2及び表示画像P3に関連付けられた位置情報に基づき、既存の軌跡情報T1を更新する。旅行者の端末2の制御部21は、アースボール3の撮影画像中から表示中の表示画像P2をクリアする。旅行者の端末2の制御部21は、取得した次の表示画像P3に関連付けられた位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。旅行者の端末2の表示部26を介して、旅行者の端末2の制御部21は、取得した次の表示画像P3及び更新した軌跡情報T1を、特定した球体位置に重ねて表示する。   Subsequently, as shown in FIG. 23C, after the set time interval of 5 seconds has elapsed along the cruise operation route, the control section 21 of the traveler's terminal 2 sequentially displays the next display image P3 among the plurality of display images. And the positional information linked | related with the following display image P3 is acquired. The control unit 21 of the traveler terminal 2 updates the existing trajectory information T1 based on the display image P1, the display image P2, and the position information associated with the display image P3. The control unit 21 of the traveler terminal 2 clears the display image P2 being displayed from among the photographed images of the earth ball 3. The control unit 21 of the traveler terminal 2 specifies the position of the sphere in the photographed image of the earth ball 3 corresponding to the positional information associated with the acquired next display image P3. Via the display unit 26 of the traveler terminal 2, the control unit 21 of the traveler terminal 2 displays the acquired next display image P3 and the updated trajectory information T1 superimposed on the identified spherical position.

続いて、図23Dに示すように、クルーズ運航ルートに沿って、設定した時間間隔5秒経過後に、旅行者の端末2の制御部21は、順次に複数の表示画像中から次の表示画像P4及び次の表示画像P4に関連付けられた位置情報を取得する。旅行者の端末2の制御部21は、表示画像P1、表示画像P2、表示画像P3及び表示画像P4に関連付けられた位置情報に基づき、既存の軌跡情報T1を更新する。旅行者の端末2の制御部21は、アースボール3の撮影画像中から表示中の表示画像P3をクリアする。旅行者の端末2の制御部21は、取得した次の表示画像P4に関連付けられた位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。旅行者の端末2の表示部26を介して、旅行者の端末2の制御部21は、取得した次の表示画像P4及び更新した軌跡情報T1を特定した球体位置に重ねて表示し、タイマを終了する。なお、タイマを終了せずに、上述した処理を継続して実行しても良い。この場合、例えば、再び複数の表示画像中から最初の表示画像を取得し、既存の軌跡情報をクリアして再生成することにより、軌跡情報と共に複数の表示画像を繰り返し切り替えて表示させることが可能となる。   Subsequently, as shown in FIG. 23D, after the set time interval of 5 seconds has elapsed along the cruise operation route, the control section 21 of the traveler's terminal 2 sequentially displays the next display image P4 among the plurality of display images. And the positional information linked | related with the following display image P4 is acquired. The control unit 21 of the traveler terminal 2 updates the existing trajectory information T1 based on the display image P1, the display image P2, the display image P3, and the position information associated with the display image P4. The control unit 21 of the traveler terminal 2 clears the display image P3 being displayed from among the photographed images of the earth ball 3. The control unit 21 of the traveler terminal 2 specifies the position of the sphere in the photographed image of the ground ball 3 corresponding to the positional information associated with the acquired next display image P4. The control unit 21 of the traveler terminal 2 superimposes the acquired next display image P4 and the updated trajectory information T1 on the identified spherical position and displays the timer via the display unit 26 of the traveler terminal 2. finish. Note that the above-described processing may be continued and executed without ending the timer. In this case, for example, it is possible to repeatedly switch and display the plurality of display images together with the trajectory information by acquiring the first display image again from among the plurality of display images and clearing and regenerating the existing trajectory information. It becomes.

なお、軌跡情報の表示形式に関しては、軌跡情報をクルーズ運航ルートに沿って、設定時間間隔の毎に更新することに限られない。例えば、旅行者の端末2の制御部21は、複数の表示画像に関連付けられた位置情報を全部取得し、全体運航ルートの軌跡情報を生成する。旅行者の端末2の表示部26を介して、旅行者の端末2の制御部21は、位置情報に対応する撮影画像中の球体位置に生成した全体運航ルートの軌跡情報を重ねて表示しても良い。また、旅行者の端末2の表示部26に表示画像を表示せずに、作成した軌跡情報のみを重ねて表示しても良い。   The display format of the trajectory information is not limited to updating the trajectory information at every set time interval along the cruise operation route. For example, the control unit 21 of the traveler's terminal 2 acquires all of the position information associated with the plurality of display images, and generates trajectory information of the entire operation route. Via the display unit 26 of the traveler's terminal 2, the control unit 21 of the traveler's terminal 2 superimposes and displays the generated trajectory information of the entire operating route at the ball position in the photographed image corresponding to the position information Also good. Alternatively, only the generated trajectory information may be overlapped and displayed without displaying the display image on the display unit 26 of the traveler terminal 2.

図24は、実施形態2の端末2が軌跡情報を含む切り替え表示を行う際の処理手順を示すフローチャートである。複数の表示画像の受信処理及び日時の順にソート処理について、図20と同様であるため説明を省略する。また、図24では、図21と重複する内容については同一の符号を付して説明を省略する。端末2の制御部21は、軌跡情報が存在するか否かを判断する(ステップS247)。軌跡情報が存在していないと判断した場合(ステップS247でNO)、端末2の制御部21は、取得した表示画像に関連付けられた位置情報に基づいて軌跡情報を生成する(ステップS248)。軌跡情報が存在したと判断した場合(ステップS247でYES)、端末2の制御部21は、取得した表示画像に関連付けられた位置情報に基づいて既存の軌跡情報を更新する(ステップS249)。端末2の制御部21は、表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置を特定する。端末2の表示部26を介して、端末2の制御部21は、表示画像及び軌跡情報を、特定した球体位置に重ねて表示する(ステップS250)。   FIG. 24 is a flowchart showing a processing procedure when the terminal 2 of the second embodiment performs switching display including trajectory information. The reception process of the plurality of display images and the sort process in the order of date and time are the same as those in FIG. Moreover, in FIG. 24, the same reference numerals are given to contents overlapping with those in FIG. 21, and the description will be omitted. The control unit 21 of the terminal 2 determines whether or not trajectory information exists (step S247). If it is determined that no trajectory information exists (NO in step S247), the control unit 21 of the terminal 2 generates trajectory information based on the position information associated with the acquired display image (step S248). If it is determined that the trajectory information exists (YES in step S247), the control unit 21 of the terminal 2 updates the existing trajectory information based on the position information associated with the acquired display image (step S249). The control unit 21 of the terminal 2 specifies the position of the sphere in the captured image corresponding to the position information associated with the display image. Through the display unit 26 of the terminal 2, the control unit 21 of the terminal 2 displays the display image and the trajectory information superimposed on the specified spherical position (step S250).

本実施形態によると、日時情報が示す日時の順に、表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置に重ねて表示することが可能となる。   According to the present embodiment, it is possible to superimpose and display on the sphere position in the captured image corresponding to the position information associated with the display image in the order of the date and time indicated by the date and time information.

本実施形態によると、表示順序の順に、表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置に重ねて表示することが可能となる。   According to the present embodiment, it is possible to superimpose and display on the sphere position in the captured image corresponding to the position information associated with the display image in the order of display order.

本実施形態によると、複数の表示画像に関連付けられた位置情報を基づき、軌跡情報を生成し、表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置に生成した軌跡情報を重ねて表示することが可能となる。   According to the present embodiment, trajectory information is generated based on position information associated with a plurality of display images, and the generated trajectory information is superimposed on the spherical position in the captured image corresponding to the position information associated with the display image. It becomes possible to display.

本実施形態によると、クルーズ運航に関する観光スポットの画像、滞在スケジュール等様々な情報を提供することが可能となる。運航ルートの可視化に応じて、運航経路又は進行方向等サービスを提供することが可能となる。   According to this embodiment, it is possible to provide various information such as an image of a tourist spot on cruise operation, a stay schedule and the like. Depending on the visualization of the operation route, it is possible to provide a service such as an operation route or a traveling direction.

本実施形態によると、登山ルート又は航空会社の飛行ルート等を利用することが可能となる。例えば、登山ルートの利用の場合、山の高さ、川、湖又は海等を色分けて3Dオブジェクト等の描画手法を用いて描画し、立体画像を生成し、生成した立体画像をアースボール3の撮影画像に重ねて表示することが可能となる。   According to this embodiment, it is possible to use a mountain climbing route or an airline flight route. For example, in the case of using a mountain climbing route, the height of a mountain, a river, a lake or the sea is color-coded and drawn using a drawing method such as a 3D object to generate a three-dimensional image. It becomes possible to overlap and display on a photography picture.

(実施形態3)
本実施形態は、ARシステムを実施する形態を一例として挙げ、宝探しゲームシステムについて説明する。
(Embodiment 3)
In the present embodiment, a treasure hunt game system will be described by taking an embodiment in which an AR system is implemented as an example.

図25は、実施形態3のサーバ1の構成例を示すブロック図である。図2と重複する内容については同一の符号を付して説明を省略する。大容量記憶部14は、音楽DB145を含む。音楽DB145は、音楽又は効果音等データを記憶している。   FIG. 25 is a block diagram showing a configuration example of the server 1 of the third embodiment. About the content which overlaps with FIG. 2, the same code | symbol is attached | subjected and description is abbreviate | omitted. The large capacity storage unit 14 includes a music DB 145. The music DB 145 stores data such as music or sound effects.

図26は、実施形態3のユーザDB141のレコードレイアウトの一例を示す説明図である。図3と重複する内容について説明を省略する。ユーザDB141は、音楽ID列を含む。音楽ID列は、端末2から送信された音楽を一意に特定可能な音楽のIDをユーザIDに関連付けて記憶している。   FIG. 26 is an explanatory diagram of an example of the record layout of the user DB 141 of the third embodiment. Descriptions of contents overlapping with FIG. 3 will be omitted. The user DB 141 includes a music ID sequence. The music ID string stores the ID of the music that can uniquely identify the music transmitted from the terminal 2 in association with the user ID.

図27は、音楽DB145のレコードレイアウトの一例を示す説明図である。音楽DB145は、音楽ID列、音楽列を含む。音楽ID列は、音楽を識別するために、一意に特定される音楽のIDを記憶している。音楽列は、音楽IDに対応する音楽のデータを記憶している。   FIG. 27 is an explanatory view showing an example of the record layout of the music DB 145. As shown in FIG. The music DB 145 includes a music ID string and a music string. The music ID column stores an ID of music that is uniquely identified in order to identify music. The music string stores music data corresponding to the music ID.

宝探しゲームのゲームコンテンツは、表示画像及び音楽を含む。宝探しゲームを提供するゲーム会社の端末2は、宝探しゲームの表示画像、表示画像に関連付けられた位置情報及び音楽をゲーム会社のユーザIDに関連付けて、サーバ1に送信する。本実施形態において、例えば、音楽はゲームのシナリオに関する効果音である。サーバ1の制御部11は、ゲーム会社の端末2から送信された表示画像、位置情報及び効果音をゲーム会社のユーザIDに関連付けて、大容量記憶部14に記憶する。具体的には、サーバ1の制御部11は、表示画像に対してユニークな表示画像IDを振り、効果音に対してユニークな音楽IDを振る。サーバ1の制御部11は、ゲーム会社のユーザID、当該表示画像ID、当該音楽ID及び位置情報をユーザDB141に一つのレコードとして記憶する。サーバ1の制御部11は、表示画像ID及び表示画像のデータを一つのレコードとして表示画像DB142に記憶する。サーバ1の制御部11は、音楽ID及び音楽のデータを一つのレコードとして音楽DB145に記憶する。   The game content of the treasure hunt game includes display images and music. The terminal 2 of the game company providing the treasure hunt game associates the display image of the treasure hunt game, the position information associated with the display image, and the music with the user ID of the game company, and transmits it to the server 1. In the present embodiment, for example, music is a sound effect relating to a game scenario. The control unit 11 of the server 1 stores the display image, the position information, and the sound effect transmitted from the terminal 2 of the game company in the large-capacity storage unit 14 in association with the user ID of the game company. Specifically, the control unit 11 of the server 1 shakes a unique display image ID on a display image, and shakes a unique music ID on sound effects. The control unit 11 of the server 1 stores the user ID of the game company, the display image ID, the music ID, and the position information in the user DB 141 as one record. The control unit 11 of the server 1 stores the display image ID and the data of the display image in the display image DB 142 as one record. The control unit 11 of the server 1 stores the music ID and the music data in the music DB 145 as one record.

これにより、遊戯者の端末2の表示部26を通して、ゲーム会社が提供したゲームコンテンツをアースボール3の撮影画像に重ねて表示することが可能となる。遊戯者の端末2の通信部23は、サーバ1から送信されたゲーム会社のユーザIDに対応する表示画像、表示画像に関連付けられた位置情報及び効果音を受信する。遊戯者の端末2の制御部21は、受信した位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。遊戯者の端末2の表示部26を介して、遊戯者の端末2の制御部21は、受信した表示画像を、特定した球体位置に重ねて表示する。遊戯者の端末2の制御部21は、遊戯者の端末2のスピーカ20を介して、受信した効果音を再生する。   As a result, the game content provided by the game company can be displayed superimposed on the photographed image of the earth ball 3 through the display unit 26 of the player's terminal 2. The communication unit 23 of the player's terminal 2 receives the display image corresponding to the user ID of the game company transmitted from the server 1, the position information associated with the display image, and the sound effect. The control unit 21 of the player's terminal 2 specifies the ball position in the photographed image of the earth ball 3 corresponding to the received position information. Via the display unit 26 of the player's terminal 2, the control unit 21 of the player's terminal 2 superimposes and displays the received display image on the identified ball position. The control unit 21 of the player's terminal 2 reproduces the received sound effect via the speaker 20 of the player's terminal 2.

図28は、実施形態3のARシステムの動作を説明する説明図である。例えば、図示したG1、G2及びG3は、宝を埋めることが可能なスポットを示す表示画像である。図示したG4は、ヒントマップの表示画像である。図示したG5は、財宝の表示画像である。   FIG. 28 is an explanatory diagram for explaining the operation of the AR system of the third embodiment. For example, G1, G2 and G3 illustrated are display images showing spots that can be filled with treasures. G4 illustrated is a display image of the hint map. G5 illustrated is a display image of treasures.

図28Aに示すように、遊戯者の端末2の制御部21は、受信した表示画像G1、G2及びG3に関連付けられた位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。遊戯者の端末2の表示部26を介して、遊戯者の端末2の制御部21は、表示画像G1、G2及びG3を、特定した球体位置に重ねて表示する。遊戯者の端末2の制御部21は、遊戯者の端末2の入力部25により表示画像G2のタップ操作を受け付けた場合、ゲームのシナリオに基づき、表示画像G2に応じる指示を取得する。例えば、遊戯者の端末2の制御部21は、表示画像G2に応じる指示がヒントマップの指示であると判断した場合、表示画像G4を取得する。なお、ゲームのシナリオに関しては、アプリケーションの内部に内蔵しても良く、また端末2の通信部23により、サーバ1又は図示しない外部装置から受信しても良い。   As shown in FIG. 28A, the control unit 21 of the player's terminal 2 specifies the ball position in the photographed image of the ground ball 3 corresponding to the position information associated with the received display images G1, G2 and G3. Through the display unit 26 of the player's terminal 2, the control unit 21 of the player's terminal 2 displays the display images G1, G2, and G3 superimposed on the identified ball position. When the player's terminal 2's input unit 25 accepts a tap operation on the display image G2, the control unit 21 of the player's terminal 2 obtains an instruction corresponding to the display image G2 based on the game scenario. For example, when the control unit 21 of the player's terminal 2 determines that the instruction according to the display image G2 is an instruction of the hint map, the control unit 21 acquires the display image G4. The game scenario may be built in the application or may be received by the communication unit 23 of the terminal 2 from the server 1 or an external device (not shown).

続けて、図28Bに示すように、遊戯者の端末2の制御部21は、表示画像G4に関連付けられた位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。遊戯者の端末2の表示部26を介して、遊戯者の端末2の制御部21は、特定した球体位置に表示画像G4を重ねて表示する。遊戯者の端末2の制御部21は、遊戯者の端末2のスピーカ20を介して、図示しないヒントマップの効果音を再生する。表示画像G4を重ねて表示した後に、表示画像G4のサムネイルに切り替えて表示することが可能となる。例えば、遊戯者の端末2の制御部21は、遊戯者の端末2の入力部25により、再び表示画像G4のタップ操作を受け付ける。遊戯者の端末2の制御部21は、アースボール3の撮影画像中から表示画像G4を表示画像G4のサムネイルに切り替えて表示しても良い。また、タイマ機能を利用しても良い。タイマ機能の利用の場合、遊戯者の端末2の制御部21は、遊戯者の端末2の時計部28によるタイマを起動し、経過時間を計算する。例えば、5秒経過後に、遊戯者の端末2の制御部21は、自動的にアースボール3の撮影画像中から表示画像G4を表示画像G4のサムネイルに切り替えて表示するようにしても良い。遊戯者の端末2の制御部21は、表示画像G4のサムネイルに切り替えて表示した後に、タイマを終了する。なお、本実施形態では、表示画像のサムネイルの例を示したが、これに限るものではない。例えば、アースボール3の撮影画像中から表示画像G4をクリアしても良く、またアースボール3の撮影画像に表示画像G4をそのままに表示しても良い。   Subsequently, as shown in FIG. 28B, the control unit 21 of the player's terminal 2 specifies the ball position in the photographed image of the ground ball 3 corresponding to the position information associated with the display image G4. Through the display unit 26 of the player's terminal 2, the control unit 21 of the player's terminal 2 superimposes and displays the display image G4 on the identified ball position. The control unit 21 of the player's terminal 2 reproduces the sound effect of the hint map (not shown) via the speaker 20 of the player's terminal 2. After the display image G4 is superimposed and displayed, it is possible to switch to the thumbnail of the display image G4 and display it. For example, the control unit 21 of the player's terminal 2 receives the tap operation of the display image G4 again by the input unit 25 of the player's terminal 2. The control unit 21 of the player's terminal 2 may switch the display image G4 out of the photographed image of the earth ball 3 to the thumbnail of the display image G4 and display it. Also, a timer function may be used. In the case of using the timer function, the control unit 21 of the player's terminal 2 activates a timer by the clock unit 28 of the player's terminal 2 and calculates an elapsed time. For example, after 5 seconds, the control unit 21 of the player's terminal 2 may automatically switch the display image G4 to the thumbnail of the display image G4 from among the photographed image of the earth ball 3 and display it. After switching to the thumbnail of the display image G4 and displaying it, the control unit 21 of the player's terminal 2 ends the timer. Although the example of the thumbnail of the display image is shown in the present embodiment, the present invention is not limited to this. For example, the display image G4 may be cleared from the photographed image of the earth ball 3, or the display image G4 may be displayed as it is on the photographed image of the earth ball 3.

続けて、図28Cに示すように、提示されたヒントに応じて、他の宝を埋めることが可能なスポットに財宝を探し続ける。例えば、遊戯者の端末2の制御部21は、遊戯者の端末2の入力部25により、他の宝を埋めることが可能なスポットを示す表示画像G3のタップ操作を受け付ける。遊戯者の端末2の制御部21は、ゲームのシナリオに基づき、表示画像G3に応じる指示を取得する。例えば、遊戯者の端末2の制御部21は、表示画像G3に応じる指示が財宝の指示であると判断した場合、表示画像G5を取得する。   Continuing, as shown in FIG. 28C, depending on the hint presented, it keeps searching for treasure at spots that can be filled with other treasures. For example, the control unit 21 of the player's terminal 2 receives the tap operation of the display image G3 indicating a spot that can be filled with another treasure by the input unit 25 of the player's terminal 2. The control unit 21 of the player's terminal 2 acquires an instruction according to the display image G3 based on the scenario of the game. For example, when the control unit 21 of the player's terminal 2 determines that the instruction according to the display image G3 is a treasure instruction, the control unit 21 acquires the display image G5.

続けて、図28Dに示すように、遊戯者の端末2の制御部21は、表示画像G5に関連付けられた位置情報に対応する撮影画像中の球体位置を特定する。遊戯者の端末2の表示部26を介して、遊戯者の端末2の制御部21は、特定した球体位置に表示画像G5を重ねて表示する。遊戯者の端末2の制御部21は、遊戯者の端末2のスピーカ20を介して、図示しない財宝発見の効果音を再生する。なお、遊戯者の端末2の表示部26にヒントマップの表示画像G4又は財宝の表示画像G5を全スクリーンで表示しても良く、またスクリーンの一部エリアで表示しても良い。   Subsequently, as shown in FIG. 28D, the control unit 21 of the player's terminal 2 specifies the ball position in the captured image corresponding to the position information associated with the display image G5. Via the display unit 26 of the player's terminal 2, the control unit 21 of the player's terminal 2 superimposes and displays the display image G5 on the identified ball position. The control unit 21 of the player's terminal 2 reproduces the sound effect of treasure discovery (not shown) via the speaker 20 of the player's terminal 2. Note that the display image G4 of the hint map or the display image G5 of the treasure may be displayed on the entire screen on the display unit 26 of the player's terminal 2 or may be displayed on a partial area of the screen.

また、表示画像に関連付けられた説明情報がある場合、遊戯者の端末2の表示部26を介して、遊戯者の端末2の制御部21は、アースボール3の撮影画像に表示画像及び表示画像に関連付けられた説明情報を重ねて表示しても良い。例えば、図28Bに示すように、ヒントマップの表示画像G4に関連付けられた説明情報は「ヒント:海に行って探せ!」である。図28Dに示すように、財宝の表示画像G5に関連付けられた説明情報は「おめでとう!財宝獲得!」である。   In addition, when there is explanatory information associated with the display image, the control unit 21 of the player's terminal 2 displays the display image and the display image on the photographed image of the earth ball 3 via the display unit 26 of the player's terminal 2 The explanatory information associated with may be superimposed and displayed. For example, as shown in FIG. 28B, the explanation information associated with the display image G4 of the hint map is "Hint: Go to the sea and search!" As shown in FIG. 28D, the explanation information associated with the display image G5 of treasure is “Congratulations! Acquisition of treasure!”.

図29は、実施形態3の端末2が表示画像及び音楽を送信する際の処理手順を示すフローチャートである。図11と重複する内容については同一の符号を付して説明を省略する。端末2の制御部21は、アースボール3の撮影画像の特定の位置の表示に応じて再生するための音楽の選択を受け付ける(ステップS261)。端末2の制御部21は、選択された表示画像、音楽及び取得した位置情報をユーザIDに関連付ける。端末2の通信部23は、ユーザID、表示画像、音楽及び位置情報をサーバ1に送信する(ステップS262)。サーバ1の通信部13は、端末2から送信されたユーザID、表示画像、音楽及び位置情報を受信する(ステップS161)。サーバ1の制御部11は、受信した表示画像、音楽及び位置情報をユーザIDに関連付けて、大容量記憶部14に記憶する(ステップS162)。   FIG. 29 is a flowchart showing a processing procedure when the terminal 2 of the third embodiment transmits a display image and music. About the content which overlaps with FIG. 11, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 21 of the terminal 2 receives the selection of music for reproduction in accordance with the display of the specific position of the photographed image of the earth ball 3 (step S261). The control unit 21 of the terminal 2 associates the selected display image, the music, and the acquired position information with the user ID. The communication unit 23 of the terminal 2 transmits the user ID, the display image, the music, and the position information to the server 1 (step S262). The communication unit 13 of the server 1 receives the user ID, the display image, the music, and the position information transmitted from the terminal 2 (step S161). The control unit 11 of the server 1 associates the received display image, music, and position information with the user ID, and stores the information in the large-capacity storage unit 14 (step S162).

図30は、実施形態3の端末2が表示画像及び音楽を受信する際の処理手順を示すフローチャートである。図12と重複する内容については同一の符号を付しているため説明を省略する。サーバ1の制御部11は、端末2から送信されたユーザIDに対応する表示画像ID、音楽ID及び位置情報を大容量記憶部14のユーザDB141により取得する(ステップS163)。サーバ1の制御部11は、取得した音楽IDに対応する音楽を大容量記憶部14の音楽DB145により取得する(ステップS164)。サーバ1の通信部13は、取得した表示画像、音楽及び表示画像に関連付けられた位置情報を端末2に送信する(ステップS165)。端末2の通信部23は、サーバ1から送信された表示画像、音楽及び表示画像に関連付けられた位置情報を受信する(ステップS263)。端末2の制御部21は、受信した表示画像、音楽及び表示画像に関連付けられた位置情報に応じて、ゲームの処理を行う(ステップS264)。ゲームの処理流れに関しては次に記述する。   FIG. 30 is a flowchart showing a processing procedure when the terminal 2 of the third embodiment receives a display image and music. The same reference numerals as in FIG. 12 denote the same parts as those in FIG. The control unit 11 of the server 1 acquires the display image ID, the music ID, and the position information corresponding to the user ID transmitted from the terminal 2 from the user DB 141 of the large capacity storage unit 14 (step S163). The control unit 11 of the server 1 acquires the music corresponding to the acquired music ID from the music DB 145 of the large-capacity storage unit 14 (step S164). The communication unit 13 of the server 1 transmits the acquired display image, the music, and the position information associated with the display image to the terminal 2 (step S165). The communication unit 23 of the terminal 2 receives the display image, the music, and the position information associated with the display image transmitted from the server 1 (step S263). The control unit 21 of the terminal 2 performs a game process according to the received display image, the music, and the position information associated with the display image (step S264). The process flow of the game will be described next.

図31は、実施形態3のゲームの処理手順を示すフローチャートである。端末2の制御部21は、宝を埋めることが可能なスポットを示す表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置を特定する(ステップS901)。以下では簡潔のため、宝を埋めることが可能なスポットを示す表示画像をスポットの表示画像と読み替える。端末2の制御部21は、端末2の表示部26を介して、スポットの表示画像を、特定した球体位置に重ねて表示する(ステップS902)。端末2の制御部21は、端末2の入力部25により、スポットの表示画像の選択を受け付ける(ステップS903)。ゲームのシナリオに基づき、端末2の制御部21は、選択されたスポットの表示画像に応じて財宝の指示であるか否かを判断する(ステップS904)。端末2の制御部21は、財宝の指示であると判断した場合(ステップS904でYES)、財宝の表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置を特定する(ステップS905)。端末2の制御部21は、端末2の表示部26を介して、財宝の表示画像を、特定した球体位置に重ねて表示する(ステップS906)。端末2の制御部21は、端末2のスピーカ20を介して、財宝発見の効果音を再生する(ステップS907)。端末2の制御部21は、端末2の表示部26を介して、財宝の表示画像に関連付けられた説明情報を特定した球体位置に重ねて表示し(ステップS908)、処理を終了する。端末2の制御部21は、財宝の指示でないと判断した場合(ステップS904でNO)、選択されたスポットの表示画像に応じてヒントマップの指示であるか否かを判断する(ステップS909)。端末2の制御部21は、ヒントマップの指示であると判断した場合(ステップS909でYES)、ヒントマップの表示画像に関連付けられた位置情報に対応する撮影画像中の球体位置を特定する(ステップS910)。端末2の制御部21は、端末2の表示部26を介して、ヒントマップの表示画像を、特定した球体位置に重ねて表示する(ステップS911)。端末2の制御部21は、端末2のスピーカ20を介して、ヒントマップの効果音を再生する(ステップS912)。端末2の制御部21は、端末2の表示部26を介して、ヒントマップの表示画像に関連付けられた説明情報を、特定した球体位置に重ねて表示する(ステップS913)。端末2の制御部21は、ステップS913の処理後、及びヒントマップの指示でないと判断した場合(ステップS909でNO)、スポットの表示画像の選択を受け付ける処理に戻る(ステップS903)。   FIG. 31 is a flowchart showing the game processing procedure of the third embodiment. The control unit 21 of the terminal 2 specifies the ball position in the captured image corresponding to the position information associated with the display image indicating the spot that can be filled with the treasure (step S901). In the following, for the sake of brevity, the display image showing the spots that can be filled with the treasure is replaced with the display image of the spots. The control unit 21 of the terminal 2 superimposes and displays the display image of the spot on the specified spherical position through the display unit 26 of the terminal 2 (step S902). The control unit 21 of the terminal 2 receives the selection of the display image of the spot by the input unit 25 of the terminal 2 (step S903). Based on the game scenario, the control unit 21 of the terminal 2 determines whether it is a treasure instruction according to the display image of the selected spot (step S904). When determining that the instruction is a treasure instruction (YES in step S904), control unit 21 of terminal 2 specifies the position of the sphere in the captured image corresponding to the position information associated with the display image of the treasure (step S905). . The control unit 21 of the terminal 2 superimposes and displays the display image of the treasure on the specified sphere position via the display unit 26 of the terminal 2 (step S906). The control unit 21 of the terminal 2 reproduces the sound effect of treasure discovery via the speaker 20 of the terminal 2 (step S 907). The control unit 21 of the terminal 2 superimposes and displays the explanatory information associated with the display image of the treasure on the specified sphere position through the display unit 26 of the terminal 2 (step S908), and ends the processing. If the control unit 21 of the terminal 2 determines that it is not an instruction of treasure (NO in step S904), it determines whether it is an instruction of a hint map according to the display image of the selected spot (step S909). When controller 21 of terminal 2 determines that the instruction is a hint map instruction (YES in step S 909), control unit 21 specifies the position of the sphere in the captured image corresponding to the position information associated with the display image of the hint map (step S910). The control unit 21 of the terminal 2 superimposes and displays the display image of the hint map on the specified sphere position through the display unit 26 of the terminal 2 (step S911). The control unit 21 of the terminal 2 reproduces the sound effect of the hint map via the speaker 20 of the terminal 2 (step S 912). The control unit 21 of the terminal 2 superimposes and displays the explanatory information associated with the display image of the hint map on the specified spherical position through the display unit 26 of the terminal 2 (step S913). After the process of step S913, and when it is determined that the instruction of the hint map is not issued (NO in step S909), the control unit 21 of the terminal 2 returns to the process of accepting the selection of the display image of the spot (step S903).

本実施形態によると、表示画像と音楽を合わせて楽しめる。宝探しゲーム等シナリオがある場合、効果音等用いて気分は簡単に盛り上がることが可能となる。また、音楽のみサービスを提供しても良い。例えば、世界各国の歌手の出身地の位置情報を取得し、歌手の音楽及び取得した位置情報をサーバ1に送信すると、利用者は世界各国の歌手の出身地の位置情報に対応する音楽を取得し再生することが可能となる。   According to the present embodiment, the display image and the music can be enjoyed together. When there is a scenario such as a treasure hunt game, the mood can be easily excited using sound effects and the like. Also, only music may be provided. For example, when acquiring the location information of the birthplace of singers from around the world and transmitting the music of the singer and the acquired location information to the server 1, the user acquires the music corresponding to the location information of the birthplace of the singers around the world It becomes possible to play back.

(実施形態4)
本実施形態は、異なる種類の球体に関するARシステムを実施する形態を一例として挙げる。表示言語、球体のサイズ、メーカ等により、様々な種類の球体が存在する。異なる種類の球体に対して、異なるマーカ認識システムを用いてマーカを認識する。
(Embodiment 4)
The present embodiment takes, as an example, an embodiment implementing an AR system for different types of spheres. There are various types of spheres depending on the display language, the size of the sphere, the manufacturer, etc. Different marker recognition systems are used to recognize markers for different types of spheres.

図32は、実施形態4のサーバ1の構成例を示すブロック図である。図2と重複する内容については同一の符号を付して説明を省略する。大容量記憶部14は、球体DB146を含む。球体DB146は、球体情報を記憶している。   FIG. 32 is a block diagram showing a configuration example of the server 1 of the fourth embodiment. About the content which overlaps with FIG. 2, the same code | symbol is attached | subjected and description is abbreviate | omitted. The large capacity storage unit 14 includes a sphere DB 146. The sphere DB 146 stores sphere information.

図33は、実施形態4のユーザDB141のレコードレイアウトの一例を示す説明図である。図3と重複する内容について説明を省略する。ユーザDB141は、球体ID列を含む。球体ID列は、球体情報を一意に特定可能な球体のIDを記憶している。   FIG. 33 is an explanatory diagram of an example of the record layout of the user DB 141 of the fourth embodiment. Descriptions of contents overlapping with FIG. 3 will be omitted. The user DB 141 includes a sphere ID sequence. The sphere ID column stores the ID of a sphere that can uniquely identify sphere information.

図34は、球体DB146のレコードレイアウトの一例を示す説明図である。球体DB146は、球体ID列、メーカ列、サイズ列、言語列を含む。球体ID列は、球体を識別するために、一意に特定される球体IDを記憶している。メーカ列は、メーカの名称を記憶している。サイズ列は、球体のサイズを記憶している。言語列は球体に印字された言語種類を記憶している。   FIG. 34 is an explanatory view showing an example of the record layout of the sphere DB 146. As shown in FIG. The sphere DB 146 includes a sphere ID row, a maker row, a size row, and a language row. The sphere ID string stores a sphere ID uniquely identified to identify the sphere. The maker row stores the name of the maker. The size column stores the size of the sphere. The language string stores the language type printed on the sphere.

図35は、実施形態4のARシステムの動作を説明する説明図である。例えば、海外旅行又は国内旅行に向け、航空会社は搭乗者に映画、音楽等の視聴サービスを提供する。航空会社は、搭乗者の国籍、年齢、性別等の属性に基づき、搭乗者に異なる種類のアースボール3を配布又は販売する。例えば、欧米の国の搭乗者に英語版のアースボール3を配布し、日本の搭乗者に日本語版のアースボール3を配布する。また、子供向けにサイズが小さいアースボール3を配布しても良い。   FIG. 35 is an explanatory diagram for explaining the operation of the AR system of the fourth embodiment. For example, for overseas travel or domestic travel, an airline provides a passenger with a viewing service such as movies and music. The airline distributes or sells different types of earth balls 3 to the passenger based on the attributes such as the nationality, age and gender of the passenger. For example, the English version of Earth Ball 3 is distributed to passengers in western countries, and the Japanese version of Earth Ball 3 is distributed to Japanese passengers. Alternatively, the small earth ball 3 may be distributed to children.

具体的には、航空会社の端末2の制御部21は、航空会社の端末2の撮影部27により撮影したQRコード(登録商標)を読み込み、アースボール3の球体IDを特定する。なお、球体IDの特定手段について、QRコードに限らず、一次元コード又は他の二次元コードにより特定しても良く、手動入力により特定しても良い。またアースボール3の撮影画像中のARマーカ情報により特定しても良い。例えば、航空会社の端末2の制御部21は、航空会社の端末2の撮影部27により撮影したARマーカが付されたアースボール3の撮影画像を取得する。航空会社の端末2の制御部21は、取得した撮影画像中のARマーカを認識し、認識したARマーカに応じた球体IDを特定しても良い。地図中の海、大陸、各国又は都市等に名称が付されている文字がARマーカを構成する場合、大容量記憶部14の球体DB146により文字の言語の種類に応じて球体IDを特定することが可能となる。なお、アースボール3に付与されるQRコード、文字又はARマーカにより球体IDを判別する例を示したが、これに限るものではない。球体の種類に応じて、それぞれ個別のアプリケーションを用意しても良い。この場合、端末2から送信されるアプリケーションIDにより球体IDを特定することができる。   Specifically, the control unit 21 of the terminal 2 of the airline reads the QR code (registered trademark) photographed by the photographing unit 27 of the terminal 2 of the airline, and specifies the sphere ID of the ground ball 3. The means for specifying the sphere ID is not limited to the QR code, but may be specified by a one-dimensional code or another two-dimensional code, or may be specified by manual input. Further, it may be specified by AR marker information in the photographed image of the earth ball 3. For example, the control unit 21 of the terminal 2 of the airline acquires a photographed image of the ground ball 3 with an AR marker photographed by the photographing unit 27 of the terminal 2 of the airline. The control unit 21 of the terminal 2 of the airline may recognize the AR marker in the acquired captured image, and specify the sphere ID according to the recognized AR marker. When letters with names given to seas, continents, countries or cities in the map constitute an AR marker, specify the sphere ID according to the type of the language of the letter by the sphere DB 146 of the mass storage 14 Is possible. In addition, although the example which discriminate | determines spherical object ID by the QR code, the character, or AR marker provided to the earth ball 3 was shown, it does not restrict to this. Individual applications may be prepared according to the type of sphere. In this case, the sphere ID can be specified by the application ID transmitted from the terminal 2.

航空会社の端末2は、特定したアースボール3の球体IDに関連付けて、航空会社のユーザID、表示画像及び表示画像に関連付けられた位置情報をサーバ1に送信する。サーバ1は、航空会社の端末2から送信された航空会社のユーザID、表示画像及び表示画像に関連付けられた位置情報を球体IDに関連付けて、大容量記憶部14に記憶する。   The terminal 2 of the airline transmits the user ID of the airline, the display image, and the position information associated with the display image to the server 1 in association with the specified sphere ID of the earth ball 3. The server 1 stores the user ID of the airline transmitted from the terminal 2 of the airline, the display image, and the position information associated with the display image in the large-capacity storage unit 14 in association with the sphere ID.

これにより、搭乗者の端末2の表示部26を通して、航空会社が提供した表示画像を配布されたアースボール3の撮影画像に重ねて表示することが可能となる。例えば、搭乗者の端末2の撮影部27は、配布されたアースボール3の球体表面のQRコードを撮影する。搭乗者の端末2の制御部21は、撮影したQRコードを読み込み、球体IDを特定する。搭乗者の端末2の通信部23は、特定した球体ID及び航空会社のユーザIDをサーバ1に送信する。サーバ1の制御部11は、受信した球体ID及び航空会社のユーザIDに対応する表示画像と、表示画像に関連付けられた位置情報とを取得する。サーバ1の通信部13は、表示画像及び表示画像に関連付けられた位置情報を搭乗者の端末2に送信する。搭乗者の端末2の通信部23は、サーバ1から送信された表示画像及び表示画像に関連付けられた位置情報を受信する。搭乗者の端末2の制御部21は、受信した表示画像に関連付けられた位置情報に対応するアースボール3の撮影画像中の球体位置を特定する。搭乗者の端末2の表示部26を介して、搭乗者の端末2の制御部21は、受信した表示画像を、特定した球体位置に重ねて表示する。   As a result, the display image provided by the airline can be superimposed and displayed on the photographed image of the distributed earth ball 3 through the display unit 26 of the terminal 2 of the passenger. For example, the photographing unit 27 of the terminal 2 of the passenger photographs the QR code of the spherical surface of the distributed earth ball 3. The control unit 21 of the passenger's terminal 2 reads the captured QR code and specifies the sphere ID. The communication unit 23 of the passenger's terminal 2 transmits the specified sphere ID and the user ID of the airline to the server 1. The control unit 11 of the server 1 acquires the display image corresponding to the received sphere ID and the user ID of the airline, and the position information associated with the display image. The communication unit 13 of the server 1 transmits the display image and the position information associated with the display image to the passenger's terminal 2. The communication unit 23 of the passenger's terminal 2 receives the display image transmitted from the server 1 and the position information associated with the display image. The control unit 21 of the passenger's terminal 2 specifies the ball position in the photographed image of the earth ball 3 corresponding to the position information associated with the received display image. Through the display unit 26 of the passenger's terminal 2, the control unit 21 of the passenger's terminal 2 superimposes and displays the received display image on the specified spherical position.

図36は、実施形態4の端末2が球体IDに基づき表示画像を送信する際の処理手順を示すフローチャートである。図11と重複する内容については同一の符号を付して説明を省略する。端末2の制御部21は、球体IDを特定し(ステップS281)、ユーザID、選択された表示画像及び表示画像に関連付けられた位置情報を特定した球体IDに関連付ける。端末2の通信部23は、球体ID、ユーザID、表示画像及び表示画像に関連付けられた位置情報をサーバ1に送信する(ステップS282)。サーバ1の通信部13は、端末2から送信された球体ID、ユーザID、表示画像及び表示画像に関連付けられた位置情報を受信する(ステップS181)。サーバ1の制御部11は、受信したユーザID、表示画像及び表示画像に関連付けられた位置情報を受信した球体IDに関連付けて、大容量記憶部14に記憶する(ステップS182)。   FIG. 36 is a flowchart showing a processing procedure when the terminal 2 of the fourth embodiment transmits a display image based on the sphere ID. About the content which overlaps with FIG. 11, the same code | symbol is attached | subjected and description is abbreviate | omitted. The control unit 21 of the terminal 2 identifies the sphere ID (step S 281), and associates the user ID, the selected display image, and the position information associated with the display image with the identified sphere ID. The communication unit 23 of the terminal 2 transmits, to the server 1, the sphere ID, the user ID, the display image, and the position information associated with the display image (step S282). The communication unit 13 of the server 1 receives the sphere ID, the user ID, the display image and the position information associated with the display image transmitted from the terminal 2 (step S181). The control unit 11 of the server 1 stores the received user ID, the display image, and the position information associated with the display image in the large-capacity storage unit 14 in association with the received sphere ID (step S182).

図37は、実施形態4の端末2が球体IDに基づき表示画像を受信する際の処理手順を示すフローチャートである。図12と重複する内容については同一の符号を付して説明を省略する。なお、QRコードにより球体IDを特定する例として、処理流れを説明する。端末2の撮影部27は、アースボール3の球体表面のQRコードを撮影する。端末2の制御部21は、撮影したアースボール3の球体表面のQRコードの撮影画像からQRコードを取得する(ステップS283)。端末2の制御部21は、取得したQRコードによる球体IDを特定する(ステップS284)。端末2の通信部23は、特定した球体ID及びユーザIDをサーバ1に送信する(ステップS285)。サーバ1の通信部13は、端末2から送信された球体ID及びユーザIDを受信する(ステップS183)。サーバ1の制御部11は、受信した球体ID及びユーザIDに対応する表示画像IDと、位置情報とを大容量記憶部14のユーザDB141により取得する(ステップS184)。   FIG. 37 is a flowchart showing a processing procedure when the terminal 2 of the fourth embodiment receives a display image based on the sphere ID. About the content which overlaps with FIG. 12, the same code | symbol is attached | subjected and description is abbreviate | omitted. A processing flow will be described as an example of specifying the sphere ID by the QR code. The photographing unit 27 of the terminal 2 photographs the QR code on the surface of the earth ball 3. The control unit 21 of the terminal 2 acquires a QR code from the photographed image of the QR code on the surface of the spherical surface of the ground ball 3 that has been photographed (step S283). The control unit 21 of the terminal 2 specifies the sphere ID by the acquired QR code (step S284). The communication unit 23 of the terminal 2 transmits the specified sphere ID and user ID to the server 1 (step S285). The communication unit 13 of the server 1 receives the sphere ID and the user ID transmitted from the terminal 2 (step S183). The control unit 11 of the server 1 acquires the display image ID corresponding to the received sphere ID and user ID and the position information from the user DB 141 of the large capacity storage unit 14 (step S184).

本実施形態によると、複数の種類の球体に対してARシステムを利用することが可能となる。球体ID毎に表示画像又は音楽等サーバに送受信を行うことにより、多様化又は多用途のサービスを提供することが可能となる。その他企業のノベルティ又は商品として、独自のアースボール3を提供することが可能となる。   According to this embodiment, it is possible to use an AR system for a plurality of types of spheres. By transmitting and receiving to a server such as a display image or music for each sphere ID, it is possible to provide diversified or versatile services. It becomes possible to provide a unique earth ball 3 as a novelty or a product of another company.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiments disclosed herein are illustrative in all respects and not restrictive. The scope of the present invention is indicated not by the meaning described above but by the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims.

1 情報処理装置(サーバ)
11 制御部
12 記憶部
13 通信部
14 大容量記憶部
141 ユーザDB
142 表示画像DB
143 説明情報DB
144 公開情報DB
145 音楽DB
146 球体DB
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 情報処理端末(端末)
21 制御部
22 記憶部
23 通信部
24 アルバム
25 入力部
26 表示部
27 撮影部
28 時計部
29 マイク
20 スピーカ
2P 制御プログラム
3 アースボール
B バス
N ネットワーク
1 Information processing device (server)
11 control unit 12 storage unit 13 communication unit 14 large capacity storage unit 141 user DB
142 Display image DB
143 explanatory information DB
144 Public Information DB
145 Music DB
146 Sphere DB
1a Portable storage medium 1b Semiconductor memory 1P Control program 2 Information processing terminal (terminal)
21 control unit 22 storage unit 23 communication unit 24 album 25 input unit 26 display unit 27 imaging unit 28 clock unit 29 microphone 20 speaker 2P control program 3 earth ball B bus N network

Claims (4)

コンピュータに、
マーカを表面に有する球体は複数種類存在し、
前記球体を識別する球体IDを特定し、
前記球体の撮影画像に重ねて表示するためのコンテンツの選択を受け付け、
前記コンテンツに対応する位置情報を取得し、
受け付けた前記コンテンツ及び取得した前記位置情報を、特定した前記球体ID及びユーザIDに関連付けて送信する
処理を実行させるプログラム。
On the computer
There are multiple types of spheres with markers on the surface,
Identify a sphere ID identifying the sphere,
Accept a selection of content to be displayed superimposed on the captured image of the sphere,
Obtain location information corresponding to the content,
A program that executes processing for transmitting the received content and the acquired position information in association with the specified sphere ID and user ID.
コンピュータに、
マーカを表面に有する球体は複数種類存在し、
前記球体を識別する球体ID、並びに前記球体IDに関連付けられたユーザID、前記球体の撮影画像に重ねて表示するためのコンテンツ及び前記コンテンツに関連付けられた位置情報を受信し、
受信した前記球体ID及び前記ユーザIDに関連付けて、前記コンテンツ及び位置情報を記憶し、
球体ID及びユーザIDを受信した場合に、前記球体ID及び前記ユーザIDに対応する前記コンテンツと、前記コンテンツに関連付けられた前記位置情報を読み出し、
読み出した前記コンテンツ及び前記位置情報を送信する
処理を実行させるプログラム。
On the computer
There are multiple types of spheres with markers on the surface,
Receiving a sphere ID identifying the sphere, a user ID associated with the sphere ID, a content to be displayed superimposed on the photographed image of the sphere, and position information associated with the content;
Storing the content and position information in association with the received sphere ID and the user ID;
When the sphere ID and the user ID are received, the content corresponding to the sphere ID and the user ID, and the position information associated with the content are read out.
A program for executing a process of transmitting the read content and the position information.
マーカを表面に有する球体は複数種類存在し、
前記球体を識別する球体ID、並びに前記球体IDに関連付けられたユーザID、前記球体の撮影画像に重ねて表示するためのコンテンツ及び前記コンテンツに関連付けられた位置情報を受信する受信部と、
前記受信部が受信した前記球体ID及び前記ユーザIDに関連付けて、前記コンテンツ及び前記位置情報を記憶する記憶部と、
球体ID及びユーザIDを受信する第2受信部と、
前記第2受信部が受信した前記球体ID及び前記ユーザIDに基づき、前記記憶部が記憶した前記コンテンツ及び前記コンテンツに関連付けられた前記位置情報を読み出す読み出し部と、
前記読み出し部が読み出した前記コンテンツ及び前記位置情報を送信する送信部と
を備える情報処理装置。
There are multiple types of spheres with markers on the surface,
A sphere ID for identifying the sphere, a user ID associated with the sphere ID, a content to be displayed superimposed on the captured image of the sphere, and a receiving unit for receiving position information associated with the content;
A storage unit for storing the content and the position information in association with the sphere ID and the user ID received by the receiving unit;
A second receiver that receives the sphere ID and the user ID;
A reading unit that reads the content stored by the storage unit and the position information associated with the content based on the sphere ID and the user ID received by the second receiving unit;
An information processing apparatus, comprising: a transmission unit that transmits the content read by the reading unit and the position information.
マーカを表面に有する球体は複数種類存在し、
前記球体を識別する球体IDを特定し、
前記球体の撮影画像に重ねて表示するためのコンテンツの選択を受け付け、
前記コンテンツに対応する位置情報を取得し、
受け付けた前記コンテンツ及び取得した前記位置情報を、特定した前記球体ID及びユーザIDに関連付けて送信する
処理をコンピュータに実行させることを特徴とする情報処理方法。
There are multiple types of spheres with markers on the surface,
Identify a sphere ID identifying the sphere,
Accept a selection of content to be displayed superimposed on the captured image of the sphere,
Obtain location information corresponding to the content,
An information processing method comprising: causing a computer to execute processing for transmitting the received content and the acquired position information in association with the specified sphere ID and user ID.
JP2018186847A 2018-10-01 2018-10-01 Program, information processing device and information processing method Pending JP2019125342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018186847A JP2019125342A (en) 2018-10-01 2018-10-01 Program, information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186847A JP2019125342A (en) 2018-10-01 2018-10-01 Program, information processing device and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018006763A Division JP6413035B1 (en) 2018-01-18 2018-01-18 Program, information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
JP2019125342A true JP2019125342A (en) 2019-07-25

Family

ID=67398897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186847A Pending JP2019125342A (en) 2018-10-01 2018-10-01 Program, information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2019125342A (en)

Similar Documents

Publication Publication Date Title
JP6413035B1 (en) Program, information processing apparatus and information processing method
US9817895B2 (en) Associating video content with geographic maps
CN102763404B (en) Camera, information acquiring system and program
JP5467177B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, INFORMATION PROVIDING PROCESSING PROGRAM, RECORDING MEDIUM CONTAINING INFORMATION PROVIDING PROCESSING PROGRAM, AND INFORMATION PROVIDING SYSTEM
US8949238B2 (en) Information processing device, method, and computer program product
JP2008033399A (en) Information providing system
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
KR20190073032A (en) Method and system for crowdsourcing content based on geofencing
CN114610198A (en) Interaction method, device, equipment and storage medium based on virtual resources
JPH11103451A (en) Stay-at-home travel system
JP6413042B1 (en) Program, information processing apparatus and information processing method
JP2019125342A (en) Program, information processing device and information processing method
CN111076738A (en) Navigation path planning method, planning device, storage medium and electronic equipment
JP7316695B2 (en) Method and system for recommending location-based digital content
JP7090779B2 (en) Information processing equipment, information processing methods and information processing systems
Kitayama Extraction method for Anaba spots based on name recognition and user's evaluation
JP7192749B2 (en) Server, information processing system, program and control method
WO2019124851A1 (en) Method and system for cloud sourcing geofencing-based content
JP4559210B2 (en) Electronic album creation apparatus and electronic album creation system
JP2018163650A (en) Apparatus for using copyrighted work, method for using copyrighted work, and data structure therefor
JP4759021B2 (en) Item distribution apparatus, item distribution method and program
JP2019212267A (en) Program, information processing apparatus, and information processing method
Plocon Open travel map
JP2002223432A (en) Stay-at-home travel system
JP2020046548A (en) Navigation device and navigation method