JP2011186533A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2011186533A
JP2011186533A JP2010047982A JP2010047982A JP2011186533A JP 2011186533 A JP2011186533 A JP 2011186533A JP 2010047982 A JP2010047982 A JP 2010047982A JP 2010047982 A JP2010047982 A JP 2010047982A JP 2011186533 A JP2011186533 A JP 2011186533A
Authority
JP
Japan
Prior art keywords
information
virtual object
user
action
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010047982A
Other languages
Japanese (ja)
Other versions
JP2011186533A5 (en
Inventor
Kazuhiko Teramoto
和彦 寺本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nifty Corp
Original Assignee
Nifty Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nifty Corp filed Critical Nifty Corp
Priority to JP2010047982A priority Critical patent/JP2011186533A/en
Publication of JP2011186533A publication Critical patent/JP2011186533A/en
Publication of JP2011186533A5 publication Critical patent/JP2011186533A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform a high-reality action to a virtual object added to the real world. <P>SOLUTION: An information processing apparatus obtains position information indicating a present position of a mobile terminal, obtains an identifier of the virtual object displayed on a display part of the mobile terminal together with an image of the real world imaged by an imaging part of the mobile terminal, stores the position information of the virtual object virtually determined by use of information of the real world, calculates a distance between the virtual object and the mobile terminal based on the obtained position information of the mobile terminal and the stored position information of the virtual object, obtains an action identifier indicating the user action to the virtual object from the mobile terminal, generates result information indicating a result obtained by applying the user action specified by the action identifier to the virtual object in a state in which the distance between the virtual object and the mobile terminal is reflected, and transmits the generated result information to the mobile terminal. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、拡張現実(AR(Augmented Reality))を用いた情報処理技術に関する。   The present invention relates to an information processing technique using augmented reality (AR).

現在、携帯機器の高性能化に伴い、拡張現実(AR(Augmented Reality))と呼ばれ
る技術を用いたサービスが提供されている。ARとは、現実環境にコンピュータを用いて情報を付加提示する技術である。
Currently, with the improvement in performance of portable devices, services using a technology called augmented reality (AR) are provided. AR is a technique for additionally presenting information to a real environment using a computer.

このARを用いたサービスでは、携帯機器のカメラ機能、GPS(Global Positioning
System)機能、方位測定機能等が利用される。ARを用いたサービスの一例では、各ユ
ーザは、内蔵カメラによって携帯機器の画面に映し出された風景に、ランドマークの名称のようなテキスト、音声、写真、動画等を投稿することができ、更に、他のユーザの投稿を自身の位置に応じて閲覧することができる。
In this AR service, the camera function of the mobile device, GPS (Global Positioning
System) function, direction measurement function, etc. are used. In an example of a service using AR, each user can post a text such as the name of a landmark, a sound, a photo, a video, etc. on the landscape projected on the screen of the mobile device by the built-in camera. Other users' posts can be browsed according to their positions.

また、位置ゲー等と呼ばれる位置情報を利用したゲームが携帯機器向けに提供されている。このようなゲームでは、各ユーザは、各自の携帯機器のGPS機能によりシステムへ位置情報を知らせ、自身の位置登録、移動距離等に応じて所定の特典を受けることができ、更に、他のユーザとゲーム内の仮想空間においてコミュニケーションを取ることができる。   A game using position information called a position game or the like is provided for portable devices. In such a game, each user can notify the system of position information by the GPS function of his / her portable device, and can receive predetermined benefits according to his / her position registration, movement distance, and the like. And can communicate in a virtual space in the game.

特開2009−258340号公報JP 2009-258340 A

しかしながら、上述のようなARを用いたサービスは、テキスト、画像、動画等のような情報を現実世界上に付加すること及び閲覧することを可能とするに留まっており、ユーザの位置とその付加情報との関係に応じてその付加情報に対するユーザアクションの内容や効果を変化させるようなサービスは存在しない。   However, the services using AR as described above only allow information such as text, images, and moving images to be added and browsed in the real world. There is no service that changes the contents and effects of user actions on the additional information according to the relationship with the information.

また、上述のような位置情報を利用した携帯機器向けゲームは、ユーザの位置情報をゲームの舞台となる仮想空間(仮想の街等)に反映させるに留まり、現実世界を舞台としたゲームを提供するサービスは存在しない。   Moreover, the game for portable devices using the position information as described above is not limited to reflecting the position information of the user in the virtual space (virtual town, etc.) that is the stage of the game, and provides the game in the real world. There is no service to do.

本発明の一態様に係る課題は、このような問題点に鑑み、現実世界に付加された仮想対象物に対してリアリティ性の高いアクションを可能とする技術を提供することにある。   In view of such a problem, an object of one embodiment of the present invention is to provide a technique that enables a highly realistic action on a virtual object added to the real world.

本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の態様に係る情報処理装置は、携帯端末の現在位置を示す位置情報を、その携帯端末のユーザ又はその携帯端末を特定するためのユーザ識別子と共に取得する第一取得手段と、上記携帯端末の撮像部により撮像された現実世界の画像と共にその携帯端末の表示部に表示されている仮想対象物の識別子を当該ユーザ識別子と共に上記携帯端末から取得する第二取得手段と、現実世界の情報を用いて仮想的に決められる仮想対象物の位置情報が
その仮想対象物の識別子に対応付けられて格納される仮想情報格納部と、上記第一取得手段によりユーザ識別子と共に取得された携帯端末の位置情報、及び、上記第二取得手段によりユーザ識別子と共に取得された仮想対象物の識別子に対応付けられて上記仮想情報格納部に格納されている仮想対象物の位置情報に基づいて、仮想対象物と携帯端末との間の距離を算出する算出手段と、当該携帯端末のユーザが望む仮想対象物に対するユーザアクションを示すアクション識別子を携帯端末から取得する第三取得手段と、この第三取得手段により取得されたアクション識別子により特定されるユーザアクションを仮想対象物に適用した結果を示す結果情報を上記算出手段により算出された仮想対象物と携帯端末との間の距離を反映させた状態で生成する生成手段と、この生成手段により生成された結果情報を当該携帯端末へ送信する送信手段と、を備える。
An information processing apparatus according to a first aspect includes first acquisition means for acquiring position information indicating a current position of a mobile terminal together with a user identifier for identifying the user of the mobile terminal or the mobile terminal, and the mobile terminal Second acquisition means for acquiring the identifier of the virtual object displayed on the display unit of the mobile terminal together with the image of the real world captured by the imaging unit from the mobile terminal together with the user identifier, and information on the real world A virtual information storage unit in which position information of a virtual object virtually determined by use is stored in association with an identifier of the virtual object, and a position of the mobile terminal acquired together with the user identifier by the first acquisition unit Information and a virtual object stored in the virtual information storage unit in association with the identifier of the virtual object acquired together with the user identifier by the second acquisition means Based on the position information, a calculation means for calculating a distance between the virtual object and the mobile terminal, and an action identifier indicating a user action for the virtual object desired by the user of the mobile terminal is acquired from the mobile terminal. Between the virtual object calculated by the calculation means and the portable terminal, the acquisition means and the result information indicating the result of applying the user action specified by the action identifier acquired by the third acquisition means to the virtual object Generating means for reflecting the distance, and transmitting means for transmitting the result information generated by the generating means to the portable terminal.

第1の態様に係る情報処理装置では、現実世界の情報を用いて仮想的に決められる仮想対象物の位置情報がその仮想対象物の識別子に対応付けられて仮想情報格納部に格納されており、携帯端末の表示部に現実世界の画像と共に表示されている仮想対象物の識別子が携帯端末から取得され、その仮想対象物の位置情報が当該仮想情報格納部から取得される。一方で、情報処理装置では、携帯端末の現在位置を示す位置情報が取得される。これにより、携帯端末の位置情報と仮想対象物の位置情報とから仮想対象物と携帯端末との間の距離が算出され、携帯端末のユーザが望むユーザアクションを当該仮想対象物に適用した結果を示す結果情報が、その算出された距離を反映させた状態で生成される。   In the information processing apparatus according to the first aspect, the position information of the virtual object virtually determined using the information in the real world is stored in the virtual information storage unit in association with the identifier of the virtual object. The identifier of the virtual object displayed on the display unit of the mobile terminal together with the real world image is acquired from the mobile terminal, and the position information of the virtual object is acquired from the virtual information storage unit. On the other hand, in the information processing apparatus, position information indicating the current position of the mobile terminal is acquired. Thus, the distance between the virtual object and the mobile terminal is calculated from the position information of the mobile terminal and the position information of the virtual object, and the result of applying the user action desired by the user of the mobile terminal to the virtual object Result information shown is generated in a state in which the calculated distance is reflected.

このように、現実世界の情報を用いて算出された仮想対象物と携帯端末との間の距離が反映された状態でユーザアクションを当該仮想対象物に適用した結果が生成されるため、その結果情報はリアリティの高い情報となる。結果、このリアリティの高い結果情報が携帯端末にユーザアクションの結果として提供されるため、当該ユーザにとっては、現実世界に付加された仮想対象物に対するアクションであっても高いリアリティ性を感じることができる。即ち、本態様によれば、現実世界に付加された仮想対象物に対してリアリティ性の高いアクションが可能となる。   As described above, a result of applying the user action to the virtual object in a state in which the distance between the virtual object calculated using the real world information and the mobile terminal is reflected is generated. Information is highly realistic information. As a result, since this highly realistic result information is provided to the mobile terminal as a result of the user action, the user can feel high reality even when the action is for a virtual object added to the real world. . That is, according to this aspect, an action with high reality can be performed on a virtual object added to the real world.

上記態様において好ましくは、上記情報処理装置が、複数のユーザアクションの中から、上記算出手段により算出された仮想対象物と携帯端末との間の距離に適合する少なくとも1つのユーザアクションを選択する選択手段を更に備え、上記送信手段が、上記選択手段により選択された少なくとも1つのユーザアクションを示すアクション識別子を当該ユーザに選択可能なユーザアクション情報として携帯端末に送信する。   In the above aspect, preferably, the information processing apparatus selects, from a plurality of user actions, at least one user action that matches a distance between the virtual object calculated by the calculation unit and the mobile terminal. The transmission means further transmits an action identifier indicating at least one user action selected by the selection means to the portable terminal as user action information selectable by the user.

この態様では、現実世界の情報を用いて算出された仮想対象物と携帯端末との間の距離に適合するように選択された少なくとも1つのユーザアクションが携帯端末のユーザに選択できるアクションとして提供される。これにより、携帯端末のユーザにとって、ユーザアクションを選ぶ際にも高いリアリティ性を感じすることができる。   In this aspect, at least one user action selected so as to match the distance between the virtual object calculated using real-world information and the mobile terminal is provided as an action that can be selected by the user of the mobile terminal. The As a result, the user of the mobile terminal can feel high reality even when selecting a user action.

上記態様において好ましくは、上記情報処理装置が、上記仮想情報格納部が、仮想対象物に関し、更に、仮想対象物からの各方向に応じた各方向パラメータをそれぞれ格納し、上記算出手段が、携帯端末の位置情報及び仮想対象物の位置情報に基づいて、仮想対象物を基準とした携帯端末の方向を算出し、上記生成手段が、上記算出手段により算出された仮想対象物からの携帯端末の方向に適合する仮想対象物の方向パラメータを仮想情報格納部から抽出し、この抽出された方向パラメータを反映させた結果情報を生成する。   In the above aspect, preferably, the information processing apparatus is configured so that the virtual information storage unit stores a direction parameter corresponding to each direction from the virtual object with respect to the virtual object, and the calculation unit includes a portable device. Based on the position information of the terminal and the position information of the virtual object, the direction of the mobile terminal with respect to the virtual object is calculated, and the generation unit calculates the direction of the mobile terminal from the virtual object calculated by the calculation means. A direction parameter of a virtual object that matches the direction is extracted from the virtual information storage unit, and result information that reflects the extracted direction parameter is generated.

この態様では、現実世界の情報(位置情報)を用いて、仮想対象物を基準とした携帯端末の方向が算出され、この算出された方向に適合する仮想対象物の方向パラメータが当該ユーザアクションの結果情報に反映される。これにより、仮想対象物と携帯端末との方向が考慮されるため、より高いリアリティ性をユーザに感じさせることが可能となる。   In this aspect, the direction of the mobile terminal with respect to the virtual object is calculated using real-world information (position information), and the direction parameter of the virtual object that matches the calculated direction is the user action's direction parameter. Reflected in the result information. Thereby, since the direction of a virtual target object and a portable terminal is considered, it becomes possible to make a user feel higher reality.

なお、本発明の別態様としては、以上の何れかの構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。   As another aspect of the present invention, an information processing method for realizing any of the above configurations, a program, or a computer-readable storage recording such a program may be used. It may be a medium.

上記各態様によれば、現実世界に付加された仮想対象物に対してリアリティ性の高いアクションを可能とする技術を提供することができる。   According to each of the above aspects, it is possible to provide a technology that enables a highly realistic action on a virtual object added to the real world.

本実施形態におけるアプリケーションサーバが適用されたシステムの構成を示す図。The figure which shows the structure of the system to which the application server in this embodiment was applied. 本実施形態におけるアプリケーションサーバの構成を示す概略図。Schematic which shows the structure of the application server in this embodiment. ユーザ情報テーブルの例を示す図。The figure which shows the example of a user information table. アクション定義テーブルの例を示す図。The figure which shows the example of an action definition table. 対象物情報テーブルの例を示す図。The figure which shows the example of a target object information table. ARを用いたゲームシーンの例を示す図。The figure which shows the example of the game scene using AR. ユーザ端末の表示画面の例を示す図。The figure which shows the example of the display screen of a user terminal. アプリサーバの動作例を示すフローチャート。The flowchart which shows the operation example of an application server. アクション選択部の例を示す図。The figure which shows the example of an action selection part. アクション結果を示す画面の例を示す図。The figure which shows the example of the screen which shows an action result.

以下、本発明の実施形態としてのアプリケーションサーバについて具体例を挙げ説明する。以下の具体例では、アプリケーションサーバがユーザの利用する携帯端末にARゲームを提供する場合を例に挙げるが、本発明は本アプリケーションサーバが提供する対象をゲームに限定するものではない。提供される対象は、現実環境に電子情報を付加提示するサービスであれば、ゲーム性がなくともよい。   Hereinafter, a specific example of the application server as an embodiment of the present invention will be described. In the following specific example, a case where the application server provides an AR game to a mobile terminal used by a user is taken as an example, but the present invention does not limit the target provided by the application server to a game. If the target to be provided is a service that additionally presents electronic information to the real environment, it may not have game characteristics.

図1は、本実施形態におけるアプリケーションサーバが適用されたシステムの構成を示す図である。本実施形態におけるアプリケーションサーバ(以降、アプリサーバと表記する)2は、各ユーザが利用する携帯端末(以降、ユーザ端末と表記する)9と、インターネット、移動体通信ネットワークのようなネットワーク1でそれぞれ接続される。アプリサーバ2は、各ユーザ端末9にネットワークゲームサービスを提供する。なお、各ユーザ端末9は、移動端末であるため、無線通信によりネットワーク1に接続されればよく、本発明は、アプリケーションサーバ2と各ユーザ端末9との通信接続手法を限定するものではない。   FIG. 1 is a diagram illustrating a configuration of a system to which an application server according to the present embodiment is applied. An application server (hereinafter referred to as an application server) 2 in the present embodiment is a mobile terminal (hereinafter referred to as a user terminal) 9 used by each user and a network 1 such as the Internet or a mobile communication network. Connected. The application server 2 provides a network game service to each user terminal 9. Since each user terminal 9 is a mobile terminal, it only needs to be connected to the network 1 by wireless communication, and the present invention does not limit the communication connection method between the application server 2 and each user terminal 9.

[装置構成]
以下、アプリケーションサーバ2及びユーザ端末9の各構成についてそれぞれ説明する。
[Device configuration]
Hereinafter, each configuration of the application server 2 and the user terminal 9 will be described.

ユーザ端末9は、携帯電話、ネットワークPC(Personal Computer)等のような携帯
情報端末である。ユーザ端末9は、制御部、メモリ、無線通信部、撮像部、表示部、操作部等を有する。ユーザ端末9は、メモリに格納されるプログラム(ダウンロードされたプログラムも含む)が制御部で実行されることにより、各処理部と連携しながら、無線通信機能、位置情報取得機能、カメラ機能、アプリサーバ2との間のインタフェース機能、ユーザインタフェース機能等を実現する。本発明は、上記各機能を実現する一般的な手段を有していればよく、各手段を限定するものではないため、上記各機能について簡単に説明する。
The user terminal 9 is a portable information terminal such as a mobile phone or a network PC (Personal Computer). The user terminal 9 includes a control unit, a memory, a wireless communication unit, an imaging unit, a display unit, an operation unit, and the like. The user terminal 9 executes a program stored in a memory (including a downloaded program) by the control unit, so that the wireless communication function, the position information acquisition function, the camera function, and the application are performed in cooperation with each processing unit. An interface function and a user interface function with the server 2 are realized. The present invention only needs to have general means for realizing each function described above, and does not limit each means. Therefore, each function will be briefly described.

無線通信機能は、無線処理部、ベースバンド処理部などを含む無線通信部により実現され、最寄りの基地局を介してユーザ端末9をネットワーク1と無線接続させる。この機能により、ユーザ端末9は、アプリサーバ2と各種データをやりとりする。   The wireless communication function is realized by a wireless communication unit including a wireless processing unit, a baseband processing unit, and the like, and wirelessly connects the user terminal 9 to the network 1 via the nearest base station. With this function, the user terminal 9 exchanges various data with the application server 2.

位置情報取得機能は、ユーザ端末9の現在位置(緯度及び経度)を取得する機能である。位置情報取得機能は、GPS(Global Positioning System)衛星からの電波をユーザ
端末9に搭載されるGPSアンテナで受信することによりユーザ端末9の現在位置を取得してもよいし、最寄の基地局からの信号に応じて当該現在位置を取得してもよい。また、位置情報取得機能は、高度計等を用いることによりユーザ端末9の高さ情報を取得するようにしてもよいし、電子コンパス機能を用いることによりユーザ端末9が向いている方位情報を取得するようにしてもよい。この位置情報取得機能により取得された位置情報は、任意のタイミングにより無線通信機能を介してアプリサーバ2へ随時送られる。
The position information acquisition function is a function for acquiring the current position (latitude and longitude) of the user terminal 9. The position information acquisition function may acquire the current position of the user terminal 9 by receiving a radio wave from a GPS (Global Positioning System) satellite by a GPS antenna mounted on the user terminal 9, or the nearest base station The current position may be acquired in accordance with a signal from. In addition, the position information acquisition function may acquire the height information of the user terminal 9 by using an altimeter or the like, or acquire the orientation information that the user terminal 9 faces by using the electronic compass function. You may do it. The position information acquired by this position information acquisition function is sent to the application server 2 at any time via the wireless communication function at an arbitrary timing.

カメラ機能は、ユーザ端末9に搭載される撮像部(撮像素子等)により撮像された映像(画像)を表示部に表示させる。その画像は、リアルタイムの現実環境を映し出したものである。表示部は、液晶パネル等のような電子データ表示媒体である。ユーザインタフェース機能は、ユーザ端末9に搭載される、操作ボタンのような操作部からの入力を受け付ける。   The camera function displays a video (image) captured by an imaging unit (imaging device or the like) mounted on the user terminal 9 on the display unit. The image reflects a real-time real-time environment. The display unit is an electronic data display medium such as a liquid crystal panel. The user interface function accepts input from an operation unit such as an operation button mounted on the user terminal 9.

アプリサーバ2との間のインタフェース機能は、無線通信機能により受信されたアプリサーバ2からの画面データを受け、この画面データを上記カメラ機能で取得された現実環境の画像と重畳させて表示部に表示させる。このような表示処理は、ARを用いたアプリケーションにより実行される一般的な処理であればよいため、ここでは詳細説明を省略する。また、このインタフェース機能は、ユーザインタフェース機能により取得されたユーザ操作内容に応じて、各種データをアプリサーバ2へ送信する。アプリサーバ2とユーザ端末9との間のインタフェースとしてはWEBシステムを利用する場合には、このインタフェース機能は例えばWEBブラウザ等により実現される。   The interface function with the application server 2 receives screen data from the application server 2 received by the wireless communication function, and superimposes this screen data on the real environment image acquired by the camera function on the display unit. Display. Since such a display process may be a general process executed by an application using AR, detailed description thereof is omitted here. In addition, this interface function transmits various data to the application server 2 in accordance with the user operation content acquired by the user interface function. When the WEB system is used as an interface between the application server 2 and the user terminal 9, this interface function is realized by, for example, a WEB browser.

〔アプリケーションサーバ〕
図2は、本実施形態におけるアプリケーションサーバ2の構成を示す概略図である。
[Application server]
FIG. 2 is a schematic diagram showing the configuration of the application server 2 in the present embodiment.

アプリサーバ2は、ハードウェア構成として、図2に示されるように、バス22で接続される、制御部25、記憶部23、通信部21等を有する。記憶部23は、例えばハードディスクであり、制御部25で実行される処理で利用される各種情報を記憶する。制御部25は、CPU(Central Processing Unit)等の1又は複数のプロセッサ、このプロセ
ッサの処理に利用される周辺回路(ROM(Read Only Memory)、RAM(Random Access Memory)、インタフェース回路等)を有する。通信部21は、ネットワーク1に接続され、IP(Internet Protocol)パケット等の送受信を行う。アプリサーバ2は、PC等
のような汎用コンピュータで構築されてもよいし、専用コンピュータで構築されるようにしてもよい。本発明は、アプリサーバ2のハードウェア構成を限定するものではない。
As shown in FIG. 2, the application server 2 includes a control unit 25, a storage unit 23, a communication unit 21, and the like connected via a bus 22 as a hardware configuration. The storage unit 23 is, for example, a hard disk, and stores various types of information used in processing executed by the control unit 25. The control unit 25 includes one or more processors such as a CPU (Central Processing Unit) and peripheral circuits (ROM (Read Only Memory), RAM (Random Access Memory), interface circuit, etc.) used for processing of the processor. . The communication unit 21 is connected to the network 1 and transmits and receives IP (Internet Protocol) packets and the like. The application server 2 may be constructed by a general-purpose computer such as a PC, or may be constructed by a dedicated computer. The present invention does not limit the hardware configuration of the application server 2.

アプリサーバ2は、記憶部23に記憶されるアプリケーションプログラムが制御部25により実行されることにより、図2に示す各処理部を実現する。このような処理部として、アプリサーバ2は、位置情報管理部31、端末インタフェース部(以降、端末IFと表記する)32、関係情報算出部33、アクション選別部34、アクション結果生成部35等を有する。これら処理部により参照されるデータベースとして、記憶部23には、ユーザ情報テーブル37、対象物情報テーブル38、アクション定義テーブル39等が格納される。以下、これらアプリサーバ2の各処理部についてそれぞれ説明する。   The application server 2 implements each processing unit shown in FIG. 2 by executing the application program stored in the storage unit 23 by the control unit 25. As such a processing unit, the application server 2 includes a location information management unit 31, a terminal interface unit (hereinafter referred to as a terminal IF) 32, a relationship information calculation unit 33, an action selection unit 34, an action result generation unit 35, and the like. Have. As a database referred to by these processing units, the storage unit 23 stores a user information table 37, an object information table 38, an action definition table 39, and the like. Hereinafter, each processing unit of the application server 2 will be described.

位置情報管理部31は、各ユーザ端末9から送られる位置情報及びユーザIDを受信し、この受信された位置情報をユーザ情報テーブル37のそのユーザIDで特定されるレコードに格納する。ここで、ユーザIDとは、ユーザ端末9を操作するユーザを特定するための識別子であってもよいし、ユーザ端末9を特定するための識別子であってもよい。   The location information management unit 31 receives location information and a user ID sent from each user terminal 9 and stores the received location information in a record specified by the user ID in the user information table 37. Here, the user ID may be an identifier for specifying a user who operates the user terminal 9 or may be an identifier for specifying the user terminal 9.

図3は、ユーザ情報テーブル37の例を示す図である。ユーザ情報テーブル37は、各ユーザ端末9について、ユーザID、現在位置緯度、現在位置経度、選択中対象物ID、選択中対象物とそのユーザ端末9との距離(図3に示す距離フィールド)、選択中対象物から見たそのユーザIDにより特定されるユーザ端末9の象限(図3に示す象限フィールド)、実行可能なアクションのアクションID(図3に示す実行可能アクション1フィールド、実行可能アクション2フィールド)をそれぞれ格納する。   FIG. 3 is a diagram illustrating an example of the user information table 37. The user information table 37 includes, for each user terminal 9, a user ID, a current position latitude, a current position longitude, a selected object ID, a distance between the selected object and the user terminal 9 (distance field shown in FIG. 3), The quadrant of the user terminal 9 (quadrant field shown in FIG. 3) specified by the user ID viewed from the selected object, the action ID of the executable action (executable action 1 field, executable action 2 shown in FIG. 3) Field).

位置情報管理部31は、受信された位置情報に含まれる緯度情報及び経度情報をユーザ情報テーブル37の現在位置緯度フィールド及び現在位置経度フィールドに格納する。当該位置情報に高さ情報や方位情報が含まれている場合には、このユーザ情報テーブル37にそれらを格納するフィールドが付加されればよい。   The position information management unit 31 stores the latitude information and longitude information included in the received position information in the current position latitude field and the current position longitude field of the user information table 37. When the position information includes height information and azimuth information, a field for storing them may be added to the user information table 37.

選択中対象物IDフィールドには、そのユーザ端末9においてアクション対象として選択されている仮想対象物を特定するためのIDが格納される。ここで仮想対象物とは、ユーザ端末9の表示部において現実世界の画像と共に描画されているアプリサーバ2により生成された電子情報であり、例えばゲーム内の登場物(モンスター)である。以降、この仮想対象物を単に対象物とも表記する。象限フィールドには、北東象限、南東象限、南西象限及び北西象限の各象限を示すIDがそれぞれ格納される。なお、本実施形態では、選択中対象物からのユーザ端末9の方位を象限で示したが、16方位等のようなより詳細な方位情報が格納されるようにしてもよい。距離フィールドには、選択中対象物とそのユーザ端末9との距離が格納される。実行可能なアクションのアクションIDを格納するフィールド(以降、実行可能アクションフィールドと表記する)には、そのユーザ端末9で選ぶことができるアクションを特定するための識別子(以降、アクションIDとも表記する)が格納される。図3には、実行可能アクションフィールドは、2つ示されているが、この実行可能アクションフィールドの数は限定されない。   In the selected object ID field, an ID for specifying the virtual object selected as the action object in the user terminal 9 is stored. Here, the virtual object is electronic information generated by the application server 2 drawn together with the real world image on the display unit of the user terminal 9, and is, for example, an appearance (monster) in the game. Hereinafter, this virtual object is also simply referred to as an object. In the quadrant field, IDs indicating the quadrants of the northeast quadrant, the southeast quadrant, the southwest quadrant, and the northwest quadrant are stored. In the present embodiment, the azimuth of the user terminal 9 from the selected object is shown in quadrants, but more detailed azimuth information such as 16 azimuths may be stored. In the distance field, the distance between the selected object and the user terminal 9 is stored. In a field for storing an action ID of an executable action (hereinafter referred to as an executable action field), an identifier for specifying an action that can be selected by the user terminal 9 (hereinafter also referred to as an action ID). Is stored. Although two executable action fields are shown in FIG. 3, the number of executable action fields is not limited.

図4は、アクション定義テーブル39の例を示す図である。アクション定義テーブル39には、図4に示すように、各アクションについて、アクションID、アクション名、攻撃値、最低距離がそれぞれ格納される。攻撃値及び最低距離は、各アクションについてのパラメータである。攻撃値は、そのアクションが選択中対象物に実行された場合の効果に結びつく値である。最低距離は、選択中対象物とユーザ端末9との間の距離に応じて実行可能なアクションを決めるための値である。上記ユーザ情報テーブル37の実行可能アクションフィールドには、そのユーザ端末9において選択可能と判定されたアクションを示すアクションIDが格納される。   FIG. 4 is a diagram illustrating an example of the action definition table 39. As shown in FIG. 4, the action definition table 39 stores an action ID, an action name, an attack value, and a minimum distance for each action. The attack value and the minimum distance are parameters for each action. The attack value is a value related to the effect when the action is executed on the selected object. The minimum distance is a value for determining an action that can be executed according to the distance between the selected object and the user terminal 9. In the executable action field of the user information table 37, an action ID indicating an action determined to be selectable by the user terminal 9 is stored.

端末IF部32は、アプリサーバ2にアクセスする各ユーザ端末9とのインタフェースとして機能する。例えば、このインタフェースとしてWEBシステムが利用される場合には、端末IF部32はWEBサーバとして機能する。端末IF部32は、アクセスしてきたユーザ端末9に対して認証処理等を実行し、正当性が認められたユーザ端末9に対してネットワークゲームサービスを提供する。   The terminal IF unit 32 functions as an interface with each user terminal 9 that accesses the application server 2. For example, when a WEB system is used as this interface, the terminal IF unit 32 functions as a WEB server. The terminal IF unit 32 executes an authentication process or the like on the user terminal 9 that has accessed, and provides a network game service to the user terminal 9 that has been validated.

端末IF部32は、ゲームサーバとしても機能し、ユーザ端末9に対してゲームのための画面データを提供する。この画面データには、例えば、ゲームの名称、ユーザの名称、得点などの情報が含まれる。また、端末IF部32は、上述した対象物を管理する。本実施形態ではゲームが対象となっているため、端末IF部32は、当該対象物として、ゲー
ム内の登場物(モンスター)を管理する。
The terminal IF unit 32 also functions as a game server and provides screen data for the game to the user terminal 9. This screen data includes, for example, information such as a game name, a user name, and a score. In addition, the terminal IF unit 32 manages the above-described object. Since the game is targeted in this embodiment, the terminal IF unit 32 manages the appearance (monster) in the game as the target.

端末IF部32は、任意のタイミングで、ゲーム内の登場物として、或るモンスターを生成する。具体的には、端末IF部32は、このモンスターを特定するための対象物IDを新たに生成し、そのモンスターの名称を決め、現実世界(現実環境)におけるそのモンスターの位置を決める。この位置情報としては、現実世界の緯度、経度、高さの各情報が利用される。また、端末IF部32は、そのモンスター自体のパラメータとして、体力値、及び、各象限からのユーザアクションに対する各防御値を決める。なお、ゲーム内の登場物自体は、予め決められており、メモリ等に格納されるようにしてもよい。この場合には、端末IF部32は、任意のタイミングで、各登場物の位置を決めるようにしてもよい。   The terminal IF unit 32 generates a certain monster as an appearance in the game at an arbitrary timing. Specifically, the terminal IF unit 32 newly generates an object ID for specifying this monster, determines the name of the monster, and determines the position of the monster in the real world (real environment). As the position information, information on the latitude, longitude, and height of the real world is used. In addition, the terminal IF unit 32 determines a physical strength value and a defense value for a user action from each quadrant as parameters of the monster itself. Note that the appearance material itself in the game is determined in advance and may be stored in a memory or the like. In this case, the terminal IF unit 32 may determine the position of each appearance object at an arbitrary timing.

図5は、対象物情報テーブル38の例を示す図である。対象物情報テーブル38には、各対象物に関し、対象物ID、対象物名、位置緯度、位置経度、高さ、体力値、各象限の防御値がそれぞれ格納される。端末IF部32は、上述のように決められた対象物に関する情報をこの対象物情報テーブル38に格納する。体力値フィールドの値は、ユーザアクションが適用されることにより変更される。   FIG. 5 is a diagram illustrating an example of the object information table 38. In the object information table 38, an object ID, an object name, a position latitude, a position longitude, a height, a physical strength value, and a defense value of each quadrant are stored for each object. The terminal IF unit 32 stores information regarding the object determined as described above in the object information table 38. The value of the strength value field is changed by applying a user action.

端末IF部32は、ユーザ情報テーブル37に格納される各ユーザ端末9の位置情報と対象物情報テーブル38に格納される各対象物の位置情報とに応じて、ユーザ端末9の現在位置から所定範囲内の位置に存在するものとして決められている対象物を特定し、この対象物に関するデータをそのユーザ端末9へ送信する。対象物に関するデータとしては、モンスターの画像のような対象物の画像データ、対象物ID、対象物名、対象物の位置情報、体力値等が含まれる。このような対象物に関するデータを受信したユーザ端末9では、カメラ機能により取得された現実環境の画像上の、この対象物の位置情報に応じた位置にその対象物の画像が表示される。   The terminal IF unit 32 determines from the current position of the user terminal 9 according to the position information of each user terminal 9 stored in the user information table 37 and the position information of each object stored in the object information table 38. An object determined to be present at a position within the range is specified, and data relating to the object is transmitted to the user terminal 9. The data related to the object includes image data of the object such as a monster image, object ID, object name, position information of the object, physical fitness value, and the like. In the user terminal 9 that has received such data relating to the object, the image of the object is displayed at a position corresponding to the position information of the object on the image of the real environment acquired by the camera function.

端末IF部32は、各ユーザ端末9におけるユーザ操作に応じて各ユーザ端末9から送られる各種データを受け付ける。各種データとしては、上述のようにユーザ端末9において現実環境の画像上に表示された対象物がユーザ操作により選択されたこと、即ち、対象物選択操作が実行されたことを示すデータ及びその選択された対象物の対象物IDが含まれる。また、各種データとしては、ユーザ端末9においてユーザ操作により1つのアクションが選択されたこと、即ち、アクション選択操作が実行されたことを示すデータ及びその選択されたアクションのアクションIDが含まれる。   The terminal IF unit 32 receives various data sent from each user terminal 9 in response to a user operation at each user terminal 9. As various data, as described above, data indicating that the object displayed on the image of the real environment on the user terminal 9 has been selected by the user operation, that is, the object selection operation has been executed, and the selection thereof. The target object ID of the target object is included. The various data includes data indicating that one action is selected by a user operation on the user terminal 9, that is, data indicating that an action selection operation is performed, and an action ID of the selected action.

端末IF部32は、対象物選択操作が実行されたことを示すデータを受けた場合には、そのデータの送信元を示すユーザID及び選択された対象物の対象物IDを関係情報算出部33に送る。端末IF部32は、アクション選択操作が実行されたことを示すデータを受けた場合には、そのデータの送信元を示すユーザID及び選択されたアクションのアクションIDをアクション結果生成部35へ送る。   When the terminal IF unit 32 receives data indicating that the object selection operation has been executed, the terminal IF unit 32 obtains the user ID indicating the transmission source of the data and the object ID of the selected object from the relation information calculation unit 33. Send to. When receiving data indicating that the action selection operation has been executed, the terminal IF unit 32 sends the user ID indicating the transmission source of the data and the action ID of the selected action to the action result generation unit 35.

関係情報算出部33は、端末IF部32からユーザID及び対象物IDを受けると、その対象物IDで示される対象物の位置を取得し、ユーザIDで示されるユーザ端末9とその対象物との距離を算出し、その対象物から見た場合のそのユーザ端末9の象限を決定する。具体的には、関係情報算出部33は、ユーザ情報テーブル37から、端末IF部32から送られたユーザIDが設定されているレコードを抽出し、このレコードの選択中対象物IDフィールドに、端末IF部32から送られた対象物IDを格納する。加えて、関係情報算出部33は、その抽出されたレコードにおける現在位置緯度フィールド及び現在位置経度フィールドに格納される緯度情報及び経度情報を取得する。   Upon receiving the user ID and the object ID from the terminal IF unit 32, the relationship information calculation unit 33 acquires the position of the object indicated by the object ID, and the user terminal 9 indicated by the user ID and the object And the quadrant of the user terminal 9 when viewed from the object is determined. Specifically, the relationship information calculation unit 33 extracts a record in which the user ID sent from the terminal IF unit 32 is set from the user information table 37, and displays the terminal in the selected object ID field of this record. The object ID sent from the IF unit 32 is stored. In addition, the relationship information calculation unit 33 acquires latitude information and longitude information stored in the current position latitude field and the current position longitude field in the extracted record.

関係情報算出部33は、対象物情報テーブル38から、端末IF部32から送られた対象物IDが設定されているレコードを抽出し、このレコードの位置緯度フィールド及び位置経度フィールドに格納される緯度情報、経度情報及び高さ情報を取得する。関係情報算出部33は、対象物情報テーブル38から取得された緯度情報、経度情報及び高さ情報と、ユーザ情報テーブル37から送られた緯度情報及び経度情報と、に基づいて、選択中の対象物とユーザ端末9との距離を算出する。このとき、ユーザ端末9の高さは例えばゼロに設定される。   The relationship information calculation unit 33 extracts a record in which the object ID sent from the terminal IF unit 32 is set from the object information table 38 and stores the latitude stored in the position latitude field and the position longitude field of this record Get information, longitude information and height information. The relationship information calculation unit 33 selects the target being selected based on the latitude information, longitude information, and height information acquired from the object information table 38, and the latitude information and longitude information sent from the user information table 37. The distance between the object and the user terminal 9 is calculated. At this time, the height of the user terminal 9 is set to zero, for example.

更に、関係情報算出部33は、ユーザ端末9の緯度情報及び経度情報と、対象物の緯度情報及び経度情報とから、その対象物から見た場合のそのユーザ端末9の象限を決定する。本実施形態では、北東象限、南東象限、南西象限及び北西象限のいずれか1つがその対象物から見た場合のそのユーザ端末9の象限として決定される。   Furthermore, the relationship information calculation unit 33 determines the quadrant of the user terminal 9 when viewed from the target object from the latitude information and longitude information of the user terminal 9 and the latitude information and longitude information of the target object. In the present embodiment, any one of the northeast quadrant, the southeast quadrant, the southwest quadrant, and the northwest quadrant is determined as the quadrant of the user terminal 9 when viewed from the object.

関係情報算出部33は、このようにして得られた距離及び象限を、ユーザ情報テーブル37におけるそのユーザIDで特定されるレコードの距離フィールド及び象限フィールドに格納する。   The relationship information calculation unit 33 stores the distance and quadrant obtained in this way in the distance field and quadrant field of the record specified by the user ID in the user information table 37.

アクション選別部34は、関係情報算出部33により更新された距離の情報に基づいて、ユーザ端末9がその選択中の対象物に対して実行することのできるアクション(攻撃)の種類を特定する。具体的には、アクション選別部34は、アクション定義テーブル39から、関係情報算出部33により算出された距離が最低距離フィールドの値以下となっているレコードを抽出し、このレコードのアクションID及びアクション名を取得する。   The action selection unit 34 specifies the type of action (attack) that the user terminal 9 can execute on the selected object based on the distance information updated by the relationship information calculation unit 33. Specifically, the action selection unit 34 extracts a record in which the distance calculated by the relationship information calculation unit 33 is equal to or less than the value of the minimum distance field from the action definition table 39, and the action ID and action of this record Get the name.

アクション選別部34は、この取得されたアクションIDをユーザ情報テーブル37における対象のユーザIDで特定されるレコードの実行可能アクションフィールドに格納する。アクション選別部34は、得られたアクションID及びアクション名を端末IF部32を介してユーザ端末9へ送信する。   The action selection unit 34 stores the acquired action ID in the executable action field of the record specified by the target user ID in the user information table 37. The action selection unit 34 transmits the obtained action ID and action name to the user terminal 9 via the terminal IF unit 32.

アクション結果生成部35は、端末IF部32からユーザID及び選択されたアクションのアクションIDを受けると、その選択されたアクションが選択中対象物に適用された結果情報を生成する。本実施形態では、ゲームを対象としているため、アクションの適用効果は、選択中対象物であるモンスターの体力値の減少であり、その結果情報は、当該モンスターの残体力値である。   Upon receiving the user ID and the action ID of the selected action from the terminal IF unit 32, the action result generation unit 35 generates result information in which the selected action is applied to the selected object. In the present embodiment, since the game is targeted, the action application effect is a decrease in the stamina value of the monster being selected, and the result information is the remaining stamina value of the monster.

アクション結果生成部35は、アクションの適用効果を決定するにあたり、ユーザ端末9と対象物との距離の情報を用いる。本実施形態では、アクション結果生成部35は、ユーザ端末9と対象物との距離に応じたそのアクションの効果、即ち、アクションの攻撃値を算出する。アクションは、その距離に応じて、対象物へ与える影響度が変わるはずである。例えば、殴るというアクションは、その対象物との距離が近い程、大きなダメージをその対象物へ与えることができるはずである。そこで、本実施形態においても、仮想的なアクションを実世界の現象に近づけるために、距離に応じてアクションの攻撃値を変える。アクション結果生成部35は、1から、上記取得された距離を所定の単位距離(例えば、1000メートル)で割った値を引いた値を攻撃係数とし、この攻撃係数をアクション定義テーブル39から取得された攻撃値に掛け合わせた値を現在の攻撃値として算出する。なお、所定の単位距離は、そのアクションの効果が生じ得る最大距離として決められ、予め保持される。つまり、取得された距離がその所定の単位距離となる場合には攻撃係数がゼロになり、その取得された距離が小さくなる程、攻撃係数が大きくなるように算出される。   The action result generation unit 35 uses information on the distance between the user terminal 9 and the object in determining the action application effect. In the present embodiment, the action result generation unit 35 calculates the effect of the action according to the distance between the user terminal 9 and the object, that is, the attack value of the action. The degree of influence of the action on the object should change according to the distance. For example, the action of hitting should be able to do more damage to the object the closer it is to the object. Therefore, also in the present embodiment, the attack value of the action is changed according to the distance in order to bring the virtual action closer to the real world phenomenon. The action result generation unit 35 uses a value obtained by subtracting a value obtained by dividing the acquired distance by a predetermined unit distance (for example, 1000 meters) from 1 as an attack coefficient, and the attack coefficient is acquired from the action definition table 39. A value obtained by multiplying the attack value is calculated as the current attack value. The predetermined unit distance is determined as the maximum distance at which the effect of the action can occur and is held in advance. That is, when the acquired distance is the predetermined unit distance, the attack coefficient is zero, and the attack coefficient is calculated to increase as the acquired distance decreases.

アクション結果生成部35は、生成された結果情報(体力値)を対象物情報テーブル3
8のその対象物を示すレコードに反映させる。アクション結果生成部35は、生成された結果情報(体力値)等の情報を端末IF部32を介してユーザ端末9へ送信する。これにより、ユーザ端末9の画面では、当該モンスターに関し、そのアクションが実行されたことにより減少した体力値が表示される。なお、本実施形態は、このような結果情報のユーザ端末9上での表示形態を限定するものではない。また、結果情報の具体的な生成手法については、以下の動作例の項において詳述する。
The action result generation unit 35 uses the generated result information (physical fitness value) as the object information table 3.
8 is reflected in the record indicating the object. The action result generation unit 35 transmits information such as the generated result information (physical fitness value) to the user terminal 9 via the terminal IF unit 32. Thereby, on the screen of the user terminal 9, the stamina value which decreased by having performed the action regarding the said monster is displayed. In addition, this embodiment does not limit the display form on the user terminal 9 of such result information. Further, a specific method for generating the result information will be described in detail in the following operation example section.

[動作例]
以下、本実施形態におけるアプリサーバ2及びユーザ端末9の各動作例について図6の例に基づいて説明する。図6は、ARを用いたゲームシーンの例を示す図である。
[Operation example]
Hereinafter, each operation example of the application server 2 and the user terminal 9 in the present embodiment will be described based on the example of FIG. FIG. 6 is a diagram showing an example of a game scene using AR.

アプリサーバ2の位置情報管理部31は、任意のタイミングにより、ユーザ端末9(#1)及び(#2)の各々から位置情報(位置U1及びU2)及びユーザIDを取得している。位置情報管理部31は、取得された各位置情報を各ユーザIDで特定されるユーザ情報テーブル37のレコードの現在位置緯度フィールド及び現在位置経度フィールドにそれぞれ格納する。図6の例では、ユーザ端末9(#1)に関し現在位置緯度はX5、現在位置経度はY5に設定され、ユーザ端末9(#2)に関し現在位置緯度はX6、現在位置経度はY6に設定される。なお、本実施形態では、各ユーザ端末9から高さ情報を得ない例を示しているため、各ユーザ端末9の高さはゼロに設定される。   The location information management unit 31 of the application server 2 acquires location information (locations U1 and U2) and a user ID from each of the user terminals 9 (# 1) and (# 2) at an arbitrary timing. The position information management unit 31 stores each acquired position information in the current position latitude field and the current position longitude field of the record of the user information table 37 specified by each user ID. In the example of FIG. 6, the current position latitude is set to X5 and the current position longitude is set to Y5 for the user terminal 9 (# 1), and the current position latitude is set to X6 and the current position longitude is set to Y6 for the user terminal 9 (# 2). Is done. In addition, in this embodiment, since the example which does not acquire height information from each user terminal 9 is shown, the height of each user terminal 9 is set to zero.

一方で、ゲームサーバとして機能する、アプリサーバ2の端末IF部32は、対象物(以降、モンスターと表記する)を管理している。図6の例では、ユーザ端末9(#1)及び(#2)の近くに位置するモンスター51及び52についての対象物情報がそれぞれ対象物情報テーブル38に格納されている。この対象物情報としてのモンスターの位置情報(位置U1及びU2)は、現実世界の緯度、経度、高さの各情報が利用される。図6の例では、対象物情報テーブル38に、モンスター51に関し位置緯度はX1、位置経度はY1、高さはZ1に設定され、モンスター52に関し位置緯度はX2、位置経度はY2、高さはZ2に設定される。   On the other hand, the terminal IF unit 32 of the application server 2 that functions as a game server manages an object (hereinafter referred to as a monster). In the example of FIG. 6, the object information about the monsters 51 and 52 located near the user terminals 9 (# 1) and (# 2) is stored in the object information table 38, respectively. As the position information (positions U1 and U2) of the monster as the object information, information on the latitude, longitude, and height of the real world is used. In the example of FIG. 6, in the object information table 38, the position latitude is set to X1, the position longitude is set to Y1, and the height is set to Z1 with respect to the monster 51. Set to Z2.

アプリサーバ2の端末IF部32は、ユーザ情報テーブル37に格納されるユーザ端末9(#1)及び(#2)の位置情報と対象物情報テーブル38に格納される対象物の位置情報とに応じて、ユーザ端末9(#1)及び(#2)の現在位置から所定範囲内の位置に存在するものとして決められているモンスター51及び52を特定し、このモンスター51及び52に関するデータをユーザ端末9(#1)及び(#2)へそれぞれ送信する。図6の例では、モンスター51及び52に関するデータとして、モンスターの画像データ、対象物ID、対象物名、対象物の位置情報、体力値等がそれぞれ送られる。このようなモンスター51及び52に関するデータを受信したユーザ端末9では、カメラ機能により取得された現実環境の画像上に、モンスター51及び52が重畳されて表示される。なお、モンスター51及び52の表示形態は、例えば、各ユーザ端末9(#1)及び(#2)の位置と各モンスター51及び52の位置とに応じて決められる。   The terminal IF unit 32 of the application server 2 uses the position information of the user terminals 9 (# 1) and (# 2) stored in the user information table 37 and the position information of the objects stored in the object information table 38. In response, the monsters 51 and 52 that are determined to exist at positions within a predetermined range from the current positions of the user terminals 9 (# 1) and (# 2) are specified, and the data regarding the monsters 51 and 52 is stored in the user. Transmit to terminals 9 (# 1) and (# 2), respectively. In the example of FIG. 6, monster image data, object ID, object name, object position information, physical fitness value, and the like are sent as data relating to the monsters 51 and 52, respectively. In the user terminal 9 that has received such data regarding the monsters 51 and 52, the monsters 51 and 52 are superimposed and displayed on the image of the real environment acquired by the camera function. In addition, the display form of the monsters 51 and 52 is determined according to the position of each user terminal 9 (# 1) and (# 2) and the position of each monster 51 and 52, for example.

図7は、ユーザ端末9(#1)の表示画面の例を示す図である。図7の例では、ユーザ端末9(#1)の画面61に、内蔵されるカメラ機能で取得された現実世界の映像(画像)に、モンスター51及び52が重畳されて表示されている。   FIG. 7 is a diagram illustrating an example of a display screen of the user terminal 9 (# 1). In the example of FIG. 7, monsters 51 and 52 are superimposed on the screen 61 of the user terminal 9 (# 1) and displayed on the real world video (image) acquired by the built-in camera function.

ユーザは、ユーザ端末9(#1)の操作ボタン62や画面61のタッチパネルを操作することにより、表示されているモンスター51及び52のうち、攻撃対象とするモンスターを選択する。ここでは、モンスター51が攻撃対象として選択されたものと仮定する。ユーザ端末9(#1)は、ユーザによりモンスター51が攻撃対象として選択操作されると、対象物選択操作が実行されたことを示すデータ、ユーザID、及びその選択されたモ
ンスター51を示す対象物IDをアプリサーバ2へ無線送信する。
The user selects a monster to be attacked from among the displayed monsters 51 and 52 by operating the operation button 62 of the user terminal 9 (# 1) or the touch panel of the screen 61. Here, it is assumed that the monster 51 is selected as an attack target. When the monster 51 is selected and operated as an attack target by the user, the user terminal 9 (# 1) has data indicating that the target selection operation has been executed, a user ID, and a target indicating the selected monster 51. The ID is wirelessly transmitted to the application server 2.

以下、ユーザにより対象物選択操作が行われてからのアプリサーバ2の動作例を図8を用いて説明する。図8は、アプリサーバ2の動作例を示すフローチャートである。   Hereinafter, an operation example of the application server 2 after the user performs an object selection operation will be described with reference to FIG. FIG. 8 is a flowchart illustrating an operation example of the application server 2.

アプリサーバ2の端末IF部32は、上述したように、対象物選択操作が実行されたことを示すデータと共に、そのデータの送信元を示すユーザID及び選択されたモンスター51の対象物IDをユーザ端末9(#1)から取得する(S100)。端末IF部32は、そのユーザID及び対象物IDを関係情報算出部33に送る。   As described above, the terminal IF unit 32 of the application server 2 sets the user ID indicating the source of the data and the target ID of the selected monster 51 together with the data indicating that the target selection operation has been executed. Obtained from the terminal 9 (# 1) (S100). The terminal IF unit 32 sends the user ID and the object ID to the related information calculation unit 33.

関係情報算出部33は、ユーザ情報テーブル37から、端末IF部32から送られたユーザIDが設定されているレコードを抽出し、このレコードの選択中対象物IDフィールドに、端末IF部32から送られた対象物IDを格納する。続いて、関係情報算出部33は、その抽出されたレコードにおける現在位置緯度フィールド及び現在位置経度フィールドに格納される緯度情報及び経度情報を取得する。ここでは、移動端末9(#1)の位置情報として、緯度情報X5及び経度情報Y5が取得される。   The relationship information calculation unit 33 extracts a record in which the user ID sent from the terminal IF unit 32 is set from the user information table 37, and sends it from the terminal IF unit 32 to the selected object ID field of this record. Stored object ID is stored. Subsequently, the relationship information calculation unit 33 acquires latitude information and longitude information stored in the current position latitude field and the current position longitude field in the extracted record. Here, latitude information X5 and longitude information Y5 are acquired as position information of the mobile terminal 9 (# 1).

関係情報算出部33は、対象物情報テーブル38から、端末IF部32から送られた対象物IDが設定されているレコードを抽出し、このレコードの位置緯度フィールド及び位置経度フィールドに格納される緯度情報、経度情報及び高さ情報を取得する。ここでは、ユーザ端末9(#1)において攻撃対象として選択されたモンスター51の位置情報として、緯度情報X1、経度情報Y1及び高さ情報Z1が取得される(S101)。   The relationship information calculation unit 33 extracts a record in which the object ID sent from the terminal IF unit 32 is set from the object information table 38 and stores the latitude stored in the position latitude field and the position longitude field of this record Get information, longitude information and height information. Here, latitude information X1, longitude information Y1, and height information Z1 are acquired as position information of the monster 51 selected as the attack target in the user terminal 9 (# 1) (S101).

関係情報算出部33は、ユーザ端末9(#1)の高さをゼロとし、上述のように取得されたモンスター51の緯度情報(X1)、経度情報(Y1)及び高さ情報(Z1)と、ユーザ端末9(#1)の緯度情報(X5)、経度情報(Y5)及び高さ情報(ゼロ)とから、モンスター51とユーザ端末9(#1)との間の距離(図6に示す符号55)を算出する(S102)。更に、関係情報算出部33は、モンスター51の位置を基準としたユーザ端末9(#1)の象限をモンスター51の緯度情報(X1)及び経度情報(Y1)並びにユーザ端末9(#1)の緯度情報(X5)及び経度情報(Y5)を用いて決定する(S102)。ここでは、ユーザ端末9(#1)の象限が北西象限と決定される。   The relationship information calculation unit 33 sets the height of the user terminal 9 (# 1) to zero, and the latitude information (X1), longitude information (Y1), and height information (Z1) of the monster 51 acquired as described above. From the latitude information (X5), longitude information (Y5), and height information (zero) of the user terminal 9 (# 1), the distance between the monster 51 and the user terminal 9 (# 1) (shown in FIG. 6) Symbol 55) is calculated (S102). Furthermore, the relationship information calculation unit 33 uses the quadrant of the user terminal 9 (# 1) based on the position of the monster 51 as the latitude information (X1) and longitude information (Y1) of the monster 51 and the user terminal 9 (# 1). Determination is made using latitude information (X5) and longitude information (Y5) (S102). Here, the quadrant of the user terminal 9 (# 1) is determined as the northwest quadrant.

関係情報算出部33は、このようにして得られた距離及び象限を、ユーザ情報テーブル37におけるそのユーザIDで特定されるレコードの距離フィールド及び象限フィールドに格納する(S103)。   The relationship information calculation unit 33 stores the distance and quadrant obtained in this way in the distance field and quadrant field of the record specified by the user ID in the user information table 37 (S103).

アクション選別部34は、関係情報算出部33により更新された距離の情報に基づいて、ユーザ端末9(#1)がモンスター51に対して実行することのできるアクション(攻撃)の種類を特定する(S104)。具体的には、アクション選別部34は、アクション定義テーブル39から、関係情報算出部33により算出された距離が最低距離フィールドの値以下となっているレコードを抽出し、抽出されたレコードのアクションIDを取得する。アクション選別部34は、この取得されたアクションIDをユーザ情報テーブル37におけるユーザ端末9(#1)を示すレコードの実行可能アクションフィールドに格納すると共に、このようにして得られたアクションID及びアクション名のリストを端末IF部32を介してユーザ端末9へ送信する(S104)。   The action selection unit 34 specifies the type of action (attack) that the user terminal 9 (# 1) can execute on the monster 51 based on the distance information updated by the relationship information calculation unit 33 ( S104). Specifically, the action selection unit 34 extracts a record in which the distance calculated by the relationship information calculation unit 33 is less than or equal to the value of the minimum distance field from the action definition table 39, and the action ID of the extracted record To get. The action selection unit 34 stores the acquired action ID in the executable action field of the record indicating the user terminal 9 (# 1) in the user information table 37, and the action ID and action name thus obtained. Is sent to the user terminal 9 via the terminal IF unit 32 (S104).

ユーザ端末9(#1)は、アプリサーバ2からアクションID及びアクション名のリストを受信すると、モンスター51の攻撃に利用し得るアクションを選択する表示部(例えば、図9に示すアクション選択部65)を画面61に表示させる。図9は、アクション選択部の例を示す図である。アクション選択部65には、アプリサーバ2から受信された各
アクション名(槍を投げる、弓を放つ、銃を撃つ)がそれぞれ表示される。ユーザは、ユーザ操作9を操作することにより、所望のアクションを選択し、実行する。例えば、槍を投げるアクション(図4の例におけるアクションID=3)が実行される。ユーザ端末9(#1)は、このユーザ操作に応じて、アクション選択操作が実行されたことを示すデータ、選択されたアクションを示すアクションID(3)及びそのユーザIDをアプリサーバ2へ送信する。
When the user terminal 9 (# 1) receives the list of action IDs and action names from the application server 2, the display unit (for example, the action selection unit 65 shown in FIG. 9) selects an action that can be used for the attack of the monster 51. Is displayed on the screen 61. FIG. 9 is a diagram illustrating an example of the action selection unit. The action selection unit 65 displays each action name (throwing a spear, releasing a bow, shooting a gun) received from the application server 2. The user operates the user operation 9 to select and execute a desired action. For example, an action of throwing a spear (action ID = 3 in the example of FIG. 4) is executed. In response to the user operation, the user terminal 9 (# 1) transmits to the application server 2 data indicating that the action selection operation has been executed, an action ID (3) indicating the selected action, and the user ID. .

アプリサーバ2では、端末IF部32が、ユーザ端末(#1)から送られた、アクション選択操作が実行されたことを示すデータ、アクションID及びユーザIDを受信する(S105)。端末IF部32は、アクション選択操作が実行されたことを示すデータを受けると、それと共に受信されたユーザID及びアクションIDをアクション結果生成部35へ送る。   In the application server 2, the terminal IF unit 32 receives data indicating that an action selection operation has been performed, an action ID, and a user ID sent from the user terminal (# 1) (S105). When the terminal IF unit 32 receives data indicating that the action selection operation has been executed, the terminal IF unit 32 sends the user ID and the action ID received together with the data to the action result generation unit 35.

アクション結果生成部35は、ユーザ情報テーブル37から、端末IF部32から送られたユーザIDで特定されるレコードの選択中対象物ID、距離、象限を取得する。ここでは、ユーザ端末9(#1)に関し、モンスター51を示す対象物IDが選択中対象物IDとして取得され、北西象限が象限として取得される。ここで、取得された距離は30(m)と仮定し、モンスター51を示す対象物IDは「11」であると仮定する。   The action result generation unit 35 acquires the selected object ID, distance, and quadrant of the record specified by the user ID sent from the terminal IF unit 32 from the user information table 37. Here, regarding the user terminal 9 (# 1), the object ID indicating the monster 51 is acquired as the selected object ID, and the northwest quadrant is acquired as the quadrant. Here, it is assumed that the acquired distance is 30 (m), and the object ID indicating the monster 51 is “11”.

更に、アクション結果生成部35は、対象物情報テーブル38から、その取得された選択中対象物IDで特定されるレコードの体力値、及び、その取得された象限の防御値が格納されるフィールド(北東象限防御値フィールド、南東象限防御値フィールド、南西象限防御値フィールド又は北西象限防御値フィールド)の防御値を取得する(S106)。ここでは、図5に示す対象物情報テーブル38の例に応じて、モンスター51(対象物ID=11)に関し、体力値(1000)、北西象限の防御値(5)が取得される。   Furthermore, the action result generation unit 35 stores the physical strength value of the record specified by the acquired selected object ID from the object information table 38 and the acquired defense value of the quadrant ( The defense value of the northeast quadrant defense value field, the southeast quadrant defense value field, the southwest quadrant defense value field, or the northwest quadrant defense value field) is acquired (S106). Here, according to the example of the object information table 38 shown in FIG. 5, the physical strength value (1000) and the defense value (5) of the northwest quadrant are acquired for the monster 51 (object ID = 11).

更に、アクション結果生成部35は、アクション定義テーブル39から、端末IF部32から送られたアクションIDで特定されるレコードの攻撃値を取得する。ここでは、図4に示すアクション定義テーブル39の例に応じて、槍を投げるアクション(アクションID=3)の攻撃値(600)が取得される。   Further, the action result generation unit 35 acquires the attack value of the record specified by the action ID sent from the terminal IF unit 32 from the action definition table 39. Here, according to the example of the action definition table 39 shown in FIG. 4, the attack value (600) of the action of throwing a spear (action ID = 3) is acquired.

アクション結果生成部35は、ユーザ端末9と対象物との距離(30(m))に応じた、その選択されたアクションの効果、即ち、アクションの攻撃値を算出する。具体的には、まず、アクション結果生成部35は、1から、上記取得された距離を所定の単位距離(例えば、1000メートル)で割った値を引いた値を攻撃係数として算出する。なお、所定の単位距離は、そのアクションの効果が生じ得る最大距離として決められ、予め保持される。つまり、取得された距離がその所定の単位距離となる場合には攻撃係数がゼロになり、その取得された距離が小さくなる程、攻撃係数が大きくなるように算出される。ここでは、攻撃係数は、以下の式により決定される。   The action result generation unit 35 calculates the effect of the selected action, that is, the attack value of the action, according to the distance (30 (m)) between the user terminal 9 and the object. Specifically, first, the action result generation unit 35 calculates a value obtained by subtracting a value obtained by dividing the acquired distance by a predetermined unit distance (for example, 1000 meters) from 1 as an attack coefficient. The predetermined unit distance is determined as the maximum distance at which the effect of the action can occur and is held in advance. That is, when the acquired distance is the predetermined unit distance, the attack coefficient is zero, and the attack coefficient is calculated to increase as the acquired distance decreases. Here, the attack coefficient is determined by the following equation.

(攻撃係数)=1−(30(m)/1000(m))=0.97
アクション結果生成部35は、このように算出された攻撃係数(0.97)をアクション定義テーブル39から取得された攻撃値(600)に掛け合わせた値を現在の攻撃値として算出する。ここでは、現在の攻撃値は582(=600×0.97)に決定される。
(Attack coefficient) = 1- (30 (m) / 1000 (m)) = 0.97
The action result generation unit 35 calculates a value obtained by multiplying the attack coefficient (0.97) thus calculated by the attack value (600) acquired from the action definition table 39 as the current attack value. Here, the current attack value is determined to be 582 (= 600 × 0.97).

アクション結果生成部35は、この現在の攻撃値から対象物情報テーブル38から取得された対象象限の防御値を減じた値を今回のアクションの効果を示す値として算出する。ここでは、対象象限が北西象限でありその防御値が5であることから、今回のアクションの効果を示す値は577(=582−5)と決定される。なお、対象象限の防御値が現在の攻撃値より大きくなる場合には、今回のアクションの効果を示す値はゼロに設定される
The action result generation unit 35 calculates a value obtained by subtracting the defense value of the target quadrant acquired from the target information table 38 from the current attack value as a value indicating the effect of the current action. Here, since the target quadrant is the northwest quadrant and its defense value is 5, the value indicating the effect of this action is determined to be 577 (= 582-5). When the defense value of the target quadrant is larger than the current attack value, the value indicating the effect of the current action is set to zero.

アクション結果生成部35は、対象物情報テーブル38から取得された体力値から、今回のアクションの効果を示す値を減じることにより、結果情報を算出する(S107)。ここでは、結果情報として、モンスター51の残体力値が423(=1000−577)と算出される。   The action result generation unit 35 calculates result information by subtracting a value indicating the effect of the current action from the physical fitness value acquired from the object information table 38 (S107). Here, as the result information, the remaining strength value of the monster 51 is calculated as 423 (= 1000-577).

アクション結果生成部35は、このように算出された結果情報で対象物情報テーブル38の体力値フィールドを更新する(S108)。ここでは、図5に示す対象物情報テーブル38における対象物ID「11」のレコードの体力値フィールドが、1000から423へ更新される。アクション結果生成部35は、生成された結果情報(残体力値;423)、対象となる対象物ID(11)を端末IF部32を介してユーザ端末9へ送信する。   The action result generation unit 35 updates the physical strength value field of the object information table 38 with the result information calculated in this way (S108). Here, the physical strength value field of the record of the object ID “11” in the object information table 38 shown in FIG. 5 is updated from 1000 to 423. The action result generation unit 35 transmits the generated result information (residual strength value; 423) and the target object ID (11) to the user terminal 9 via the terminal IF unit 32.

図10は、アクション結果を示す画面の例を示す図である。ユーザ端末9(#1)は、アプリサーバ2からの結果情報(残体力値;423)、対象物ID(11)を受けると、この対象物IDで示されるモンスター51に対するその結果情報を表示させる。図10例では、結果情報が結果情報表示部66に表示されている。   FIG. 10 is a diagram illustrating an example of a screen showing an action result. When the user terminal 9 (# 1) receives the result information (remaining strength value; 423) and the object ID (11) from the application server 2, the user terminal 9 (# 1) displays the result information for the monster 51 indicated by the object ID. . In the example of FIG. 10, the result information is displayed on the result information display unit 66.

以上、図6の例におけるユーザ端末9(#1)をサービス提供対象とするアプリサーバ2の動作例を説明したが、アプリサーバ2は、図6の例におけるユーザ端末9(#2)に対しても同様に動作する。ユーザ端末9(#1)とユーザ端末9(#2)は存在する位置が異なるため、モンスター51との間の距離及びモンスター51からの象限が相互に異なる。これにより、実行可能なアクションやアクションの効果及び結果情報がユーザ端末9(#1)とユーザ端末9(#2)とで異なることになる。本実施形態は、ユーザ端末9(#1)及び(#2)から同タイミングで同一のモンスター51に対して異なるアクションが実行されることを妨げるものではない。この場合、ユーザ端末9(#1)からのアクションの結果情報とユーザ端末9(#2)からのアクションの結果情報とがそれぞれ合算してモンスター51に適用される。   As described above, the operation example of the application server 2 that targets the user terminal 9 (# 1) in the example of FIG. 6 has been described. But it works in the same way. Since the user terminal 9 (# 1) and the user terminal 9 (# 2) have different positions, the distance to the monster 51 and the quadrant from the monster 51 are different from each other. Thereby, the executable action, the effect of the action, and the result information are different between the user terminal 9 (# 1) and the user terminal 9 (# 2). The present embodiment does not prevent different actions from being executed on the same monster 51 at the same timing from the user terminals 9 (# 1) and (# 2). In this case, the action result information from the user terminal 9 (# 1) and the action result information from the user terminal 9 (# 2) are added together and applied to the monster 51.

〔本実施形態における作用及び効果〕
本実施形態におけるアプリサーバ2では、各ユーザ端末9から、緯度、経度等のような現実世界の位置情報が取得され、ユーザ情報テーブル37に格納される。更に、アプリサーバ2では、提供されるゲームの登場物となる仮想対象物が生成され、この仮想対象物について、緯度、経度、高度等のような現実世界の位置を示す座標情報で表わされた仮想的位置情報、パラメータ値、その仮想対象物からの象限毎のパラメータ値が決定され、対象物情報テーブル38に格納される。
[Operations and effects in this embodiment]
In the application server 2 in this embodiment, real-world position information such as latitude and longitude is acquired from each user terminal 9 and stored in the user information table 37. Furthermore, in the application server 2, a virtual object that is an appearance of the provided game is generated, and the virtual object is represented by coordinate information indicating the position of the real world such as latitude, longitude, altitude, and the like. The virtual position information, parameter values, and parameter values for each quadrant from the virtual object are determined and stored in the object information table 38.

各ユーザ端末9では、アプリサーバ2から、そのユーザ端末9の位置情報に応じた上記仮想対象物についてのデータが受信され、そのユーザ端末9のカメラ機能で取得された画像にその仮想対象物の画像が付加された画像がARを用いたゲームシーンとして表示される。   In each user terminal 9, data about the virtual object corresponding to the position information of the user terminal 9 is received from the application server 2, and an image acquired by the camera function of the user terminal 9 is displayed on the virtual object. The image to which the image is added is displayed as a game scene using AR.

アプリサーバ2では、ユーザ端末9の画面に表示された仮想対象物のうち攻撃対象として選択された仮想対象物の対象物IDが取得され、その仮想対象物とそのユーザ端末9との間の距離及び仮想対象物を基点としたユーザ端末9の象限がユーザ情報テーブル37及び対象物情報テーブル38に格納される各位置情報に基づいて算出される。続いて、このように算出された距離に応じて全アクションの中から当該ユーザ端末9で実行可能なアクションが絞り込まれ、このアクションのリストがユーザ端末9へ送られる。   In the application server 2, the object ID of the virtual object selected as the attack target among the virtual objects displayed on the screen of the user terminal 9 is acquired, and the distance between the virtual object and the user terminal 9 And the quadrant of the user terminal 9 based on the virtual object is calculated based on the position information stored in the user information table 37 and the object information table 38. Subsequently, actions that can be executed by the user terminal 9 are narrowed down from all actions according to the distance calculated in this way, and a list of the actions is sent to the user terminal 9.

本実施形態によれば、実世界上の値を用いて算出される当該仮想対象物とユーザ端末9
との間の距離に応じて実行可能なアクションが切り替えられるため、仮想対象物に対するアクションを選択するユーザにリアル感を持たせることができる。
According to this embodiment, the virtual object calculated using values in the real world and the user terminal 9
The action that can be executed is switched according to the distance between the virtual object and the user who selects the action for the virtual object can have a real feeling.

また、アプリサーバ2では、当該仮想対象物とユーザ端末9との間の距離に応じてユーザにより選択されたアクションの元の攻撃値が変化する。更に、当該仮想対象物からのユーザ端末9の象限に応じて当該ユーザ端末9からの仮想対象物へのアクションの防御値が変化する。   In the application server 2, the original attack value of the action selected by the user changes according to the distance between the virtual object and the user terminal 9. Furthermore, the defense value of the action from the user terminal 9 to the virtual object changes according to the quadrant of the user terminal 9 from the virtual object.

従って、本実施形態によれば、当該仮想対象物とユーザ端末9との間の距離及び象限に応じてユーザにより選択されたアクションの効果及び結果情報を変化させることができる。これにより、本アプリサーバ2から提供される仮想対象物に対してアクションを実行するユーザは、ARが用いられた表示画面からだけでなく、そのアクションにおいても高いリアリティ性を感じることができる。   Therefore, according to the present embodiment, it is possible to change the effect and result information of the action selected by the user according to the distance and quadrant between the virtual object and the user terminal 9. Thereby, the user who performs an action on the virtual object provided from the application server 2 can feel high reality not only from the display screen using AR but also in the action.

[変形例]
上述の本実施形態ではアプリサーバ2がゲームを提供する例を示したが、提供される対象は、現実環境に電子情報を付加提示するサービスであれば、ゲーム性がなくともよい。例えば、上述の仮想対象物として、電子掲示板や電子メモが利用されてもよい。この場合には、その仮想対象物へのアクションは、拡大及び縮小、編集、削除、新規作成、文字色の変更等であってもよく、アクションの結果情報は、拡大又は縮小された画像、編集後のテキスト等であってもよい。
[Modification]
In the above-described embodiment, an example in which the application server 2 provides a game has been described. However, the provided object may not have game characteristics as long as it is a service that additionally presents electronic information to a real environment. For example, an electronic bulletin board or an electronic memo may be used as the above-described virtual object. In this case, the action to the virtual object may be enlargement / reduction, editing, deletion, new creation, change of character color, etc., and the result information of the action is an enlarged or reduced image, editing It may be a later text or the like.

2 アプリケーションサーバ(アプリサーバ)
9 携帯端末(ユーザ端末)
21 通信部
23 記憶部
25 制御部
31 位置情報管理部
32 端末インタフェース部(端末IF)
33 関係情報算出部
34 アクション選別部
35 アクション結果生成部
37 ユーザ情報テーブル
38 対象物情報テーブル
39 アクション定義テーブル
2 Application server (application server)
9 Mobile terminal (user terminal)
21 Communication Unit 23 Storage Unit 25 Control Unit 31 Location Information Management Unit 32 Terminal Interface Unit (Terminal IF)
33 Relation Information Calculation Unit 34 Action Selection Unit 35 Action Result Generation Unit 37 User Information Table 38 Object Information Table 39 Action Definition Table

Claims (4)

携帯端末の現在位置を示す位置情報を、その携帯端末のユーザ又はその携帯端末を特定するためのユーザ識別子と共に取得する第一取得手段と、
前記携帯端末の撮像部により撮像された現実世界の画像と共にその携帯端末の表示部に表示されている仮想対象物の識別子を前記ユーザ識別子と共に前記携帯端末から取得する第二取得手段と、
現実世界の情報を用いて仮想的に決められる前記仮想対象物の位置情報がその仮想対象物の識別子に対応付けられて格納される仮想情報格納部と、
前記第一取得手段により前記ユーザ識別子と共に取得された前記携帯端末の位置情報、及び、前記第二取得手段により前記ユーザ識別子と共に取得された仮想対象物の識別子に対応付けられて前記仮想情報格納部に格納されている仮想対象物の位置情報に基づいて、前記仮想対象物と前記携帯端末との間の距離を算出する算出手段と、
前記携帯端末のユーザが望む前記仮想対象物に対するユーザアクションを示すアクション識別子を前記携帯端末から取得する第三取得手段と、
前記第三取得手段により取得されたアクション識別子により特定されるユーザアクションを前記仮想対象物に適用した結果を示す結果情報を前記算出手段により算出された前記仮想対象物と前記携帯端末との間の距離を反映させた状態で生成する生成手段と、
前記生成手段により生成された結果情報を前記携帯端末へ送信する送信手段と、
を備えることを特徴とする情報処理装置。
First acquisition means for acquiring position information indicating a current position of the portable terminal together with a user identifier for identifying the user of the portable terminal or the portable terminal;
Second acquisition means for acquiring an identifier of a virtual object displayed on a display unit of the mobile terminal together with an image of the real world captured by the imaging unit of the mobile terminal from the mobile terminal together with the user identifier;
A virtual information storage unit in which position information of the virtual object virtually determined using real world information is stored in association with an identifier of the virtual object;
The virtual information storage unit associated with the location information of the portable terminal acquired together with the user identifier by the first acquisition unit and the identifier of the virtual object acquired together with the user identifier by the second acquisition unit Calculating means for calculating a distance between the virtual object and the mobile terminal based on the position information of the virtual object stored in
Third acquisition means for acquiring an action identifier indicating a user action for the virtual object desired by the user of the mobile terminal from the mobile terminal;
Result information indicating the result of applying the user action specified by the action identifier acquired by the third acquisition unit to the virtual object is between the virtual object calculated by the calculation unit and the portable terminal. Generating means for reflecting the distance, and
Transmitting means for transmitting the result information generated by the generating means to the portable terminal;
An information processing apparatus comprising:
複数のユーザアクションの中から、前記算出手段により算出された前記仮想対象物と前記携帯端末との間の距離に適合する少なくとも1つのユーザアクションを選択する選択手段を更に備え、
前記送信手段は、前記選択手段により選択された少なくとも1つのユーザアクションを示すアクション識別子を前記ユーザに選択可能なユーザアクション情報として前記携帯端末に送信する、
ことを特徴とする請求項1に記載の情報処理装置。
A selection means for selecting at least one user action that matches a distance between the virtual object calculated by the calculation means and the mobile terminal from a plurality of user actions;
The transmission means transmits an action identifier indicating at least one user action selected by the selection means to the portable terminal as user action information selectable by the user.
The information processing apparatus according to claim 1.
前記仮想情報格納部は、前記仮想対象物に関し、更に、前記仮想対象物からの各方向に応じた各方向パラメータをそれぞれ格納し、
前記算出手段は、前記携帯端末の位置情報及び前記仮想対象物の位置情報に基づいて、前記仮想対象物を基準とした前記携帯端末の方向を算出し、
前記生成手段は、前記算出手段により算出された前記仮想対象物からの前記携帯端末の方向に適合する前記仮想対象物の方向パラメータを前記仮想情報格納部から抽出し、この抽出された方向パラメータを反映させた結果情報を生成する、
ことを特徴とする請求項1又は2に記載の情報処理装置。
The virtual information storage unit, regarding the virtual object, further stores each direction parameter according to each direction from the virtual object,
The calculation means calculates the direction of the mobile terminal with reference to the virtual object based on the position information of the mobile terminal and the position information of the virtual object;
The generation unit extracts a direction parameter of the virtual object that matches the direction of the mobile terminal from the virtual object calculated by the calculation unit from the virtual information storage unit, and extracts the extracted direction parameter. Generate reflected result information,
The information processing apparatus according to claim 1 or 2.
情報処理装置で実行されるプログラムであって、
携帯端末の現在位置を示す位置情報を、その携帯端末のユーザ又はその携帯端末を特定するためのユーザ識別子と共に取得する第一取得ステップと、
前記携帯端末の撮像部により撮像された現実世界の画像と共にその携帯端末の表示部に表示されている仮想対象物の識別子を前記ユーザ識別子と共に前記携帯端末から取得する第二取得ステップと、
現実世界の情報を用いて仮想的に決められる前記仮想対象物の位置情報がその仮想対象物の識別子に対応付けられて格納される仮想情報格納部を参照することにより、
前記第一取得ステップにより前記ユーザ識別子と共に取得された前記携帯端末の位置情報、及び、前記第二取得ステップにより前記ユーザ識別子と共に取得された仮想対象物の識別子に対応付けられて仮想情報格納部に格納されている、現実世界の情報を用いて仮想的に決められた仮想対象物の位置情報に基づいて、前記仮想対象物と前記携帯端末との間
の距離を算出する算出ステップと、
前記携帯端末のユーザが望む前記仮想対象物に対するユーザアクションを示すアクション識別子を前記携帯端末から取得する第三取得ステップと、
前記第三取得ステップにより取得されたアクション識別子により特定されるユーザアクションを前記仮想対象物に適用した結果を示す結果情報を前記算出ステップにより算出された前記仮想対象物と前記携帯端末との間の距離を反映させた状態で生成する生成ステップと、
前記生成ステップにより生成された結果情報を前記携帯端末へ送信するステップと、
を実行することを特徴とするプログラム。
A program executed by an information processing apparatus,
A first acquisition step of acquiring position information indicating a current position of the mobile terminal together with a user identifier for identifying the user of the mobile terminal or the mobile terminal;
A second acquisition step of acquiring an identifier of a virtual object displayed on the display unit of the mobile terminal together with an image of the real world imaged by the imaging unit of the mobile terminal from the mobile terminal together with the user identifier;
By referring to the virtual information storage unit in which the position information of the virtual object that is virtually determined using information in the real world is stored in association with the identifier of the virtual object,
The virtual information storage unit is associated with the location information of the mobile terminal acquired together with the user identifier in the first acquisition step and the identifier of the virtual object acquired together with the user identifier in the second acquisition step. A calculation step of calculating a distance between the virtual object and the mobile terminal based on the stored position information of the virtual object virtually determined using real-world information;
A third acquisition step of acquiring from the mobile terminal an action identifier indicating a user action for the virtual object desired by the user of the mobile terminal;
Result information indicating the result of applying the user action specified by the action identifier acquired in the third acquisition step to the virtual object is between the virtual object calculated in the calculation step and the portable terminal. A generation step for generating a state reflecting the distance;
Transmitting the result information generated by the generating step to the mobile terminal;
A program characterized by executing
JP2010047982A 2010-03-04 2010-03-04 Information processing apparatus and program Pending JP2011186533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010047982A JP2011186533A (en) 2010-03-04 2010-03-04 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010047982A JP2011186533A (en) 2010-03-04 2010-03-04 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2011186533A true JP2011186533A (en) 2011-09-22
JP2011186533A5 JP2011186533A5 (en) 2013-04-18

Family

ID=44792755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010047982A Pending JP2011186533A (en) 2010-03-04 2010-03-04 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2011186533A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7396861B2 (en) 2019-11-05 2023-12-12 ユニ・チャーム株式会社 Display control device, display control method, and display control program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Indication display in composite real space and indication display method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Indication display in composite real space and indication display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7396861B2 (en) 2019-11-05 2023-12-12 ユニ・チャーム株式会社 Display control device, display control method, and display control program

Similar Documents

Publication Publication Date Title
JP7058842B2 (en) Markpoint location display method, electronic devices and computer readable storage media
JP6905154B2 (en) Verification of player&#39;s real-world position using in-game activities
CN108619721B (en) Distance information display method and device in virtual scene and computer equipment
US20180225880A1 (en) Method and Apparatus for Providing Hybrid Reality Environment
US9513700B2 (en) Calibration of portable devices in a shared virtual space
US9367961B2 (en) Method, device and storage medium for implementing augmented reality
JP5413170B2 (en) Annotation display system, method and server apparatus
CN109767447B (en) Template matching method, device, equipment and medium
JP5755915B2 (en) Information processing apparatus, augmented reality providing method, and program
JP2021522910A (en) Information display method of virtual objects and their application programs, devices, terminals and servers
CN110496392B (en) Virtual object control method, device, terminal and storage medium
CN108525289A (en) Image processing method, device, storage medium and electronic equipment
CN113274729B (en) Interactive observation method, device, equipment and medium based on virtual scene
JP2012216073A (en) Image processor, image processor control method, and program
WO2022237076A1 (en) Method and apparatus for controlling avatar, and device and computer-readable storage medium
CN113198178B (en) Virtual object position prompting method, device, terminal and storage medium
JP2023175782A (en) Program, electronic apparatus and server system
JP2011186533A (en) Information processing apparatus and program
WO2011093031A1 (en) Portable terminal, action history depiction method, and action history depiction system
CN111589113B (en) Virtual mark display method, device, equipment and storage medium
CN114935973A (en) Interactive processing method, device, equipment and storage medium
JP5965515B2 (en) Information processing apparatus, augmented reality providing method, and program
JP2019212236A (en) Terminal device and program
JP2018143475A (en) Program and system
US20220362672A1 (en) Virtual object control method, apparatus, device, and computer-readable storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130304

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140617