JP2011186533A - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP2011186533A JP2011186533A JP2010047982A JP2010047982A JP2011186533A JP 2011186533 A JP2011186533 A JP 2011186533A JP 2010047982 A JP2010047982 A JP 2010047982A JP 2010047982 A JP2010047982 A JP 2010047982A JP 2011186533 A JP2011186533 A JP 2011186533A
- Authority
- JP
- Japan
- Prior art keywords
- information
- virtual object
- user
- action
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、拡張現実(AR(Augmented Reality))を用いた情報処理技術に関する。 The present invention relates to an information processing technique using augmented reality (AR).
現在、携帯機器の高性能化に伴い、拡張現実(AR(Augmented Reality))と呼ばれ
る技術を用いたサービスが提供されている。ARとは、現実環境にコンピュータを用いて情報を付加提示する技術である。
Currently, with the improvement in performance of portable devices, services using a technology called augmented reality (AR) are provided. AR is a technique for additionally presenting information to a real environment using a computer.
このARを用いたサービスでは、携帯機器のカメラ機能、GPS(Global Positioning
System)機能、方位測定機能等が利用される。ARを用いたサービスの一例では、各ユ
ーザは、内蔵カメラによって携帯機器の画面に映し出された風景に、ランドマークの名称のようなテキスト、音声、写真、動画等を投稿することができ、更に、他のユーザの投稿を自身の位置に応じて閲覧することができる。
In this AR service, the camera function of the mobile device, GPS (Global Positioning
System) function, direction measurement function, etc. are used. In an example of a service using AR, each user can post a text such as the name of a landmark, a sound, a photo, a video, etc. on the landscape projected on the screen of the mobile device by the built-in camera. Other users' posts can be browsed according to their positions.
また、位置ゲー等と呼ばれる位置情報を利用したゲームが携帯機器向けに提供されている。このようなゲームでは、各ユーザは、各自の携帯機器のGPS機能によりシステムへ位置情報を知らせ、自身の位置登録、移動距離等に応じて所定の特典を受けることができ、更に、他のユーザとゲーム内の仮想空間においてコミュニケーションを取ることができる。 A game using position information called a position game or the like is provided for portable devices. In such a game, each user can notify the system of position information by the GPS function of his / her portable device, and can receive predetermined benefits according to his / her position registration, movement distance, and the like. And can communicate in a virtual space in the game.
しかしながら、上述のようなARを用いたサービスは、テキスト、画像、動画等のような情報を現実世界上に付加すること及び閲覧することを可能とするに留まっており、ユーザの位置とその付加情報との関係に応じてその付加情報に対するユーザアクションの内容や効果を変化させるようなサービスは存在しない。 However, the services using AR as described above only allow information such as text, images, and moving images to be added and browsed in the real world. There is no service that changes the contents and effects of user actions on the additional information according to the relationship with the information.
また、上述のような位置情報を利用した携帯機器向けゲームは、ユーザの位置情報をゲームの舞台となる仮想空間(仮想の街等)に反映させるに留まり、現実世界を舞台としたゲームを提供するサービスは存在しない。 Moreover, the game for portable devices using the position information as described above is not limited to reflecting the position information of the user in the virtual space (virtual town, etc.) that is the stage of the game, and provides the game in the real world. There is no service to do.
本発明の一態様に係る課題は、このような問題点に鑑み、現実世界に付加された仮想対象物に対してリアリティ性の高いアクションを可能とする技術を提供することにある。 In view of such a problem, an object of one embodiment of the present invention is to provide a technique that enables a highly realistic action on a virtual object added to the real world.
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。 Each aspect of the present invention employs the following configurations in order to solve the above-described problems.
第1の態様に係る情報処理装置は、携帯端末の現在位置を示す位置情報を、その携帯端末のユーザ又はその携帯端末を特定するためのユーザ識別子と共に取得する第一取得手段と、上記携帯端末の撮像部により撮像された現実世界の画像と共にその携帯端末の表示部に表示されている仮想対象物の識別子を当該ユーザ識別子と共に上記携帯端末から取得する第二取得手段と、現実世界の情報を用いて仮想的に決められる仮想対象物の位置情報が
その仮想対象物の識別子に対応付けられて格納される仮想情報格納部と、上記第一取得手段によりユーザ識別子と共に取得された携帯端末の位置情報、及び、上記第二取得手段によりユーザ識別子と共に取得された仮想対象物の識別子に対応付けられて上記仮想情報格納部に格納されている仮想対象物の位置情報に基づいて、仮想対象物と携帯端末との間の距離を算出する算出手段と、当該携帯端末のユーザが望む仮想対象物に対するユーザアクションを示すアクション識別子を携帯端末から取得する第三取得手段と、この第三取得手段により取得されたアクション識別子により特定されるユーザアクションを仮想対象物に適用した結果を示す結果情報を上記算出手段により算出された仮想対象物と携帯端末との間の距離を反映させた状態で生成する生成手段と、この生成手段により生成された結果情報を当該携帯端末へ送信する送信手段と、を備える。
An information processing apparatus according to a first aspect includes first acquisition means for acquiring position information indicating a current position of a mobile terminal together with a user identifier for identifying the user of the mobile terminal or the mobile terminal, and the mobile terminal Second acquisition means for acquiring the identifier of the virtual object displayed on the display unit of the mobile terminal together with the image of the real world captured by the imaging unit from the mobile terminal together with the user identifier, and information on the real world A virtual information storage unit in which position information of a virtual object virtually determined by use is stored in association with an identifier of the virtual object, and a position of the mobile terminal acquired together with the user identifier by the first acquisition unit Information and a virtual object stored in the virtual information storage unit in association with the identifier of the virtual object acquired together with the user identifier by the second acquisition means Based on the position information, a calculation means for calculating a distance between the virtual object and the mobile terminal, and an action identifier indicating a user action for the virtual object desired by the user of the mobile terminal is acquired from the mobile terminal. Between the virtual object calculated by the calculation means and the portable terminal, the acquisition means and the result information indicating the result of applying the user action specified by the action identifier acquired by the third acquisition means to the virtual object Generating means for reflecting the distance, and transmitting means for transmitting the result information generated by the generating means to the portable terminal.
第1の態様に係る情報処理装置では、現実世界の情報を用いて仮想的に決められる仮想対象物の位置情報がその仮想対象物の識別子に対応付けられて仮想情報格納部に格納されており、携帯端末の表示部に現実世界の画像と共に表示されている仮想対象物の識別子が携帯端末から取得され、その仮想対象物の位置情報が当該仮想情報格納部から取得される。一方で、情報処理装置では、携帯端末の現在位置を示す位置情報が取得される。これにより、携帯端末の位置情報と仮想対象物の位置情報とから仮想対象物と携帯端末との間の距離が算出され、携帯端末のユーザが望むユーザアクションを当該仮想対象物に適用した結果を示す結果情報が、その算出された距離を反映させた状態で生成される。 In the information processing apparatus according to the first aspect, the position information of the virtual object virtually determined using the information in the real world is stored in the virtual information storage unit in association with the identifier of the virtual object. The identifier of the virtual object displayed on the display unit of the mobile terminal together with the real world image is acquired from the mobile terminal, and the position information of the virtual object is acquired from the virtual information storage unit. On the other hand, in the information processing apparatus, position information indicating the current position of the mobile terminal is acquired. Thus, the distance between the virtual object and the mobile terminal is calculated from the position information of the mobile terminal and the position information of the virtual object, and the result of applying the user action desired by the user of the mobile terminal to the virtual object Result information shown is generated in a state in which the calculated distance is reflected.
このように、現実世界の情報を用いて算出された仮想対象物と携帯端末との間の距離が反映された状態でユーザアクションを当該仮想対象物に適用した結果が生成されるため、その結果情報はリアリティの高い情報となる。結果、このリアリティの高い結果情報が携帯端末にユーザアクションの結果として提供されるため、当該ユーザにとっては、現実世界に付加された仮想対象物に対するアクションであっても高いリアリティ性を感じることができる。即ち、本態様によれば、現実世界に付加された仮想対象物に対してリアリティ性の高いアクションが可能となる。 As described above, a result of applying the user action to the virtual object in a state in which the distance between the virtual object calculated using the real world information and the mobile terminal is reflected is generated. Information is highly realistic information. As a result, since this highly realistic result information is provided to the mobile terminal as a result of the user action, the user can feel high reality even when the action is for a virtual object added to the real world. . That is, according to this aspect, an action with high reality can be performed on a virtual object added to the real world.
上記態様において好ましくは、上記情報処理装置が、複数のユーザアクションの中から、上記算出手段により算出された仮想対象物と携帯端末との間の距離に適合する少なくとも1つのユーザアクションを選択する選択手段を更に備え、上記送信手段が、上記選択手段により選択された少なくとも1つのユーザアクションを示すアクション識別子を当該ユーザに選択可能なユーザアクション情報として携帯端末に送信する。 In the above aspect, preferably, the information processing apparatus selects, from a plurality of user actions, at least one user action that matches a distance between the virtual object calculated by the calculation unit and the mobile terminal. The transmission means further transmits an action identifier indicating at least one user action selected by the selection means to the portable terminal as user action information selectable by the user.
この態様では、現実世界の情報を用いて算出された仮想対象物と携帯端末との間の距離に適合するように選択された少なくとも1つのユーザアクションが携帯端末のユーザに選択できるアクションとして提供される。これにより、携帯端末のユーザにとって、ユーザアクションを選ぶ際にも高いリアリティ性を感じすることができる。 In this aspect, at least one user action selected so as to match the distance between the virtual object calculated using real-world information and the mobile terminal is provided as an action that can be selected by the user of the mobile terminal. The As a result, the user of the mobile terminal can feel high reality even when selecting a user action.
上記態様において好ましくは、上記情報処理装置が、上記仮想情報格納部が、仮想対象物に関し、更に、仮想対象物からの各方向に応じた各方向パラメータをそれぞれ格納し、上記算出手段が、携帯端末の位置情報及び仮想対象物の位置情報に基づいて、仮想対象物を基準とした携帯端末の方向を算出し、上記生成手段が、上記算出手段により算出された仮想対象物からの携帯端末の方向に適合する仮想対象物の方向パラメータを仮想情報格納部から抽出し、この抽出された方向パラメータを反映させた結果情報を生成する。 In the above aspect, preferably, the information processing apparatus is configured so that the virtual information storage unit stores a direction parameter corresponding to each direction from the virtual object with respect to the virtual object, and the calculation unit includes a portable device. Based on the position information of the terminal and the position information of the virtual object, the direction of the mobile terminal with respect to the virtual object is calculated, and the generation unit calculates the direction of the mobile terminal from the virtual object calculated by the calculation means. A direction parameter of a virtual object that matches the direction is extracted from the virtual information storage unit, and result information that reflects the extracted direction parameter is generated.
この態様では、現実世界の情報(位置情報)を用いて、仮想対象物を基準とした携帯端末の方向が算出され、この算出された方向に適合する仮想対象物の方向パラメータが当該ユーザアクションの結果情報に反映される。これにより、仮想対象物と携帯端末との方向が考慮されるため、より高いリアリティ性をユーザに感じさせることが可能となる。 In this aspect, the direction of the mobile terminal with respect to the virtual object is calculated using real-world information (position information), and the direction parameter of the virtual object that matches the calculated direction is the user action's direction parameter. Reflected in the result information. Thereby, since the direction of a virtual target object and a portable terminal is considered, it becomes possible to make a user feel higher reality.
なお、本発明の別態様としては、以上の何れかの構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。 As another aspect of the present invention, an information processing method for realizing any of the above configurations, a program, or a computer-readable storage recording such a program may be used. It may be a medium.
上記各態様によれば、現実世界に付加された仮想対象物に対してリアリティ性の高いアクションを可能とする技術を提供することができる。 According to each of the above aspects, it is possible to provide a technology that enables a highly realistic action on a virtual object added to the real world.
以下、本発明の実施形態としてのアプリケーションサーバについて具体例を挙げ説明する。以下の具体例では、アプリケーションサーバがユーザの利用する携帯端末にARゲームを提供する場合を例に挙げるが、本発明は本アプリケーションサーバが提供する対象をゲームに限定するものではない。提供される対象は、現実環境に電子情報を付加提示するサービスであれば、ゲーム性がなくともよい。 Hereinafter, a specific example of the application server as an embodiment of the present invention will be described. In the following specific example, a case where the application server provides an AR game to a mobile terminal used by a user is taken as an example, but the present invention does not limit the target provided by the application server to a game. If the target to be provided is a service that additionally presents electronic information to the real environment, it may not have game characteristics.
図1は、本実施形態におけるアプリケーションサーバが適用されたシステムの構成を示す図である。本実施形態におけるアプリケーションサーバ(以降、アプリサーバと表記する)2は、各ユーザが利用する携帯端末(以降、ユーザ端末と表記する)9と、インターネット、移動体通信ネットワークのようなネットワーク1でそれぞれ接続される。アプリサーバ2は、各ユーザ端末9にネットワークゲームサービスを提供する。なお、各ユーザ端末9は、移動端末であるため、無線通信によりネットワーク1に接続されればよく、本発明は、アプリケーションサーバ2と各ユーザ端末9との通信接続手法を限定するものではない。
FIG. 1 is a diagram illustrating a configuration of a system to which an application server according to the present embodiment is applied. An application server (hereinafter referred to as an application server) 2 in the present embodiment is a mobile terminal (hereinafter referred to as a user terminal) 9 used by each user and a
[装置構成]
以下、アプリケーションサーバ2及びユーザ端末9の各構成についてそれぞれ説明する。
[Device configuration]
Hereinafter, each configuration of the
ユーザ端末9は、携帯電話、ネットワークPC(Personal Computer)等のような携帯
情報端末である。ユーザ端末9は、制御部、メモリ、無線通信部、撮像部、表示部、操作部等を有する。ユーザ端末9は、メモリに格納されるプログラム(ダウンロードされたプログラムも含む)が制御部で実行されることにより、各処理部と連携しながら、無線通信機能、位置情報取得機能、カメラ機能、アプリサーバ2との間のインタフェース機能、ユーザインタフェース機能等を実現する。本発明は、上記各機能を実現する一般的な手段を有していればよく、各手段を限定するものではないため、上記各機能について簡単に説明する。
The
無線通信機能は、無線処理部、ベースバンド処理部などを含む無線通信部により実現され、最寄りの基地局を介してユーザ端末9をネットワーク1と無線接続させる。この機能により、ユーザ端末9は、アプリサーバ2と各種データをやりとりする。
The wireless communication function is realized by a wireless communication unit including a wireless processing unit, a baseband processing unit, and the like, and wirelessly connects the
位置情報取得機能は、ユーザ端末9の現在位置(緯度及び経度)を取得する機能である。位置情報取得機能は、GPS(Global Positioning System)衛星からの電波をユーザ
端末9に搭載されるGPSアンテナで受信することによりユーザ端末9の現在位置を取得してもよいし、最寄の基地局からの信号に応じて当該現在位置を取得してもよい。また、位置情報取得機能は、高度計等を用いることによりユーザ端末9の高さ情報を取得するようにしてもよいし、電子コンパス機能を用いることによりユーザ端末9が向いている方位情報を取得するようにしてもよい。この位置情報取得機能により取得された位置情報は、任意のタイミングにより無線通信機能を介してアプリサーバ2へ随時送られる。
The position information acquisition function is a function for acquiring the current position (latitude and longitude) of the
カメラ機能は、ユーザ端末9に搭載される撮像部(撮像素子等)により撮像された映像(画像)を表示部に表示させる。その画像は、リアルタイムの現実環境を映し出したものである。表示部は、液晶パネル等のような電子データ表示媒体である。ユーザインタフェース機能は、ユーザ端末9に搭載される、操作ボタンのような操作部からの入力を受け付ける。
The camera function displays a video (image) captured by an imaging unit (imaging device or the like) mounted on the
アプリサーバ2との間のインタフェース機能は、無線通信機能により受信されたアプリサーバ2からの画面データを受け、この画面データを上記カメラ機能で取得された現実環境の画像と重畳させて表示部に表示させる。このような表示処理は、ARを用いたアプリケーションにより実行される一般的な処理であればよいため、ここでは詳細説明を省略する。また、このインタフェース機能は、ユーザインタフェース機能により取得されたユーザ操作内容に応じて、各種データをアプリサーバ2へ送信する。アプリサーバ2とユーザ端末9との間のインタフェースとしてはWEBシステムを利用する場合には、このインタフェース機能は例えばWEBブラウザ等により実現される。
The interface function with the
〔アプリケーションサーバ〕
図2は、本実施形態におけるアプリケーションサーバ2の構成を示す概略図である。
[Application server]
FIG. 2 is a schematic diagram showing the configuration of the
アプリサーバ2は、ハードウェア構成として、図2に示されるように、バス22で接続される、制御部25、記憶部23、通信部21等を有する。記憶部23は、例えばハードディスクであり、制御部25で実行される処理で利用される各種情報を記憶する。制御部25は、CPU(Central Processing Unit)等の1又は複数のプロセッサ、このプロセ
ッサの処理に利用される周辺回路(ROM(Read Only Memory)、RAM(Random Access Memory)、インタフェース回路等)を有する。通信部21は、ネットワーク1に接続され、IP(Internet Protocol)パケット等の送受信を行う。アプリサーバ2は、PC等
のような汎用コンピュータで構築されてもよいし、専用コンピュータで構築されるようにしてもよい。本発明は、アプリサーバ2のハードウェア構成を限定するものではない。
As shown in FIG. 2, the
アプリサーバ2は、記憶部23に記憶されるアプリケーションプログラムが制御部25により実行されることにより、図2に示す各処理部を実現する。このような処理部として、アプリサーバ2は、位置情報管理部31、端末インタフェース部(以降、端末IFと表記する)32、関係情報算出部33、アクション選別部34、アクション結果生成部35等を有する。これら処理部により参照されるデータベースとして、記憶部23には、ユーザ情報テーブル37、対象物情報テーブル38、アクション定義テーブル39等が格納される。以下、これらアプリサーバ2の各処理部についてそれぞれ説明する。
The
位置情報管理部31は、各ユーザ端末9から送られる位置情報及びユーザIDを受信し、この受信された位置情報をユーザ情報テーブル37のそのユーザIDで特定されるレコードに格納する。ここで、ユーザIDとは、ユーザ端末9を操作するユーザを特定するための識別子であってもよいし、ユーザ端末9を特定するための識別子であってもよい。
The location
図3は、ユーザ情報テーブル37の例を示す図である。ユーザ情報テーブル37は、各ユーザ端末9について、ユーザID、現在位置緯度、現在位置経度、選択中対象物ID、選択中対象物とそのユーザ端末9との距離(図3に示す距離フィールド)、選択中対象物から見たそのユーザIDにより特定されるユーザ端末9の象限(図3に示す象限フィールド)、実行可能なアクションのアクションID(図3に示す実行可能アクション1フィールド、実行可能アクション2フィールド)をそれぞれ格納する。
FIG. 3 is a diagram illustrating an example of the user information table 37. The user information table 37 includes, for each
位置情報管理部31は、受信された位置情報に含まれる緯度情報及び経度情報をユーザ情報テーブル37の現在位置緯度フィールド及び現在位置経度フィールドに格納する。当該位置情報に高さ情報や方位情報が含まれている場合には、このユーザ情報テーブル37にそれらを格納するフィールドが付加されればよい。
The position
選択中対象物IDフィールドには、そのユーザ端末9においてアクション対象として選択されている仮想対象物を特定するためのIDが格納される。ここで仮想対象物とは、ユーザ端末9の表示部において現実世界の画像と共に描画されているアプリサーバ2により生成された電子情報であり、例えばゲーム内の登場物(モンスター)である。以降、この仮想対象物を単に対象物とも表記する。象限フィールドには、北東象限、南東象限、南西象限及び北西象限の各象限を示すIDがそれぞれ格納される。なお、本実施形態では、選択中対象物からのユーザ端末9の方位を象限で示したが、16方位等のようなより詳細な方位情報が格納されるようにしてもよい。距離フィールドには、選択中対象物とそのユーザ端末9との距離が格納される。実行可能なアクションのアクションIDを格納するフィールド(以降、実行可能アクションフィールドと表記する)には、そのユーザ端末9で選ぶことができるアクションを特定するための識別子(以降、アクションIDとも表記する)が格納される。図3には、実行可能アクションフィールドは、2つ示されているが、この実行可能アクションフィールドの数は限定されない。
In the selected object ID field, an ID for specifying the virtual object selected as the action object in the
図4は、アクション定義テーブル39の例を示す図である。アクション定義テーブル39には、図4に示すように、各アクションについて、アクションID、アクション名、攻撃値、最低距離がそれぞれ格納される。攻撃値及び最低距離は、各アクションについてのパラメータである。攻撃値は、そのアクションが選択中対象物に実行された場合の効果に結びつく値である。最低距離は、選択中対象物とユーザ端末9との間の距離に応じて実行可能なアクションを決めるための値である。上記ユーザ情報テーブル37の実行可能アクションフィールドには、そのユーザ端末9において選択可能と判定されたアクションを示すアクションIDが格納される。
FIG. 4 is a diagram illustrating an example of the action definition table 39. As shown in FIG. 4, the action definition table 39 stores an action ID, an action name, an attack value, and a minimum distance for each action. The attack value and the minimum distance are parameters for each action. The attack value is a value related to the effect when the action is executed on the selected object. The minimum distance is a value for determining an action that can be executed according to the distance between the selected object and the
端末IF部32は、アプリサーバ2にアクセスする各ユーザ端末9とのインタフェースとして機能する。例えば、このインタフェースとしてWEBシステムが利用される場合には、端末IF部32はWEBサーバとして機能する。端末IF部32は、アクセスしてきたユーザ端末9に対して認証処理等を実行し、正当性が認められたユーザ端末9に対してネットワークゲームサービスを提供する。
The terminal IF
端末IF部32は、ゲームサーバとしても機能し、ユーザ端末9に対してゲームのための画面データを提供する。この画面データには、例えば、ゲームの名称、ユーザの名称、得点などの情報が含まれる。また、端末IF部32は、上述した対象物を管理する。本実施形態ではゲームが対象となっているため、端末IF部32は、当該対象物として、ゲー
ム内の登場物(モンスター)を管理する。
The terminal IF
端末IF部32は、任意のタイミングで、ゲーム内の登場物として、或るモンスターを生成する。具体的には、端末IF部32は、このモンスターを特定するための対象物IDを新たに生成し、そのモンスターの名称を決め、現実世界(現実環境)におけるそのモンスターの位置を決める。この位置情報としては、現実世界の緯度、経度、高さの各情報が利用される。また、端末IF部32は、そのモンスター自体のパラメータとして、体力値、及び、各象限からのユーザアクションに対する各防御値を決める。なお、ゲーム内の登場物自体は、予め決められており、メモリ等に格納されるようにしてもよい。この場合には、端末IF部32は、任意のタイミングで、各登場物の位置を決めるようにしてもよい。
The terminal IF
図5は、対象物情報テーブル38の例を示す図である。対象物情報テーブル38には、各対象物に関し、対象物ID、対象物名、位置緯度、位置経度、高さ、体力値、各象限の防御値がそれぞれ格納される。端末IF部32は、上述のように決められた対象物に関する情報をこの対象物情報テーブル38に格納する。体力値フィールドの値は、ユーザアクションが適用されることにより変更される。
FIG. 5 is a diagram illustrating an example of the object information table 38. In the object information table 38, an object ID, an object name, a position latitude, a position longitude, a height, a physical strength value, and a defense value of each quadrant are stored for each object. The terminal IF
端末IF部32は、ユーザ情報テーブル37に格納される各ユーザ端末9の位置情報と対象物情報テーブル38に格納される各対象物の位置情報とに応じて、ユーザ端末9の現在位置から所定範囲内の位置に存在するものとして決められている対象物を特定し、この対象物に関するデータをそのユーザ端末9へ送信する。対象物に関するデータとしては、モンスターの画像のような対象物の画像データ、対象物ID、対象物名、対象物の位置情報、体力値等が含まれる。このような対象物に関するデータを受信したユーザ端末9では、カメラ機能により取得された現実環境の画像上の、この対象物の位置情報に応じた位置にその対象物の画像が表示される。
The terminal IF
端末IF部32は、各ユーザ端末9におけるユーザ操作に応じて各ユーザ端末9から送られる各種データを受け付ける。各種データとしては、上述のようにユーザ端末9において現実環境の画像上に表示された対象物がユーザ操作により選択されたこと、即ち、対象物選択操作が実行されたことを示すデータ及びその選択された対象物の対象物IDが含まれる。また、各種データとしては、ユーザ端末9においてユーザ操作により1つのアクションが選択されたこと、即ち、アクション選択操作が実行されたことを示すデータ及びその選択されたアクションのアクションIDが含まれる。
The terminal IF
端末IF部32は、対象物選択操作が実行されたことを示すデータを受けた場合には、そのデータの送信元を示すユーザID及び選択された対象物の対象物IDを関係情報算出部33に送る。端末IF部32は、アクション選択操作が実行されたことを示すデータを受けた場合には、そのデータの送信元を示すユーザID及び選択されたアクションのアクションIDをアクション結果生成部35へ送る。
When the terminal IF
関係情報算出部33は、端末IF部32からユーザID及び対象物IDを受けると、その対象物IDで示される対象物の位置を取得し、ユーザIDで示されるユーザ端末9とその対象物との距離を算出し、その対象物から見た場合のそのユーザ端末9の象限を決定する。具体的には、関係情報算出部33は、ユーザ情報テーブル37から、端末IF部32から送られたユーザIDが設定されているレコードを抽出し、このレコードの選択中対象物IDフィールドに、端末IF部32から送られた対象物IDを格納する。加えて、関係情報算出部33は、その抽出されたレコードにおける現在位置緯度フィールド及び現在位置経度フィールドに格納される緯度情報及び経度情報を取得する。
Upon receiving the user ID and the object ID from the terminal IF
関係情報算出部33は、対象物情報テーブル38から、端末IF部32から送られた対象物IDが設定されているレコードを抽出し、このレコードの位置緯度フィールド及び位置経度フィールドに格納される緯度情報、経度情報及び高さ情報を取得する。関係情報算出部33は、対象物情報テーブル38から取得された緯度情報、経度情報及び高さ情報と、ユーザ情報テーブル37から送られた緯度情報及び経度情報と、に基づいて、選択中の対象物とユーザ端末9との距離を算出する。このとき、ユーザ端末9の高さは例えばゼロに設定される。
The relationship
更に、関係情報算出部33は、ユーザ端末9の緯度情報及び経度情報と、対象物の緯度情報及び経度情報とから、その対象物から見た場合のそのユーザ端末9の象限を決定する。本実施形態では、北東象限、南東象限、南西象限及び北西象限のいずれか1つがその対象物から見た場合のそのユーザ端末9の象限として決定される。
Furthermore, the relationship
関係情報算出部33は、このようにして得られた距離及び象限を、ユーザ情報テーブル37におけるそのユーザIDで特定されるレコードの距離フィールド及び象限フィールドに格納する。
The relationship
アクション選別部34は、関係情報算出部33により更新された距離の情報に基づいて、ユーザ端末9がその選択中の対象物に対して実行することのできるアクション(攻撃)の種類を特定する。具体的には、アクション選別部34は、アクション定義テーブル39から、関係情報算出部33により算出された距離が最低距離フィールドの値以下となっているレコードを抽出し、このレコードのアクションID及びアクション名を取得する。
The
アクション選別部34は、この取得されたアクションIDをユーザ情報テーブル37における対象のユーザIDで特定されるレコードの実行可能アクションフィールドに格納する。アクション選別部34は、得られたアクションID及びアクション名を端末IF部32を介してユーザ端末9へ送信する。
The
アクション結果生成部35は、端末IF部32からユーザID及び選択されたアクションのアクションIDを受けると、その選択されたアクションが選択中対象物に適用された結果情報を生成する。本実施形態では、ゲームを対象としているため、アクションの適用効果は、選択中対象物であるモンスターの体力値の減少であり、その結果情報は、当該モンスターの残体力値である。
Upon receiving the user ID and the action ID of the selected action from the terminal IF
アクション結果生成部35は、アクションの適用効果を決定するにあたり、ユーザ端末9と対象物との距離の情報を用いる。本実施形態では、アクション結果生成部35は、ユーザ端末9と対象物との距離に応じたそのアクションの効果、即ち、アクションの攻撃値を算出する。アクションは、その距離に応じて、対象物へ与える影響度が変わるはずである。例えば、殴るというアクションは、その対象物との距離が近い程、大きなダメージをその対象物へ与えることができるはずである。そこで、本実施形態においても、仮想的なアクションを実世界の現象に近づけるために、距離に応じてアクションの攻撃値を変える。アクション結果生成部35は、1から、上記取得された距離を所定の単位距離(例えば、1000メートル)で割った値を引いた値を攻撃係数とし、この攻撃係数をアクション定義テーブル39から取得された攻撃値に掛け合わせた値を現在の攻撃値として算出する。なお、所定の単位距離は、そのアクションの効果が生じ得る最大距離として決められ、予め保持される。つまり、取得された距離がその所定の単位距離となる場合には攻撃係数がゼロになり、その取得された距離が小さくなる程、攻撃係数が大きくなるように算出される。
The action
アクション結果生成部35は、生成された結果情報(体力値)を対象物情報テーブル3
8のその対象物を示すレコードに反映させる。アクション結果生成部35は、生成された結果情報(体力値)等の情報を端末IF部32を介してユーザ端末9へ送信する。これにより、ユーザ端末9の画面では、当該モンスターに関し、そのアクションが実行されたことにより減少した体力値が表示される。なお、本実施形態は、このような結果情報のユーザ端末9上での表示形態を限定するものではない。また、結果情報の具体的な生成手法については、以下の動作例の項において詳述する。
The action
8 is reflected in the record indicating the object. The action
[動作例]
以下、本実施形態におけるアプリサーバ2及びユーザ端末9の各動作例について図6の例に基づいて説明する。図6は、ARを用いたゲームシーンの例を示す図である。
[Operation example]
Hereinafter, each operation example of the
アプリサーバ2の位置情報管理部31は、任意のタイミングにより、ユーザ端末9(#1)及び(#2)の各々から位置情報(位置U1及びU2)及びユーザIDを取得している。位置情報管理部31は、取得された各位置情報を各ユーザIDで特定されるユーザ情報テーブル37のレコードの現在位置緯度フィールド及び現在位置経度フィールドにそれぞれ格納する。図6の例では、ユーザ端末9(#1)に関し現在位置緯度はX5、現在位置経度はY5に設定され、ユーザ端末9(#2)に関し現在位置緯度はX6、現在位置経度はY6に設定される。なお、本実施形態では、各ユーザ端末9から高さ情報を得ない例を示しているため、各ユーザ端末9の高さはゼロに設定される。
The location
一方で、ゲームサーバとして機能する、アプリサーバ2の端末IF部32は、対象物(以降、モンスターと表記する)を管理している。図6の例では、ユーザ端末9(#1)及び(#2)の近くに位置するモンスター51及び52についての対象物情報がそれぞれ対象物情報テーブル38に格納されている。この対象物情報としてのモンスターの位置情報(位置U1及びU2)は、現実世界の緯度、経度、高さの各情報が利用される。図6の例では、対象物情報テーブル38に、モンスター51に関し位置緯度はX1、位置経度はY1、高さはZ1に設定され、モンスター52に関し位置緯度はX2、位置経度はY2、高さはZ2に設定される。
On the other hand, the terminal IF
アプリサーバ2の端末IF部32は、ユーザ情報テーブル37に格納されるユーザ端末9(#1)及び(#2)の位置情報と対象物情報テーブル38に格納される対象物の位置情報とに応じて、ユーザ端末9(#1)及び(#2)の現在位置から所定範囲内の位置に存在するものとして決められているモンスター51及び52を特定し、このモンスター51及び52に関するデータをユーザ端末9(#1)及び(#2)へそれぞれ送信する。図6の例では、モンスター51及び52に関するデータとして、モンスターの画像データ、対象物ID、対象物名、対象物の位置情報、体力値等がそれぞれ送られる。このようなモンスター51及び52に関するデータを受信したユーザ端末9では、カメラ機能により取得された現実環境の画像上に、モンスター51及び52が重畳されて表示される。なお、モンスター51及び52の表示形態は、例えば、各ユーザ端末9(#1)及び(#2)の位置と各モンスター51及び52の位置とに応じて決められる。
The terminal IF
図7は、ユーザ端末9(#1)の表示画面の例を示す図である。図7の例では、ユーザ端末9(#1)の画面61に、内蔵されるカメラ機能で取得された現実世界の映像(画像)に、モンスター51及び52が重畳されて表示されている。
FIG. 7 is a diagram illustrating an example of a display screen of the user terminal 9 (# 1). In the example of FIG. 7,
ユーザは、ユーザ端末9(#1)の操作ボタン62や画面61のタッチパネルを操作することにより、表示されているモンスター51及び52のうち、攻撃対象とするモンスターを選択する。ここでは、モンスター51が攻撃対象として選択されたものと仮定する。ユーザ端末9(#1)は、ユーザによりモンスター51が攻撃対象として選択操作されると、対象物選択操作が実行されたことを示すデータ、ユーザID、及びその選択されたモ
ンスター51を示す対象物IDをアプリサーバ2へ無線送信する。
The user selects a monster to be attacked from among the displayed
以下、ユーザにより対象物選択操作が行われてからのアプリサーバ2の動作例を図8を用いて説明する。図8は、アプリサーバ2の動作例を示すフローチャートである。
Hereinafter, an operation example of the
アプリサーバ2の端末IF部32は、上述したように、対象物選択操作が実行されたことを示すデータと共に、そのデータの送信元を示すユーザID及び選択されたモンスター51の対象物IDをユーザ端末9(#1)から取得する(S100)。端末IF部32は、そのユーザID及び対象物IDを関係情報算出部33に送る。
As described above, the terminal IF
関係情報算出部33は、ユーザ情報テーブル37から、端末IF部32から送られたユーザIDが設定されているレコードを抽出し、このレコードの選択中対象物IDフィールドに、端末IF部32から送られた対象物IDを格納する。続いて、関係情報算出部33は、その抽出されたレコードにおける現在位置緯度フィールド及び現在位置経度フィールドに格納される緯度情報及び経度情報を取得する。ここでは、移動端末9(#1)の位置情報として、緯度情報X5及び経度情報Y5が取得される。
The relationship
関係情報算出部33は、対象物情報テーブル38から、端末IF部32から送られた対象物IDが設定されているレコードを抽出し、このレコードの位置緯度フィールド及び位置経度フィールドに格納される緯度情報、経度情報及び高さ情報を取得する。ここでは、ユーザ端末9(#1)において攻撃対象として選択されたモンスター51の位置情報として、緯度情報X1、経度情報Y1及び高さ情報Z1が取得される(S101)。
The relationship
関係情報算出部33は、ユーザ端末9(#1)の高さをゼロとし、上述のように取得されたモンスター51の緯度情報(X1)、経度情報(Y1)及び高さ情報(Z1)と、ユーザ端末9(#1)の緯度情報(X5)、経度情報(Y5)及び高さ情報(ゼロ)とから、モンスター51とユーザ端末9(#1)との間の距離(図6に示す符号55)を算出する(S102)。更に、関係情報算出部33は、モンスター51の位置を基準としたユーザ端末9(#1)の象限をモンスター51の緯度情報(X1)及び経度情報(Y1)並びにユーザ端末9(#1)の緯度情報(X5)及び経度情報(Y5)を用いて決定する(S102)。ここでは、ユーザ端末9(#1)の象限が北西象限と決定される。
The relationship
関係情報算出部33は、このようにして得られた距離及び象限を、ユーザ情報テーブル37におけるそのユーザIDで特定されるレコードの距離フィールド及び象限フィールドに格納する(S103)。
The relationship
アクション選別部34は、関係情報算出部33により更新された距離の情報に基づいて、ユーザ端末9(#1)がモンスター51に対して実行することのできるアクション(攻撃)の種類を特定する(S104)。具体的には、アクション選別部34は、アクション定義テーブル39から、関係情報算出部33により算出された距離が最低距離フィールドの値以下となっているレコードを抽出し、抽出されたレコードのアクションIDを取得する。アクション選別部34は、この取得されたアクションIDをユーザ情報テーブル37におけるユーザ端末9(#1)を示すレコードの実行可能アクションフィールドに格納すると共に、このようにして得られたアクションID及びアクション名のリストを端末IF部32を介してユーザ端末9へ送信する(S104)。
The
ユーザ端末9(#1)は、アプリサーバ2からアクションID及びアクション名のリストを受信すると、モンスター51の攻撃に利用し得るアクションを選択する表示部(例えば、図9に示すアクション選択部65)を画面61に表示させる。図9は、アクション選択部の例を示す図である。アクション選択部65には、アプリサーバ2から受信された各
アクション名(槍を投げる、弓を放つ、銃を撃つ)がそれぞれ表示される。ユーザは、ユーザ操作9を操作することにより、所望のアクションを選択し、実行する。例えば、槍を投げるアクション(図4の例におけるアクションID=3)が実行される。ユーザ端末9(#1)は、このユーザ操作に応じて、アクション選択操作が実行されたことを示すデータ、選択されたアクションを示すアクションID(3)及びそのユーザIDをアプリサーバ2へ送信する。
When the user terminal 9 (# 1) receives the list of action IDs and action names from the
アプリサーバ2では、端末IF部32が、ユーザ端末(#1)から送られた、アクション選択操作が実行されたことを示すデータ、アクションID及びユーザIDを受信する(S105)。端末IF部32は、アクション選択操作が実行されたことを示すデータを受けると、それと共に受信されたユーザID及びアクションIDをアクション結果生成部35へ送る。
In the
アクション結果生成部35は、ユーザ情報テーブル37から、端末IF部32から送られたユーザIDで特定されるレコードの選択中対象物ID、距離、象限を取得する。ここでは、ユーザ端末9(#1)に関し、モンスター51を示す対象物IDが選択中対象物IDとして取得され、北西象限が象限として取得される。ここで、取得された距離は30(m)と仮定し、モンスター51を示す対象物IDは「11」であると仮定する。
The action
更に、アクション結果生成部35は、対象物情報テーブル38から、その取得された選択中対象物IDで特定されるレコードの体力値、及び、その取得された象限の防御値が格納されるフィールド(北東象限防御値フィールド、南東象限防御値フィールド、南西象限防御値フィールド又は北西象限防御値フィールド)の防御値を取得する(S106)。ここでは、図5に示す対象物情報テーブル38の例に応じて、モンスター51(対象物ID=11)に関し、体力値(1000)、北西象限の防御値(5)が取得される。
Furthermore, the action
更に、アクション結果生成部35は、アクション定義テーブル39から、端末IF部32から送られたアクションIDで特定されるレコードの攻撃値を取得する。ここでは、図4に示すアクション定義テーブル39の例に応じて、槍を投げるアクション(アクションID=3)の攻撃値(600)が取得される。
Further, the action
アクション結果生成部35は、ユーザ端末9と対象物との距離(30(m))に応じた、その選択されたアクションの効果、即ち、アクションの攻撃値を算出する。具体的には、まず、アクション結果生成部35は、1から、上記取得された距離を所定の単位距離(例えば、1000メートル)で割った値を引いた値を攻撃係数として算出する。なお、所定の単位距離は、そのアクションの効果が生じ得る最大距離として決められ、予め保持される。つまり、取得された距離がその所定の単位距離となる場合には攻撃係数がゼロになり、その取得された距離が小さくなる程、攻撃係数が大きくなるように算出される。ここでは、攻撃係数は、以下の式により決定される。
The action
(攻撃係数)=1−(30(m)/1000(m))=0.97
アクション結果生成部35は、このように算出された攻撃係数(0.97)をアクション定義テーブル39から取得された攻撃値(600)に掛け合わせた値を現在の攻撃値として算出する。ここでは、現在の攻撃値は582(=600×0.97)に決定される。
(Attack coefficient) = 1- (30 (m) / 1000 (m)) = 0.97
The action
アクション結果生成部35は、この現在の攻撃値から対象物情報テーブル38から取得された対象象限の防御値を減じた値を今回のアクションの効果を示す値として算出する。ここでは、対象象限が北西象限でありその防御値が5であることから、今回のアクションの効果を示す値は577(=582−5)と決定される。なお、対象象限の防御値が現在の攻撃値より大きくなる場合には、今回のアクションの効果を示す値はゼロに設定される
。
The action
アクション結果生成部35は、対象物情報テーブル38から取得された体力値から、今回のアクションの効果を示す値を減じることにより、結果情報を算出する(S107)。ここでは、結果情報として、モンスター51の残体力値が423(=1000−577)と算出される。
The action
アクション結果生成部35は、このように算出された結果情報で対象物情報テーブル38の体力値フィールドを更新する(S108)。ここでは、図5に示す対象物情報テーブル38における対象物ID「11」のレコードの体力値フィールドが、1000から423へ更新される。アクション結果生成部35は、生成された結果情報(残体力値;423)、対象となる対象物ID(11)を端末IF部32を介してユーザ端末9へ送信する。
The action
図10は、アクション結果を示す画面の例を示す図である。ユーザ端末9(#1)は、アプリサーバ2からの結果情報(残体力値;423)、対象物ID(11)を受けると、この対象物IDで示されるモンスター51に対するその結果情報を表示させる。図10例では、結果情報が結果情報表示部66に表示されている。
FIG. 10 is a diagram illustrating an example of a screen showing an action result. When the user terminal 9 (# 1) receives the result information (remaining strength value; 423) and the object ID (11) from the
以上、図6の例におけるユーザ端末9(#1)をサービス提供対象とするアプリサーバ2の動作例を説明したが、アプリサーバ2は、図6の例におけるユーザ端末9(#2)に対しても同様に動作する。ユーザ端末9(#1)とユーザ端末9(#2)は存在する位置が異なるため、モンスター51との間の距離及びモンスター51からの象限が相互に異なる。これにより、実行可能なアクションやアクションの効果及び結果情報がユーザ端末9(#1)とユーザ端末9(#2)とで異なることになる。本実施形態は、ユーザ端末9(#1)及び(#2)から同タイミングで同一のモンスター51に対して異なるアクションが実行されることを妨げるものではない。この場合、ユーザ端末9(#1)からのアクションの結果情報とユーザ端末9(#2)からのアクションの結果情報とがそれぞれ合算してモンスター51に適用される。
As described above, the operation example of the
〔本実施形態における作用及び効果〕
本実施形態におけるアプリサーバ2では、各ユーザ端末9から、緯度、経度等のような現実世界の位置情報が取得され、ユーザ情報テーブル37に格納される。更に、アプリサーバ2では、提供されるゲームの登場物となる仮想対象物が生成され、この仮想対象物について、緯度、経度、高度等のような現実世界の位置を示す座標情報で表わされた仮想的位置情報、パラメータ値、その仮想対象物からの象限毎のパラメータ値が決定され、対象物情報テーブル38に格納される。
[Operations and effects in this embodiment]
In the
各ユーザ端末9では、アプリサーバ2から、そのユーザ端末9の位置情報に応じた上記仮想対象物についてのデータが受信され、そのユーザ端末9のカメラ機能で取得された画像にその仮想対象物の画像が付加された画像がARを用いたゲームシーンとして表示される。
In each
アプリサーバ2では、ユーザ端末9の画面に表示された仮想対象物のうち攻撃対象として選択された仮想対象物の対象物IDが取得され、その仮想対象物とそのユーザ端末9との間の距離及び仮想対象物を基点としたユーザ端末9の象限がユーザ情報テーブル37及び対象物情報テーブル38に格納される各位置情報に基づいて算出される。続いて、このように算出された距離に応じて全アクションの中から当該ユーザ端末9で実行可能なアクションが絞り込まれ、このアクションのリストがユーザ端末9へ送られる。
In the
本実施形態によれば、実世界上の値を用いて算出される当該仮想対象物とユーザ端末9
との間の距離に応じて実行可能なアクションが切り替えられるため、仮想対象物に対するアクションを選択するユーザにリアル感を持たせることができる。
According to this embodiment, the virtual object calculated using values in the real world and the
The action that can be executed is switched according to the distance between the virtual object and the user who selects the action for the virtual object can have a real feeling.
また、アプリサーバ2では、当該仮想対象物とユーザ端末9との間の距離に応じてユーザにより選択されたアクションの元の攻撃値が変化する。更に、当該仮想対象物からのユーザ端末9の象限に応じて当該ユーザ端末9からの仮想対象物へのアクションの防御値が変化する。
In the
従って、本実施形態によれば、当該仮想対象物とユーザ端末9との間の距離及び象限に応じてユーザにより選択されたアクションの効果及び結果情報を変化させることができる。これにより、本アプリサーバ2から提供される仮想対象物に対してアクションを実行するユーザは、ARが用いられた表示画面からだけでなく、そのアクションにおいても高いリアリティ性を感じることができる。
Therefore, according to the present embodiment, it is possible to change the effect and result information of the action selected by the user according to the distance and quadrant between the virtual object and the
[変形例]
上述の本実施形態ではアプリサーバ2がゲームを提供する例を示したが、提供される対象は、現実環境に電子情報を付加提示するサービスであれば、ゲーム性がなくともよい。例えば、上述の仮想対象物として、電子掲示板や電子メモが利用されてもよい。この場合には、その仮想対象物へのアクションは、拡大及び縮小、編集、削除、新規作成、文字色の変更等であってもよく、アクションの結果情報は、拡大又は縮小された画像、編集後のテキスト等であってもよい。
[Modification]
In the above-described embodiment, an example in which the
2 アプリケーションサーバ(アプリサーバ)
9 携帯端末(ユーザ端末)
21 通信部
23 記憶部
25 制御部
31 位置情報管理部
32 端末インタフェース部(端末IF)
33 関係情報算出部
34 アクション選別部
35 アクション結果生成部
37 ユーザ情報テーブル
38 対象物情報テーブル
39 アクション定義テーブル
2 Application server (application server)
9 Mobile terminal (user terminal)
21
33 Relation
Claims (4)
前記携帯端末の撮像部により撮像された現実世界の画像と共にその携帯端末の表示部に表示されている仮想対象物の識別子を前記ユーザ識別子と共に前記携帯端末から取得する第二取得手段と、
現実世界の情報を用いて仮想的に決められる前記仮想対象物の位置情報がその仮想対象物の識別子に対応付けられて格納される仮想情報格納部と、
前記第一取得手段により前記ユーザ識別子と共に取得された前記携帯端末の位置情報、及び、前記第二取得手段により前記ユーザ識別子と共に取得された仮想対象物の識別子に対応付けられて前記仮想情報格納部に格納されている仮想対象物の位置情報に基づいて、前記仮想対象物と前記携帯端末との間の距離を算出する算出手段と、
前記携帯端末のユーザが望む前記仮想対象物に対するユーザアクションを示すアクション識別子を前記携帯端末から取得する第三取得手段と、
前記第三取得手段により取得されたアクション識別子により特定されるユーザアクションを前記仮想対象物に適用した結果を示す結果情報を前記算出手段により算出された前記仮想対象物と前記携帯端末との間の距離を反映させた状態で生成する生成手段と、
前記生成手段により生成された結果情報を前記携帯端末へ送信する送信手段と、
を備えることを特徴とする情報処理装置。 First acquisition means for acquiring position information indicating a current position of the portable terminal together with a user identifier for identifying the user of the portable terminal or the portable terminal;
Second acquisition means for acquiring an identifier of a virtual object displayed on a display unit of the mobile terminal together with an image of the real world captured by the imaging unit of the mobile terminal from the mobile terminal together with the user identifier;
A virtual information storage unit in which position information of the virtual object virtually determined using real world information is stored in association with an identifier of the virtual object;
The virtual information storage unit associated with the location information of the portable terminal acquired together with the user identifier by the first acquisition unit and the identifier of the virtual object acquired together with the user identifier by the second acquisition unit Calculating means for calculating a distance between the virtual object and the mobile terminal based on the position information of the virtual object stored in
Third acquisition means for acquiring an action identifier indicating a user action for the virtual object desired by the user of the mobile terminal from the mobile terminal;
Result information indicating the result of applying the user action specified by the action identifier acquired by the third acquisition unit to the virtual object is between the virtual object calculated by the calculation unit and the portable terminal. Generating means for reflecting the distance, and
Transmitting means for transmitting the result information generated by the generating means to the portable terminal;
An information processing apparatus comprising:
前記送信手段は、前記選択手段により選択された少なくとも1つのユーザアクションを示すアクション識別子を前記ユーザに選択可能なユーザアクション情報として前記携帯端末に送信する、
ことを特徴とする請求項1に記載の情報処理装置。 A selection means for selecting at least one user action that matches a distance between the virtual object calculated by the calculation means and the mobile terminal from a plurality of user actions;
The transmission means transmits an action identifier indicating at least one user action selected by the selection means to the portable terminal as user action information selectable by the user.
The information processing apparatus according to claim 1.
前記算出手段は、前記携帯端末の位置情報及び前記仮想対象物の位置情報に基づいて、前記仮想対象物を基準とした前記携帯端末の方向を算出し、
前記生成手段は、前記算出手段により算出された前記仮想対象物からの前記携帯端末の方向に適合する前記仮想対象物の方向パラメータを前記仮想情報格納部から抽出し、この抽出された方向パラメータを反映させた結果情報を生成する、
ことを特徴とする請求項1又は2に記載の情報処理装置。 The virtual information storage unit, regarding the virtual object, further stores each direction parameter according to each direction from the virtual object,
The calculation means calculates the direction of the mobile terminal with reference to the virtual object based on the position information of the mobile terminal and the position information of the virtual object;
The generation unit extracts a direction parameter of the virtual object that matches the direction of the mobile terminal from the virtual object calculated by the calculation unit from the virtual information storage unit, and extracts the extracted direction parameter. Generate reflected result information,
The information processing apparatus according to claim 1 or 2.
携帯端末の現在位置を示す位置情報を、その携帯端末のユーザ又はその携帯端末を特定するためのユーザ識別子と共に取得する第一取得ステップと、
前記携帯端末の撮像部により撮像された現実世界の画像と共にその携帯端末の表示部に表示されている仮想対象物の識別子を前記ユーザ識別子と共に前記携帯端末から取得する第二取得ステップと、
現実世界の情報を用いて仮想的に決められる前記仮想対象物の位置情報がその仮想対象物の識別子に対応付けられて格納される仮想情報格納部を参照することにより、
前記第一取得ステップにより前記ユーザ識別子と共に取得された前記携帯端末の位置情報、及び、前記第二取得ステップにより前記ユーザ識別子と共に取得された仮想対象物の識別子に対応付けられて仮想情報格納部に格納されている、現実世界の情報を用いて仮想的に決められた仮想対象物の位置情報に基づいて、前記仮想対象物と前記携帯端末との間
の距離を算出する算出ステップと、
前記携帯端末のユーザが望む前記仮想対象物に対するユーザアクションを示すアクション識別子を前記携帯端末から取得する第三取得ステップと、
前記第三取得ステップにより取得されたアクション識別子により特定されるユーザアクションを前記仮想対象物に適用した結果を示す結果情報を前記算出ステップにより算出された前記仮想対象物と前記携帯端末との間の距離を反映させた状態で生成する生成ステップと、
前記生成ステップにより生成された結果情報を前記携帯端末へ送信するステップと、
を実行することを特徴とするプログラム。 A program executed by an information processing apparatus,
A first acquisition step of acquiring position information indicating a current position of the mobile terminal together with a user identifier for identifying the user of the mobile terminal or the mobile terminal;
A second acquisition step of acquiring an identifier of a virtual object displayed on the display unit of the mobile terminal together with an image of the real world imaged by the imaging unit of the mobile terminal from the mobile terminal together with the user identifier;
By referring to the virtual information storage unit in which the position information of the virtual object that is virtually determined using information in the real world is stored in association with the identifier of the virtual object,
The virtual information storage unit is associated with the location information of the mobile terminal acquired together with the user identifier in the first acquisition step and the identifier of the virtual object acquired together with the user identifier in the second acquisition step. A calculation step of calculating a distance between the virtual object and the mobile terminal based on the stored position information of the virtual object virtually determined using real-world information;
A third acquisition step of acquiring from the mobile terminal an action identifier indicating a user action for the virtual object desired by the user of the mobile terminal;
Result information indicating the result of applying the user action specified by the action identifier acquired in the third acquisition step to the virtual object is between the virtual object calculated in the calculation step and the portable terminal. A generation step for generating a state reflecting the distance;
Transmitting the result information generated by the generating step to the mobile terminal;
A program characterized by executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010047982A JP2011186533A (en) | 2010-03-04 | 2010-03-04 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010047982A JP2011186533A (en) | 2010-03-04 | 2010-03-04 | Information processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011186533A true JP2011186533A (en) | 2011-09-22 |
JP2011186533A5 JP2011186533A5 (en) | 2013-04-18 |
Family
ID=44792755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010047982A Pending JP2011186533A (en) | 2010-03-04 | 2010-03-04 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011186533A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076945A (en) * | 2019-11-05 | 2021-05-20 | ユニ・チャーム株式会社 | Display control apparatus, display control method, and display control program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000353249A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Indication display in composite real space and indication display method |
-
2010
- 2010-03-04 JP JP2010047982A patent/JP2011186533A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000353249A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Indication display in composite real space and indication display method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076945A (en) * | 2019-11-05 | 2021-05-20 | ユニ・チャーム株式会社 | Display control apparatus, display control method, and display control program |
JP7396861B2 (en) | 2019-11-05 | 2023-12-12 | ユニ・チャーム株式会社 | Display control device, display control method, and display control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7058842B2 (en) | Markpoint location display method, electronic devices and computer readable storage media | |
JP6905154B2 (en) | Verification of player's real-world position using in-game activities | |
CN108619721B (en) | Distance information display method and device in virtual scene and computer equipment | |
US20180225880A1 (en) | Method and Apparatus for Providing Hybrid Reality Environment | |
US9513700B2 (en) | Calibration of portable devices in a shared virtual space | |
US9367961B2 (en) | Method, device and storage medium for implementing augmented reality | |
JP7145976B2 (en) | Virtual object information display method and its application program, device, terminal and server | |
JP5413170B2 (en) | Annotation display system, method and server apparatus | |
JP5755915B2 (en) | Information processing apparatus, augmented reality providing method, and program | |
CN110496392B (en) | Virtual object control method, device, terminal and storage medium | |
CN108525289A (en) | Image processing method, device, storage medium and electronic equipment | |
CN113198178B (en) | Virtual object position prompting method, device, terminal and storage medium | |
CN117085322B (en) | Interactive observation method, device, equipment and medium based on virtual scene | |
KR20120087243A (en) | System and method of searching a virtual treasure using a mobile terminal | |
JP2012216073A (en) | Image processor, image processor control method, and program | |
US20240100434A1 (en) | Virtual object control method, apparatus, device, and computer-readable storage medium | |
JP2023175782A (en) | Program, electronic apparatus and server system | |
JP2011186533A (en) | Information processing apparatus and program | |
WO2011093031A1 (en) | Portable terminal, action history depiction method, and action history depiction system | |
CN111589113B (en) | Virtual mark display method, device, equipment and storage medium | |
JP5965515B2 (en) | Information processing apparatus, augmented reality providing method, and program | |
JP2018143475A (en) | Program and system | |
CN113920227A (en) | Animation playing method, device, equipment, readable storage medium and program product | |
JP2023066265A (en) | Information processing system, information processing device, program, user terminal, and information processing method | |
CN116407838A (en) | Display control method, display control system and storage medium in game |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130304 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140617 |