JP6832320B2 - Systems, methods, and programs for providing content using augmented reality technology - Google Patents

Systems, methods, and programs for providing content using augmented reality technology Download PDF

Info

Publication number
JP6832320B2
JP6832320B2 JP2018194636A JP2018194636A JP6832320B2 JP 6832320 B2 JP6832320 B2 JP 6832320B2 JP 2018194636 A JP2018194636 A JP 2018194636A JP 2018194636 A JP2018194636 A JP 2018194636A JP 6832320 B2 JP6832320 B2 JP 6832320B2
Authority
JP
Japan
Prior art keywords
user character
image
camera
content
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018194636A
Other languages
Japanese (ja)
Other versions
JP2020062116A (en
Inventor
靖仁 長岡
靖仁 長岡
映史 黒田
映史 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018194636A priority Critical patent/JP6832320B2/en
Publication of JP2020062116A publication Critical patent/JP2020062116A/en
Application granted granted Critical
Publication of JP6832320B2 publication Critical patent/JP6832320B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、拡張現実(AR:Augmented Reality)の技術を用いたコンテンツを提供するためのシステム、方法、及びプログラムに関するものである。 The present invention relates to a system, a method, and a program for providing contents using the technology of Augmented Reality (AR).

従来、ARを適用したゲーム等の様々なデジタルコンテンツが提供されている。例えば、下記特許文献1は、ARの技術を利用したシューティングゲームを開示している。このゲームでは、タッチパネル及びカメラユニットを備えたユーザ端末を有する銃型コントローラを携えたプレイヤがAR体験施設の中を進むと、当該施設に配置されている対象マーカーに対応する敵キャラクタがゲーム画面において出現し、プレイヤによる射撃操作に応じて銃弾に相当するオブジェクトが発射表示されるようになっている。 Conventionally, various digital contents such as games to which AR is applied have been provided. For example, Patent Document 1 below discloses a shooting game using AR technology. In this game, when a player carrying a gun-type controller having a user terminal equipped with a touch panel and a camera unit advances through the AR experience facility, an enemy character corresponding to the target marker placed in the facility is displayed on the game screen. It appears, and an object corresponding to a bullet is fired and displayed according to the shooting operation by the player.

特開2017−176635号公報JP-A-2017-176635

しかしながら、拡張現実の技術を用いたコンテンツにおいて、上述したシューティングゲームのような一人称の視野が採用されている場合と比較して、ユーザによって操作されるキャラクタ(例えば、アバター及びプレイヤキャラクタ等)が画面上に登場する三人称の視野が採用されている場合には、当該キャラクタの操作が複雑になる傾向にある。 However, in the content using the augmented reality technology, the characters operated by the user (for example, avatar and player character) are displayed on the screen as compared with the case where the first-person field of view as in the shooting game described above is adopted. When the third-person field of view shown above is adopted, the operation of the character tends to be complicated.

本発明の実施形態は、拡張現実の技術を用いたコンテンツにおけるユーザキャラクタの良好な操作を支援することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。 One of the objects of the embodiment of the present invention is to support good operation of a user character in content using augmented reality technology. Other objects of the embodiments of the present invention will become apparent by reference to the entire specification.

本発明の一実施形態に係るシステムは、1又は複数のコンピュータプロセッサを備え、拡張現実の技術を用いたコンテンツを提供するためのシステムであって、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行し、前記コンテンツの進行を制御する処理は、前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、及び、前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む。 A system according to an embodiment of the present invention is a system including one or more computer processors for providing content using augmented reality technology, the one or more computer processors being readable. In response to the execution of the instruction, the image of the virtual space including the user character and the image of the virtual space via the virtual camera linked to the real camera with respect to the image of the real space through the real camera. The process of generating and displaying an augmented reality image in which images are superimposed and the process of controlling the progress of the content based on at least the movement of the user character are executed, and the process of controlling the progress of the content is described above. Arranging a designation object for designating a target object to be executed by a user character at a position in the virtual space based on at least the position and orientation of the virtual camera, and the designation. Includes controlling the execution of the predetermined action by the user character targeting the target object specified via the computer.

本発明の一実施形態に係る方法は、1又は複数のコンピュータによって実行され、拡張現実の技術を用いたコンテンツを提供するための方法であって、現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示するステップと、前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御するステップと、を備え、前記コンテンツの進行を制御するステップは、前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、及び、前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む。 A method according to an embodiment of the present invention is a method executed by one or more computers to provide content using augmented reality technology, for an image in real space through a real camera. A step of generating and displaying an augmented reality image in which an image of the virtual space including the user character is superimposed and the image of the virtual space is superimposed via the virtual camera linked to the real camera, and the user character. A step of controlling the progress of the content based on at least the operation of the content is provided, and the step of controlling the progress of the content is for designating a target object to be a target of a predetermined action performed by the user character. The designation object is placed at a position in the virtual space based on at least the position and orientation of the virtual camera, and the predetermined action targeting the target object designated via the designation object is described. Includes controlling execution by the user character.

本発明の一実施形態に係るプログラムは、拡張現実の技術を用いたコンテンツを提供するためのプログラムであって、1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行させ、前記コンテンツの進行を制御する処理は、前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、及び、前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む。 The program according to the embodiment of the present invention is a program for providing contents using the technique of augmented reality, and is executed on one or a plurality of computers to the one or a plurality of computers. Augmented reality in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. The process of generating and displaying an image, the process of controlling the progress of the content based on at least the operation of the user character, and the process of controlling the progress of the content are predetermined to be executed by the user character. A designation object for designating a target object to be the target of the action of is placed at a position in the virtual space based on at least the position and orientation of the virtual camera, and is designated via the designation object. It includes controlling the execution of the predetermined action targeting the target object by the user character.

本発明の様々な実施形態は、拡張現実の技術を用いたコンテンツにおけるユーザキャラクタの良好な操作を支援する。 Various embodiments of the present invention support good manipulation of the user character in content using augmented reality techniques.

本発明の一実施形態に係るユーザ端末10を含むネットワークの構成を概略的に示す構成図。FIG. 6 is a configuration diagram schematically showing a configuration of a network including a user terminal 10 according to an embodiment of the present invention. ゲームをプレイするプレイヤPLの様子を説明するための図。The figure for demonstrating the state of the player PL playing a game. ユーザ端末10が実行する処理を例示するフロー図。The flow chart which illustrates the process executed by the user terminal 10. コイン読取画面50を例示する図。The figure which illustrates the coin reading screen 50. 敵キャラクタ及びプレイヤキャラクタを仮想空間に配置する方法を説明するための図。The figure for demonstrating the method of arranging an enemy character and a player character in a virtual space. 敵キャラクタ202及びプレイヤキャラクタ204が仮想空間200に配置される様子を説明するための図。The figure for demonstrating how the enemy character 202 and the player character 204 are arranged in the virtual space 200. ゲーム画面60を例示する図。The figure which illustrates the game screen 60. 仮想コントローラ66が表示されているゲーム画面60を例示する図。The figure which illustrates the game screen 60 which displays the virtual controller 66. エイミングオブジェクト206の仮想空間200内における配置を説明するための図。The figure for demonstrating the arrangement in the virtual space 200 of the aiming object 206. 仮想カメラ220の視野の中心に敵キャラクタ202が位置する状態である場合のエイミングオブジェクト206の配置を説明するための図。The figure for demonstrating the arrangement of the aiming object 206 in the state where the enemy character 202 is located in the center of the field of view of the virtual camera 220. 図10に例示したエイミングオブジェクト206の配置に対応するゲーム画面60を例示する図。The figure which illustrates the game screen 60 corresponding to the arrangement of the aiming object 206 illustrated in FIG. 仮想カメラ220が敵キャラクタ202に近づいた場合のエイミングオブジェクト206の配置を説明するための図。The figure for demonstrating the arrangement of the aiming object 206 when the virtual camera 220 approaches an enemy character 202. 図12に例示したエイミングオブジェクト206の配置に対応するゲーム画面60を例示する図。The figure which illustrates the game screen 60 corresponding to the arrangement of the aiming object 206 illustrated in FIG. 仮想カメラの視野の中心に敵キャラクタ202が位置する状態が解消された場合のエイミングオブジェクト206の配置を説明するための図。The figure for demonstrating the arrangement of the aiming object 206 when the state which the enemy character 202 is positioned in the center of the field of view of a virtual camera is eliminated. 図14に例示したエイミングオブジェクト206の配置に対応するゲーム画面60を例示する図。The figure which illustrates the game screen 60 corresponding to the arrangement of the aiming object 206 illustrated in FIG. 2人のプレイヤPLA、PLBが協力してプレイする場合において、敵キャラクタ202及びプレイヤキャラクタ204A、204Bが仮想空間200に配置される様子を説明するための図。The figure for demonstrating how the enemy character 202 and the player characters 204A, 204B are arranged in the virtual space 200 when two players PLA and PLB play together.

以下、図面を参照しながら、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るユーザ端末10を含むネットワークの構成を概略的に示す構成図である。ユーザ端末10は、図示するように、インターネット等の通信ネットワーク20を介してコンテンツ管理サーバ30と通信可能に接続されている。ユーザ端末10は、拡張現実(AR)の技術を用いたゲーム等のコンテンツを提供するための機能を有し、本発明のシステムの全部又は一部を実装する装置の一例である。 FIG. 1 is a configuration diagram schematically showing a configuration of a network including a user terminal 10 according to an embodiment of the present invention. As shown in the figure, the user terminal 10 is communicably connected to the content management server 30 via a communication network 20 such as the Internet. The user terminal 10 has a function for providing contents such as a game using augmented reality (AR) technology, and is an example of a device that implements all or a part of the system of the present invention.

ユーザ端末10は、一般的なコンピュータとして構成されており、図1に示すように、CPU及びGPU等のコンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15と、各種センサ16とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。 The user terminal 10 is configured as a general computer, and as shown in FIG. 1, a computer processor 11 such as a CPU and a GPU, a main memory 12, an input / output I / F13, a communication I / F14, and the like. A storage (storage device) 15 and various sensors 16 are provided, and each of these components is electrically connected via a bus or the like (not shown).

コンピュータプロセッサ11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。 The computer processor 11 reads various programs stored in the storage 15 and the like into the main memory 12 and executes various instructions included in the programs. The main memory 12 is composed of, for example, a DRAM or the like.

入出力I/F13は、例えば、タッチパネル、コントローラ等の情報入力装置、マイクロフォン等の音声入力装置、カメラ131等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置(表示装置)、スピーカー等の音声出力装置を含む。 The input / output I / F 13 includes, for example, an information input device such as a touch panel and a controller, a voice input device such as a microphone, and an image input device such as a camera 131. Further, the input / output I / F 13 includes an image output device (display device) such as a display and an audio output device such as a speaker.

通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。 The communication I / F 14 is implemented as hardware such as a network adapter, various communication software, and a combination thereof, and is configured to realize wired or wireless communication.

ストレージ15は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ15が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。本実施形態において、ストレージ15が記憶するプログラムは、本発明の一実施形態に係るコンテンツ用プログラム40を含む。コンテンツ用プログラム40は、ユーザ端末10を、拡張現実の技術を用いたコンテンツを提供するための装置として機能させるためのプログラムである。 The storage 15 is composed of, for example, a magnetic disk, a flash memory, or the like. The storage 15 stores various programs including an operating system, various data, and the like. The program stored in the storage 15 can be downloaded and installed from the application market or the like. In the present embodiment, the program stored in the storage 15 includes the content program 40 according to the embodiment of the present invention. The content program 40 is a program for making the user terminal 10 function as a device for providing content using augmented reality technology.

各種センサ16は、例えば、加速度センサ、ジャイロセンサ(角速度センサ)、地磁気センサ等を含む。ユーザ端末10は、これらの各種センサ16によって検知される情報に基づいて、ユーザ端末10自体の様々な動きを判定することが出来る。 The various sensors 16 include, for example, an acceleration sensor, a gyro sensor (angular velocity sensor), a geomagnetic sensor, and the like. The user terminal 10 can determine various movements of the user terminal 10 itself based on the information detected by these various sensors 16.

コンテンツ管理サーバ30は、一般的なコンピュータとしての構成を有する。コンテンツ管理サーバ30は、ユーザ端末10が提供するコンテンツに関する様々な情報を記憶及び管理する。例えば、コンテンツ管理サーバ30は、ユーザ毎のコンテンツの進行状況、及び、コンテンツを提供するための各種データ(例えば、仮想空間のデータ等)等を管理する。コンテンツ管理サーバ30は、それぞれが一般的なコンピュータとしての構成を有する複数のサーバ装置を用いて構成され得る。 The content management server 30 has a configuration as a general computer. The content management server 30 stores and manages various information related to the content provided by the user terminal 10. For example, the content management server 30 manages the progress of the content for each user, various data for providing the content (for example, data in the virtual space, etc.) and the like. The content management server 30 may be configured by using a plurality of server devices, each of which has a configuration as a general computer.

例えば、ユーザ端末10は、コンテンツ用プログラム40の起動に応じて、対応するユーザのコンテンツの進行状況及び各種データ等をコンテンツ管理サーバ30から取得する。また、例えば、ユーザ端末10は、コンテンツ用プログラム40の実行中において、各種データ等をコンテンツ管理サーバ30から取得し、及び、ユーザの最新のコンテンツの進行状況等をコンテンツ管理サーバ30に対して送信する。なお、本実施形態において、ユーザ端末10は、コンテンツ管理サーバ30との通信なしにコンテンツを提供するように構成することができ、この場合、コンテンツ管理サーバ30は不要となり得る。 For example, the user terminal 10 acquires the progress status of the content of the corresponding user, various data, and the like from the content management server 30 in response to the activation of the content program 40. Further, for example, the user terminal 10 acquires various data and the like from the content management server 30 while the content program 40 is being executed, and transmits the latest progress status of the user's content to the content management server 30. To do. In the present embodiment, the user terminal 10 can be configured to provide the content without communicating with the content management server 30, and in this case, the content management server 30 may be unnecessary.

次に、本実施形態のユーザ端末10が有する機能について説明する。図1に示すように、ユーザ端末10のコンピュータプロセッサ11は、メインメモリ12に読み込まれたプログラムに含まれる命令を実行することによって、画像生成表示部111、及び、コンテンツ進行制御部112として機能するように構成されている。 Next, the function of the user terminal 10 of the present embodiment will be described. As shown in FIG. 1, the computer processor 11 of the user terminal 10 functions as an image generation display unit 111 and a content progress control unit 112 by executing an instruction included in a program read in the main memory 12. It is configured as follows.

画像生成表示部111は、コンテンツに関する画像の生成及び表示に関する様々な処理を実行する。本実施形態において、画像生成表示部111は、現実のカメラ131を介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像を重ねた拡張現実の画像を生成及び表示するように構成されている。本実施形態において、仮想空間の画像は、カメラ131に連動する仮想のカメラを介した画像として構成される。例えば、画像生成表示部111は、ユーザ端末10(カメラ131)の現実の動き(移動及び回転等)に従って仮想空間内を動くように仮想のカメラを制御する。 The image generation display unit 111 executes various processes related to the generation and display of images related to the content. In the present embodiment, the image generation display unit 111 generates and displays an augmented reality image in which an image of a virtual space including a user character is superimposed on an image of the real space via the real camera 131. It is configured. In the present embodiment, the image in the virtual space is configured as an image through a virtual camera linked to the camera 131. For example, the image generation display unit 111 controls the virtual camera so as to move in the virtual space according to the actual movement (movement, rotation, etc.) of the user terminal 10 (camera 131).

コンテンツ進行制御部112は、コンテンツの進行の制御に関する様々な処理を実行する。本実施形態において、コンテンツ進行制御部112は、上記ユーザキャラクタの動作に少なくとも基づいてコンテンツの進行を制御するように構成されている。例えば、コンテンツ進行制御部112は、ユーザによる操作入力に応じて、又は、ユーザによる操作入力なしで自動的に、仮想空間におけるユーザキャラクタの動作を制御するように構成される。 The content progress control unit 112 executes various processes related to controlling the progress of the content. In the present embodiment, the content progress control unit 112 is configured to control the progress of the content based on at least the movement of the user character. For example, the content progress control unit 112 is configured to automatically control the operation of the user character in the virtual space according to the operation input by the user or without the operation input by the user.

本実施形態において、コンテンツ進行制御部112は、ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを仮想空間に配置し、当該指定用オブジェクトを介して指定された対象オブジェクトを対象とする当該所定のアクションのユーザキャラクタによる実行を制御するように構成される。当該指定用オブジェクトは、仮想のカメラの位置及び向きに少なくとも基づく仮想空間における位置に配置される。例えば、コンテンツ進行制御部112は、カメラ131に連動する仮想のカメラの位置及び向きの変化(移動)に従って、指定用オブジェクトの位置を変化させる(移動させる)ように構成される。 In the present embodiment, the content progress control unit 112 arranges a designation object for designating a target object to be a target of a predetermined action executed by the user character in the virtual space, and designates the target object via the designation object. It is configured to control the execution of the predetermined action targeting the target object by the user character. The designated object is placed at a position in virtual space at least based on the position and orientation of the virtual camera. For example, the content progress control unit 112 is configured to change (move) the position of the designated object according to a change (movement) in the position and orientation of the virtual camera linked to the camera 131.

このように、本実施形態におけるユーザ端末10が提供する拡張現実の技術を用いたコンテンツでは、現実のカメラ131に連動する仮想のカメラの位置及び向きに基づく仮想空間の位置に指定用オブジェクトが配置され、当該指定用オブジェクトを介して指定された対象オブジェクトを対象とする所定のアクションのユーザキャラクタによる実行が制御される。つまり、ユーザは、仮想空間に含まれるユーザキャラクタによって実行される所定のアクションの対象を、ユーザ端末10(カメラ131)の動きに基づいて配置される指定用オブジェクトを介して指定することができる。このように、ユーザ端末10は、拡張現実の技術を用いたコンテンツにおけるユーザキャラクタの良好な操作を支援する。 As described above, in the content using the augmented reality technology provided by the user terminal 10 in the present embodiment, the designation object is arranged at the position of the virtual camera linked to the real camera 131 and the position of the virtual space based on the orientation. Then, the execution of a predetermined action targeting the target object designated via the designation object by the user character is controlled. That is, the user can specify the target of the predetermined action executed by the user character included in the virtual space via the designation object arranged based on the movement of the user terminal 10 (camera 131). In this way, the user terminal 10 supports good operation of the user character in the content using the augmented reality technology.

本実施形態において、コンテンツ進行制御部112は、ユーザキャラクタと指定用オブジェクトとを結ぶ連結オブジェクトを仮想空間において配置するように構成され得る。当該連結オブジェクトは、例えば、ユーザキャラクタと指定用オブジェクトとを直線状又は所定の曲線状に結ぶオブジェクトとして構成される。こうした構成は、仮想空間におけるユーザキャラクタと指定用オブジェクトとの間の相対的な位置関係をユーザが容易に把握することを支援する。 In the present embodiment, the content progress control unit 112 may be configured to arrange a connected object connecting the user character and the designated object in the virtual space. The connected object is configured as, for example, an object that connects the user character and the designated object in a straight line or a predetermined curved line. Such a configuration helps the user to easily grasp the relative positional relationship between the user character and the designated object in the virtual space.

本実施形態において、コンテンツ進行制御部112は、仮想のカメラの視野の方向に延びる所定の直線(半直線又は線分を含む。)上に特定の対象オブジェクトが存在する場合に、当該特定の対象オブジェクトの位置に指定用オブジェクトを配置し、当該指定用オブジェクトが配置されている位置の対象オブジェクトを所定のアクションの対象とするように構成され得る。例えば、コンテンツ進行制御部112は、仮想のカメラの視点と視野の中心(重心、視心)とを通る直線が対象オブジェクトを通過する(対象オブジェクトと交わる)場合に、当該対象オブジェクトの位置に指定用オブジェクトを配置するように構成される。こうした構成は、カメラ131に連動する仮想のカメラの向きに応じた対象オブジェクトの容易な指定を支援する。 In the present embodiment, the content progress control unit 112 determines the specific target when the specific target object exists on a predetermined straight line (including a half straight line or a line segment) extending in the direction of the field of view of the virtual camera. A designation object may be placed at the position of the object, and the target object at the position where the designation object is placed may be configured to be the target of a predetermined action. For example, the content progress control unit 112 designates the position of the target object when a straight line passing through the viewpoint of the virtual camera and the center of the field of view (center of gravity, center of view) passes through the target object (intersects with the target object). It is configured to place objects for. Such a configuration supports easy designation of the target object according to the orientation of the virtual camera linked to the camera 131.

また、コンテンツ進行制御部112は、上記所定の直線上に何れの対象オブジェクトも存在しない場合に、仮想のカメラの位置から一定の距離だけ離れた当該所定の直線上の位置に指定用オブジェクトを配置するように構成され得る。この結果、指定用オブジェクトは、拡張現実の画像において、ユーザの視点(仮想のカメラの位置)から一定の距離だけ離れた位置に固定される。こうした構成は、対象オブジェクトが指定されていない状態において指定用オブジェクトが固定表示されるから、当該指定用オブジェクトの表示位置が変動する場合と比較して、対象オブジェクトを指定する操作が良好となる。 Further, the content progress control unit 112 arranges the designation object at a position on the predetermined straight line separated from the position of the virtual camera by a certain distance when none of the target objects exists on the predetermined straight line. Can be configured to. As a result, the designation object is fixed at a position separated by a certain distance from the user's viewpoint (the position of the virtual camera) in the augmented reality image. In such a configuration, since the designation object is fixedly displayed in the state where the target object is not specified, the operation of designating the target object is better than the case where the display position of the designation object changes.

また、コンテンツ進行制御部112は、上記所定の直線上に特定の対象オブジェクトが存在する第1の状態から、当該所定の直線上に何れの対象オブジェクトも存在しない第2の状態へと移行した場合に、当該第2の状態における仮想のカメラと指定用オブジェクトとの間の距離を、当該第2の状態に移行する直前における仮想のカメラと特定の対象オブジェクトとの間の距離とする(つまり、指定用オブジェクトを、仮想のカメラの位置から、第2の状態に移行する直前における仮想のカメラと特定の対象オブジェクトとの間の距離である一定の距離だけ離れた上記所定の直線上の位置に配置する。)ように構成され得る。こうした構成は、所定の直線上に特定の対象オブジェクトが位置する(言い換えると、当該特定の対象オブジェクトが指定されている)状態が解消されたときに、指定用オブジェクトの表示態様(具体的には、視点からの距離であり、言い換えると、表示サイズである。)が急激に変化してしまうことを抑制し、この結果、ユーザに対して与え得る違和感を軽減する。 Further, when the content progress control unit 112 shifts from the first state in which the specific target object exists on the predetermined straight line to the second state in which no target object exists on the predetermined straight line. In addition, the distance between the virtual camera and the designated object in the second state is defined as the distance between the virtual camera and the specific target object immediately before the transition to the second state (that is,). The designated object is moved from the position of the virtual camera to a position on the predetermined straight line separated by a certain distance, which is the distance between the virtual camera and the specific target object immediately before the transition to the second state. It can be configured to be arranged.) In such a configuration, when the state in which the specific target object is located on a predetermined straight line (in other words, the specific target object is specified) is resolved, the display mode (specifically, the specific target object) of the designation object is resolved. , The distance from the viewpoint, in other words, the display size.) Is suppressed from suddenly changing, and as a result, the discomfort that can be given to the user is reduced.

本実施形態において、ユーザ端末10が提供するコンテンツは、仮想空間においてユーザキャラクタが登場する様々なコンテンツが含まれ得る。例えば、当該コンテンツは、ユーザキャラクタ(プレイヤキャラクタ)が敵キャラクタと対戦する対戦ゲームを含む。この場合、対象オブジェクトは、敵キャラクタを含み、所定のアクションは、敵キャラクタに対する攻撃を含む。つまり、この場合、ユーザ(プレイヤ)は、プレイヤキャラクタによって実行される攻撃の対象となる敵キャラクタを、ユーザ端末10(カメラ131)の動きに基づいて配置される指定用オブジェクトを介して指定することが可能となる。 In the present embodiment, the content provided by the user terminal 10 may include various contents in which the user character appears in the virtual space. For example, the content includes a battle game in which a user character (player character) plays against an enemy character. In this case, the target object includes an enemy character, and the predetermined action includes an attack on the enemy character. That is, in this case, the user (player) specifies the enemy character to be the target of the attack executed by the player character via the designation object arranged based on the movement of the user terminal 10 (camera 131). Is possible.

また、コンテンツ進行制御部112は、ユーザキャラクタによって実行される所定のアクションの種類に応じて指定用オブジェクトの外観を変化させるように構成され得る。例えば、ユーザ端末10が提供するコンテンツが対戦ゲームである場合において、コンテンツ進行制御部112は、敵キャラクタに対する攻撃の種類に応じて指定用オブジェクトの外観を変化させるように構成される。例えば、攻撃の種類は、プレイヤキャラクタに対する武器の装備を介して設定される。例えば、コンテンツ進行制御部112は、プレイヤキャラクタに対して第1の武器が装備されている場合には第1の外観の指定用オブジェクトを配置する一方、プレイヤキャラクタに対して第2の武器が装備されている場合には第2の外観の指定用オブジェクトを配置するように構成される。こうした構成は、指定用オブジェクトの外観を介して、設定されている攻撃の種類をユーザに対して知らせることを可能とする。 Further, the content progress control unit 112 may be configured to change the appearance of the designating object according to the type of a predetermined action executed by the user character. For example, when the content provided by the user terminal 10 is a battle game, the content progress control unit 112 is configured to change the appearance of the designating object according to the type of attack on the enemy character. For example, the type of attack is set via the equipment of the weapon against the player character. For example, the content progress control unit 112 arranges the object for designating the first appearance when the player character is equipped with the first weapon, while the content progress control unit 112 is equipped with the second weapon for the player character. If so, it is configured to place a second appearance specification object. Such a configuration makes it possible to inform the user of the type of attack that has been set through the appearance of the designated object.

また、コンテンツ進行制御部112は、仮想のカメラとユーザキャラクタとの間の仮想空間における相対的な位置関係に少なくとも基づいて、当該ユーザキャラクタの所定のパラメータの値を変動させるように構成され得る。例えば、コンテンツ進行制御部112は、仮想のカメラの視野の一部又は全部に対応する所定の領域内にユーザキャラクタが含まれる期間において、当該所定のパラメータの値を変動させる(増加させる、又は、減少させる)ように構成される。また、例えば、コンテンツ進行制御部112は、仮想のカメラとユーザキャラクタとの間の仮想空間における距離が短い(近い)ほど、所定のパラメータの値の変動速度を速くするように構成される。所定のパラメータは、例えば、対戦ゲームにおけるプレイヤキャラクタのHP、体力、及びエネルギー等が含まれる。こうした構成は、仮想のカメラが連動するユーザ端末10(カメラ131)の動きによって、ユーザキャラクタのパラメータの値を変動させることが可能となり、この結果、当該ユーザキャラクタの良好な操作を支援する。 Further, the content progress control unit 112 may be configured to change the value of a predetermined parameter of the user character based on at least the relative positional relationship between the virtual camera and the user character in the virtual space. For example, the content progress control unit 112 fluctuates (increases or increases) the value of the predetermined parameter during a period in which the user character is included in a predetermined area corresponding to a part or all of the field of view of the virtual camera. It is configured to reduce). Further, for example, the content progress control unit 112 is configured so that the shorter (closer) the distance in the virtual space between the virtual camera and the user character, the faster the fluctuation speed of the value of the predetermined parameter. Predetermined parameters include, for example, the HP, physical strength, energy, and the like of the player character in the battle game. In such a configuration, the value of the parameter of the user character can be changed by the movement of the user terminal 10 (camera 131) in which the virtual camera is interlocked, and as a result, good operation of the user character is supported.

次に、このような機能を有する本実施形態のユーザ端末10の具体例について説明する。この具体例において、ユーザ端末10は、仮想空間においてプレイヤキャラクタが敵キャラクタと対戦する対戦ゲームを提供する。当該対戦ゲームは、カメラ131を介した現実の画像に対して仮想空間の画像を重ねて拡張現実の画像として表示する拡張現実の技術を用いたゲームとして構成されている。また、当該仮想空間の画像は、プレイヤキャラクタが含まれる三人称の視野の画像として構成されている。 Next, a specific example of the user terminal 10 of the present embodiment having such a function will be described. In this specific example, the user terminal 10 provides a battle game in which a player character plays against an enemy character in a virtual space. The battle game is configured as a game using an augmented reality technique in which an image of a virtual space is superimposed on a real image passed through a camera 131 and displayed as an augmented reality image. Further, the image of the virtual space is configured as an image of a third person field of view including a player character.

図2は、この例のゲームをプレイするプレイヤPLの様子を説明するための図である。この例のゲームは、図示するように、ユーザ端末10を操作するプレイヤPLが、テーブルTB等の平面上に置かれた1枚のコイン(現実の硬貨)CNを用いてプレイするように構成されている。当該コインCNは、発行年が記載されている面が露出する(上面となる)ように置かれる。 FIG. 2 is a diagram for explaining a state of a player PL playing the game of this example. As shown in the figure, the game of this example is configured so that the player PL operating the user terminal 10 plays using one coin (real coin) CN placed on a plane such as a table TB. ing. The coin CN is placed so that the surface on which the year of issue is written is exposed (becomes the upper surface).

図3は、この例において、ユーザ端末10が実行する処理を例示するフロー図である。ユーザ端末10は、まず、図示するように、カメラ131を介して入力される入力画像に含まれるコインを認識し、認識したコインの種類及び発行年、並びに、当該画像における大きさ及び向きを判定する(ステップS100)。 FIG. 3 is a flow chart illustrating the process executed by the user terminal 10 in this example. As shown in the figure, the user terminal 10 first recognizes coins included in an input image input via the camera 131, and determines the type and year of issue of the recognized coins, as well as the size and orientation of the images. (Step S100).

図4は、コインを認識する際にユーザ端末10において表示されるコイン読取画面50を例示する。当該画面50は、図示するように、ユーザ端末10のカメラ131を介して入力される入力画像を表示する画像表示領域51と、「スキャンする」と表示された読取ボタン52とを有する。プレイヤは、コインCNの全体が領域51に含まれるように、ユーザ端末10の位置及び向き等を調節する。 FIG. 4 illustrates a coin reading screen 50 displayed on the user terminal 10 when recognizing a coin. As shown in the figure, the screen 50 has an image display area 51 for displaying an input image input via the camera 131 of the user terminal 10 and a reading button 52 for displaying "scan". The player adjusts the position and orientation of the user terminal 10 so that the entire coin CN is included in the area 51.

プレイヤによって読取ボタン52が選択されると、ユーザ端末10は、入力画像に含まれるコインCNを認識し、認識したコインCNの種類及び発行年、並びに、当該画像における大きさ及び向きを判定する。コインCNの種類及び発行年は、コインCNの表面部分の画像を解析することによって判定される。また、コインCNの大きさは、画像全体の大きさに対するコインCNの大きさの比率として判定される。また、コインCNの向きは、コインCNの表面部分の画像における図柄の向きとして判定される。なお、ユーザ端末10が、入力画像に含まれるコインCNを認識したときに、(プレイヤによる読取ボタン52の選択操作を介さずに)自動的に上述したコインCNの種類等の判定を行うようにしても良い。 When the reading button 52 is selected by the player, the user terminal 10 recognizes the coin CN included in the input image, determines the type and issue year of the recognized coin CN, and the size and orientation in the image. The type and year of issue of the coin CN are determined by analyzing the image of the surface portion of the coin CN. Further, the size of the coin CN is determined as the ratio of the size of the coin CN to the size of the entire image. Further, the orientation of the coin CN is determined as the orientation of the symbol in the image of the surface portion of the coin CN. When the user terminal 10 recognizes the coin CN included in the input image, the above-mentioned type of coin CN is automatically determined (without the player selecting the read button 52). You may.

図3のフロー図に戻り、こうしてコインの種類等を判定すると、次に、ユーザ端末10は、コインの種類及び発行年に基づいて、登場させる敵キャラクタを決定する(ステップS110)。この例では、コインの種類及び発行年の組合せ毎に種類の異なるキャラクタが、登場させる敵キャラクタとして予め設定されている。例えば、コインの種類が「1円硬貨」であって発行年が「平成23年〜」である場合には「キャラクタA」が敵キャラクタとして設定されており、コインの種類が「5円硬貨」であって発行年が「平成12年」である場合には「キャラクタB」が敵キャラクタとして設定されている。 Returning to the flow chart of FIG. 3, and determining the type of coin in this way, the user terminal 10 then determines the enemy character to appear based on the type of coin and the year of issue (step S110). In this example, different types of characters are preset as enemy characters to appear for each combination of coin type and issue year. For example, if the coin type is "1 yen coin" and the issue year is "2011-", "Character A" is set as the enemy character and the coin type is "5 yen coin". If the issue year is "2000", "character B" is set as an enemy character.

続いて、ユーザ端末10は、コインの大きさ及び向きに基づいて、敵キャラクタとプレイヤキャラクタとの仮想空間における相対的な位置関係(方向及び距離)を決定し(ステップS120)、当該相対的な位置関係に基づいて敵キャラクタ及びプレイヤキャラクタを仮想空間に配置する(ステップS130)。 Subsequently, the user terminal 10 determines the relative positional relationship (direction and distance) between the enemy character and the player character in the virtual space based on the size and orientation of the coin (step S120), and the relative position is determined. The enemy character and the player character are arranged in the virtual space based on the positional relationship (step S130).

図5は、敵キャラクタ及びプレイヤキャラクタを仮想空間に配置する方法を説明するための図である。図5において、テーブルTBに置かれているコインCNを上方から見た様子が模式的に示されている。この例では、現実空間においてコインCNが置かれているテーブルTB等の表面上に、ゲームを進行させる仮想空間200が構成され、当該仮想空間200において敵キャラクタ及びプレイヤキャラクタが配置される。 FIG. 5 is a diagram for explaining a method of arranging the enemy character and the player character in the virtual space. In FIG. 5, a state in which the coin CN placed on the table TB is viewed from above is schematically shown. In this example, a virtual space 200 for advancing the game is configured on the surface of a table TB or the like on which the coin CN is placed in the real space, and an enemy character and a player character are arranged in the virtual space 200.

この例では、敵キャラクタは、コインCNの位置に対応する仮想空間200における位置に配置される一方、プレイヤキャラクタは、コインCNとユーザ端末10との間の位置に対応する仮想空間200における位置に配置される。ここで、コインCNの中心を原点Oとし、コインCNの水平方向をx軸、及び、垂直方向をy軸とする平面直交座標系を考えると、敵キャラクタは、当該原点Oに配置され、プレイヤキャラクタは、原点Oからの距離がLnであってx軸に対する角度がθである位置P1に配置される。位置P1の原点Oからの距離Lnは、入力画像におけるコインCNの大きさに基づいて設定され、位置P1のx軸に対する角度θは、入力画像におけるコインCNの向きに基づいて設定される。 In this example, the enemy character is placed at a position in the virtual space 200 corresponding to the position of the coin CN, while the player character is placed at a position in the virtual space 200 corresponding to the position between the coin CN and the user terminal 10. Be placed. Here, considering a plane orthogonal coordinate system in which the center of the coin CN is the origin O, the horizontal direction of the coin CN is the x-axis, and the vertical direction is the y-axis, the enemy character is placed at the origin O and the player The character is placed at position P1 where the distance from the origin O is Ln and the angle with respect to the x-axis is θ. The distance Ln of the position P1 from the origin O is set based on the size of the coin CN in the input image, and the angle θ of the position P1 with respect to the x-axis is set based on the orientation of the coin CN in the input image.

図6は、敵キャラクタ202及びプレイヤキャラクタ204が仮想空間200に配置される様子を説明するための図である。このように、テーブルTBに置かれているコインCNの位置に敵キャラクタ202が配置され、当該敵キャラクタ202(コインCN)とユーザ端末10との間にプレイヤキャラクタ204が配置されることになる。 FIG. 6 is a diagram for explaining how the enemy character 202 and the player character 204 are arranged in the virtual space 200. In this way, the enemy character 202 is arranged at the position of the coin CN placed on the table TB, and the player character 204 is arranged between the enemy character 202 (coin CN) and the user terminal 10.

図3のフロー図に戻り、こうして敵キャラクタ及びプレイヤキャラクタを仮想空間に配置すると、ユーザ端末10は、次に、敵キャラクタとプレイヤキャラクタとの間の対戦の進行を制御する(ステップS140)。 Returning to the flow chart of FIG. 3, when the enemy character and the player character are arranged in the virtual space in this way, the user terminal 10 then controls the progress of the battle between the enemy character and the player character (step S140).

図7は、敵キャラクタとプレイヤキャラクタとの間の対戦の際にユーザ端末10において表示されるゲーム画面60を例示する。当該ゲーム画面60は、画面全体において、カメラ131を介して入力される現実空間の画像に対して仮想空間200の画像を重ねた拡張現実の画像が表示されるように構成されている。当該仮想空間200の画像は、ユーザ端末10(カメラ131)の動きに従って(連動して)仮想空間200内を動く仮想カメラから見た(当該仮想カメラの視野に含まれる)当該仮想空間200の画像である。 FIG. 7 illustrates a game screen 60 displayed on the user terminal 10 during a battle between an enemy character and a player character. The game screen 60 is configured to display an augmented reality image in which an image of the virtual space 200 is superimposed on an image of the real space input via the camera 131 on the entire screen. The image of the virtual space 200 is an image of the virtual space 200 (included in the field of view of the virtual camera) seen from a virtual camera moving in the virtual space 200 according to the movement of the user terminal 10 (camera 131). Is.

図7に示すように、仮想空間200には、敵キャラクタ202と、プレイヤキャラクタ204とが配置されている。敵キャラクタ202は、初期状態では、コインCNの下方向(図5の下方向)が正面となるように(コインCNの下方向を向くように)配置されている。 As shown in FIG. 7, an enemy character 202 and a player character 204 are arranged in the virtual space 200. In the initial state, the enemy character 202 is arranged so that the downward direction of the coin CN (the downward direction of FIG. 5) faces the front (the downward direction of the coin CN faces downward).

また、ゲーム画面60は、図7に示すように、画面右上隅において、敵キャラクタ202のHPの残量を示すインジケータ61が配置されており、当該インジケータ61の上側には、敵キャラクタに関する基本情報(例えば、名称等)が表示されている。また、ゲーム画面60は、画面右下隅において、物理攻撃ボタン62、スキル攻撃ボタン63、及び、プレイヤキャラクタ204のHPの残量を示すインジケータ65が配置されている。物理攻撃ボタン62は、プレイヤキャラクタ204による敵キャラクタ202に対する物理攻撃の実行を指示するためのボタンである。スキル攻撃ボタン63は、プレイヤキャラクタ204による敵キャラクタ202に対するスキル攻撃(必殺技)の実行を指示するためのボタンである。 Further, as shown in FIG. 7, on the game screen 60, an indicator 61 indicating the remaining amount of HP of the enemy character 202 is arranged in the upper right corner of the screen, and basic information about the enemy character is above the indicator 61. (For example, name, etc.) is displayed. Further, in the game screen 60, a physical attack button 62, a skill attack button 63, and an indicator 65 indicating the remaining amount of HP of the player character 204 are arranged in the lower right corner of the screen. The physical attack button 62 is a button for instructing the player character 204 to execute a physical attack on the enemy character 202. The skill attack button 63 is a button for instructing the player character 204 to execute a skill attack (special move) on the enemy character 202.

この例では、物理攻撃ボタン62を介した物理攻撃を実行するためには、攻撃対象となる敵キャラクタに照準を合わせる(当該敵キャラクタを指定する)必要がある。そして、仮想空間200には、物理攻撃の対象となる敵キャラクタに照準を合わせるための球状のエイミングオブジェクト(指定用オブジェクト)206が配置されている。また、仮想空間200には、エイミングオブジェクト206とプレイヤキャラクタ204とを連結する直線状の連結オブジェクト208が配置されている。なお、物理攻撃ボタン62は、敵キャラクタに対して照準が合っていない状態では、選択できないように構成されている。 In this example, in order to execute a physical attack via the physical attack button 62, it is necessary to aim at the enemy character to be attacked (designate the enemy character). Then, in the virtual space 200, a spherical aiming object (designation object) 206 for aiming at the enemy character that is the target of the physical attack is arranged. Further, in the virtual space 200, a linear connecting object 208 that connects the aiming object 206 and the player character 204 is arranged. The physical attack button 62 is configured so that it cannot be selected when the enemy character is not aimed at.

この例では、プレイヤキャラクタ204は、ゲーム画面60に対するタッチ操作によって、その移動が制御される。図8は、プレイヤキャラクタ204の移動を指示するための仮想コントローラ66が表示されているゲーム画面60を例示する。当該仮想コントローラ66は、ゲーム画面60の画面全体のうち、物理攻撃ボタン62及びスキル攻撃ボタン63以外の領域においてタッチ操作が行われると、当該タッチ操作の位置に表示されるように構成されている(図8の例では、インジケータ61の下方において表示されている。)。また、仮想コントローラ66は、タッチ状態が解消される(つまり、プレイヤの指等がタッチパネルから離れる。)と消えるように構成されている。プレイヤは、タッチ操作によって仮想コントローラ66を表示させた後に、所望の方向へのスライド操作等を行うことによって、当該方向にプレイヤキャラクタ204を移動させることができる(図8の例では、プレイヤキャラクタ204は、図7の状態から左上方向に移動している。)。また、図示するように、プレイヤキャラクタ204の移動に伴って、当該プレイヤキャラクタ204とエイミングオブジェクト206とを結ぶ連結オブジェクト208の配置も変化する。 In this example, the movement of the player character 204 is controlled by a touch operation on the game screen 60. FIG. 8 illustrates a game screen 60 on which a virtual controller 66 for instructing the movement of the player character 204 is displayed. The virtual controller 66 is configured to be displayed at the position of the touch operation when a touch operation is performed in an area other than the physical attack button 62 and the skill attack button 63 in the entire screen of the game screen 60. (In the example of FIG. 8, it is displayed below the indicator 61.). Further, the virtual controller 66 is configured to disappear when the touch state is canceled (that is, the player's finger or the like is separated from the touch panel). The player can move the player character 204 in the desired direction by performing a slide operation or the like in a desired direction after displaying the virtual controller 66 by a touch operation (in the example of FIG. 8, the player character 204 can be moved. Is moving from the state of FIG. 7 toward the upper left.) Further, as shown in the figure, as the player character 204 moves, the arrangement of the connecting object 208 connecting the player character 204 and the aiming object 206 also changes.

ここで、エイミングオブジェクト206について説明する。図7、8に例示するように、この例では、エイミングオブジェクト206は、仮想カメラの視野(言い換えると、ゲーム画面60の画面全体)の中心(重心、視心)に表示されている。図9は、エイミングオブジェクト206の仮想空間200内における配置を説明するための図である。図示するように、プレイヤの視点に対応する仮想カメラ220(ユーザ端末10)の位置から視野の中心を通るように延びる直線SLが敵キャラクタ202と交わらない状態において、エイミングオブジェクト206は、仮想カメラ220からの距離が値L0である直線SL上の位置に配置される。当該値L0は、予め設定されている固定値である。なお、当該直線SL上の位置が、地面(テーブルTBの表面)の下側となってしまう場合(例えば、仮想カメラ220の向きが鉛直下方に近づく場合が想定される。)に、仮想カメラ220からの距離にかかわらず、エイミングオブジェクト206を地面の上側の位置(例えば、直線SLと地面との交点)に配置するようにしても良い。 Here, the aiming object 206 will be described. As illustrated in FIGS. 7 and 8, in this example, the aiming object 206 is displayed at the center (center of gravity, center of gravity) of the field of view (in other words, the entire screen of the game screen 60) of the virtual camera. FIG. 9 is a diagram for explaining the arrangement of the aiming object 206 in the virtual space 200. As shown in the figure, the aiming object 206 is the virtual camera 220 in a state where the straight line SL extending from the position of the virtual camera 220 (user terminal 10) corresponding to the viewpoint of the player passes through the center of the field of view does not intersect with the enemy character 202. It is arranged at a position on the straight line SL whose distance from is L0. The value L0 is a preset fixed value. When the position on the straight line SL is below the ground (the surface of the table TB) (for example, it is assumed that the direction of the virtual camera 220 approaches vertically downward), the virtual camera 220. The aiming object 206 may be placed at a position above the ground (for example, the intersection of the straight line SL and the ground) regardless of the distance from the ground.

このように配置されるエイミングオブジェクト206は、上述したように、物理攻撃の対象となる敵キャラクタに照準を合わせるためのオブジェクトである。プレイヤは、ユーザ端末10を動かすことによって、カメラ131に連動する仮想カメラの位置及び向きを変化させ、当該仮想カメラの視野の中心に敵キャラクタ202が位置するようにする。図10は、仮想カメラの視野の中心に敵キャラクタ202が位置する状態である場合のエイミングオブジェクト206の配置を説明するための図である。仮想カメラ220の視野の中心に敵キャラクタ202が位置する状態は、仮想カメラ220の位置から視野の中心を通るように延びる直線SLが敵キャラクタ202と交わる状態であるとも言える。この場合、図示するように、エイミングオブジェクト206は敵キャラクタ202の位置に配置される。例えば、エイミングオブジェクト206の位置は、仮想カメラ220からの距離が上述した値L0よりも大きな値L1である直線SL上の位置となる。 As described above, the aiming object 206 arranged in this way is an object for aiming at the enemy character that is the target of the physical attack. By moving the user terminal 10, the player changes the position and orientation of the virtual camera linked to the camera 131 so that the enemy character 202 is located at the center of the field of view of the virtual camera. FIG. 10 is a diagram for explaining the arrangement of the aiming object 206 when the enemy character 202 is located at the center of the field of view of the virtual camera. It can be said that the state in which the enemy character 202 is located at the center of the field of view of the virtual camera 220 is a state in which the straight line SL extending from the position of the virtual camera 220 so as to pass through the center of the field of view intersects with the enemy character 202. In this case, as shown, the aiming object 206 is placed at the position of the enemy character 202. For example, the position of the aiming object 206 is a position on the straight line SL whose distance from the virtual camera 220 is a value L1 larger than the above-mentioned value L0.

図11は、図10に例示したエイミングオブジェクト206の配置に対応するゲーム画面60を例示する。この場合、図示するように、敵キャラクタ202は、ゲーム画面60の画面全体(つまり、仮想カメラの視野)の中心に配置されており、エイミングオブジェクト206は、当該敵キャラクタ202(の特定の部位)に重ねて配置されている。また、エイミングオブジェクト206がプレイヤの視点(仮想カメラの位置)から離れたため、当該オブジェクト206のゲーム画面60上での表示サイズは、図8に例示したゲーム画面60上での表示サイズと比較して小さくなっている。このようにエイミングオブジェクト206が敵キャラクタ202に重ねて配置されている状態において、物理攻撃ボタン62が選択可能となっている。そして、プレイヤによって物理攻撃ボタン62が選択されると、敵キャラクタ202に対するプレイヤキャラクタ204による物理攻撃が実行される。なお、エイミングオブジェクト206が配置されている(照準が合わせられている)敵キャラクタ202の部位(頭部、胸部等)に対して物理攻撃が実行される(物理攻撃の対象となる部位の特定を可能とする)ようにしても良い。 FIG. 11 illustrates a game screen 60 corresponding to the arrangement of the aiming object 206 illustrated in FIG. In this case, as shown in the figure, the enemy character 202 is arranged at the center of the entire screen of the game screen 60 (that is, the field of view of the virtual camera), and the aiming object 206 is (a specific part of) the enemy character 202. It is placed on top of each other. Further, since the aiming object 206 is away from the player's viewpoint (position of the virtual camera), the display size of the object 206 on the game screen 60 is compared with the display size on the game screen 60 illustrated in FIG. It's getting smaller. The physical attack button 62 can be selected in the state where the aiming object 206 is arranged so as to overlap the enemy character 202 in this way. Then, when the physical attack button 62 is selected by the player, the physical attack by the player character 204 against the enemy character 202 is executed. In addition, a physical attack is executed on the part (head, chest, etc.) of the enemy character 202 where the aiming object 206 is placed (aimed at) (identification of the part to be the target of the physical attack). It may be possible).

ここで、エイミングオブジェクト206が敵キャラクタ202に重ねて配置されている状態であっても、プレイヤキャラクタ204の物理攻撃可能範囲に敵キャラクタ202が存在しない(プレイヤキャラクタ204と敵キャラクタ202との間の距離が所定値以上である)場合には、物理攻撃ボタン62を選択可能としないようにしても良い。この場合、当該物理攻撃可能範囲に敵キャラクタ202が存在するか否かに応じてエイミングオブジェクト206の表示態様を変化させる(例えば、プレイヤキャラクタ204の物理攻撃可能範囲に敵キャラクタ202が存在しない場合にエイミングオブジェクト206を点滅表示させる等)ようにしても良い。 Here, even if the aiming object 206 is placed so as to overlap the enemy character 202, the enemy character 202 does not exist in the physical attack range of the player character 204 (between the player character 204 and the enemy character 202). If the distance is greater than or equal to a predetermined value), the physical attack button 62 may not be selectable. In this case, the display mode of the aiming object 206 is changed depending on whether or not the enemy character 202 exists in the physical attackable range (for example, when the enemy character 202 does not exist in the physical attackable range of the player character 204). The aiming object 206 may be blinked (for example).

図12は、図10、11の状態からユーザ端末10を敵キャラクタ202が位置する方向に動かすことによって、仮想カメラ220の視野の中心に敵キャラクタ202が位置する状態を維持しながら、当該仮想カメラ220が敵キャラクタ202に近づいた場合のエイミングオブジェクト206の配置を説明するための図である。この場合、図示するように、エイミングオブジェクト206は、敵キャラクタ202の位置への配置が維持されており、この結果、仮想カメラ220とエイミングオブジェクト206との間の距離が短くなっている(当該距離が、上述した値L1よりも小さい値L2となっている。)。 FIG. 12 shows the virtual camera while maintaining the state in which the enemy character 202 is located at the center of the field of view of the virtual camera 220 by moving the user terminal 10 in the direction in which the enemy character 202 is located from the states of FIGS. It is a figure for demonstrating the arrangement of the aiming object 206 when 220 approaches an enemy character 202. In this case, as shown in the figure, the aiming object 206 is maintained at the position of the enemy character 202, and as a result, the distance between the virtual camera 220 and the aiming object 206 is shortened (the distance). However, the value L2 is smaller than the above-mentioned value L1).

図13は、図12に例示したエイミングオブジェクト206の配置に対応するゲーム画面60を例示する。この場合、図13に示すように、エイミングオブジェクト206がプレイヤの視点(仮想カメラの位置)に近づいたため、当該オブジェクト206のゲーム画面60上での表示サイズは、図11に例示したゲーム画面60上での表示サイズと比較して大きくなっている。なお、図13のゲーム画面60においては、プレイヤキャラクタ204が仮想カメラの視野の範囲から外れて表示されていないが、連結オブジェクト208によって、プレイヤは、当該プレイヤキャラクタ204の大まかな位置(図13の例では、視野の左手前方向)を推測することができる。 FIG. 13 illustrates a game screen 60 corresponding to the arrangement of the aiming object 206 illustrated in FIG. In this case, as shown in FIG. 13, since the aiming object 206 approaches the player's viewpoint (position of the virtual camera), the display size of the object 206 on the game screen 60 is on the game screen 60 illustrated in FIG. It is larger than the display size in. In the game screen 60 of FIG. 13, the player character 204 is not displayed outside the field of view of the virtual camera, but the connected object 208 allows the player to move the player to a rough position of the player character 204 (FIG. 13). In the example, the left front direction of the field of view) can be inferred.

図14は、図12、13に例示した状態からユーザ端末10(カメラ131)の向きを左方向に動かすことによって、仮想カメラ220の視野の中心に敵キャラクタ202が位置する状態が解消された場合のエイミングオブジェクト206の配置を説明するための図である。この場合、図示するように、エイミングオブジェクト206は、視野の中心に敵キャラクタ202が位置する状態が解消される直前の状態における仮想カメラ220との間の距離(値L2)を維持しつつ、仮想カメラ220の位置から視野の中心を通るように延びる直線SL上の位置に配置される。 FIG. 14 shows a case where the state in which the enemy character 202 is located at the center of the field of view of the virtual camera 220 is eliminated by moving the direction of the user terminal 10 (camera 131) to the left from the state illustrated in FIGS. It is a figure for demonstrating the arrangement of the aiming object 206 of. In this case, as shown in the figure, the aiming object 206 is virtual while maintaining the distance (value L2) from the virtual camera 220 in the state immediately before the state where the enemy character 202 is located at the center of the field of view is eliminated. It is arranged at a position on a straight line SL extending from the position of the camera 220 so as to pass through the center of the field of view.

図15は、図14に例示したエイミングオブジェクト206の配置に対応するゲーム画面60を例示する。この場合、図15に示すように、エイミングオブジェクト206は敵キャラクタ202の位置から離れるが、プレイヤの視点(仮想カメラの位置)とエイミングオブジェクト206との間の距離は変化していないため、当該オブジェクト206のゲーム画面60上での表示サイズは変化していない。このように、視野の中心に敵キャラクタ202が位置する状態が解消された場合にエイミングオブジェクト206の表示サイズを維持することによって、当該オブジェクト206の表示サイズが急激に変化してしまうことが抑制され、この結果、良好な操作性が実現される。なお、図15のゲーム画面60においては、エイミングオブジェクト206が敵キャラクタ202の位置から外れているため、物理攻撃ボタン62が選択不可能となっている。 FIG. 15 illustrates a game screen 60 corresponding to the arrangement of the aiming object 206 illustrated in FIG. In this case, as shown in FIG. 15, the aiming object 206 is separated from the position of the enemy character 202, but the distance between the player's viewpoint (position of the virtual camera) and the aiming object 206 has not changed, so that the object is concerned. The display size of the 206 game screen 60 has not changed. In this way, by maintaining the display size of the aiming object 206 when the state in which the enemy character 202 is located at the center of the field of view is resolved, it is possible to prevent the display size of the object 206 from suddenly changing. As a result, good operability is realized. In the game screen 60 of FIG. 15, since the aiming object 206 is out of the position of the enemy character 202, the physical attack button 62 cannot be selected.

このように、エイミングオブジェクト206を介して敵キャラクタ202に照準を合わせる操作を伴って、物理攻撃ボタン62を介した物理攻撃が行われる。一方、スキル攻撃ボタン63を介したスキル攻撃は、照準を合わせる操作が不要であり、いつでも実行することができる。プレイヤは、物理攻撃ボタン62又はスキル攻撃ボタン63を選択して、プレイヤキャラクタ204による敵キャラクタ202に対する物理攻撃又はスキル攻撃を実行させる。これらの攻撃が行われると、敵キャラクタ202に対してダメージが与えられる。同様に、敵キャラクタ202は、プレイヤキャラクタ204に攻撃を行うことにより、当該プレイヤキャラクタ204に対してダメージを与える。与えられるダメージは、例えば、相互のパラメータ(攻撃力、スキルレベル、及び、防御力等)の値に基づいて算出され、受けたダメージに応じてHPが減少する。なお、敵キャラクタ202もまた、仮想空間200内を移動する。 In this way, a physical attack is performed via the physical attack button 62, accompanied by an operation of aiming at the enemy character 202 via the aiming object 206. On the other hand, the skill attack via the skill attack button 63 does not require an operation of aiming and can be executed at any time. The player selects the physical attack button 62 or the skill attack button 63 to execute a physical attack or a skill attack on the enemy character 202 by the player character 204. When these attacks are made, damage is given to the enemy character 202. Similarly, the enemy character 202 damages the player character 204 by attacking the player character 204. The damage given is calculated based on the values of mutual parameters (attack power, skill level, defense power, etc.), and the HP decreases according to the damage received. The enemy character 202 also moves in the virtual space 200.

そして、敵キャラクタ202及びプレイヤキャラクタ204の何れか一方のHPがゼロとなると、対戦が終了する(ステップS150においてYES)。プレイヤキャラクタ204が敵キャラクタ202を倒した場合に、プレイヤに対する報酬として、特別なアイテムが仮想空間200に配置されるようにしても良い。当該特別なアイテムは、プレイヤ端末10との間の距離が所定の値よりも小さくなると(当該特別なアイテムにプレイヤ端末10が近づくと)実体化され、実体化されたアイテムをプレイヤキャラクタ204が触れると、プレイヤは、当該アイテムを獲得する。 Then, when the HP of either the enemy character 202 or the player character 204 becomes zero, the battle ends (YES in step S150). When the player character 204 defeats the enemy character 202, a special item may be placed in the virtual space 200 as a reward for the player. The special item is materialized when the distance to the player terminal 10 becomes smaller than a predetermined value (when the player terminal 10 approaches the special item), and the player character 204 touches the materialized item. Then, the player acquires the item.

上述した例において、プレイヤキャラクタ204が仮想カメラ220の視野に含まれている(つまり、ゲーム画面60においてプレイヤキャラクタ204が表示されている)期間において、当該プレイヤキャラクタ204のHPが回復するようにしても良い。この場合、仮想カメラの位置(視点)とプレイヤキャラクタ204との間の距離が短い(近い)ほど、HPの回復速度を速くしても良い。 In the above example, the HP of the player character 204 is restored during the period when the player character 204 is included in the field of view of the virtual camera 220 (that is, the player character 204 is displayed on the game screen 60). Is also good. In this case, the shorter (closer) the distance between the position (viewpoint) of the virtual camera and the player character 204, the faster the HP recovery speed may be.

上述した例において、プレイヤが所有する複数の武器の中からプレイヤによって選択された武器をプレイヤキャラクタ204に対して設定する(装備させる)ようにしても良い。この場合、設定される武器の種類に応じて物理攻撃の種類が変化する(例えば、武器の属性に応じて物理攻撃の属性が変化する)ようにし、当該物理攻撃の種類に応じて、エイミングオブジェクト206の外観を変化させる(例えば、物理攻撃の属性が「水」である場合には表示色を青色とする一方、物理攻撃の属性が「火」である場合には表示色を赤色とする等)ようにしても良い。 In the above-mentioned example, a weapon selected by the player from a plurality of weapons owned by the player may be set (equipped) for the player character 204. In this case, the type of physical attack changes according to the type of weapon set (for example, the attribute of physical attack changes according to the attribute of the weapon), and the aiming object depends on the type of physical attack. Change the appearance of 206 (for example, if the physical attack attribute is "water", the display color is blue, while if the physical attack attribute is "fire", the display color is red, etc. ) You may do it.

上述した例における対戦ゲームは、1人のプレイヤが敵キャラクタと対戦するゲームとして構成されているが、本実施形態の他の例における対戦ゲームは、複数のプレイヤによる協力プレイが可能となるように構成される。例えば、図16に例示するように、2人のプレイヤPLA、PLBが協力してプレイする場合、一方のプレイヤであるプレイヤPLAが先行してコインCNを読み取ると、仮想空間200において、コインCNの種類及び発行年に対応する敵キャラクタ202が当該コインCNの位置に配置され、また、プレイヤPLAのユーザ端末10AとコインCNとの相対的な位置関係に基づいて、プレイヤPLAに対応するプレイヤキャラクタ204AがコインCNとユーザ端末10Aとの間の位置に配置される。敵キャラクタ202及びプレイヤキャラクタ204Aが配置される仮想空間200に関する情報は、コンテンツ管理サーバ30等において管理される。 The battle game in the above-mentioned example is configured as a game in which one player plays against an enemy character, but the battle game in another example of the present embodiment allows cooperative play by a plurality of players. It is composed. For example, as illustrated in FIG. 16, when two players PLA and PLB play together, when the player PLA, which is one player, reads the coin CN in advance, the coin CN is displayed in the virtual space 200. The enemy character 202 corresponding to the type and issue year is placed at the position of the coin CN, and the player character 204A corresponding to the player PLA is based on the relative positional relationship between the user terminal 10A of the player PLA and the coin CN. Is placed at a position between the coin CN and the user terminal 10A. Information about the virtual space 200 in which the enemy character 202 and the player character 204A are arranged is managed by the content management server 30 or the like.

そして、他方のプレイヤであるプレイヤPLBが、協力プレイを行うプレイヤであるプレイヤPLA(又は、仮想空間200)を指定した上でコインCNを読み取ると、プレイヤPLBのユーザ端末10BとコインCNとの相対的な位置関係に基づいて、同じ仮想空間200において、プレイヤPLBに対応するプレイヤキャラクタ204BがコインCNとユーザ端末10Bとの間の位置に配置される。 Then, when the player PLB, which is the other player, reads the coin CN after designating the player PLA (or the virtual space 200), which is the player performing cooperative play, the relative between the user terminal 10B of the player PLB and the coin CN. In the same virtual space 200, the player character 204B corresponding to the player PLB is arranged at a position between the coin CN and the user terminal 10B based on the positional relationship.

そして、ユーザ端末10A、10Bの各々において、仮想コントローラ66を介したプレイヤキャラクタ204A、204Bの移動の制御、エイミングオブジェクト206を介した敵キャラクタ202に対する照準合わせ、並びに、敵キャラクタ202に対する物理攻撃及びスキル攻撃等の操作が行われると、コンテンツ管理サーバ30等において、対戦の制御が行われる。ここで、他のプレイヤのエイミングオブジェクト206は表示するが、他のプレイヤの連結オブジェクト208は非表示とする(例えば、ユーザ端末10Aにおいて表示されるゲーム画面60では、プレイヤキャラクタ204Aの連結オブジェクト208が表示される一方、プレイヤキャラクタ204Bの連結オブジェクト208は表示されない)ようにしても良い。こうした他のプレイヤの連結オブジェクト208の非表示は、仮想空間200の視認性を向上させる。また、仮想空間200において、プレイヤPLAのエイミングオブジェクト206、及び、プレイヤPLBのエイミングオブジェクト206が重なった場合(例えば、敵キャラクタ202の同じ部位に照準を合わせている場合)に、「ダブルアタック」等の表示を行って、特別な効果(例えば、通常と比較して強力な攻撃(ダメージの増加)が可能となる効果等)が発生するようにしても良い。 Then, in each of the user terminals 10A and 10B, control of movement of the player characters 204A and 204B via the virtual controller 66, aiming at the enemy character 202 via the aiming object 206, and physical attack and skill against the enemy character 202. When an operation such as an attack is performed, the content management server 30 or the like controls the battle. Here, the aiming object 206 of the other player is displayed, but the connected object 208 of the other player is hidden (for example, on the game screen 60 displayed on the user terminal 10A, the connected object 208 of the player character 204A is displayed. While it is displayed, the connected object 208 of the player character 204B may not be displayed). The hiding of the connected object 208 of the other player improves the visibility of the virtual space 200. Further, in the virtual space 200, when the aiming object 206 of the player PLA and the aiming object 206 of the player PLB overlap (for example, when aiming at the same part of the enemy character 202), "double attack" or the like. May be displayed so that a special effect (for example, an effect that enables a stronger attack (increased damage) than usual) is generated.

上述した例では、エイミングオブジェクト206の形状を球状として構成したが、当該形状は、球状以外の様々な形状とすることができ、例えば、コイン型の形状とすることができる。そして、複数のプレイヤによる協力プレイが可能となるように構成された上述したゲームにおいてエイミングオブジェクト206の形状をコイン型とした場合には、プレイヤ自身のエイミングオブジェクト206の輪郭は円形として表示され(視野の中心を通るように延びる直線が、コイン型のエイミングオブジェクト206の平面に対して直交するように当該オブジェクト206の向きが制御される)、他のプレイヤのエイミングオブジェクト206については、プレイヤの視点との間の相対的な位置関係(角度)に応じた輪郭(楕円形、又は、長方形等)で表示される。 In the above example, the shape of the aiming object 206 is configured to be spherical, but the shape can be various shapes other than the spherical shape, for example, a coin-shaped shape. When the shape of the aiming object 206 is a coin shape in the above-mentioned game configured to enable cooperative play by a plurality of players, the outline of the aiming object 206 of the player itself is displayed as a circle (field of view). The orientation of the object 206 is controlled so that the straight line extending through the center of the coin-shaped aiming object 206 is orthogonal to the plane of the coin-shaped aiming object 206), and the other player's aiming object 206 is the player's viewpoint. It is displayed as an outline (oval, rectangular, etc.) according to the relative positional relationship (angle) between the objects.

上述した例では、コインCNを読み取って、登場する敵キャラクタの決定及び配置が行われるようにしたが、本実施形態の他の例では、こうしたコインCNの読取なしで敵キャラクタの決定及び配置が行われる(例えば、所定のルールに基づいて決定された敵キャラクタが、仮想空間における所定の座標に配置される。)。 In the above-mentioned example, the coin CN is read to determine and arrange the enemy character to appear, but in another example of the present embodiment, the enemy character is determined and arranged without reading the coin CN. This is done (for example, an enemy character determined based on a predetermined rule is placed at a predetermined coordinate in the virtual space).

上述した例では、敵キャラクタと対戦する対戦ゲームを例示したが、本実施形態のユーザ端末10が提供するゲームは、対戦ゲーム以外の様々なゲームを含む。例えば、本実施形態の他の例において、ユーザ端末10はスポーツゲームを提供し、エイミングオブジェクト206に相当するオブジェクトを介して、プレイヤキャラクタが実行するアクションの対象となるオブジェクトの指定(例えば、サッカーゲームにおいて、プレイヤキャラクタが実行するパスの対象となる他の選手の指定等)が行われる。さらに、本実施形態の他の例において、ユーザ端末10は、ゲーム以外の様々なコンテンツを提供し、例えば、ユーザのアバターが登場するライブ動画のコンテンツを提供するように構成され得る。 In the above-mentioned example, a battle game in which a battle game is played against an enemy character is illustrated, but the game provided by the user terminal 10 of the present embodiment includes various games other than the battle game. For example, in another example of the present embodiment, the user terminal 10 provides a sports game, and a designation of an object to be an action to be executed by the player character via an object corresponding to the aiming object 206 (for example, a soccer game). In, designation of another player who is the target of the pass executed by the player character, etc.) is performed. Further, in another example of the present embodiment, the user terminal 10 may be configured to provide various contents other than the game, for example, the contents of a live moving image in which the user's avatar appears.

以上説明した本実施形態に係るユーザ端末10は、拡張現実の技術を用いたコンテンツ(例えば、対戦ゲーム)を提供し、当該コンテンツでは、現実のカメラ131に連動する仮想のカメラの位置及び向きに基づく仮想空間の位置に指定用オブジェクト(例えば、エイミングオブジェクト206)が配置され、当該指定用オブジェクトを介して指定された対象オブジェクト(例えば、敵キャラクタ202)を対象とする所定のアクション(例えば、物理攻撃)のユーザキャラクタ(例えば、プレイヤキャラクタ204)による実行が制御される。つまり、ユーザは、仮想空間に含まれるユーザキャラクタによって実行される所定のアクションの対象を、ユーザ端末10(カメラ131)の動きに基づいて配置される指定用オブジェクトを介して指定することができる。このように、ユーザ端末10は、拡張現実の技術を用いたコンテンツにおけるユーザキャラクタの良好な操作を支援する。 The user terminal 10 according to the present embodiment described above provides content using augmented reality technology (for example, a battle game), and in the content, the position and orientation of a virtual camera linked to the real camera 131 A designation object (eg, aiming object 206) is placed at a position in the virtual space based on it, and a predetermined action (eg, physical) targeting the target object (eg, enemy character 202) designated via the designation object. Execution by the user character (for example, player character 204) of the attack) is controlled. That is, the user can specify the target of the predetermined action executed by the user character included in the virtual space via the designation object arranged based on the movement of the user terminal 10 (camera 131). In this way, the user terminal 10 supports good operation of the user character in the content using the augmented reality technology.

本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。 The processes and procedures described herein are implemented by software, hardware, or any combination thereof, other than those expressly described. For example, the processes and procedures described herein are realized by implementing logic corresponding to the processes and procedures on a medium such as an integrated circuit, a volatile memory, a non-volatile memory, or a magnetic disk. Further, the processes and procedures described in the present specification can be implemented as a computer program corresponding to the processes and procedures and executed by various computers.

本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。 Even if it is explained that the processes and procedures described herein are performed by a single device, software, component, module, such processes or procedures are performed by multiple devices, multiple software, multiple devices. Can be executed by a component of, and / or multiple modules. The software and hardware elements described herein can also be achieved by integrating them into fewer components or by breaking them down into more components.

本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。 In the present specification, when the components of the invention are described as either one or more, or even if they are described without limitation to either one or more, they should be understood separately in the context. Except for, the component may be either singular or plural.

10 ユーザ端末
11 コンピュータプロセッサ
111 画像生成表示部
112 コンテンツ進行制御部
131 カメラ
30 コンテンツ管理サーバ
50 コイン読取画面
60 ゲーム画面
200 仮想空間
202 敵キャラクタ(対象オブジェクト)
204 プレイヤキャラクタ(ユーザキャラクタ)
206 エイミングオブジェクト(指定用オブジェクト)
208 連結オブジェクト
10 User terminal 11 Computer processor 111 Image generation display unit 112 Content progress control unit 131 Camera 30 Content management server 50 Coin reading screen 60 Game screen 200 Virtual space 202 Enemy character (target object)
204 Player character (user character)
206 Aiming object (designation object)
208 Concatenated object

Claims (13)

1又は複数のコンピュータプロセッサを備え、拡張現実の技術を用いたコンテンツを提供するためのシステムであって、
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行し、
前記コンテンツの進行を制御する処理は、
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、
前記ユーザキャラクタと前記指定用オブジェクトとを結ぶ連結オブジェクトを前記仮想空間において配置すること、及び、
前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む、
システム。
A system equipped with one or more computer processors to provide content using augmented reality technology.
The one or more computer processors depend on the execution of readable instructions.
Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. The process of generating and displaying images,
A process of controlling the progress of the content based on at least the movement of the user character is executed.
The process of controlling the progress of the content is
Placing a designating object for designating a target object for a predetermined action performed by the user character at a position in the virtual space at least based on the position and orientation of the virtual camera.
Arranging a connected object connecting the user character and the designated object in the virtual space, and
Including controlling the execution of the predetermined action by the user character targeting the target object designated via the designation object.
system.
1又は複数のコンピュータプロセッサを備え、拡張現実の技術を用いたコンテンツを提供するためのシステムであって、 A system equipped with one or more computer processors to provide content using augmented reality technology.
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、 The one or more computer processors depend on the execution of readable instructions.
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、 Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. The process of generating and displaying images,
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行し、 A process of controlling the progress of the content based on at least the movement of the user character is executed.
前記コンテンツの進行を制御する処理は、 The process of controlling the progress of the content is
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの視野の方向に延びる所定の直線上に特定の対象オブジェクトが存在する場合に前記特定の対象オブジェクトの位置に配置する一方、前記所定の直線上に何れの対象オブジェクトも存在しない場合に前記仮想のカメラの位置から一定の距離だけ離れた前記所定の直線上の位置に配置すること、及び、 When a specific target object exists on a predetermined straight line extending in the direction of the field of view of the virtual camera as a specification object for designating a target object to be the target of a predetermined action executed by the user character. While arranging at the position of the specific target object, when none of the target objects exists on the predetermined straight line, the object is arranged at the position on the predetermined straight line separated from the position of the virtual camera by a certain distance. That and
前記指定用オブジェクトが配置されている位置の対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む、 Including controlling the execution of the predetermined action by the user character targeting the target object at the position where the designation object is arranged.
システム。 system.
前記コンテンツの進行を制御する処理は、前記所定の直線上に前記特定の対象オブジェクトが存在する第1の状態から前記所定の直線上に何れの対象オブジェクトも存在しない第2の状態へと移行した場合に、前記仮想のカメラの位置から、前記第1の状態から前記第2の状態へと移行する直前における前記仮想のカメラと前記特定の対象オブジェクトとの間の距離である前記一定の距離だけ離れた前記所定の直線上の位置に、前記指定用オブジェクトを配置することを含む、
請求項のシステム。
The process of controlling the progress of the content has shifted from the first state in which the specific target object exists on the predetermined straight line to the second state in which no target object exists on the predetermined straight line. In this case, only the certain distance, which is the distance between the virtual camera and the specific target object immediately before the transition from the position of the virtual camera to the second state. Including placing the designated object at a position on the predetermined straight line at a distance.
The system of claim 2.
1又は複数のコンピュータプロセッサを備え、拡張現実の技術を用いたコンテンツを提供するためのシステムであって、 A system equipped with one or more computer processors to provide content using augmented reality technology.
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、 The one or more computer processors depend on the execution of readable instructions.
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、 Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. The process of generating and displaying images,
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行し、 A process of controlling the progress of the content based on at least the movement of the user character is executed.
前記コンテンツの進行を制御する処理は、 The process of controlling the progress of the content is
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、 Placing a designating object for designating a target object for a predetermined action performed by the user character at a position in the virtual space at least based on the position and orientation of the virtual camera.
前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、及び、 Controlling the execution of the predetermined action targeting the target object specified via the designation object by the user character, and
前記仮想のカメラと前記ユーザキャラクタとの間の前記仮想空間における相対的な位置関係に少なくとも基づいて、前記ユーザキャラクタの所定のパラメータの値を変動させること、を含む、 Including varying the value of a predetermined parameter of the user character based on at least the relative positional relationship in the virtual space between the virtual camera and the user character.
システム。 system.
前記コンテンツの進行を制御する処理は、前記仮想のカメラと前記ユーザキャラクタとの間の前記仮想空間における距離が短いほど前記所定のパラメータの値の変動速度を速くすることを含む、
請求項4のシステム。
The process of controlling the progress of the content includes increasing the fluctuation speed of the value of the predetermined parameter as the distance in the virtual space between the virtual camera and the user character becomes shorter.
The system of claim 4.
前記コンテンツは、対戦ゲームであり、
前記対象オブジェクトは、敵キャラクタを含み、
前記所定のアクションは、前記敵キャラクタに対する攻撃を含む、
請求項1ないし5何れかのシステム。
The content is a competitive game and
The target object includes an enemy character and
The predetermined action includes an attack on the enemy character.
The system according to any one of claims 1 to 5.
前記コンテンツの進行を制御する処理は、前記所定のアクションの種類に応じて前記指定用オブジェクトの外観を変化させることを含む、
請求項1ないし6何れかのシステム。
The process of controlling the progress of the content includes changing the appearance of the designating object according to the type of the predetermined action.
The system according to any one of claims 1 to 6.
1又は複数のコンピュータによって実行され、拡張現実の技術を用いたコンテンツを提供するための方法であって、
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示するステップと、
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御するステップと、を備え、
前記コンテンツの進行を制御するステップは、
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、
前記ユーザキャラクタと前記指定用オブジェクトとを結ぶ連結オブジェクトを前記仮想空間において配置すること、及び、
前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む、
方法。
A method of providing content that is run by one or more computers and uses augmented reality technology.
Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. Steps to generate and display images and
A step of controlling the progress of the content based on at least the movement of the user character.
The step of controlling the progress of the content is
Placing a designating object for designating a target object for a predetermined action performed by the user character at a position in the virtual space at least based on the position and orientation of the virtual camera.
Arranging a connected object connecting the user character and the designated object in the virtual space, and
Including controlling the execution of the predetermined action by the user character targeting the target object designated via the designation object.
Method.
1又は複数のコンピュータによって実行され、拡張現実の技術を用いたコンテンツを提供するための方法であって、 A method of providing content that is run by one or more computers and uses augmented reality technology.
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示するステップと、 Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. Steps to generate and display images and
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御するステップと、を備え、 A step of controlling the progress of the content based on at least the movement of the user character.
前記コンテンツの進行を制御するステップは、 The step of controlling the progress of the content is
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの視野の方向に延びる所定の直線上に特定の対象オブジェクトが存在する場合に前記特定の対象オブジェクトの位置に配置する一方、前記所定の直線上に何れの対象オブジェクトも存在しない場合に前記仮想のカメラの位置から一定の距離だけ離れた前記所定の直線上の位置に配置すること、及び、 When a specific target object exists on a predetermined straight line extending in the direction of the field of view of the virtual camera as a specification object for designating a target object to be the target of a predetermined action executed by the user character. While arranging at the position of the specific target object, when none of the target objects exists on the predetermined straight line, the object is arranged at the position on the predetermined straight line separated from the position of the virtual camera by a certain distance. That and
前記指定用オブジェクトが配置されている位置の対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む、 Including controlling the execution of the predetermined action by the user character targeting the target object at the position where the designation object is arranged.
方法。 Method.
1又は複数のコンピュータによって実行され、拡張現実の技術を用いたコンテンツを提供するための方法であって、 A method of providing content that is run by one or more computers and uses augmented reality technology.
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示するステップと、 Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. Steps to generate and display images and
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御するステップと、を備え、 A step of controlling the progress of the content based on at least the movement of the user character.
前記コンテンツの進行を制御するステップは、 The step of controlling the progress of the content is
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、 Placing a designating object for designating a target object for a predetermined action performed by the user character at a position in the virtual space at least based on the position and orientation of the virtual camera.
前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、及び、 Controlling the execution of the predetermined action targeting the target object specified via the designation object by the user character, and
前記仮想のカメラと前記ユーザキャラクタとの間の前記仮想空間における相対的な位置関係に少なくとも基づいて、前記ユーザキャラクタの所定のパラメータの値を変動させること、を含む、 Including varying the value of a predetermined parameter of the user character based on at least the relative positional relationship in the virtual space between the virtual camera and the user character.
方法。 Method.
拡張現実の技術を用いたコンテンツを提供するためのプログラムであって、
1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行させ、
前記コンテンツの進行を制御する処理は、
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、
前記ユーザキャラクタと前記指定用オブジェクトとを結ぶ連結オブジェクトを前記仮想空間において配置すること、及び、
前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む、
プログラム。
A program for providing content using augmented reality technology
Depending on the execution on one or more computers, the one or more computers
Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. The process of generating and displaying images,
A process of controlling the progress of the content based on at least the movement of the user character is executed.
The process of controlling the progress of the content is
Placing a designating object for designating a target object for a predetermined action performed by the user character at a position in the virtual space at least based on the position and orientation of the virtual camera.
Arranging a connected object connecting the user character and the designated object in the virtual space, and
Including controlling the execution of the predetermined action by the user character targeting the target object designated via the designation object.
program.
拡張現実の技術を用いたコンテンツを提供するためのプログラムであって、 A program for providing content using augmented reality technology
1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、 Depending on the execution on one or more computers, the one or more computers
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、 Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. The process of generating and displaying images,
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行させ、 A process of controlling the progress of the content based on at least the movement of the user character is executed.
前記コンテンツの進行を制御する処理は、 The process of controlling the progress of the content is
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの視野の方向に延びる所定の直線上に特定の対象オブジェクトが存在する場合に前記特定の対象オブジェクトの位置に配置する一方、前記所定の直線上に何れの対象オブジェクトも存在しない場合に前記仮想のカメラの位置から一定の距離だけ離れた前記所定の直線上の位置に配置すること、及び、 When a specific target object exists on a predetermined straight line extending in the direction of the field of view of the virtual camera as a specification object for designating a target object to be the target of a predetermined action executed by the user character. While arranging at the position of the specific target object, when none of the target objects exists on the predetermined straight line, the object is arranged at the position on the predetermined straight line separated from the position of the virtual camera by a certain distance. That and
前記指定用オブジェクトが配置されている位置の対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、を含む、 Including controlling the execution of the predetermined action by the user character targeting the target object at the position where the designation object is arranged.
プログラム。 program.
拡張現実の技術を用いたコンテンツを提供するためのプログラムであって、 A program for providing content using augmented reality technology
1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、 Depending on the execution on one or more computers, the one or more computers
現実のカメラを介した現実空間の画像に対して、ユーザキャラクタが含まれる仮想空間の画像であって前記現実のカメラに連動する仮想のカメラを介した前記仮想空間の画像を重ねた拡張現実の画像を生成及び表示する処理と、 Augmented reality image in which the image of the virtual space including the user character is superimposed on the image of the real space through the real camera and the image of the virtual space through the virtual camera linked to the real camera is superimposed. The process of generating and displaying images,
前記ユーザキャラクタの動作に少なくとも基づいて前記コンテンツの進行を制御する処理と、を実行させ、 A process of controlling the progress of the content based on at least the movement of the user character is executed.
前記コンテンツの進行を制御する処理は、 The process of controlling the progress of the content is
前記ユーザキャラクタによって実行される所定のアクションの対象となる対象オブジェクトを指定するための指定用オブジェクトを、前記仮想のカメラの位置及び向きに少なくとも基づく前記仮想空間における位置に配置すること、 Placing a designating object for designating a target object for a predetermined action performed by the user character at a position in the virtual space at least based on the position and orientation of the virtual camera.
前記指定用オブジェクトを介して指定された対象オブジェクトを対象とする前記所定のアクションの前記ユーザキャラクタによる実行を制御すること、及び、 Controlling the execution of the predetermined action targeting the target object specified via the designation object by the user character, and
前記仮想のカメラと前記ユーザキャラクタとの間の前記仮想空間における相対的な位置関係に少なくとも基づいて、前記ユーザキャラクタの所定のパラメータの値を変動させること、を含む、 Including varying the value of a predetermined parameter of the user character based on at least the relative positional relationship in the virtual space between the virtual camera and the user character.
プログラム。 program.
JP2018194636A 2018-10-15 2018-10-15 Systems, methods, and programs for providing content using augmented reality technology Active JP6832320B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018194636A JP6832320B2 (en) 2018-10-15 2018-10-15 Systems, methods, and programs for providing content using augmented reality technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018194636A JP6832320B2 (en) 2018-10-15 2018-10-15 Systems, methods, and programs for providing content using augmented reality technology

Publications (2)

Publication Number Publication Date
JP2020062116A JP2020062116A (en) 2020-04-23
JP6832320B2 true JP6832320B2 (en) 2021-02-24

Family

ID=70387757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018194636A Active JP6832320B2 (en) 2018-10-15 2018-10-15 Systems, methods, and programs for providing content using augmented reality technology

Country Status (1)

Country Link
JP (1) JP6832320B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112933592B (en) * 2021-01-26 2024-05-10 网易(杭州)网络有限公司 Information processing method and device in game, electronic equipment and storage medium
CN115193038A (en) * 2022-07-26 2022-10-18 北京字跳网络技术有限公司 Interaction control method and device, electronic equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5597837B2 (en) * 2010-09-08 2014-10-01 株式会社バンダイナムコゲームス Program, information storage medium, and image generation apparatus
JP5474899B2 (en) * 2011-09-14 2014-04-16 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP5559765B2 (en) * 2011-12-14 2014-07-23 株式会社コナミデジタルエンタテインメント GAME DEVICE AND PROGRAM
JP6854133B2 (en) * 2017-01-10 2021-04-07 任天堂株式会社 Information processing programs, information processing methods, information processing systems, and information processing equipment

Also Published As

Publication number Publication date
JP2020062116A (en) 2020-04-23

Similar Documents

Publication Publication Date Title
US7736235B2 (en) Game system for varying parameter of a character
US8723867B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
US20050164794A1 (en) Game system using touch panel input
JP6721297B2 (en) Game device
KR101826231B1 (en) Game system and method for attacking coordinate
US11893697B2 (en) Application control program, application control method, and application control system
JP5642352B2 (en) Game device, game program
JP6832320B2 (en) Systems, methods, and programs for providing content using augmented reality technology
JP7017474B2 (en) Application control program, application control method and application control system
JP6383822B2 (en) Game device, game program
JP5502048B2 (en) GAME DEVICE, GAME PROGRAM, AND GAME SYSTEM
JP6905568B2 (en) Game program, game processing method and information processing device
JP6093884B2 (en) Game device, game program
JP6167191B2 (en) Game device, game program
JP7462192B2 (en) Application control program, application control method and application control system
JP2019103815A (en) Game program, method and information processing apparatus
JP2020116178A (en) Game program, method and information processor
JP6905022B2 (en) Application control program, application control method and application control system
JP7130702B2 (en) Game device and control method
JP2013208226A (en) Game device, control method of game device and program
JP6989363B2 (en) Programs, server devices, and game systems
JP5872665B2 (en) Game device, game program
JP5728355B2 (en) GAME DEVICE, GAME PROGRAM, AND GAME SYSTEM
JP2019103616A (en) Game program, method and information processing apparatus
JP2006014957A (en) Game system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R150 Certificate of patent or registration of utility model

Ref document number: 6832320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250