JP6637688B2 - Video game processing program, video game processing system, and user terminal - Google Patents

Video game processing program, video game processing system, and user terminal Download PDF

Info

Publication number
JP6637688B2
JP6637688B2 JP2015133776A JP2015133776A JP6637688B2 JP 6637688 B2 JP6637688 B2 JP 6637688B2 JP 2015133776 A JP2015133776 A JP 2015133776A JP 2015133776 A JP2015133776 A JP 2015133776A JP 6637688 B2 JP6637688 B2 JP 6637688B2
Authority
JP
Japan
Prior art keywords
image
game
video game
user
game element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015133776A
Other languages
Japanese (ja)
Other versions
JP2017012559A (en
Inventor
雄樹 古川
雄樹 古川
信樹 岡内
信樹 岡内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2015133776A priority Critical patent/JP6637688B2/en
Publication of JP2017012559A publication Critical patent/JP2017012559A/en
Application granted granted Critical
Publication of JP6637688B2 publication Critical patent/JP6637688B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態の少なくとも1つは、撮影手段を備えるユーザ端末に所定の絵柄と撮影手段により撮影された画像とを合成した合成画像を出力させるビデオゲーム処理プログラム、ビデオゲーム処理システム、およびそのユーザ端末に関する。   At least one of the embodiments of the present invention is a video game processing program, a video game processing system, and a video game processing program for outputting a composite image obtained by synthesizing a predetermined picture and an image photographed by the photographing means to a user terminal having a photographing means. Related to a user terminal.

従来、ビデオゲームの分野では、撮影機能を用いた撮影時に、所定の画像を合成する技術が提案されている。   2. Description of the Related Art Conventionally, in the field of video games, a technique for synthesizing a predetermined image at the time of shooting using a shooting function has been proposed.

このような技術には、例えば、位置情報取得手段と装飾画像選択手段と合成画像生成手段とを備え、撮像装置の存在している位置を示す位置情報を取得し、位置情報に基づいて所定の記憶手段から所定の装飾画像を選択し、装飾画像と撮像画像との合成画像を生成する構成としたものがある(特許文献1参照)。   Such a technique includes, for example, a position information acquisition unit, a decoration image selection unit, and a composite image generation unit, acquires position information indicating a position where the imaging device exists, and performs a predetermined operation based on the position information. There is a configuration in which a predetermined decoration image is selected from a storage unit and a composite image of the decoration image and the captured image is generated (see Patent Document 1).

特開2010−279068号公報JP 2010-279068 A

従来から、ゲームの分野において、ゲームを継続させる動機づけをユーザに持たせることを目的として、様々な工夫が施されてきた。しかしながら、上述のような画像を合成するという技術に関しては、撮影機能を用いた撮影時に所定の画像を合成することと、ゲームを継続させることへの動機付けとを繋げることができていないという課題があった。   Conventionally, in the field of games, various devices have been devised for the purpose of giving users motivation to continue the game. However, with regard to the technique of synthesizing images as described above, it is not possible to combine motivation to continue a game with synthesizing a predetermined image at the time of shooting using a shooting function. was there.

本発明の少なくとも1つの実施形態の目的は、上記課題を解決し、ゲームを継続させるための動機付けをユーザに持たせることである。   It is an object of at least one embodiment of the present invention to solve the above problems and provide a user with motivation to continue the game.

非限定的な観点によると、本発明に係るビデオゲーム処理プログラムは、撮影手段を備えるユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させる機能をサーバに実現させるためのビデオゲーム処理プログラムであって、前記サーバに、前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定機能と、前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成機能と、生成された前記合成画像を前記ユーザ端末に出力させる出力機能とを実現させるためのものである。   According to a non-limiting aspect, the video game processing program according to the present invention provides a server with a function of causing a user terminal having a photographing unit to output a composite image obtained by combining a predetermined pattern and an image photographed by the photographing unit. A video game processing program for realizing, wherein the server refers to an in-game element given to a user who executes a game via the user terminal, and draws the in-game element given to the user. A specification function of specifying data corresponding to at least a part of the obtained pattern as a synthesis target; a generation function of generating a composite image by synthesizing the captured image captured by the imaging unit with the synthesis target; And an output function of outputting the synthesized image to the user terminal.

非限定的な観点によると、本発明に係るビデオゲーム処理システムは、通信ネットワークと、サーバと、ユーザ端末とを備え、撮影手段を備える前記ユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させるビデオゲーム処理システムであって、前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定手段と、前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成手段と、生成された前記合成画像を前記ユーザ端末に出力させる出力手段とを含むことを特徴とする。   According to a non-limiting aspect, a video game processing system according to the present invention includes a communication network, a server, and a user terminal, and a predetermined pattern is shot on the user terminal including a shooting unit by the shooting unit. A video game processing system for outputting a synthesized image obtained by synthesizing an image and an in-game element provided to a user who executes a game via the user terminal with reference to the in-game element provided to the user A specifying unit that specifies data corresponding to at least a part of a picture drawn as a synthesis target, and a generation unit that generates a composite image by synthesizing the captured image captured by the imaging unit and the synthesis target, Output means for outputting the generated composite image to the user terminal.

非限定的な観点によると、本発明に係るビデオゲーム処理プログラムは、所定の絵柄と撮影手段により撮影された画像とを合成した合成画像を出力させる機能を前記撮影手段を備えるユーザ端末に実現させるためのビデオゲーム処理プログラムであって、前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定機能と、前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成機能と、生成された前記合成画像を前記ユーザ端末に出力させる出力機能とを有するサーバから前記合成画像を出力するための情報を受信する機能を前記ユーザ端末に実現させるためのものである。   According to a non-limiting aspect, the video game processing program according to the present invention allows a user terminal including the photographing unit to have a function of outputting a composite image obtained by combining a predetermined pattern and an image photographed by the photographing unit. A video game processing program for referring to an in-game element provided to a user who executes a game via the user terminal, and displaying at least one of the patterns drawn on the in-game element provided to the user. A specification function of specifying data corresponding to the unit as a synthesis target, a generation function of synthesizing the captured image captured by the imaging unit and the synthesis target to generate a synthesized image, and generating the synthesized image. A function of receiving information for outputting the composite image from a server having an output function of outputting to the user terminal. It is for.

非限定的な観点によると、本発明に係るユーザ端末は、撮影手段を備え、前記ユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力するユーザ端末であって、ゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定手段と、前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成手段と、生成された前記合成画像を出力する出力手段とを含むことを特徴とする。   According to a non-limiting aspect, a user terminal according to the present invention is a user terminal that includes a photographing unit and outputs a combined image obtained by combining a predetermined pattern and an image photographed by the photographing unit to the user terminal. Identifying means for referring to an in-game element given to a user who executes the game, and identifying data corresponding to at least a part of a picture drawn on the in-game element given to the user as a synthesis target A generating unit configured to combine the captured image captured by the capturing unit with the synthesis target to generate a composite image, and an output unit configured to output the generated composite image.

本願の各実施形態により1または2以上の不足が解決される。   Each embodiment of the present application resolves one or more deficiencies.

本発明の実施形態の少なくとも一つに対応するビデオゲーム処理システムの構成の例を示すブロック図である。It is a block diagram showing an example of composition of a video game processing system corresponding to at least one of embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応するビデオゲーム処理サーバの構成を示すブロック図である。It is a block diagram showing composition of a video game processing server corresponding to at least one of an embodiment of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理の例を示すフローチャートである。9 is a flowchart illustrating an example of a shooting process corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理におけるサーバ側の動作の例を示すフローチャートである。9 is a flowchart illustrating an example of an operation on the server side in a shooting process corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理を端末単体で実行する際の動作の例を示すフローチャートである。6 is a flowchart illustrating an example of an operation when a terminal alone executes a shooting process corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応するビデオゲーム処理サーバの構成を示すブロック図である。It is a block diagram showing composition of a video game processing server corresponding to at least one of an embodiment of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理の例を示すフローチャートである。9 is a flowchart illustrating an example of a shooting process corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応するビデオゲーム処理サーバの構成を示すブロック図である。It is a block diagram showing composition of a video game processing server corresponding to at least one of an embodiment of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理の例を示すフローチャートである。9 is a flowchart illustrating an example of a shooting process corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応するビデオゲーム処理サーバの構成を示すブロック図である。It is a block diagram showing composition of a video game processing server corresponding to at least one of an embodiment of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理の例を示すフローチャートである。9 is a flowchart illustrating an example of a shooting process corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応するビデオゲーム処理サーバの構成を示すブロック図である。It is a block diagram showing composition of a video game processing server corresponding to at least one of an embodiment of the present invention. 本発明の実施形態の少なくとも一つに対応するゲーム処理の例を示すフローチャートである。It is a flowchart which shows the example of the game processing corresponding to at least one of embodiment of this invention. 本発明の実施形態の少なくとも一つに対応するビデオゲーム処理サーバの構成を示すブロック図である。It is a block diagram showing composition of a video game processing server corresponding to at least one of an embodiment of the present invention. 本発明の実施形態の少なくとも一つに対応するゲーム内要素の例を示す説明図である。It is explanatory drawing which shows the example of the in-game element corresponding to at least one of embodiment of this invention. 本発明の実施形態の少なくとも一つに対応する情報の格納状態の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a storage state of information corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理の例を示すフローチャートである。9 is a flowchart illustrating an example of a shooting process corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応する撮影処理が行われる際の様子の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a state when a shooting process corresponding to at least one of the embodiments of the present invention is performed. 本発明の実施形態の少なくとも一つに対応する表示画面の例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a display screen corresponding to at least one of the embodiments of the present invention. 本発明の実施形態の少なくとも一つに対応する表示画面の例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a display screen corresponding to at least one of the embodiments of the present invention.

以下、本発明の実施形態の例について図面を参照して説明する。なお、以下で説明する各実施形態の例における各種構成要素は、矛盾等が生じない範囲で適宜組み合わせ可能である。また、ある実施形態の例として説明した内容については、他の実施形態においてその説明を省略している場合がある。また、各実施形態の特徴部分に関係しない動作や処理については、その内容を省略している場合がある。さらに、以下で説明する各種フローを構成する各種処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。   Hereinafter, examples of embodiments of the present invention will be described with reference to the drawings. Note that various constituent elements in the examples of the embodiments described below can be appropriately combined as long as no contradiction occurs. Further, the contents described as an example of one embodiment may be omitted in other embodiments. In addition, the contents of operations and processes not related to the characteristic portions of the embodiments may be omitted in some cases. Furthermore, the order of the various processes that make up the various flows described below is random, as long as there is no inconsistency in the process contents.

[第1の実施形態]
図1は、本発明の一実施の形態におけるビデオゲーム処理システム100の構成の例を示すブロック図である。図1に示すように、ビデオゲーム処理システム100は、ビデオゲーム処理サーバ10と、ビデオゲームをプレイする複数のユーザ(プレイヤ)がそれぞれ使用するユーザ端末20,201〜20N(Nは任意の整数)とを含む。なお、ビデオゲーム処理システム100の構成はこれに限定されず、単一のユーザ端末を複数のユーザが使用する構成としてもよいし、複数のサーバを備える構成としてもよい。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of a configuration of a video game processing system 100 according to an embodiment of the present invention. As shown in FIG. 1, the video game processing system 100 includes a video game processing server 10 and user terminals 20, 201 to 20N (N is an arbitrary integer) used by a plurality of users (players) playing the video game, respectively. And Note that the configuration of the video game processing system 100 is not limited to this, and a configuration in which a single user terminal is used by a plurality of users or a configuration including a plurality of servers may be employed.

ビデオゲーム処理サーバ10と複数のユーザ端末20,201〜20Nは、それぞれインターネットなどの通信ネットワーク30に接続されている。なお、図示しないが、複数のユーザ端末20,201〜20Nは、通信業者によって管理される基地局と無線通信回線によるデータ通信を行うことによって、通信ネットワーク30と接続する。   The video game processing server 10 and the plurality of user terminals 20, 201 to 20N are respectively connected to a communication network 30 such as the Internet. Although not shown, the plurality of user terminals 20, 201 to 20N are connected to the communication network 30 by performing data communication with a base station managed by a communication company via a wireless communication line.

ビデオゲーム処理システム100は、ビデオゲーム処理サーバ10と複数のユーザ端末20,201〜20Nとを備えることにより、撮影手段(例えば、カメラなど)を備えるそれぞれのユーザ端末20,201〜20Nに所定の絵柄と撮影手段により撮影された画像とを合成した合成画像を出力させるための各種機能を実現する。   The video game processing system 100 includes a video game processing server 10 and a plurality of user terminals 20, 201 to 20N, so that each of the user terminals 20, 201 to 20N having a photographing unit (for example, a camera) has a predetermined Various functions for outputting a synthesized image obtained by synthesizing a picture and an image photographed by the photographing means are realized.

「ゲーム内要素」は、ビデオゲームにおいてユーザ(ユーザまたはユーザが操作するキャラクタ。以下同じ。)が利用可能な要素(例えば、仮想カードや、装備品や、アイテムや、仮想通貨など)を意味する。本例では、特に、絵柄が描かれたゲーム内要素が用いられる。ここで、「ビデオゲームにおいてユーザが利用可能な要素」とは、ユーザに付与されている要素や、ユーザが選択できる要素を含む。   “In-game element” means an element (for example, a virtual card, equipment, an item, a virtual currency, or the like) that can be used by a user (a user or a character operated by the user; the same applies hereinafter) in a video game. . In this example, an in-game element on which a picture is drawn is used. Here, "elements available to the user in the video game" include elements given to the user and elements that can be selected by the user.

「絵柄」とは、絵や模様の構図のことを示す。絵や模様としては、例えば、「キャラクタ画像」やそのキャラクタ画像の「背景画像」などが含まれる。   “Picture” refers to the composition of a picture or pattern. The picture or pattern includes, for example, a “character image” and a “background image” of the character image.

ビデオゲーム処理サーバ10は、ビデオゲーム処理システム100の管理者によって管理され、複数のユーザ端末20,201〜20Nに対してビデオゲームに関する情報を提供するための各種の機能を有する。本例において、ビデオゲーム処理サーバ10は、WWWサーバなどの情報処理装置によって構成され、各種情報を格納する記憶媒体を備える。なお、ビデオゲーム処理サーバ10は、制御部や通信部などビデオゲームを行うための一般的な構成を備えるが、ここでの説明は省略する。また、ビデオゲーム処理システム100においては、複数のユーザ端末20,201〜20Nそれぞれにかかる処理負荷を軽減させるといった観点から、ビデオゲームに関する情報はビデオゲーム処理サーバ10が管理することが好ましい。ただし、各種情報を記憶する記憶部は、ビデオゲーム処理サーバ10がアクセス可能な状態で記憶領域を備えていればよく、例えば専用の記憶領域をビデオゲーム処理サーバ10の外部に有する構成とされていてもよい。   The video game processing server 10 is managed by an administrator of the video game processing system 100, and has various functions for providing information related to a video game to a plurality of user terminals 20, 201 to 20N. In this example, the video game processing server 10 is configured by an information processing device such as a WWW server and includes a storage medium for storing various information. The video game processing server 10 has a general configuration for playing a video game, such as a control unit and a communication unit, but a description thereof will be omitted. In the video game processing system 100, it is preferable that the video game processing server 10 manages information about the video game from the viewpoint of reducing the processing load on each of the plurality of user terminals 20, 201 to 20N. However, the storage unit that stores various information only needs to have a storage area in a state where the video game processing server 10 can access the storage unit. For example, the storage unit is configured to have a dedicated storage area outside the video game processing server 10. You may.

図2は、ビデオゲーム処理サーバ10の構成の例であるビデオゲーム処理サーバ10(サーバ10)の構成を示すブロック図である。サーバ10は、特定部12と、生成部13と、出力部14とを少なくとも備える。   FIG. 2 is a block diagram showing the configuration of the video game processing server 10 (server 10), which is an example of the configuration of the video game processing server 10. The server 10 includes at least a specifying unit 12, a generating unit 13, and an output unit 14.

特定部11は、合成対象を特定する処理を実行する機能を有する。具体的には、特定部11は、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する。   The specifying unit 11 has a function of executing a process of specifying a synthesis target. Specifically, the specifying unit 11 specifies, as a synthesis target, data corresponding to at least a part of a picture drawn on an in-game element given to the user.

「ユーザに付与されたゲーム内要素」は、ユーザが所有しているゲーム内要素を示す。ユーザが所有しているゲーム内要素に関する情報は、ビデオゲーム処理サーバ10がアクセス可能な状態で記憶領域に格納される。   "In-game element given to user" indicates an in-game element owned by the user. Information about the in-game elements owned by the user is stored in the storage area in a state where the video game processing server 10 can access the information.

「合成対象」とは、撮影画像に合成されるデータである。また、「合成対象」は、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータである。   “Synthesis target” is data to be synthesized with a captured image. The “synthesis target” is data corresponding to at least a part of the picture drawn on the in-game element given to the user.

生成部12は、撮影画像と合成対象とを合成して合成画像を生成する処理を実行する機能を有する。   The generation unit 12 has a function of executing a process of synthesizing a captured image and a synthesis target to generate a synthesized image.

「合成」とは、合成対象と撮影画像が結びついて1の画像になることを示す。合成方法は特に限定されないが、本例では、撮影画像が描画されるレイヤ(以下、撮影画像レイヤと呼ぶ場合がある。)上に合成対象が描画されるレイヤ(以下、合成対象レイヤと呼ぶ場合がある。)を重畳する方法が採用される。   “Synthesis” indicates that the synthesis target and the captured image are combined into one image. Although the synthesis method is not particularly limited, in this example, a layer on which a synthesis target is drawn on a layer on which a shot image is drawn (hereinafter, sometimes referred to as a shot image layer) (hereinafter, referred to as a synthesis target layer) Is adopted.

出力部13は、合成画像を端末20に出力(例えば、表示)させるための処理を実行する機能を有する。本例では、出力部13は、合成画像に関する情報を端末20に送信する。そして、端末20は、サーバ10から合成画像に関する情報を受信して、合成画像を表示画面に表示する。   The output unit 13 has a function of executing a process for outputting (for example, displaying) the composite image to the terminal 20. In this example, the output unit 13 transmits information on the composite image to the terminal 20. Then, the terminal 20 receives the information on the composite image from the server 10 and displays the composite image on the display screen.

複数のユーザ端末20,201〜20Nは、それぞれ、ビデオゲームを行うユーザ(プレイヤ)によって管理される。例えば、複数のユーザ端末20,201〜20Nは、携帯電話端末やPDA(Personal Digital Assistants)、携帯型ゲーム装置などのネットワーク配信型のゲームを行うことが可能な通信端末によって構成される。なお、ビデオゲームシステム100が含み得るユーザ端末の構成は上述した例に限定されず、ユーザがビデオゲームを認識できる構成であればよい。ユーザ端末の構成の他の例には、一般的なパーソナルコンピュータや、店舗設置型のアミューズメント機や、スマートウォッチなどの所謂ウェアラブルデバイスや、ウェアラブルデバイスと通信端末等との組み合わせがある。   Each of the plurality of user terminals 20, 201 to 20N is managed by a user (player) playing a video game. For example, the plurality of user terminals 20, 201 to 20N are configured by communication terminals capable of playing a network-distribution type game such as a mobile phone terminal, a PDA (Personal Digital Assistants), and a portable game device. The configuration of the user terminal that can be included in the video game system 100 is not limited to the above-described example, and may be any configuration as long as the user can recognize the video game. Other examples of the configuration of the user terminal include a general personal computer, a store-installed amusement machine, a so-called wearable device such as a smart watch, and a combination of a wearable device and a communication terminal.

複数のユーザ端末20,201〜20Nは、それぞれ、CPU、入出力インターフェース、撮影部、通信部、および記憶部を含む。CPUが記憶部に格納される各種情報およびソフトウェアプログラムを参照することで、複数のユーザ端末20,201〜20Nは、それぞれ、合成画像を出力するための各種処理を実行する。   Each of the plurality of user terminals 20, 201 to 20N includes a CPU, an input / output interface, an imaging unit, a communication unit, and a storage unit. When the CPU refers to various information and software programs stored in the storage unit, each of the plurality of user terminals 20, 201 to 20N executes various processes for outputting a composite image.

撮影部は、CCD(Charge Coupled Device)やCMOS(Complementary Mental Oxide Semiconductor)センサ等の撮影素子などにより構成される。撮影部は、被写体を撮影し、撮影した被写体の画像データを、入出力インターフェースを介してCPU等に供給する。   The imaging unit is configured by an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor. The photographing unit photographs a subject and supplies image data of the photographed subject to a CPU or the like via an input / output interface.

また、通信部は、それぞれ、通信ネットワーク30に接続し、ビデオゲーム処理サーバ10との通信を行う処理を実行する機能を有する。なお、複数のユーザ端末20,201〜20Nそれぞれは、ビデオゲーム処理サーバ10を介さずに互いに直接通信を行うこともできる構成とされていてもよい。また、本例の複数のユーザ端末20,201〜20Nそれぞれがユーザ操作を受け付けるための入出力インターフェースは、ゲーム画面に対応するタッチパネルを含む。   Each of the communication units has a function of connecting to the communication network 30 and executing a process of performing communication with the video game processing server 10. The plurality of user terminals 20, 201 to 20N may be configured to be able to directly communicate with each other without going through the video game processing server 10. Further, the input / output interface for each of the plurality of user terminals 20, 201 to 20N of the present example to receive a user operation includes a touch panel corresponding to a game screen.

次に、本例のビデオゲーム処理システム100(システム100)の動作について説明する。   Next, the operation of the video game processing system 100 (system 100) of the present example will be described.

図3は、システム100が実行する撮影処理の例を示すフローチャートである。本例における撮影処理では、合成画像を端末20に出力させるための処理が行われる。サーバ10とユーザ端末20(端末20)とが、クラウドゲームに関連する処理として撮影処理を実行する場合を例にして、以下、各処理について説明する。なお、各処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。   FIG. 3 is a flowchart illustrating an example of a photographing process performed by the system 100. In the photographing process in this example, a process for causing the terminal 20 to output the composite image is performed. Hereinafter, each process will be described by taking, as an example, a case where the server 10 and the user terminal 20 (terminal 20) execute a shooting process as a process related to the cloud game. Note that the order of each process is not specified as long as no inconsistency occurs in the process contents.

本例におけるシステム100は、端末20を介してゲームを実行するユーザが撮影開始要求を入力したときに、撮影処理を開始する。   The system 100 according to the present embodiment starts a shooting process when a user who executes a game via the terminal 20 inputs a shooting start request.

端末20は、撮影処理において、先ず、合成するデータを特定するための選択を受け付ける(ステップS11)。   In the photographing process, the terminal 20 first receives a selection for specifying data to be combined (step S11).

端末20は、選択を受け付けると、サーバ10に選択に関する情報を送信する(ステップS12)。   When receiving the selection, the terminal 20 transmits information on the selection to the server 10 (Step S12).

選択に関する情報を受信したサーバ10は、端末20を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する(ステップS13)。合成対象は、システム100が備えるビデオゲーム処理サーバ10がアクセス可能な記憶領域を参照して特定される。   The server 10 that has received the information on the selection refers to the in-game element given to the user who executes the game via the terminal 20 and refers to at least a part of the pattern drawn on the in-game element given to the user. The corresponding data is specified as a combination target (step S13). The composition target is specified with reference to a storage area accessible by the video game processing server 10 included in the system 100.

次いで端末20は、撮影処理を行い(ステップS14)、撮影画像をサーバ10に送信する(ステップS15)。   Next, the terminal 20 performs a photographing process (step S14), and transmits the photographed image to the server 10 (step S15).

撮影画像を受信したサーバ10は、撮影画像と合成対象とを合成して合成画像を生成する(ステップS16)。   The server 10 that has received the captured image combines the captured image with the composition target to generate a composite image (step S16).

次いで、サーバ10は、生成した合成画像に関する情報を端末20に送信する(ステップS17)。すなわち、サーバ10は、端末20に合成画像を表示させるための情報を端末20に送信する。   Next, the server 10 transmits information on the generated composite image to the terminal 20 (Step S17). That is, the server 10 transmits to the terminal 20 information for causing the terminal 20 to display the composite image.

合成画像を表示させるための情報を受信した端末20は、合成画像した画像を表示し(ステップS18)、記憶領域に格納する処理を行い(ステップS19)、ここでの処理を終了する。   The terminal 20 that has received the information for displaying the combined image displays the combined image (step S18), stores the image in the storage area (step S19), and ends the processing.

図4は、撮影処理におけるサーバ10側の動作の例を示すフローチャートである。ここでは、ビデオゲーム処理システム100におけるサーバ10の動作について改めて説明する。   FIG. 4 is a flowchart illustrating an example of the operation of the server 10 in the photographing process. Here, the operation of the server 10 in the video game processing system 100 will be described again.

サーバ10は、撮影処理において、先ず、ユーザの選択を受信して、端末20を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する(ステップS101)。次いで、サーバ10は、撮影画像と合成対象とを合成して合成画像を生成する(ステップS102)。そして、サーバ10は、生成した合成画像を端末20に出力させるための情報を端末20に送信して(ステップS103)、ここでの処理を終了する。   In the photographing process, the server 10 first receives the user's selection, refers to the in-game element given to the user who executes the game via the terminal 20, and draws the in-game element given to the user. The data corresponding to at least a part of the obtained pattern is specified as a synthesis target (step S101). Next, the server 10 generates a synthesized image by synthesizing the captured image and the synthesis target (step S102). Then, the server 10 transmits information for causing the terminal 20 to output the generated composite image to the terminal 20 (Step S103), and ends the processing here.

図5は、端末20が撮影処理を実行する場合の端末20側の動作の例を示すフローチャートである。以下、端末20が、単体で撮影処理を実行する場合を例にして説明する。   FIG. 5 is a flowchart illustrating an example of an operation on the terminal 20 side when the terminal 20 executes a shooting process. Hereinafter, a case will be described as an example where the terminal 20 executes the photographing process by itself.

端末20は、撮影処理において、先ず、ユーザの選択を受け付けて、ゲームを実行するユーザに付与されたゲーム内要素を参照して、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する(ステップS201)。次いで、端末20は、撮影画像と合成対象とを合成して合成画像を生成する(ステップS202)。そして、端末20は、生成した合成画像を表示画面に表示し(ステップS203)、ここでの処理を終了する。   In the photographing process, the terminal 20 first receives the user's selection, refers to the in-game element given to the user who executes the game, and refers to at least one of the patterns drawn on the in-game element given to the user. The data corresponding to the section is specified as a synthesis target (step S201). Next, the terminal 20 combines the captured image and the combining target to generate a combined image (Step S202). Then, the terminal 20 displays the generated composite image on the display screen (step S203), and ends the processing here.

以上に説明したように、第1の実施形態の一側面として、撮影手段を備えるユーザ端末20に所定の絵柄と撮影手段により撮影された画像とを合成した合成画像を出力させるビデオゲーム処理サーバ10が、特定部12と、生成部13と、出力部14とを備える構成としている。したがって、ビデオゲーム処理サーバ10が、ユーザ端末20を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定し、撮影手段により撮影された撮影画像と合成対象とを合成して合成画像を生成し、生成した合成画像をユーザ端末20に出力させることができる。このような構成によれば、撮影時に合成できる絵柄がユーザが所持しているゲーム内要素のみであるため、ゲーム内要素の取得に対する動機付けを持たせることができる。すなわち、ゲームを継続していくことへの動機付けをユーザに持たせることができるようになる。   As described above, as one aspect of the first embodiment, a video game processing server 10 that causes a user terminal 20 including an image capturing unit to output a composite image obtained by combining a predetermined pattern and an image captured by the image capturing unit However, the configuration includes an identification unit 12, a generation unit 13, and an output unit 14. Therefore, the video game processing server 10 refers to the in-game element given to the user who executes the game via the user terminal 20 and at least a part of the picture drawn on the in-game element given to the user. Can be specified as a compositing target, a photographed image photographed by the photographing means is combined with the compositing target to generate a composite image, and the generated composite image can be output to the user terminal 20. According to such a configuration, the pattern that can be synthesized at the time of shooting is only the in-game element possessed by the user, so that it is possible to motivate the acquisition of the in-game element. That is, the user can be motivated to continue the game.

[第2の実施形態]
図6は、ビデオゲーム処理サーバ10の例であるビデオゲーム処理サーバ10A(サーバ10A)の構成を示すブロック図である。本例において、サーバ10Aは、ビデオゲーム処理システム100の例であるビデオゲーム処理システム100A(システム100A)を構成し、特定部12Aと、生成部13と、出力部14とを少なくとも備える。
[Second embodiment]
FIG. 6 is a block diagram showing a configuration of a video game processing server 10A (server 10A) which is an example of the video game processing server 10. In this example, the server 10A configures a video game processing system 100A (system 100A) which is an example of the video game processing system 100, and includes at least a specifying unit 12A, a generation unit 13, and an output unit 14.

特定部12Aは、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するモデルデータを合成対象として特定する処理を実行する機能を有する。   The specifying unit 12A has a function of executing a process of specifying, as a synthesis target, model data corresponding to at least a part of a pattern drawn on an in-game element given to the user.

「モデルデータ」は、合成画像を生成する際に用いられる合成対象になる情報である。本例では、モデルデータが合成対象に相当する。モデルデータは、カード画像情報に含まれる絵柄を表し、2次元モデルデータまたは3次元モデルデータで構成される。本例のモデルデータは、ユーザに付与されたゲーム内要素に対応付けされている。具体的には、システム100が、ユーザに付与されたゲーム内要素と、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するモデルデータとが対応付けされた情報を記憶する記憶領域を含む。サーバ10Aは、当該記憶領域にアクセス可能に構成されることで、モデルデータを合成対象として特定する。   “Model data” is information to be combined used when a combined image is generated. In this example, the model data corresponds to the synthesis target. The model data represents a picture included in the card image information, and is composed of two-dimensional model data or three-dimensional model data. The model data of this example is associated with the in-game elements given to the user. Specifically, the system 100 stores information in which an in-game element given to the user and model data corresponding to at least a part of a picture drawn on the in-game element given to the user are stored. Storage area. The server 10A specifies the model data as a synthesis target by being configured to be able to access the storage area.

「ゲーム内要素に描かれた絵柄の少なくとも一部に対応するモデルデータ」とは、ゲーム内要素に描かれた絵柄と同じ絵柄を示すデータであることが認識できるデータである。   The “model data corresponding to at least a part of the picture drawn on the in-game element” is data that can be recognized as data indicating the same picture as the picture drawn on the in-game element.

図7は、システム100Aが実行する撮影処理の例を示すフローチャートである。以下、サーバ10Aと、端末20の動作を例にして説明する。なお、サーバ10Aと端末20それぞれの動作を示すフローチャートについては、重複説明を避ける観点から記載を省略する。   FIG. 7 is a flowchart illustrating an example of an imaging process performed by the system 100A. Hereinafter, the operation of the server 10A and the operation of the terminal 20 will be described as an example. Note that the description of the flowcharts showing the operations of the server 10A and the terminal 20 will be omitted from the viewpoint of avoiding redundant description.

サーバ10Aは、撮影処理において、ステップS12にて端末20から送信されたユーザの選択を受信して、端末20を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するモデルデータを合成対象として特定する(ステップS2−11)。   In the photographing process, the server 10A receives the user's selection transmitted from the terminal 20 in step S12, refers to the in-game element given to the user who executes the game via the terminal 20, and provides the user with The model data corresponding to at least a part of the picture drawn on the provided in-game element is specified as a synthesis target (step S2-11).

サーバ10Aは、ステップS15にて端末20から送信された撮影画像を受信して、撮影画像とモデルデータとを合成して合成画像を生成する(ステップS2−12)。   The server 10A receives the captured image transmitted from the terminal 20 in step S15, and combines the captured image with the model data to generate a composite image (step S2-12).

合成画像が生成されると、サーバ10Aは、生成した合成画像に関する情報を端末20に送信する(ステップS17)。合成画像を表示させるための情報を受信した端末20は、合成画像を表示し(ステップS18)、記憶領域に格納する処理を行い(ステップS19)、ここでの処理を終了する。   When the composite image is generated, the server 10A transmits information on the generated composite image to the terminal 20 (Step S17). The terminal 20 that has received the information for displaying the composite image displays the composite image (Step S18), performs processing for storing the composite image in the storage area (Step S19), and ends the processing here.

以上に説明したように、第2の実施形態の一側面として、ビデオゲーム処理サーバ10Aが、特定部12Aと、生成部13と、出力部14とを少なくとも備える。そのため、ビデオゲーム処理サーバ10Aは、ユーザに付与されたゲーム内要素と、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するモデルデータとが対応付けされた情報を記憶する記憶手段を参照して、モデルデータを合成対象として特定することができる。このような構成によれば、ゲーム進行において表示される画像と撮影時に表示されるデータとが異なるため、ゲーム内要素が表示される際の処理負荷に起因する描画制約を受けることなく、合成画像を生成することができるようになる。   As described above, as one aspect of the second embodiment, the video game processing server 10A includes at least the specifying unit 12A, the generating unit 13, and the output unit 14. Therefore, the video game processing server 10A stores information in which the in-game element given to the user and the model data corresponding to at least a part of the design drawn on the in-game element given to the user are stored. The model data can be specified as a synthesis target by referring to the storage means that performs the synthesis. According to such a configuration, since the image displayed in the progress of the game is different from the data displayed in the shooting, the combined image is not subjected to the drawing restriction due to the processing load when the in-game element is displayed. Can be generated.

なお、上述の第2の実施形態の例において、モデルデータは、ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するように構成されているが、このような構成には限られない。例えば、モデルデータは、ユーザに付与されたゲーム内要素に対応するように構成されていてもよい。   In the above-described example of the second embodiment, the model data is configured to correspond to at least a part of the pattern drawn on the in-game element given to the user. Is not limited. For example, the model data may be configured to correspond to in-game elements given to the user.

なお、上述の第2の実施形態の例において、撮影処理における合成画像の生成に関する処理は、サーバ10Aが実行するように構成されている。しかしながら、このような構成には限られず端末20が実行するように構成されていてもよい。具体的には、端末20が、モデルデータを合成対象として特定し、撮影処理を実行し、撮影画像とモデルデータとを合成して合成画像を生成するように構成されていてもよい。   In the example of the above-described second embodiment, the server 10A is configured to execute a process related to generation of a composite image in a shooting process. However, the present invention is not limited to such a configuration, and may be configured to be executed by the terminal 20. Specifically, the terminal 20 may be configured to specify the model data as a synthesis target, execute a shooting process, and synthesize the shot image and the model data to generate a synthesized image.

[第3の実施形態]
図8は、ビデオゲーム処理サーバ10の例であるビデオゲーム処理サーバ10B(サーバ10B)の構成を示すブロック図である。本例において、サーバ10Bは、ビデオゲーム処理システム100の例であるビデオゲーム処理システム100B(システム100B)特定部12と、生成部13Bと、出力部14とを少なくとも備える。
[Third Embodiment]
FIG. 8 is a block diagram showing a configuration of a video game processing server 10B (server 10B) which is an example of the video game processing server 10. In this example, the server 10B includes at least a video game processing system 100B (system 100B) specifying unit 12, a generation unit 13B, and an output unit 14, which are examples of the video game processing system 100.

第3の実施形態における合成対象は、ゲーム内要素に描かれた絵柄よりも解像度が高いデータである。これにより、撮影処理においては、ゲーム内要素がゲーム進行において表示される際の画質よりも高画質な合成対象が用いられることになる。   The synthesis target in the third embodiment is data having a higher resolution than the picture drawn on the in-game element. As a result, in the shooting processing, a synthesis target having higher image quality than the image quality when the in-game elements are displayed in the progress of the game is used.

生成部13Bは、撮影手段により撮影された撮影画像とゲーム内要素に描かれた絵柄よりも解像度が高い合成対象とを合成した合成画像を生成する処理を実行する機能を有する。   The generation unit 13B has a function of executing a process of generating a composite image in which a captured image captured by the capturing unit and a composition target having a higher resolution than a pattern drawn in an in-game element are combined.

図9は、システム100Bが実行する撮影処理の例を示すフローチャートである。以下、サーバ10Bと、端末20の動作を例にして説明する。なお、サーバ10Bと端末20それぞれの動作を示すフローチャートについては、重複説明を避ける観点から記載を省略する。また、重複説明を避ける観点から、上述の実施形態で説明した処理についての説明を省略している場合がある。   FIG. 9 is a flowchart illustrating an example of a shooting process performed by the system 100B. Hereinafter, the operation of the server 10B and the operation of the terminal 20 will be described as an example. Note that the description of the flowchart showing the operation of each of the server 10B and the terminal 20 is omitted from the viewpoint of avoiding redundant description. Further, from the viewpoint of avoiding redundant description, the description of the processing described in the above embodiment may be omitted.

サーバ10Bは、ステップS15にて端末20から送信された撮影画像を受信すると、撮影画像とゲーム内要素に描かれた絵柄よりも解像度が高い合成対象とを合成した合成画像を生成する(ステップS3−11)。   Upon receiving the captured image transmitted from the terminal 20 in step S15, the server 10B generates a composite image in which the captured image is combined with a composition target having a higher resolution than the pattern drawn in the in-game element (step S3). -11).

合成画像が生成されると、サーバ10Bは、生成した合成画像に関する情報を端末20に送信する(ステップS17)。合成画像を表示させるための情報を受信した端末20は、合成画像を表示し(ステップS18)、記憶領域に格納する処理を行い(ステップS19)、ここでの処理を終了する。   When the composite image is generated, the server 10B transmits information on the generated composite image to the terminal 20 (Step S17). The terminal 20 that has received the information for displaying the composite image displays the composite image (Step S18), performs processing for storing the composite image in the storage area (Step S19), and ends the processing here.

以上に説明したように、第3の実施形態の一側面として、ビデオゲーム処理サーバ10Bが、特定部12と、生成部13Bと、出力部14とを備える構成としている。そのため、ビデオゲーム処理サーバ10Bは、ゲーム内要素に描かれた絵柄よりも解像度が高いデータである合成対象を含み、撮影手段により撮影された撮影画像とゲーム内要素に描かれた絵柄よりも解像度が高い合成対象とを合成した合成画像を生成することができるようになる。このような構成によれば、ゲーム内要素がゲーム進行時に表示される際の画質より高画質な絵柄が描かれたモデルデータを合成用絵柄とした合成画像が生成できるようになる。   As described above, as one aspect of the third embodiment, the video game processing server 10B is configured to include the specifying unit 12, the generating unit 13B, and the output unit 14. Therefore, the video game processing server 10B includes a synthesis target that is data having a higher resolution than the pattern drawn in the in-game element, and has a resolution higher than that of the image captured by the imaging unit and the pattern drawn in the in-game element. It is possible to generate a synthesized image obtained by synthesizing a synthesis target with a high image quality. According to such a configuration, it is possible to generate a composite image in which model data in which a pattern having a higher image quality than the image quality when the in-game element is displayed during the progress of the game is drawn is used for the composition.

なお、上述した第3の実施形態の例では特に言及していないが、システム100Bは、ユーザに付与されたゲーム内要素に、当該ゲーム内要素に描かれた絵柄よりも解像度が高いデータが対応付けされている情報を格納する記憶領域を備える構成とされていてもよい。   Although not particularly mentioned in the example of the third embodiment described above, the system 100B corresponds to the in-game element given to the user by data having a higher resolution than the pattern drawn on the in-game element. It may be configured to include a storage area for storing attached information.

なお、上述の第3の実施形態の例において、撮影処理における合成画像の生成に関する処理は、サーバ10Bが実行するように構成されている。しかしながら、このような構成には限られず端末20が実行するように構成されていてもよい。具体的には、端末20が、ゲーム内要素に描かれた絵柄よりも解像度が高いデータである合成対象を特定し、撮影処理を実行し、撮影画像と合成対象とを合成して合成画像を生成するように構成されていてもよい。   Note that, in the example of the third embodiment described above, the processing regarding the generation of the composite image in the photographing processing is configured to be executed by the server 10B. However, the present invention is not limited to such a configuration, and may be configured to be executed by the terminal 20. Specifically, the terminal 20 specifies a composition target having higher resolution than the picture drawn in the in-game element, executes a photographing process, combines the photographed image and the composition target, and generates a composite image. It may be configured to generate.

[第4の実施形態]
図10は、ビデオゲーム処理サーバ10の例であるビデオゲーム処理サーバ10C(サーバ10C)の構成を示すブロック図である。本例において、サーバ10Cは、ビデオゲーム処理システム100の例であるビデオゲーム処理システム100C(システム100C)特定部12と、生成部13Cと、出力部14とを少なくとも備える。
[Fourth embodiment]
FIG. 10 is a block diagram showing a configuration of a video game processing server 10C (server 10C) which is an example of the video game processing server 10. In this example, the server 10C includes at least a video game processing system 100C (system 100C) specifying unit 12, a generation unit 13C, and an output unit 14, which are examples of the video game processing system 100.

第3の実施形態における合成対象は、ゲーム内要素に描かれた絵柄に描かれていない範囲を含むデータである。すなわち、撮影処理においては、ゲーム内要素がゲーム進行において表示される際に描かれていない範囲を含む合成対象が用いられることになる。   The combination target in the third embodiment is data including a range that is not drawn in the pattern drawn in the in-game element. That is, in the photographing process, a composition target including a range not drawn when the in-game element is displayed in the progress of the game is used.

生成部13Cは、撮影手段により撮影された撮影画像と、ゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象とを合成した合成画像を生成する処理を実行する機能を有する。   The generation unit 13C has a function of executing a process of generating a composite image in which a captured image captured by the capturing unit and a composition target including a range not drawn in the pattern drawn in the in-game element are combined.

ここで「ゲーム内要素に描かれた絵柄に描かれていない範囲を含む」とは、例えば、ゲーム内要素の表示範囲が限定的な場合に、その表示範囲の関係上、絵柄全体がゲーム内要素に描かれていない場合がある。このような場合に、絵柄全体が表示された合成対象が特定されることで、ゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象が合成画像に用いられることになる。   Here, "including the range not drawn in the pattern drawn on the in-game element" means, for example, that when the display range of the in-game element is limited, the entire pattern is in the game due to the display range. May not be drawn on the element. In such a case, by specifying the composition target in which the entire pattern is displayed, the composition target including the range not drawn in the pattern drawn in the in-game element is used for the composite image.

図11は、システム100Cが実行する撮影処理の例を示すフローチャートである。以下、サーバ10Cと、端末20の動作を例にして説明する。なお、サーバ10Cと端末20それぞれの動作を示すフローチャートについては、重複説明を避ける観点から記載を省略する。また、重複説明を避ける観点から、上述の実施形態で説明した処理についての説明を省略している場合がある。   FIG. 11 is a flowchart illustrating an example of a shooting process performed by the system 100C. Hereinafter, the operation of the server 10C and the operation of the terminal 20 will be described as an example. Note that description of the flowcharts showing the operations of the server 10C and the terminal 20 will be omitted from the viewpoint of avoiding redundant description. Further, from the viewpoint of avoiding redundant description, the description of the processing described in the above embodiment may be omitted.

サーバ10Cは、ステップS15にて端末20から送信された撮影画像を受信すると、撮影画像とゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象とを合成した合成画像を生成する(ステップS4−11)。   Upon receiving the captured image transmitted from the terminal 20 in step S15, the server 10C generates a composite image in which the captured image is combined with a composition target including a range not drawn in the pattern drawn in the in-game element. (Step S4-11).

合成画像が生成されると、サーバ10Cは、生成した合成画像に関する情報を端末20に送信する(ステップS17)。合成画像を表示させるための情報を受信した端末20は、合成画像を表示し(ステップS18)、記憶領域に格納する処理を行い(ステップS19)、ここでの処理を終了する。   When the composite image is generated, the server 10C transmits information on the generated composite image to the terminal 20 (Step S17). The terminal 20 that has received the information for displaying the composite image displays the composite image (Step S18), performs processing for storing the composite image in the storage area (Step S19), and ends the processing here.

以上に説明したように、第3の実施形態の一側面として、ビデオゲーム処理サーバ10Cが、特定部12と、生成部13Cと、出力部14とを備える構成としている。そのため、ビデオゲーム処理サーバ10Cは、ゲーム内要素に描かれた絵柄に描かれていない範囲を含むデータである合成対象を含み、撮影手段により撮影された撮影画像とゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象とを合成した合成画像を生成することができるようになる。このような構成によれば、ゲーム内要素がゲーム進行時に表示される際の絵柄ゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象を合成用絵柄とした合成画像が生成できるようになる。例えば、ゲーム内要素が仮想カードである場合には、合成用の絵柄は、普段のゲーム進行時に表示されるカードフレームでは見きれてしまう部分まで表示されるようになる。   As described above, as one aspect of the third embodiment, the video game processing server 10C includes the specifying unit 12, the generating unit 13C, and the output unit 14. Therefore, the video game processing server 10 </ b> C includes a composition target that is data including a range not drawn in the pattern drawn in the in-game element, and includes a photographed image taken by the photographing unit and the pattern drawn in the in-game element. It is possible to generate a synthesized image obtained by synthesizing a synthesis target including a range not illustrated in FIG. According to such a configuration, when the in-game element is displayed during the progress of the game, it is possible to generate a composite image in which a composition target including a range not drawn in the pattern drawn in the in-game element is a pattern for synthesis. Become like For example, when the in-game element is a virtual card, the pattern for synthesis is displayed to a part that cannot be seen in a card frame displayed during normal game progress.

なお、上述した第4の実施形態の例では特に言及していないが、システム100Cは、ユーザに付与されたゲーム内要素に、当該ゲーム内要素に描かれた絵柄に描かれていない範囲を含むデータが対応付けされている情報を格納する記憶領域を備える構成とされていてもよい。   Although not particularly mentioned in the example of the above-described fourth embodiment, the system 100C includes, in the in-game element given to the user, a range that is not drawn in the pattern drawn in the in-game element. It may be configured to include a storage area for storing information associated with data.

なお、上述の第4の実施形態の例において、撮影処理における合成画像の生成に関する処理は、サーバ10Cが実行するように構成されている。しかしながら、このような構成には限られず端末20が実行するように構成されていてもよい。具体的には、端末20が、ゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象を特定し、撮影処理を実行し、撮影画像と合成対象とを合成して合成画像を生成するように構成されていてもよい。   In the example of the above-described fourth embodiment, the processing related to the generation of the composite image in the photographing processing is configured to be executed by the server 10C. However, the present invention is not limited to such a configuration, and may be configured to be executed by the terminal 20. Specifically, the terminal 20 specifies a composition target including a range that is not drawn in the pattern drawn in the in-game element, executes a photographing process, combines the photographed image with the composition target, and generates a composite image. It may be configured to generate.

[第5の実施形態]
図12は、ビデオゲーム処理サーバ10の例であるビデオゲーム処理サーバ10D(サーバ10D)の構成を示すブロック図である。本例において、サーバ10Dは、ビデオゲーム処理システム100の例であるビデオゲーム処理システム100D(システム100D)を構成し、特定部12と、生成部13と、出力部14、ゲーム内要素育成部15と、絵柄変更部16とを少なくとも備える。
[Fifth Embodiment]
FIG. 12 is a block diagram illustrating a configuration of a video game processing server 10D (server 10D) that is an example of the video game processing server 10. In this example, the server 10D constitutes a video game processing system 100D (system 100D) which is an example of the video game processing system 100, and includes a specification unit 12, a generation unit 13, an output unit 14, an in-game element cultivation unit 15 And a picture changing unit 16.

ゲーム内要素育成部15は、ゲーム内要素をゲーム進行に応じて成長させる処理を実行する機能を有する。   The in-game element cultivation unit 15 has a function of executing a process of growing an in-game element as the game progresses.

「成長」とは、ゲーム内要素に対応付けされたレベルおよび能力値をゲーム進行に応じて更新することを示す。すなわち、ゲーム内要素は、レベルアップや、能力値アップなどを行うように構成される。   “Growing” indicates that the level and ability value associated with the in-game element are updated in accordance with the progress of the game. That is, the in-game elements are configured to perform level up, ability value up, and the like.

絵柄変更部16は、ゲーム内要素の育成度合いに応じて、ゲーム内要素に描かれた絵柄を変更する処理を実行する機能を有する。   The picture changing unit 16 has a function of executing a process of changing the picture drawn on the in-game element according to the degree of cultivation of the in-game element.

「成長度合い」とは、レベルや能力値の値を示す。すなわち、レベルや能力値が所定の値を示すように更新されたときに、絵柄変更部16は、ゲーム内要素に描かれた絵柄を変更する。   “Growth degree” indicates a level or ability value. That is, when the level or ability value is updated to indicate a predetermined value, the pattern changing unit 16 changes the pattern drawn on the in-game element.

図13は、システム100Dが実行するゲーム処理の例を示すフローチャートである。以下、サーバ10Dと、端末20の動作を例にして説明する。なお、サーバ10Dと端末20それぞれの動作を示すフローチャートについては、重複説明を避ける観点から記載を省略する。また、重複説明を避ける観点から、上述の実施形態で説明した処理についての説明を省略している場合がある。   FIG. 13 is a flowchart illustrating an example of a game process executed by the system 100D. Hereinafter, the operation of the server 10D and the operation of the terminal 20 will be described as an example. Note that description of the flowcharts showing the operations of the server 10D and the terminal 20 will be omitted from the viewpoint of avoiding redundant description. Further, from the viewpoint of avoiding redundant description, the description of the processing described in the above embodiment may be omitted.

サーバ10Dは、ゲーム処理において、先ず、ゲーム進行に応じてゲーム内要素を成長させる処理を実行する(ステップS5−11)。例えば、サーバ10Dは、ゲーム内要素が獲得した経験値に応じてレベルを上昇させるレベルアップ処理を実行し、レベルアップ処理に応じて能力値を更新する能力値更新処理を実行する。レベルや能力値は、システム100Dが備えるレベルアップに関する経験値テーブル、レベルに応じた能力値テーブルなどを参照して適宜決定される。   In the game process, the server 10D first executes a process of growing an in-game element according to the progress of the game (step S5-11). For example, the server 10D performs a level-up process of increasing the level according to the experience value acquired by the in-game element, and executes a capability value updating process of updating the capability value according to the level-up process. The level and the ability value are appropriately determined with reference to an experience value table relating to level up provided in the system 100D, a capability value table corresponding to the level, and the like.

ゲーム内要素を成長させる処理が実行されると、サーバ10Dは、ゲーム内要素の育成度合いに応じて、ゲーム内要素に描かれた絵柄を変更するか否かを判定する(ステップS5−12)。例えば、システム100Dが備える絵柄変更レベルをゲーム内要素ごとに示したテーブルを参照することで、サーバ10Dは、絵柄を変更するか否かを決定する。   When the process of growing the in-game element is performed, the server 10D determines whether to change the picture drawn on the in-game element according to the degree of cultivation of the in-game element (step S5-12). . For example, the server 10D determines whether or not to change the pattern by referring to a table in which the pattern change level included in the system 100D is indicated for each in-game element.

ゲーム内要素に描かれた絵柄を変更しないことが判定された場合(ステップS5−12のN)には、サーバ10Dは、ここでの処理を終了する。   When it is determined that the pattern drawn on the in-game element is not changed (N in step S5-12), the server 10D ends the processing here.

一方で、ゲーム内要素に描かれた絵柄を変更することが判定された場合(ステップS5−12のY)には、サーバ10Dは、ゲーム内要素の育成度合いに応じて、ゲーム内要素に描かれた絵柄を変更する処理を実行し(ステップS5−13)、ここでの処理を終了する。   On the other hand, when it is determined that the pattern drawn on the in-game element is to be changed (Y in step S5-12), the server 10D draws on the in-game element according to the degree of cultivation of the in-game element. A process for changing the pattern is performed (step S5-13), and the process is terminated.

以上に説明したように、第4の実施形態の一側面として、ビデオゲーム処理サーバ10Dが、特定部12と、生成部13と、出力部14、ゲーム内要素育成部15と、絵柄変更部16とを備える構成としている。そのため、ビデオゲーム処理サーバ10Dは、ゲーム内要素をゲーム進行に応じて成長させ、ゲーム内要素の育成度合いに応じて、ゲーム内要素に描かれた絵柄を変更することができるようになる。このような構成によれば、所有ゲーム内要素の絵柄が成長に応じて変わっていくことにより、変更された絵柄を合成用絵柄とすることができるようになるため、ゲーム内要素を育てる動機付けを持たせることができる。したがって、ユーザにゲームをプレイさせるための動機付けを持たせることができるようになる。   As described above, as one aspect of the fourth embodiment, the video game processing server 10D includes the identification unit 12, the generation unit 13, the output unit 14, the in-game element cultivation unit 15, the pattern change unit 16 Are provided. Therefore, the video game processing server 10D can grow the in-game element according to the progress of the game, and can change the picture drawn on the in-game element according to the degree of cultivation of the in-game element. According to such a configuration, since the pattern of the owned game element changes according to the growth, the changed pattern can be used as the synthesis pattern, so that the in-game element can be motivated. Can be provided. Therefore, it is possible to motivate the user to play the game.

なお、上述の第5の実施形態の例において、撮影処理における合成画像の生成に関する処理やゲーム内要素を育成させるための処理は、サーバ10Dが実行するように構成されている。しかしながら、このような構成には限られず端末20が実行するように構成されていてもよい。具体的には、端末20が、ゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象を特定し、撮影処理を実行し、撮影画像と合成対象とを合成して合成画像を生成するように構成されていてもよい。また、端末20が、ゲーム進行に応じてゲーム内要素を成長させる処理を実行し、所定の条件を満たしたときに、ゲーム内要素の絵柄を変更するように構成されていてもよい。   In the above-described example of the fifth embodiment, the server 10D is configured to execute a process related to generation of a composite image in a shooting process and a process for cultivating an in-game element. However, the present invention is not limited to such a configuration, and may be configured to be executed by the terminal 20. Specifically, the terminal 20 specifies a composition target including a range that is not drawn in the pattern drawn in the in-game element, executes a photographing process, combines the photographed image with the composition target, and generates a composite image. It may be configured to generate. Further, the terminal 20 may be configured to execute a process of growing the in-game element in accordance with the progress of the game, and to change the pattern of the in-game element when a predetermined condition is satisfied.

[第6の実施の形態]
図14は、ビデオゲーム処理サーバ10の構成の例であるビデオゲーム処理サーバ10Z(サーバ10Z)の構成を示すブロック図である。サーバ10Zは、ビデオゲーム処理システム100の例であるビデオゲーム処理システム100Z(システム100Z)を構成し、記憶部11と、特定部12Zと、生成部13Zと、出力部14Zと、ゲーム内要素育成部15Zと、絵柄変更部16Zとを少なくとも備える。
[Sixth Embodiment]
FIG. 14 is a block diagram illustrating a configuration of a video game processing server 10Z (server 10Z), which is an example of a configuration of the video game processing server 10. The server 10Z constitutes a video game processing system 100Z (system 100Z) which is an example of the video game processing system 100, and has a storage unit 11, a specifying unit 12Z, a generation unit 13Z, an output unit 14Z, and in-game element cultivation. At least a section 15Z and a picture changing section 16Z are provided.

本例では、ゲーム進行に応じてゲーム内要素としての仮想カードを入手できるゲームが実行される。入手できる仮想カードにはキャラクタの絵柄が描かれている。ユーザにより端末20の撮影機能を用いた撮影が行われる際に、入手している仮想カード(のキャラクタ)の選択を受け付けると、仮想カードに描かれているキャラクタが撮影画面に表れる。シャッターを切ると、実空間を写す画像に仮想カードに描かれているキャラクタが重畳された画像が撮影される。   In this example, a game is executed in which a virtual card as an in-game element can be obtained according to the progress of the game. The available virtual cards have character patterns drawn on them. When the user accepts the selection of (a character of) a virtual card that has been obtained when the user performs photographing using the photographing function of the terminal 20, the character drawn on the virtual card appears on the photographing screen. When the shutter is released, an image is captured in which the character drawn on the virtual card is superimposed on the image depicting the real space.

「絵柄」とは、絵や模様のことを示す。絵や模様としては、例えば、仮想カードに表示される「キャラクタ画像」や、そのキャラクタ画像の背景に描かれる「背景画像」などが含まれる。   "Picture" refers to a picture or pattern. The picture or pattern includes, for example, a “character image” displayed on the virtual card, a “background image” drawn on the background of the character image, and the like.

図15は、ゲーム内要素としての仮想カードの例を示す説明図である。図15に示すように、仮想カード1500は、キャラクタが示されるキャラクタ画像1501と、キャラクタの背景が描画された背景画像1502と、キャラクタのステータスが表示されるステータス表示領域1503と、キャラクタの各種ステータス1504とを含む。描画されているキャラクタが、撮影画面に描画されることになる。なお、本例では、このときに描画されるキャラクタ画像1501が、撮影画面に描画される画像とは異なるように構成されている。   FIG. 15 is an explanatory diagram showing an example of a virtual card as an in-game element. As shown in FIG. 15, the virtual card 1500 includes a character image 1501 showing a character, a background image 1502 on which the background of the character is drawn, a status display area 1503 displaying the status of the character, and various statuses of the character. 1504. The drawn character is drawn on the shooting screen. In this example, the character image 1501 drawn at this time is configured to be different from the image drawn on the shooting screen.

記憶部11は、ユーザが所有する仮想カードに関する仮想カード関連情報を格納する記憶媒体である。本例記憶部11は、ユーザごと(ユーザIDごと)の仮想カード関連情報を格納する。   The storage unit 11 is a storage medium that stores virtual card related information regarding a virtual card owned by a user. The example storage unit 11 stores virtual card related information for each user (for each user ID).

図16は、仮想カード関連情報の格納状態の例を示す説明図である。図16に示すように、仮想カード関連情報は、ユーザID、仮想カードID、ステータス、進化タイプ、カード画像情報、およびモデルデータを含む。ユーザIDは、ユーザIDを一意に特定可能な情報である。仮想カードIDは、仮想カードを一意に特定可能な情報である。   FIG. 16 is an explanatory diagram illustrating an example of a storage state of the virtual card related information. As shown in FIG. 16, the virtual card related information includes a user ID, a virtual card ID, a status, an evolution type, card image information, and model data. The user ID is information that can uniquely specify the user ID. The virtual card ID is information that can uniquely specify a virtual card.

「ステータス」は、仮想カードの成長度合いを示す情報である。例えば、レアリティ、現在の経験値、レベル、能力値などが含まれる。レベルや能力値は、ゲーム内要素育成部15Zにより、レベルアップに関する経験値テーブル、レベルに応じた能力値テーブルなどを参照して適宜決定される。すなわち、システム100Zにおいて、仮想カードは、経験値が増加することで成長する。   “Status” is information indicating the degree of growth of the virtual card. For example, it includes rarity, current experience value, level, ability value, and the like. The level and ability value are appropriately determined by the in-game element cultivation unit 15Z with reference to an experience value table relating to level up, a capability value table corresponding to the level, and the like. That is, in the system 100Z, the virtual card grows as the experience value increases.

「進化タイプ」は、進化するレベルを決定するために用いられる情報である。システム100Zは、進化するレベルを進化タイプごとに示した進化テーブルを参照することで、進化するか否かを決定する。進化テーブルについては、公知の技術が採用されるため、説明は省略される。   "Evolution type" is information used to determine the level of evolution. The system 100Z determines whether or not to evolve by referring to an evolution table indicating the level of evolution for each evolution type. Description of the evolution table is omitted because a known technique is employed.

「カード画像情報」は、仮想カードが端末20に表示される際の画像を示す情報である。具体的には、「カード画像情報」には、図15に示すような画像のうち、特にキャラクタ画像1501、背景画像1502、およびステータス表示領域1503が対応付けされている。すなわち、本例では、キャラクタと背景とが一体となった画像(つまり、キャラクタ画像1501と背景画像1502とが混然一体となっている画像)と、レベルや能力値やレアリティなどを表示するステータス表示領域を含む。   “Card image information” is information indicating an image when the virtual card is displayed on the terminal 20. Specifically, among the images as shown in FIG. 15, a character image 1501, a background image 1502, and a status display area 1503 are associated with “card image information”. That is, in this example, an image in which the character and the background are integrated (that is, an image in which the character image 1501 and the background image 1502 are mixed together) and a status in which the level, ability value, rarity, and the like are displayed Includes display area.

また、本例の「カード画像情報」は、進化するレベルに到達した際に、仮想カードの表示態様が変更される。具体的には、仮想カードのレベルが進化テーブルに示されるレベルに到達した際に、カード画像情報は絵柄変更部16Zにより更新される。特に詳細な説明は行わないが、システム100Zは、進化に応じたカード画像情報に関する情報を格納する記憶媒体を参照して、カード画像情報を更新するように構成されていればよい。   In addition, when the “card image information” of the present example reaches the evolving level, the display mode of the virtual card is changed. Specifically, when the level of the virtual card reaches the level shown in the evolution table, the card image information is updated by the picture changing unit 16Z. Although not described in detail, the system 100Z only needs to be configured to update the card image information with reference to a storage medium that stores information on card image information according to evolution.

「モデルデータ」は、合成画像を生成する際に用いられる合成対象になる情報である。本例では、モデルデータが合成対象に相当する。モデルデータは、カード画像情報に含まれるキャラクタを表し、2次元モデルデータまたは3次元モデルデータで構成される。   “Model data” is information to be combined used when a combined image is generated. In this example, the model data corresponds to the synthesis target. The model data represents a character included in the card image information and is composed of two-dimensional model data or three-dimensional model data.

また、本例の「モデルデータ」は、ゲーム内要素に描かれた絵柄よりも解像度が高いデータである。すなわち、仮想カードのキャラクタ画像よりも解像度の高い合成対象としてのデータが記憶部11に格納されている。   The “model data” in this example is data having a higher resolution than the picture drawn on the in-game element. That is, data as a synthesis target having a higher resolution than the character image of the virtual card is stored in the storage unit 11.

さらに、本例の「モデルデータ」は、ゲーム内要素に描かれた絵柄に描かれていない範囲を含むデータである。すなわち、仮想カードのキャラクタ画像に描かれていない範囲を含む合成対象としてのデータが記憶部11に格納されている。   Further, the “model data” of the present example is data including a range that is not drawn on the pattern drawn on the in-game element. That is, data to be combined including a range not drawn in the character image of the virtual card is stored in the storage unit 11.

さらに、本例の「モデルデータ」は、進化するレベルに到達した際に、合成対象として合成画像に用いられるモデルデータのデザインが変更される。具体的には、モデルデータは、カード画像情報と同様に、仮想カードのレベルが進化テーブルに示されるレベルに到達した際に、絵柄変更部16Zにより更新される。特に詳細な説明は行わないが、システム100Zは、進化に応じたモデルデータに関する情報を格納する記憶媒体を参照して、モデルデータを更新するように構成されていればよい。   Furthermore, when the “model data” of the present example reaches an evolving level, the design of the model data used for the synthesized image as the synthesis target is changed. Specifically, like the card image information, the model data is updated by the picture changing unit 16Z when the level of the virtual card reaches the level shown in the evolution table. Although not described in detail, the system 100Z only needs to be configured to update the model data with reference to a storage medium that stores information on the model data according to the evolution.

特定部12Zは、モデルデータを特定する処理を実行する機能を有する。具体的には、特定部12Zは、記憶部11を参照して、ユーザに付与された仮想カードに描かれた絵柄の少なくとも一部に対応するモデルデータを合成対象として特定する。   The specifying unit 12Z has a function of executing a process of specifying model data. Specifically, the specifying unit 12Z refers to the storage unit 11 and specifies, as a synthesis target, model data corresponding to at least a part of the picture drawn on the virtual card given to the user.

「ユーザに付与された仮想カード」は、ユーザが所有している仮想カードを示す。本例では、特に詳細な説明は行わないが、ゲームの進行に応じてユーザに仮想カードが付与され、仮想カード関連情報が更新される。   The “virtual card assigned to the user” indicates a virtual card owned by the user. In this example, although not described in detail, a virtual card is provided to the user according to the progress of the game, and the virtual card related information is updated.

「仮想カードに描かれた絵柄の少なくとも一部に対応するモデルデータ」とは、仮想カードに描かれた絵柄と同じ絵柄を示すデータであることが認識できるデータである。具体的には、モデルデータは、仮想カードに描かれたキャラクタを示すモデルデータであることが認識できるデータである。   “Model data corresponding to at least a part of the picture drawn on the virtual card” is data that can be recognized as being data indicating the same picture as the picture drawn on the virtual card. Specifically, the model data is data that can be recognized as being model data indicating a character drawn on the virtual card.

生成部13Zは、合成画像を生成する処理を実行する機能を有する。具体的には、生成部13Zは、端末20の撮影手段により撮影された撮影画像とモデルデータとを合成して合成画像を生成する。   The generation unit 13Z has a function of executing a process of generating a composite image. Specifically, the generation unit 13Z generates a synthesized image by synthesizing the image data obtained by the imaging means of the terminal 20 with the model data.

「合成」とは、モデルデータと撮影画像が結びついて1の画像になることを示す。本例における合成方法は、撮影画像が描画されるレイヤ(以下、撮影画像レイヤと呼ぶ場合がある。)上にモデルデータが描画されるレイヤ(以下、モデルデータレイヤと呼ぶ場合がある。)を重畳することで2のデータを合成する方法が採用される。後で詳しく説明するが、端末20においては、ユーザからモデルデータの位置や姿勢を調整する入力を受け付ける。当該入力が端末20から送信されると、生成部13Zは、モデルデータレイヤにおけるモデルデータの位置および姿勢を変更するとともに、撮影画像レイヤに重畳された合成画像を生成する。   “Synthesis” indicates that the model data and the captured image are combined to form one image. In the synthesizing method in the present example, a layer (hereinafter, sometimes referred to as a model data layer) on which model data is drawn on a layer on which a shot image is drawn (hereinafter, may be referred to as a shot image layer). A method of combining the two data by superimposing is adopted. As will be described in detail later, the terminal 20 accepts an input for adjusting the position and orientation of the model data from the user. When the input is transmitted from the terminal 20, the generation unit 13Z changes the position and orientation of the model data in the model data layer and generates a composite image superimposed on the captured image layer.

出力部14Zは、生成した合成画像を端末20の表示装置に表示させるための処理を実行する機能を有する。具体的には、出力部14Zは、端末20に対して合成画像を出力するための合成画像情報を送信する。   The output unit 14Z has a function of executing processing for displaying the generated composite image on the display device of the terminal 20. Specifically, the output unit 14Z transmits composite image information for outputting a composite image to the terminal 20.

ゲーム内要素育成部15Zは、仮想カードをゲームの進行に応じて成長させる処理を実行する機能を有する。具体的には、ゲーム内要素育成部15Zは、仮想カードが取得した経験値を特定し、レベルアップに関する経験値テーブルを参照して、レベルを決定する。また、ゲーム内要素育成部15Zは、レベルの上昇に応じて、レベルに応じた能力値テーブルなどを参照して、能力値を決定する。   The in-game element breeding unit 15Z has a function of executing processing for growing a virtual card as the game progresses. Specifically, the in-game element breeding unit 15Z specifies the experience value acquired by the virtual card, and determines the level with reference to the experience value table related to level up. In addition, the in-game element breeding unit 15Z determines an ability value with reference to an ability value table or the like corresponding to the level in accordance with the increase in the level.

絵柄変更部16Zは、ゲーム進行においてゲーム内要素を表示する際のカード画像を変更(更新)する処理を実行する機能を有する。具体的には、絵柄変更部16Zは、仮想カードのレベルが進化テーブルに示されるレベルに到達したか否かを判定し、到達したと判定した場合には、所定の記憶領域を参照して、カード画像およびモデルデータを更新する。   The picture changing section 16Z has a function of executing a process of changing (updating) a card image when displaying an in-game element in the progress of the game. Specifically, the picture changing unit 16Z determines whether or not the level of the virtual card has reached the level shown in the evolution table, and when it is determined that the level has been reached, refers to a predetermined storage area, Update card image and model data.

次に、本例のビデオゲーム処理システム100Z(システム100Z)の動作について説明する。   Next, the operation of the video game processing system 100Z (system 100Z) of the present example will be described.

図17は、サーバ10Zとユーザ端末20を備えるシステム100Zが実行する撮影処理の例を示すフローチャートである。以下、各処理について説明する。なお、各処理の順序は、処理内容に矛盾等が生じない範囲で順不同である。   FIG. 17 is a flowchart illustrating an example of an imaging process performed by the system 100Z including the server 10Z and the user terminal 20. Hereinafter, each process will be described. Note that the order of each process is not specified as long as no inconsistency occurs in the process contents.

なお、サーバ10Zとユーザ端末20(端末20)とが、クラウドゲームに関連する処理として撮影処理を実行する場合を例にして説明する。ただし、ユーザ端末20が実行する、画面出力のための情報を受信して出力する処理、およびユーザからの選択入力を受け付けてサーバ10Zに送信する処理については、説明を省略するため図示していない。   Note that an example will be described in which the server 10Z and the user terminal 20 (terminal 20) execute a shooting process as a process related to the cloud game. However, a process performed by the user terminal 20 to receive and output information for screen output, and a process of receiving a selection input from a user and transmitting the information to the server 10Z are not illustrated because descriptions are omitted. .

本例におけるシステム100Zは、端末20を介してゲームを実行するユーザが撮影開始要求を入力したときに、撮影処理を行う。   The system 100 </ b> Z in this example performs a shooting process when a user executing a game inputs a shooting start request via the terminal 20.

図18は、撮影処理が行われる際の様子の例を示す説明図である。図18に示すように、端末20を操作して撮影対象を撮影する場合を例にして後述する処理が行われる。   FIG. 18 is an explanatory diagram illustrating an example of a state when the shooting processing is performed. As illustrated in FIG. 18, a process described below is performed using an example in which the terminal 20 is operated to capture an image of a capturing target.

撮影処理において、先ず、サーバ10Zは、ユーザに付与された仮想カードに描かれた絵柄に対応するモデルデータをユーザに選択させるための選択画面を端末20に出力させる(ステップS6−11)。具体的には、先ず、サーバ10Zは、ユーザIDを提示した撮影開始要求を受け付け、ユーザIDに対応付けされた仮想カードを特定することで、ユーザに付与された仮想カードを特定する。その後、サーバ10Zは、ユーザに付与された仮想カードの選択画面を生成するための選択画面情報を生成し、当該選択画面情報を端末20に送信する。そして、選択画面情報を受信した端末20は、選択画面情報に基づいて、選択画面を表示する。   In the photographing process, first, the server 10Z causes the terminal 20 to output a selection screen for allowing the user to select model data corresponding to a picture drawn on the virtual card given to the user (step S6-11). Specifically, first, the server 10 </ b> Z receives a photographing start request presenting the user ID, and specifies the virtual card assigned to the user by specifying the virtual card associated with the user ID. After that, the server 10 </ b> Z generates selection screen information for generating a selection screen of the virtual card given to the user, and transmits the selection screen information to the terminal 20. Then, the terminal 20 that has received the selection screen information displays the selection screen based on the selection screen information.

図19は、端末で表示される選択画面の例を示す説明図である。図19に示すように、選択画面は、仮想カードを一覧で表示し、撮影処理に用いる仮想カード(キャラクタ)の選択を受け付けることができるように構成される。本例では、仮想カード1500が選択された場合を例にして説明が行われる。   FIG. 19 is an explanatory diagram illustrating an example of a selection screen displayed on the terminal. As shown in FIG. 19, the selection screen is configured to display a list of virtual cards and accept selection of a virtual card (character) to be used for the photographing process. In this example, the case where the virtual card 1500 is selected will be described as an example.

選択画面が端末20で表示されると、サーバ10Zは、仮想カードの選択を受け付ける(ステップS6−12)。具体的には、端末20が、ユーザから仮想カードの選択入力を受け付け、受け付けた選択入力に関する情報をサーバ10Zに送信する。サーバ10Zは、当該選択入力に関する情報に基づいて、仮想カードの選択を受け付ける。   When the selection screen is displayed on terminal 20, server 10Z receives the selection of the virtual card (step S6-12). Specifically, the terminal 20 receives a virtual card selection input from the user, and transmits information on the received selection input to the server 10Z. The server 10Z receives the selection of the virtual card based on the information on the selection input.

仮想カードの選択が受け付けられると、サーバ10Zは、当該仮想カードに対応するモデルデータを特定する(ステップS6−13)。具体的には、サーバ10Zは、選択入力に関する情報と仮想カード関連情報とを参照して、選択入力に対応するモデルデータを特定する。   When the selection of the virtual card is accepted, the server 10Z specifies the model data corresponding to the virtual card (Step S6-13). Specifically, server 10Z specifies model data corresponding to the selection input by referring to the information regarding the selection input and the virtual card related information.

モデルデータが特定されると、サーバ10Zは、端末20の撮影部で撮影される撮影画像を受信する(ステップS6−14)。例えば、端末20は、モデルデータの選択入力を受け付けた後に、撮影部を起動させて、撮影画像を取得する。その後、端末20は、取得した撮影画像を所定の間隔でサーバ10に送信する。   When the model data is specified, the server 10Z receives a captured image captured by the capturing unit of the terminal 20 (Step S6-14). For example, after receiving the selection input of the model data, the terminal 20 activates the photographing unit and acquires a photographed image. Thereafter, the terminal 20 transmits the acquired captured image to the server 10 at a predetermined interval.

撮影画像が受信されると、サーバ10Zは、撮影画像に対してモデルデータを重畳した最初の合成画像を端末20に出力させるための最初の合成画像を生成し、生成した最初の当該合成画像情報を端末20に送信する(ステップS6−15)。最初の合成画像を生成する際のモデルデータの初期配置位置は、デフォルトで決定されていてもよいし、モデルデータを選択する際の選択入力に含まれていてもよい。   When the captured image is received, the server 10 </ b> Z generates the first composite image for causing the terminal 20 to output the first composite image in which the model data is superimposed on the captured image, and generates the first composite image information. Is transmitted to the terminal 20 (step S6-15). The initial arrangement position of the model data when generating the first composite image may be determined by default, or may be included in a selection input when selecting the model data.

最初の合成画像が端末20で表示されると、サーバ10Zは、さらに、撮影部で撮影される撮影画像とともに、ユーザにより入力されたモデルデータの位置や姿勢を調整する調整入力情報を受信する(ステップS6−16)。   When the first composite image is displayed on the terminal 20, the server 10Z further receives the adjustment input information for adjusting the position and orientation of the model data input by the user, together with the captured image captured by the capturing unit ( Step S6-16).

調整入力情報が受信されると、サーバ10Zは、調整入力情報に応じて、モデルデータレイヤにおけるモデルデータの位置や姿勢を調整した合成画像情報を生成し、生成した合成画像情報を端末20に送信する(ステップS6−17)。なお、本例では、調整入力がユーザによって入力されない場合においては、サーバ10Zは、調整入力がなかったこと示す調整入力情報を受信し、前回の重畳したモデルデータの位置に基づいて合成画像を生成するように構成されていていればよい。このようにして、逐次端末20の表示画面に合成画像が表示される。   When the adjustment input information is received, the server 10 </ b> Z generates composite image information in which the position and orientation of the model data in the model data layer are adjusted according to the adjustment input information, and transmits the generated composite image information to the terminal 20. (Step S6-17). In this example, when the adjustment input is not input by the user, the server 10 </ b> Z receives the adjustment input information indicating that there is no adjustment input, and generates a composite image based on the position of the previous superimposed model data. What is necessary is just to be comprised so that it may perform. In this way, the composite image is sequentially displayed on the display screen of the terminal 20.

合成画像が端末20で表示されると、サーバ10Zは、シャッターが切られたか否かを判定する(ステップS6−18)。例えば、端末20がユーザから撮影を確定させるための入力(例えば、撮影ボタンの押下げ入力など)を受け付けたことに応じて、サーバ10Zは、当該入力を端末20から受信し、撮影が行われたと判定するように構成される。   When the composite image is displayed on terminal 20, server 10Z determines whether or not the shutter has been released (step S6-18). For example, in response to the terminal 20 receiving an input from the user for confirming shooting (for example, an input for pressing down a shooting button), the server 10Z receives the input from the terminal 20 and shooting is performed. Is determined.

シャッターが切られていないと判定した場合(ステップS6−18のN)には、サーバ10Zは、ステップS6−16に移行して、再度撮影画像とともに調整入力情報を受信する。   When it is determined that the shutter has not been released (N in step S6-18), the server 10Z proceeds to step S6-16 and receives the adjustment input information again together with the captured image.

一方で、シャッターが切られたと判定した場合(ステップS6−18のY)には、サーバ10Zは、直前に送信した合成画像を最終的な合成画像として特定し、端末20に送信する(ステップS6−19)。端末20において、当該最終的な合成画像が表示されるとともに、ユーザから保存処理を行う指示が入力されたときに、最終的な合成画像が、端末20の記憶領域に格納される。   On the other hand, if it is determined that the shutter has been released (Y in step S6-18), the server 10Z specifies the composite image transmitted immediately before as the final composite image and transmits it to the terminal 20 (step S6). -19). In the terminal 20, the final composite image is displayed, and when an instruction to perform a storage process is input from the user, the final composite image is stored in the storage area of the terminal 20.

図20は、最終的な合成画像の例を示す説明図である。図20に示すように、図18で示される撮影状況で撮影された撮影画像に対して、図19で選択された仮想カード1500のキャラクタに対応するモデルデータ1505が合成された画像が、端末20に表示される。図20に示すように、モデルデータ1505は、仮想カード1500で描画されるキャラクタ画像に描かれていない範囲を含む。さらにモデルデータ1505は、仮想カード1500で描画されるキャラクタ画像よりも解像度の高い画像で描画される。   FIG. 20 is an explanatory diagram illustrating an example of a final composite image. As shown in FIG. 20, an image in which model data 1505 corresponding to the character of the virtual card 1500 selected in FIG. Will be displayed. As shown in FIG. 20, model data 1505 includes a range that is not drawn in the character image drawn by virtual card 1500. Further, the model data 1505 is drawn as an image having a higher resolution than the character image drawn by the virtual card 1500.

最終的な合成画像が端末20に表示されると、サーバ10は、撮影処理を終了する。   When the final composite image is displayed on the terminal 20, the server 10 ends the photographing process.

以上に説明したように、第6の実施形態の一側面として、ビデオゲーム処理サーバ10Zが、記憶部11と、特定部12Zと、生成部13Zと、出力部14Zと、ゲーム内要素育成部15Zと、絵柄変更部16Zとを備える構成としている。したがって、ビデオゲーム処理サーバ10Zは、ユーザ端末20を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定し、ユーザ端末20の撮影手段により撮影された撮影画像と合成対象とを合成して合成画像を生成し、生成した合成画像をユーザ端末20に出力させることができる。このような構成によれば、撮影時に合成できる絵柄がユーザが所持しているゲーム内要素のみであるため、ゲーム内要素の取得に対する動機付けを持たせることができる。すなわち、ゲームを継続していくことへの動機付けをユーザに持たせることができるようになる。   As described above, as one aspect of the sixth embodiment, the video game processing server 10Z stores the storage unit 11, the specifying unit 12Z, the generating unit 13Z, the output unit 14Z, and the in-game element cultivating unit 15Z. And a picture changing section 16Z. Therefore, the video game processing server 10Z refers to the in-game element given to the user who executes the game via the user terminal 20, and at least a part of the pattern drawn on the in-game element given to the user. Is specified as an object to be synthesized, a synthesized image is generated by synthesizing the image captured by the imaging means of the user terminal 20 with the image to be synthesized, and the generated synthesized image is output to the user terminal 20. it can. According to such a configuration, the pattern that can be synthesized at the time of shooting is only the in-game element possessed by the user, so that it is possible to motivate the acquisition of the in-game element. That is, the user can be motivated to continue the game.

また、第6の実施形態の一側面として、サーバ10Zは、ユーザに付与されたゲーム内要素と、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するモデルデータとが対応付けされた情報を記憶する記憶手段を参照して、モデルデータを合成対象として特定するように構成される。このような構成によれば、ゲーム内要素が表示される際の処理負荷に起因する描画制約を受けることなく、合成画像を生成することができるようになる。   Further, as one aspect of the sixth embodiment, the server 10 </ b> Z includes an in-game element provided to the user, and model data corresponding to at least a part of a picture drawn on the in-game element provided to the user. Is configured to specify model data as a synthesis target with reference to a storage unit that stores information associated with. According to such a configuration, it is possible to generate a composite image without being subjected to drawing restrictions due to a processing load when an in-game element is displayed.

また、第6の実施形態の一側面として、合成対象は、ゲーム内要素に描かれた絵柄よりも解像度が高いデータであり、サーバ10Zは、端末20の撮影手段により撮影された撮影画像とゲーム内要素に描かれた絵柄よりも解像度が高い合成対象とを合成した合成画像を生成する構成としている。このような構成によれば、ゲーム内要素がゲーム進行時に表示される際の画質より高画質な絵柄が描かれたモデルデータを合成用絵柄とした合成画像が生成できるようになる。   Further, as one aspect of the sixth embodiment, the composition target is data having a higher resolution than the picture drawn in the in-game element, and the server 10 </ b> Z stores the captured image captured by the capturing unit of the terminal 20 and the game It is configured to generate a synthesized image obtained by synthesizing a synthesis target having a higher resolution than the picture drawn on the inner element. According to such a configuration, it is possible to generate a composite image in which model data in which a pattern having a higher image quality than the image quality when the in-game element is displayed during the progress of the game is drawn is used for the composition.

また、第6の実施形態の一側面として、合成対象は、ゲーム内要素に描かれた絵柄に描かれていない範囲を含むデータであり、サーバ10Zは、端末20の撮影手段により撮影された撮影画像とゲーム内要素に描かれた絵柄に描かれていない範囲を含む合成対象とを合成した合成画像を生成する構成としている。このような構成によれば、ゲーム内要素がゲーム進行時に表示される際の絵柄に描かれていない範囲を含む絵柄が描かれたモデルデータを合成用絵柄とした合成画像が生成できるようになる。例えば、ゲーム内要素が仮想カードである場合には、合成用の絵柄は、普段のゲーム進行時に表示されるカードフレームでは見きれてしまう部分まで表示されるようになる。   Further, as one aspect of the sixth embodiment, the composition target is data including a range that is not drawn in the pattern drawn in the in-game element, and the server 10 </ b> Z It is configured to generate a composite image in which an image and a composition target including a range not drawn in the pattern drawn in the in-game element are combined. According to such a configuration, it is possible to generate a composite image in which model data in which a pattern including a range not drawn in a pattern when the in-game element is displayed during the progress of the game is drawn is used for the composition. . For example, when the in-game element is a virtual card, the pattern for synthesis is displayed to a part that cannot be seen in a card frame displayed during normal game progress.

また、第6の実施形態の一側面として、サーバ10Zは、ゲーム内要素をゲーム進行に応じて成長させ、ゲーム内要素の育成度合いに応じて、ゲーム内要素に描かれた絵柄を変更する構成としている。このような構成によれば、所有ゲーム内要素の絵柄が成長に応じて変わっていくことにより、変更された絵柄を合成用絵柄とすることができるようになるため、ゲーム内要素を育てる動機付けを持たせることができる。したがって、ユーザにゲームをプレイさせるための動機付けを持たせることができるようになる。   Further, as one aspect of the sixth embodiment, the server 10 </ b> Z grows the in-game element according to the progress of the game, and changes the pattern drawn on the in-game element according to the degree of cultivation of the in-game element. And According to such a configuration, since the pattern of the owned game element changes according to the growth, the changed pattern can be used as the synthesis pattern, so that the in-game element can be motivated. Can be provided. Therefore, it is possible to motivate the user to play the game.

なお、上述した第6の実施形態の例では特に言及していないが、システム100Zは、モデルデータを仮想カード関連情報に格納することなく、カード画像におけるキャラクタ部分のみを切り取り、切り取った画像を撮影画像上に重畳するように構成されていてもよい。   Although not particularly mentioned in the example of the sixth embodiment, the system 100Z cuts out only the character portion in the card image without storing the model data in the virtual card related information, and shoots the cut-out image. You may comprise so that it may superimpose on an image.

なお、上述した第6の実施形態の例では特に言及していないが、システム100Zは、モデルデータを仮想カード関連情報に格納することなく、カード画像におけるキャラクタ画像と背景画像とを別々に格納しておき、仮想カードを表示する際にはキャラクタ画像と背景画像とを合成することで表示し、合成画像を生成する際にはキャラクタ画像のみを抽出し撮影画像上に重畳するように構成されていてもよい。   Although not particularly mentioned in the example of the sixth embodiment described above, the system 100Z stores the character image and the background image in the card image separately without storing the model data in the virtual card related information. In addition, when the virtual card is displayed, the character image and the background image are displayed by being combined, and when the combined image is generated, only the character image is extracted and superimposed on the photographed image. You may.

なお、上述した第6の実施形態の例では特に言及していないが、システム100Zは、複数枚の仮想カードが選択されるように構成されていてもよい。すなわち、システム100Zは、撮影画像に重畳されるモデルデータが2以上になるように構成されていてもよい。2以上のモデルデータは、同一のモデルデータレイヤ上に描画されていてもよいし、描画するレイヤを区別するように構成されていてもよい。   Although not particularly mentioned in the example of the sixth embodiment described above, the system 100Z may be configured to select a plurality of virtual cards. That is, the system 100Z may be configured such that the model data superimposed on the captured image is two or more. The two or more model data may be drawn on the same model data layer, or may be configured to distinguish layers to be drawn.

なお、上述した第6の実施形態の例では特に言及していないが、システム100Zは、モデルデータとして利用できるための条件が付されているように構成されていてもよい。すなわち、所定の条件を満たした仮想カードのみが、合成対象として利用可能に構成されていてもよい。このような場合には、例えば、システム100Zは、仮想カード関連情報に条件がクリアされている場合にフラグをたてるように構成されていればよい。ここで、所定の条件は、例えば、所定のイベントがクリアされていることや、所定のプレイヤレベルを満たしていることや、所定の仮想通貨が支払われていることなどを含む。   Note that, although not particularly mentioned in the example of the sixth embodiment described above, the system 100Z may be configured so as to have conditions for being usable as model data. That is, only a virtual card that satisfies a predetermined condition may be configured to be usable as a synthesis target. In such a case, for example, the system 100Z only needs to be configured to set a flag when the condition is cleared in the virtual card related information. Here, the predetermined condition includes, for example, that a predetermined event has been cleared, that a predetermined player level has been satisfied, that a predetermined virtual currency has been paid, and the like.

なお、上述した第6の実施形態の例では特に言及していないが、システム100は、合成対象を特定する際に、ユーザに付与されたゲーム内要素の選択を受け付けるように構成されていてもよい。このような場合には、サーバ10が、ユーザに付与されたゲーム内要素のうち、少なくとも1のゲーム内要素の選択をユーザから受け付け、ユーザにより選択された第1のゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定するように構成されていればよい。   Although not particularly mentioned in the example of the sixth embodiment described above, the system 100 may be configured to accept the selection of the in-game element given to the user when specifying the composition target. Good. In such a case, the server 10 receives the selection of at least one in-game element from among the in-game elements provided to the user from the user, and is drawn on the first in-game element selected by the user. What is necessary is just to be configured so that data corresponding to at least a part of the picture is specified as a synthesis target.

なお、上述した第6の実施形態の例では特に言及していないが、システム100は、合成対象を特定する際に、ユーザに付与されたゲーム内要素ではない選択要素の選択を受け付けるように構成されていてもよい。このような場合には、サーバ10が、ユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に対応する選択要素をユーザ端末に出力させ、ユーザ端末に出力された選択要素のうち、少なくとも1の選択要素の選択をユーザから受け付け、ユーザにより選択された第1の選択要素に対応するデータを合成対象として特定するように構成されていればよい。なお、ここでいう「選択要素」は、ユーザに付与された仮想カードの名称(または、キャラクタの名称)や、ユーザに付与された仮想カードにおけるキャラクタ画像部分などが含まれる。すなわち、ここでいう「選択要素」は、ユーザが所有している仮想カードに対応することを把握できる要素であればよい。   Although not particularly mentioned in the above-described example of the sixth embodiment, the system 100 is configured to receive a selection of a selection element that is not an in-game element given to the user when specifying a composition target. It may be. In such a case, the server 10 refers to the in-game element given to the user, causes the user terminal to output a selected element corresponding to the in-game element given to the user, and outputs the selected element to the user terminal. It is only necessary that the configuration is such that selection of at least one of the selected elements from the user is received from the user, and data corresponding to the first selected element selected by the user is specified as a synthesis target. The “selection element” here includes the name of the virtual card (or the name of the character) given to the user, the character image portion in the virtual card given to the user, and the like. In other words, the “selection element” here may be any element that can grasp that it corresponds to the virtual card owned by the user.

なお、上述した第6の実施形態の例では特に言及していないが、システム100は、合成対象を特定する際に、ユーザに付与されたゲーム内要素ではない選択要素の選択を受け付けるように構成されていてもよい。このような場合には、サーバ10が、ユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応する選択要素をユーザ端末に出力させ、ユーザ端末に出力された選択要素のうち、少なくとも1の選択要素の選択をユーザから受け付け、ユーザにより選択された第1の選択要素に対応するデータを合成対象として特定するように構成されていればよい。なお、ここでいう「選択要素」は、ユーザに付与された仮想カードの名称(または、キャラクタの名称)や、ユーザに付与された仮想カードにおけるキャラクタ画像部分などが含まれる。すなわち、ここでいう「選択要素」は、ユーザが所有している仮想カードに対応することを把握できる要素であればよい。   Although not particularly mentioned in the above-described example of the sixth embodiment, the system 100 is configured to receive a selection of a selection element that is not an in-game element given to the user when specifying a composition target. It may be. In such a case, the server 10 refers to the in-game element provided to the user, and selects a selection element corresponding to at least a part of the design drawn on the in-game element provided to the user by the user terminal. To select at least one of the selected elements output to the user terminal from the user, and specify data corresponding to the first selected element selected by the user as a combination target. It should just be done. The “selection element” here includes the name of the virtual card (or the name of the character) given to the user, the character image portion in the virtual card given to the user, and the like. In other words, the “selection element” here may be any element that can grasp that it corresponds to the virtual card owned by the user.

なお、上述した第6の実施形態の例では特に言及していないが、システム100は、端末20が単体で、上述の撮影処理を実行するように構成されていてもよい。すなわち、端末20が、仮想カード関連情報を記憶する記憶領域を備え、ゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定し、撮影手段により撮影された撮影画像と合成対象とを合成して合成画像を生成し、生成した合成画像を表示するように構成されていてもよい。なお、サーバ10が仮想カード関連情報を記憶する記憶領域を備えるように構成されていてもよく、この場合には、端末20がサーバ10を介して各種情報の取得・特定を行うように構成されていればよい。   Although not particularly mentioned in the example of the above-described sixth embodiment, the system 100 may be configured to execute the above-described photographing processing by the terminal 20 alone. That is, the terminal 20 includes a storage area for storing virtual card-related information, and refers to an in-game element provided to the user who executes the game, and refers to an in-game element provided to the user. Even if it is configured to specify data corresponding to at least a part as a synthesis target, generate a synthesized image by synthesizing the captured image captured by the imaging unit and the synthesis target, and display the generated synthesized image. Good. Note that the server 10 may be configured to include a storage area for storing virtual card related information. In this case, the terminal 20 is configured to acquire and specify various information via the server 10. It should just be.

以上に説明したように、本願の各実施形態により1または2以上の不足が解決される。なお、夫々の実施形態による効果は、非限定的な効果または効果の一例である。   As described above, one or more deficiencies are resolved by each embodiment of the present application. In addition, the effect by each embodiment is a non-limiting effect or an example of an effect.

なお、上述した各実施形態では、複数のユーザ端末20,201〜20Nとビデオゲーム処理サーバ10は、自己が備える記憶装置に記憶されている各種制御プログラム(例えば、ビデオゲーム処理プログラム)に従って、上述した各種の処理を実行する。   In each of the above-described embodiments, the plurality of user terminals 20, 201 to 20N and the video game processing server 10 operate according to various control programs (for example, video game processing programs) stored in a storage device provided therein. And perform various processes.

また、ビデオゲーム処理システム100の構成は上述した各実施形態の例として説明した構成に限定されず、例えばユーザ端末が実行する処理として説明した処理の一部または全部をサーバ10が実行する構成としてもよいし、サーバ10が実行する処理として説明した処理の一部または全部を複数のユーザ端末20,201〜20Nの何れか(例えば、ユーザ端末20)が実行する構成としてもよい。また、サーバ10が備える記憶部の一部または全部を複数のユーザ端末20,201〜20Nの何れかが備える構成としてもよい。すなわち、ビデオゲーム処理システム100におけるユーザ端末20とビデオゲーム処理サーバ10のどちらか一方が備える機能の一部または全部を、他の一方が備える構成とされていてもよい。   Further, the configuration of the video game processing system 100 is not limited to the configuration described as an example of each of the above-described embodiments. For example, the server 10 may execute a part or all of the processing described as the processing performed by the user terminal. Alternatively, some or all of the processing described as the processing performed by the server 10 may be performed by any of the user terminals 20 and 201 to 20N (for example, the user terminal 20). Further, a configuration may be employed in which any or all of the storage units provided in the server 10 are provided in any of the plurality of user terminals 20, 201 to 20N. That is, the configuration may be such that a part or all of the functions of one of the user terminal 20 and the video game processing server 10 in the video game processing system 100 are provided in the other one.

また、ビデオゲーム処理プログラムが、上述した各実施形態の例として説明した機能の一部または全部を、通信ネットワークを含まない装置単体に実現させる構成としてもよい。   Further, the video game processing program may be configured to realize some or all of the functions described as examples of the above-described embodiments in a single device that does not include a communication network.

[付記]
上述した実施形態の説明は、少なくとも下記発明を、当該発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[1]
撮影手段を備えるユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させる機能をサーバに実現させるためのビデオゲーム処理プログラムであって、
前記サーバに、
前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定機能と、
前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成機能と、
生成された前記合成画像を前記ユーザ端末に出力させる出力機能とを
実現させるためのビデオゲーム処理プログラム。
[2]
前記特定機能では、前記ユーザに付与されたゲーム内要素と、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するモデルデータとが対応付けされた情報を記憶する記憶手段を参照して、前記モデルデータを前記合成対象として特定する機能を
実現させるための[1]記載のビデオゲーム処理プログラム。
[3]
前記合成対象は、前記ゲーム内要素に描かれた絵柄よりも解像度が高いデータであり、
前記生成機能では、前記撮影手段により撮影された撮影画像と前記ゲーム内要素に描かれた絵柄よりも解像度が高い前記合成対象とを合成した合成画像を生成する機能を
実現させるための[1]または[2]記載のビデオゲーム処理プログラム。
[4]
前記合成対象は、前記ゲーム内要素に描かれた絵柄に描かれていない範囲を含むデータであり、
前記生成機能では、前記撮影手段により撮影された撮影画像と前記ゲーム内要素に描かれた絵柄に描かれていない範囲を含む前記合成対象とを合成した合成画像を生成する機能を
実現させるための[1]から[3]のうちの何れかに記載のビデオゲーム処理プログラム。
[5]
前記サーバに、
前記ゲーム内要素をゲーム進行に応じて成長させるゲーム内要素育成機能成と、
前記ゲーム内要素の育成度合いに応じて、前記ゲーム内要素に描かれた絵柄を変更する絵柄変更機能とを
実現させるための[1]から[4]のうちの何れかに記載のビデオゲーム処理プログラム。
[6]
前記サーバに、
前記特定機能では、2以上の合成対象を特定する機能
実現させるための[1]から[5]のうち何れかに記載のビデオゲーム処理プログラム。
[7]
前記特定機能では、
前記ユーザに付与されたゲーム内要素のうち、少なくとも1のゲーム内要素の選択をユーザから受け付ける機能と、
前記ユーザにより選択された第1のゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する機能とを
実現させるための[1]から[6]のうち何れかに記載のビデオゲーム処理プログラム。
[8]
前記特定機能では、
前記ユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に対応する選択要素を前記ユーザ端末に出力させる機能と、
前記ユーザ端末に出力された選択要素のうち、少なくとも1の前記選択要素の選択を前記ユーザから受け付ける機能と、
前記ユーザにより選択された第1の選択要素に対応するデータを前記合成対象として特定する機能とを
実現させるための[1]から[7]のうち何れかに記載のビデオゲーム処理プログラム。
[9]
前記特定機能では、
前記ユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応する選択要素を前記ユーザ端末に出力させる機能と、
前記ユーザ端末に出力された選択要素のうち、少なくとも1の前記選択要素の選択を前記ユーザから受け付ける機能と、
前記ユーザにより選択された第1の選択要素に対応するデータを前記合成対象として特定する機能とを
実現させるための[1]から[8]のうち何れかに記載のビデオゲーム処理プログラム。
[10]
[1]から[9]のうち何れかに記載のビデオゲーム処理プログラムが前記サーバに実現させる機能のうち少なくとも1つの機能を、当該サーバと通信可能なユーザ端末に実現させるためのビデオゲーム処理用プログラム。
[11]
[1]から[10]のうち何れかに記載のビデオゲーム処理プログラムがインストールされたサーバ。
[12]
通信ネットワークと、サーバと、ユーザ端末とを備え、撮影手段を備える前記ユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させるビデオゲーム処理システムであって、
前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定手段と、
前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成手段と、
生成された前記合成画像を前記ユーザ端末に出力させる出力手段とを含む
ことを特徴とするビデオゲーム処理システム。
[13]
前記サーバが、前記特定手段と、前記生成手段と、前記出力手段とを含み、
前記ユーザ端末が、合成画像を表示装置の表示画面に出力する手段を含む
[12]記載のビデオゲーム処理システム。
[14]
所定の絵柄と撮影手段により撮影された画像とを合成した合成画像を出力させる機能を前記撮影手段を備えるユーザ端末に実現させるためのビデオゲーム処理プログラムであって、前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定機能と、前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成機能と、生成された前記合成画像を前記ユーザ端末に出力させる出力機能とを有するサーバから前記合成画像を出力するための情報を受信する機能を前記ユーザ端末に
実現させるためのビデオゲーム処理プログラム。
[15]
撮影手段を備え、前記ユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力するユーザ端末であって、
ゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定手段と、
前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成手段と、
生成された前記合成画像を出力する出力手段とを含む
ことを特徴とするユーザ端末。
[16]
所定の絵柄と撮影手段により撮影された画像とを合成した合成画像を出力する機能をユーザ端末に実現させるためのビデオゲーム処理プログラムであって、
前記撮影手段を備える前記ユーザ端末に、
前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定機能と、
前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成機能と、
生成された前記合成画像を出力する出力機能とを
実現させるためのビデオゲーム処理プログラム。
[17]
[16]記載のビデオゲーム処理プログラムが前記ユーザ端末に実現させる機能のうち少なくとも1つの機能を、当該ユーザ端末と通信可能なサーバに実現させるためのビデオゲーム処理プログラム。
[18]
[16]または[17]記載のビデオゲーム処理プログラムがインストールされたユーザ端末。
[19]
撮影手段を備えるユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させるビデオゲーム処理方法であって、
前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定処理と、
前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成処理と、
生成された前記合成画像を前記ユーザ端末に出力させる出力処理とを含む
ことを特徴とするビデオゲーム処理方法。
[20]
通信ネットワークと、サーバと、ユーザ端末とを備え、撮影手段を備える前記ユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させるビデオゲーム処理方法であって、
前記ユーザ端末を介してゲームを実行するユーザに付与されたゲーム内要素を参照して、当該ユーザに付与されたゲーム内要素に描かれた絵柄の少なくとも一部に対応するデータを合成対象として特定する特定処理と、
前記撮影手段により撮影された撮影画像と前記合成対象とを合成して合成画像を生成する生成処理と、
生成された前記合成画像を前記ユーザ端末に出力させる出力処理とを含む
ことを特徴とするビデオゲーム処理方法。
[Appendix]
In the above description of the embodiment, at least the following invention has been described so that a person having ordinary knowledge in the field to which the invention belongs can implement the invention.
[1]
A video game processing program for realizing a function of causing a server to output a synthesized image obtained by synthesizing a predetermined picture and an image shot by the shooting unit to a user terminal including a shooting unit,
In the server,
By referring to an in-game element provided to a user who executes a game via the user terminal, data corresponding to at least a part of a pattern drawn on the in-game element provided to the user is specified as a synthesis target Specific features to
A generation function of generating a synthesized image by synthesizing the shot image shot by the shooting means and the synthesis target;
A video game processing program for realizing an output function of outputting the generated composite image to the user terminal.
[2]
In the specific function, storage for storing information in which an in-game element given to the user and model data corresponding to at least a part of a picture drawn on the in-game element given to the user is stored. The video game processing program according to [1], which realizes a function of specifying the model data as the synthesis target with reference to means.
[3]
The synthesis target is data having a higher resolution than the picture drawn on the in-game element,
The generation function is to implement a function of generating a composite image in which a captured image captured by the capturing unit and the composition target having a higher resolution than a picture drawn on the in-game element are combined. Or the video game processing program according to [2].
[4]
The synthesis target is data including a range that is not drawn on the pattern drawn on the in-game element,
In the generation function, a function of generating a composite image in which the captured image captured by the capturing unit and the composition target including a range not drawn in the pattern drawn in the in-game element are combined is realized. The video game processing program according to any one of [1] to [3].
[5]
In the server,
An in-game element fostering function for growing the in-game element in accordance with the game progress;
The video game processing according to any one of [1] to [4], for realizing a picture changing function of changing a picture drawn on the in-game element according to the degree of cultivation of the in-game element. program.
[6]
In the server,
The video game processing program according to any one of [1] to [5], wherein the specific function realizes a function of specifying two or more synthesis targets.
[7]
In the specific function,
A function of receiving from the user a selection of at least one in-game element among the in-game elements provided to the user;
A function of specifying data corresponding to at least a part of a picture drawn on the first in-game element selected by the user as an object to be synthesized, in any one of [1] to [6]. A video game processing program as described.
[8]
In the specific function,
A function of referring to the in-game element given to the user, and causing the user terminal to output a selected element corresponding to the in-game element given to the user;
A function of receiving selection of at least one of the selected elements from the user among the selected elements output to the user terminal;
The video game processing program according to any one of [1] to [7], for realizing a function of specifying data corresponding to a first selection element selected by the user as the synthesis target.
[9]
In the specific function,
A function of referring to the in-game element given to the user, and causing the user terminal to output a selection element corresponding to at least a part of a picture drawn on the in-game element given to the user,
A function of receiving selection of at least one of the selected elements from the user among the selected elements output to the user terminal;
The video game processing program according to any one of [1] to [8], for realizing a function of specifying data corresponding to a first selection element selected by the user as the synthesis target.
[10]
A video game processing program for realizing at least one of the functions realized by the server by the video game processing program according to any one of [1] to [9] on a user terminal capable of communicating with the server. program.
[11]
A server on which the video game processing program according to any one of [1] to [10] is installed.
[12]
A video game processing system comprising a communication network, a server, and a user terminal, wherein the user terminal having a photographing unit outputs a composite image obtained by combining a predetermined pattern and an image photographed by the photographing unit,
By referring to an in-game element provided to a user who executes a game via the user terminal, data corresponding to at least a part of a pattern drawn on the in-game element provided to the user is specified as a synthesis target Means for identifying
Generating means for generating a composite image by synthesizing the captured image captured by the imaging means and the synthesis target,
Output means for outputting the generated composite image to the user terminal.
[13]
The server includes the specifying unit, the generating unit, and the output unit,
The video game processing system according to [12], wherein the user terminal includes a unit that outputs the composite image to a display screen of a display device.
[14]
A video game processing program for realizing a function of outputting a synthesized image obtained by synthesizing a predetermined pattern and an image photographed by a photographing means to a user terminal including the photographing means, and playing a game via the user terminal. A specifying function of referring to an in-game element given to a user who executes the game, and specifying data corresponding to at least a part of a picture drawn on the in-game element given to the user as a synthesis target; The composite image is output from a server having a generation function of generating a composite image by synthesizing the captured image captured by the above and the synthesis target, and an output function of outputting the generated composite image to the user terminal. A video game processing program for causing the user terminal to realize a function of receiving information for the user.
[15]
A user terminal comprising a photographing means, and outputting a combined image obtained by combining a predetermined pattern and an image photographed by the photographing means to the user terminal,
Specifying means for referring to an in-game element given to a user who executes the game, and specifying data corresponding to at least a part of a picture drawn on the in-game element given to the user as a synthesis target;
Generating means for generating a composite image by synthesizing the captured image captured by the imaging means and the synthesis target,
Output means for outputting the generated composite image.
[16]
A video game processing program for causing a user terminal to realize a function of outputting a synthesized image obtained by synthesizing a predetermined pattern and an image shot by a shooting unit,
In the user terminal equipped with the imaging means,
By referring to an in-game element provided to a user who executes a game via the user terminal, data corresponding to at least a part of a pattern drawn on the in-game element provided to the user is specified as a synthesis target Specific features to
A generation function of generating a synthesized image by synthesizing the shot image shot by the shooting means and the synthesis target;
A video game processing program for realizing an output function of outputting the generated composite image.
[17]
[16] A video game processing program for causing a server capable of communicating with the user terminal to realize at least one of functions realized by the user terminal by the video game processing program according to [16].
[18]
A user terminal on which the video game processing program according to [16] or [17] is installed.
[19]
A video game processing method for outputting a composite image obtained by combining a predetermined pattern and an image photographed by the photographing means to a user terminal including a photographing means,
By referring to an in-game element provided to a user who executes a game via the user terminal, data corresponding to at least a part of a pattern drawn on the in-game element provided to the user is specified as a synthesis target Specific processing to
A generation process of generating a synthesized image by synthesizing the shot image shot by the shooting unit and the synthesis target;
Output processing for outputting the generated composite image to the user terminal.
[20]
A video game processing method comprising a communication network, a server, and a user terminal, wherein the user terminal having a photographing unit outputs a composite image obtained by combining a predetermined pattern and an image photographed by the photographing unit,
By referring to an in-game element provided to a user who executes a game via the user terminal, data corresponding to at least a part of a pattern drawn on the in-game element provided to the user is specified as a synthesis target Specific processing to
A generation process of generating a synthesized image by synthesizing the shot image shot by the shooting unit and the synthesis target;
Output processing for outputting the generated composite image to the user terminal.

本発明の実施形態の一つによれば、ゲームを継続させるための動機付けをユーザに持たせるのに有用である。   According to one embodiment of the present invention, it is useful to give a user motivation to continue a game.

10 ビデオゲーム処理サーバ
11 記憶部
12 特定部
13 生成部
14 出力部
15 ゲーム内要素育成部
16 絵柄変更部
20,201〜20N ユーザ端末
30 通信ネットワーク
100 ビデオゲーム処理システム
Reference Signs List 10 video game processing server 11 storage unit 12 specifying unit 13 generation unit 14 output unit 15 in-game element cultivation unit 16 picture changing unit 20, 201 to 20N user terminal 30 communication network 100 video game processing system

Claims (8)

撮影手段を備えるユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させる機能をサーバに実現させるためのビデオゲーム処理プログラムであって、
前記サーバに、
前記ユーザ端末を介してビデオゲームを実行するユーザにビデオゲームの進行に応じて付与されてユーザが所有するゲーム内要素であって、ビデオゲームの進行に用いられる当該ゲーム内要素を参照して、当該ゲーム内要素に描かれた絵柄の少なくとも一部と同じものと認識できる撮影用の絵柄を、撮影画像上に表示する合成対象として特定する特定機能と、
前記撮影手段により撮影された撮影画像上に前記合成対象を合成して合成画像を生成する生成機能と、
生成された前記合成画像を前記ユーザ端末に表示させる出力機能とを実現させ、
前記撮影用の絵柄のモデルデータは、前記ゲーム内要素が前記ビデオゲームの進行に用いられる場合に表示される前記ゲーム内要素に描かれた絵柄の少なくとも一部のデータとは異なるものである
デオゲーム処理プログラム。
A video game processing program for realizing a function of causing a server to output a synthesized image obtained by synthesizing a predetermined picture and an image shot by the shooting unit to a user terminal including a shooting unit,
In the server,
With reference to the in-game elements owned by the user and provided to the user executing the video game via the user terminal according to the progress of the video game, and used in the progress of the video game, A specific function of identifying a shooting pattern that can be recognized as at least part of the pattern drawn on the in-game element as a synthesis target to be displayed on the shot image,
A generation function of generating a synthesized image by synthesizing the synthesis target on a shot image shot by the shooting unit;
Output function to display the generated composite image on the user terminal,
Model data of a picture for the photographing is different from the at least a portion of the data of a picture that the game element is drawn into the game element that is displayed when used for progress of the video game
Bi Deogemu processing program.
前記特定機能では、前記ゲーム内要素と、前記モデルデータとが対応付けされた情報を記憶する記憶手段を参照して、前記モデルデータを前記合成対象として特定する機能を
実現させるための請求項1記載のビデオゲーム処理プログラム。
Wherein the specific function, and the game element, by referring to the storage means for storing the information and model data are correlated, it claims the model data for realizing the function of specifying as the compositing target 1 A video game processing program as described.
前記合成対象は、前記ゲーム内要素に描かれた絵柄よりも解像度が高いデータであり、
前記生成機能では、前記撮影手段により撮影された撮影画像と前記合成対象とを合成した合成画像を生成する機能を
実現させるための請求項1または請求項2記載のビデオゲーム処理プログラム。
The synthesis target is data having a higher resolution than the picture drawn on the in-game element,
Wherein in the generating function, according to claim 1 or claim 2, wherein the video game processing program for realizing a function of generating a synthesized composite image and a photographed image taken before Kigo formed the subject by the imaging unit.
前記合成対象は、前記ゲーム内要素に描かれた絵柄に描かれていない範囲を含むデータであり、
前記生成機能では、前記撮影手段により撮影された撮影画像と前記合成対象とを合成した合成画像を生成する機能を
実現させるための請求項1から請求項3のうちの何れかに記載のビデオゲーム処理プログラム。
The synthesis target is data including a range that is not drawn on the pattern drawn on the in-game element,
Wherein in the generating function, according to any of claims 1 to 3 for realizing a function of generating a synthesized composite image and a photographed image taken before Kigo formed the subject by the photographing means Video game processing program.
前記サーバに、
前記ゲーム内要素をゲーム進行に応じて成長させるゲーム内要素育成機能と、
前記ゲーム内要素の育成度合いに応じて、前記ゲーム内要素に描かれた絵柄を変更する絵柄変更機能とを
実現させるための請求項1から請求項4のうち何れかに記載のビデオゲーム処理プログラム。
In the server,
An in-game element fostering function for growing the in-game element in accordance with the game progress;
The video game processing program according to any one of claims 1 to 4, for realizing a pattern changing function of changing a pattern drawn on the in-game element according to a degree of cultivation of the in-game element. .
通信ネットワークと、サーバと、ユーザ端末とを備え、撮影手段を備える前記ユーザ端末に所定の絵柄と前記撮影手段により撮影された画像とを合成した合成画像を出力させるビデオゲーム処理システムであって、
前記ユーザ端末を介してビデオゲームを実行するユーザにビデオゲームの進行に応じて付与されてユーザが所有するゲーム内要素であって、ビデオゲームの進行に用いられる当該ゲーム内要素を参照して、当該ゲーム内要素に描かれた絵柄の少なくとも一部と同じものと認識できる撮影用の絵柄を、撮影画像上に表示する合成対象として特定する特定手段と、
前記撮影手段により撮影された撮影画像上に前記合成対象を合成して合成画像を生成する生成手段と、
生成された前記合成画像を前記ユーザ端末に表示させる出力手段とを含み、
前記撮影用の絵柄のモデルデータは、前記ゲーム内要素が前記ビデオゲームの進行に用いられる場合に表示される前記ゲーム内要素に描かれた絵柄の少なくとも一部のデータとは異なるものである
デオゲーム処理システム。
A video game processing system comprising a communication network, a server, and a user terminal, wherein the user terminal having a photographing unit outputs a composite image obtained by combining a predetermined pattern and an image photographed by the photographing unit,
With reference to the in-game elements owned by the user and provided to the user executing the video game via the user terminal according to the progress of the video game, and used in the progress of the video game, Identifying means for identifying a pattern for photography that can be recognized as at least part of the pattern drawn on the in-game element as a synthesis target to be displayed on the captured image;
Generating means for generating a composite image by synthesizing the synthesis target on a captured image captured by the image capturing means;
Output means for displaying the generated composite image on the user terminal,
Model data of a picture for the photographing is different from the at least a portion of the data of a picture that the game element is drawn into the game element that is displayed when used for progress of the video game
Bi Deogemu processing system.
所定の絵柄と撮影手段により撮影された画像とを合成した合成画像を出力させる機能を前記撮影手段を備えるユーザ端末に実現させるためのビデオゲーム処理プログラムであって、前記ユーザ端末を介してビデオゲームを実行するユーザにビデオゲームの進行に応じて付与されてユーザが所有するゲーム内要素であって、ビデオゲームの進行に用いられる当該ゲーム内要素を参照して、当該ゲーム内要素に描かれた絵柄の少なくとも一部と同じものと認識できる撮影用の絵柄を、撮影画像上に表示する合成対象として特定する特定機能と、前記撮影手段により撮影された撮影画像上に前記合成対象を合成して合成画像を生成する生成機能と、生成された前記合成画像を前記ユーザ端末に表示させる出力機能とを有し、前記撮影用の絵柄のモデルデータは、前記ゲーム内要素が前記ビデオゲームの進行に用いられる場合に表示される前記ゲーム内要素に描かれた絵柄の少なくとも一部のデータとは異なるものであるサーバから前記合成画像を出力するための情報を受信する機能を前記ユーザ端末に
実現させるためのビデオゲーム処理プログラム。
A video game processing program for realizing a function of outputting a composite image obtained by synthesizing a predetermined pattern and an image photographed by a photographing means to a user terminal having the photographing means, the video game processing program comprising: Is an in-game element that is provided to the user executing the video game in accordance with the progress of the video game and is owned by the user, and is drawn in the in-game element with reference to the in-game element used for the progress of the video game. A specific function of specifying a picture pattern for photography that can be recognized as the same as at least a part of the picture pattern as a composition target to be displayed on a photographed image, and composing the composition target on a photographed image photographed by the photographing means. a generating function for generating a composite image, the generated the synthesized image and an output function to be displayed on the user terminal, model of a picture of the photographic Data outputs the composite image from the server is different from the at least a portion of the data of a picture that the game element is drawn into the game element that is displayed when used for progress of the video game A video game processing program for causing the user terminal to realize a function of receiving information for the user.
撮影手段を備え、所定の絵柄を前記撮影手段により撮影された画像に合成した合成画像を出力するユーザ端末であって、
ビデオゲームを実行するユーザにビデオゲームの進行に応じて付与されてユーザが所有するゲーム内要素であって、ビデオゲームの進行に用いられる当該ゲーム内要素を参照して、当該ゲーム内要素に描かれた絵柄の少なくとも一部と同じものと認識できる撮影用の絵柄を、撮影画像上に表示する合成対象として特定する特定手段と、
前記撮影手段により撮影された撮影画像上に前記合成対象を合成して合成画像を生成する生成手段と、
生成された前記合成画像を表示する出力手段とを含み、
前記撮影用の絵柄のモデルデータは、前記ゲーム内要素が前記ビデオゲームの進行に用いられる場合に表示される前記ゲーム内要素に描かれた絵柄の少なくとも一部のデータとは異なるものである
ユーザ端末。
A user terminal comprising a photographing means, and outputting a combined image obtained by combining a predetermined pattern with an image photographed by the photographing means,
The in-game element which is provided to the user who executes the video game according to the progress of the video game and is owned by the user, and which is drawn in the in-game element with reference to the in-game element used for the progress of the video game Specifying means for specifying a photographing pattern that can be recognized as the same as at least a part of the drawn pattern as a synthesis target to be displayed on the photographed image;
Generating means for generating a composite image by synthesizing the synthesis target on a captured image captured by the image capturing means;
Output means for displaying the generated composite image,
Model data of a picture for the photographing is different from the at least a portion of the data of a picture that the game element is drawn into the game element that is displayed when used for progress of the video game
User terminal.
JP2015133776A 2015-07-02 2015-07-02 Video game processing program, video game processing system, and user terminal Active JP6637688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015133776A JP6637688B2 (en) 2015-07-02 2015-07-02 Video game processing program, video game processing system, and user terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133776A JP6637688B2 (en) 2015-07-02 2015-07-02 Video game processing program, video game processing system, and user terminal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017209083A Division JP2018038837A (en) 2017-10-30 2017-10-30 Video game processing program, video game processing system, and user terminal

Publications (2)

Publication Number Publication Date
JP2017012559A JP2017012559A (en) 2017-01-19
JP6637688B2 true JP6637688B2 (en) 2020-01-29

Family

ID=57828641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133776A Active JP6637688B2 (en) 2015-07-02 2015-07-02 Video game processing program, video game processing system, and user terminal

Country Status (1)

Country Link
JP (1) JP6637688B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6334043B1 (en) * 2017-09-29 2018-05-30 株式会社コロプラ GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP2019063490A (en) * 2018-04-23 2019-04-25 株式会社コロプラ Game program, method, and information processor
CN109847351A (en) * 2018-11-02 2019-06-07 广州悦享环球文化科技有限公司 A kind of game processing system and method based on VR equipment
CN112494942A (en) * 2020-12-16 2021-03-16 网易(杭州)网络有限公司 Information processing method, information processing device, computer equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102673A (en) * 1998-09-30 2000-04-11 Hori Denki Kk Picture processing system using tv game machine
JP4920660B2 (en) * 2008-10-24 2012-04-18 ヤフー株式会社 Apparatus and method for displaying virtual object superimposed on real image taken in the past
JP5116817B2 (en) * 2010-08-09 2013-01-09 任天堂株式会社 IMAGING DEVICE, IMAGING SYSTEM, AND GAME DEVICE

Also Published As

Publication number Publication date
JP2017012559A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
JP5603452B1 (en) Video game processing apparatus and video game processing program
JP6637650B2 (en) Game program, computer control method, information processing device, image output device, image output method, and image output program
JP6637688B2 (en) Video game processing program, video game processing system, and user terminal
CN109621413A (en) Rendering indication method, device, terminal and the storage medium of game picture
TW201136300A (en) Terminal and method for providing augmented reality
JP6500847B2 (en) Image generation system and image generation program
US10271159B2 (en) Information processing apparatus, information processing system, storage medium having stored therein information processing program, and information processing method
JP2020086983A (en) Image processing device, image processing method, and program
CN107197137A (en) Image processing apparatus, image processing method and recording medium
JP2020036305A (en) Moving image distribution system, moving image distribution method, and moving image distribution program for live distribution of moving image including animation of character object generated based on movement of distribution user
TW202142297A (en) Game watching system, program, spectator terminal and connection device wherein the game watching system includes a battle terminal, a spectator terminal and a connection device
CN108184130A (en) Simulation system, live broadcasting method, device and storage medium
JP2023153790A (en) program
JP4168800B2 (en) Image distribution device
KR101943554B1 (en) Method and server for providing sports game information
JP2020185448A (en) Video game processing program, video game processing system, and user terminal
JP2018038837A (en) Video game processing program, video game processing system, and user terminal
CN112973116A (en) Virtual scene picture display method and device, computer equipment and storage medium
WO2020188908A1 (en) Information delivery device, information delivery method, and information delivery program
JP6582526B2 (en) Content providing system, content providing apparatus, and content providing method
JP6849851B2 (en) Shooting system, shooting device and user shooting method
JP2019115812A (en) Control program, control method and computer
JP6219791B2 (en) Video game processing apparatus and video game processing program
JP5883962B2 (en) COMMUNICATION CONTROL DEVICE, COMMUNICATION CONTROL PROGRAM, COMMUNICATION CONTROL METHOD, AND INFORMATION PROCESSING SYSTEM
JP2013085573A (en) Information providing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150702

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20150730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171030

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171106

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20171228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R150 Certificate of patent or registration of utility model

Ref document number: 6637688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250