JP7323751B2 - game system and program - Google Patents

game system and program Download PDF

Info

Publication number
JP7323751B2
JP7323751B2 JP2018248128A JP2018248128A JP7323751B2 JP 7323751 B2 JP7323751 B2 JP 7323751B2 JP 2018248128 A JP2018248128 A JP 2018248128A JP 2018248128 A JP2018248128 A JP 2018248128A JP 7323751 B2 JP7323751 B2 JP 7323751B2
Authority
JP
Japan
Prior art keywords
game
image
primitive
player
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018248128A
Other languages
Japanese (ja)
Other versions
JP2020103835A (en
Inventor
佳之 高子
脩 樺島
明生 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco Ltd filed Critical Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2018248128A priority Critical patent/JP7323751B2/en
Publication of JP2020103835A publication Critical patent/JP2020103835A/en
Application granted granted Critical
Publication of JP7323751B2 publication Critical patent/JP7323751B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ゲームシステム及びプログラム等に関する。 The present invention relates to a game system, a program, and the like.

ゲーム動画などの投稿コンテンツを投稿サイトに投稿可能なゲームシステムが知られている。このようなゲームシステムの従来技術としては例えば特許文献1に開示される技術が知られている。特許文献1のゲームシステムでは、投稿コンテンツをネットワーク上の他のプレーヤにシェアさせる際に、著作権表示などを付加するコンテンツの加工処理を行う。また近年、撮影画像から3次元モデルを生成するフォトグラメトリ(Photogrammetry)と呼ばれる技術が脚光を浴びている。フォトグラメトリでは、例えば現実世界の物体である対象物を複数の撮影方向から撮影して得られた2次元の撮影画像に基づいて、解析処理を行い、対象物の形状、寸法等を求める。そして求められた形状、寸法等に基づいて、仮想空間に配置可能な3次元モデルを生成する。フォトグラメトリは3Dスキャンとも呼ばれる。3Dスキャンの従来技術としては例えば特許文献2に開示される技術がある。 2. Description of the Related Art A game system is known in which posted content such as game videos can be posted to a posting site. As a conventional technique of such a game system, for example, the technique disclosed in Patent Document 1 is known. In the game system of Patent Literature 1, when posting content is shared by other players on the network, the content is processed to add a copyright notice or the like. Also, in recent years, a technique called photogrammetry that generates a three-dimensional model from a photographed image has been attracting attention. In photogrammetry, analysis processing is performed based on two-dimensional photographed images obtained by photographing an object, which is an object in the real world, from a plurality of photographing directions, and the shape, dimensions, etc. of the object are obtained. Then, a three-dimensional model that can be arranged in a virtual space is generated based on the determined shape, dimensions, and the like. Photogrammetry is also called 3D scanning. As a conventional technique of 3D scanning, there is a technique disclosed in Patent Document 2, for example.

特開2015-58072号公報JP 2015-58072 A 特開2017-130008号公報Japanese Patent Application Laid-Open No. 2017-130008

投稿コンテンツを投稿可能なゲームシステムでは、プレーヤが投稿した投稿コンテンツを投稿サイトにおいて利用者が見れるようにするだけであった。このため、プレーヤは、投稿コンテンツに対する利用者の支持数や閲覧数などのインプレッション情報を確認することはできるが、このようなインプレッション情報が、自身がプレイするゲームに反映されることはなかった。 In a game system that allows posting of posted content, only the posted content posted by the player can be viewed by the user on the posting site. Therefore, although the player can check the impression information such as the number of users' support and the number of views of the posted content, such impression information is not reflected in the game played by the player.

本開示によれば、投稿コンテンツに対するインプレッション情報をプレーヤがプレイするゲームに反映させることができるゲームシステム及びプログラム等を提供できる。 According to the present disclosure, it is possible to provide a game system, a program, and the like capable of reflecting impression information on posted content in a game played by a player.

本発明の一態様は、プレーヤの投稿画像又は投稿動画である投稿コンテンツを投稿サイトに投稿する処理を行う投稿処理部と、前記投稿サイトにおいて前記投稿コンテンツを閲覧した利用者による前記投稿コンテンツのインプレッション情報を取得し、取得した前記インプレッション情報に基づいてゲームパラメータを設定するパラメータ設定部と、前記インプレッション情報に基づき設定された前記ゲームパラメータに基づいて、前記投稿コンテンツの投稿者である前記プレーヤがプレイするゲームのゲーム処理を行うゲーム処理部と、を含むゲームシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 According to one aspect of the present invention, a posting processing unit performs processing for posting posted content, which is an image or video posted by a player, to a posting site; a parameter setting unit that acquires information and sets game parameters based on the acquired impression information; and a game processing unit that performs game processing of a game. The present invention also relates to a program that causes a computer to function as the above units, or a computer-readable information storage medium that stores the program.

本発明の一態様では、プレーヤの投稿画像又は投稿動画である投稿コンテンツを投稿サイトに投稿する処理が行われ、投稿コンテンツを閲覧した利用者による投稿コンテンツのインプレッション情報が取得される。そして取得されたインプレッション情報に基づいてゲームパラメータが設定され、設定されたゲームパラメータに基づいて、投稿コンテンツの投稿者であるプレーヤがプレイするゲームのゲーム処理が行われる。このように本発明の一態様によれば、プレーヤの投稿コンテンツが投稿サイトに投稿されると、その投稿コンテンツに対するインプレッション情報が取得されて、プレーヤがプレイするゲームにフィードバックされるようになる。従って、投稿コンテンツに対するインプレッション情報をプレーヤがプレイするゲームに反映させることができるゲームシステム等の提供が可能になる。 In one aspect of the present invention, a process of posting posted content, which is a player's posted image or posted video, to a posting site is performed, and impression information of the posted content by a user viewing the posted content is acquired. Then, game parameters are set based on the acquired impression information, and game processing of the game played by the player who posted the posted content is performed based on the set game parameters. Thus, according to one aspect of the present invention, when player's posted content is posted to a posting site, impression information for the posted content is obtained and fed back to the game played by the player. Therefore, it is possible to provide a game system or the like that can reflect impression information on posted content in a game played by a player.

また本発明の一態様では、前記ゲーム処理部は、前記投稿コンテンツに関連するキャラクタが登場する前記ゲームの前記ゲーム処理を行い、前記パラメータ設定部は、前記インプレッション情報に基づいて、前記キャラクタについての前記ゲームパラメータを設定してもよい。 In one aspect of the present invention, the game processing unit performs the game processing of the game in which a character related to the posted content appears, and the parameter setting unit performs the game processing for the character based on the impression information. The game parameters may be set.

このようにすれば、投稿コンテンツに関連するキャラクタが登場するゲームにおいて、当該投稿コンテンツに対する投稿サイトでのインプレッション情報に基づいて、当該キャラクタのゲームパラメータを設定して、ゲーム処理を実行できるようになる。 In this way, in a game in which a character related to posted content appears, game processing can be executed by setting the game parameters of the character based on the impression information on the posting site for the posted content. .

また本発明の一態様では、前記パラメータ設定部は、前記投稿コンテンツに映る対象物の分析結果に基づいて、前記ゲームパラメータの基礎パラメータ値を設定し、前記基礎パラメータ値に設定された前記ゲームパラメータを、前記インプレッション情報に基づいて変化させてもよい。 Further, in one aspect of the present invention, the parameter setting unit sets a basic parameter value of the game parameter based on an analysis result of an object appearing in the posted content, and sets the game parameter set to the basic parameter value. may be varied based on the impression information.

このようにすれば、ゲームパラメータの基礎パラメータ値については、対象物の分析結果に基づいて設定し、インプレッション情報に応じて、ゲームパラメータの値を基礎パラメータ値から変化させることが可能になる。従って、対象物の分析結果とインプレッション情報の両方を反映させたゲームパラメータの設定が可能になる。 In this way, the basic parameter values of the game parameters can be set based on the analysis result of the target object, and the values of the game parameters can be changed from the basic parameter values according to the impression information. Therefore, it is possible to set game parameters that reflect both the analysis result of the object and the impression information.

また本発明の一態様では、前記パラメータ設定部は、前記対象物を撮影部により撮影した撮影画像に基づいて、前記対象物の分析処理を行い、前記分析処理の前記分析結果に基づいて、前記基礎パラメータ値を設定してもよい。 Further, in one aspect of the present invention, the parameter setting unit performs analysis processing of the object based on a photographed image of the object photographed by the photographing unit, and based on the analysis result of the analysis processing, the Base parameter values may be set.

このようにすれば、対象物を撮影した撮影画像に基づく分析処理により、対象物の種類等を特定して、ゲームパラメータの基礎パラメータ値を設定できるようになる。 By doing so, it is possible to specify the type of the object and set the basic parameter values of the game parameters by the analysis processing based on the photographed image of the object.

また本発明の一態様では、前記インプレッション情報は、前記投稿コンテンツの支持数の情報、閲覧数の情報、閲覧時間の情報、又は他の利用者への前記投稿コンテンツの伝達数の情報であってもよい。 In one aspect of the present invention, the impression information is information on the number of times the posted content is supported, information on the number of views, information on the viewing time, or information on the number of times the posted content is transmitted to other users. good too.

このようなインプレッション情報を用いれば、投稿コンテンツの支持数、閲覧数、閲覧時間又は伝達数を、プレーヤがプレイするゲームに反映させることが可能になる。 By using such impression information, it is possible to reflect the number of support, the number of views, the viewing time, or the number of transmissions of the posted content in the game played by the player.

また本発明の一態様では、前記パラメータ設定部は、前記投稿サイトにおいて前記投稿コンテンツを閲覧することで前記投稿コンテンツに前記インプレッション情報を与えた前記利用者が、前記プレーヤと所定関係を有するプレーヤであるか否かに応じて、前記ゲームパラメータの設定に用いる前記インプレッション情報を変化させてもよい。 Further, in one aspect of the present invention, the parameter setting unit determines that the user who has given the impression information to the posted content by viewing the posted content on the posting site is a player having a predetermined relationship with the player. The impression information used for setting the game parameter may be changed according to whether or not there is.

このようにすれば、所定関係を有するプレーヤの閲覧によるインプレッション情報では、その他のプレーヤの閲覧によるインプレッション情報に比べて、インプレッション情報の変化の度合いが異なるようになり、インプレッション情報によるゲームパラメータの設定を異ならせることが可能になる。 In this way, impression information viewed by a player having a predetermined relationship has a different degree of change in impression information than impression information viewed by other players, and game parameters can be set according to impression information. can be made different.

また本発明の一態様では、前記パラメータ設定部は、前記プレーヤの投稿情報に基づいて、前記プレーヤの個人情報を設定し、設定された前記個人情報に応じて、前記ゲームパラメータの設定に用いる前記インプレッション情報を変化させてもよい。 In one aspect of the present invention, the parameter setting unit sets the player's personal information based on the player's posted information, and uses the set personal information to set the game parameter. Impression information may vary.

このようにすれば、プレーヤの投稿情報に基づき設定された個人情報に応じて、インプレッション情報を変化させ、インプレッション情報に基づき設定されるゲームパラメータを変化させることが可能になる。 By doing so, it is possible to change the impression information according to the personal information set based on the player's posted information, and to change the game parameters set based on the impression information.

また本発明の一態様では、前記投稿情報は、前記プレーヤの投稿コンテンツ数、投稿回数、又は投稿時間の累積時間の情報であってもよい。 Further, in one aspect of the present invention, the posted information may be information on the number of posted contents by the player, the number of times of posting, or the accumulated time of posting time.

このようにすれば、プレーヤの投稿コンテンツ数、投稿回数又は投稿時間の累積時間に基づき設定されたプレーヤの個人情報に応じて、インプレッション情報を変化させ、インプレッション情報に基づき設定されるゲームパラメータを変化させることが可能になる。 In this way, the impression information is changed according to the player's personal information set based on the number of posted contents of the player, the number of times of posting, or the cumulative time of posting, and the game parameters set based on the impression information are changed. It becomes possible to let

また本発明の一態様では、前記ゲーム処理部は、前記プレーヤがプレイする前記ゲームの結果に応じて、ゲームポイントを前記プレーヤに獲得させる処理を行い、前記投稿処理部は、前記プレーヤによる前記投稿コンテンツの投稿の際に、前記プレーヤの前記ゲームポイントを消費させる処理を行ってもよい。 Further, in one aspect of the present invention, the game processing unit performs processing for allowing the player to acquire game points according to the result of the game played by the player, and the post processing unit performs the post processing by the player. A process of consuming the game points of the player may be performed when the content is posted.

このようにすれば、プレーヤは、投稿コンテンツを投稿サイトに投稿するために、ゲームをプレイしてゲームポイントを獲得することを目指すようになり、ゲームへのプレーヤの没入度や熱中度を向上できる。 In this way, the player aims to earn game points by playing the game in order to post the posted content to the posting site, and the player's degree of immersion and enthusiasm for the game can be improved. .

また本発明の一態様では、前記投稿処理部は、前記プレーヤが投稿した前記投稿コンテンツに対して、前記プレーヤがプレイする前記ゲームのゲームIDを関連づける処理を行い、前記パラメータ設定部は、前記ゲームIDが関連づけられた前記投稿コンテンツの前記インプレッション情報を取得して、取得した前記インプレッション情報に基づいて、前記ゲームIDに対応する前記ゲームの前記ゲームパラメータを設定してもよい。 In one aspect of the present invention, the post processing unit performs a process of associating the posted content posted by the player with a game ID of the game played by the player, and the parameter setting unit performs The impression information of the posted content associated with the ID may be obtained, and the game parameters of the game corresponding to the game ID may be set based on the obtained impression information.

このようにすれば、プレーヤが投稿した投稿コンテンツや投稿コンテンツに与えられたインプレッション情報が、いずれのゲームに対応する投稿コンテンツやインプレッション情報なのかを、ゲームIDに基づき特定できるようになる。従って、投稿コンテンツのインプレッション情報に基づくゲームパラメータの設定を、ゲームIDを用いた簡素な処理で実現することが可能になる。 In this way, it is possible to specify, based on the game ID, which game the posted content or the impression information given to the posted content posted by the player corresponds to. Therefore, it is possible to set game parameters based on the impression information of the posted content by simple processing using the game ID.

また本発明の一態様では、撮影部により対象物を複数の撮影方向から撮影することで得られる撮影画像群を記憶する記憶部と、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、前記撮像画像群に基づいて、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、を含んでもよい。 In one aspect of the present invention, a storage unit that stores a group of captured images obtained by capturing images of an object from a plurality of capturing directions by a capturing unit; a movement processing unit that performs processing to move a primitive in a virtual space; A texture generation unit that generates a texture to be mapped onto the primitive based on the group of captured images, and an image generation unit that maps the texture onto the primitive and generates a virtual space image viewed from a virtual camera in the virtual space. and may include

本発明の一態様によれば、対象物を複数の撮影方向から撮影することで撮影画像群が取得され、この撮影画像群に基づき生成されたテクスチャが、プリミティブにマッピングされて、対象物に対応する表示物の画像を含む仮想空間画像を生成できるようになる。これにより、対象物に対応する表示物を、対象物の形状等を忠実に表現しながら仮想空間に出現させることができる画像生成システム等の提供が可能になる。 According to one aspect of the present invention, a group of photographed images is acquired by photographing an object from a plurality of photographing directions, and textures generated based on the group of photographed images are mapped to primitives and correspond to the object. It becomes possible to generate a virtual space image including an image of a display object that is displayed. As a result, it is possible to provide an image generation system or the like that can cause a display object corresponding to an object to appear in a virtual space while faithfully expressing the shape of the object.

また本発明の一態様では、前記移動処理部は、移動制御情報に基づいて、前記仮想空間において前記プリミティブを移動させる処理を行い、前記テクスチャ生成部は、前記プリミティブの前記移動制御情報に応じて前記撮影画像群から選択された撮影画像に基づいて、前記プリミティブにマッピングする前記テクスチャを生成し、前記画像生成部は、前記移動制御情報に応じて変化する前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間画像を生成してもよい。 Further, in one aspect of the present invention, the movement processing unit performs a process of moving the primitive in the virtual space based on movement control information, and the texture generation unit performs a process of moving the primitive according to the movement control information of the primitive. The texture to be mapped to the primitive is generated based on the captured image selected from the captured image group, and the image generation unit maps the texture, which changes according to the movement control information, to the primitive. , the virtual space image may be generated.

このようにすれば、プリミティブの移動制御状態に応じて変化するテクスチャの画像をプリミティブにマッピングして、対象物に対応する表示物の画像を含む仮想空間画像を生成できるようになる。 In this way, a virtual space image including an image of a displayed object corresponding to the target object can be generated by mapping the image of the texture that changes according to the movement control state of the primitive to the primitive.

本実施形態のゲームシステムの構成例を示すブロック図。1 is a block diagram showing a configuration example of a game system according to this embodiment; FIG. ゲームシステムを実現するサーバシステムや端末装置の説明図。Explanatory drawing of the server system and terminal device which implement|achieve a game system. 図3(A)、図3(B)は対象物の撮影画像に基づいて対象物に対応するキャラクタをゲームに出現させる手法の説明図。3(A) and 3(B) are explanatory diagrams of a technique for making a character corresponding to an object appear in a game based on a photographed image of the object. 投稿サイトの投稿掲示画面の例。An example of a posting screen on a posting site. 投稿サイトの投稿掲示画面の他の例。Another example of the posting screen of the posting site. 本実施形態の処理を説明するフローチャート。4 is a flowchart for explaining processing of the embodiment; 対象物の分析結果に基づき基礎パラメータ値を設定する処理を説明するフローチャート。5 is a flowchart for explaining processing for setting basic parameter values based on the analysis result of the object; 対象物の分析結果に基づき基礎パラメータ値を設定する処理の説明図。FIG. 4 is an explanatory diagram of processing for setting basic parameter values based on the analysis result of the object; 所定関係のプレーヤのインプレッション情報を変化させる処理を説明するフローチャート。10 is a flowchart for explaining processing for changing impression information of players having a predetermined relationship; 所定関係のプレーヤのインプレッション情報を変化させる処理の説明図。FIG. 4 is an explanatory diagram of processing for changing impression information of players having a predetermined relationship; プレーヤの投稿情報に基づきプレーヤの個人情報を設定してインプレッション情報を変化させる処理を説明するフローチャート。9 is a flowchart for explaining processing for setting player's personal information and changing impression information based on player's posted information. プレーヤの投稿情報に基づきプレーヤの個人情報を設定してインプレッション情報を変化させる処理の説明図。FIG. 10 is an explanatory diagram of processing for setting player's personal information based on the player's posted information and changing impression information; ゲームで獲得したゲームポイントの消費を条件に投稿コンテンツの投稿を受け付ける手法の説明図。FIG. 11 is an explanatory diagram of a method of accepting submission of posted content on the condition that game points earned in a game are consumed; 投稿コンテンツとインプレッション情報にゲームIDを関連づけてゲームパラメータを設定する手法の説明図。FIG. 11 is an explanatory diagram of a method of setting game parameters by associating posted content and impression information with game IDs; 図15(A)、図15(B)は対象物を複数の撮影方向から撮影した撮影画像を取得する手法の説明図。15(A) and 15(B) are explanatory diagrams of a method of obtaining photographed images obtained by photographing an object from a plurality of photographing directions. 図16(A)、図16(B)は撮影画像からテクスチャを生成する手法の説明図。16(A) and 16(B) are explanatory diagrams of a method of generating a texture from a photographed image. プリミティブと仮想カメラの関係についての説明図。Explanatory drawing about the relationship between a primitive and a virtual camera. 移動制御情報に応じて変化するテクスチャのマッピング手法の説明図。FIG. 4 is an explanatory diagram of a texture mapping technique that changes according to movement control information; エフェクト画像の生成手法の説明図。Explanatory drawing of the generation method of an effect image. 撮影画像群に基づく仮想空間画像の生成処理のフローチャート。5 is a flowchart of processing for generating a virtual space image based on a captured image group; 360度の撮影方向範囲で対象物を撮影する手法の説明図。FIG. 4 is an explanatory diagram of a method of photographing an object in a 360-degree photographing direction range; 撮影画像群から移動制御情報に応じた撮影画像を選択する手法の説明図。FIG. 4 is an explanatory diagram of a method of selecting a photographed image according to movement control information from a photographed image group; 図23(A)~図23(C)はプリミティブと仮想カメラを位置関係が固定された状態で移動する手法の説明図。23A to 23C are explanatory diagrams of a method of moving a primitive and a virtual camera with their positional relationship fixed. 背景の色に対応する色のピクセルを透明にする処理のフローチャート。4 is a flow chart of processing to make pixels of a color corresponding to the background color transparent. 図25(A)~図25(C)はエフェクト画像用のプリミティブを用いたエフェクト画像の生成手法の説明図。25A to 25C are explanatory diagrams of a method of generating an effect image using primitives for effect images. エフェクト画像用のプリミティブの初期配置位置の設定手法の説明図。FIG. 4 is an explanatory diagram of a method for setting initial placement positions of primitives for effect images; 仮想空間画像に対するポストエフェクト処理の説明図。FIG. 4 is an explanatory diagram of post-effect processing for a virtual space image; 他の対象物に対応する他の表示物の画像の生成手法の説明図。FIG. 4 is an explanatory diagram of a method of generating an image of another display object corresponding to another object; プリミティブの周囲にパーティクルを配置する手法の説明図。Explanatory diagram of a method of arranging particles around a primitive. 撮影部、配置部、回転移動機構を設けたゲームシステムの構成例。A configuration example of a game system provided with an imaging section, an arrangement section, and a rotation movement mechanism.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。 The present embodiment will be described below. It should be noted that the embodiments described below do not unduly limit the content of the claims. Moreover, not all the configurations described in this embodiment are essential configuration requirements.

1.ゲームシステム
図1は、本実施形態のゲームシステム(ゲーム装置、端末装置、画像生成システム、サーバシステム)の構成例を示すブロック図である。なお、本実施形態のゲームシステムは図1の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. 1. Game System FIG. 1 is a block diagram showing a configuration example of a game system (game device, terminal device, image generation system, server system) according to the present embodiment. The game system of this embodiment is not limited to the configuration of FIG. 1, and various modifications such as omitting some of its components or adding other components are possible.

操作部160は、プレーヤ(ユーザ)が種々の操作入力情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、レバー又はタッチパネル型ディスプレイ等により実現できる。 The operation unit 160 is used by a player (user) to input various operational input information (input information). The operation unit 160 can be implemented by, for example, operation buttons, direction keys, joysticks, levers, touch panel type displays, or the like.

撮影部162は、対象物の撮影を行うものであり、CCDやCMOSセンサなどの画像センサと、フォーカスレンズ等により構成される光学系などにより実現される。撮影部162としては、例えばデジタルカメラやビデオカメラなどのカメラを用いることができる。対象物(physical object)は、例えば現実世界の物体であり、撮影部162の被写体である。 The photographing unit 162 is for photographing an object, and is realized by an image sensor such as a CCD or CMOS sensor and an optical system including a focus lens and the like. As the imaging unit 162, a camera such as a digital camera or a video camera can be used, for example. A physical object is, for example, an object in the real world, and is a subject of the imaging unit 162 .

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(hard disk drive)、SSD(Solid State Drive)、又は光ディスク装置などにより実現できる。記憶部170は、インプレッション情報記憶部172、パラメータ記憶部174、撮影画像情報記憶部176、仮想空間情報記憶部177、描画バッファ178を含む。インプレッション情報記憶部172は、投稿サイトのユーザの閲覧により投稿コンテンツに与えられるインプレッション情報を記憶する。パラメータ記憶部174は、ゲームパラメータ等の各種のパラメータの情報を記憶する。撮影画像情報記憶部176は、撮影部162により撮影された撮影画像の情報を記憶する。例えば撮影画像群の情報を記憶する。仮想空間情報記憶部177は、3次元のオブジェクト空間である仮想空間についての情報を記憶する。例えば仮想空間に配置されるオブジェクトの情報などを記憶する。描画バッファ178は、フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファである。 The storage unit 170 stores various information. The storage unit 170 functions as a work area for the processing unit 100, the communication unit 196, and the like. Programs and data necessary for executing the programs are held in this storage unit 170 . The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (hard disk drive), SSD (Solid State Drive), optical disk device, or the like. The storage unit 170 includes an impression information storage unit 172 , a parameter storage unit 174 , a captured image information storage unit 176 , a virtual space information storage unit 177 and a drawing buffer 178 . The impression information storage unit 172 stores impression information that is given to posted content through viewing by a posting site user. The parameter storage unit 174 stores information on various parameters such as game parameters. The captured image information storage unit 176 stores information of the captured image captured by the imaging unit 162 . For example, it stores information about a group of captured images. The virtual space information storage unit 177 stores information about virtual space, which is a three-dimensional object space. For example, it stores information about objects placed in the virtual space. The drawing buffer 178 is a buffer that can store image information in units of pixels, such as a frame buffer and a work buffer.

情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The information storage medium 180 is a computer-readable medium and stores programs, data, and the like. The information storage medium 180 can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. The processing unit 100 performs various processes of this embodiment based on programs (data) stored in the information storage medium 180 . That is, in the information storage medium 180, a program (a program for causing the computer to execute the processing of each unit) for functioning a computer (a device having an input device, a processing unit, a storage unit, and an output unit) as each unit of the present embodiment is stored. is stored.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(Head Mounted Display)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドホン等により実現できる。 The display unit 190 outputs an image generated according to this embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (Head Mounted Display), or the like. The sound output unit 192 outputs the sound generated according to this embodiment, and its function can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、プレーヤが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。 An I/F (interface) unit 194 performs interface processing with the portable information storage medium 195, and its function can be realized by an ASIC for I/F processing. The portable information storage medium 195 is used by the player to store various types of information, and is a storage device that retains the storage of this information even when the power is not supplied. The portable information storage medium 195 can be implemented by an IC card (memory card), USB memory, magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with the outside (another device) via a wired or wireless network, and its function is implemented by hardware such as a communication ASIC or a communication processor, and communication firmware. It can be realized by

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。 Note that programs (data) for causing a computer to function as each part of the present embodiment are delivered from an information storage medium of a server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. You may The use of information storage media by such servers can also be included within the scope of this embodiment.

処理部100(プロセッサ)は、操作部160からの操作入力情報やプログラムなどに基づいて、投稿処理、パラメータ設定処理、ゲーム処理、編集処理、取得処理、分析処理、移動処理、テクスチャ生成処理、画像生成処理、或いは音生成処理などを行う。 The processing unit 100 (processor) performs post processing, parameter setting processing, game processing, editing processing, acquisition processing, analysis processing, movement processing, texture generation processing, image It performs generation processing, sound generation processing, or the like.

処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Each process of this embodiment performed by each part of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of this embodiment can be implemented by a processor that operates based on information such as a program and a memory that stores information such as the program. In the processor, for example, the function of each section may be implemented by separate hardware, or the function of each section may be implemented by integrated hardware. For example, a processor includes hardware, which may include circuitry for processing digital signals and/or circuitry for processing analog signals. For example, the processor can be configured with one or more circuit devices (such as ICs) or one or more circuit elements (such as resistors and capacitors) mounted on a circuit board. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as GPU (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used. Alternatively, the processor may be a hardware circuit based on ASIC. The processor may also include amplifier circuits, filter circuits, and the like that process analog signals. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions readable by a computer, and the instructions are executed by the processor to implement the processing of each part of the processing unit 100 . The instruction here may be an instruction set that constitutes a program, or may be an instruction that instructs a hardware circuit of a processor to operate.

処理部100は、投稿処理部102、パラメータ設定部104、ゲーム処理部106、編集処理部108、取得部110、分析部111、移動処理部112、テクスチャ生成部114、画像生成部120、音生成部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing unit 100 includes a post processing unit 102, a parameter setting unit 104, a game processing unit 106, an editing processing unit 108, an acquisition unit 110, an analysis unit 111, a movement processing unit 112, a texture generation unit 114, an image generation unit 120, and a sound generation unit. A portion 130 is included. As described above, each process of this embodiment executed by these units can be realized by a processor (or processor and memory). It should be noted that various modifications such as omitting some of these constituent elements (each section) or adding other constituent elements are possible.

投稿処理部102は投稿コンテンツの投稿についての処理を行う。パラメータ設定部104はゲームパラメータ等の各種のパラメータの設定処理を行う。投稿処理部102、パラメータ設定部104の詳細については後述する。 The posting processing unit 102 performs processing regarding posting of posted content. A parameter setting unit 104 sets various parameters such as game parameters. Details of the post processing unit 102 and the parameter setting unit 104 will be described later.

ゲーム処理部106はプレーヤがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。 The game processing unit 106 performs various game processes for the player to play the game. Game processing includes, for example, processing for starting a game when a game start condition is satisfied, processing for progressing a started game, processing for ending a game when a game end condition is satisfied, or calculating a game result. processing, etc.

編集処理部108は撮影画像をプレーヤが編集するための編集処理を行う。取得部110は、撮影部162により撮影された撮影画像の取得処理を行う。例えば撮影部162から撮影画像の情報を受信したり読み出したりする処理を行う。分析部111は、対象物に対する分析処理を行う。例えば対象物の撮影画像に基づいて対象物のシルエット分析などの分析処理を行う。 The edit processing unit 108 performs edit processing for the player to edit the shot image. The acquisition unit 110 performs acquisition processing of the captured image captured by the imaging unit 162 . For example, it performs a process of receiving or reading information of a captured image from the imaging unit 162 . The analysis unit 111 performs analysis processing on the object. For example, analysis processing such as silhouette analysis of the object is performed based on the photographed image of the object.

移動処理部112は、仮想空間においてプリミティブ等のオブジェクトを移動させる処理を行う。例えば本実施形態では、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理が行われる。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブで構成されるオブジェクト)を仮想空間に配置設定する処理が行われる。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)が決定され、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトが配置される。具体的には、記憶部170の仮想空間情報記憶部177には、仮想空間情報として、仮想空間でのオブジェクトの位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報が、オブジェクト番号に対応づけて記憶される。この仮想空間情報であるオブジェクト情報を、例えば各フレーム毎に更新する処理などが行われる。そして移動処理部112は、このように設定された仮想空間において、プリミティブ等のオブジェクトを移動させる処理を行う。例えばプリミティブ等のオブジェクトの情報を更新する処理を行う。またオブジェクトを動作させるモーション処理など行う。 The movement processing unit 112 performs processing for moving objects such as primitives in the virtual space. For example, in the present embodiment, processing for setting a virtual space (object space) in which a plurality of objects are arranged is performed. For example, moving objects (people, robots, cars, trains, airplanes, ships, monsters or animals, etc.), maps (terrain), buildings, spectator seats, courses (roads), trees, walls, water surfaces, etc. A process of arranging and setting objects (objects composed of primitives such as polygons, free-form surfaces, subdivision surfaces, etc.) in the virtual space is performed. That is, the position and rotation angle (synonymous with orientation and direction) of the object in the world coordinate system are determined, and at that position (X, Y, Z) at that rotation angle (rotation angle around the X, Y, Z axes) the object is placed. Specifically, in the virtual space information storage unit 177 of the storage unit 170, object information such as the position, rotation angle, movement speed, movement direction, etc. of an object in the virtual space is stored as virtual space information. are stored in association with A process of updating the object information, which is the virtual space information, for each frame, for example, is performed. Then, the movement processing unit 112 performs processing for moving objects such as primitives in the virtual space thus set. For example, a process of updating information of objects such as primitives is performed. It also performs motion processing for moving objects.

テクスチャ生成部114は、プリミティブにマッピングするテクスチャの生成処理を行う。例えば取得部110により取得された撮影画像に基づいてテクスチャを生成する処理を行う。 The texture generation unit 114 performs processing for generating textures to be mapped onto primitives. For example, processing for generating a texture is performed based on the captured image acquired by the acquisition unit 110 .

画像生成部120は、画像の生成処理を行う。例えば処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178に描画する。これにより、仮想空間において仮想カメラから見える仮想空間画像が生成される。なお画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。 The image generator 120 performs image generation processing. For example, drawing processing is performed based on the results of various processes performed by the processing unit 100 to generate an image and display it on the display unit 190 . Specifically, geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. coordinates, texture coordinates, color data, normal vectors or alpha values, etc.) are created. Based on this drawing data (primitive surface data), an object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is drawn in the drawing buffer 178 . As a result, a virtual space image viewed from the virtual camera in the virtual space is generated. Note that the drawing processing performed by the image generation unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音の生成処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などを生成し、音出力部192に出力させる。 The sound generation unit 130 performs sound generation processing based on the results of various processes performed by the processing unit 100 . Specifically, it generates music (music, BGM), sound effects, voice, or the like, and causes the sound output unit 192 to output it.

そして本実施形態のゲームシステムは、図1に示すように、投稿処理部102とパラメータ設定部104とゲーム処理部106を含む。 The game system of this embodiment includes a post processing unit 102, a parameter setting unit 104, and a game processing unit 106, as shown in FIG.

投稿処理部102は、投稿コンテンツを投稿サイトに投稿する処理を行う。投稿コンテンツは例えばプレーヤの投稿画像又は投稿動画である。投稿コンテンツは例えばプレーヤによる撮影コンテンツである。投稿画像又は投稿動画は、例えばプレーヤが撮影部162により対象物を撮影した画像又は動画である。対象物は例えばプレーヤが所有する現実世界の物体であり、例えばプラモデル、フィギュア又は人形又等である。対象物は、例えばプレーヤがプレイするゲームに登場するキャラクタ等の表示物に対応する現実世界の物体である。投稿画像又は投稿動画は、ゲーム画像又はゲーム動画であってもよい。ゲーム画像又はゲーム動画は、プレーヤがプレイするゲームの様子をキャプチャした画像又は動画である。例えばゲーム動画は、プレーヤのゲームプレイ動画又はゲーム実況動画と呼ばれるものである。投稿処理部102は、投稿コンテンツを投稿サイトに投稿する処理として、プレーヤの投稿画像又は投稿動画である投稿コンテンツをネットワークにアップロードする処理を行う。アップロードされる投稿コンテンツには、例えばプレーヤがプレイするゲームのIDやユーザのIDが対応づけられる。投稿サイトは、投稿画像又は投稿動画である投稿コンテンツをアップロード可能なネットワーク上のサイトであり、画像投稿サイト又は動画投稿サイトと呼ばれるものである。投稿サイトは、例えば不特定多数の利用者が投稿コンテンツを投稿可能なサイトである。投稿サイトは、プレーヤがプレイするゲームのメーカが運用するものであってもよい。或いは投稿サイトは、動画共有サービス又は画像共有サービスのように、インターネット上のサーバに不特定多数の利用者が投稿した投稿動画又は投稿画像を、不特定多数の利用者で共有して視聴可能にするサービスによる投稿サイトであってもよい。 The posting processing unit 102 performs processing for posting posted content to a posting site. Posted content is, for example, a player's posted image or posted video. Posted content is, for example, captured content by a player. A posted image or posted video is, for example, an image or video of an object shot by the player using the shooting unit 162 . The object is, for example, a real-world object owned by the player, such as a plastic model, a figure, or a doll. The object is a real-world object corresponding to a display object such as a character appearing in a game played by the player. The posted image or posted video may be a game image or game video. A game image or a game video is an image or video that captures a state of a game played by a player. For example, the game animation is called a player's gameplay animation or a game commentary animation. The posting processing unit 102 performs a process of uploading posted content, which is a player's posted image or posted video, to a network as a process of posting posted content to a posting site. The posted content to be uploaded is associated with, for example, the ID of the game played by the player or the ID of the user. A posting site is a site on a network to which posted content such as a posted image or a posted video can be uploaded, and is called an image posting site or a video posting site. A posting site is, for example, a site where an unspecified number of users can post posted content. The posting site may be operated by the maker of the game played by the player. Alternatively, a posting site, such as a video sharing service or image sharing service, allows an unspecified number of users to share and view posted videos or posted images posted by an unspecified number of users on a server on the Internet. It may be a posting site by a service that provides

パラメータ設定部104は、投稿コンテンツを閲覧した投稿サイトの利用者による投稿コンテンツのインプレッション情報(閲覧指標情報)を取得する。取得されたインプレッション情報はインプレッション情報記憶部172に記憶される。例えばパラメータ設定部104は、投稿サイトにおいて投稿サイトの利用者が投稿コンテンツを閲覧したことにより投稿コンテンツに与えられたインプレッション情報を、例えば投稿サイトから取得する。そして取得したインプレッション情報に基づいてゲームパラメータを設定する。設定されたゲームパラメータはパラメータ記憶部174に記憶される。インプレッション情報(インプレッションパラメータ)は、例えば投稿サイトでの利用者による投稿コンテンツの閲覧の結果、投稿コンテンツに与えられる情報(パラメータ)である。例えばインプレッション情報は、投稿コンテンツの閲覧数情報、閲覧時間情報、閲覧評価情報又は伝達数情報などの投稿コンテンツの閲覧に関する指標情報である。投稿コンテンツに与えられたインプレッション情報は、投稿コンテンツに関連づけられて、例えば投稿サイトのデータベースに記憶される。インプレッション情報は、投稿コンテンツに対するインプレッションの評価値を表すものであり、投稿コンテンツに対するインプレッションの評価値は、例えば投稿サイトでの利用者の閲覧数が多くなるほど高い評価値になる。或いはインプレッションの評価値は、投稿コンテンツに対して高い評価を与えて支持した利用者の支持数が多くなるほど、高い評価値になる。或いはインプレッションの評価値は、利用者による投稿コンテンツの閲覧時間が長くなるほど、高い評価値になる。或いは、インプレッションの評価値は、投稿サイトの利用者が他の利用者に対して当該投稿コンテンツを伝達した数が多くなるほど、高い評価値になる。例えば投稿コンテンツを閲覧した利用者が、リツイートなどにより当該投稿コンテンツを他の利用者に伝達した数が多くなるほど、インプレッションの評価値は高い評価値になる。 The parameter setting unit 104 acquires impression information (browsing index information) of the posted content by users of the posting site who viewed the posted content. The acquired impression information is stored in the impression information storage unit 172 . For example, the parameter setting unit 104 acquires, from the posting site, impression information given to the posted content by the user of the posting site viewing the posted content on the posting site. Then, the game parameters are set based on the acquired impression information. The set game parameters are stored in the parameter storage section 174 . The impression information (impression parameter) is, for example, information (parameter) given to the posted content as a result of browsing of the posted content by the user on the posting site. For example, the impression information is index information related to viewing of posted content, such as viewing count information, viewing time information, viewing evaluation information, or transmission count information of posted content. The impression information given to the posted content is associated with the posted content and stored, for example, in the database of the posting site. The impression information represents the evaluation value of the impression of the posted content, and the evaluation value of the impression of the posted content becomes higher, for example, as the number of user views on the posting site increases. Alternatively, the evaluation value of the impression becomes higher as the number of users who give high evaluations to the posted content and support it increases. Alternatively, the evaluation value of the impression becomes higher as the viewing time of the posted content by the user becomes longer. Alternatively, the evaluation value of the impression becomes higher as the number of times that the user of the posting site communicates the posted content to other users increases. For example, the higher the number of times a user who browses posted content communicates the posted content to other users by retweeting or the like, the higher the evaluation value of the impression.

パラメータ設定部104は、このようなインプレッション情報に基づいて、ゲーム処理に使用されるゲームパラメータを設定する。例えば投稿コンテンツに対するインプレッションの評価値に基づいて、ゲームパラメータを設定する。例えばインプレッションの評価値が高い評価値になるほど、プレーヤにとってより有利になるようにゲームパラメータを設定する。例えばパラメータ設定部104は、投稿コンテンツである投稿画像又は投稿動画に映る対象物に対応するキャラクタ等の表示物のゲームパラメータを設定する。例えば投稿画像又は投稿動画が、現実世界の対象物を撮影した撮影画像又は撮影動画である場合には、パラメータ設定部104は、当該対象物に対応するキャラクタ等の表示物のゲームパラメータを設定する。また投稿画像又は投稿動画が、プレーヤがプレイするゲームの様子をキャプチャしたゲーム画像又はゲーム動画である場合には、パラメータ設定部104は、ゲーム画像又はゲーム動画に映る対象物であるキャラクタ等の表示物のゲームパラメータを設定する。例えばパラメータ設定部104は、キャラクタ等の表示物の攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等のゲームパラメータを設定する。例えばインプレッションの評価値が高い評価値になるほど、攻撃力、守備力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等が高くなるように、ゲームパラメータを設定する。 The parameter setting unit 104 sets game parameters used for game processing based on such impression information. For example, the game parameters are set based on the impression evaluation value for the posted content. For example, the game parameters are set such that the higher the impression evaluation value, the more advantageous the player. For example, the parameter setting unit 104 sets game parameters of a display object such as a character corresponding to an object appearing in a posted image or posted video that is posted content. For example, when the posted image or posted video is a captured image or captured video of an object in the real world, the parameter setting unit 104 sets game parameters for a display object such as a character corresponding to the object. . Further, when the posted image or posted video is a game image or game video that captures the state of the game played by the player, the parameter setting unit 104 displays characters or the like that are objects appearing in the game image or game video. Set game parameters for things. For example, the parameter setting unit 104 sets game parameters such as attack power, defense power, endurance, movement ability, running ability, special ability, hit points, magic points, or level of displayed objects such as characters. For example, the game parameters are set such that the higher the impression evaluation value, the higher the attack power, defense power, movement ability, running ability, special ability, hit points, magic points, level, or the like.

そしてゲーム処理部106は、インプレッション情報に基づき設定されたゲームパラメータに基づいて、投稿コンテンツの投稿者であるプレーヤがプレイするゲームのゲーム処理を行う。例えばプレーヤがプレイするゲームには、投稿画像又は投稿動画に映る対象物に対応するキャラクタ等の表示物が登場する。パラメータ設定部104は、このキャラクタ等の表示物のゲームパラメータを設定する。そしてゲーム処理部106は、設定されたゲームパラメータに基づいて、キャラクタ等の表示物が登場するゲームのゲーム処理を行う。例えばゲームの開始処理、ゲームの進行処理、ゲームの終了処理又はゲーム成績の演算処理などを行う。例えばゲーム処理部106は、キャラクタ等の表示物の攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等のゲームパラメータに基づいて、ゲーム処理を行う。例えばインプレッションの評価値が高いほど有利な値に設定されたこれらのゲームパラメータに基づいて、ゲーム処理を行う。 Then, the game processing unit 106 performs game processing of the game played by the player who posted the posted content, based on the game parameters set based on the impression information. For example, in a game played by a player, a display object such as a character corresponding to an object appearing in a posted image or posted video appears. A parameter setting unit 104 sets game parameters of the displayed object such as the character. Then, the game processing unit 106 performs game processing of a game in which display objects such as characters appear, based on the set game parameters. For example, it performs game start processing, game progress processing, game end processing, or calculation processing of game results. For example, the game processing unit 106 performs game processing based on game parameters such as attack power, defense power, endurance, movement ability, running ability, special ability, hit points, magic points, or level of displayed objects such as characters. . For example, game processing is performed based on these game parameters that are set to advantageous values for higher impression evaluation values.

またゲーム処理部106は、投稿コンテンツに関連するキャラクタが登場するゲームのゲーム処理を行う。そしてパラメータ設定部104は、インプレッション情報に基づいて、キャラクタについてのゲームパラメータを設定する。例えばプレーヤがプレイするゲームには、投稿コンテンツに関連するキャラクタが登場する。投稿コンテンツに関連するキャラクタとは、例えば投稿画像又は投稿動画である撮影画像又は撮影動画に映る対象物に対応するキャラクタや、或いは投稿画像又は投稿動画であるゲーム画像又はゲーム動画に映るキャラクタである。そしてプレーヤが投稿コンテンツを投稿サイトに投稿し、投稿コンテンツのインプレッション情報が取得されると、取得されたインプレッション情報に基づいて、投稿サイトに関連するキャラクタについてのゲームパラメータが設定される。即ち、投稿コンテンツである撮影画像又は撮影動画に映る対象物に対応するキャラクタや、或いは投稿コンテンツであるゲーム画像又はゲーム動画に映るキャラクタのゲームパラメータが設定される。例えばキャラクタの攻撃力、守備力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等のゲームパラメータが設定される。そして設定されたゲームパラメータに基づいて、キャラクタが登場するゲームのゲーム処理が実行されるようになる。 The game processing unit 106 also performs game processing of a game in which a character related to posted content appears. Then, the parameter setting unit 104 sets game parameters for the character based on the impression information. For example, characters related to posted content appear in a game played by a player. A character related to the posted content is, for example, a character corresponding to an object appearing in a photographed image or a photographed video that is a posted image or a posted video, or a character that appears in a game image or a game video that is a posted image or a posted video. . When the player posts the posted content to the posting site and acquires the impression information of the posted content, game parameters for the character related to the posting site are set based on the acquired impression information. That is, the game parameters of the character corresponding to the object appearing in the photographed image or photographed moving image, which is the posted content, or the character appearing in the game image or the game moving image, which is the posted content, are set. For example, game parameters such as attack power, defense power, movement ability, running ability, special ability, hit points, magic points, or level of the character are set. Then, the game processing of the game in which the character appears is executed based on the set game parameters.

またパラメータ設定部104は、投稿コンテンツに映る対象物の分析結果に基づいて、ゲームパラメータの基礎パラメータ値を設定する。そして基礎パラメータ値に設定されたゲームパラメータを、インプレッション情報に基づいて変化させる。例えば分析部111が、投稿コンテンツに映る対象物の分析処理を行う。例えば対象物のシルエット分析等を行い、対象物の種類を特定する。そしてパラメータ設定部104は、ゲームパラメータの値として、対象物の種類に応じた基礎パラメータ値を設定する。例えばキャラクタ等の表示物の攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等についての基礎パラメータ値を設定する。例えばパラメータ設定部104は、対象物の分析結果に基づいて対象物が第1の種類であると判断された場合には、ゲームパラメータの値を第1の基礎パラメータ値に設定し、対象物が第2の種類であると判断された場合には、ゲームパラメータの値を第2の基礎パラメータ値に設定する。そしてパラメータ設定部104は、このように基礎パラメータ値に設定されたゲームパラメータの値を、インプレッション情報に基づいて変化させる。例えばインプレッションの評価値が高いほど、ゲームパラメータの値が、基礎パラメータ値から増加するように、ゲームパラメータを設定する。具体的には、インプレッションの評価値が高いほど、攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等のゲームパラメータの値が、基礎パラメータ値から増加するように、ゲームパラメータを変化させる。 Also, the parameter setting unit 104 sets the basic parameter values of the game parameters based on the analysis result of the object appearing in the posted content. Then, the game parameters set as the basic parameter values are changed based on the impression information. For example, the analysis unit 111 analyzes an object appearing in posted content. For example, silhouette analysis of the object is performed, and the type of the object is specified. Then, the parameter setting unit 104 sets a basic parameter value corresponding to the type of object as the value of the game parameter. For example, basic parameter values are set for the offensive power, defensive power, endurance, movement ability, running ability, special ability, hit points, magic points, level, etc. of displayed objects such as characters. For example, when the object is determined to be of the first type based on the analysis result of the object, the parameter setting unit 104 sets the value of the game parameter to the first basic parameter value, and the object is If it is determined to be of the second type, the value of the game parameter is set to the second basic parameter value. Then, the parameter setting unit 104 changes the value of the game parameter set as the basic parameter value in this way based on the impression information. For example, the game parameters are set such that the higher the impression evaluation value, the higher the game parameter value from the basic parameter value. Specifically, the higher the impression evaluation value, the higher the value of game parameters such as attack power, defense power, endurance, movement ability, running ability, special ability, hit points, magic points, or level. Vary game parameters to increase.

またパラメータ設定部104は、対象物を撮影部162により撮影した撮影画像に基づいて、対象物の分析処理を行い、分析処理の分析結果に基づいて、基礎パラメータ値を設定する。例えば現実世界の対象物が撮影部162により撮影される。そして分析部111が、撮影画像に基づいて対象物のシルエット分析等を行って、対象物の種類等を特定する。そしてパラメータ設定部104は、特定された対象物の種類等に応じた基礎パラメータ値にゲームパラメータを設定する。この場合に投稿処理部102が投稿処理を行う投稿コンテンツは、撮影部162により対象物を撮影した撮影画像又は撮影動画である。 The parameter setting unit 104 also performs analysis processing of the object based on the captured image of the object captured by the imaging unit 162, and sets basic parameter values based on the analysis result of the analysis processing. For example, an object in the real world is captured by the capturing unit 162 . Then, the analysis unit 111 performs silhouette analysis of the target object based on the photographed image, and identifies the type of the target object. Then, the parameter setting unit 104 sets the game parameters to basic parameter values corresponding to the type of the identified object. In this case, the posted content for which the posting processing unit 102 performs the posting process is a photographed image or a photographed moving image obtained by photographing the object by the photographing unit 162 .

またインプレッション情報は、投稿コンテンツの支持数の情報、閲覧数の情報、閲覧時間の情報、又は他の利用者への投稿コンテンツの伝達数の情報である。投稿コンテンツの支持数の情報は、例えば投稿コンテンツに対して「イイネ」などの高い良い評価が与えられた回数や投稿コンテンツに高い評価を与えた利用者の人数などの情報である。閲覧数の情報は、投稿コンテンツの閲覧回数や投稿コンテンツを閲覧した利用者の人数などの情報である。閲覧時間の情報は、投稿コンテンツを閲覧した利用者の閲覧時間や閲覧の総時間の情報である。他の利用者への投稿コンテンツの伝達数の情報は、投稿コンテンツを閲覧した利用者が、他の利用者に対してリツイートなどにより投稿コンテンツを伝達した回数や伝達した利用者の人数の情報である。インプレッション情報であるインプレッションの評価値は、投稿コンテンツの支持数、閲覧数又は伝達数が多いほど、或いは閲覧時間が長いほど、高い評価値に設定され、これによりゲームパラメータは、プレーヤをより有利(優遇)する値に設定される。 Impression information is information on the number of times the posted content has been supported, information on the number of views, information on the viewing time, or information on the number of times the posted content has been transmitted to other users. The information on the number of support for posted content is, for example, information such as the number of times the posted content was given a high evaluation such as “Like” or the number of users who gave the posted content a high evaluation. The information on the number of views is information such as the number of times the posted content has been viewed and the number of users who have viewed the posted content. The browsing time information is information on the browsing time of the user who browsed the posted content and the total browsing time. Information on the number of transmissions of posted content to other users is information on the number of times a user who viewed the posted content transmitted the posted content to other users by retweeting, etc., and the number of users who transmitted the posted content. be. The evaluation value of the impression, which is the impression information, is set to a higher evaluation value as the number of support, the number of views, or the number of transmissions of the posted content increases, or the viewing time increases. preferential).

またパラメータ設定部104は、投稿サイトにおいて投稿コンテンツを閲覧することで投稿コンテンツにインプレッション情報を与えた利用者が、プレーヤと所定関係を有するプレーヤであるか否かに応じて、ゲームパラメータの設定に用いるインプレッション情報を変化させる。プレーヤと所定関係を有するプレーヤは、例えばゲームにおいて所定関係を有するとして扱われるプレーヤである。例えばプレーヤと所定関係を有するプレーヤは、プレーヤのフレンドプレーヤや、プレーヤと同一グループ(同一チーム等)に属するプレーヤなどである。投稿コンテンツにインプレッション情報を与えた利用者が、このようなフレンドプレーヤや同一グループプレーヤなどの所定関係を有するプレーヤである場合には、所定関係を有しない場合と比べて、インプレッション情報を異ならせる。例えばインプレッション情報を与えた利用者が所定関係を有するプレーヤである場合には、インプレッションの評価値が高い評価値になるようにインプレッション情報を変化させる。そしてパラメータ設定部104は、このように変化したインプレッション情報に基づいてゲームパラメータを設定する。例えば、所定関係を有するプレーヤであるかに応じて変化するインプレッション情報に基づいて、ゲームパラメータの基礎パラメータ値を設定する。 In addition, the parameter setting unit 104 sets the game parameters according to whether or not the user who gives the impression information to the posted content by browsing the posted content on the posting site is a player having a predetermined relationship with the player. Vary the impression information used. A player having a predetermined relationship with a player is, for example, a player who is treated as having a predetermined relationship in a game. For example, a player having a predetermined relationship with the player is a player's friend player, a player belonging to the same group (same team, etc.) as the player, or the like. When a user who gives impression information to posted contents is a player having a predetermined relationship such as a friend player or a player in the same group, the impression information is made different from a case where the user does not have the predetermined relationship. For example, if the user who gave the impression information is a player with a predetermined relationship, the impression information is changed so that the evaluation value of the impression becomes a high evaluation value. Then, the parameter setting unit 104 sets game parameters based on the changed impression information. For example, basic parameter values of game parameters are set based on impression information that changes depending on whether the player has a predetermined relationship.

またパラメータ設定部104は、プレーヤの投稿情報に基づいて、プレーヤの個人情報を設定する。そして設定された個人情報に応じて、ゲームパラメータの設定に用いるインプレッション情報を変化させる。例えばプレーヤの投稿コンテンツの投稿に関する情報である投稿情報を収集する。例えば投稿履歴などに関する情報である投稿情報を収集する。そしてパラメータ設定部104は、この投稿情報に基づいて、各プレーヤに対応づけられるプレーヤの個人情報の設定処理を行う。例えばプレーヤの個人情報として設定されるプレーヤパラメータの設定処理を行う。そしてパラメータ設定部104が、プレーヤの個人情報に基づいて変化するインプレッション情報に基づいて、ゲームパラメータを設定する。 Also, the parameter setting unit 104 sets the player's personal information based on the player's posted information. Then, the impression information used for setting the game parameters is changed according to the set personal information. For example, it collects posted information, which is information about posting of posted content by a player. For example, it collects posted information, which is information about posting histories. Then, the parameter setting unit 104 performs setting processing of the player's personal information associated with each player based on the posted information. For example, player parameter setting processing, which is set as the player's personal information, is performed. Then, the parameter setting unit 104 sets game parameters based on the impression information that changes based on the player's personal information.

例えば投稿情報は、プレーヤの投稿コンテンツ数、投稿回数、又は投稿時間の累積時間の情報である。例えばパラメータ設定部104は、プレーヤがこれまでに投稿した投稿コンテンツの数である投稿コンテンツ数や、投稿コンテンツを投稿した回数である投稿回数や、或いは投稿サイトでの投稿コンテンツの投稿時間の累積時間などの投稿情報に基づいて、プレーヤの個人情報を設定する。例えば投稿コンテンツ数、投稿回数又は投稿累積時間が多いプレーヤであるかを特定する個人情報を設定する。そして投稿コンテンツ数、投稿回数又は投稿累積時間に応じて設定される個人情報に応じて、インプレッション情報を変化させる。例えばプレーヤの投稿コンテンツ数又は投稿回数が多いほど、或いは投稿累積時間が長いほど、当該プレーヤについてのインプレッションの評価値を高い評価値に設定する。そしてパラメータ設定部104は、プレーヤの投稿コンテンツ数又は投稿回数が多いほど、或いは投稿累積時間が長いほど、当該プレーヤのゲームプレイが有利になるように、ゲームパラメータを設定する。 For example, the posted information is information on the number of pieces of content posted by the player, the number of times of posting, or the accumulated time of posting. For example, the parameter setting unit 104 may set the number of posted contents, which is the number of posted contents that the player has posted so far, the number of times of posting, which is the number of times the posted contents have been posted, or the cumulative time of posting of the posted contents on the posting site. Set the player's personal information based on posted information such as For example, personal information is set to specify whether the player has a large number of posted contents, a large number of postings, or a large number of cumulative posting times. Impression information is changed according to personal information set according to the number of posted contents, the number of times of posting, or the cumulative time of posting. For example, the higher the number of pieces of posted content or the number of times of posting by a player, or the longer the accumulated posting time, the higher the evaluation value of the impression of the player is set. Then, the parameter setting unit 104 sets the game parameters so that the player's game play becomes more advantageous as the number of pieces of posted content or the number of times of posting by the player increases, or as the posted cumulative time increases.

またゲーム処理部106は、プレーヤがプレイするゲームの結果に応じて、ゲームポイントをプレーヤに獲得させる処理を行う。そして投稿処理部102は、プレーヤによる投稿コンテンツの投稿の際に、プレーヤのゲームポイントを消費させる処理を行う。例えばプレーヤがゲームをプレイしたり、ゲームプレイにより良いゲーム結果が出た場合に、所定ポイントであるゲームポイントをプレーヤに獲得させる。そして、プレーヤが投稿コンテンツを投稿する操作を行った際に、プレーヤが所有するゲームポイントから所定ポイントを減算するなどして、ゲームポイントを消費させる。即ちゲームポイントの消費を条件に、プレーヤによる投稿サイトへの投稿コンテンツの投稿を許可する。そして、投稿コンテンツのインプレッション情報に基づいて、ゲームパラメータが設定され、設定されたゲームパラメータに基づいて、プレーヤがゲームをプレイするためのゲーム処理が行われる。そしてこのプレーヤのゲームプレイによるゲームの結果に基づいて、プレーヤにゲームポイントを獲得させる。 Also, the game processing unit 106 performs processing for allowing the player to obtain game points according to the result of the game played by the player. Then, the posting processing unit 102 performs processing for consuming the player's game points when the player posts the posted content. For example, when a player plays a game or when a good game result is obtained by playing the game, the player is allowed to acquire game points, which are predetermined points. Then, when the player performs an operation to post the posted content, the game points are consumed by, for example, subtracting predetermined points from the game points owned by the player. In other words, the player is permitted to post content to the posting site on the condition that game points are consumed. Then, game parameters are set based on the impression information of the posted content, and game processing for the player to play the game is performed based on the set game parameters. Then, based on the results of the game played by the player, the player is allowed to acquire game points.

また投稿処理部102は、プレーヤが投稿した投稿コンテンツに対して、プレーヤがプレイするゲームのゲームIDを関連づける処理を行う。ゲームIDは、ゲームを識別するための情報であり、例えばゲームのメーカが各ゲームのタイトルなどに応じて付与するIDである。パラメータ設定部104は、このゲームIDが関連づけられた投稿コンテンツのインプレッション情報を取得する。そして、取得したインプレッション情報に基づいて、ゲームIDに対応するゲームのゲームパラメータを設定する。例えば投稿処理部102は、ゲームIDが関連づけられた投稿コンテンツを投稿サイトに投稿する処理を行う。そして、この投稿コンテンツを閲覧した利用者によるインプレッション情報が投稿コンテンツに与えられる。この場合にインプレッション情報が与えられた投稿コンテンツには、ゲームIDが関連づけられている。パラメータ設定部104は、ゲームIDが関連づけられた投稿コンテンツのインプレッション情報を例えば投稿サイトから取得する。そしてゲームIDに基づいて、当該投稿コンテンツに関連づけられたゲームを特定し、特定されたゲームのゲームパラメータを設定する。 The posting processing unit 102 also performs a process of associating the posted content posted by the player with the game ID of the game played by the player. A game ID is information for identifying a game, and is, for example, an ID given by a game maker according to the title of each game. The parameter setting unit 104 acquires impression information of posted content associated with this game ID. Then, based on the obtained impression information, the game parameters of the game corresponding to the game ID are set. For example, the posting processing unit 102 performs a process of posting posted content associated with a game ID to a posting site. Impression information by the user who viewed this posted content is given to the posted content. In this case, the game ID is associated with the posted content to which the impression information is given. The parameter setting unit 104 acquires impression information of posted content associated with the game ID from, for example, a posting site. Based on the game ID, the game associated with the posted content is specified, and the game parameters of the specified game are set.

また本実施形態のゲームシステムは、図1に示すように、取得部110と記憶部170と移動処理部112とテクスチャ生成部114と画像生成部120を更に含む。 The game system of this embodiment further includes an acquisition unit 110, a storage unit 170, a movement processing unit 112, a texture generation unit 114, and an image generation unit 120, as shown in FIG.

取得部110は、撮影部162により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する。撮影画像群は、例えばデジタルカメラにより撮影された複数の静止画であってもよいし、デジタルカメラやビデオカメラにより撮影された動画を構成する複数の画像であってもよい。この場合には撮影画像群は例えばMPEG等により符号化された動画を構成する画像群になる。即ち撮影画像群はMPEG等のムービー映像であってもよい。なお本実施形態のゲームシステムは撮影部162を有していなくてもよく、この場合には、取得部110は、I/F部194や通信部196を介して撮影画像を取得する。 The acquiring unit 110 acquires a captured image group obtained by capturing an object from a plurality of capturing directions using the capturing unit 162 . The captured image group may be, for example, a plurality of still images captured by a digital camera, or may be a plurality of images forming a moving image captured by a digital camera or a video camera. In this case, the photographed image group becomes a group of images constituting a moving image encoded by MPEG or the like. That is, the photographed image group may be movie images such as MPEG. Note that the game system of this embodiment does not have to have the imaging unit 162 , and in this case, the acquisition unit 110 acquires the captured image via the I/F unit 194 and the communication unit 196 .

記憶部170は、取得された撮影画像群を記憶する。例えば取得部110が撮影画像群を取得すると、取得された撮影画像群の情報が記憶部170に保存されて記憶される。具体的には記憶部170の撮影画像情報記憶部176が撮影画像群の情報を記憶する。 The storage unit 170 stores the acquired photographed image group. For example, when the acquisition unit 110 acquires a group of captured images, information on the acquired group of captured images is saved and stored in the storage unit 170 . Specifically, the captured image information storage unit 176 of the storage unit 170 stores the information of the captured image group.

移動処理部112は、移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う。例えば移動制御情報に基づいて、仮想空間においてプリミティブを並進移動させたり回転移動させる処理を行う。移動制御情報は、プリミティブの移動制御を行うための情報である。移動制御情報としては、例えば操作部160などを用いてプレーヤにより入力される操作入力情報を用いることができる。或いはプリミティブの一連の移動を制御する移動制御情報を記憶部170に記憶しておき、記憶された移動制御情報を記憶部170から読み出すことで、プリミティブの移動制御を行うようにしてもよい。このようにすれば、移動制御情報に応じてプリミティブが自動的に移動するような移動制御を実現できる。これにより、例えば対象物に対応する表示物(例えば魚や動物等)の観賞を可能にするようなゲームシステムなどを実現できる。 The movement processing unit 112 performs processing for moving primitives in the virtual space based on the movement control information. For example, based on the movement control information, the primitive is translated or rotated in the virtual space. The movement control information is information for controlling the movement of primitives. Operation input information input by the player using the operation unit 160, for example, can be used as the movement control information. Alternatively, movement control information for controlling a series of movements of primitives may be stored in the storage unit 170, and the stored movement control information may be read from the storage unit 170 to control the movement of primitives. In this way, it is possible to implement movement control such that the primitive automatically moves according to the movement control information. As a result, for example, a game system or the like that enables viewing of display objects (for example, fish, animals, etc.) corresponding to the target object can be realized.

テクスチャ生成部114は、撮影画像群から選択された撮影画像に基づいて、プリミティブにマッピングするテクスチャを生成する処理を行う。例えばプリミティブの移動制御情報に応じて撮影画像群から選択された撮影画像に基づいて、テクスチャを生成する処理を行う。具体的にはプリミティブの移動制御情報に基づいて、撮影画像群から当該移動制御情報に対応する撮影画像を記憶部170から読み出す。そしてテクスチャ生成部114は、読み出された撮影画像に基づいてテクスチャを生成する。例えば対象物を撮影した撮影画像のうち、対象物の映る部分をテクスチャの画像として生成する。具体的には、撮影画像のうちの背景の画像の部分を透明にし、対象物の画像の部分を切り抜いて、テクスチャを生成する。当該テクスチャをプリミティブにマッピングすることで、対象物に対応する表示物の画像を表示できるようになる。ここでプリミティブは、例えばプリミティブ面であり、例えばポリゴンである。具体的にはプリミティブは、仮想カメラに対して正対して配置されるビルボードポリゴンである。なおプリミティブは、自由曲面やサブディビジョンサーフェイスなどであってもよい。 The texture generation unit 114 performs processing for generating textures to be mapped onto primitives based on the captured images selected from the captured image group. For example, texture generation processing is performed based on a photographed image selected from a photographed image group in accordance with primitive movement control information. Specifically, based on the movement control information of the primitive, the photographed image corresponding to the movement control information is read from the storage unit 170 from the photographed image group. The texture generation unit 114 then generates a texture based on the read photographed image. For example, of a photographed image of an object, a portion of the object in which the object is captured is generated as a texture image. Specifically, the background image portion of the captured image is made transparent, and the image portion of the object is cut out to generate the texture. By mapping the texture to the primitive, it becomes possible to display the image of the display object corresponding to the target object. Here, the primitive is, for example, a primitive surface, such as a polygon. Specifically, the primitives are billboard polygons placed facing the virtual camera. The primitive may be a free-form surface, a subdivision surface, or the like.

画像生成部120は、生成されたテクスチャを、プリミティブにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する。例えば移動制御情報に応じて変化するテクスチャをプリミティブにマッピングして、仮想空間画像を生成する.例えば移動制御情報に応じて撮影画像群から選択された撮影画像に基づくテクスチャを、プリミティブにマッピングすることで、プリミティブにマッピングされるテクスチャが、プリミティブの移動制御情報に応じて変化するようになる。即ち対象物を複数の撮影方向から撮影することで得られた撮影画像群の中から、プリミティブの移動制御状態に適合した撮影画像を選択し、選択された撮影画像に基づき生成されたテクスチャを、プリミティブにマッピングする。このようにすることで、プリミティブの移動制御の状態に応じたテクスチャの画像がプリミティブにマッピングされて、対象物に対応する表示物が表示された仮想空間画像を生成できるようになる。 The image generation unit 120 maps the generated textures to primitives to generate a virtual space image seen from a virtual camera in the virtual space. For example, a virtual space image is generated by mapping textures that change according to movement control information to primitives. For example, by mapping a texture based on a captured image selected from a captured image group according to movement control information to a primitive, the texture mapped to the primitive changes according to the movement control information of the primitive. That is, from among a group of captured images obtained by capturing images of an object from a plurality of capturing directions, a captured image that conforms to the primitive movement control state is selected, and a texture generated based on the selected captured image is Mapping to primitives. By doing so, a texture image corresponding to the movement control state of the primitive is mapped to the primitive, and a virtual space image in which a display object corresponding to the object is displayed can be generated.

また移動処理部112は、プリミティブと仮想カメラの位置関係が固定された状態で、プリミティブ及び仮想カメラを移動制御情報に応じて移動させる処理を行う。例えばプリミティブと仮想カメラとの距離が一定距離になるようにプリミティブと仮想カメラの位置関係を固定する。一例としては、プリミティブが仮想カメラと正対し、且つ、プリミティブと仮想カメラとの距離が一定距離になるようにプリミティブと仮想カメラの位置関係を固定する。プリミティブが仮想カメラに正対する状態は、例えば仮想カメラの視線方向がプリミティブの面に直交する状態である。そして移動処理部112は、このようにプリミティブと仮想カメラの位置関係が固定された状態で、プリミティブ及び仮想カメラを一体にして移動させる処理を行う。例えば仮想空間において上、下、左又は右に並進移動させる移動制御情報である場合には、移動処理部112は、プリミティブ及び仮想カメラを上、下、左又は右に並進移動させる処理を行う。或いは、仮想空間においてX軸、Y軸又はZ軸回りに回転移動させる移動制御情報である場合には、移動処理部112は、プリミティブ及び仮想カメラをX軸、Y軸又はZ軸回りに回転移動させる処理を行う。 The movement processing unit 112 also performs processing for moving the primitive and the virtual camera according to the movement control information while the positional relationship between the primitive and the virtual camera is fixed. For example, the positional relationship between the primitive and the virtual camera is fixed so that the distance between the primitive and the virtual camera is constant. As an example, the positional relationship between the primitive and the virtual camera is fixed so that the primitive faces the virtual camera and the distance between the primitive and the virtual camera is constant. The state in which the primitive faces the virtual camera is, for example, the state in which the line-of-sight direction of the virtual camera is orthogonal to the surface of the primitive. Then, the movement processing unit 112 performs processing for moving the primitive and the virtual camera integrally while the positional relationship between the primitive and the virtual camera is thus fixed. For example, in the case of movement control information for upward, downward, leftward, or rightward translational movement in the virtual space, the movement processing unit 112 performs processing for upward, downward, leftward, or rightward translational movement of the primitive and the virtual camera. Alternatively, in the case of the movement control information for rotating around the X-axis, Y-axis or Z-axis in the virtual space, the movement processing unit 112 rotates the primitive and the virtual camera around the X-axis, Y-axis or Z-axis. process to cause

また撮影部162は、対象物と、対象物の背景を撮影する。撮影部162はゲームシステムが有するものであってもよいし、ゲームシステムとは別個に設けられるものであってもよい。テクスチャ生成部114は、撮影画像の各ピクセルの色が、背景の色に対応する色か否かを判断する。そして背景の色に対応する色のピクセルであると判断された場合には、背景の色に対応する色のピクセルを透明にする処理を行うことで、テクスチャを生成する。例えばテクスチャ生成部114は、撮影画像の各ピクセル毎に、各ピクセルの色が背景に対応する色か否かを判断する。例えば撮影部162により対象物を撮影する際に、背景の色が緑又は青等の所定色に設定される。例えば対象物の色とは異なる所定色に、背景の色が設定される。例えば対象物が複数の色を有する場合には、これらの複数の色のいずれとも異なる所定色に、背景の色が設定される。例えば撮影時において対象物の周囲に配置される背景物が所定色に設定される。背景の色は、対象物の色と補色の関係の色に設定されていることが望ましい。そしてテクスチャ生成部114は、処理対象となるピクセルが、背景に対応する色(例えば緑又は青等)のピクセルであると判断された場合には、当該ピクセルを透明にする処理を行う。例えば半透明処理であるα合成において、当該ピクセルのα値を0に設定することで、当該ピクセルを透明なピクセルにする。なお以上のようなピクセル毎の処理はピクセルシェーダなどにより実現できる。 Further, the photographing unit 162 photographs the object and the background of the object. The shooting unit 162 may be included in the game system, or may be provided separately from the game system. The texture generation unit 114 determines whether the color of each pixel in the captured image corresponds to the background color. Then, when it is determined that the pixel has a color corresponding to the background color, a texture is generated by performing processing to make the pixel having a color corresponding to the background color transparent. For example, the texture generation unit 114 determines whether or not the color of each pixel of the captured image corresponds to the background. For example, when the photographing unit 162 photographs an object, the background color is set to a predetermined color such as green or blue. For example, the background color is set to a predetermined color different from the color of the object. For example, if the object has multiple colors, the background color is set to a predetermined color different from any of these multiple colors. For example, a background object arranged around an object at the time of photographing is set to a predetermined color. The background color is preferably set to a color that is complementary to the color of the object. Then, when the pixel to be processed is determined to be a pixel of a color (for example, green or blue) corresponding to the background, the texture generation unit 114 performs processing to make the pixel transparent. For example, in alpha compositing, which is translucent processing, by setting the alpha value of the pixel to 0, the pixel is made transparent. Note that the pixel-by-pixel processing as described above can be realized by a pixel shader or the like.

またテクスチャ生成部114は、撮影画像群により構成される動画のシーク制御を移動制御情報に基づいて行うことで、撮影画像群から撮影画像を選択し、選択された撮影画像に基づいてテクスチャを生成する。例えば撮影画像群の動画(ムービー)の早送りや巻き戻しのシーク制御を行い、移動制御情報に対応する撮影画像をシークして選択する。そして選択された撮影画像に基づいてテクスチャを生成する。このようにして生成されたテクスチャが、移動制御情報に応じて並進移動や回転移動するプリミティブにマッピングされる。 Further, the texture generation unit 114 selects a captured image from the captured image group and generates a texture based on the selected captured image by performing seek control of a moving image composed of the captured image group based on the movement control information. do. For example, it performs seek control for fast-forwarding and rewinding of a moving image (movie) of the captured image group, and seeks and selects the captured image corresponding to the movement control information. A texture is then generated based on the selected photographed image. Textures generated in this manner are mapped onto primitives that are translated or rotated according to the movement control information.

また撮影画像群は、対象物に対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる画像群である。望ましくは後述の図21に示すように、撮影画像群は、対象物に対する撮影部162の撮影方向の変化が360度の撮影方向範囲となる画像群である。例えば撮影部162の撮影方向は対象物の方に向いており、対象物を注視する方向に撮影方向が設定されている。撮影方向範囲は、対象物を注視した状態で撮影方向の角度が0度~βと変化する範囲である。そして本実施形態ではβが180度以上に設定されており、望ましくは図21に示すようにβ=360度になっている。 The photographed image group is a group of images in which the change in the photographing direction of the photographing unit 162 with respect to the object falls within a photographing direction range of 180 degrees or more. Desirably, as shown in FIG. 21, which will be described later, the photographed image group is an image group in which the change in the photographing direction of the photographing unit 162 with respect to the object is within a photographing direction range of 360 degrees. For example, the imaging direction of the imaging unit 162 is directed toward the object, and the imaging direction is set in the direction in which the object is gazed at. The shooting direction range is a range in which the angle of the shooting direction changes from 0 degrees to β while the object is being gazed at. In this embodiment, β is set to 180 degrees or more, preferably β=360 degrees as shown in FIG.

また移動処理部112は、移動制御情報に応じてプリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行う。例えばプリミティブを基準にして第2のプリミティブを回転移動するなどの移動処理を行う。そして画像生成部120は、テクスチャがマッピングされたプリミティブの画像と、第2のプリミティブの画像とを含む画像を、仮想空間画像として生成する。例えばプリミティブは、対象物に対応する表示物の画像を表示するためのものであり、当該プリミティブには、対象物の撮影画像に基づくテクスチャがマッピングされる。一方、第2のプリミティブは、例えば対象物に対応する表示物の付随物の画像を表示するためのものである。付随物は、例えば表示物のエフェクト、所持品、装飾品、装備品、武器又は防具などの表示物であり、第2のプリミティブの画像は、表示物のエフェクト、所持品、装飾品、装備品、武器又は防具などの画像になる。第2のプリミティブは、例えばビルボードポリゴン等のポリゴンであってもよいし、自由曲面やサブディビジョンサーフェイスなどであってもよい。或いは第2のプリミティブは、表示物の付随物を表す3次元オブジェクトを構成するものであってもよい。このような第2のプリミティブを用いれば、現実世界の対象物には無いエフェクト、所持品、装飾品、装備品、武器又は防具等の画像を、対象物に対応する表示物に付加して表示できるようになる。 The movement processing unit 112 also performs movement processing of a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information. For example, a movement process such as rotationally moving the second primitive with reference to the primitive is performed. Then, the image generation unit 120 generates, as a virtual space image, an image including the texture-mapped primitive image and the second primitive image. For example, the primitive is for displaying an image of a display object corresponding to the object, and texture based on the photographed image of the object is mapped to the primitive. On the other hand, the second primitive is for displaying, for example, an image of an accompanying object corresponding to the object. The accompaniment is, for example, a display item such as an effect of a display item, a possession, an accessory, equipment, a weapon or armor, and a second primitive image is an effect of a display item, an accessory, an accessory, an accessory, or the like. , images of weapons or armor. The second primitive may be, for example, a polygon such as a billboard polygon, a free-form surface, a subdivision surface, or the like. Alternatively, the second primitive may constitute a three-dimensional object representing an appendage of the representation. By using such a second primitive, images such as effects, belongings, ornaments, equipment, weapons, and armor that are not found in objects in the real world can be displayed by adding them to display objects corresponding to the objects. become able to.

また移動処理部112は、対象物の分析結果に基づき設定される第2のプリミティブの初期配置位置から、プリミティブを基準に第2のプリミティブを移動させる処理を行う。例えば初期配置位置からプリミティブを基準に第2のプリミティブを移動させる処理を、移動制御情報に基づいて行う。例えば分析部111が、現実世界の物体である対象物の分析処理を行う。例えば分析部111は、対象物のシルエット分析等の分析処理を行って、対象物の種類や形状等を特定する。そして移動処理部112は、対象物の種類や形状等に応じた初期配置位置に、第2のプリミティブを配置し、当該初期配置位置から、プリミティブを基準に第2のプリミティブを回転移動したり並進移動させる処理を行う。例えば対象物が第1の種類や第1の形状である場合には、第1の初期配置位置に第2のプリミティブを配置して移動処理を行い、対象物が第2の種類や第2の形状である場合には、第2の初期配置位置に第2のプリミティブを配置して移動処理を行う。 Further, the movement processing unit 112 performs processing for moving the second primitive based on the primitive from the initial placement position of the second primitive set based on the analysis result of the object. For example, a process of moving the second primitive from the initial placement position with reference to the primitive is performed based on the movement control information. For example, the analysis unit 111 performs analysis processing of a target object, which is an object in the real world. For example, the analysis unit 111 performs analysis processing such as silhouette analysis of the target object to identify the type, shape, and the like of the target object. Then, the movement processing unit 112 arranges the second primitive at the initial arrangement position according to the type and shape of the target object, and rotates or translates the second primitive from the initial arrangement position with reference to the primitive. Perform processing to move. For example, when the object is of the first type or the first shape, the second primitive is placed at the first initial placement position and the movement processing is performed, and the object is of the second type or the second shape. If it is a shape, the second primitive is placed at the second initial placement position and movement processing is performed.

また画像生成部120は、第2のプリミティブの隠面消去処理を、移動制御情報に応じて行う。即ち第2のプリミティブは、移動制御情報に応じてプリミティブに対する相対的位置関係が変化するように回転移動したり、並進移動する。そしてプリミティブにより表される表示物に対して、第2のプリミティブにより表される付随物が、仮想カメラから見て隠れる位置に来たと移動制御情報に基づき判断された場合に、第2のプリミティブの隠面消去処理を行う。そしてあたかも、プリミティブにより表される表示物によって、第2のプリミティブにより表される付随物が隠れて見えるようにする隠面消去処理を行う。このようにすることで表示物とその付随物の画像を矛盾なく表示することが可能になる。 The image generator 120 also performs hidden surface removal processing for the second primitive in accordance with the movement control information. That is, the second primitive rotates or translates so that the relative positional relationship with respect to the primitive changes according to the movement control information. Then, when it is determined based on the movement control information that the accompanying object represented by the second primitive has come to a position hidden from the virtual camera with respect to the display object represented by the primitive, the second primitive is moved. Perform hidden surface removal processing. Then, hidden surface removal processing is performed so that the attached object represented by the second primitive appears to be hidden by the display object represented by the primitive. By doing so, it is possible to display images of the display object and its accompanying objects without contradiction.

また第2のプリミティブの画像は、例えばエフェクト画像である。例えば第2のプリミティブの画像は、光、炎、煙、噴射、点滅、爆発、武器攻撃又は魔法攻撃などを表す特殊なグラフィックであるエフェクト(ゲームエフェクト)の画像である。このように第2のプリミティブの画像としてエフェクトの画像を用いれば、現実世界の対象物では発生できないエフェクトを、ゲーム空間である仮想空間内において発生できるようになる。 The image of the second primitive is, for example, an effect image. For example, the second primitive image is an effect (game effect) image, which is a special graphic representing light, flame, smoke, jetting, blinking, explosion, weapon attack, magic attack, or the like. By using the effect image as the second primitive image in this way, it is possible to generate an effect in the virtual space, which is the game space, that cannot be generated with the object in the real world.

また画像生成部120は、仮想空間画像として、プリミティブの画像と、仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成する。そして生成された仮想空間画像に対してポストエフェクト処理を行う。例えばぼかし処理、明るさの調整処理又は色相の調整処理などのポストエフェクト処理を行う。具体的には画像生成部120は、他のオブジェクトが表示される仮想空間画像に対して、プリミティブにより表される表示物が違和感なく表示されるようにするポストエフェクト処理を行う。例えばプリミティブにより表される表示物の輪郭をぼかすようなポストエフェクト処理を行って、表示物と仮想空間画像の境界である輪郭が目立たなくなるようにする。また表示物の明るさと、周囲の仮想空間画像の明るさに差があった場合に、画像生成部120は、この差を小さくするようなポストエフェクト処理を行う。例えばプリミティブにマッピングされるテクスチャは、現実世界において対象物を撮影することで得られる撮影画像に基づき生成されている。このため、撮影環境に応じてテクスチャの画像の明るさも変動し、表示物の画像の明るさと、表示物の周囲の仮想空間画像の明るさとの間に差が生じてしまうが、この明るさの差を低減するようなポストエフェクト処理を画像生成部120が行う。 The image generator 120 also generates, as a virtual space image, an image including a primitive image and images of a plurality of objects set in the virtual space. Then, post-effect processing is performed on the generated virtual space image. For example, post-effect processing such as blur processing, brightness adjustment processing, or hue adjustment processing is performed. Specifically, the image generation unit 120 performs post-effect processing on a virtual space image in which other objects are displayed so that objects represented by primitives are displayed without discomfort. For example, post-effect processing is performed to blur the outline of the display object represented by the primitive so that the outline, which is the boundary between the display object and the virtual space image, becomes inconspicuous. Also, if there is a difference between the brightness of the displayed object and the brightness of the surrounding virtual space image, the image generator 120 performs post-effect processing to reduce this difference. For example, a texture mapped to a primitive is generated based on a photographed image obtained by photographing an object in the real world. For this reason, the brightness of the texture image also fluctuates according to the shooting environment, and a difference occurs between the brightness of the image of the displayed object and the brightness of the virtual space image around the displayed object. The image generator 120 performs post-effect processing to reduce the difference.

また取得部110は、他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得する。即ち、プリミティブに対応する表示物とは異なる他の表示物に対応する他の対象物を撮影した他の表示物用の撮影画像群を取得する。例えばプリミティブにより表される表示物がキャラクタであった場合に、他の表示物は、例えば当該キャラクタと戦う敵キャラクタなどである。そしてテクスチャ生成部114は、他の表示物用の移動制御情報に応じて他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成する。そして画像生成部120は、他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、仮想空間画像を生成する。例えば移動処理部112は、他の表示物用の移動制御情報に応じて、他の表示物用のプリミティブを仮想空間において移動させる処理を行う。そして、このように移動する他の表示物用のプリミティブに対して、他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャをマッピングする。これにより、例えば敵キャラクタなどの他の表示物のリアルな画像を、少ない処理負荷で生成することが可能になる。 The acquiring unit 110 also acquires a captured image group for another display object obtained by capturing another object corresponding to another display object from a plurality of shooting directions. That is, a captured image group for another display object obtained by capturing another target object corresponding to another display object different from the display object corresponding to the primitive is acquired. For example, if the displayed object represented by the primitive is a character, the other displayed object is, for example, an enemy character that fights against the character. Then, the texture generation unit 114 generates the texture for the other display object based on the captured image selected from the captured image group for the other display object according to the movement control information for the other display object. The image generation unit 120 then maps the texture for the other display object, which changes according to the movement control information for the other display object, onto the primitive for the other display object, thereby generating a virtual space image. For example, the movement processing unit 112 performs processing for moving primitives for other display objects in the virtual space according to movement control information for other display objects. Then, the texture for the other display object that changes according to the movement control information for the other display object is mapped onto the primitive for the other display object that moves in this way. This makes it possible to generate realistic images of other displayed objects, such as enemy characters, with a small processing load.

また画像生成部120は、プリミティブの周囲にパーティクルが表示される画像を、仮想空間画像として生成する。例えば仮想空間において、プリミティブの周囲にパーティクルが配置されるようにパーティクルを発生して、仮想空間画像を生成する。例えば画像生成部120は、パーティクルを発生させるエフェクト処理(ポストエフェクト処理)を行う。このようにプリミティブの周囲にパーティクルが存在することで、プリミティブに対応する表示物が、仮想空間内において違和感なく移動する仮想空間画像を生成できるようになる。 The image generator 120 also generates an image in which particles are displayed around the primitive as a virtual space image. For example, in a virtual space, particles are generated so that the particles are arranged around primitives to generate a virtual space image. For example, the image generator 120 performs effect processing (post-effect processing) for generating particles. Since particles are present around the primitives in this way, it is possible to generate a virtual space image in which the displayed objects corresponding to the primitives move naturally in the virtual space.

また本実施形態のゲームシステムは、後述の図30に示すように、カメラ等の撮影部162と、対象物POBが配置される配置部10(載置部)と、回転移動機構12を含むことができる。回転移動機構12は、配置部10に配置された対象物POBに対する撮影部162の撮影方向を変化させるための回転移動を行う機構である。図30では、モーターなどの駆動部により実現される回転移動機構12により、ターンテーブルのように配置部10を回転させることにより、対象物POBに対する撮影部162の撮影方向を変化させている。このような配置部10と回転移動機構12を設けることで、対象物POBに対する撮影部162の撮影方向が所定角度以上の撮影方向範囲となる撮影画像群を取得できるようになる。 Further, as shown in FIG. 30, which will be described later, the game system of the present embodiment includes a photographing unit 162 such as a camera, an arrangement unit 10 (placement unit) on which the object POB is arranged, and a rotation movement mechanism 12. can be done. The rotational movement mechanism 12 is a mechanism that performs rotational movement for changing the photographing direction of the photographing unit 162 with respect to the object POB arranged in the arrangement unit 10 . In FIG. 30, the rotation movement mechanism 12 realized by a driving unit such as a motor rotates the arrangement unit 10 like a turntable, thereby changing the photographing direction of the photographing unit 162 with respect to the object POB. By providing the placement unit 10 and the rotational movement mechanism 12 as described above, it is possible to acquire a group of captured images in which the imaging direction of the imaging unit 162 with respect to the object POB is in the imaging direction range of a predetermined angle or more.

また本実施形態のゲームシステムはサーバシステムを用いて実現することも可能である。図2にゲームシステムを実現するサーバシステム500や端末装置TM1~TM2の構成例を示す。 The game system of this embodiment can also be realized using a server system. FIG. 2 shows a configuration example of the server system 500 and the terminal devices TM1 and TM2 that implement the game system.

図2では、サーバシステム500(情報処理システム)が、ネットワーク510を介して端末装置TM1~TMnと通信接続されている。例えばサーバシステム500はホストであり、端末装置TM1~TMnはクライアントである。或いは本実施形態のゲームシステムは、ブロックチェーンの手法により実現することも可能である。例えばイーサリウム(Ethereum)で実行可能なスマートコントラクトと呼ばれるプログラムを用いて、本実施形態のゲームシステムの各処理を実行してもよい。この場合には端末装置TM1~TMnはピア・ツー・ピアで接続されることになる。また端末装置TM1~TMnの間で通信されるゲーム情報等の各種の情報は、ブロックチェーンを用いて転送されることになる。なお、以下では、TM1~TMnの各端末装置を、適宜、端末装置TMと記載する。 In FIG. 2, a server system 500 (information processing system) is connected to terminal devices TM1 to TMn via a network 510 for communication. For example, the server system 500 is a host, and the terminal devices TM1-TMn are clients. Alternatively, the game system of this embodiment can also be realized by a blockchain technique. For example, a program called a smart contract that can be executed on Ethereum may be used to execute each process of the game system of this embodiment. In this case, the terminals TM1-TMn are connected peer-to-peer. Various types of information such as game information communicated between the terminal devices TM1 to TMn are transferred using blockchain. Note that each of the terminal devices TM1 to TMn is hereinafter referred to as a terminal device TM as appropriate.

サーバシステム500は例えば1又は複数のサーバ(管理サーバ、ゲームサーバ、課金サーバ、サービス提供サーバ、コンテンツ配信サーバ、認証サーバ、データベースサーバ、又は通信サーバ等)により実現できる。このサーバシステム500は、コミュニティ型ウェブサイトやオンラインゲームを運営するための各種サービスを提供し、ゲーム実行に必要なデータの管理や、クライアントプログラム及び各種データ等の配信を行うことができる。これにより、例えば、プレーヤ端末である端末装置TMによりSNS(Social Networking Service)などを利用するためにサーバシステム500にアクセスし、当該サーバシステム500から提供されるオンラインゲームであるソーシャルゲームや家庭用ゲームなどのネットワークゲームのプレイが可能になる。 The server system 500 can be realized by, for example, one or a plurality of servers (management server, game server, billing server, service providing server, content distribution server, authentication server, database server, communication server, etc.). This server system 500 can provide various services for operating community websites and online games, manage data necessary for game execution, and distribute client programs and various data. As a result, for example, the terminal device TM, which is a player terminal, accesses the server system 500 in order to use SNS (Social Networking Service) or the like, and the online game provided by the server system 500, such as a social game or a household game, can be accessed. It is possible to play network games such as

ネットワーク510(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。 The network 510 (distribution network, communication line) is a communication path using, for example, the Internet or a wireless LAN. Communication networks such as networks, cable networks, and wireless LANs can be included. Also, the communication method may be wired or wireless.

端末装置TM(プレーヤ端末)は、例えばネット接続機能(インターネット接続機能)を有する端末である。これらの端末装置TMとしては、携帯型通信端末(スマートフォン、携帯電話機)、携帯型ゲーム装置、家庭用ゲーム装置(据え置き型)、或いは業務用ゲーム装置などの種々の装置を用いることができる。或いは、端末装置TMとして、パーソナルコンピュータ(PC)やタブレット型コンピュータなどの情報処理装置を用いてもよい。或いは、端末装置TMとして、プレーヤの頭部や腕などの部位に装着されるウェアラブル機器(HMD、ウォッチ型機器等)を用いてもよい。 The terminal device TM (player terminal) is, for example, a terminal having a network connection function (Internet connection function). As these terminal devices TM, various devices such as mobile communication terminals (smartphones, mobile phones), mobile game devices, home game devices (stationary type), and arcade game devices can be used. Alternatively, an information processing device such as a personal computer (PC) or a tablet computer may be used as the terminal device TM. Alternatively, a wearable device (HMD, watch-type device, etc.) that is worn on the player's head or arm may be used as the terminal device TM.

本実施形態のゲームシステムの処理部100の各処理は、サーバシステムの処理部(プロセッサ)により実現してもよいし、端末装置TMの処理部(プロセッサ)により実現してもよい。或いはサーバシステム500の処理部と端末装置TMの処理部の分散処理により実現してもよいし、端末装置TMの処理部とブロックチェーンを用いた手法により実現してもよい。 Each processing of the processing unit 100 of the game system of this embodiment may be realized by the processing unit (processor) of the server system, or may be realized by the processing unit (processor) of the terminal device TM. Alternatively, it may be realized by distributed processing of the processing unit of the server system 500 and the processing unit of the terminal device TM, or may be realized by a method using the processing unit of the terminal device TM and blockchain.

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお以下では、投稿コンテンツである投稿画像又は投稿動画が、現実世界の対象物を撮影することで得られる撮影画像又は撮影動画である場合を主に例にとり説明するが、本実施形態はこれに限定されない。投稿画像又は投稿動画は、プレーヤのゲームプレイの様子をキャプチャ(録画)したゲーム画像又はゲーム動画などであってもよい。
2. Method of this Embodiment Next, the method of this embodiment will be described in detail. In the following, a case where a posted image or a posted video that is posted content is a photographed image or a photographed video obtained by photographing an object in the real world will be mainly described as an example. Not limited. The posted image or posted video may be a game image or game video obtained by capturing (recording) the game play of the player.

2.1 ゲームの説明
まず本実施形態のゲームシステムにより実現されるゲームの一例について説明する。本実施形態では、現実世界の対象物を撮影部162により撮影した投稿画像又は投稿動画である投稿コンテンツを、投稿サイトに投稿できるようにする。そして投稿サイトにおいて投稿コンテンツに与えられたインプレッション情報に基づいて、ゲームパラメータを設定し、設定されたゲームパラメータに基づいて、プレーヤがプレイするゲームの処理を行う。そしてインプレッション情報に基づき設定されたゲームパラメータにより実現されるゲームでは、撮影部162により撮影した対象物に対応するキャラクタ等の表示物の画像がゲーム画像として表示される。プレーヤは、このように対象物に対応する表示物がゲーム画像として表示されるゲームを楽しむ。これにより、あたかも現実世界の対象物がゲーム空間に登場したかのような仮想現実感をプレーヤに与えることが可能になる。
2.1 Description of Game First, an example of a game realized by the game system of this embodiment will be described. In the present embodiment, it is possible to post posted content, which is a posted image or posted video of an object in the real world photographed by the imaging unit 162, to a posting site. Based on the impression information given to the posted content on the posting site, game parameters are set, and the game played by the player is processed based on the set game parameters. In a game realized by game parameters set based on impression information, an image of a display object such as a character corresponding to an object photographed by the photographing unit 162 is displayed as a game image. A player enjoys a game in which objects corresponding to objects are displayed as game images. This makes it possible to give the player a feeling of virtual reality as if an object in the real world appeared in the game space.

例えば従来より、フォトグラメトリと呼ばれる手法が知られており、このフォトグラメトリでは、現実世界の対象物を複数の撮影方向から撮影した撮影画像に基づいて3Dスキャンを行って、仮想空間に配置可能な3次元モデルを生成する。しかしながら、3Dスキャンでは、撮影画像の解像度に限界があるため、対象物が精細な形状を有していた場合に、この精細な形状を忠実に再現した3次元モデルを生成することは困難である。また3Dスキャンにより3次元モデルを生成する処理は、コンピュータの処理負荷が非常に重いため、対象物を撮影した後、短時間で、対象物に対応する3次元モデルの表示物を仮想空間に出現させることが難しいという問題もある。 For example, a technique called photogrammetry has been known in the past. In this photogrammetry, a 3D scan is performed based on images of objects in the real world photographed from multiple shooting directions, and the images are arranged in virtual space. Generate a possible 3D model. However, in 3D scanning, there is a limit to the resolution of captured images, so when an object has a fine shape, it is difficult to generate a 3D model that faithfully reproduces this fine shape. . In addition, the process of generating a 3D model by 3D scanning puts a heavy processing load on the computer. There is also the problem that it is difficult to

そこで本実施形態のゲームでは、対象物の撮影画像を用いてテクスチャを生成する。そして撮影画像に基づき生成されたテクスチャを仮想空間のプリミティブにマッピングすることで、対象物に対応する表示物が表示される仮想空間画像を生成する。具体的には移動制御情報に基づいて、ポリゴン等で実現されるプリミティブを仮想空間内で移動させる。移動制御情報としては、例えばプレーヤの操作入力情報を用いることができる。或いは予め決められた軌道に沿ってプリミティブを移動させるような移動制御情報であってもよい。そして、プリミティブの移動制御に用いる移動制御情報を用いて、対象物を撮影した複数の撮影画像の中から適切な撮影画像を選択する。そして選択された撮影画像に基づき生成されたテクスチャを、移動制御情報に基づき移動するプリミティブに対してマッピングして、仮想空間において仮想カメラから見える画像である仮想空間画像を生成する。即ち、プリミティブにテクスチャをマッピングすることで、対象物に対応するキャラクタ等の表示物の画像を生成し、この表示物の画像を含む仮想空間画像を生成する。このようにすることで、3Dスキャンのような負荷の重い処理を行うことなく、対象物の形状が忠実に再現された表示物の画像を含む仮想空間画像を生成できるようになる。 Therefore, in the game of this embodiment, the texture is generated using the photographed image of the object. Then, by mapping the texture generated based on the captured image to the primitives in the virtual space, a virtual space image is generated in which the display object corresponding to the object is displayed. Specifically, based on the movement control information, primitives realized by polygons or the like are moved within the virtual space. As the movement control information, for example, player's operation input information can be used. Alternatively, it may be movement control information for moving a primitive along a predetermined trajectory. Then, using the movement control information used for primitive movement control, an appropriate photographed image is selected from a plurality of photographed images obtained by photographing the object. Then, the texture generated based on the selected captured image is mapped to the primitive that moves based on the movement control information to generate a virtual space image, which is an image viewed from the virtual camera in the virtual space. That is, by mapping textures on primitives, an image of a display object such as a character corresponding to the object is generated, and a virtual space image including the image of this display object is generated. By doing so, it becomes possible to generate a virtual space image including an image of a display object in which the shape of the object is faithfully reproduced without performing heavy-load processing such as 3D scanning.

具体的には図3(A)に示すように本実施形態のゲームでは、撮影部162により対象物POBを複数の撮影方向から撮影する。図3(A)では、対象物POBは、ロボットのプラモデルである。この対象物POBを、ターンテーブルである配置部10に配置し、モーター等により実現される回転移動機構12を用いて配置部10を回転させる。例えば30~60秒程度の撮影時間において、配置部10を360度、回転させる。また対象物POBの背景として、グリーンバックやブルーバック等の単色の背景部20が配置されている。このようにすることで、例えば後述の図21のように360度の撮影方向範囲で撮影部162により対象物POBを撮影できるようになり、対象物POBを360度の撮影方向範囲で撮影した画像を得ることができる。具体的には撮影部162によりムービー撮影を行うことで、360度の撮影方向範囲で撮影した動画(ムービー)である撮影画像群を得ることができる。 Specifically, as shown in FIG. 3A, in the game of the present embodiment, the photographing unit 162 photographs the object POB from a plurality of photographing directions. In FIG. 3A, the object POB is a plastic model of a robot. This target object POB is placed on a placement section 10, which is a turntable, and the placement section 10 is rotated using a rotational movement mechanism 12 realized by a motor or the like. For example, the placement unit 10 is rotated 360 degrees during the imaging time of about 30 to 60 seconds. As the background of the object POB, a monochromatic background portion 20 such as a green background or a blue background is arranged. By doing so, for example, as shown in FIG. 21, which will be described later, the object POB can be photographed by the photographing unit 162 within a 360-degree photographing direction range. can be obtained. Specifically, by shooting a movie using the shooting unit 162, it is possible to obtain a group of shot images that are moving images (movies) shot in a shooting direction range of 360 degrees.

そして本実施形態のゲームでは、このような撮影の終了後、図3(B)に示すようにワンアクションの短い時間で、対象物POBに対応するキャラクタCH(広義には表示物)を、仮想空間に登場させて、このキャラクタCHを用いたゲームをプレーヤがプレイできるようにする。例えば図3(B)では、3次元のオブジェクト空間である仮想空間に、岩等の3次元のオブジェクトOB1、OB2、OB3が配置され、敵ロボットである敵キャラクタCHEも出現している。プレーヤはゲームコントローラー等の操作部160を操作することで、キャラクタCHをA1、A2に示すように動かすことができる。またロボットであるキャラクタCHの画像には、補助装置であるバーニアの噴射炎VNの画像も表示されている。 In the game of the present embodiment, after such shooting is completed, a character CH (in a broad sense, a display object) corresponding to the object POB is virtualized in a short time with one action as shown in FIG. The character CH is made to appear in the space so that the player can play a game using this character CH. For example, in FIG. 3B, three-dimensional objects OB1, OB2, and OB3 such as rocks are arranged in a virtual space, which is a three-dimensional object space, and an enemy character CHE, which is an enemy robot, also appears. By operating the operation unit 160 such as a game controller, the player can move the character CH as indicated by A1 and A2. In the image of the robot character CH, an image of the jet flame VN of the vernier, which is an auxiliary device, is also displayed.

なお本実施形態では対象物がロボットのプラモデルである場合を主に例にとり説明するが、これに限定されるものではない。対象物は例えば戦艦等の艦船、戦闘機等の飛行機、戦車、車又は怪獣等のプラモデル、模型であってもよい。また対象物は、プラモデル、模型には限定されず、現実世界に実在する物体であればよい。例えば対象物としては、人形、フィギュアや、車、バイク又は自動車などの現実世界の乗り物や、家電、文房具、時計などの日常品や、彫刻、絵などの美術品や、ビル、橋などの建造物などの種々の物体(被写体)を想定できる。 In this embodiment, the case where the object is a plastic model of a robot will be mainly described as an example, but the object is not limited to this. The object may be, for example, a ship such as a battleship, an airplane such as a fighter plane, a tank, a car, or a plastic model such as a monster. Also, the target object is not limited to a plastic model or model, and may be any object that actually exists in the real world. For example, objects include dolls, figures, real-world vehicles such as cars, motorcycles, and automobiles, everyday items such as home appliances, stationery, and clocks, works of art such as sculptures and paintings, and construction of buildings and bridges. Various objects (subjects) such as things can be assumed.

2.2 インプレッション情報に基づくゲームパラメータの設定
本実施形態では、プレーヤの投稿画像又は投稿動画である投稿コンテンツを投稿サイトに投稿する処理を行う。また投稿サイトにおいて投稿コンテンツを閲覧した利用者による投稿コンテンツのインプレッション情報を取得し、取得したインプレッション情報に基づいてゲームパラメータを設定する。そしてインプレッション情報に基づき設定されたゲームパラメータに基づいて、投稿コンテンツの投稿者であるプレーヤがプレイするゲームのゲーム処理を行う。
2.2 Setting Game Parameters Based on Impression Information In this embodiment, a process of posting posted content, which is a player's posted image or posted video, to a posting site is performed. In addition, it acquires impression information of the posted content by the user who viewed the posted content on the posting site, and sets game parameters based on the acquired impression information. Based on the game parameters set based on the impression information, the game processing of the game played by the player who posted the posted content is performed.

例えば本実施形態のゲームシステムは、図3(A)のようにプラモデル等の対象物POBを撮影部162により撮影した撮影画像又は撮影動画を、投稿画像又は投稿動画である投稿コンテンツとして、投稿サイトに投稿する処理を行う。例えば投稿コンテンツを、投稿サイトにアップロードするなどの処理を行う。投稿サイトは、投稿画像又は投稿動画である投稿コンテンツを投稿及び閲覧可能なネットワーク上のサイトである。投稿サイトは、プレーヤがプレイするゲームのメーカが運用するサイトであってもよいし、インターネット上のサーバに対して不特定多数の利用者が投稿した投稿コンテンツを、不特定多数の利用者が閲覧可能なサイトであってもよい。そしてゲームシステムは、投稿サイトでの投稿コンテンツのインプレッション情報を取得する。例えば投稿サイトにおいて投稿コンテンツを閲覧した利用者による投稿コンテンツのインプレッション情報を取得する。例えば投稿サイトのサーバから、インプレッション情報を受信する。 For example, the game system of the present embodiment, as shown in FIG. Do the process of posting to. For example, it performs processing such as uploading posted content to a posting site. A posting site is a site on a network where posted content, which is a posted image or posted video, can be posted and viewed. The posting site may be a site operated by the maker of the game played by the player, or may be a site where an unspecified number of users view posted content posted by an unspecified number of users on a server on the Internet. It may be a possible site. The game system then acquires impression information of the posted content on the posting site. For example, it acquires the impression information of the posted content by the user who viewed the posted content on the posting site. For example, it receives impression information from a posting site server.

図4に投稿サイトでの投稿掲示画面の一例を示す。この投稿掲示画面では、投稿サイトにアップロードされた投稿コンテンツCP1~CP4が表示されて掲示されている。即ち、投稿サイトの利用者が閲覧可能に投稿コンテンツCP1~CP4が表示されている。投稿コンテンツCP1~CP4は、例えば図3(A)のように撮影部162により撮影された投稿画像又は投稿動画である。例えば投稿コンテンツCP1である投稿画像PIM1は、現実世界のプラモデルである対象物POB1を撮影した画像である。投稿コンテンツCP2である投稿画像PIM2は、現実世界のプラモデルである対象物POB2を撮影した画像である。図3(A)で説明したように、投稿コンテンツCP1、CP2を投稿したプレーヤがプレイするゲームでは、対象物POB1、POB2に対応するキャラクタがゲーム空間に登場し、ゲーム画像として表示される。 FIG. 4 shows an example of a posting screen on the posting site. On this posted posting screen, posted contents CP1 to CP4 uploaded to the posting site are displayed and posted. That is, posted contents CP1 to CP4 are displayed so that users of the posting site can view them. The posted contents CP1 to CP4 are, for example, posted images or posted moving images shot by the shooting unit 162 as shown in FIG. 3A. For example, the posted image PIM1, which is the posted content CP1, is a photographed image of the object POB1, which is a plastic model in the real world. The posted image PIM2, which is the posted content CP2, is a photographed image of the object POB2, which is a plastic model in the real world. As described with reference to FIG. 3A, in the game played by the players who posted the posted contents CP1 and CP2, characters corresponding to the objects POB1 and POB2 appear in the game space and displayed as game images.

そしてこれらの投稿コンテンツCP1、CP2には、「イイネ」、閲覧数、閲覧時間、リツイート数などのインプレッション情報が与えられている。ここで、「イイネ」は、投稿コンテンツの支持数の情報であり、例えば投稿コンテンツに対して利用者が良い評価を与えて支持した支持回数や支持人数のインプレッション情報である。閲覧数は、投稿コンテンツの閲覧回数や閲覧人数である閲覧数のインプレッション情報である。閲覧時間は、投稿コンテンツを閲覧した時間(閲覧総時間)である閲覧時間のインプレッション情報である。リツイート数は、他の利用者への投稿コンテンツの伝達数のインプレッション情報である。投稿サイトの利用者が投稿コンテンツを閲覧することで、これらのインプレッション情報が各投稿コンテンツに与えられる。本実施形態のゲームシステムは、投稿コンテンツに与えられて関連づけられたインプレッション情報を取得する。例えば投稿サイトのサーバから、投稿コンテンツに関連づけられたインプレッション情報を受信する。 These posted contents CP1 and CP2 are provided with impression information such as "likes", the number of views, viewing time, and the number of retweets. Here, "Likes" is information on the number of supports for posted content, and is, for example, impression information on the number of times the user gave a good evaluation and supported the posted content and the number of people who supported the posted content. The number of views is impression information of the number of views, which is the number of times the posted content has been viewed or the number of people who have viewed it. The viewing time is impression information of the viewing time, which is the time spent viewing the posted content (total viewing time). The number of retweets is impression information of the number of transmissions of posted content to other users. The impression information is given to each posted content by the user of the posting site viewing the posted content. The game system of this embodiment acquires impression information associated with posted content. For example, it receives impression information associated with posted content from a posting site server.

図5に投稿サイトの投稿掲示画面の他の例を示す。この投稿掲示画面では、投稿コンテンツCP1~CP4として、プレーヤがプレイするゲームの様子をキャプチャ(録画)したゲーム動画PV1~PV4が表示されて掲示されている。ゲーム動画PV1~PV4はゲームプレイ動画やゲーム実況動画と呼ばれるものであり、プレーヤのゲームプレイの様子がキャプチャされた動画である。なお投稿コンテンツとして、プレーヤのゲームプレイの様子がキャプチャされたゲーム画像を表示してもよい。そしてこれらの投稿コンテンツCP1~CP4であるゲーム動画PV1~PV4に対しても、支持数(イイネ)、閲覧数、閲覧時間、伝達数(リツイート数)などのインプレッション情報が与えられている。本実施形態のゲームシステムは、このようにゲーム動画PV1~PV4に与えられたインプレッション情報を取得してもよい。 FIG. 5 shows another example of the posting screen of the posting site. On this posted posting screen, game videos PV1 to PV4 obtained by capturing (recording) the games played by the players are displayed and posted as posted contents CP1 to CP4. The game videos PV1 to PV4 are called game play videos or game commentary videos, and are videos in which the state of the player's game play is captured. As posted content, a game image in which the player's game play is captured may be displayed. Impression information such as the number of supports (likes), the number of views, the viewing time, and the number of transmissions (retweets) is given to the game videos PV1 to PV4, which are the posted contents CP1 to CP4. The game system of this embodiment may acquire impression information given to the game videos PV1 to PV4 in this way.

そして本実施形態では、このようにして取得されたインプレッション情報に基づいて、ゲームパラメータを設定し、設定されたゲームパラメータに基づいて、投稿コンテンツの投稿者であるプレーヤがプレイするゲームのゲーム処理を行う。例えばプレーヤは、図3(A)に示すようにプラモデル等の対象物POBを撮影し、対象物POBの撮影画像又は撮影動画が、投稿コンテンツとして投稿サイトに投稿される。すると、この投稿コンテンツに対して、投稿サイトの利用者の閲覧により、支持数、閲覧数、閲覧時間又は伝達数などのインプレッション情報が与えられ、ゲームシステムは、このインプレッション情報を取得する。そしてインプレッション情報に基づいて、図3(B)に示すゲームでのゲームパラメータを設定する。具体的には撮影された対象物POBに対応してゲーム空間に登場するキャラクタCHの攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等のゲームパラメータを設定する。例えばインプレッション情報での支持数、閲覧数又は伝達数が多いほど、或いは閲覧時間が長いほど、プレーヤにとってより有利になるように、これらのゲームパラメータが設定される。例えば、投稿コンテンツに対するインプレッション情報の評価値が高いと、攻撃力、守備力、耐久力、移動能力又は走行能力が高くなったり、特殊能力又は特殊スキルが付与されたり、ヒットポイント、マジックポイント又はレベルが高くなるなどして、プレーヤがゲームにおいて優遇されるようになる。なお図5に示すように投稿コンテンツがゲーム動画又はゲーム画像である場合には、投稿コンテンツに対するインプレッション情報に基づいて、ゲーム動画又はゲーム画像に映るキャラクタ等のゲームパラメータが設定されることになる。 In the present embodiment, game parameters are set based on the impression information thus acquired, and game processing of a game played by the player who posted the posted content is performed based on the set game parameters. conduct. For example, as shown in FIG. 3A, the player takes a picture of an object POB such as a plastic model, and the taken image or the taken video of the object POB is posted to the posting site as posted content. Then, the users of the posting site view the posted content, and impression information such as the number of support, the number of views, the viewing time, or the number of transmissions is provided, and the game system acquires the impression information. Then, based on the impression information, the game parameters for the game shown in FIG. 3(B) are set. Specifically, the attack power, defense power, endurance, movement ability, running ability, special ability, hit point, magic point, level, etc. of the character CH appearing in the game space corresponding to the photographed object POB. Set parameters. For example, these game parameters are set so that the greater the number of impressions, views, or transmissions, or the longer the viewing time, the more advantageous the player is. For example, if the evaluation value of impression information for posted content is high, attack power, defense power, endurance, movement ability or running ability will be high, special ability or special skill will be given, hit points, magic points or level becomes higher, and the player comes to be treated preferentially in the game. As shown in FIG. 5, when the posted content is a game video or game image, game parameters such as characters appearing in the game video or game image are set based on the impression information for the posted content.

図6は、本実施形態の処理を説明するフローチャートである。まずゲームシステムは、投稿サイトへの投稿コンテンツの投稿処理を行う(ステップS1)。例えばネットワークを介して投稿コンテンツを投稿サイトにアップロードするなどの処理を行う。次に投稿コンテンツに与えられたインプレッション情報を取得する(ステップS2)。例えば投稿サイトの利用者の支持数、閲覧数、閲覧時間又は伝達数などのインプレッション情報を取得する。そして、取得されたインプレッション情報に基づいてゲームパラメータを設定する(ステップS3)。例えば投稿コンテンツである投稿画像又は投稿動画に対応するゲームのゲームパラメータを、投稿コンテンツのインプレッション情報に基づき設定する。そして、設定されたゲームパラメータに基づいて、投稿コンテンツの投稿者であるプレーヤがプレイするゲームのゲーム処理を実行する(ステップS4)。例えば投稿画像又は投稿動画に対応するゲームのゲーム処理を実行する。 FIG. 6 is a flowchart for explaining the processing of this embodiment. First, the game system performs posting processing of posted content to the posting site (step S1). For example, it performs processing such as uploading posted content to a posting site via a network. Next, the impression information given to the posted content is acquired (step S2). For example, it acquires impression information such as the number of users of the posting site, the number of views, the viewing time, or the number of transmissions. Then, the game parameters are set based on the acquired impression information (step S3). For example, game parameters of a game corresponding to a posted image or posted video that are posted content are set based on the impression information of the posted content. Then, based on the set game parameters, the game processing of the game played by the player who posted the posted content is executed (step S4). For example, game processing of a game corresponding to the posted image or posted video is executed.

以上のように本実施形態によれば、ゲームの対象物が映った投稿コンテンツを投稿サイトに投稿すると、その投稿コンテンツに対するインプレッション情報が取得されて、プレーヤがプレイするゲームにフィードバックされるようになる。例えば図3(A)、図3(B)では、プレーヤは、自身の所有するプラモデル(対象物POB)を撮影することで、そのプラモデルに対応するキャラクタがゲームに登場し、そのキャラクタを操作するゲームを楽しむことができるようになっている。このようなゲームにおいて、プレーヤは、自身が所有するプラモデルの撮影画像や撮影動画を、投稿コンテンツとして投稿サイトに投稿できる。そして、プラモデルが映るプレーヤの投稿コンテンツを、多数の利用者が閲覧、支持又はリツイートしたり、長い時間に亘って閲覧すると、投稿コンテンツに対するインプレッションの評価値が高い評価値になる。すると、このインプレッションの高い評価値が、プラモデルに対応してゲームに登場するキャラクタのゲームパラメータにも反映されるようになり、キャラクタの攻撃力、守備力、耐久力又は移動能力等の能力が上昇する。これによりプレーヤは、キャラクタを用いたゲームを優位に進めることが可能になる。そして、プレーヤからすると、自身が所有するプラモデルが投稿サイトにおいて高い評価を受けることで、プラモデルに対応してゲームに登場するキャラクタの能力等が上昇するようになる。従って、プラモデルに対するプレーヤの愛着度も刺激し、プラモデルなどの対象物に対応するキャラクタが登場するゲームの面白味や熱中度を格段に向上することが可能になる。 As described above, according to the present embodiment, when posted content showing an object of a game is posted on a posting site, impression information for the posted content is acquired and fed back to the game played by the player. . For example, in FIGS. 3A and 3B, the player shoots a plastic model (object POB) owned by the player, and a character corresponding to the plastic model appears in the game, and the character is operated. You can enjoy the game. In such a game, a player can post a photographed image or a photographed moving image of a plastic model that the player owns to a posting site as posted content. When a large number of users view, support, or retweet the posted content of the player in which the plastic model is displayed, or view the posted content for a long time, the evaluation value of the impression of the posted content becomes a high evaluation value. Then, the high evaluation value of this impression will be reflected in the game parameters of the character appearing in the game corresponding to the plastic model, and the character's ability such as offensive power, defensive power, endurance or movement ability will increase. do. This allows the player to advance the game using the character to an advantage. From the player's point of view, when the plastic model owned by the player is highly rated on the posting site, the ability of the character appearing in the game corresponding to the plastic model increases. Therefore, it is possible to stimulate the player's degree of attachment to the plastic model, and to remarkably improve the amusement and enthusiasm of the game in which the character corresponding to the object such as the plastic model appears.

また本実施形態では、投稿コンテンツに関連するキャラクタが登場するゲームのゲーム処理を行う。そして投稿コンテンツが投稿サイトに投稿されたことで取得された投稿コンテンツのインプレッション情報に基づいて、キャラクタについてのゲームパラメータを設定する。 Further, in the present embodiment, game processing is performed for a game in which a character related to posted content appears. Then, based on the impression information of the posted content acquired by posting the posted content to the posting site, game parameters for the character are set.

例えば図3(A)のように対象物を撮影することで、図3(B)に示すように対象物に対応するキャラクタが登場するゲームのゲーム処理が行われるようになる。このキャラクタは、図3(A)の撮影による撮影画像又は撮影動画である投稿コンテンツに関連するキャラクタである。この場合には図4に示すように、撮影画像又は撮影動画が投稿コンテンツとして投稿サイトに投稿されて、投稿コンテンツについてのインプレッション情報が取得される。なお図5のようにゲーム画像又はゲーム動画が投稿サイトに投稿される場合には、投稿コンテンツに関連するキャラクタは、ゲーム画像又はゲーム動画に映るキャラクタになる。そして、このように投稿コンテンツに関連するキャラクタがゲームに登場する場合に、当該キャラクタのゲームパラメータが、投稿コンテンツのインプレッション情報に基づき設定されるようになる。即ちキャラクタの攻撃力、守備力、移動能力、走行能力、特殊能力、ヒットポイント、マジックポイント又はレベル等のゲームパラメータが、インプレッション情報に基づき設定される。このようにすれば、投稿コンテンツに関連するキャラクタが登場するゲームにおいて、当該投稿コンテンツに対する投稿サイトでのインプレッション情報に基づいて、当該キャラクタのゲームパラメータを設定して、ゲーム処理を実行できるようになる。従って、キャラクタに関連する投稿コンテンツの閲覧数、支持数又は伝達数が多くなったり、閲覧時間が長くなることで、インプレッションの評価値が高くなると、ゲームに登場するキャラクタのゲームパラメータも、プレーヤに有利な値に変化するようになる。これにより、ゲームに対するプレーヤの熱中度や没入度を格段に向上できるようになる。 For example, by photographing an object as shown in FIG. 3A, game processing of a game in which a character corresponding to the object appears as shown in FIG. 3B is performed. This character is a character related to the posted content, which is the photographed image or the photographed moving image of FIG. 3A. In this case, as shown in FIG. 4, a captured image or captured video is posted as posted content to the posting site, and impression information about the posted content is acquired. When a game image or game video is posted to a posting site as shown in FIG. 5, the character related to the posted content is the character appearing in the game image or game video. Then, when a character related to the posted content appears in the game in this way, the game parameters of the character are set based on the impression information of the posted content. That is, game parameters such as the character's offensive power, defensive power, movement ability, running ability, special ability, hit points, magic points, or level are set based on the impression information. In this way, in a game in which a character related to posted content appears, game processing can be executed by setting the game parameters of the character based on the impression information on the posting site for the posted content. . Therefore, when the number of views, the number of supports, or the number of transmissions of posted content related to a character increases, or when the viewing time increases, the evaluation value of the impression increases, and the game parameters of the character appearing in the game also change to the player. It will change to an advantageous value. As a result, the player's enthusiasm and immersion in the game can be significantly improved.

また本実施形態では、投稿コンテンツに映る対象物の分析結果に基づいて、ゲームパラメータの基礎パラメータ値を設定する。そして基礎パラメータ値に設定されたゲームパラメータを、インプレッション情報に基づいて変化させる。具体的には対象物を撮影部162により撮影した撮影画像に基づいて、対象物の分析処理を行い、分析処理の分析結果に基づいて、基礎パラメータ値を設定する。 Further, in the present embodiment, basic parameter values of game parameters are set based on analysis results of objects appearing in posted content. Then, the game parameters set as the basic parameter values are changed based on the impression information. Specifically, analysis processing of the object is performed based on the captured image of the object captured by the imaging unit 162, and basic parameter values are set based on the analysis result of the analysis processing.

図7は、対象物の分析結果に基づき基礎パラメータ値を設定する処理を説明するフローチャートである。まず投稿コンテンツに映る対象物の分析処理を行う(ステップS21)。例えば図3(A)のように撮影部162により撮影した撮影画像等に基づいて、対象物の分析処理を行い、対象物の種類等を特定する。そして対象物の分析結果に基づいて、ゲームパラメータの基礎パラメータ値を設定する(ステップS22)。例えば分析結果に基づき特定された対象物の種類等に応じた基礎パラメータ値に、ゲームパラメータを設定する。次に基礎パラメータ値に設定されたゲームパラメータを、インプレッション情報に基づいて変化させる(ステップS23)。例えばインプレッションの評価値が高い評価値であるほど、プレーヤに有利な値になるように、ゲームパラメータの値を、基礎パラメータ値から変化させる。そしてゲームパラメータに基づいて、投稿コンテンツの投稿者であるプレーヤがプレイするゲームのゲーム処理を実行する(ステップS24)。 FIG. 7 is a flow chart illustrating processing for setting basic parameter values based on the analysis result of the object. First, an analysis process of the object appearing in the posted content is performed (step S21). For example, as shown in FIG. 3A, based on the photographed image or the like photographed by the photographing unit 162, the analysis processing of the object is performed, and the type of the object or the like is specified. Then, based on the analysis result of the object, the basic parameter values of the game parameters are set (step S22). For example, the game parameters are set to basic parameter values corresponding to the type of the object specified based on the analysis result. Next, the game parameters set as the basic parameter values are changed based on the impression information (step S23). For example, the value of the game parameter is changed from the basic parameter value so that the higher the evaluation value of the impression, the more advantageous the player. Then, based on the game parameters, the game processing of the game played by the player who posted the posted content is executed (step S24).

このように本実施形態では、投稿コンテンツに映る対象物の分析結果に基づいて、ゲームパラメータの基礎パラメータ値を設定する。具体的には対象物の分析結果に基づいて、対象物の種類等を特定し、ゲームパラメータの値を、種類等に応じた基礎パラメータ値に設定する。そして基礎パラメータ値に設定されたゲームパラメータを、インプレッション情報に基づいて変化させる。 As described above, in the present embodiment, the basic parameter values of the game parameters are set based on the analysis result of the object appearing in the posted content. Specifically, based on the analysis result of the object, the type of the object is specified, and the values of the game parameters are set to the basic parameter values corresponding to the type. Then, the game parameters set as the basic parameter values are changed based on the impression information.

例えば図8では、対象物の分析結果に基づいて、対象物の種類RBA、RBB、RBCが特定されている。例えば対象物が図3(A)に示すようなロボットのプラモデルである場合には、対象物であるプラモデルの分析結果に基づいて、ロボットの種類RBA、RBB、RBCが特定される。そして分析結果に基づき特定されたロボットの種類がRBAである場合には、ゲームパラメータである攻撃力、守備力、耐久力、移動能力、ヒットポイント、レベルの基礎パラメータ値が、ATA、DFA、EDA、MAA、HPA、LVAに設定される。そしてインプレッション情報に基づいて、ゲームパラメータの値が、基礎パラメータ値であるATA、DFA、EDA、MAA、HPA、LVAから変化するようになる。例えばインプレッションの評価値が高いほど、基礎パラメータ値であるATA、DFA、EDA、MAA、HPA、LVAからの増加値が大きくなるように、ゲームパラメータが設定される。また分析結果に基づき特定されたロボットの種類がRBBである場合には、ゲームパラメータである攻撃力、守備力、耐久力、移動能力、ヒットポイント、レベルの基礎パラメータ値が、ATB、DFB、EDB、MAB、HPB、LVBに設定される。そしてインプレッション情報に基づいて、ゲームパラメータの値が、基礎パラメータ値であるATB、DFB、EDB、MAB、HPB、LVBから変化するようになる。例えばインプレッションの評価値が高いほど、基礎パラメータ値であるATB、DFB、EDB、MAB、HPB、LVBからの増加値が大きくなるように、ゲームパラメータが設定される。 For example, in FIG. 8, object types RBA, RBB, and RBC are identified based on the analysis result of the object. For example, if the object is a plastic model of a robot as shown in FIG. 3A, robot types RBA, RBB, and RBC are specified based on the analysis results of the plastic model that is the object. When the type of robot specified based on the analysis result is RBA, the basic parameter values of attack power, defense power, endurance, movement ability, hit points, and level, which are game parameters, are ATA, DFA, and EDA. , MAA, HPA, LVA. Based on the impression information, the game parameter values change from the basic parameter values ATA, DFA, EDA, MAA, HPA, and LVA. For example, the game parameters are set such that the higher the impression evaluation value, the greater the increase from the basic parameter values ATA, DFA, EDA, MAA, HPA, and LVA. If the type of robot specified based on the analysis result is RBB, the basic parameter values of attack power, defense power, endurance, movement ability, hit points, and level, which are game parameters, are ATB, DFB, and EDB. , MAB, HPB, LVB. Based on the impression information, the game parameter values change from the basic parameter values ATB, DFB, EDB, MAB, HPB, and LVB. For example, the game parameters are set such that the higher the impression evaluation value, the greater the increase from the basic parameter values ATB, DFB, EDB, MAB, HPB, and LVB.

このようにすれば、ゲームパラメータの初期値や基準値に対応する基礎パラメータ値については、対象物の分析結果に基づいて設定し、インプレッション情報に応じて、ゲームパラメータの値を、基礎パラメータ値から変化させることが可能になる。従って、対象物の分析結果とインプレッション情報の両方を反映させたゲームパラメータの設定が可能になる。 In this way, the basic parameter values corresponding to the initial values and reference values of the game parameters are set based on the analysis results of the target object, and the values of the game parameters are changed from the basic parameter values according to the impression information. it becomes possible to change. Therefore, it is possible to set game parameters that reflect both the analysis result of the object and the impression information.

また本実施形態では、撮影部162により対象物を撮影した撮影画像に基づいて、対象物の分析処理を行い、分析処理の分析結果に基づいて、基礎パラメータ値を設定する。例えば図3(A)のように撮影部162により対象物を撮影した撮影画像に基づいて分析処理を行い、撮影画像に映る対象物の種類等を特定する。そして図8で説明したように、対象物の種類等に応じた基礎パラメータ値にゲームパラメータを設定し、基礎パラメータ値に設定されたゲームパラメータを、インプレッション情報に基づいて変化させる。 Further, in the present embodiment, analysis processing of the object is performed based on the photographed image of the object photographed by the photographing unit 162, and basic parameter values are set based on the analysis result of the analysis processing. For example, as shown in FIG. 3A, analysis processing is performed based on a photographed image of an object photographed by the photographing unit 162 to specify the type of the object appearing in the photographed image. Then, as described with reference to FIG. 8, the game parameters are set to the basic parameter values corresponding to the type of the object, etc., and the game parameters set to the basic parameter values are changed based on the impression information.

このようにすれば、対象物を撮影した撮影画像に基づく分析処理により、対象物の種類等を特定し、ゲームパラメータの値として、対象物の種類等に応じた基礎パラメータ値を設定できるようになる。 In this way, the type of the target object can be identified by analysis processing based on the photographed image of the target object, and basic parameter values corresponding to the type of the target object can be set as game parameter values. Become.

例えば対象物に対応するキャラクタをゲームに登場させる場合に、ゲームパラメータの基礎パラメータ値をどのように設定するかが問題になる。この点、本実施形態によれば、対象物を撮影することで、その対象物に対応するキャラクタをゲームに登場させることが可能になると共に、そのキャラクタのゲームパラメータの基礎パラメータ値を、キャラクタに対応する対象物の撮影画像の分析結果に基づき設定できるようになる。従って、対象物に対応するキャラクタをゲーム空間に登場させるゲームにおいて、当該キャラクタのゲームパラメータの基礎パラメータ値を、対象物の種類等に応じた適切な値に設定できるようになる。 For example, when a character corresponding to an object appears in a game, the problem is how to set the basic parameter values of the game parameters. In this regard, according to the present embodiment, by photographing an object, it is possible to make a character corresponding to the object appear in the game, and at the same time, the basic parameter values of the game parameters of the character can be set to the character. It becomes possible to set based on the analysis result of the captured image of the corresponding object. Therefore, in a game in which a character corresponding to an object appears in the game space, the basic parameter values of the game parameters of the character can be set to appropriate values according to the type of the object.

また本実施形態では、投稿サイトにおいて投稿コンテンツを閲覧することで投稿コンテンツにインプレッション情報を与えた利用者が、プレーヤと所定関係を有するプレーヤであるか否かに応じて、ゲームパラメータの設定に用いるインプレッション情報を変化させる。図9は、所定関係のプレーヤのインプレッション情報を変化させる処理を説明するフローチャートである。 Further, in this embodiment, it is used for setting game parameters depending on whether or not a user who gives impression information to posted content by browsing the posted content on the posting site is a player having a predetermined relationship with the player. Vary impression information. FIG. 9 is a flow chart for explaining a process of changing impression information of players in a predetermined relationship.

まず投稿コンテンツを閲覧することで投稿コンテンツにインプレッション情報を与えた投稿サイトの利用者の情報を収集する(ステップS31)。例えば投稿サイトのサーバから、投稿コンテンツにインプレッション情報を与えた投稿サイトの利用者の情報を受信する。例えばインプレッション情報を取得する際に、当該インプレッション情報に関連づけて、当該インプレッション情報を与えた利用者の情報についても取得する。そしてインプレッション情報を与えた利用者は、フレンドプレーヤなどのプレーヤと所定関係を有するプレーヤであるか否かを判断する(ステップS32)。所定関係を有するプレーヤとしては、例えばプレーヤのフレンドプレーヤや、プレーヤと同一グループ(同一チーム)に属するプレーヤなどがある。そしてインプレッション情報を与えた利用者が、プレーヤと所定関係を有するプレーヤである場合には、インプレッション情報の変化処理を行う(ステップS33)。例えばインプレッションの評価値が高くなるように、インプレッション情報を変化させる処理を行う。そしてインプレッション情報に基づいてゲームパラメータを設定する(ステップS34)。例えばフレンドプレーヤなどのプレーヤと所定関係を有するプレーヤが投稿コンテンツにインプレッション情報を与えている場合には、インプレッションの評価値が高くなり、インプレッション情報に基づき設定されるゲームパラメータも、プレーヤをより有利にする値に設定されるようになる。 First, by browsing the posted content, the information of the user of the posting site who gave impression information to the posted content is collected (step S31). For example, from the server of the posting site, the information of the user of the posting site who gave the impression information to the posted content is received. For example, when acquiring impression information, information about the user who provided the impression information is also acquired in association with the impression information. Then, the user who gave the impression information determines whether or not the user has a predetermined relationship with the player, such as a friend player (step S32). Players having a predetermined relationship include, for example, a player's friend player and a player belonging to the same group (same team) as the player. If the user who gave the impression information is a player who has a predetermined relationship with the player, the impression information is changed (step S33). For example, the impression information is changed so that the evaluation value of the impression increases. Then, the game parameters are set based on the impression information (step S34). For example, when a player such as a friend player who has a predetermined relationship with the player gives impression information to the posted content, the evaluation value of the impression increases, and the game parameters set based on the impression information are also more advantageous to the player. will be set to the desired value.

例えば図10に示すように、インプレッション情報を与えたプレーヤがフレンドプレーヤ(広義には所定関係を有するプレーヤ)である場合には、インプレッション情報である支持数、閲覧数、閲覧時間、リツイート数の変化率VRA、VRB、VRC、VRDが大きな値に設定される。例えば、フレンドプレーヤではないその他のプレーヤでは、支持数、閲覧数、閲覧時間、リツイート数の変化率は例えば1.0に設定されるが、フレンドプレーヤでは、変化率VRA、VRB、VRC、VRDが1.0よりも大きな値に設定される。従って、フレンドプレーヤの場合には、支持数、閲覧数、閲覧時間、リツイート数が、1.0よりも大きな変化率VRA、VRB、VRC、VRDで変化するようになる。従って、フレンドプレーヤの閲覧によるインプレッション情報では、フレンドプレーヤではないその他のプレーヤの閲覧によるインプレッション情報に比べて、インプレッションの評価値が高い評価値に変化するようになり、ゲームパラメータも、プレーヤをより有利にする値に変化するようになる。従って、フレンドプレーヤなどの所定関係を有するプレーヤを、その他のプレーヤに比べて優遇するゲーム処理が可能になる。 For example, as shown in FIG. 10, if the player who gave the impression information is a friend player (in a broad sense, a player with a predetermined relationship), the number of support, the number of views, the viewing time, and the number of retweets, which are the impression information, change. Rates VRA, VRB, VRC, VRD are set to large values. For example, for other players who are not friend players, the rate of change in the number of support, number of views, view time, and number of retweets is set to, for example, 1.0. Set to a value greater than 1.0. Therefore, in the case of a friend player, the number of support, the number of browsing, the browsing time, and the number of retweets change at rates of change VRA, VRB, VRC, and VRD greater than 1.0. Therefore, in the impression information browsed by the friend player, the evaluation value of the impression changes to a higher evaluation value than the impression information browsed by other players who are not the friend player, and the game parameters are also more advantageous to the player. will change to the desired value. Therefore, it is possible to perform game processing that treats players with a predetermined relationship, such as friend players, more preferentially than other players.

また本実施形態では、プレーヤの投稿情報に基づいて、プレーヤの個人情報を設定し、設定された個人情報に応じて、ゲームパラメータの設定に用いるインプレッション情報を変化させる。ここで投稿情報は、例えばプレーヤの投稿コンテンツ数、投稿回数、又は投稿時間の累積時間の情報である。 Further, in this embodiment, the player's personal information is set based on the player's posted information, and the impression information used for setting the game parameters is changed according to the set personal information. Here, the posted information is, for example, information on the number of pieces of content posted by the player, the number of times of posting, or the accumulated time of posting.

図11は、プレーヤの投稿情報に基づきプレーヤの個人情報を設定してインプレッション情報を変化させる処理を説明するフローチャートである。まずプレーヤの投稿コンテンツ数、投稿回数、又は投稿累積時間等の投稿情報を取得する(ステップS41)。例えばプレーヤがこれまでに投稿した投稿コンテンツの数である投稿コンテンツ数や、投稿コンテンツを投稿した回数である投稿回数や、或いは投稿サイトでの投稿コンテンツの投稿時間の累積時間などの投稿情報を取得する。そして投稿情報に基づいて、プレーヤの個人情報を設定する(ステップS42)。例えば投稿コンテンツ数、投稿回数又は投稿累積時間が多いプレーヤであるかを特定する個人情報を設定する。そして個人情報に基づくインプレッション情報の変化処理を行う(ステップS43)。例えばプレーヤの投稿コンテンツ数又は投稿回数が多いほど、或いは投稿累積時間が長いほど、インプレッションの評価値が高い評価値になるようにインプレッション情報を変化させる。そしてインプレッション情報に基づいて、ゲームパラメータを設定し、設定されたゲームパラメータに基づいて、投稿者であるプレーヤがプレイするゲームのゲーム処理を実行する(ステップS44、S45)。 FIG. 11 is a flow chart for explaining the process of setting the player's personal information based on the player's posted information and changing the impression information. First, post information such as the number of content posted by the player, the number of times of posting, or accumulated posting time is acquired (step S41). For example, post information such as the number of posted contents that the player has posted so far, the number of times that the posted contents have been posted, or the cumulative time of posting the posted contents on the posting site. do. Then, based on the posted information, the player's personal information is set (step S42). For example, personal information is set to specify whether the player has a large number of posted contents, a large number of postings, or a large number of cumulative posting times. Then, change processing of impression information based on personal information is performed (step S43). For example, the impression information is changed so that the evaluation value of the impression increases as the number of pieces of posted content or the number of times of posting by the player increases, or as the accumulated posting time increases. Then, based on the impression information, game parameters are set, and based on the set game parameters, the game processing of the game played by the player who is the contributor is executed (steps S44, S45).

図12は、プレーヤの投稿情報に基づきプレーヤの個人情報を設定してインプレッション情報を変化させる処理の説明図である。図12では、投稿情報である投稿コンテンツ数、投稿回数、投稿累積時間とインプレッション情報のパラメータ値の関係が示されている。インプレッション情報のパラメータ値はインプレッションの評価値に対応する。図12に示すように、投稿コンテンツ数や投稿回数が多いほど、或いは投稿累積時間が長いほど、インプレッション情報のパラメータ値が高い値に変化し、インプレッションの評価値が高くなるように設定される。従って、インプレッション情報に基づき設定されるゲームパラメータも、プレーヤをより有利にする値に設定されるようになる。即ち、投稿コンテンツ数や投稿回数が多かったり、投稿累積時間が長いプレーヤは、その個人情報として、よりインプレッション情報が高い値に変化するように設定される。従って、このような個人情報が設定されたプレーヤが、投稿コンテンツを投稿サイトに投稿すると、投稿コンテンツのインプレッション情報のパラメータ値が、他のプレーヤに比べて、より高い値に変化するようになり、ゲームパラメータもプレーヤに有利な値に設定されるようになる。従って、投稿コンテンツの投稿を繰り返せば繰り返すほど、プレーヤは、ゲームを優位に進めることができるようになり、ゲームへのプレーヤの熱中度や没入度を高めることが可能になる。 FIG. 12 is an explanatory diagram of a process of setting the player's personal information based on the player's posted information and changing the impression information. FIG. 12 shows the relationship between the number of pieces of posted content, the number of times of posting, the accumulated posting time, and the parameter values of impression information, which are posted information. The impression information parameter value corresponds to the impression rating value. As shown in FIG. 12, the larger the number of posted contents or the number of times of posting, or the longer the accumulated posting time, the higher the impression information parameter value and the higher the impression evaluation value. Therefore, the game parameters set based on the impression information are also set to values that make the player more advantageous. That is, for a player who has posted a large number of posted contents, posted a large number of times, or has posted a long cumulative time, the personal information of the player is set such that the impression information is changed to a higher value. Therefore, when a player in which such personal information is set posts posted content to a posting site, the parameter value of the impression information of the posted content changes to a higher value than other players. Game parameters are also set to values that are advantageous to the player. Therefore, the more the posted content is posted, the more the player can advance the game in an advantageous manner, and the player's degree of enthusiasm and immersion in the game can be increased.

また本実施形態では、プレーヤがプレイするゲームの結果に応じて、ゲームポイントをプレーヤに獲得させる処理を行い、プレーヤによる投稿コンテンツの投稿の際に、プレーヤのゲームポイントを消費させる処理を行う。例えば図13に示すように、プレーヤが図3(B)に示すようなゲームをプレイすることで、プレーヤは所定のゲームポイントを獲得できる。例えば図3(B)のゲームにおいて敵キャラクタを倒したり、敵の拠点を占領したり、或いは所定のミッションを達成すると、プレーヤはゲームポイントを獲得する。獲得したゲームポイントは、プレーヤに関連づけて蓄積される。そしてプレーヤが投稿コンテンツを投稿サイトに投稿する際には、このゲームポイントが消費される。例えばゲームポイントの消費を条件に、プレーヤは投稿コンテンツを投稿サイトに投稿できる。 Further, in this embodiment, processing is performed for the player to acquire game points according to the result of the game played by the player, and processing for consuming the game points of the player is performed when the posted content is posted by the player. For example, as shown in FIG. 13, the player can obtain predetermined game points by playing the game shown in FIG. 3(B). For example, in the game of FIG. 3B, the player obtains game points by defeating an enemy character, capturing an enemy base, or completing a predetermined mission. Earned game points are accumulated in association with the player. When the player posts the posted content to the posting site, the game points are consumed. For example, a player can post posted content to a posting site on the condition that game points are consumed.

このようにすれば、プレーヤは、自身のプラモデルなどが映った投稿コンテンツを投稿サイトに投稿するために、ゲームを一生懸命にプレイするようになる。そしてゲームプレイにより獲得したゲームポイントを消費して、新たなプラモデル等が映った投稿コンテンツを投稿するようになる。このようにプレーヤが投稿コンテンツの投稿を繰り返すことで、図11、図12で説明したように、プレーヤの投稿コンテンツ数や投稿回数や投稿累積時間が増え、プレーヤの個人情報に基づくインプレッション情報のパラメータ値の変化率も増加するようになる。これにより、ゲームパラメータがプレーヤを有利にする値に変化し、プレーヤは、ゲームをより優位に進めることが可能になる。この結果、ゲームプレイにより、更に多くのゲームポイントを獲得できるようになり、投稿コンテンツの投稿を繰り返し行うことができるようになる。このようにすることで、投稿コンテンツの投稿とプレーヤのゲームプレイが連鎖して助長されるようになり、ゲームへのプレーヤの没入度や熱中度を格段に向上できるようになる。 In this way, the player will play the game with all his might in order to post the posted content in which his/her own plastic model or the like is reflected on the posting site. Then, the user consumes the game points acquired by playing the game to post posted content showing a new plastic model or the like. By repeating posting of posted content by the player in this way, as described with reference to FIGS. The rate of change of values will also increase. As a result, the game parameter changes to a value that gives the player an advantage, allowing the player to proceed with the game more favorably. As a result, more game points can be obtained by playing the game, and the posted content can be repeatedly posted. By doing so, the posting of posted content and the player's game play are encouraged in a chain manner, and the player's degree of immersion and enthusiasm for the game can be significantly improved.

また本実施形態では、プレーヤが投稿した投稿コンテンツに対して、プレーヤがプレイするゲームのゲームIDを関連づける処理を行う。そしてゲームIDが関連づけられた投稿コンテンツのインプレッション情報を取得して、取得したインプレッション情報に基づいて、ゲームIDに対応するゲームのゲームパラメータを設定する。 Further, in the present embodiment, a process of associating the posted content posted by the player with the game ID of the game played by the player is performed. Then, the impression information of the posted content associated with the game ID is acquired, and the game parameters of the game corresponding to the game ID are set based on the acquired impression information.

例えば図14では、投稿処理部102は、投稿コンテンツにゲームIDを関連づけて、投稿サイトに投稿する処理を行う。即ち、投稿コンテンツにゲームIDが関連づけられた情報を投稿サイトにアップロードする処理を行う。そして図4、図5で説明したように、投稿サイトに投稿された投稿コンテンツに対して、閲覧数、閲覧時間、支持数又は伝達数(リツイート数)などのインプレッション情報が与えられる。投稿コンテンツに関連づけられたゲームIDは、このインプレッション情報にも関連づけられる。即ち、投稿コンテンツに与えられたインプレッション情報が、いずれのゲームに対応する否かが、ゲームIDの関連づけにより特定されるようになる。そしてパラメータ設定部104は、ゲームIDが関連づけられたインプレッション情報を取得する。例えば投稿サイトから、ゲームIDが関連づけられたインプレッション情報をダウンロードする処理を行う。そしてパラメータ設定部104は、取得したインプレッション情報に基づいて、ゲームIDに対応するゲームのゲームパラメータを設定する。即ち、インプレッション情報に関連づけられたゲームIDに基づいて、当該インプレッション情報が付与された投稿コンテンツに対応するゲームを特定し、当該ゲームにおけるゲームパラメータを、取得したインプレッション情報に基づいて設定する。ゲーム処理部106は、このようにして設定されたゲームパラメータに基づいてゲーム処理を実行する。 For example, in FIG. 14, the posting processing unit 102 performs a process of associating the posted content with the game ID and posting the posted content on the posting site. That is, a process of uploading information in which the posted content is associated with the game ID to the posting site is performed. As described with reference to FIGS. 4 and 5, the posted content posted to the posting site is given impression information such as the number of views, the viewing time, the number of supports, or the number of transmissions (the number of retweets). The game ID associated with the posted content is also associated with this impression information. That is, to which game the impression information given to the posted content corresponds is specified by the association of the game ID. Then, the parameter setting unit 104 acquires impression information associated with the game ID. For example, a process of downloading impression information associated with a game ID from a posting site is performed. Then, the parameter setting unit 104 sets game parameters of the game corresponding to the game ID based on the acquired impression information. That is, based on the game ID associated with the impression information, the game corresponding to the posted content to which the impression information is assigned is identified, and game parameters for the game are set based on the obtained impression information. The game processing unit 106 executes game processing based on the game parameters set in this manner.

このようにゲームIDを投稿コンテンツやインプレッション情報に関連づけることで、プレーヤが投稿した投稿コンテンツや投稿コンテンツに与えられたインプレッション情報が、いずれのゲームに対応する投稿コンテンツやインプレッション情報なのかを、ゲームIDに基づき特定できるようになる。従って、投稿コンテンツのインプレッション情報に基づくゲームパラメータの設定を、ゲームIDを用いた簡素な処理で実現することが可能になる。 By associating the game ID with the posted content and the impression information in this manner, it is possible to determine which game the posted content and the impression information given to the posted content and the posted content posted by the player correspond to. can be identified based on Therefore, it is possible to set game parameters based on the impression information of the posted content by simple processing using the game ID.

2.3 画像生成手法
次に図3(A)、図3(B)で説明した本実施形態の画像生成手法について図15(A)~図19を用いて詳細に説明する。まず図15(A)に示すように、ターンテーブルである配置部10に対象物POBを配置する。そして30~60秒の撮影時間で、B1、B2に示すように配置部10を360度だけ回転させながら、グリーンバック等の背景部20を背景として、撮影部162により対象物POBを撮影する。そして撮影部162の例えばムービー撮影により得られた動画のデータが処理装置200に取り込まれる。この動画が、撮影部162により対象物POBを複数の撮影方向から撮影することで得られる撮影画像群に対応する。
2.3 Image Generation Method Next, the image generation method of the present embodiment described with reference to FIGS. 3A and 3B will be described in detail with reference to FIGS. 15A to 19. FIG. First, as shown in FIG. 15A, the object POB is arranged on the arrangement section 10, which is a turntable. Then, for a photographing time of 30 to 60 seconds, the object POB is photographed by the photographing unit 162 against the background portion 20 such as a green screen while rotating the placement unit 10 by 360 degrees as shown in B1 and B2. Moving image data obtained by, for example, movie shooting by the shooting unit 162 is taken into the processing device 200 . This moving image corresponds to a group of photographed images obtained by photographing the object POB from a plurality of photographing directions by the photographing unit 162 .

なお、図15(A)では、本実施形態のゲームシステムを実現する処理装置200がPC(パーソナルコンピュータ)である場合の例が示されているが、本実施形態はこれに限定されない。ゲームシステムを実現する処理装置200は、後述の図30に示すような業務用のゲーム装置であってもよいし、家庭用のゲーム装置などの他の形態の装置であってもよい。例えば処理装置200は、スマートフォン、タブレットPCなどの携帯型通信端末であってもよい。この場合には撮影部162は携帯型通信端末の内蔵カメラなどにより実現できる。 Although FIG. 15A shows an example in which the processing device 200 that implements the game system of this embodiment is a PC (personal computer), this embodiment is not limited to this. The processing device 200 that implements the game system may be a commercial game device as shown in FIG. 30 described later, or may be another type of device such as a home game device. For example, the processing device 200 may be a mobile communication terminal such as a smart phone or a tablet PC. In this case, the photographing unit 162 can be realized by a built-in camera of the portable communication terminal or the like.

撮影部162の撮影により取得された動画である撮影画像群は、処理装置200の記憶部170に記憶される。例えば記憶部170の指定フォルダーに、例えば360度の撮影方向範囲での撮影画像群となる動画のデータが自動保存される。図15(B)は、撮影画像群(動画)に含まれる撮影画像IMの例である。この撮影画像IMは、図15(A)において対象物POBの背中側である後方側を、撮影部162より撮影した際の撮影画像である。撮影画像IMには、対象物POBの画像が映っていると共に、図15(A)の背景部20による背景BGの画像が映っている。背景BGは、例えばグリーンバックやブルーバックなどの単色背景である。なお図15(A)では撮影部162により対象物POBのムービー撮影を行うことで、撮影画像群を取得しているが、例えば撮影部162の撮影方向を変えながら、対象物POBのコマ撮り撮影を行うことで、撮影画像群を取得してもよい。 A group of captured images, which are moving images captured by the capturing unit 162 , are stored in the storage unit 170 of the processing device 200 . For example, in a specified folder of the storage unit 170, data of a moving image, which is a group of shot images in a shooting direction range of 360 degrees, for example, is automatically saved. FIG. 15B is an example of the captured image IM included in the captured image group (moving image). This photographed image IM is a photographed image obtained by photographing the rear side, which is the back side of the object POB in FIG. The photographed image IM includes an image of the object POB and an image of the background BG formed by the background portion 20 of FIG. 15(A). The background BG is, for example, a monochromatic background such as a green background or a blue background. In FIG. 15A, a group of captured images is acquired by capturing a movie of the object POB by the capturing unit 162. For example, frame-by-frame capturing of the object POB is performed while changing the capturing direction of the capturing unit 162. You may acquire a picked-up image group by performing.

そして本実施形態では図16(A)に示すように、図15(B)の撮影画像IMに基づき生成されたテクスチャTEXが、プリミティブPMにマッピングされる。この場合に図16(B)に示すように、図15(B)の背景BGがリアルタイムで透過処理されて、対象物POBに対応するキャラクタCHだけが表示されるテクスチャTEXが、プリミティブPMにマッピングされる。即ち図16(B)に模式的に示されるように、テクスチャTEXのピクセルのうち、背景BGに対応するピクセルについては透明に設定され、キャラクタCHに対応するピクセルだけが切り抜かれたテクスチャTEXが生成される。キャラクタCHは、対象物POBに対応してゲームに登場する表示物である。キャラクタCHの画像は、図15(A)、図15(B)で説明した撮影画像IMに基づく画像であるため、3Dスキャンを用いる場合に比べて、対象物POBの精細な形状が忠実に再現された画像になる。 Then, in this embodiment, as shown in FIG. 16A, the texture TEX generated based on the photographed image IM of FIG. 15B is mapped onto the primitive PM. In this case, as shown in FIG. 16(B), the background BG in FIG. 15(B) is transparently processed in real time, and the texture TEX in which only the character CH corresponding to the object POB is displayed is mapped onto the primitive PM. be done. That is, as schematically shown in FIG. 16B, among the pixels of the texture TEX, the pixels corresponding to the background BG are set to transparent, and only the pixels corresponding to the character CH are cut out to generate the texture TEX. be done. A character CH is a display object that appears in the game corresponding to the object POB. Since the image of the character CH is an image based on the photographed image IM described with reference to FIGS. 15A and 15B, the detailed shape of the object POB can be reproduced more faithfully than when 3D scanning is used. image.

またプリミティブPMは、3次元のオブジェクト空間である仮想空間に配置設定されており、この仮想空間には、岩を表すオブジェクトOB1、OB2、OB3などの種々のオブジェクトが配置設定されている。そして本実施形態では、このプリミティブPMが、移動制御情報に応じて仮想空間において移動する。具体的にはプレーヤが操作部160を用いて入力した操作入力情報を、移動制御情報として、プリミティブPMが仮想空間において回転移動したり、並進移動する。或いはプリミティブPMを自動移動させる移動制御情報に基づいて、プリミティブPMが仮想空間において回転移動したり、並進移動してもよい。そして後述するように、図15(A)、図15(B)で撮影された動画の撮影画像群の中から、移動制御情報に応じて選択された撮影画像に基づいてテクスチャTEXが生成され、生成されたテクスチャTEXがプリミティブPMにマッピングされる。これにより、移動制御情報に応じて変化するテクスチャTEXを、プリミティブPMにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成できるようになる。そして本実施形態によれば、ロボットのプラモデルなどの対象物POBが、ゲーム空間である仮想空間に、そのままの形で出現するようになる。従って、プレーヤは、自身が所有するプラモデルなどの対象物POBが、あたかも仮想空間に本当に出現したかのような仮想現実を感じることが可能になり、これまでにないタイプのゲームシステムの実現が可能になる。 The primitive PM is placed in a virtual space that is a three-dimensional object space, and various objects such as objects OB1, OB2, and OB3 representing rocks are placed in this virtual space. And in this embodiment, this primitive PM moves in the virtual space according to the movement control information. Specifically, the operation input information input by the player using the operation unit 160 is used as movement control information to rotate or translate the primitive PM in the virtual space. Alternatively, the primitive PM may rotate or translate in the virtual space based on movement control information for automatically moving the primitive PM. Then, as will be described later, a texture TEX is generated based on a photographed image selected according to the movement control information from among the photographed images of the moving images photographed in FIGS. 15A and 15B. The generated texture TEX is mapped to the primitive PM. As a result, the texture TEX, which changes according to the movement control information, can be mapped onto the primitive PM to generate a virtual space image viewed from the virtual camera in the virtual space. According to this embodiment, the target object POB, such as a plastic model of a robot, appears in the virtual space, which is the game space, as it is. Therefore, the player can feel the virtual reality as if the object POB owned by the player, such as a plastic model, really appears in the virtual space, making it possible to realize an unprecedented type of game system. become.

図17は、仮想空間でのプリミティブPMと仮想カメラVCの関係を示す図である。仮想空間には、岩を表すオブジェクトOB1~OB3や、敵ロボットである敵キャラクタCHEなどが配置されている。VMは、仮想カメラVCのビューボリュームであり、仮想カメラVCの表示範囲(描画範囲)に相当する。 FIG. 17 is a diagram showing the relationship between the primitive PM and the virtual camera VC in the virtual space. Objects OB1 to OB3 representing rocks, an enemy character CHE that is an enemy robot, and the like are arranged in the virtual space. VM is the view volume of the virtual camera VC and corresponds to the display range (drawing range) of the virtual camera VC.

図17に示すように本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定されている。例えばプリミティブPMと仮想カメラVCの位置関係が固定され状態で、プリミティブPM及び仮想カメラVCを移動制御情報に応じて移動させる。例えばプリミティブPMと仮想カメラVCとを結ぶレールRLを移動制御情報に応じて移動させる。具体的には図17では、プリミティブPMとしてビルボードのポリゴンを用いている。例えばプリミティブPMと仮想カメラVCとの間の距離は一定であり、プリミティブPMは仮想カメラVCに正対するように配置される。例えば、プリミティブPMと仮想カメラVCとの間の距離が一定となり、且つ、仮想カメラVCの視線方向VLとプリミティブPMの面が直交するようにプリミティブPMが配置される。このようにすれば、プリミティブPMを3次元の仮想空間に配置した場合にも、プレーヤから見てプリミティブPMが平面に見えないようにする演出が可能になり、あたかも3次元の表示物であるキャラクタCHが仮想空間で存在しているかのように見える仮想現実感をプレーヤに与えることが可能になる。 As shown in FIG. 17, in this embodiment, the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, while the positional relationship between the primitive PM and the virtual camera VC is fixed, the primitive PM and the virtual camera VC are moved according to the movement control information. For example, the rail RL connecting the primitive PM and the virtual camera VC is moved according to the movement control information. Specifically, in FIG. 17, billboard polygons are used as primitive PMs. For example, the distance between the primitive PM and the virtual camera VC is constant, and the primitive PM is arranged to face the virtual camera VC. For example, the primitive PM is arranged such that the distance between the primitive PM and the virtual camera VC is constant, and the line-of-sight direction VL of the virtual camera VC is orthogonal to the plane of the primitive PM. In this way, even when the primitive PM is arranged in a three-dimensional virtual space, it is possible to produce an effect in which the primitive PM does not appear flat from the player's point of view. It is possible to give the player a virtual reality feeling as if the CH exists in the virtual space.

また本実施形態では図18に示すように、プリミティブPMにマッピングするテクスチャTEXの画像をプリミティブPMの移動制御情報に応じて変化させている。具体的には操作部160へのプレーヤの操作入力に合わせて、仮想カメラVCとプリミティブPMの位置関係を固定しながら、仮想カメラVCの位置を支点(回転中心)として、C1、C2、C3、C4に示すようにプリミティブPMを回転移動する。即ち仮想カメラVCとプリミティブPMを結ぶレールRLを、仮想カメラVCの位置を支点として回転させる。また並進移動の場合には、仮想カメラVCとプリミティブPMを一体として並進移動させる。即ち仮想カメラVCとプリミティブPMを結ぶレールRLを並進移動させる。例えば左方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点としてC1に示す方向にプリミティブPMを回転移動させる。右方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点としてC2に示す方向にプリミティブPMを回転移動させる。同様に、下方向、上方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点として、各々、C3、C4に示す方向にプリミティブPMを回転移動させる。このようにすることで、移動制御情報である操作入力情報に応じたプリミティブPMの移動処理が実現される。 Further, in this embodiment, as shown in FIG. 18, the image of the texture TEX to be mapped onto the primitive PM is changed according to the movement control information of the primitive PM. Specifically, according to the player's operation input to the operation unit 160, C1, C2, C3, C3, C3, C3, C3, C1, C2, C3, C1, C2, C3, C1, C2, C3, C1, C2, C3, C1, C2, C3, C3, C3, C1, C2, C3, C3, C1, C2, C3, C1, C2, C3, C1, C3, C3, C3, C3, C3, C3 Rotate the primitive PM as indicated by C4. That is, the rail RL connecting the virtual camera VC and the primitive PM is rotated around the position of the virtual camera VC. In the case of translational movement, the virtual camera VC and primitive PM are translated integrally. That is, the rail RL connecting the virtual camera VC and the primitive PM is translated. For example, when an operation input instructing the left direction is performed, the primitive PM is rotationally moved in the direction indicated by C1 with the position of the virtual camera VC as the fulcrum. When an operation input instructing the right direction is performed, the primitive PM is rotationally moved in the direction indicated by C2 with the position of the virtual camera VC as the fulcrum. Similarly, when an operation input instructing the downward direction or the upward direction is performed, the primitive PM is rotationally moved in the directions indicated by C3 and C4, respectively, with the position of the virtual camera VC as the fulcrum. By doing so, the process of moving the primitive PM according to the operation input information, which is the movement control information, is realized.

そしてこのようなプリミティブPMの移動に連動して、プリミティブPMにマッピングされるテクスチャTEXを変化させる。具体的には、図15(A)、図15(B)のようにムービー撮影された360度の撮影方向範囲での対象物POBの動画を、プリミティブPMの移動に連動して再生することで、プリミティブPMの移動に連動して、プリミティブPMにマッピングされるテクスチャTEXを変化させる。例えばプレーヤが左方向を指示する操作入力を行うことで、図18のC1に示すように仮想カメラVCの位置を支点としてプリミティブPMを回転移動させる場合には、この回転移動に合わせて、図18の再生方向DRに示すように動画再生を行う。例えば図18のD1に示すような後方側からの対象物POB(キャラクタCH)の撮影画像から、D2に示すような左後方側からの対象物POBの撮影画像に変化するというような動画再生を行う。更にD3に示すような左前方側からの対象物POBの撮影画像に変化させ、D4に示すような前方側からの対象物POBの撮影画像に変化するというような動画再生を行う。D1、D2、D3、D4に示す撮影画像が本実施形態の撮影画像群になる。このようにすれば、2次元の撮影画像によるテクスチャTEXを用いながらも、あたかも3次元の表示物であるキャラクタCHが仮想空間で回転移動しているかのように見える仮想空間画像を生成できるようになる。 In conjunction with such movement of the primitive PM, the texture TEX mapped to the primitive PM is changed. Specifically, as shown in FIGS. 15(A) and 15(B), moving images of the object POB in a 360-degree photographing direction range are reproduced in conjunction with the movement of the primitive PM. , changes the texture TEX mapped to the primitive PM in conjunction with the movement of the primitive PM. For example, when the player performs an operation input pointing to the left direction to rotate the primitive PM around the position of the virtual camera VC as a fulcrum as shown in C1 in FIG. A moving image is reproduced as shown in the reproduction direction DR of . For example, it is possible to reproduce a moving image such that an image of the object POB (character CH) photographed from the rear side as shown in D1 in FIG. 18 changes to an image of the object POB (character CH) photographed from the left rear side as shown in D2. conduct. Furthermore, moving image reproduction is performed such that the image is changed to the photographed image of the object POB from the left front side as shown in D3, and the photographed image of the object POB is changed to the photographed image of the object POB from the front side as shown in D4. The photographed images indicated by D1, D2, D3, and D4 constitute the photographed image group of this embodiment. By doing so, it is possible to generate a virtual space image that looks as if the character CH, which is a three-dimensional display object, is rotating and moving in the virtual space while using the texture TEX based on the two-dimensional photographed image. Become.

また本実施形態では図19に示すように、例えばバーニアの噴射炎VNやビーム砲が発射するビームBMなどの3Dのエフェクト表現を実現するエフェクト処理も行っている。本実施形態では、このようなエフェクト処理を実現するために、後述の図25(A)~図25(C)で説明するように、移動制御情報に応じてプリミティブPMに対する相対的位置関係が変化するプリミティブPMV、PMBを用意する。プリミティブPMV、PMBは第2のプリミティブであり、例えばポリゴンである。プリミティブPMVには噴射炎VNを表す画像(テクスチャ)が描かれ、プリミティブPMBにはビームBMを表す画像(テクスチャ)が描かれている。そしてプリミティブPMを移動させる移動制御情報(操作入力情報)に応じて、図19のE1、E2に示すようにプリミティブPMに対するプリミティブPMV、PMBの相対的位置関係を変化させる。そしてテクスチャTEXがマッピングされたプリミティブPMの画像と、プリミティブPMV、PMB(第2のプリミティブ)の画像とを含む画像を、仮想空間画像として生成する。 In addition, as shown in FIG. 19, this embodiment also performs effect processing for realizing 3D effect expression such as the jet flame VN of a vernier and the beam BM emitted by a beam cannon. In this embodiment, in order to realize such effect processing, the relative positional relationship with respect to the primitive PM changes according to the movement control information, as will be described later with reference to FIGS. Prepare primitives PMV and PMB to be used. Primitives PMV and PMB are second primitives, for example polygons. An image (texture) representing the jet flame VN is drawn on the primitive PMV, and an image (texture) representing the beam BM is drawn on the primitive PMB. Then, according to movement control information (operation input information) for moving the primitive PM, the relative positional relationship of the primitives PMV and PMB with respect to the primitive PM is changed as indicated by E1 and E2 in FIG. Then, an image including an image of the primitive PM to which the texture TEX is mapped and images of the primitives PMV and PMB (second primitives) is generated as a virtual space image.

例えばプリミティブPMが回転移動した場合に、それに連動させて噴射炎VN用のプリミティブPMVを図19のE1に示すように回転移動させる。即ち図19のF1に示すように、テクスチャTEXに描かれるキャラクタCHのバーニアの補助装置から、噴射炎VNが噴射して見えるように、噴射炎VNが描かれるプリミティブPMVを回転移動させる。またプリミティブPMが回転移動した場合に、それに連動させてビームBM用のプリミティブPMBを図19のE2に示すように回転移動させる。即ち図19のF2に示すように、テクスチャTEXに描かれるキャラクタCHのビーム砲からビームBMが発射して見えるように、ビームBMが描かれるプリミティブPMBを回転移動させる。 For example, when the primitive PM rotates, the primitive PMV for the injection flame VN is rotated as indicated by E1 in FIG. 19 in conjunction with this. That is, as indicated by F1 in FIG. 19, the primitive PMV on which the jet flame VN is drawn is rotated so that the jet flame VN appears to be jetted from the auxiliary device of the vernier of the character CH drawn on the texture TEX. Further, when the primitive PM is rotationally moved, the primitive PMB for the beam BM is rotationally moved as indicated by E2 in FIG. 19 in conjunction therewith. That is, as shown in F2 in FIG. 19, the primitive PMB on which the beam BM is drawn is rotated so that the beam BM appears to be emitted from the beam cannon of the character CH drawn on the texture TEX.

このように本実施形態では、噴射炎VNの噴射やビームBMの発射などを表現するプリミティブPMV、PMBを、図18のD1~D4に示すような動画の再生に連動して移動させている。これにより噴射炎VNやビームBMなどのエフェクト表現をリアルに実現できる。また後述するように、仮想カメラVCの位置からのプリミティブPMV、PMBの描画順番についてもコントロールすることで、2次元のモデルでありながら、3次元のモデルのような見た目と、ゲームプレイを実現している。即ち本実施形態では図15(A)、図15(B)に示すように、プラモデルなどの対象物POBの撮影画像に基づいて、対象物POBに対応するキャラクタCHの画像を含む仮想空間画像を生成しているが、噴射炎VNやビームBMについては、現実世界の対象物POBでは表現できない。そこで噴射炎VNやビームBMについては、プリミティブPMに対する相対的位置関係が変化するプリミティブPMV、PMB(第2のプリミティブ)を用いて表現する。そして図18のD1~D4に示すようなキャラクタCHの動画再生に矛盾しないように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係を変化させる。これにより現実世界の対象物POBでは表現できない噴射炎VNやビームBMのエフェクト表現を実現できるようになる。 As described above, in this embodiment, the primitives PMV and PMB representing the injection of the jet flame VN and the emission of the beam BM are moved in conjunction with the reproduction of the moving images shown in D1 to D4 in FIG. This makes it possible to realistically express effects such as jet flame VN and beam BM. Also, as will be described later, by controlling the drawing order of the primitive PMV and PMB from the position of the virtual camera VC, it is possible to realize the appearance and gameplay of a 3D model while being a 2D model. ing. That is, in this embodiment, as shown in FIGS. 15A and 15B, a virtual space image including an image of the character CH corresponding to the object POB such as a plastic model is created based on the photographed image of the object POB such as a plastic model. However, the jet flame VN and the beam BM cannot be represented by the real-world object POB. Therefore, the jet flame VN and the beam BM are expressed using primitives PMV and PMB (second primitives) whose relative positional relationship with respect to the primitive PM changes. Then, the relative positional relationship of the primitives PMV and PMB with respect to the primitive PM is changed so as not to contradict the moving image reproduction of the character CH as shown in D1 to D4 in FIG. As a result, it becomes possible to realize effect expression of jet flame VN and beam BM that cannot be expressed with the object POB in the real world.

2.4 移動制御情報に応じたテクスチャのマッピング
次に本実施形態の画像生成手法の詳細について説明する。図20は撮影画像群に基づく仮想空間画像の生成処理のフローチャートである。まず対象物POBを複数の撮影方向から撮影することで得られる撮影画像群を取得する(ステップS51)。例えば図15(A)のように撮影部162でムービー撮影することで、対象物POBを撮影した動画である撮影画像群を取得して、処理装置200に取り込む。そして取得した撮影画像群を記憶部170に記憶する(ステップS52)。即ち処理装置200のメモリに、動画である撮影画像群のデータを記憶して保存する。次にプリミティブPMの移動制御情報に応じて選択された撮影画像に基づいて、テクスチャTEXを生成する(ステップS53)。例えば移動制御情報(操作入力情報)に基づいて、図18のD1~D4のような撮影画像群の中から対応する撮影画像を選択し、図16(A)、図16(B)で説明したようなテクスチャTEXを生成する。そして移動制御情報に応じて変化するテクスチャTEXを、移動制御情報に応じて移動するプリミティブPMにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する(ステップS54)。例えば図18のC1~C4に示すように、移動制御情報(操作入力情報)に応じて、仮想カメラVCの位置を支点としてプリミティブPMが回転移動したり、仮想カメラVCとプリミティブPMが一体となって並進移動する。そして、このようなプリミティブPMの移動に連動して変化するテクスチャTEXをプリミティブPMにマッピングする。例えば図18のC1に示すようにプリミティブPMが仮想カメラVCの位置を支点(回転中心)として左方向に回転移動した場合には、図18のD1~D4に示すような撮影画像群の中から、プリミティブPMの回転角度に応じた撮影画像が選択されて、選択された撮影画像に基づくテクスチャTEXがプリミティブPMにマッピングされる。これにより2次元の撮影画像を用いながらも、対象物POBに対応する3次元モデルのキャラクタCHが仮想空間内において移動しているように見えるリアルな仮想空間画像を生成できるようになる。
2.4 Texture Mapping According to Movement Control Information Next, details of the image generation method of this embodiment will be described. FIG. 20 is a flowchart of processing for generating a virtual space image based on a captured image group. First, a group of photographed images obtained by photographing the object POB from a plurality of photographing directions is obtained (step S51). For example, as shown in FIG. 15A , by shooting a movie with the shooting unit 162 , a group of shot images, which are moving images of the object POB, are acquired and loaded into the processing device 200 . Then, the obtained photographed image group is stored in the storage unit 170 (step S52). That is, the data of the photographed image group, which is a moving image, is stored and saved in the memory of the processing device 200 . Next, the texture TEX is generated based on the photographed image selected according to the movement control information of the primitive PM (step S53). For example, based on movement control information (operation input information), a corresponding captured image is selected from a group of captured images such as D1 to D4 in FIG. Generate a texture TEX like this. Then, the texture TEX that changes according to the movement control information is mapped onto the primitive PM that moves according to the movement control information to generate a virtual space image seen from the virtual camera in the virtual space (step S54). For example, as indicated by C1 to C4 in FIG. 18, the primitive PM rotates about the position of the virtual camera VC, or the virtual camera VC and the primitive PM are integrated in accordance with the movement control information (operation input information). to move in translation. Then, the texture TEX that changes in conjunction with the movement of the primitive PM is mapped onto the primitive PM. For example, when the primitive PM rotates leftward about the position of the virtual camera VC as a fulcrum (rotation center) as shown in C1 in FIG. , a photographed image corresponding to the rotation angle of the primitive PM is selected, and the texture TEX based on the selected photographed image is mapped onto the primitive PM. This makes it possible to generate a realistic virtual space image in which the three-dimensional model character CH corresponding to the object POB appears to be moving in the virtual space while using the two-dimensional photographed image.

また本実施形態では、撮影画像群は、対象物POBに対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる画像群になっている。例えば図21では、対象物POBに対する撮影方向DCMの変化が360度となる撮影方向範囲RDRで、撮影部162により対象物POBが撮影されている。例えば図21では、対象物POBの後方を撮影しているときの撮影部162の撮影方向DCMの角度が0度になっており、対象物POBの左側を撮影しているときの撮影方向DCMの角度が90度になっている。また対象物POBの前方を撮影しているときの撮影方向DCMの角度が180度になっており、対象物POBの右側を撮影しているときの撮影方向DCMの角度が270度になっている。図21の撮影方向範囲RDRは、撮影部162の撮影方向DCMが0度から360度まで変化する範囲となっている。但し、例えば撮影方向DCMの変化が0~90度及び360度~270度となるような180度の撮影方向範囲RDRに設定してもよいし、撮影方向範囲RDRを180度~360度の撮影方向範囲に設定してもよい。 Further, in the present embodiment, the photographed image group is an image group in which the change in the photographing direction of the photographing unit 162 with respect to the object POB is in the photographing direction range of 180 degrees or more. For example, in FIG. 21, the object POB is photographed by the photographing unit 162 in the photographing direction range RDR in which the change of the photographing direction DCM with respect to the object POB is 360 degrees. For example, in FIG. 21, the angle of the imaging direction DCM of the imaging unit 162 when imaging the back of the object POB is 0 degrees, and the angle of the imaging direction DCM when imaging the left side of the object POB is 0 degrees. The angle is 90 degrees. Further, the angle of the imaging direction DCM when imaging the front of the object POB is 180 degrees, and the angle of the imaging direction DCM when imaging the right side of the object POB is 270 degrees. . A shooting direction range RDR in FIG. 21 is a range in which the shooting direction DCM of the shooting unit 162 changes from 0 degrees to 360 degrees. However, for example, the photographing direction range RDR may be set to 180 degrees such that the photographing direction DCM changes from 0 to 90 degrees and from 360 degrees to 270 degrees. You can also set the direction range.

このように対象物POBに対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる撮影画像群を用いることで、プリミティブPMが様々な方向に回転移動等した場合にも、これに対応した適切な撮影画像に基づくテクスチャを生成してプリミティブPMにマッピングできるようになる。 By using a group of photographed images in which the change in the photographing direction of the photographing unit 162 with respect to the object POB is 180 degrees or more in this manner, even when the primitive PM is rotated in various directions, the photographing direction can be changed. It becomes possible to generate a texture based on a suitable corresponding photographed image and map it to the primitive PM.

なお図15(A)、図21では、例えば対象物POBの主軸に沿った鉛直方向を回転軸として撮影方向DCMを回転させた場合について示しているが、本実施形態はこれに限定されない。例えば対象物POBの主軸に直交する方向である水平方向を回転軸として撮影方向DCMを回転させながら対象物POBを撮影することで、撮影画像群を取得してもよい。このようにすれば例えば図18のC3やC4の方向にプリミティブPMを回転移動させる場合にも、当該回転移動に応じた適切な撮影画像に基づくテクスチャTEXをプリミティブPMにマッピングできるようになる。また図15(A)では対象物POBの方を回転させることで、図21に示すような撮影方向範囲RDRでの撮影画像群を取得しているが、撮影部162の方を対象物POBを中心として回転させることで、撮影方向範囲RDRでの撮影画像群を取得してもよい。即ち対象物POBを注視するような撮影方向DCMで、対象物POBを中心とする円上で撮影部162を移動させる。 Note that FIGS. 15A and 21 show the case where the imaging direction DCM is rotated around the vertical direction along the main axis of the object POB, for example, but the present embodiment is not limited to this. For example, the photographed image group may be obtained by photographing the object POB while rotating the photographing direction DCM about the horizontal direction, which is the direction orthogonal to the main axis of the object POB, as the rotation axis. In this way, even when the primitive PM is rotationally moved in the direction of C3 or C4 in FIG. 18, for example, it is possible to map the texture TEX based on the appropriate photographed image corresponding to the rotational movement to the primitive PM. In FIG. 15A, by rotating the object POB, a group of photographed images in the photographing direction range RDR as shown in FIG. 21 is obtained. A captured image group in the shooting direction range RDR may be acquired by rotating around the center. That is, the photographing unit 162 is moved on a circle centered on the object POB in the photographing direction DCM such that the object POB is gazed at.

また図21のように複数の撮影方向で撮影する場合に、撮影方向の数、即ち撮影画像群の画像数はできる限り多いことが望ましい。例えば1秒間の画像のフレーム数をp(例えばp=30、60等)とした場合に、撮影方向の数に相当する撮影画像群の画像数は、p以上であることが望ましい。即ち、少なくともp個の撮影方向で対象物POBを撮影し、少なくともp個の撮影画像を含む撮影画像群を取得する。このようにすれば、少なくとも1秒間の間は、スムーズで適切なテクスチャの動画を再生して、プリミティブPMにマッピングできるようになる。 Further, when photographing is performed in a plurality of photographing directions as shown in FIG. 21, it is desirable that the number of photographing directions, that is, the number of images in the photographed image group is as large as possible. For example, when the number of image frames per second is p (eg, p=30, 60, etc.), the number of images in the captured image group corresponding to the number of shooting directions is preferably p or more. That is, the object POB is photographed in at least p photographing directions, and a photographed image group including at least p photographed images is acquired. In this way, smooth and well-textured animation can be played back and mapped onto the primitive PM for at least one second.

また本実施形態では、プリミティブPMの移動制御情報に応じて撮影画像群(第1、第2の撮影画像群)から選択された撮影画像に基づいて、プリミティブPMにマッピングするテクスチャを生成している。具体的には、例えば撮影画像群により構成される動画のシーク制御を移動制御情報に基づいて行うことで、撮影画像群から撮影画像を選択し、選択された撮影画像に基づいてテクスチャを生成する。 Further, in this embodiment, a texture to be mapped onto the primitive PM is generated based on the captured image selected from the captured image group (first and second captured image groups) according to the movement control information of the primitive PM. . Specifically, for example, a captured image is selected from the captured image group and a texture is generated based on the selected captured image by performing seek control of a moving image composed of a captured image group based on the movement control information. .

例えば図22では撮影画像IM1~IMjが撮影画像群であり、この撮影画像群から、プリミティブPMの移動制御情報に応じて選択された撮影画像IMiに基づきテクスチャが生成されて、プリミティブPMにマッピングされる。ここでi、jは1≦i≦jとなる整数である。例えばjは撮影画像群の画像数であり、前述のように1秒間の画像のフレーム数をpとした場合に、j≧pであることが望ましい。 For example, in FIG. 22, the photographed images IM1 to IMj are the photographed image group, and textures are generated from the photographed image group based on the photographed image IMi selected according to the movement control information of the primitive PM, and mapped onto the primitive PM. be. Here, i and j are integers satisfying 1≤i≤j. For example, j is the number of images in the captured image group, and if p is the number of image frames per second as described above, it is desirable that j≧p.

そして図22では、IM1~IMjの撮影画像群により構成される動画のシーク制御が移動制御情報に基づいて行われる。例えば巻き戻しのシーク制御の場合には、図22の方向DS1へのシーク制御が行われて、IM1~IMjの撮影画像群の中から移動制御情報に応じた撮影画像が選択される。一方、早送りのシーク制御の場合には、方向DS2へのシーク制御が行われて、IM1~IMjの撮影画像群の中から移動制御情報に応じた撮影画像が選択される。例えば撮影画像IM1~IMjに対してシーク番号SN1~SNjが対応づけられていたとする。この場合に、例えばプリミティブPMの移動制御情報に応じて、シーク番号SN1~SNjのいずれかが選択され、選択されたシーク番号に対応づけられた撮影画像が選択されて、テクスチャが生成され、プリミティブPMにマッピングされる。例えば移動制御情報によりシーク番号SNiが選択された場合には、シーク番号SNiに対応づけられた撮影画像IMiが選択されて、テクスチャが生成され、プリミティブPMにマッピングされるようになる。このようにすれば、撮影画像群により構成される動画のシーク制御を有効活用して、プリミティブPMの移動制御情報に対応した適切な撮影画像を選択してテクスチャを生成し、プリミティブPMにマッピングできるようになる。 Then, in FIG. 22, seek control of a moving image constituted by a group of photographed images IM1 to IMj is performed based on movement control information. For example, in the case of seek control for rewinding, seek control is performed in the direction DS1 in FIG. 22, and a photographed image corresponding to the movement control information is selected from a group of photographed images IM1 to IMj. On the other hand, in the case of fast-forward seek control, seek control is performed in the direction DS2, and a photographed image corresponding to the movement control information is selected from a group of photographed images IM1 to IMj. For example, it is assumed that seek numbers SN1 to SNj are associated with captured images IM1 to IMj. In this case, for example, one of the seek numbers SN1 to SNj is selected according to the movement control information of the primitive PM, the captured image associated with the selected seek number is selected, the texture is generated, and the primitive Mapped to PM. For example, when the seek number SNi is selected by the movement control information, the captured image IMi associated with the seek number SNi is selected, the texture is generated, and the texture is mapped onto the primitive PM. In this way, it is possible to effectively utilize the seek control of a moving image composed of a group of photographed images, select an appropriate photographed image corresponding to the movement control information of the primitive PM, generate a texture, and map it to the primitive PM. become.

また本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCを移動制御情報に応じて移動させる処理を行う。例えば図23(A)~図23(C)では、プリミティブPMに対してキャラクタCHの画像が描かれたテクスチャがマッピングされている。 Further, in the present embodiment, the processing of moving the primitive PM and the virtual camera VC according to the movement control information is performed while the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, in FIGS. 23A to 23C, a texture representing an image of the character CH is mapped onto the primitive PM.

なおキャラクタCHの画像は実際には2次元の画像であるが、図23(A)~図23(C)では、説明を理解しやすくするために、キャラクタCHの向く方向が分かるように模式的に記載している。以下の説明でも同様である。 Although the image of the character CH is actually a two-dimensional image, FIGS. described in The same applies to the following description.

図23(A)~図23(C)では、仮想カメラVCとプリミティブPMの間の距離は一定となっており、固定されている。即ち仮想カメラVCの視点位置PSとプリミティブPMの面との間の距離は一定になっている。またプリミティブPMは仮想カメラVCに正対するように配置されており、仮想カメラVCの視線方向VLがプリミティブPMの面に直交するように、プリミティブPMが配置されている。このように本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCを仮想空間において移動させる。例えばプリミティブPMとしてビルボードポリゴンを用いる。このようにすることで、プリミティブPMにテクスチャがマッピングされることにより表示されるキャラクタCH等の表示物の画像として、擬似的に3次元画像に見える画像を生成できるようになる。 In FIGS. 23A to 23C, the distance between the virtual camera VC and the primitive PM is constant and fixed. That is, the distance between the viewpoint position PS of the virtual camera VC and the plane of the primitive PM is constant. The primitive PM is arranged so as to face the virtual camera VC, and the primitive PM is arranged so that the line-of-sight direction VL of the virtual camera VC is orthogonal to the plane of the primitive PM. As described above, in this embodiment, the primitive PM and the virtual camera VC are moved in the virtual space while the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, billboard polygons are used as primitive PMs. By doing so, it is possible to generate an image that looks like a pseudo three-dimensional image as an image of a display object such as the character CH that is displayed by mapping the texture onto the primitive PM.

そして図18のC1に示すように、例えば左方向を指示するプレーヤの操作入力が行われた場合には、図23(A)から図23(B)に示すように、仮想カメラVCの視点位置PSを支点(回転中心)としてプリミティブPMが左回りに回転移動する。このときに仮想カメラVCとプリミティブPMの間の距離は一定になっており、仮想カメラVCの視線方向VLはプリミティブPMの面に直交した状態になっている。このようにプリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCが、図18のC1に示すような左方向を指示する移動制御情報に基づいて、回転移動している。このときにプリミティブPMにマッピングされるキャラクタCHの画像は、図18のD2に示すように、左回り(反時計回り)に向きが変わるようにキャラクタCHを回転した画像になる。例えばキャラクタCHの画像は、キャラクタCHに対応する対象物POBを左後方側から見た画像になる。このようにすれば、プレーヤが左方向の操作指示を行った場合には、左回りに向きを変えたキャラクタCHの画像が、仮想空間画像として表示されるようになり、左方向の操作指示による移動制御情報に応じた適切なキャラクタCHの画像を表示することが可能になる。 Then, as shown in C1 of FIG. 18, for example, when the player performs an operation input pointing to the left, the viewpoint position of the virtual camera VC changes as shown in FIGS. 23A to 23B. The primitive PM rotates counterclockwise with the PS as a fulcrum (rotation center). At this time, the distance between the virtual camera VC and the primitive PM is constant, and the line-of-sight direction VL of the virtual camera VC is perpendicular to the plane of the primitive PM. With the positional relationship between the primitive PM and the virtual camera VC fixed as described above, the primitive PM and the virtual camera VC are rotationally moved based on the movement control information indicating the left direction as indicated by C1 in FIG. ing. The image of the character CH mapped to the primitive PM at this time is an image obtained by rotating the character CH so that the orientation changes to the left (counterclockwise), as indicated by D2 in FIG. For example, the image of the character CH is an image of the object POB corresponding to the character CH viewed from the left rear side. With this configuration, when the player issues a leftward operation instruction, the image of the character CH turned counterclockwise is displayed as a virtual space image. It is possible to display an appropriate image of the character CH according to the movement control information.

また図18のC2に示すように、例えば右方向を指示するプレーヤの操作入力が行われた場合には、図23(A)から図23(C)に示すように、仮想カメラVCの視点位置PSを支点としてプリミティブPMが右回りに回転移動する。このときに仮想カメラVCとプリミティブPMの間の距離は一定になっており、仮想カメラVCの視線方向VLはプリミティブPMの面に直交した状態になっている。このようにプリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCが、図18のC2に示すような右方向を指示する移動制御情報に基づいて、回転移動している。このときにプリミティブPMにマッピングされるキャラクタCHの画像は、右回り(時計回り)に向きが変わるようにキャラクタCHを回転した画像になる。例えばキャラクタCHの画像は、キャラクタCHに対応する対象物POBを右後方から見た画像になる。このようにすれば、プレーヤが右方向の操作指示を行った場合には、右回りに向きを変えたキャラクタCHの画像が、仮想空間画像として表示されるようになり、右方向の操作指示による移動制御情報に応じた適切なキャラクタCHの画像を表示することが可能になる。 Further, as shown in C2 of FIG. 18, for example, when the player's operation input pointing to the right direction is performed, the viewpoint position of the virtual camera VC is changed as shown in FIGS. The primitive PM rotates clockwise with the PS as a fulcrum. At this time, the distance between the virtual camera VC and the primitive PM is constant, and the line-of-sight direction VL of the virtual camera VC is perpendicular to the plane of the primitive PM. With the positional relationship between the primitive PM and the virtual camera VC fixed as described above, the primitive PM and the virtual camera VC rotate and move based on the movement control information indicating the right direction as indicated by C2 in FIG. ing. At this time, the image of the character CH mapped to the primitive PM is an image obtained by rotating the character CH so that the orientation changes to the right (clockwise) direction. For example, the image of the character CH is an image of the object POB corresponding to the character CH viewed from the rear right. With this configuration, when the player issues a rightward operation instruction, the image of the character CH turned clockwise is displayed as a virtual space image. It is possible to display an appropriate image of the character CH according to the movement control information.

また本実施形態では図15(A)、図15(B)に示すように、撮影部162は、対象物POBと、対象物POBの背景BGを撮影する。例えば図15(A)の背景部20を撮影することで、図15(B)に示すように単色の背景BGが撮影されるようになる。そして撮影画像の各ピクセルの色が、背景の色に対応する色か否かを判断する。そして背景の色に対応する色のピクセルであると判断された場合には、背景の色に対応する色のピクセルを透明にする処理を行うことで、テクスチャを生成する。 Further, in this embodiment, as shown in FIGS. 15A and 15B, the photographing unit 162 photographs the object POB and the background BG of the object POB. For example, by photographing the background portion 20 in FIG. 15A, a monochromatic background BG is photographed as shown in FIG. 15B. Then, it is determined whether or not the color of each pixel of the photographed image corresponds to the color of the background. Then, when it is determined that the pixel has a color corresponding to the background color, a texture is generated by performing processing to make the pixel having a color corresponding to the background color transparent.

図24に、背景の色に対応する色のピクセルを透明にする処理のフローチャートを示す。図24の処理は例えばピクセルシェーダにより実現できる。まず処理対象ピクセルの色を判断する(ステップS61)。そして処理対象ピクセルの色は背景の色に対応する色か否かを判断する(ステップS62)。例えばグリーンバックの場合には、処理対象ピクセルの色が緑である場合に、背景の色に対応する色であると判断される。ブルーバックの場合には、処理対象ピクセルの色が青である場合に、背景の色に対応する色であると判断される。そして処理対象ピクセルの色が背景の色に対応する色であると判断された場合には、処理対象ピクセルが透明に設定される(ステップS63)。α合成処理を例にとれば、処理対象ピクセルの色が背景の色に対応する色であると判断された場合には、当該処理対象ピクセルのα値がゼロに設定される。そして撮影画像の全てのピクセルを処理したか否かを判断し(ステップS64)、全てのピクセルを処理していない場合には、処理対象ピクセルを次のピクセルに設定して(ステップS65)、ステップS11に戻る。一方、撮影画像の全てのピクセルを処理した場合には、処理を終了する。 FIG. 24 shows a flowchart of processing for making pixels of a color corresponding to the background color transparent. The processing in FIG. 24 can be implemented by, for example, a pixel shader. First, the color of the pixel to be processed is determined (step S61). Then, it is determined whether or not the color of the pixel to be processed corresponds to the background color (step S62). For example, in the case of a green screen, when the color of the pixel to be processed is green, it is determined that the color corresponds to the background color. In the case of blue background, when the color of the pixel to be processed is blue, it is determined that the color corresponds to the background color. Then, when it is determined that the color of the pixel to be processed corresponds to the color of the background, the pixel to be processed is set to transparent (step S63). Taking the alpha compositing process as an example, if the color of the pixel to be processed is determined to correspond to the color of the background, the alpha value of the pixel to be processed is set to zero. Then, it is determined whether or not all the pixels of the captured image have been processed (step S64), and if all the pixels have not been processed, the pixel to be processed is set to the next pixel (step S65), and step Return to S11. On the other hand, when all the pixels of the captured image have been processed, the process ends.

図24に示すような処理を行うことで、図15(B)に示すような撮影画像IMから図16(B)に示すようなテクスチャTEXを生成できるようになる。これにより背景BGの部分に、仮想空間の他のオブジェクトが表示された適切な仮想空間画像を生成できるようになる。また図24に示す処理は、シェーダのプログラムによるピクセルシェーダにより実現でき、処理負荷が軽い簡素な処理で実現できる。従って図3(A)、図3(B)に示すように対象物POBを撮影してからワンアクションで、当該対象物POBに対応するキャラクタCH等の表示物を仮想空間に登場させる処理を、容易に実現することが可能になる。 By performing the processing shown in FIG. 24, the texture TEX shown in FIG. 16B can be generated from the captured image IM shown in FIG. 15B. This makes it possible to generate an appropriate virtual space image in which other objects in the virtual space are displayed in the background BG portion. The processing shown in FIG. 24 can be realized by a pixel shader based on a shader program, and can be realized by simple processing with a light processing load. Therefore, as shown in FIGS. 3(A) and 3(B), the process of photographing the object POB and making the displayed object such as the character CH corresponding to the object POB appear in the virtual space with one action is as follows. It can be easily realized.

なお背景色は固定色である必要はなく、背景色を可変に設定できるようにしてもよい。例えば対象物POBの色に応じて、背景色を可変に設定する。例えば対象物POBに存在しない色に、背景色を設定したり、対象物POBの色の補色を背景色に設定する。具体的には図3(A)、図3(B)において、色を可変に設定できる背景部20を用いる。例えばプロジェクターにより、背景色となる所定色の光を投影することで、背景部20の色を可変に設定する。或いは背景部20として、曲面表示装置などの表示装置を用い、背景色となる所定色の画面を表示することで、背景部20の色を可変に設定する。このようにすることで、種々の対象物POBに応じた適切な色に背景色を設定できるようになる。 Note that the background color does not have to be a fixed color, and the background color may be set variably. For example, the background color is variably set according to the color of the object POB. For example, the background color is set to a color that does not exist in the object POB, or the complementary color of the color of the object POB is set as the background color. Specifically, in FIGS. 3A and 3B, a background portion 20 whose color can be variably set is used. For example, the color of the background portion 20 is variably set by projecting light of a predetermined color, which is the background color, using a projector. Alternatively, a display device such as a curved display device is used as the background portion 20 to display a screen of a predetermined color as the background color, thereby setting the color of the background portion 20 variably. By doing so, it becomes possible to set the background color to an appropriate color according to various objects POB.

また本実施形態では、移動制御情報に応じてプリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行う。そしてテクスチャがマッピングされたプリミティブの画像と、第2のプリミティブの画像とを含む画像を、仮想空間画像として生成する。 In addition, in this embodiment, movement processing is performed for a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information. Then, an image including the texture-mapped primitive image and the second primitive image is generated as a virtual space image.

例えば図25(A)では、第2のプリミティブとしてプリミティブPMV、PMBが、プリミティブPMの位置を基準に配置されている。図19で説明したように、プリミティブPMVはバーニアの噴射炎VNの画像を表示するためのプリミティブであり、プリミティブPMBはビーム砲が発射するビームBMの画像を表示するためのプリミティブである。なお噴射炎VNやビームBMの画像を3次元のオブジェクトを用いて生成してもよく、この場合にはプリミティブPMV、PMBは当該オブジェクトを構成するポリゴン等になる。 For example, in FIG. 25A, the primitives PMV and PMB are arranged as the second primitives with reference to the position of the primitive PM. As described with reference to FIG. 19, the primitive PMV is a primitive for displaying an image of the vernier jet flame VN, and the primitive PMB is a primitive for displaying an image of the beam BM fired by the beam cannon. The images of the jet flame VN and the beam BM may be generated using a three-dimensional object. In this case, the primitives PMV and PMB are polygons or the like that constitute the object.

そして図25(A)~図25(C)では、図23(A)~図23(C)で説明したように、移動制御情報に応じてプリミティブPMを移動する処理が行われている。またプリミティブPMにマッピングされるキャラクタCHの画像(テクスチャ)も、移動制御情報に応じた適切な撮影画像を用いて生成される。そして図25(A)~図25(C)では、移動制御情報に応じてプリミティブPMに対する相対的位置関係が変化するように、プリミティブPMV、PMBの移動処理が行われる。 25(A) to 25(C), as described with reference to FIGS. 23(A) to 23(C), the process of moving the primitive PM according to the movement control information is performed. An image (texture) of the character CH mapped onto the primitive PM is also generated using an appropriate photographed image corresponding to the movement control information. 25(A) to 25(C), the movement processing of the primitives PMV and PMB is performed so that the relative positional relationship with respect to the primitive PM changes according to the movement control information.

例えば図25(A)では、仮想カメラVCの視線方向VLの方向にキャラクタCHが向いている画像が、プリミティブPMにマッピングされている。具体的には、図21の撮影方向DCMが0度の場合のように、対象物POBを真後ろから撮影した撮影画像に基づき生成されたテクスチャが、キャラクタCHの画像としてプリミティブPMにマッピングされている。この場合には、キャラクタCHの真後ろの位置に、噴射炎VN用のプリミティブPMVが配置される。またキャラクタCHは例えば右手にビーム砲を持っているため、キャラクタCHの右前方向に、ビームBM用のプリミティブPMBが配置される。これにより図19に示すように、補助装置であるバーニアの位置から噴射炎VNが噴射されると共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 For example, in FIG. 25A, an image in which the character CH is directed in the line-of-sight direction VL of the virtual camera VC is mapped onto the primitive PM. Specifically, as in the case where the shooting direction DCM is 0 degree in FIG. 21, the texture generated based on the photographed image of the object POB photographed directly behind is mapped to the primitive PM as the image of the character CH. . In this case, the primitive PMV for the injection flame VN is arranged at the position directly behind the character CH. Also, since the character CH has a beam cannon in its right hand, for example, a primitive PMB for beam BM is arranged in the front right direction of the character CH. As a result, as shown in FIG. 19, an appropriate virtual space image can be generated in which the jet flame VN is jetted from the position of the vernier, which is an auxiliary device, and the beam BM is jetted from the position of the beam cannon.

一方、図25(B)では、図18のC1に示すように、プレーヤにより左方向への操作指示が行われており、これにより、仮想カメラVCの位置を支点として、左回り(反時計回り)にプリミティブPMが回転移動している。このようなプリミティブPMの回転移動に伴い、プリミティブPMにマッピングされるキャラクタCHの画像も、図18のD2に示すように左回りに向きを変えた画像になる。そしてこのようにキャラクタCHの画像が左回りに向きを変えた画像になるのに連動するように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係も変化する。即ち、左回りに向きを変えたキャラクタCHの後方にプリミティブPMVが位置するように、プリミティブPMに対するプリミティブPMVの相対的位置関係を変化させる。具体的には、プリミティブPMを基準として左回りに、プリミティブPMVを回転移動させる。また左回りに向きを変えたキャラクタCHの右前方向にプリミティブPMBが位置するように、プリミティブPMに対するプリミティブPMBの相対的位置関係を変化させる。具体的には、プリミティブPMを基準として左回りに、プリミティブPMBを回転移動させる。このようにすることで、バーニアの位置から噴射炎VNが噴射される共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 On the other hand, in FIG. 25B, as indicated by C1 in FIG. 18, the player has issued an operation instruction to the left, and this causes the position of the virtual camera VC to be the fulcrum to turn left (counterclockwise). ), the primitive PM is rotating. Along with such rotational movement of the primitive PM, the image of the character CH mapped on the primitive PM also turns counterclockwise as indicated by D2 in FIG. The relative positional relationship of the primitives PMV and PMB with respect to the primitive PM also changes so that the image of the character CH turns counterclockwise in this way. That is, the relative positional relationship of the primitive PMV with respect to the primitive PM is changed so that the primitive PMV is positioned behind the character CH whose direction is turned counterclockwise. Specifically, the primitive PMV is rotationally moved counterclockwise with respect to the primitive PM. Also, the relative positional relationship of the primitive PMB with respect to the primitive PM is changed so that the primitive PMB is positioned in the front right direction of the character CH whose direction is turned counterclockwise. Specifically, the primitive PMB is rotationally moved counterclockwise with respect to the primitive PM. By doing so, it becomes possible to generate an appropriate virtual space image in which the jet flame VN is ejected from the position of the vernier and the beam BM is emitted from the position of the beam cannon.

また図25(C)では、図18のC2に示すように、プレーヤにより右方向への操作指示が行われており、これにより、仮想カメラVCの位置を支点として、右回り(時計回り)にプリミティブPMが回転移動している。このようなプリミティブPMの回転移動に伴い、プリミティブPMにマッピングされるキャラクタCHの画像も、右回りに向きを変えた画像になる。そしてこのようにキャラクタCHの画像が右回りに向きを変えた画像になるのに連動するように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係も変化する。即ち、右回りに向きを変えたキャラクタCHの後方にプリミティブPMVが位置するように、プリミティブPMを基準として右回りに、プリミティブPMVを回転移動させる。また右回りに向きを変えたキャラクタCHの右前方向にプリミティブPMBが位置するように、プリミティブPMを基準として右回りに、プリミティブPMBを回転移動させる。このようにすることで、バーニアの位置から噴射炎VNが噴射される共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 In FIG. 25(C), as shown at C2 in FIG. 18, the player has given an operation instruction to the right, and as a result, the virtual camera VC moves to the right (clockwise) with the position of the virtual camera VC as a fulcrum. A primitive PM is rotating. Along with such rotational movement of the primitive PM, the image of the character CH mapped on the primitive PM also turns clockwise. The relative positional relationship of the primitives PMV and PMB with respect to the primitive PM also changes so that the image of the character CH turns clockwise in this way. That is, the primitive PMV is rotationally moved clockwise on the basis of the primitive PM so that the primitive PMV is positioned behind the character CH whose direction has been turned clockwise. Also, the primitive PMB is rotationally moved clockwise on the basis of the primitive PM so that the primitive PMB is positioned in the front right direction of the character CH whose direction is changed clockwise. By doing so, it becomes possible to generate an appropriate virtual space image in which the jet flame VN is ejected from the position of the vernier and the beam BM is emitted from the position of the beam cannon.

また本実施形態では、第2のプリミティブの隠面消去処理を、移動制御情報に応じて行う。例えば図25(B)では、ビームBMの画像は、仮想カメラVCから見てキャラクタCHに隠れて非表示になるべき画像になっている。例えば図25(A)のような位置関係においては、ビームBMの画像はキャラクタCHによって隠れずに表示されるべき画像になっている。しかしながら図25(B)のようなプリミティブPMの回転移動が行われて、プリミティブPMを基準にして左回りにプリミティブPMBが回転移動すると、プリミティブPMBのビームBMの画像は、キャラクタCHにより隠れて非表示になるべき画像になる。従って、この場合にはビームBM用のプリミティブPMBを隠面消去する処理を行う。このようにプリミティブPMBの隠面消去処理を行うことで、ビームBMの画像が仮想カメラVCから見て非表示になり、適切な仮想空間画像を生成できるようになる。即ち、通常ならば、仮想カメラVCから見たプリミティブPM、PMV、PMBの前後関係(奥行き値)を判断して隠面消去処理が行われる。この点、本実施形態では、プリミティブPMにマッピングされるキャラクタCHとビームBMや噴射炎VNとの前後関係を、移動制御情報に基づき判断して、隠面消去処理を行う。このようにすることで、適切な隠面消去が行われた仮想空間画像を生成できるようになる。 Further, in this embodiment, the hidden surface removal processing of the second primitive is performed according to the movement control information. For example, in FIG. 25B, the image of the beam BM is an image that should be hidden behind the character CH when viewed from the virtual camera VC. For example, in the positional relationship shown in FIG. 25A, the image of the beam BM is an image that should be displayed without being hidden by the character CH. However, when the primitive PM is rotationally moved as shown in FIG. 25B and the primitive PMB is rotationally moved counterclockwise with respect to the primitive PM, the image of the beam BM of the primitive PMB is hidden by the character CH. Becomes an image that should be displayed. Therefore, in this case, processing for hidden surface elimination is performed on the primitive PMB for the beam BM. By performing the hidden surface removal processing of the primitive PMB in this way, the image of the beam BM is hidden from the virtual camera VC, and an appropriate virtual space image can be generated. That is, normally, hidden surface removal processing is performed by judging the anteroposterior relationship (depth value) of the primitives PM, PMV, and PMB as seen from the virtual camera VC. In this regard, in this embodiment, the hidden surface removal process is performed by judging the anteroposterior relationship between the character CH mapped onto the primitive PM and the beam BM or jet flame VN based on the movement control information. By doing so, it becomes possible to generate a virtual space image in which hidden surface removal has been appropriately performed.

また本実施形態では対象物POBの分析結果に基づき設定される第2のプリミティブの初期配置位置から、プリミティブPMを基準に第2のプリミティブを移動させる処理を行う。例えば図26では、対象物POBのシルエット分析等の分析処理を行うことで、バーニアの噴射炎VNの噴射位置やビームBMの発射位置を特定する。即ち対象物POBの種類や形状に応じて、噴射炎VNの噴射位置やビームBMの発射位置は異なる。そこで、対象物POBの撮影画像に基づくシルエット分析等の分析処理を行うことで、対象物POBの種類や形状を特定して、噴射炎VNの噴射位置やビームBMの発射位置を特定する。そして図26に示すように、特定された噴射炎VNの噴射位置を、噴射炎VN用のプリミティブPMVの初期配置位置PI1に設定する。また、特定されたビームBMの発射位置を、ビームBM用のプリミティブPMBの初期配置位置PI2に設定する。そして、これらの初期配置位置PI1、PI2から、図25(A)~図25(C)に示すように、プリミティブPMVを基準にプリミティブPMV、PMBを移動させる処理を行う。即ちPI1、PI2を初期配置位置として、プリミティブPMVを基準にプリミティブPMV、PMBを回転移動させる。このようにすれば、対象物POBの分析結果に応じた適切な初期配置位置PI1、PI2にプリミティブPMV、PMBを配置し、移動制御情報に応じてプリミティブPMが移動した場合に、その移動に連動した適切な位置に噴射炎VNの画像やビームBMの画像を表示できるようになる。 Further, in this embodiment, processing is performed to move the second primitive based on the primitive PM from the initial placement position of the second primitive set based on the analysis result of the target object POB. For example, in FIG. 26, the injection position of the injection flame VN of the vernier and the emission position of the beam BM are specified by performing analysis processing such as silhouette analysis of the object POB. That is, the ejection position of the jet flame VN and the ejection position of the beam BM differ according to the type and shape of the object POB. Therefore, by performing analysis processing such as silhouette analysis based on the photographed image of the object POB, the type and shape of the object POB are specified, and the ejection position of the jet flame VN and the emission position of the beam BM are specified. Then, as shown in FIG. 26, the specified injection position of the injection flame VN is set to the initial placement position PI1 of the primitive PMV for the injection flame VN. Also, the identified beam BM emission position is set to the initial arrangement position PI2 of the primitive PMB for the beam BM. Then, as shown in FIGS. 25A to 25C, the primitives PMVs and PMBs are moved from these initial placement positions PI1 and PI2 based on the primitives PMVs. That is, with PI1 and PI2 as initial placement positions, the primitives PMV and PMB are rotationally moved with reference to the primitive PMV. In this way, the primitives PMV and PMB are placed at the appropriate initial placement positions PI1 and PI2 according to the analysis result of the target object POB, and when the primitive PM moves according to the movement control information, the movement is interlocked with the movement. The image of the injection flame VN and the image of the beam BM can be displayed at the appropriate position.

なお対象物POBにおいて、噴射炎VNの噴射位置やビームBMの発射位置にマーカを取り付けて、対象物POBの分析処理において、このマーカの認識処理を行うことで、第2のプリミティブの初期配置位置を決定してもよい。即ち、マーカの認識処理の結果に基づいて、噴射炎VN用のプリミティブPMVの初期配置位置PI1やビームBM用のプリミティブPMBの初期配置位置PI2に決定する。 In the target object POB, markers are attached to the jetting position of the jet flame VN and the emitting position of the beam BM, and in the analysis processing of the target object POB, the initial arrangement position of the second primitive is obtained by performing the recognition processing of these markers. may be determined. That is, the initial arrangement position PI1 of the primitive PMV for the jet flame VN and the initial arrangement position PI2 of the primitive PMB for the beam BM are determined based on the result of the marker recognition processing.

また本実施形態では、プリミティブPMV、PMBの画像である噴射炎VN、ビームBMの画像は、エフェクト画像である。即ち本実施形態では対象物POBを撮影部162により実写することで、テクスチャを生成して、対象物POBに対応するキャラクタCHの画像を表示しているが、噴射炎VNやビームBMなどのエフェクトの画像は、撮影部162による実写によっては撮影できない。そこで本実施形態では、噴射炎VNやビームBMなどのエフェクトの画像については、プリミティブPMに対して相対的に配置されたプリミティブPMV、PMBを用いて生成するようにしている。このようにすれば、撮影部162による実写によっては撮影できないエフェクトの画像を、対象物POBに対応するキャラクタCHの画像に付随して表示できるようになる。 In this embodiment, the images of the jet flame VN and the beam BM, which are the images of the primitive PMV and PMB, are effect images. That is, in the present embodiment, the image of the object POB is photographed by the photographing unit 162 to generate the texture and display the image of the character CH corresponding to the object POB. cannot be photographed by photographing by the photographing unit 162 . Therefore, in the present embodiment, images of effects such as jet flame VN and beam BM are generated using primitives PMV and PMB arranged relative to primitive PM. In this way, an effect image that cannot be photographed by the photographing unit 162 can be displayed along with the image of the character CH corresponding to the object POB.

また本実施形態では、仮想空間画像として、プリミティブの画像と、仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成し、生成された仮想空間画像に対してポストエフェクト処理を行う。例えば図27では、仮想空間画像として、プリミティブPMの画像であるキャラクタCHの画像と、仮想空間に設定される岩のオブジェクトOB1、OB2、OB3や敵キャラクタCHEのオブジェクトの画像を含む画像が生成されている。そして、このように生成された仮想空間画像に対してポストエフェクト処理を行う。例えば、ぼかし処理、明るさの調整処理又は色相の調整処理などのポストエフェクト処理を行う。例えば、他のオブジェクトOB1、OB2、OB3等が表示される仮想空間画像に対して、プリミティブPMにより表されるキャラクタCHの画像が違和感なく表示されるようにするポストエフェクト処理を行う。例えばプリミティブPMにより表されるキャラクタCHの輪郭をぼかすようなポストエフェクト処理を行って、キャラクタCHと仮想空間画像の境界である輪郭が目立たなくなるようにする。またキャラクタCHの画像の明るさと、周囲の仮想空間画像の明るさに差があった場合に、この差を小さくするようなポストエフェクト処理を行う。このようにすることで、撮影画像に基づき生成されるキャラクタCHの画像が、周囲の仮想空間に対して違和感なく溶け込んで見えるような高品質でリアルな仮想空間画像を生成できるようになる。 Also, in this embodiment, an image including a primitive image and images of a plurality of objects set in the virtual space is generated as the virtual space image, and post-effect processing is performed on the generated virtual space image. For example, in FIG. 27, as virtual space images, an image of a character CH, which is an image of a primitive PM, and an image including rock objects OB1, OB2, and OB3 set in the virtual space and an object image of an enemy character CHE are generated. ing. Then, post-effect processing is performed on the virtual space image generated in this way. For example, post-effect processing such as blur processing, brightness adjustment processing, or hue adjustment processing is performed. For example, post-effect processing is performed on the virtual space image in which the other objects OB1, OB2, OB3, etc. are displayed so that the image of the character CH represented by the primitive PM is displayed in a natural manner. For example, post-effect processing is performed to blur the outline of the character CH represented by the primitive PM so that the outline, which is the boundary between the character CH and the virtual space image, becomes inconspicuous. Also, if there is a difference between the brightness of the image of the character CH and the brightness of the surrounding virtual space image, post-effect processing is performed to reduce this difference. By doing so, it is possible to generate a high-quality and realistic virtual space image in which the image of the character CH generated based on the captured image blends seamlessly into the surrounding virtual space.

また本実施形態では、他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得する。そして他の表示物用の移動制御情報に応じて、他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成する。そして他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、仮想空間画像を生成する。ここで他の表示物は、例えば敵キャラクタである。 Further, in this embodiment, a group of photographed images for another display object obtained by photographing another object corresponding to another display object from a plurality of photographing directions is acquired. Then, according to the movement control information for the other display object, the texture for the other display object is generated based on the photographed image selected from the group of photographed images for the other display object. Then, the texture for the other display object, which changes according to the movement control information for the other display object, is mapped to the primitive for the other display object to generate a virtual space image. Here, another display object is, for example, an enemy character.

例えば図28では、他の表示物である敵キャラクタCHE1、CHE2の画像を含む仮想空間画像を生成している。この場合には敵キャラクタCHE1、CHE2に対応する対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する。例えば図15(A)、図15(B)と同様の手法により、敵キャラクタCHE1、CHE2に対応する敵ロボットのプラモデルを複数の撮影方向から撮影することで、敵キャラクタCHE1、CHE2用(他の表示物用)の撮影画像群を取得する。そして敵キャラクタCHE1、CHE2用の移動制御情報に応じて、敵キャラクタCHE1、CHE2用の撮影画像群から選択された撮影画像に基づいて、敵キャラクタCHE1、CHE2用のテクスチャTEXE1、TEXE2を生成する。即ち、敵キャラクタCHE1、CHE2は、敵キャラクタCHE1、CHE2用の移動制御情報に基づいて仮想空間内を移動する。この敵キャラクタCHE1、CHE2用の移動制御情報に基づいて、敵キャラクタCHE1、CHE2用の撮影画像群から撮影画像を選択して、敵キャラクタCHE1、CHE2用のテクスチャTEXE1、TEXE2を生成する。このようにすることで、プレーヤのキャラクタCHの場合と同様に、移動制御情報を反映させたテクスチャTEXE1、TEXE2を生成できるようになる。そして図28に示すように、生成されたテクスチャTEXE1、TEXE2を、敵キャラクタCHE1、CHE2用のプリミティブPME1、PME2にマッピングすることで、仮想空間画像を生成する。 For example, in FIG. 28, a virtual space image including images of enemy characters CHE1 and CHE2, which are other displayed objects, is generated. In this case, a group of photographed images obtained by photographing objects corresponding to enemy characters CHE1 and CHE2 from a plurality of photographing directions is obtained. For example, in the same manner as in FIGS. 15A and 15B, plastic models of enemy robots corresponding to enemy characters CHE1 and CHE2 are photographed from a plurality of photographing directions. (for display object) is acquired. Textures TEXE1 and TEXE2 for the enemy characters CHE1 and CHE2 are generated based on the captured images selected from the group of captured images for the enemy characters CHE1 and CHE2 according to the movement control information for the enemy characters CHE1 and CHE2. That is, the enemy characters CHE1 and CHE2 move in the virtual space based on the movement control information for the enemy characters CHE1 and CHE2. Based on the movement control information for the enemy characters CHE1 and CHE2, captured images are selected from a group of captured images for the enemy characters CHE1 and CHE2 to generate textures TEXE1 and TEXE2 for the enemy characters CHE1 and CHE2. By doing so, textures TEXE1 and TEXE2 that reflect the movement control information can be generated, as in the case of the player's character CH. Then, as shown in FIG. 28, a virtual space image is generated by mapping the generated textures TEXE1 and TEXE2 onto the primitives PME1 and PME2 for the enemy characters CHE1 and CHE2.

このようにすれば、敵キャラクタCHE1、CHE2についても、キャラクタCHの場合と同様に、敵キャラクタCHE1、CHE2に対応する対象物である敵ロボットのプラモデルを、仮想空間内に出現させるような演出が可能になる。これにより、プレーヤのロボットのプラモデルと敵ロボットのプラモデルとが仮想空間において対戦するというような、これまでにないゲームを実現できる。また敵キャラクタCHE1、CHE2の画像についても、敵キャラクタCHE1、CHE2用の移動制御情報を反映させた画像にすることができ、よりリアルな画像の生成が可能になる。例えば図28では、敵キャラクタCHE1については、プリミティブPME1を基準に右前方を向くような画像が生成され、キャラクタCHの方を向いている敵キャラクタCHE1の画像が、仮想空間画像として生成されるようになる。また敵キャラクタCHE2については、プリミティブPME2を基準に左前方を向くような画像が生成され、キャラクタCHの方を向いている敵キャラクタCHE2の画像が、仮想空間画像として生成されるようになる。これによりプレーヤの仮想現実感の向上等を図れる。 In this manner, for the enemy characters CHE1 and CHE2, as in the case of the character CH, an effect can be achieved in which plastic models of the enemy robots, which are objects corresponding to the enemy characters CHE1 and CHE2, appear in the virtual space. be possible. As a result, it is possible to realize an unprecedented game in which the plastic model of the player's robot and the plastic model of the enemy robot compete in a virtual space. In addition, the images of the enemy characters CHE1 and CHE2 can also be images that reflect the movement control information for the enemy characters CHE1 and CHE2, making it possible to generate more realistic images. For example, in FIG. 28, for the enemy character CHE1, an image is generated that looks forward right with respect to the primitive PME1, and an image of the enemy character CHE1 that faces the character CH is generated as a virtual space image. become. As for the enemy character CHE2, an image is generated that looks forward left based on the primitive PME2, and an image of the enemy character CHE2 that faces the character CH is generated as a virtual space image. As a result, the player's sense of virtual reality can be improved.

また本実施形態では、プリミティブPMの周囲にパーティクルが表示される画像を、仮想空間画像として生成する。例えば図29では、キャラクタCHの画像がマッピングされるプリミティブPMの周囲にパーティクルPTを発生させている。パーティクルPTの表示処理は、運動する粒子により構成される事象を表現するための処理であり、例えば物理シミュレーションによりパーティクルPTの移動等を制御する。例えばパーティクルPTの発生時の初速や重さ、重力や空気抵抗などの環境条件を設定することで、より精密なパーティクル制御を実現できる。一例としては、パーティクルPTの頂点座標を管理するバッファを記憶部170に設け、再帰的にシェーダ計算を行うことで、パーティクルPTの挙動を制御する。 Also, in this embodiment, an image in which particles are displayed around the primitive PM is generated as a virtual space image. For example, in FIG. 29, particles PT are generated around the primitive PM on which the image of the character CH is mapped. The display processing of the particles PT is processing for representing an event composed of particles in motion, and for example, controls the movement of the particles PT by physics simulation. For example, more precise particle control can be achieved by setting environmental conditions such as the initial velocity and weight of the particles PT, gravity, and air resistance when they are generated. As an example, the storage unit 170 is provided with a buffer for managing the vertex coordinates of the particles PT, and the behavior of the particles PT is controlled by recursively performing shader calculations.

即ち、本実施形態では対象物POBの2次元の撮影画像を用いて、擬似的に3次元画像に見えるキャラクタCHの画像を生成している。一方、仮想空間の他のオブジェクトについては3次元モデルにより表現されている。このため、何ら工夫を行わないと、擬似的な3次元画像であるキャラクタCHの画像と、3次元モデルである他のオブジェクトの画像との間に違和感が生じてしまい、プレーヤの仮想現実感を損ねるおそれがある。この点、図29に示すようにキャラクタCHの画像がマッピングされるプリミティブPMの周囲にパーティクルPTを発生すれば、プリミティブPMが仮想空間内を移動したときに、周囲に存在するパーティクルPTが要因となって、3次元の空間感を創出できる。これにより、あたかも3次元モデルのキャラクタCHが、3次元の仮想空間を移動しているかのような仮想現実感を、プレーヤに与えることが可能になる。 That is, in the present embodiment, the image of the character CH that looks like a pseudo three-dimensional image is generated using the two-dimensional captured image of the object POB. On the other hand, other objects in the virtual space are represented by three-dimensional models. Therefore, unless some measures are taken, the image of the character CH, which is a pseudo three-dimensional image, and the image of another object, which is a three-dimensional model, will cause a sense of incongruity, and the player's sense of virtual reality will be spoiled. There is a risk of loss. In this regard, if the particles PT are generated around the primitive PM on which the image of the character CH is mapped as shown in FIG. It becomes possible to create a three-dimensional sense of space. This makes it possible to give the player a virtual reality feeling as if the three-dimensional model character CH were moving in a three-dimensional virtual space.

図30に本実施形態のゲームシステムの業務用のゲーム装置210への適用例を示す。図30のゲームシステムでは、本体装置である業務用のゲーム装置210に加えて、撮影部162と、対象物POBが配置される配置部10と、回転移動機構12とが設けられている。具体的には図30のゲームシステムでは、撮影用筐体220が設けられており、この撮影用筐体220に、撮影部162と配置部10と回転移動機構12が設けられている。また撮影用筐体220には背景部20も設けられている。回転移動機構12は、配置部10に配置された対象物POBに対する撮影部162の撮影方向を変化させるための回転移動を行う機構である。図30では回転移動機構12が配置部10を回転させることで、対象物POBに対する撮影部162の撮影方向を変化させている。ゲーム装置210(本体側筐体)と撮影用筐体220は、例えば有線又は無線により通信接続されており、例えば回転移動機構12による配置部10の回転を、ゲーム装置210により制御できるようになっている。 FIG. 30 shows an application example of the game system of this embodiment to a commercial game device 210 . In the game system of FIG. 30, in addition to the commercial game device 210, which is the main device, a photographing section 162, an arrangement section 10 in which the object POB is arranged, and a rotational movement mechanism 12 are provided. Specifically, in the game system of FIG. 30, a shooting housing 220 is provided, and this shooting housing 220 is provided with a shooting section 162 , a placement section 10 , and a rotational movement mechanism 12 . A background section 20 is also provided in the imaging housing 220 . The rotational movement mechanism 12 is a mechanism that performs rotational movement for changing the photographing direction of the photographing unit 162 with respect to the object POB arranged in the arrangement unit 10 . In FIG. 30, the rotational movement mechanism 12 rotates the placement unit 10 to change the photographing direction of the photographing unit 162 with respect to the object POB. The game device 210 (body-side housing) and the shooting housing 220 are connected for communication, for example, by wire or wirelessly. ing.

図30のゲームシステムでは、プレーヤは、まず撮影用筐体220の配置部10に、プレーヤが撮影を希望するロボットのプラモデルなどの対象物POBを配置する。そしてゲーム装置210においてプレーヤが例えば撮影を指示する操作を行うと、回転移動機構12が配置部10を回転させ、撮影部162が、図21に示すように360度の撮影方向範囲での対象物POBの撮影を行う。そして、撮影により得られた動画(撮影画像群)のデータは、ゲーム装置210に転送され、ゲーム装置210の記憶部170に保存される。そして図3(A)、図3(B)に示すように、プレーヤは、対象物POBの撮影からワンアクションで、対象物POBに対応するキャラクタCHが仮想空間に登場するゲームを、プレイできるようになる。これにより、プレーヤは、自身が所有するプラモデル等の対象物POBに対応するキャラクタCHを仮想空間に登場させて、キャラクタCHを用いたゲームを楽しむことが可能になり、これまでにないゲームの実現が可能になる。 In the game system shown in FIG. 30, the player first places an object POB, such as a plastic model of a robot that the player wishes to photograph, in the placement section 10 of the housing 220 for photography. Then, when the player performs an operation for instructing, for example, photographing on the game device 210, the rotation movement mechanism 12 rotates the placement unit 10, and the photographing unit 162 moves the object within a 360-degree photographing direction range as shown in FIG. Take a picture of the POB. Data of the moving image (captured image group) obtained by shooting is transferred to the game device 210 and stored in the storage unit 170 of the game device 210 . As shown in FIGS. 3A and 3B, the player can play a game in which the character CH corresponding to the object POB appears in the virtual space with one action after photographing the object POB. become. As a result, the player can make the character CH corresponding to the object POB such as a plastic model owned by the player appear in the virtual space and enjoy the game using the character CH, realizing an unprecedented game. becomes possible.

なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(対象物、表示物等)と共に記載された用語(プラモデル、キャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また撮影画像群の取得処理、プリミティブの移動処理、テクスチャの生成処理、仮想空間画像の生成処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。 Although the present embodiment has been described in detail as above, those skilled in the art will easily understand that many modifications are possible without substantially departing from the novel matters and effects of the present disclosure. Accordingly, all such modifications are intended to be included within the scope of this disclosure. For example, a term (plastic model, character, etc.) that is described at least once in the specification or drawings together with a different term (object, display object, etc.) that has a broader definition or has the same meaning cannot be used anywhere in the specification or drawings. Different terms can be substituted. In addition, the acquisition processing of the photographed image group, the primitive movement processing, the texture generation processing, the virtual space image generation processing, etc. are not limited to those described in the present embodiment, and equivalent methods, processing, and configurations are also possible in the present invention. Included within the scope of disclosure.

CP1~CP4 投稿コンテンツ、PV1~PV4 ゲーム動画、
PIM1~PIM4 投稿画像、POB、POB1、POB2 対象物、
PM、PMV、PMB、PME1、PME2 プリミティブ、
TEX、TEXE1、TEXE2 テクスチャ、PT パーティクル、
CH キャラクタ、CHE、CHE1、CHE2 敵キャラクタ、
OB1~OB3 オブジェクト、IM 撮影画像、BG 背景、
RDR 撮影方向範囲、VC 仮想カメラ、VL 視線方向、
PS 視点位置、RL レール、VM ビューボリューム、
VN 噴射炎、BM ビーム、DCM 撮影方向、TM、TM1、TM2 端末装置、
10 配置部、12 回転移動機構、20 背景部、
100 処理部、102 投稿処理部、104 パラメータ設定部、
106 ゲーム処理部、108 編集処理部、110 取得部、
111 分析部、112 移動処理部、114 テクスチャ生成部、
120 画像生成部、130 音生成部、160 操作部、162 撮影部、
170 記憶部、172 インプレッション情報記憶部、174 パラメータ記憶部、
176 撮影画像情報記憶部、177 仮想空間情報記憶部、
178 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 I/F部、195 携帯型情報記憶媒体、196 通信部、
200 処理装置、210 ゲーム装置、220 撮影用筐体、
500 サーバシステム、510 ネットワーク
CP1-CP4 posted content, PV1-PV4 game videos,
PIM1 to PIM4 Posted image, POB, POB1, POB2 Object,
PM, PMV, PMB, PME1, PME2 primitives,
TEX, TEXE1, TEXE2 Texture, PT Particle,
CH character, CHE, CHE1, CHE2 enemy character,
OB1 to OB3 Object, IM Photographed image, BG Background,
RDR shooting direction range, VC virtual camera, VL viewing direction,
PS viewpoint position, RL rail, VM view volume,
VN jet flame, BM beam, DCM shooting direction, TM, TM1, TM2 terminal device,
10 arrangement part, 12 rotation movement mechanism, 20 background part,
100 processing unit, 102 posting processing unit, 104 parameter setting unit,
106 game processing unit, 108 editing processing unit, 110 acquisition unit,
111 analysis unit, 112 movement processing unit, 114 texture generation unit,
120 image generation unit, 130 sound generation unit, 160 operation unit, 162 imaging unit,
170 storage unit, 172 impression information storage unit, 174 parameter storage unit,
176 captured image information storage unit, 177 virtual space information storage unit,
178 drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 I/F unit, 195 portable information storage medium, 196 communication unit,
200 processing device, 210 game device, 220 shooting housing,
500 server system, 510 network

Claims (15)

実空間の物体である対象物をプレーヤが撮影部により撮影した撮影画像を、投稿コンテンツとして投稿サイトに投稿する処理を行う投稿処理部と、
前記投稿サイトにおいて前記投稿コンテンツを閲覧した利用者による前記投稿コンテンツのインプレッション情報を取得し、取得した前記インプレッション情報に基づいてゲームパラメータを設定するパラメータ設定部と、
前記撮影画像に映る前記対象物の画像をテクスチャとして生成するテクスチャ生成部と、
前記対象物に対応するキャラクタの画像を前記テクスチャのマッピングにより生成することで、前記キャラクタがゲームに登場するゲーム処理を行うと共に、前記インプレッション情報に基づいて、前記キャラクタについてのゲームパラメータを設定し、前記ゲームパラメータに基づいて、前記投稿コンテンツの投稿者である前記プレーヤがプレイする前記ゲームの前記ゲーム処理を行うゲーム処理部と、
を含むことを特徴とするゲームシステム。
a posting processing unit that performs a process of posting a captured image of an object, which is an object in real space, captured by a shooting unit on a posting site as posted content;
a parameter setting unit that acquires impression information of the posted content by a user who viewed the posted content on the posting site, and sets game parameters based on the acquired impression information;
a texture generation unit that generates an image of the object appearing in the captured image as a texture;
performing game processing in which the character appears in a game by generating an image of the character corresponding to the object by mapping the texture, and setting game parameters for the character based on the impression information ; a game processing unit that performs the game processing of the game played by the player who is the contributor of the posted content, based on the game parameters;
A game system comprising:
実空間の物体である対象物をプレーヤが撮影部により撮影した撮影画像を、投稿コンテンツとして投稿サイトに投稿する処理を行う投稿処理部と、
前記投稿サイトにおいて前記投稿コンテンツを閲覧した利用者による前記投稿コンテンツのインプレッション情報を取得し、取得した前記インプレッション情報に基づいてゲームパラメータを設定するパラメータ設定部と、
前記撮影画像に映る前記対象物の画像と、前記対象物に対応するキャラクタを表すためのプリミティブとに基づいて、前記キャラクタの画像を生成し、ゲームに登場する前記キャラクタが前記プリミティブの移動制御により移動するゲーム処理を行うと共に、前記インプレッション情報に基づいて、前記キャラクタについてのゲームパラメータを設定し、前記ゲームパラメータに基づいて、前記投稿コンテンツの投稿者である前記プレーヤがプレイする前記ゲームの前記ゲーム処理を行うゲーム処理部と、
を含むことを特徴とするゲームシステム。
a posting processing unit that performs a process of posting a captured image of an object, which is an object in real space, captured by a shooting unit on a posting site as posted content;
a parameter setting unit that acquires impression information of the posted content by a user who viewed the posted content on the posting site, and sets game parameters based on the acquired impression information;
An image of the character is generated based on the image of the object appearing in the photographed image and a primitive for representing the character corresponding to the object, and the character appearing in the game is moved by movement control of the primitive. A game process for moving is performed, game parameters for the character are set based on the impression information, and the game is played by the player who is the poster of the posted content based on the game parameters. a game processing unit that performs processing;
A game system comprising:
請求項2において、
前記撮影画像に映る前記対象物の画像をテクスチャとして生成するテクスチャ生成部を含み、
前記ゲーム処理部は、
前記対象物に対応する前記キャラクタの画像を前記テクスチャのマッピングにより生成することを特徴とするゲームシステム
In claim 2,
a texture generation unit that generates a texture of the image of the object appearing in the captured image;
The game processing unit
A game system characterized by generating an image of the character corresponding to the object by mapping the texture..
請求項1乃至3のいずれかにおいて、
前記パラメータ設定部は、
前記投稿コンテンツに映る前記対象物の分析結果に基づいて、前記ゲームパラメータの基礎パラメータ値を設定し、前記基礎パラメータ値に設定された前記ゲームパラメータを、前記インプレッション情報に基づいて変化させることを特徴とするゲームシステム。
In any one of claims 1 to 3 ,
The parameter setting unit
A basic parameter value of the game parameter is set based on an analysis result of the object appearing in the posted content, and the game parameter set to the basic parameter value is changed based on the impression information. game system.
請求項において、
前記パラメータ設定部は、
前記対象物を前記撮影部により撮影した前記撮影画像に基づいて、前記対象物の分析処理を行い、前記分析処理の前記分析結果に基づいて、前記基礎パラメータ値を設定することを特徴とするゲームシステム。
In claim 4 ,
The parameter setting unit
A game characterized in that analysis processing of the object is performed based on the photographed image of the object photographed by the photographing unit, and the basic parameter value is set based on the analysis result of the analysis processing. system.
請求項1乃至のいずれかにおいて、
前記インプレッション情報は、前記投稿コンテンツの支持数の情報、閲覧数の情報、閲覧時間の情報、又は他の利用者への前記投稿コンテンツの伝達数の情報であることを特徴とするゲームシステム。
In any one of claims 1 to 5 ,
The game system, wherein the impression information is information on the number of times the posted content has been supported, information on the number of views, information on the viewing time, or information on the number of times the posted content has been transmitted to other users.
請求項1乃至のいずれかにおいて、
前記パラメータ設定部は、
前記投稿サイトにおいて前記投稿コンテンツを閲覧することで前記投稿コンテンツに前記インプレッション情報を与えた前記利用者が、前記プレーヤと所定関係を有するプレーヤであるか否かに応じて、前記ゲームパラメータの設定に用いる前記インプレッション情報を変化させることを特徴とするゲームシステム。
In any one of claims 1 to 6 ,
The parameter setting unit
Depending on whether or not the user who gives the impression information to the posted content by browsing the posted content on the posting site is a player having a predetermined relationship with the player, the game parameters may be set. A game system characterized by changing the impression information to be used.
請求項1乃至のいずれかにおいて、
前記パラメータ設定部は、
前記プレーヤの投稿情報に基づいて、前記プレーヤの個人情報を設定し、設定された前記個人情報に応じて、前記ゲームパラメータの設定に用いる前記インプレッション情報を変化させることを特徴とするゲームシステム。
In any one of claims 1 to 7 ,
The parameter setting unit
A game system, wherein personal information of the player is set based on the posted information of the player, and the impression information used for setting the game parameters is changed according to the set personal information.
請求項において、
前記投稿情報は、前記プレーヤの投稿コンテンツ数、投稿回数、又は投稿時間の累積時間の情報であることを特徴とするゲームシステム。
In claim 8 ,
The game system, wherein the posted information is information on the number of pieces of content posted by the player, the number of times of posting, or cumulative time of posting.
請求項1乃至のいずれかにおいて、
前記ゲーム処理部は、
前記プレーヤがプレイする前記ゲームの結果に応じて、ゲームポイントを前記プレーヤに獲得させる処理を行い、
前記投稿処理部は、
前記プレーヤによる前記投稿コンテンツの投稿の際に、前記プレーヤの前記ゲームポイントを消費させる処理を行うことを特徴とするゲームシステム。
In any one of claims 1 to 9 ,
The game processing unit
performing a process of allowing the player to acquire game points according to the result of the game played by the player;
The post processing unit is
A game system characterized by performing a process of consuming the game points of the player when the player posts the posted content.
請求項1乃至10のいずれかにおいて、
前記投稿処理部は、
前記プレーヤが投稿した前記投稿コンテンツに対して、前記プレーヤがプレイする前記ゲームのゲームIDを関連づける処理を行い、
前記パラメータ設定部は、
前記ゲームIDが関連づけられた前記投稿コンテンツの前記インプレッション情報を取得して、取得した前記インプレッション情報に基づいて、前記ゲームIDに対応する前記ゲームの前記ゲームパラメータを設定することを特徴とするゲームシステム。
In any one of claims 1 to 10 ,
The post processing unit is
performing a process of associating a game ID of the game played by the player with the posted content posted by the player;
The parameter setting unit
A game system characterized by acquiring the impression information of the posted content associated with the game ID, and setting the game parameters of the game corresponding to the game ID based on the acquired impression information. .
請求項1又は3において、
前記撮影部により前記対象物を複数の撮影方向から撮影することで得られる撮影画像群を記憶する記憶部と、
仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
画像生成部と、
を含み、
前記テクスチャ生成部は、
前記撮像画像群に基づいて、前記プリミティブにマッピングする前記テクスチャを生成し、
前記画像生成部は、
前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成するとを特徴とするゲームシステム。
In claim 1 or 3 ,
a storage unit that stores a group of photographed images obtained by photographing the object from a plurality of photographing directions by the photographing unit;
a movement processing unit that performs processing for moving primitives in a virtual space;
an image generator;
including
The texture generation unit
generating the texture to be mapped to the primitive based on the group of captured images ;
The image generator is
A game system, wherein the texture is mapped onto the primitive to generate a virtual space image viewed from a virtual camera in the virtual space.
請求項12において、
前記移動処理部は、
移動制御情報に基づいて、前記仮想空間において前記プリミティブを移動させる処理を行い、
前記テクスチャ生成部は、
前記プリミティブの前記移動制御情報に応じて前記撮影画像群から選択された撮影画像に基づいて、前記プリミティブにマッピングする前記テクスチャを生成し、
前記画像生成部は、
前記移動制御情報に応じて変化する前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間画像を生成することを特徴とするゲームシステム。
In claim 12 ,
The movement processing unit
performing a process of moving the primitive in the virtual space based on the movement control information;
The texture generation unit
generating the texture to be mapped to the primitive based on the captured image selected from the captured image group according to the movement control information of the primitive;
The image generator is
A game system, wherein the texture that changes according to the movement control information is mapped onto the primitive to generate the virtual space image.
実空間の物体である対象物をプレーヤが撮影部により撮影した撮影画像を、投稿コンテンツとして投稿サイトに投稿する処理を行う投稿処理部と、
前記投稿サイトにおいて前記投稿コンテンツを閲覧した利用者による前記投稿コンテンツのインプレッション情報を取得し、取得した前記インプレッション情報に基づいてゲームパラメータを設定するパラメータ設定部と、
前記撮影画像に映る前記対象物の画像をテクスチャとして生成するテクスチャ生成部と、
前記対象物に対応するキャラクタの画像を前記テクスチャのマッピングにより生成することで、前記キャラクタがゲームに登場するゲーム処理を行うと共に、前記インプレッション情報に基づいて、前記キャラクタについてのゲームパラメータを設定し、前記ゲームパラメータに基づいて、前記投稿コンテンツの投稿者である前記プレーヤがプレイする前記ゲームの前記ゲーム処理を行うゲーム処理部として、
コンピュータを機能させることを特徴とするプログラム。
a posting processing unit that performs a process of posting a captured image of an object, which is an object in real space, captured by a shooting unit on a posting site as posted content;
a parameter setting unit that acquires impression information of the posted content by a user who viewed the posted content on the posting site, and sets game parameters based on the acquired impression information;
a texture generation unit that generates an image of the object appearing in the captured image as a texture;
performing game processing in which the character appears in a game by generating an image of the character corresponding to the object by mapping the texture, and setting game parameters for the character based on the impression information ; A game processing unit that performs the game processing of the game played by the player who is the poster of the posted content based on the game parameters,
A program characterized by making a computer work.
実空間の物体である対象物をプレーヤが撮影部により撮影した撮影画像を、投稿コンテンツとして投稿サイトに投稿する処理を行う投稿処理部と、
前記投稿サイトにおいて前記投稿コンテンツを閲覧した利用者による前記投稿コンテンツのインプレッション情報を取得し、取得した前記インプレッション情報に基づいてゲームパラメータを設定するパラメータ設定部と、
前記撮影画像に映る前記対象物の画像と、前記対象物に対応するキャラクタを表すためのプリミティブとに基づいて、前記キャラクタの画像を生成し、ゲームに登場する前記キャラクタが前記プリミティブの移動制御により移動するゲーム処理を行うと共に、前記インプレッション情報に基づいて、前記キャラクタについてのゲームパラメータを設定し、前記ゲームパラメータに基づいて、前記投稿コンテンツの投稿者である前記プレーヤがプレイする前記ゲームの前記ゲーム処理を行うゲーム処理部として、
コンピュータを機能させることを特徴とするプログラム。
a posting processing unit that performs a process of posting a captured image of an object, which is an object in real space, captured by a shooting unit on a posting site as posted content;
a parameter setting unit that acquires impression information of the posted content by a user who viewed the posted content on the posting site, and sets game parameters based on the acquired impression information;
An image of the character is generated based on the image of the object appearing in the photographed image and a primitive for representing the character corresponding to the object, and the character appearing in the game is moved by movement control of the primitive. A game process for moving is performed, game parameters for the character are set based on the impression information, and the game is played by the player who is the poster of the posted content based on the game parameters. As a game processing unit that performs processing,
A program characterized by making a computer work.
JP2018248128A 2018-12-28 2018-12-28 game system and program Active JP7323751B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018248128A JP7323751B2 (en) 2018-12-28 2018-12-28 game system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248128A JP7323751B2 (en) 2018-12-28 2018-12-28 game system and program

Publications (2)

Publication Number Publication Date
JP2020103835A JP2020103835A (en) 2020-07-09
JP7323751B2 true JP7323751B2 (en) 2023-08-09

Family

ID=71450190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248128A Active JP7323751B2 (en) 2018-12-28 2018-12-28 game system and program

Country Status (1)

Country Link
JP (1) JP7323751B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6951528B1 (en) * 2020-09-03 2021-10-20 株式会社あかつき Game systems, game programs, and information processing methods
JP7049013B1 (en) * 2021-03-24 2022-04-06 株式会社Synamon Object management system
JP7137669B2 (en) * 2021-06-25 2022-09-14 株式会社あかつき Game system, game program, and information processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006326021A (en) 2005-05-27 2006-12-07 Dainippon Printing Co Ltd Fighting video game apparatus, fighting management server, program, and recording medium
JP2013059569A (en) 2011-09-14 2013-04-04 Namco Bandai Games Inc Program, information storage medium, electronic equipment, server, and system
JP5250132B1 (en) 2012-05-16 2013-07-31 株式会社コナミデジタルエンタテインメント GAME MANAGEMENT DEVICE, GAME SYSTEM, GAME MANAGEMENT METHOD, AND PROGRAM
JP2014061037A (en) 2012-09-19 2014-04-10 Namco Bandai Games Inc Program, storage medium, and game apparatus
JP2015011531A (en) 2013-06-28 2015-01-19 任天堂株式会社 Information processing system, server device, information processing device, program and information processing method
WO2017110503A1 (en) 2015-12-25 2017-06-29 株式会社電通 Information provision management method and information provision management device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2883514B2 (en) * 1993-06-10 1999-04-19 株式会社ナムコ Image synthesis device and game device using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006326021A (en) 2005-05-27 2006-12-07 Dainippon Printing Co Ltd Fighting video game apparatus, fighting management server, program, and recording medium
JP2013059569A (en) 2011-09-14 2013-04-04 Namco Bandai Games Inc Program, information storage medium, electronic equipment, server, and system
JP5250132B1 (en) 2012-05-16 2013-07-31 株式会社コナミデジタルエンタテインメント GAME MANAGEMENT DEVICE, GAME SYSTEM, GAME MANAGEMENT METHOD, AND PROGRAM
JP2014061037A (en) 2012-09-19 2014-04-10 Namco Bandai Games Inc Program, storage medium, and game apparatus
JP2015011531A (en) 2013-06-28 2015-01-19 任天堂株式会社 Information processing system, server device, information processing device, program and information processing method
WO2017110503A1 (en) 2015-12-25 2017-06-29 株式会社電通 Information provision management method and information provision management device

Also Published As

Publication number Publication date
JP2020103835A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
US11014000B2 (en) Simulation system, processing method, and information storage medium
CN109478345B (en) Simulation system, processing method, and information storage medium
CN109478340B (en) Simulation system, processing method, and information storage medium
JP6955861B2 (en) Event control system and program
JP5300777B2 (en) Program and image generation system
KR101610702B1 (en) Sprite strip renderer
KR101748593B1 (en) Capturing views and movements of actors performing within generated scenes
TWI786700B (en) Scanning of 3d objects with a second screen device for insertion into a virtual environment
JP7398873B2 (en) Server system and video distribution system
US11738270B2 (en) Simulation system, processing method, and information storage medium
JP7323751B2 (en) game system and program
JP7425196B2 (en) hybrid streaming
JP7561770B2 (en) Change anime character
JP2024522972A (en) Method, device, equipment and computer program for rendering video frames
JP2019152899A (en) Simulation system and program
JP7418956B2 (en) Image generation system and program
JP7216493B2 (en) game system and program
JP2023174714A (en) Program, image generation apparatus, and image generation method
JP2024003191A (en) Game system, game device, and program
KR102169804B1 (en) Apparatus and method of handling configuration information of a character using screen shot image
Wu et al. Metaverse: The world reimagined
JP7335695B2 (en) Image generation system and program
KR102719697B1 (en) Game system, processing method and information storage medium
Iseli Double Trouble. Digital Avatars on Stage
CN117046104A (en) Interaction method and device in game, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230707

R150 Certificate of patent or registration of utility model

Ref document number: 7323751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150