JP2024048913A - Program and information processing system - Google Patents

Program and information processing system Download PDF

Info

Publication number
JP2024048913A
JP2024048913A JP2022155076A JP2022155076A JP2024048913A JP 2024048913 A JP2024048913 A JP 2024048913A JP 2022155076 A JP2022155076 A JP 2022155076A JP 2022155076 A JP2022155076 A JP 2022155076A JP 2024048913 A JP2024048913 A JP 2024048913A
Authority
JP
Japan
Prior art keywords
parameter
data
display pattern
color
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022155076A
Other languages
Japanese (ja)
Inventor
栄作 早川
Eisaku Hayakawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2022155076A priority Critical patent/JP2024048913A/en
Publication of JP2024048913A publication Critical patent/JP2024048913A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide a program that can easily implement specifications that can change a display pattern of an object.SOLUTION: A program causes a computer to: generate multiple objects that can exist in a virtual environment; calculate a first parameter that is an average of first data that should constitute a first object among the multiple objects; calculate a second parameter that is an average of second data that should constitute a second object among the multiple objects; calculate a third parameter on the basis of the first parameter and the second parameter; determine third data that should constitute a new second object on the basis of at least a third parameter; and generate a new second object on the basis of the third data.SELECTED DRAWING: Figure 7

Description

本開示は、コンピュータゲーム用に構築される仮想環境内に登場しうる仮想オブジェクトの表示パターンを制御するための技術に関する。 This disclosure relates to technology for controlling the display patterns of virtual objects that may appear in a virtual environment constructed for a computer game.

近年、コンピュータにより作り出される仮想環境を利用したゲームサービスが数多く提供されている。仮想環境を利用したゲームサービスを実現するための技術は、たとえば、特開2018-050866号公報(特許文献1)に開示されている。特許文献1には、多数の仮想オブジェクトが登場する仮想ゲーム空間内で進行するゲームを制御するためのサーバ技術が開示されている(特許文献1の段落[0056]~[0059]参照)。 In recent years, many game services have been provided that utilize virtual environments created by computers. Technology for realizing game services that utilize virtual environments is disclosed, for example, in JP 2018-050866 A (Patent Document 1). Patent Document 1 discloses a server technology for controlling a game that progresses in a virtual game space in which many virtual objects appear (see paragraphs [0056] to [0059] of Patent Document 1).

特開2018-050866号公報JP 2018-050866 A

本発明者は、ユーザの満足度を高めるために、仮想環境内に登場しうる仮想オブジェクト(以下、単に「オブジェクト」ということもある。)の表示パターンをユーザの要求に応じて変更できる仕様を実装することを試みた。しかしながら、多数のオブジェクトの1つ1つの表示パターンについて適当な数の選択肢を導入しようとすると、それら選択肢の表示パターンを一々デザインして、各選択肢の表示パターンを定めるデータセットをシステムに組み込むことが必要となる。これは、大きな作業負担を伴うものとなる。 In order to increase user satisfaction, the inventor attempted to implement a specification that allows the display pattern of virtual objects (hereinafter sometimes simply referred to as "objects") that may appear in a virtual environment to be changed according to user requests. However, if an appropriate number of options are to be introduced for the display pattern of each of a large number of objects, it would be necessary to design the display pattern of each option one by one and incorporate a data set that defines the display pattern for each option into the system. This would involve a significant workload.

上記に鑑みて本開示の目的は、オブジェクトの表示パターンを変更できる仕様を容易に実装することを可能とし、開発段階における作業負担の軽減を図りつつ、ユーザの満足度を高めることができるゲームを提供することができるプログラム及び情報処理システムを提供する点にある。 In view of the above, the objective of the present disclosure is to provide a program and information processing system that allows for easy implementation of specifications that allow the display pattern of objects to be changed, and that can provide a game that increases user satisfaction while reducing the workload during the development stage.

本開示の第1の態様によるプログラムは、仮想環境内に存在しうる複数のオブジェクトを生成する機能と、前記複数のオブジェクトのうちの第1のオブジェクトを構成すべき第1のデータの平均である第1のパラメータを算出する機能と、前記複数のオブジェクトのうちの第2のオブジェクトを構成すべき第2のデータの平均である第2のパラメータを算出する機能と、前記第1のパラメータと前記第2のパラメータとに基づいて第3のパラメータを算出する機能と、少なくとも前記第3のパラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータを決定する機能と、前記第3のデータに基づいて前記新たな第2のオブジェクトを生成する機能とをコンピュータに実現させるプログラムである。 The program according to the first aspect of the present disclosure is a program that causes a computer to realize a function of generating a plurality of objects that may exist in a virtual environment, a function of calculating a first parameter that is an average of first data that is to constitute a first object of the plurality of objects, a function of calculating a second parameter that is an average of second data that is to constitute a second object of the plurality of objects, a function of calculating a third parameter based on the first parameter and the second parameter, a function of determining third data that is to constitute a new second object based on at least the third parameter, and a function of generating the new second object based on the third data.

本開示の第2の態様による情報処理システムは、ユーザ端末にゲームサービスを提供するための情報処理システムであって、前記ユーザ端末と通信可能な通信処理部と、前記通信処理部と接続され、仮想環境内に存在しうる複数の仮想オブジェクトを生成するように構成されたゲーム進行制御部とを備え、前記ゲーム進行制御部は、前記複数のオブジェクトのうちの第1のオブジェクトを構成すべき第1のデータの平均である第1のパラメータを算出し、前記複数のオブジェクトのうちの第2のオブジェクトを構成すべき第2のデータの平均である第2のパラメータを算出し、前記第1のパラメータと前記第2のパラメータとに基づいて第3のパラメータを算出し、少なくとも前記第3のパラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータを決定し、前記第3のデータに基づいて前記新たな第2のオブジェクトを生成するように構成されているものである。 The information processing system according to the second aspect of the present disclosure is an information processing system for providing a game service to a user terminal, comprising a communication processing unit capable of communicating with the user terminal, and a game progress control unit connected to the communication processing unit and configured to generate a plurality of virtual objects that may exist in a virtual environment, the game progress control unit being configured to calculate a first parameter that is an average of first data that should constitute a first object of the plurality of objects, calculate a second parameter that is an average of second data that should constitute a second object of the plurality of objects, calculate a third parameter based on the first parameter and the second parameter, determine third data that should constitute a new second object based on at least the third parameter, and generate the new second object based on the third data.

第1のオブジェクトに合わせて第2のオブジェクトを変更できる仕様を容易に実装することができ、開発段階における作業負担の軽減を図りつつ、ユーザの満足度を高めることができるゲームを提供できる。 It is easy to implement a specification that allows the second object to be changed to match the first object, providing a game that can increase user satisfaction while reducing the workload during the development stage.

本開示の一実施形態のゲームシステムの機能的構成を概略的に示すブロック図である。1 is a block diagram illustrating a schematic functional configuration of a game system according to an embodiment of the present disclosure. 情報処理システムのハードウェア構成例であるサーバ装置の構成を示すブロック図である。2 is a block diagram showing a configuration of a server device which is an example of a hardware configuration of the information processing system; 一実施形態のユーザ端末の機能的構成を概略的に示すブロック図である。FIG. 2 is a block diagram illustrating a schematic functional configuration of a user terminal according to an embodiment. ユーザ端末のハードウェア構成例である端末装置の構成を概略的に示すブロック図である。1 is a block diagram illustrating a schematic configuration of a terminal device, which is an example of a hardware configuration of a user terminal. オブジェクト編成画面を例示する図である。FIG. 13 is a diagram illustrating an example of an object organization screen. 図6A及び図6Bは、それぞれ表示パターン変更画面を例示する図である。6A and 6B are diagrams each showing an example of a display pattern change screen. 本開示の一実施形態に係る表示パターン変更処理の手順を概略的に表すフローチャートである。10 is a flowchart illustrating a schematic procedure of a display pattern change process according to an embodiment of the present disclosure. 本開示の一実施形態に係る表示パターン変更処理の手順を概略的に表すフローチャートである。10 is a flowchart illustrating a schematic procedure of a display pattern change process according to an embodiment of the present disclosure. 図9A及び図9Bは、それぞれ表示パターン変更画面を例示する図である。9A and 9B are diagrams each showing an example of a display pattern change screen.

以下、図面を参照しつつ、本開示に係る種々の実施形態について詳細に説明する。なお、図面全体において同一符号を付された構成要素は、同一構成及び同一機能を有するものとする。 Various embodiments of the present disclosure will be described in detail below with reference to the drawings. Note that components with the same reference numerals throughout the drawings have the same configuration and function.

図1は、本開示の一実施形態のゲームシステム1の機能的構成を概略的に示すブロック図である。図1に示されるように、ゲームシステム1は、複数のユーザ端末20,20,…,20と、これらユーザ端末20~20の各々と通信ネットワークNWを介して接続可能な情報処理システム10とを備えて構成されている。ここで、Kは、ユーザ端末20~20の総数を示す3以上の整数である。図1の例では、ユーザ端末20~20の総数は3以上であるが、これに限定されるものではない。ユーザ端末20~20の数が1または2であってもよい。 FIG. 1 is a block diagram showing a schematic functional configuration of a game system 1 according to an embodiment of the present disclosure. As shown in FIG. 1, the game system 1 includes a plurality of user terminals 20 1 , 20 2 , ..., 20 K , and an information processing system 10 that can be connected to each of the user terminals 20 1 to 20 K via a communication network NW. Here, K is an integer of 3 or more indicating the total number of the user terminals 20 1 to 20 K. In the example of FIG. 1, the total number of the user terminals 20 1 to 20 K is 3 or more, but is not limited to this. The number of the user terminals 20 1 to 20 K may be 1 or 2.

通信ネットワークNWとしては、たとえば、インターネットなどの広域通信網、拠点間を結ぶ専用通信網、または、有線LAN(Local Area Network)もしくは無線LANなどの構内通信網が挙げられるが、これらに限定されるものではない。通信ネットワークNWは、第3世代(3G)~第6世代(6G)の地上移動体通信網、衛星移動体通信網、あるいは固定通信網を含んでいてもよい。 The communication network NW may be, for example, a wide area communication network such as the Internet, a dedicated communication network connecting bases, or an in-house communication network such as a wired LAN (Local Area Network) or a wireless LAN, but is not limited to these. The communication network NW may also include a third generation (3G) to sixth generation (6G) terrestrial mobile communication network, a satellite mobile communication network, or a fixed communication network.

ユーザ端末20~20の各々は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)またはタブレット型コンピュータなどの通信端末(通信機能をもつ情報処理装置)であってよいが、これに限定されるものではない。ユーザ端末20~20の各々は、コンピュータゲームのプレイに適したゲーム用通信端末であってもよい。 Each of the user terminals 20 1 to 20 K may be a communication terminal (information processing device with a communication function) such as a smartphone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer, but is not limited to these. Each of the user terminals 20 1 to 20 K may be a gaming communication terminal suitable for playing computer games.

各ユーザ端末20(kは1~Kの範囲内の任意整数)は、通信ネットワークNWを介して情報処理システム10と通信して、情報処理システム10により提供される仮想環境を利用したゲームサービスを受けることができる。ここで、仮想環境とは、コンピュータ、通信ネットワークNW、あるいは、コンピュータ及び通信ネットワークNWの双方の中に電子的に構築された2次元または3次元の仮想的な空間をいう。ユーザは、ユーザ端末20を通じて、仮想環境内で、ロールプレイングゲーム(Role-Playing Game,RPG)やオンラインゲームといったコンピュータゲーム(以下、単に「ゲーム」という。)をプレイすることができる。 Each user terminal 20 k (k is any integer in the range of 1 to K) can communicate with the information processing system 10 via the communication network NW and receive a game service using a virtual environment provided by the information processing system 10. Here, the virtual environment refers to a two-dimensional or three-dimensional virtual space electronically constructed in a computer, the communication network NW, or both the computer and the communication network NW. Through the user terminal 20 k , a user can play computer games such as role-playing games (RPG) and online games (hereinafter simply referred to as "games") in the virtual environment.

仮想環境内には様々な仮想オブジェクト(以下、単に「オブジェクト」ということがある。)が登場しうる。オブジェクトの例としては、プレイヤにより直接的または間接的に制御されうるプレイヤキャラクタ(player character,PC)、ノンプレイヤキャラクタ(non-player character,NPC)、仮想環境内でプレイヤキャラクタが身に付けられるオブジェクト(たとえば、アクセサリオブジェクトや装備品オブジェクト)、仮想環境内でプレイヤキャラクタが所持することができるオブジェクト(たとえば、武器オブジェクト)、建築物オブジェクト、並びに、動植物オブジェクトが挙げられるが、これらに限定されるものではない。 Various virtual objects (hereinafter sometimes simply referred to as "objects") may appear in the virtual environment. Examples of objects include, but are not limited to, player characters (PCs) that can be controlled directly or indirectly by the player, non-player characters (NPCs), objects that the player characters can wear in the virtual environment (e.g. accessory objects and equipment objects), objects that the player characters can possess in the virtual environment (e.g. weapon objects), building objects, and plant and animal objects.

情報処理システム10は、図1に示されるように、通信ネットワークNWを介してユーザ端末20~20と個別に通信できる機能をもつ通信処理部11と、ゲームを制御する機能をもつゲーム進行制御部12と、ゲームの実行に必要な各種データが格納されている記憶部13とを備えて構成されている。 As shown in FIG. 1, the information processing system 10 is configured to include a communication processing unit 11 having a function of communicating individually with the user terminals 20 1 to 20 K via a communication network NW, a game progress control unit 12 having a function of controlling the game, and a memory unit 13 in which various data necessary for executing the game is stored.

記憶部13には、コンピュータに各種機能を実現させるためのゲームプログラムを含む各種のプログラム13Aが格納され、さらに、ゲーム情報13B及びユーザ情報13Cなどの各種データが格納されている。ゲームプログラムは、ゲームを実行するために使用されるソフトウェアプログラムである。ゲーム進行制御部12は、プログラム13Aを実行することにより、情報処理システム10の動作を統括的に制御することができる。 The memory unit 13 stores various programs 13A, including game programs for causing the computer to realize various functions, and further stores various data such as game information 13B and user information 13C. The game programs are software programs used to execute a game. The game progress control unit 12 executes the programs 13A to comprehensively control the operation of the information processing system 10.

記憶部13に格納されている各種データは、ユーザ情報13C及びゲーム情報13Bなどのゲームに関するデータに加えて、ユーザ端末20と情報処理システム10との間、または、ユーザ端末20~20間で送受信する指示または通知を含んでいる。ゲーム情報13Bは、ゲーム進行制御部12がプログラム13Aを実行する際に参照するデータである。ユーザ情報13Cは、ユーザのアカウント情報に関するデータである。 The various data stored in the memory unit 13 includes data related to the game, such as user information 13C and game information 13B, as well as instructions or notifications transmitted and received between the user terminal 20k and the information processing system 10, or between the user terminals 201 to 20K . The game information 13B is data referenced by the game progress control unit 12 when executing the program 13A. The user information 13C is data related to the user's account information.

プログラム13Aは、ユーザ端末20と情報処理システム10との協働により実現するためのゲームプログラムを含んでもよい。ユーザ端末20と情報処理システム10との協働により実現されるゲームは、一例として、ユーザ端末20において起動されたブラウザ上で実行されるゲームであってもよい。あるいは、プログラム13Aは、ゲームをユーザ端末20~20の協働により実現するためのゲームプログラムを含んでもよい。 The program 13A may include a game program for realizing a game through cooperation between the user terminal 20 k and the information processing system 10. The game realizing the game through cooperation between the user terminal 20 k and the information processing system 10 may be, for example, a game executed on a browser launched in the user terminal 20 k . Alternatively, the program 13A may include a game program for realizing a game through cooperation between the user terminals 20 1 to 20 K.

たとえば、ゲーム進行制御部12は、ユーザ端末20に各種データ及びプログラムコードを送信することができる。ゲーム進行制御部12は、ゲーム情報もしくはユーザ情報の一部または全部をユーザ端末100から受信する。ゲームがマルチプレイゲームである場合には、ゲーム進行制御部12は、ユーザ端末20からマルチプレイの同期の要求を受信して、同期のためのデータをユーザ端末20に送信してもよい。 For example, the game progress control unit 12 can transmit various data and program codes to the user terminal 20k . The game progress control unit 12 receives some or all of the game information or user information from the user terminal 100. If the game is a multiplayer game, the game progress control unit 12 may receive a request for multiplayer synchronization from the user terminal 20k and transmit data for synchronization to the user terminal 20k .

ゲーム進行制御部12は、プログラム13Aの記述に従って機能する。ゲーム進行制御部12は、実行されるゲームの性質に応じて、ユーザ端末20におけるゲームの進行を支援するために機能することもできる。 The game progress control unit 12 functions according to the description of the program 13 A. The game progress control unit 12 can also function to support the progress of the game in the user terminal 20 k depending on the nature of the game being executed.

たとえば、ゲーム進行制御部12は、ユーザ端末20と通信して、ユーザ端末20がゲームを進行させるための支援を行うことができる。ゲーム進行制御部12は、たとえば、ユーザ端末20におけるゲームの進捗に応じて、ユーザ端末20が参照すべき情報を適宜提供することができる。また、ゲーム進行制御部12は、マルチプレイゲームの場合には、各ユーザ端末20と通信して、ユーザ端末20~20間のやりとり(たとえば、ユーザ間チャット)を仲介してもよい。さらに、ゲーム進行制御部12は、マルチプレイゲームに参加するユーザ端末20~20のマッチング、マルチプレイゲームの進行状況を同期させるための同期制御を実行してもよい。 For example, the game progress control unit 12 can communicate with the user terminal 20 k to support the user terminal 20 k in progressing through the game. The game progress control unit 12 can provide information to be referred to by the user terminal 20 k as appropriate, for example, according to the progress of the game in the user terminal 20 k . In addition, in the case of a multiplayer game, the game progress control unit 12 can communicate with each user terminal 20 k to mediate interactions (e.g., chat between users) between the user terminals 20 1 to 20 K. Furthermore, the game progress control unit 12 can execute matching of the user terminals 20 1 to 20 K participating in the multiplayer game, and synchronization control for synchronizing the progress of the multiplayer game.

情報処理システム10は、1台のサーバ装置、あるいは、互いに連携して動作する複数台のサーバ装置で構成可能である。サーバ装置は、1つ以上のプロセッサを含む1台のコンピュータで実現されてもよいし、あるいは、通信路を介して相互に接続された複数台のコンピュータで実現されてもよい。サーバ装置は、不揮発性メモリ(コンピュータ読み取り可能な記録媒体)から読み出されたソフトウェアまたはファームウェアのプログラムコード(命令群)による処理を実行する1つ以上の演算装置(Processing Units)を含む1つ以上のプロセッサを用いて実現可能である。たとえば、演算装置としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)またはGPU(Graphics Processing Unit)が使用できる。情報処理システム10は、クラウドコンピューティング(cloud computing)またはオンプレミス(on-premise)のいずれを用いて構築されてもよい。 The information processing system 10 can be configured with one server device or multiple server devices that operate in cooperation with each other. The server device can be realized with one computer including one or more processors, or multiple computers connected to each other via a communication path. The server device can be realized using one or more processors including one or more processing units that execute processing according to program code (group of instructions) of software or firmware read from a non-volatile memory (computer-readable recording medium). For example, the processing unit can be a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a GPU (Graphics Processing Unit). The information processing system 10 can be constructed using either cloud computing or on-premise.

図2は、情報処理システム10のハードウェア構成例であるサーバ装置50の構成を示すブロック図である。 Figure 2 is a block diagram showing the configuration of a server device 50, which is an example of the hardware configuration of the information processing system 10.

図2に示されるサーバ装置50は、プロセッサ51、メモリ52、ストレージ53、通信インタフェース回路(通信I/F回路)54、入出力インタフェース回路(入出力I/F回路)55及び信号路56を備えている。信号路56は、プロセッサ51、メモリ52、ストレージ53、通信I/F回路54及び入出力I/F回路55を電気的に相互接続するための通信バスである。図1のゲーム進行制御部12は、プロセッサ51及びメモリ52で実現可能であり、図1の通信処理部11は、通信I/F回路54で実現可能であり、図1の記憶部13は、ストレージ53で実現可能である。 The server device 50 shown in FIG. 2 includes a processor 51, memory 52, storage 53, a communication interface circuit (communication I/F circuit) 54, an input/output interface circuit (input/output I/F circuit) 55, and a signal path 56. The signal path 56 is a communication bus for electrically interconnecting the processor 51, memory 52, storage 53, communication I/F circuit 54, and input/output I/F circuit 55. The game progress control unit 12 in FIG. 1 can be realized by the processor 51 and memory 52, the communication processing unit 11 in FIG. 1 can be realized by the communication I/F circuit 54, and the memory unit 13 in FIG. 1 can be realized by the storage 53.

プロセッサ51は、ストレージ53から、ゲームに関する各種プログラムを読み出し、当該読み出されたプログラムを、主記憶装置として機能するメモリ52に展開する。ストレージ53は、たとえば、フラッシュメモリ、ハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)で構成可能である。メモリ52は、たとえば、RAM(Random Access Memory)で構成される。メモリ52は、ストレージ53から読み出された各種プログラム及びデータを一時的に記憶することにより、プロセッサ51に作業領域を提供することができる。メモリ52は、プロセッサ51が各種プログラムに従って動作している間に生成した中間データも一時的に記憶することができる。 Processor 51 reads various programs related to the game from storage 53 and expands the read programs in memory 52, which functions as a main storage device. Storage 53 can be configured, for example, as a flash memory, a hard disk drive (HDD), or a solid state drive (SSD). Memory 52 can be configured, for example, as a RAM (Random Access Memory). Memory 52 can provide a working area for processor 51 by temporarily storing various programs and data read from storage 53. Memory 52 can also temporarily store intermediate data generated while processor 51 is operating according to various programs.

入出力I/F回路55は、サーバ装置50が外部からデータの入力を受け付けるためのインタフェースであり、またサーバ装置50が外部にデータを出力するためのインタフェースでもある。入出力I/F回路55は、たとえば、ポインティング・デバイスまたはキー入力デバイスなどの入力デバイス(図示せず)と、画像表示機器であるディスプレイ(図示せず)とに接続され得る。 The input/output I/F circuit 55 is an interface through which the server device 50 receives data input from the outside, and also an interface through which the server device 50 outputs data to the outside. The input/output I/F circuit 55 can be connected, for example, to an input device (not shown) such as a pointing device or a key input device, and a display (not shown) which is an image display device.

図3は、ユーザ端末20の機能的構成を概略的に示すブロック図である。 FIG. 3 is a block diagram showing a schematic functional configuration of the user terminal 20k .

図3に示されるように、ユーザ端末20は、通信ネットワークNWを介して情報処理システム10及び他のユーザ端末と通信できる機能をもつ通信インタフェース部(通信I/F部)31と、ユーザ端末20の動作を制御する機能をもつ制御部32と、ゲームの実行に必要な各種データが格納されている記憶部33と、画像を表示する表示部34と、入出力インタフェース部(入出力I/F部)35と、操作入力部36と、ユーザ40などの物体を感知する各種センサを含むセンサ部37とを備えている。センサ部37により感知される物体は、ユーザ40に限定されるものではなく、機械(たとえば、ロボット)、デバイスまたは電磁気的現象などでもよい。通信I/F部31は、ユーザ端末20における各種データの送受信を制御することができる。 As shown in Fig. 3, the user terminal 20k includes a communication interface unit (communication I/F unit) 31 having a function of communicating with the information processing system 10 and other user terminals via the communication network NW, a control unit 32 having a function of controlling the operation of the user terminal 20k , a memory unit 33 in which various data necessary for executing the game is stored, a display unit 34 for displaying images, an input/output interface unit (input/output I/F unit) 35, an operation input unit 36, and a sensor unit 37 including various sensors for detecting objects such as a user 40. The object detected by the sensor unit 37 is not limited to the user 40, but may be a machine (for example, a robot), a device, or an electromagnetic phenomenon. The communication I/F unit 31 can control the transmission and reception of various data in the user terminal 20k .

操作入力部36は、ユーザ40による操作入力を受け付ける機能を有し、たとえばキー入力デバイスまたはポインティング・デバイスで構成可能である。入出力I/F部35は、ゲームコントローラ41及び外部記憶媒体42とそれぞれ接続可能なインタフェースである。入出力I/F部35は、ゲームコントローラ41と有線または無線で接続することができる。表示部34は、画像を表示する機能を有し、たとえば液晶ディスプレイまたは有機ELディスプレイで構成可能である。表示部34は、ユーザ40による操作入力を受け付ける機能をもつタッチパネル型ディスプレイとして構成されてもよい。センサ部37は、ユーザ40などの物体を撮像してその画像データを出力する撮像センサ、及び、ユーザ40の身体部位(たとえば、手)などの物体を空間的に認識する測距センサなどの空間センサを含むことができる。 The operation input unit 36 has a function of accepting operation input by the user 40, and can be configured, for example, as a key input device or a pointing device. The input/output I/F unit 35 is an interface that can be connected to the game controller 41 and the external storage medium 42, respectively. The input/output I/F unit 35 can be connected to the game controller 41 by wire or wirelessly. The display unit 34 has a function of displaying images, and can be configured, for example, as a liquid crystal display or an organic EL display. The display unit 34 may be configured as a touch panel display that has a function of accepting operation input by the user 40. The sensor unit 37 can include an imaging sensor that captures an image of an object such as the user 40 and outputs the image data, and a spatial sensor such as a distance measuring sensor that spatially recognizes an object such as a body part (for example, a hand) of the user 40.

記憶部33には、コンピュータに各種機能を実現させるためのゲームプログラムを含む各種のプログラム33Aが格納され、さらに、ゲーム情報33B及びユーザ情報33Cが格納されている。制御部32は、プログラム33Aの記述に応じて、操作入力受付部32A、表示制御部32B、ユーザインタフェース制御部(ユーザI/F制御部)32C、アニメーション生成部32D及びゲーム進行部32Eとして機能する。ユーザ情報33Cは、ユーザ40のアカウントに関するデータである。 The memory unit 33 stores various programs 33A, including game programs for causing the computer to realize various functions, and also stores game information 33B and user information 33C. The control unit 32 functions as an operation input receiving unit 32A, a display control unit 32B, a user interface control unit (user I/F control unit) 32C, an animation generation unit 32D, and a game progression unit 32E according to the descriptions in the programs 33A. The user information 33C is data related to the account of the user 40.

制御部32は、記憶部33に格納されたプログラム33Aを実行することにより、ユーザ端末20の動作を制御することができる。たとえば、制御部32は、プログラム33A及びユーザ40による操作入力に従って、ゲームを進行させることができる。また、制御部32は、ゲームを進行させている間、必要に応じて、情報処理システム10と通信して情報の送受信を行う。なお、制御部32は、実行されるゲームの性質に応じて、ゲームを進行させるために、図示しないその他の機能ブロックとしても機能することができる。 The control unit 32 can control the operation of the user terminal 20k by executing the program 33A stored in the storage unit 33. For example, the control unit 32 can progress the game in accordance with the program 33A and operation input by the user 40. Furthermore, while the game is progressing, the control unit 32 communicates with the information processing system 10 to transmit and receive information as necessary. Note that the control unit 32 can also function as other functional blocks (not shown) in order to progress the game depending on the nature of the game being executed.

操作入力受付部32Aは、操作入力部36、ゲームコントローラ41または表示部34(タッチパネル型ディスプレイ)へのユーザ40による操作入力を検知することができる。操作入力受付部32Aは、センサ部37のセンサ出力を解析してユーザ40の身体部位などの物体の動きを認識することでユーザ40による操作入力を検知する機能を有していてもよい。操作入力受付部32Aは、その検知結果を制御部32の各構成要素に出力することができる。 The operation input reception unit 32A can detect operation input by the user 40 to the operation input unit 36, the game controller 41, or the display unit 34 (touch panel display). The operation input reception unit 32A may have a function of detecting operation input by the user 40 by analyzing the sensor output of the sensor unit 37 and recognizing the movement of an object such as a body part of the user 40. The operation input reception unit 32A can output the detection result to each component of the control unit 32.

表示部34がタッチパネル型ディスプレイとして構成されている場合、操作入力受付部32Aは、表示部34に対するタッチ操作を検出すると、当該タッチ操作に関する各種の情報を取得する。たとえば、操作入力受付部32Aは、タッチ操作の位置(以下「タッチ位置」ということもある。)の座標を取得する。操作入力受付部32Aは、同時に複数のタッチ位置を検出してもよい。なお、タッチ操作の種類としては、たとえば、タップ操作(タッチ位置を短時間移動させないタッチ操作)、ダブルタップ操作(所定時間内に連続する複数回のタップ操作)、長押し操作(タッチ位置を移動させずに所定時間以上タッチを継続させる操作)、フリック操作(開始点から終了点まで所定速度以上でタッチ位置を移動させる操作)、スワイプ操作(開始点から終了点までタッチ操作を継続しながらタッチ位置を移動させる操作。ドラッグ操作ともいう。)、ピンチイン操作(第1タッチ位置及び第2タッチ位置に対するタッチ操作を継続させながら第1タッチ位置及び第2タッチ位置間の距離が狭まるように移動させる操作)、及び、ピンチアウト操作(第1タッチ位置及び第2タッチ位置に対するタッチ操作を継続させながら第1タッチ位置及び第2タッチ位置間の距離が広がるように移動させる操作)が挙げられる。 When the display unit 34 is configured as a touch panel display, the operation input reception unit 32A, upon detecting a touch operation on the display unit 34, acquires various information related to the touch operation. For example, the operation input reception unit 32A acquires the coordinates of the position of the touch operation (hereinafter also referred to as the "touch position"). The operation input reception unit 32A may detect multiple touch positions simultaneously. In addition, the types of touch operations include, for example, a tap operation (a touch operation in which the touch position is not moved for a short time), a double tap operation (tap operation performed consecutively multiple times within a predetermined time), a long press operation (an operation in which touch is continued for a predetermined time or more without moving the touch position), a flick operation (an operation in which the touch position is moved from the start point to the end point at a predetermined speed or more), a swipe operation (an operation in which the touch position is moved while continuing the touch operation from the start point to the end point. Also called a drag operation), a pinch-in operation (an operation in which the first touch position and the second touch position are moved so that the distance between them decreases while continuing the touch operation on the first touch position and the second touch position), and a pinch-out operation (an operation in which the first touch position and the second touch position are moved so that the distance between them increases while continuing the touch operation on the first touch position and the second touch position).

ユーザI/F制御部32Cは、ユーザインタフェース(以下「UI」という。)を構築するために、表示部34に表示させるUIオブジェクトを制御することができる。UIオブジェクトは、ユーザ40が、ゲームの進行上必要な入力をユーザ端末20に対して行うためのツール、または、ゲームの進行中に出力される情報をユーザ端末20から取得するためのツールである。UIオブジェクトとしては、たとえば、アイコン、ボタン、リスト及びメニュー画面が挙げられるが、これらに限定されるものではない。 The user I/F control unit 32C can control UI objects to be displayed on the display unit 34 in order to construct a user interface (hereinafter referred to as "UI"). The UI objects are tools that allow the user 40 to input necessary information for the progress of the game to the user terminal 20k , or tools that allow the user 40 to obtain information output during the progress of the game from the user terminal 20k . Examples of UI objects include, but are not limited to, icons, buttons, lists, and menu screens.

アニメーション生成部32Dは、各種のオブジェクトの制御態様に基づいて、各種のオブジェクトのモーションを示すアニメーションを生成する。具体的には、アニメーション生成部32Dは、仮想環境内のプレイヤキャラクタやノンプレイヤキャラクタなどのオブジェクトが作用を受けたときの動作を表現するアニメーションを生成してもよい。 The animation generation unit 32D generates animations showing the motion of various objects based on the control modes of the various objects. Specifically, the animation generation unit 32D may generate animations expressing the behavior of objects such as player characters and non-player characters in the virtual environment when they are acted upon.

表示制御部32Bは、複数のオブジェクトが存在しうる仮想環境内の状態を表すゲーム画像を生成(描画)してそのゲーム画像を表示部34に表示させる。たとえば、表示制御部32Bは、アニメーション生成部32Dで生成されたアニメーションと仮想環境の画像とを合成してゲーム画像を生成することができる。また、表示制御部32Bは、上述のUIオブジェクトをゲーム画像に重畳することもできる。 The display control unit 32B generates (draws) a game image that represents a state in a virtual environment in which multiple objects may exist, and displays the game image on the display unit 34. For example, the display control unit 32B can generate a game image by combining an animation generated by the animation generation unit 32D with an image of the virtual environment. The display control unit 32B can also superimpose the above-mentioned UI objects on the game image.

ゲーム進行部32Eは、記憶部33に格納されたゲーム情報33Bを参照しつつゲームを進行させることができる。記憶部33には、ゲーム情報33Bとして、ゲーム空間内に配置されるべきオブジェクトに関する情報、各オブジェクトを定めるパラメータの情報、プレイ単位の進行状況を表す情報、及び、プレイ単位に応じた課題の達成状況を表す情報が記憶される。 The game progression unit 32E can progress the game while referring to game information 33B stored in the memory unit 33. The memory unit 33 stores, as game information 33B, information on objects to be placed in the game space, information on parameters defining each object, information indicating the progress status of each play unit, and information indicating the completion status of tasks corresponding to each play unit.

なお、入出力I/F部35は、外部記憶媒体42に記録されているプログラム(すなわち、コンピュータに所定の機能を実現させるためのコンピュータプログラム)及びデータを読み込むことができる。たとえば、外部記憶媒体42に記録されるプログラムは、ゲームプログラムである。ユーザ端末20は、情報処理システム10などの外部の装置と通信することにより取得したゲームプログラムを記憶部33に記憶してもよいし、外部記憶媒体42から読み込むことにより取得したゲームプログラムを記憶部33に記憶してもよい。 The input/output I/F unit 35 can read a program (i.e., a computer program for causing a computer to realize a predetermined function) and data recorded in the external storage medium 42. For example, the program recorded in the external storage medium 42 is a game program. The user terminal 20k may store in the storage unit 33 a game program acquired by communicating with an external device such as the information processing system 10, or may store in the storage unit 33 a game program acquired by reading from the external storage medium 42.

上記したユーザ端末20は、1つ以上のプロセッサを含むコンピュータで実現されればよい。ユーザ端末20は、不揮発性メモリ(コンピュータ読み取り可能な記録媒体)から読み出されたソフトウェアまたはファームウェアのプログラムコード(命令群)による処理を実行する1つ以上の演算装置を含む1つ以上のプロセッサを用いて実現可能である。たとえば、演算装置としては、CPU、MPUまたはGPUが使用できる。 The above-mentioned user terminal 20k may be realized by a computer including one or more processors. The user terminal 20k can be realized by using one or more processors including one or more arithmetic units that execute processing according to program code (group of instructions) of software or firmware read from a non-volatile memory (computer-readable recording medium). For example, a CPU, an MPU, or a GPU can be used as the arithmetic unit.

図4は、ユーザ端末20のハードウェア構成例である端末装置60の構成を概略的に示すブロック図である。 FIG. 4 is a block diagram showing a schematic configuration of a terminal device 60, which is an example of the hardware configuration of the user terminal 20k .

図4に示されるように、端末装置60は、プロセッサ61、メモリ62、ストレージ63、撮像センサ64、測距センサ65、タッチパネル型ディスプレイ66、通信インタフェース回路(通信I/F回路)69、入出力インタフェース回路(入出力I/F回路)68及び信号路70を備えている。信号路70は、プロセッサ61、メモリ62、ストレージ63、撮像センサ64、測距センサ65、タッチパネル型ディスプレイ66、通信I/F回路69、入出力I/F回路68を電気的に相互接続するための通信バスである。図3の通信I/F部31は、通信I/F回路69で実現可能であり、図3の制御部32は、プロセッサ61及びメモリ62で実現可能であり、図3の記憶部33は、ストレージ63で実現可能であり、図3の表示部34は、タッチパネル型ディスプレイ66で実現可能であり、図3の入出力I/F部35は、入出力I/F回路68で実現可能であり、図3の操作入力部36は、入力デバイス67で実現可能であり、図3のセンサ部37は、撮像センサ64及び測距センサ65で実現可能である。 4, the terminal device 60 includes a processor 61, a memory 62, a storage 63, an image sensor 64, a distance measurement sensor 65, a touch panel display 66, a communication interface circuit (communication I/F circuit) 69, an input/output interface circuit (input/output I/F circuit) 68, and a signal path 70. The signal path 70 is a communication bus for electrically interconnecting the processor 61, the memory 62, the storage 63, the image sensor 64, the distance measurement sensor 65, the touch panel display 66, the communication I/F circuit 69, and the input/output I/F circuit 68. The communication I/F unit 31 in FIG. 3 can be realized by a communication I/F circuit 69, the control unit 32 in FIG. 3 can be realized by a processor 61 and a memory 62, the memory unit 33 in FIG. 3 can be realized by a storage 63, the display unit 34 in FIG. 3 can be realized by a touch panel display 66, the input/output I/F unit 35 in FIG. 3 can be realized by an input/output I/F circuit 68, the operation input unit 36 in FIG. 3 can be realized by an input device 67, and the sensor unit 37 in FIG. 3 can be realized by an image sensor 64 and a distance measurement sensor 65.

プロセッサ61は、ストレージ63から、ゲームに関する各種プログラムを読み出し、当該読み出されたプログラムを、主記憶装置として機能するメモリ62に展開する。ストレージ63は、たとえば、フラッシュメモリ、ハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)で構成可能である。メモリ62は、たとえば、RAMで構成される。メモリ62は、ストレージ63から読み出された各種プログラム及びデータを一時的に記憶することにより、プロセッサ61に作業領域を提供することができる。メモリ62は、プロセッサ61が各種プログラムに従って動作している間に生成した中間データも一時的に記憶することができる。 The processor 61 reads various programs related to the game from the storage 63 and expands the read programs in the memory 62 that functions as a main storage device. The storage 63 can be configured, for example, as a flash memory, a hard disk drive (HDD), or a solid state drive (SSD). The memory 62 is configured, for example, as a RAM. The memory 62 can provide a working area for the processor 61 by temporarily storing the various programs and data read from the storage 63. The memory 62 can also temporarily store intermediate data generated while the processor 61 is operating according to the various programs.

入出力I/F回路68は、図3に示した外部記憶媒体42及びゲームコントローラ41とのインタフェースとして構成することができる。入力デバイス67は、ポインティング・デバイスまたはキー入力デバイスとして構成することができる。 The input/output I/F circuit 68 can be configured as an interface with the external storage medium 42 and game controller 41 shown in FIG. 3. The input device 67 can be configured as a pointing device or a key input device.

次に、情報処理システム10のゲーム進行制御部12の処理について説明する。 Next, we will explain the processing of the game progress control unit 12 of the information processing system 10.

以下に説明するように、ゲーム進行制御部12は、ユーザ端末20からの要求に応じて、仮想環境内に登場しうる複数のオブジェクトの中から、ゲーム中に視覚的に互いに影響を及ぼし合うオブジェクトの組合せを選択し、その組合せの一方のオブジェクト(以下「第1のオブジェクト」という。)を基準として、その組合せの他方のオブジェクト(以下「第2のオブジェクト」という。)を構成すべきデータ(たとえば、表面の色、模様または質感といった表示パターン)を自動的に決定することができる。ゲーム進行制御部12は、当該決定されたデータに基づいて、第2のオブジェクトを新たに生成することが可能である。第2のオブジェクトを新たに生成することには、第2のオブジェクトを構成すべき既存のデータを、当該決定されたデータに変更することが含まれるものとする。たとえば、第1のオブジェクトと第2のオブジェクトとが仮想環境内でゲーム中に互いに視覚的に一体化する形態で表示されるとき、これら第1のオブジェクトと第2のオブジェクトとは、ゲーム中に視覚的に互いに影響を及ぼし合う組合せとなりうる。 As described below, the game progress control unit 12 can select a combination of objects that visually affect each other during the game from among a plurality of objects that may appear in the virtual environment in response to a request from the user terminal 20 k , and can automatically determine data (e.g., a display pattern such as a surface color, pattern, or texture) that should constitute the other object (hereinafter referred to as a "second object") of the combination based on one object (hereinafter referred to as a "first object") of the combination. The game progress control unit 12 can newly generate a second object based on the determined data. It is assumed that the newly generating of a second object includes changing existing data that should constitute the second object to the determined data. For example, when a first object and a second object are displayed in a form that visually integrates with each other during the game in the virtual environment, the first object and the second object can be a combination that visually affects each other during the game.

第1のオブジェクト及び第2のオブジェクトの第1の組合せ例としては、プレイヤキャラクタと、当該プレイヤキャラクタが身に付けられるオブジェクト(例:アクセサリオブジェクト)との組合せが挙げられる。第2の組合せ例としては、プレイヤキャラクタと、当該プレイヤキャラクタがゲーム中に所持することができるオブジェクト(例:武器オブジェクト)との組合せも挙げられる。第3の組合せ例としては、プレイヤキャラクタと、当該プレイヤキャラクタが配置される背景オブジェクト(例:部屋オブジェクト)との組合せが挙げられる。第4の組合せ例としては、プレイヤキャラクタと、当該プレイヤキャラクタの所定の動作に合わせて登場する演出物オブジェクト(例:炎オブジェクト,光線オブジェクト)との組合せも挙げられる。第5の組合せ例としては、プレイヤキャラクタと、当該プレイヤキャラクタの所定の動作に合わせて登場する演出物オブジェクト(例:炎オブジェクト,光線オブジェクト)との組合せも挙げられる。第6の組合せ例としては、プレイヤキャラクタと、当該プレイヤキャラクタに対応するUI(ユーザインタフェース)オブジェクトとの組合せも挙げられる。 A first example of a combination of a first object and a second object is a combination of a player character and an object (e.g., an accessory object) that the player character can wear. A second example of a combination is a combination of a player character and an object (e.g., a weapon object) that the player character can possess during the game. A third example of a combination is a combination of a player character and a background object (e.g., a room object) in which the player character is placed. A fourth example of a combination is a combination of a player character and a performance object (e.g., a flame object, a light object) that appears in accordance with a predetermined action of the player character. A fifth example of a combination is a combination of a player character and a performance object (e.g., a flame object, a light object) that appears in accordance with a predetermined action of the player character. A sixth example of a combination is a combination of a player character and a UI (user interface) object corresponding to the player character.

ゲーム進行制御部12は、
a)第1のオブジェクトを構成すべき第1のデータ(たとえば、第1のオブジェクトの表面の色、模様または質感といった表示パターンを定めるテクスチャデータ)から第1のパラメータを算出し、
b)第2のオブジェクトを構成すべき第2のデータ(たとえば、第2のオブジェクトの表面の色、模様または質感といった表示パターンを定めるテクスチャデータ)から第2のパラメータを算出し、
c)第1のパラメータと第2のパラメータとに基づいて第3のパラメータ(たとえば、第1のパラメータと第2のパラメータとの間の関連度を定量的に示す差分などのパラメータ)を算出し、
d)少なくとも第3のパラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータ(たとえば、ユーザにとって好ましいであろう新たな表示パターン)を決定し、
e)第3のデータに基づいて新たな第2のオブジェクトを生成する、
という処理を実行する機能を有する。
The game progress control unit 12
a) calculating a first parameter from first data to configure a first object (e.g., texture data defining a display pattern such as a color, pattern, or texture of a surface of the first object);
b) calculating second parameters from second data to configure the second object (e.g., texture data defining a display pattern such as a color, pattern, or texture of the surface of the second object);
c) calculating a third parameter (e.g., a parameter such as a difference quantitatively indicating a degree of association between the first parameter and the second parameter) based on the first parameter and the second parameter;
d) determining third data for constituting a new second object based on at least a third parameter (e.g., a new display pattern that may be preferred by the user);
e) generating a new second object based on the third data;
The device has a function to execute the process.

ゲーム進行制御部12は、ユーザ端末20から送信されたオブジェクト編成要求に応じて、オブジェクト編成画面をユーザ端末20に表示させることができる。オブジェクト編成画面は、ユーザ40が第1のオブジェクト及び第2のオブジェクトの組合せを選択するとともに、表示パターン変更画面の表示を要求するためのユーザインタフェース画面である。表示パターン変更画面については後述する。 The game progress control unit 12 can display an object organization screen on the user terminal 20k in response to an object organization request transmitted from the user terminal 20k . The object organization screen is a user interface screen for the user 40 to select a combination of first objects and second objects and to request the display of a display pattern change screen. The display pattern change screen will be described later.

図5は、オブジェクト編成画面D1を例示する図である。図5の例では、第1のオブジェクトとして、プレイヤキャラクタまたはノンプレイヤキャラクタなどのキャラクタPC0が選択され、キャラクタPC0に関する詳細情報が表示されている。オブジェクト編成画面D1は、ユーザ端末20のタッチパネル型の表示部34(図3)に表示されうる。図5に示されるように、オブジェクト編成画面D1は、第1のオブジェクトであるキャラクタPC0の簡略化画像を表示するウインドウW1と、キャラクタPC0に割り当て可能なオブジェクトV1~V4の簡略化画像を並べて表示するウインドウW2とを有する。ユーザ40は、オブジェクト編成画面D1に対する所定のタッチ操作(たとえばタップ操作)によりオブジェクトV1~V4の中から第2のオブジェクト(図5の例では、武器オブジェクトV1)を選択してこれを第1のオブジェクトに割り当てることができる。また、オブジェクト編成画面D1は、表示パターン変更画面の表示を要求するための変更ボタンB0を有する。ユーザ40は、所定のタッチ操作により変更ボタンB0を選択することで、ゲーム進行制御部12に対して表示パターン変更画面の表示を要求することができる。 FIG. 5 is a diagram illustrating an example of the object organization screen D1. In the example of FIG. 5, a character PC0 such as a player character or a non-player character is selected as the first object, and detailed information about the character PC0 is displayed. The object organization screen D1 can be displayed on the touch panel type display unit 34 (FIG. 3) of the user terminal 20 k . As shown in FIG. 5, the object organization screen D1 has a window W1 that displays a simplified image of the character PC0, which is the first object, and a window W2 that displays simplified images of the objects V1 to V4 that can be assigned to the character PC0 in a line. The user 40 can select a second object (weapon object V1 in the example of FIG. 5) from the objects V1 to V4 by a predetermined touch operation (for example, a tap operation) on the object organization screen D1 and assign it to the first object. In addition, the object organization screen D1 has a change button B0 for requesting the display of a display pattern change screen. The user 40 can request the game progress control unit 12 to display a display pattern change screen by selecting the change button B0 by a predetermined touch operation.

さらに、オブジェクト編成画面D1は、呼び出しボタンCB及び保存ボタンRBをも有する。ユーザ40は、所定のタッチ操作(たとえばタップ操作)により呼び出しボタンCBを選択することで、武器オブジェクト及びアクセサリオブジェクトの一覧(図示せず)をユーザ端末20の表示部34に表示させることができる。ユーザ40は、この一覧のうちの所望のオブジェクトをキャラクタPC0に割り当て可能とすることができる。ユーザ40は、タッチ操作により保存ボタンRBを選択することで、キャラクタPC0に割り当て可能なオブジェクトの情報を情報処理システム10に保存することができる。 Furthermore, the object organization screen D1 also has a call button CB and a save button RB. The user 40 can display a list of weapon objects and accessory objects (not shown) on the display unit 34 of the user terminal 20k by selecting the call button CB with a predetermined touch operation (for example, a tap operation). The user 40 can assign a desired object from this list to the character PC0. The user 40 can save information on objects that can be assigned to the character PC0 in the information processing system 10 by selecting the save button RB with a touch operation.

ユーザ40は、オブジェクト編成画面にて第1のオブジェクトと第2のオブジェクトとの組合せを選択した後は、表示パターン変更画面にて表示パターン変更要求を行うことができる。表示パターン変更画面は、ユーザ端末20のタッチパネル型の表示部34(図3)に表示されうる。 After the user 40 selects a combination of the first object and the second object on the object organization screen, the user 40 can make a request to change the display pattern on the display pattern change screen. The display pattern change screen can be displayed on the touch panel type display unit 34 (FIG. 3) of the user terminal 20k .

図6A及び図6Bは、表示パターン変更画面D2,D3を例示する図である。図6Aに示される表示パターン変更画面D2は、ユーザ端末20から受けた要求に応じて最初に表示されるユーザインタフェース画面である。表示パターン変更画面D2は、第1のオブジェクトであるキャラクタPC0の立体表示画像と、キャラクタPC0に割り当てられた第2のオブジェクトV1の立体表示画像とを表すウインドウW3を有する。ウインドウW3では、キャラクタPC0の立体表示画像は、キャラクタPC0を構成すべきテクスチャデータによる表示パターン(色、模様もしくは質感またはこれらの組合せ)を有し、第2のオブジェクトV1の立体表示画像も、第2のオブジェクトV1を構成すべきテクスチャデータによる表示パターン(色、模様もしくは質感またはこれらの組合せ)を有している。 6A and 6B are diagrams illustrating display pattern change screens D2 and D3. The display pattern change screen D2 shown in FIG. 6A is a user interface screen that is first displayed in response to a request received from the user terminal 20 k . The display pattern change screen D2 has a window W3 that displays a stereoscopic display image of the character PC0, which is a first object, and a stereoscopic display image of the second object V1 assigned to the character PC0. In the window W3, the stereoscopic display image of the character PC0 has a display pattern (color, pattern, texture, or a combination thereof) based on the texture data that should constitute the character PC0, and the stereoscopic display image of the second object V1 also has a display pattern (color, pattern, texture, or a combination thereof) based on the texture data that should constitute the second object V1.

テクスチャデータとは、仮想空間上で表示される3D(3次元)オブジェクトの外観または2D(2次元)オブジェクトの外観を表示するために利用される2次元画像データである。一般に、コンピュータグラフィックスにより生成された3Dオブジェクト(3Dモデル)の表面に対して、色、模様もしくは質感またはこれらの組合せからなる表示パターンを与える技術は、テクスチャマッピング(texture mapping)と呼ばれている。本実施形態のテクスチャデータは、テクスチャマッピング用に生成された2次元画像データでもよいが、これに限定されるものではない。本実施形態のテクスチャデータは、赤色成分(R)、緑色成分(G)及び青色成分(B)で構成されるRGB色空間といった原色色空間の色座標群で表現されうる。 Texture data is two-dimensional image data used to display the appearance of a 3D (three-dimensional) object or the appearance of a 2D (two-dimensional) object displayed in a virtual space. In general, a technique for providing a display pattern consisting of color, pattern, texture, or a combination of these to the surface of a 3D object (3D model) generated by computer graphics is called texture mapping. The texture data of this embodiment may be two-dimensional image data generated for texture mapping, but is not limited to this. The texture data of this embodiment may be expressed as a group of color coordinates in a primary color space, such as an RGB color space consisting of a red component (R), a green component (G), and a blue component (B).

また表示パターン変更画面D2は、キャラクタPC0に現在割り当て可能なオブジェクトV1~V4の簡略化画像を並べて表示するウインドウW4を有する。図6Aの例では、第2のオブジェクトとしてオブジェクトV1が割り当てられているが、ユーザ40は、所定のタッチ操作(たとえばタップ操作)によりオブジェクトV1~V4の中から所望のものを第2のオブジェクトとして再割り当てすることができる。また、ユーザ40は、所定のタッチ操作(たとえば長押し操作)により、ウインドウW4に表示されたオブジェクトV1~V4の中から任意のものを削除することも可能である。 The display pattern change screen D2 also has a window W4 that displays simplified images of objects V1 to V4 that can currently be assigned to the character PC0 side by side. In the example of FIG. 6A, object V1 is assigned as the second object, but the user 40 can reassign a desired one of objects V1 to V4 as the second object by a predetermined touch operation (e.g., a tap operation). The user 40 can also delete any one of objects V1 to V4 displayed in window W4 by a predetermined touch operation (e.g., a long press operation).

また表示パターン変更画面D2は、武器ボタンWB及びアクセサリボタンABをも有する。ユーザ40は、所定のタッチ操作(たとえばタップ操作)により武器ボタンWBを選択することで、武器オブジェクトの一覧(図示せず)をユーザ端末20の表示部34に表示させることができる。ユーザ40は、この一覧のうちの所望の武器オブジェクトをキャラクタPC0に割り当て可能とすることができる。一方、ユーザ40は、所定のタッチ操作(たとえばタップ操作)によりアクセサリボタンABを選択することで、アクセサリオブジェクトの一覧(図示せず)をユーザ端末20の表示部34に表示させることができる。ユーザ40は、この一覧のうちの所望のアクセサリオブジェクトをキャラクタPC0に割り当て可能とすることができる。 The display pattern change screen D2 also has a weapon button WB and an accessory button AB. The user 40 can display a list of weapon objects (not shown) on the display unit 34 of the user terminal 20k by selecting the weapon button WB with a predetermined touch operation (for example, a tap operation). The user 40 can assign a desired weapon object from this list to the character PC0. On the other hand, the user 40 can display a list of accessory objects (not shown) on the display unit 34 of the user terminal 20k by selecting the accessory button AB with a predetermined touch operation (for example, a tap operation). The user 40 can assign a desired accessory object from this list to the character PC0.

また表示パターン変更画面D2は、ユーザ40が表示パターン変更要求を行うためのトリガボタンTBを有する。このトリガボタンTBには、ウインドウW3における第2のオブジェクトV1の代表的な表示色が表示されている。たとえば、第2のオブジェクトV1の頭部の髪が代表的な部位であるのであれば、その頭部の髪を表す代表的な色がトリガボタンTBに表示されればよい。ここで、代表的な色は、第2のオブジェクトV1にあらかじめ割り当てられている色でもよいし、あるいは、後述するように、オブジェクトV1を構成すべきテクスチャデータの色座標群に平均化などの所定の演算を施すことで算出された色でもよい。ユーザ40が所定のタッチ操作(たとえばタップ操作)によりトリガボタンTBを選択すると、ユーザ端末20は、表示パターン変更要求をゲーム進行制御部12に送信する。ゲーム進行制御部12は、ユーザ端末20から受けた表示パターン変更要求に応じて、表示パターン変更処理を開始することができる。 The display pattern change screen D2 also has a trigger button TB for the user 40 to make a display pattern change request. A representative display color of the second object V1 in the window W3 is displayed on this trigger button TB. For example, if the hair on the head of the second object V1 is a representative part, a representative color representing the hair on the head may be displayed on the trigger button TB. Here, the representative color may be a color previously assigned to the second object V1, or may be a color calculated by performing a predetermined calculation such as averaging on a group of color coordinates of texture data that should constitute the object V1, as described later. When the user 40 selects the trigger button TB by a predetermined touch operation (for example, a tap operation), the user terminal 20 k transmits a display pattern change request to the game progress control unit 12. The game progress control unit 12 can start a display pattern change process in response to the display pattern change request received from the user terminal 20 k .

さらに表示パターン変更画面D2は終了ボタンBBを有する。ユーザ40は、キャラクタPC0に割り当てられた第2のオブジェクトV1の表示パターンを変更しないと決めたときは、所定のタッチ操作(たとえばタップ操作)により終了ボタンBBを選択すればよい。 The display pattern change screen D2 further includes an end button BB. When the user 40 decides not to change the display pattern of the second object V1 assigned to the character PC0, the user 40 can select the end button BB by performing a predetermined touch operation (e.g., a tap operation).

図7及び図8は、ゲーム進行制御部12により実行される表示パターン変更処理の手順を概略的に表すフローチャートである。図7及び図8は、結合子C1,C2を介して相互に結合されている。この表示パターン変更処理は、ユーザ端末20から送信された表示パターン変更要求に応じて実行される。 7 and 8 are flow charts that show the outline of the procedure of the display pattern change processing executed by the game progress control unit 12. Fig. 7 and Fig. 8 are connected to each other via connectors C1 and C2. This display pattern change processing is executed in response to a display pattern change request transmitted from the user terminal 20k .

図7を参照すると、先ず、ゲーム進行制御部12は、表示パターン変更要求に応じて、第1のオブジェクトとこの第1のオブジェクトに割り当てられた第2のオブジェクトとを選択する(ステップS11)。次いで、ゲーム進行制御部12は、第1のオブジェクトを構成すべき第1のデータから、第1のパラメータを算出する(ステップS12)。具体的には、ゲーム進行制御部12は、第1のオブジェクトの表示パターンP0を定める第1のテクスチャデータから、第1のオブジェクトの代表的な表示色を表す代表量(ベクトル量またはスカラー量)を第1のパラメータとして算出すればよい。この代表量の算出方法については、後述する。続けて、ゲーム進行制御部12は、第2のオブジェクトを構成すべき第2のデータから、第2のパラメータを算出する(ステップS13)。具体的には、ゲーム進行制御部12は、第2のオブジェクトの表示パターンP1を定める第2のテクスチャデータから、第2のオブジェクトの代表的な表示色を表す代表量(ベクトル量またはスカラー量)を第2のパラメータとして算出すればよい。この代表量の算出方法については、後述する。なお、図7では、ステップS12の後にステップS13が実行されているが、この代わりに、ステップS13の後にステップS12が実行されてもよい。 Referring to FIG. 7, first, the game progress control unit 12 selects a first object and a second object assigned to the first object in response to a display pattern change request (step S11). Next, the game progress control unit 12 calculates a first parameter from the first data that should constitute the first object (step S12). Specifically, the game progress control unit 12 may calculate a representative amount (vector amount or scalar amount) representing a representative display color of the first object as the first parameter from the first texture data that defines the display pattern P0 of the first object. The calculation method of this representative amount will be described later. Next, the game progress control unit 12 calculates a second parameter from the second data that should constitute the second object (step S13). Specifically, the game progress control unit 12 may calculate a representative amount (vector amount or scalar amount) representing a representative display color of the second object as the second parameter from the second texture data that defines the display pattern P1 of the second object. The calculation method of this representative amount will be described later. In FIG. 7, step S13 is executed after step S12, but instead, step S12 may be executed after step S13.

第1のテクスチャデータは、仮想空間上で表示される第1のオブジェクトの外観を表示するために利用される2次元画像データであり、第2のテクスチャデータも、仮想空間上で表示される第2のオブジェクトの外観を表示するために利用される2次元画像データである。第1のオブジェクトの代表的な表示色を表す代表量は、第1のテクスチャデータのうち、第1のオブジェクトの代表的な一部(たとえば、プレイヤキャラクタの頭部、頭部の髪、または上半身などの代表的な部位)の表示パターンを定めるデータセットに基づいて算出されてもよい。同様に、第2のオブジェクトの代表的な表示色を表す代表量は、第2のテクスチャデータのうち、第2のオブジェクトの代表的な一部(たとえば、武器オブジェクトの代表的な部分)の表示パターンを定めるデータセットに基づいて算出されてもよい。 The first texture data is two-dimensional image data used to display the appearance of a first object displayed in a virtual space, and the second texture data is also two-dimensional image data used to display the appearance of a second object displayed in a virtual space. The representative amount representing the representative display color of the first object may be calculated based on a data set that defines the display pattern of a representative part of the first object (e.g., a representative part such as the head, hair on the head, or upper body of a player character) from the first texture data. Similarly, the representative amount representing the representative display color of the second object may be calculated based on a data set that defines the display pattern of a representative part of the second object (e.g., a representative part of a weapon object) from the second texture data.

第1のテクスチャデータは、RGB色空間といった所定の原色色空間における複数点の色座標群で表現可能であり、第2のテクスチャデータも、第1のテクスチャデータと同様に原色色空間における複数点の色座標群で表現可能である。人間の視覚特性の観点からは、代表量は、原色色空間の色座標群に基づいて算出されるよりも、所定のHSV色空間の色座標群に基づいて算出されることが好ましい。HSV色空間とは、色相(Hue)成分、彩度(Saturation/Chroma)成分、及び、明度(Value/Brightness)成分で構成される色空間である。そこで、ゲーム進行制御部12は、第1のテクスチャデータのうちの所定のデータセットで表される原色色空間の色座標群をHSV色空間の色座標群へ色空間変換し、得られたHSV色空間の色座標群に平均化などの所定の演算を施すことで代表的な色座標(第1の色座標)を示すベクトル量を算出し、このベクトル量を代表量として利用すればよい。同様に、ゲーム進行制御部12は、第2のテクスチャデータのうちの所定のデータセットで表される原色色空間の色座標群をHSV色空間の色座標群へ色空間変換し、得られたHSV色空間の色座標群に平均化などの所定の演算を施すことで代表的な色座標(第2の色座標)を示すベクトル量を算出し、このベクトル量を代表量として利用すればよい。 The first texture data can be expressed by a group of color coordinates of multiple points in a predetermined primary color space such as the RGB color space, and the second texture data can also be expressed by a group of color coordinates of multiple points in the primary color space, similar to the first texture data. From the viewpoint of human visual characteristics, it is preferable that the representative amount is calculated based on a group of color coordinates of a predetermined HSV color space rather than based on a group of color coordinates of the primary color space. The HSV color space is a color space composed of a hue component, a saturation (saturation/chroma) component, and a value (value/brightness) component. Therefore, the game progress control unit 12 converts the group of color coordinates of the primary color space represented by a predetermined data set of the first texture data into a group of color coordinates of the HSV color space, and performs a predetermined calculation such as averaging on the group of color coordinates of the obtained HSV color space to calculate a vector amount indicating a representative color coordinate (first color coordinate), and uses this vector amount as the representative amount. Similarly, the game progress control unit 12 performs color space conversion on the color coordinates in the primary color space represented by a predetermined data set in the second texture data to a color coordinate group in the HSV color space, and performs a predetermined calculation such as averaging on the resulting color coordinate group in the HSV color space to calculate a vector quantity indicating a representative color coordinate (second color coordinate), and uses this vector quantity as the representative quantity.

この場合、代表量はベクトル量であるが、これに限定されるものではない。ベクトル量に対応する値(スカラー量)が代表量として使用されてもよい。また、HSV色空間の色座標群の平均化は、算術平均化、幾何平均化及び調和平均化のうちのいずれでもよい。 In this case, the representative quantity is a vector quantity, but is not limited to this. A value corresponding to the vector quantity (a scalar quantity) may be used as the representative quantity. Furthermore, the averaging of the color coordinates in the HSV color space may be any of arithmetic averaging, geometric averaging, and harmonic averaging.

なお、第1のテクスチャデータがHSV色空間における複数点の色座標群で表現され、第2のテクスチャデータもHSV色空間における複数点の色座標群で表現されている場合には、上述の色空間変換は必ずしも必要ではない。 Note that if the first texture data is expressed as a set of color coordinates of multiple points in the HSV color space, and the second texture data is also expressed as a set of color coordinates of multiple points in the HSV color space, the above-mentioned color space conversion is not necessarily required.

ステップS13の後は、ゲーム進行制御部12は、第1のパラメータと第2のパラメータとに基づいて第3のパラメータを算出する(ステップS14)。具体的には、第3のパラメータは、第1のパラメータと第2のパラメータとの間の視覚上の関連度を示すベクトル量またはスカラー量として算出されればよい。より具体的には、第3のパラメータは、第1のパラメータと第2のパラメータとの間の差分Δとして算出可能である。第1のオブジェクトの代表的な表示色を表す代表量をR1で表し、第2のオブジェクトの代表的な表示色を表す代表量をR2で表すとすれば、代表量R1,R2が色座標(ベクトル量)として表現されている場合には、差分Δは、それら色座標(ベクトル量)間の差分ベクトル(=R1-R2、または、R2-R1)として算出可能である。あるいは、差分Δは、その差分ベクトルのノルム(スカラー量)として算出可能である。あるいは、差分Δは、その差分ベクトルを正規化することで得られる正規化ベクトルとして算出されてもよい。あるいは、差分Δは、代表量R1で示される第1の色座標と代表量R2で示される第2の色座標との間のユークリッド距離(Euclidian distance)として算出されてもよいが、これに限らず、チェビシェフ距離(Chebyshev distance)として算出されてもよい。 After step S13, the game progress control unit 12 calculates a third parameter based on the first parameter and the second parameter (step S14). Specifically, the third parameter may be calculated as a vector quantity or a scalar quantity indicating the visual association between the first parameter and the second parameter. More specifically, the third parameter can be calculated as a difference Δ between the first parameter and the second parameter. If a representative quantity representing a representative display color of the first object is represented by R1 and a representative quantity representing a representative display color of the second object is represented by R2, when the representative quantities R1 and R2 are expressed as color coordinates (vector quantities), the difference Δ can be calculated as a difference vector (=R1-R2, or R2-R1) between those color coordinates (vector quantities). Alternatively, the difference Δ can be calculated as the norm (scalar quantity) of that difference vector. Alternatively, the difference Δ may be calculated as a normalized vector obtained by normalizing that difference vector. Alternatively, the difference Δ may be calculated as the Euclidean distance between the first color coordinates indicated by the representative amount R1 and the second color coordinates indicated by the representative amount R2, but is not limited to this, and may also be calculated as the Chebyshev distance.

次のステップS15では、ゲーム進行制御部12は、第3パラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータを決定する。具体的には、ゲーム進行制御部12は、第2のオブジェクトを構成すべき第2のデータに第3のパラメータを適用することで、第3のデータを決定すればよい。より具体的には、第2のデータがテクスチャデータである場合には、ゲーム進行制御部12は、所定の演算方法に従い、当該テクスチャデータに上記した差分Δを適用することにより、第2のオブジェクトの新たな表示パターンPnを第3のデータとして決定することができる。 たとえば、第2のデータが色座標群で表現され、差分Δが差分ベクトルとして算出されている場合には、ゲーム進行制御部12は、色空間内で当該色座標群を差分ベクトルΔだけシフトさせて新たな色座標群を算出することで、その新たな色座標群で表される表示パターンPnを得ることができる。あるいは、ゲーム進行制御部12は、差分ベクトルΔに基づいて座標変換行列などの演算子を選択または構成し、この演算子を用いた座標変換を色座標群に適用して新たな色座標群を算出することで、その新たな色座標群で表される表示パターンPnを得ることもできる。このように、差分Δに基づいて新たな表示パターンPnを決定することができるので、多様なユーザの好みに適合する可能性のあるすべての選択肢のテクスチャデータを用意せずに済む。 In the next step S15, the game progress control unit 12 determines the third data to be used to form a new second object based on the third parameter. Specifically, the game progress control unit 12 may determine the third data by applying the third parameter to the second data to be used to form the second object. More specifically, when the second data is texture data, the game progress control unit 12 can determine a new display pattern Pn of the second object as the third data by applying the above-mentioned difference Δ to the texture data according to a predetermined calculation method. For example, when the second data is expressed by a color coordinate group and the difference Δ is calculated as a difference vector, the game progress control unit 12 can shift the color coordinate group by the difference vector Δ in the color space to calculate a new color coordinate group, thereby obtaining a display pattern Pn represented by the new color coordinate group. Alternatively, the game progress control unit 12 can select or configure an operator such as a coordinate transformation matrix based on the difference vector Δ, and apply a coordinate transformation using this operator to the color coordinate group to calculate a new color coordinate group, thereby obtaining a display pattern Pn represented by the new color coordinate group. In this way, a new display pattern Pn can be determined based on the difference Δ, eliminating the need to prepare texture data for all options that may suit the preferences of a wide variety of users.

ステップS15の後、ゲーム進行制御部12は、ステップS15で決定された第3のデータに基づいて第2のオブジェクトを新たに生成する(ステップS16)。具体的には、ゲーム進行制御部12は、第2のブジェクトの表示パターンP1を、第3のデータで表される新たな表示パターンPnに変更すればよい。 After step S15, the game progress control unit 12 generates a new second object based on the third data determined in step S15 (step S16). Specifically, the game progress control unit 12 changes the display pattern P1 of the second object to a new display pattern Pn represented by the third data.

続けて、ゲーム進行制御部12は、第3のデータで表される新たな表示パターンPnをユーザ端末20に提示する(ステップS17)。具体的には、ゲーム進行制御部12は、新たな表示パターンPnをユーザ端末20の表示部34に表示させる。より具体的には、図6Aの例では、ユーザ40が表示パターン変更画面D2のトリガボタンTBを選択すると、ゲーム進行制御部12は、上記ステップS11~S15を実行して新たな表示パターンPnを決定する。その後、ゲーム進行制御部12は、ユーザ端末20の表示部34の表示画面を図6Aの表示パターン変更画面D2から図6Bの表示パターン変更画面D3に変更させることで、新たな表示パターンPnをユーザ端末20に提示することができる(ステップS17)。ここで、表示パターン変更画面D3のウインドウW3では、第2のオブジェクトV1の表示パターンは新たな表示パターンPnに変更されている。同時に、トリガボタンTBには、新たな表示パターンPnの代表的な表示色が表示される。このとき、たとえば、ゲーム進行制御部12は、新たな表示パターンPnを定めるテクスチャデータのうち、第2のオブジェクトV1の代表的な一部(たとえば、武器オブジェクトの代表的な部分)を定めるデータセットで表される原色色空間の色座標群に平均化などの所定の演算を施すことで代表的な色座標を算出し、この代表的な色座標を利用して代表的な表示色をトリガボタンTBに表示すればよい。 Next, the game progress control unit 12 presents the new display pattern Pn represented by the third data to the user terminal 20k (step S17). Specifically, the game progress control unit 12 displays the new display pattern Pn on the display unit 34 of the user terminal 20k . More specifically, in the example of FIG. 6A, when the user 40 selects the trigger button TB on the display pattern change screen D2, the game progress control unit 12 executes the above steps S11 to S15 to determine the new display pattern Pn. Thereafter, the game progress control unit 12 changes the display screen of the display unit 34 of the user terminal 20k from the display pattern change screen D2 of FIG. 6A to the display pattern change screen D3 of FIG. 6B, thereby being able to present the new display pattern Pn to the user terminal 20k (step S17). Here, in the window W3 of the display pattern change screen D3, the display pattern of the second object V1 has been changed to the new display pattern Pn. At the same time, the trigger button TB displays a representative display color of the new display pattern Pn. At this time, for example, the game progress control unit 12 calculates representative color coordinates by performing a predetermined calculation such as averaging on a group of color coordinates in a primary color space represented by a data set that defines a representative part of the second object V1 (for example, a representative part of a weapon object) from the texture data that defines the new display pattern Pn, and then uses this representative color coordinates to display a representative display color on the trigger button TB.

ステップS17の後、ゲーム進行制御部12は、ユーザ端末20から応答があるまで待機する(ステップS18のNO)。新たな表示パターンPnの提示に対してユーザ端末20から終了指示を受信すると(ステップS17のYES及びステップS18)、ゲーム進行制御部12は、表示パターン変更処理を終了する。図6Bの例では、ユーザ40は、所定のタッチ操作(たとえばタップ操作)により終了ボタンBBを選択することで、表示パターン変更処理を終了させることができる。 After step S17, the game progress control unit 12 waits until there is a response from the user terminal 20k (NO in step S18). When an end instruction is received from the user terminal 20k in response to the presentation of the new display pattern Pn (YES in step S17 and step S18), the game progress control unit 12 ends the display pattern change process. In the example of Fig. 6B, the user 40 can end the display pattern change process by selecting the end button BB by a predetermined touch operation (for example, a tap operation).

一方、新たな表示パターンPnの提示に対してユーザ端末20から表示パターン変更要求を受信すると(ステップS18のYES及びステップS19)、ステップS20が実行される。図6Bの例では、ユーザ40が所定のタッチ操作(たとえばタップ操作)によりトリガボタンTBを選択すると、ユーザ端末20は、2回目の表示パターン変更要求をゲーム進行制御部12に送信する。ステップS20では、ゲーム進行制御部12は、ステップS12で算出された第1のパラメータに基づいて、当該第1のパラメータで表される表示色と色相の点で関連する別の表示色を表す第4のパラメータを算出する。たとえば、第4のパラメータは、代表量R1で表される色に対して補色を表す色座標(ベクトル量)とすることができる。 On the other hand, when a display pattern change request is received from the user terminal 20k in response to the presentation of the new display pattern Pn (YES in step S18 and step S19), step S20 is executed. In the example of FIG. 6B, when the user 40 selects the trigger button TB by a predetermined touch operation (for example, a tap operation), the user terminal 20k transmits a second display pattern change request to the game progress control unit 12. In step S20, the game progress control unit 12 calculates a fourth parameter representing another display color related in terms of hue to the display color represented by the first parameter based on the first parameter calculated in step S12. For example, the fourth parameter can be a color coordinate (vector amount) representing a complementary color to the color represented by the representative amount R1.

ステップS20の後は、ゲーム進行制御部12は、ステップS20で算出された第4のパラメータとステップS13で算出された第2のパラメータとに基づいて、第5のパラメータを算出する(ステップS21)。具体的には、第5のパラメータは、第4のパラメータと第2のパラメータとの間の視覚上の関連度を示すベクトル量またはスカラー量として算出されればよい。より具体的には、第5のパラメータは、第4のパラメータと第2のパラメータとの間の差分δとして算出可能である。今、第4のオブジェクトの代表的な表示色を表す代表量をR4で表し、第2のオブジェクトの代表的な表示色を表す代表量をR2で表すとすれば、代表量R4,R2が色座標(ベクトル量)として表現されている場合には、差分δは、それら色座標(ベクトル量)間の差分ベクトル(=R4-R2、または、R2-R4)として算出可能である。あるいは、差分δは、その差分ベクトルのノルム(スカラー量)として算出可能である。あるいは、差分δは、その差分ベクトルを正規化することで得られる正規化ベクトルとして算出されてもよい。あるいは、差分δは、代表量R4で示される色座標と代表量R2で示される色座標との間のユークリッド距離として算出されてもよいが、これに限らず、チェビシェフ距離として算出されてもよい。 After step S20, the game progress control unit 12 calculates a fifth parameter based on the fourth parameter calculated in step S20 and the second parameter calculated in step S13 (step S21). Specifically, the fifth parameter may be calculated as a vector quantity or a scalar quantity indicating the visual association between the fourth parameter and the second parameter. More specifically, the fifth parameter can be calculated as the difference δ between the fourth parameter and the second parameter. Now, if the representative quantity representing the representative display color of the fourth object is represented by R4 and the representative quantity representing the representative display color of the second object is represented by R2, when the representative quantities R4 and R2 are expressed as color coordinates (vector quantities), the difference δ can be calculated as a difference vector (=R4-R2, or R2-R4) between those color coordinates (vector quantities). Alternatively, the difference δ can be calculated as the norm (scalar quantity) of that difference vector. Alternatively, the difference δ may be calculated as a normalized vector obtained by normalizing that difference vector. Alternatively, the difference δ may be calculated as the Euclidean distance between the color coordinates indicated by the representative amount R4 and the color coordinates indicated by the representative amount R2, but is not limited to this and may also be calculated as the Chebyshev distance.

次に、ゲーム進行制御部12は、ステップS21で算出された第5のパラメータに基づいて、さらに新たな第2のオブジェクトを構成すべき第4のデータを決定する(ステップS22)。具体的には、ゲーム進行制御部12は、第2のオブジェクトを構成すべき第2のデータまたは上記ステップS15で算出された第3のデータに対して第5のパラメータを適用することで、第4のデータを決定すればよい。より具体的には、第2のデータまたは第3のデータがテクスチャデータである場合には、ゲーム進行制御部12は、所定の演算方法に従い、当該テクスチャデータに上記した差分δを適用することにより、第2のオブジェクトのさらに新たな表示パターンPmを第4のデータとして決定することができる。たとえば、第2のデータまたは第3のデータが色座標群で表現され、差分δが差分ベクトルとして算出されている場合には、ゲーム進行制御部12は、、色空間内で当該色座標群を差分ベクトルδだけシフトさせて新たな色座標群を算出することで、その新たな色座標群で表される表示パターンPmを得ることができる。あるいは、ゲーム進行制御部12は、差分ベクトルδに基づいて座標変換行列などの演算子を選択または構成し、この演算子を用いた座標変換を色座標群に適用して新たな色座標群を算出することで、その新たな色座標群で表される表示パターンPmを得ることもできる。このように差分δに基づいてさらに新たな表示パターンPmを決定することができるので、多様なユーザの好みに適合する可能性のあるすべての選択肢のテクスチャデータを用意せずに済む。 Next, the game progress control unit 12 determines the fourth data to be used to form a new second object based on the fifth parameter calculated in step S21 (step S22). Specifically, the game progress control unit 12 may determine the fourth data by applying the fifth parameter to the second data to be used to form the second object or the third data calculated in step S15. More specifically, when the second data or the third data is texture data, the game progress control unit 12 can determine a new display pattern Pm of the second object as the fourth data by applying the difference δ to the texture data according to a predetermined calculation method. For example, when the second data or the third data is expressed by a color coordinate group and the difference δ is calculated as a difference vector, the game progress control unit 12 can obtain the display pattern Pm represented by the new color coordinate group by shifting the color coordinate group by the difference vector δ in the color space to calculate a new color coordinate group. Alternatively, the game progress control unit 12 can select or configure an operator such as a coordinate transformation matrix based on the difference vector δ, and apply coordinate transformation using this operator to the group of color coordinates to calculate a new group of color coordinates, thereby obtaining a display pattern Pm represented by the new group of color coordinates. In this way, a new display pattern Pm can be determined based on the difference δ, so there is no need to prepare texture data for all options that may suit the preferences of various users.

ステップS22の後、ゲーム進行制御部12は、ステップS22で決定された第4のデータに基づいて第2のオブジェクトを新たに生成する(ステップS23)。具体的には、ゲーム進行制御部12は、第2のオブジェクトの表示パターンを、第4のデータで表される表示パターンPmに変更すればよい。続けて、ゲーム進行制御部12は、第4のデータで表される表示パターンPmをユーザ端末20に提示する(図6のステップS24)。具体的には、ゲーム進行制御部12は、表示パターンPmをユーザ端末20の表示部34に表示させる。図9A及び図9Bは、表示パターン変更画面D3,D4を例示する図である。図9Aの表示パターン変更画面D3は、図6Bの表示パターン変更画面D3と同じである。図9Aの例では、ユーザ40が表示パターン変更画面D3のトリガボタンTBを選択すると、ゲーム進行制御部12は、上記ステップS20~S22を実行してさらに新たな表示パターンPmを決定する。その後、ゲーム進行制御部12は、ユーザ端末20の表示部34の表示画面を図9Aの表示パターン変更画面D3から図9Bの表示パターン変更画面D4に変更させることで、表示パターンPmをユーザ端末20に提示することができる(ステップS24)。ここで、表示パターン変更画面D4のウインドウW3では、第2のオブジェクトV1の表示パターンは、表示パターンPmに変更されている。同時に、トリガボタンTBには、表示パターンPmの代表的な表示色が表示される。このとき、たとえば、ゲーム進行制御部12は、表示パターンPmを定めるテクスチャデータのうち、第2のオブジェクトV1の代表的な一部(たとえば、武器オブジェクトの代表的な部分)を定めるデータセットで表される原色色空間の色座標群に平均化などの所定の演算を施すことで代表的な色座標を算出し、この代表的な色座標を利用して代表的な表示色をトリガボタンTBに表示すればよい。 After step S22, the game progress control unit 12 newly generates a second object based on the fourth data determined in step S22 (step S23). Specifically, the game progress control unit 12 changes the display pattern of the second object to the display pattern Pm represented by the fourth data. Then, the game progress control unit 12 presents the display pattern Pm represented by the fourth data to the user terminal 20k (step S24 in FIG. 6). Specifically, the game progress control unit 12 displays the display pattern Pm on the display unit 34 of the user terminal 20k . FIGS. 9A and 9B are diagrams illustrating examples of the display pattern change screens D3 and D4. The display pattern change screen D3 in FIG. 9A is the same as the display pattern change screen D3 in FIG. 6B. In the example of FIG. 9A, when the user 40 selects the trigger button TB on the display pattern change screen D3, the game progress control unit 12 executes the above steps S20 to S22 to further determine a new display pattern Pm. After that, the game progress control unit 12 can present the display pattern Pm to the user terminal 20k by changing the display screen of the display unit 34 of the user terminal 20k from the display pattern change screen D3 of FIG. 9A to the display pattern change screen D4 of FIG. 9B (step S24). Here, in the window W3 of the display pattern change screen D4, the display pattern of the second object V1 is changed to the display pattern Pm. At the same time, the trigger button TB displays a representative display color of the display pattern Pm. At this time, for example, the game progress control unit 12 may calculate a representative color coordinate by performing a predetermined calculation such as averaging on a group of color coordinates of a primary color space represented by a data set that defines a representative part of the second object V1 (for example, a representative part of a weapon object) among the texture data that defines the display pattern Pm, and may display the representative display color on the trigger button TB using the representative color coordinate.

ステップS24の後、ゲーム進行制御部12は、ユーザ端末20から応答があるまで待機する(ステップS25のNO)。新たな表示パターンPmの提示に対してユーザ端末20から終了指示を受信すると(ステップS25のYES及びステップS26)、ゲーム進行制御部12は、表示パターン変更処理を終了する。図9Bの例では、ユーザ40は、所定のタッチ操作(たとえばタップ操作)により終了ボタンBBを選択することで、表示パターン変更処理を終了させることができる。 After step S24, the game progress control unit 12 waits until there is a response from the user terminal 20k (NO in step S25). When an end instruction is received from the user terminal 20k in response to the presentation of the new display pattern Pm (YES in step S25 and step S26), the game progress control unit 12 ends the display pattern change process. In the example of Fig. 9B, the user 40 can end the display pattern change process by selecting the end button BB by a predetermined touch operation (for example, a tap operation).

一方、表示パターンPmの提示に対してユーザ端末20から3回目の表示パターン変更要求を受信すると(ステップS25のYES及びステップS25)、ステップS27が実行される。図9Bの例では、ユーザ40が所定のタッチ操作(たとえばタップ操作)によりトリガボタンTBを選択すると、ユーザ端末20は、3回目の表示パターン変更要求をゲーム進行制御部12に送信する。ステップS27では、3回目の表示パターン変更要求に応じて、ゲーム進行制御部12は、第2のオブジェクトの表示パターンを元の表示パターンP1に変更する。次いで、元の表示パターンP1をユーザ端末20に提示する(ステップS28)。このとき、たとえば、ゲーム進行制御部12は、ユーザ端末20の表示部34の表示画面を、図7Bの表示パターン変更画面D4から図6Aの表示パターン変更画面D2に戻すことができる(ステップS27)。以上で表示パターン変更処理は終了する。 On the other hand, when a third display pattern change request is received from the user terminal 20k in response to the presentation of the display pattern Pm (YES in step S25 and step S25), step S27 is executed. In the example of FIG. 9B, when the user 40 selects the trigger button TB by a predetermined touch operation (for example, a tap operation), the user terminal 20k transmits a third display pattern change request to the game progress control unit 12. In step S27, in response to the third display pattern change request, the game progress control unit 12 changes the display pattern of the second object to the original display pattern P1. Next, the original display pattern P1 is presented to the user terminal 20k (step S28). At this time, for example, the game progress control unit 12 can return the display screen of the display unit 34 of the user terminal 20k from the display pattern change screen D4 in FIG. 7B to the display pattern change screen D2 in FIG. 6A (step S27). This ends the display pattern change process.

以上に説明したように、ゲーム進行制御部12は、第1のオブジェクトを構成すべき第1のデータから第1のパラメータ(たとえば、第1のオブジェクトの代表的な表示色を表す代表量)を算出し(ステップS12)、第2のオブジェクトを構成すべき第2のデータから第2のパラメータ(たとえば、第2のオブジェクトの代表的な表示色を表す代表量)を算出し(ステップS13)、第1のパラメータと第2のパラメータとに基づいて第3のパラメータ(たとえば、第1のパラメータと第2のパラメータとの間の視覚上の関連度を定量的に示す差分)を算出し(ステップS14)、第3のパラメータに基づいて、第2のオブジェクトを構成すべき第3のデータ(たとえば、第2のオブジェクトの新たな表示パターン)を決定し(ステップS17)、第3のデータに基づいて第2のオブジェクトを新たに生成している(ステップS16)。したがって、第1のオブジェクトを基準として新たな第2のオブジェクトを自動的に生成することができる。従来技術では、多数のオブジェクトの1つ1つの表示パターンについて適当な数の選択肢を導入しようとすると、それら選択肢の表示パターンを一々デザインして、各選択肢の表示パターンを定めるデータセットをシステムに組み込むことが必要となる。これは、大きな作業負担を伴うものとなる。また、多様なユーザの好みに適合する可能性のあるすべての選択肢のデータセットを用意することは、膨大なデータ量を要するので現実的ではない。これに対し、本実施形態では、第1のオブジェクトを基準として新たな第2のオブジェクトを自動的に生成することができるので、多様なユーザの好みに適合する可能性のあるすべての選択肢のデータセットを用意せずに済むという利点がある。このような構成により、ユーザの要求に応じてオブジェクトを変更できる仕様を容易に実装することが可能となる。また、開発段階における作業負担の軽減を図りつつ、ユーザの満足度を高めることができるゲームを提供することができる As described above, the game progress control unit 12 calculates a first parameter (for example, a representative amount representing a representative display color of the first object) from the first data to constitute the first object (step S12), calculates a second parameter (for example, a representative amount representing a representative display color of the second object) from the second data to constitute the second object (step S13), calculates a third parameter (for example, a difference quantitatively indicating the visual relevance between the first parameter and the second parameter) based on the first parameter and the second parameter (step S14), determines third data (for example, a new display pattern of the second object) to constitute the second object based on the third parameter (step S17), and generates a new second object based on the third data (step S16). Therefore, a new second object can be automatically generated based on the first object. In the conventional technology, if an appropriate number of options are to be introduced for each display pattern of a large number of objects, it is necessary to design the display patterns of those options one by one and incorporate a data set that defines the display pattern of each option into the system. This entails a large workload. Also, preparing a data set of all options that may suit the tastes of various users is not realistic because it requires a huge amount of data. In contrast, in this embodiment, a new second object can be automatically generated based on a first object, so there is an advantage in that it is not necessary to prepare a data set of all options that may suit the tastes of various users. With this configuration, it is possible to easily implement specifications that allow objects to be changed according to user requests. Also, it is possible to provide a game that can increase user satisfaction while reducing the workload during the development stage.

特に、第1のパラメータとして、第1のオブジェクトの代表的な表示色を表す代表量が算出され、第2のパラメータとして、第1のオブジェクトの代表的な表示色を表す代表量が算出され、第3のパラメータとして、第1のパラメータと第2のパラメータとの間の視覚上の関連度(たとえば、差分)を示すベクトル量またはスカラー量が算出される場合には、ゲーム進行制御部12は、その関連度に基づいて、第2のオブジェクトの新たな表示パターンを決定することができる。したがって、第2のオブジェクトの表示パターンを、ユーザにとって違和感の少ない新たな表示パターンに変更することができる。 In particular, when a representative quantity representing the representative display color of the first object is calculated as the first parameter, a representative quantity representing the representative display color of the first object is calculated as the second parameter, and a vector quantity or scalar quantity indicating the visual association (e.g., difference) between the first parameter and the second parameter is calculated as the third parameter, the game progress control unit 12 can determine a new display pattern of the second object based on the association. Therefore, the display pattern of the second object can be changed to a new display pattern that is less strange to the user.

また、新たな表示パターンの提示に対してユーザ端末20から表示パターン変更要求を受信すると、ゲーム進行制御部12は、第1のパラメータに基づいて、当該第1のパラメータで表される表示色と色相の点で関連する別の表示色を表す第4のパラメータを算出する(ステップS20)。次いで、ゲーム進行制御部12は、第4のパラメータと第2のパラメータとに基づいて第5のパラメータを算出し(ステップS21)、この第5のパラメータに基づいて、第2のオブジェクトを構成すべき第4のデータを決定し(ステップS22)、第4のデータに基づいて第2のオブジェクトを新たに生成することができる(ステップS23)。これにより、ユーザにとっての第2のオブジェクトの新たな表示パターンの選択肢を増やすことができる。 Furthermore, when a display pattern change request is received from the user terminal 20k in response to the presentation of a new display pattern, the game progress control unit 12 calculates a fourth parameter representing another display color related in terms of hue to the display color represented by the first parameter based on the first parameter (step S20). Next, the game progress control unit 12 calculates a fifth parameter based on the fourth parameter and the second parameter (step S21), and determines fourth data to configure the second object based on the fifth parameter (step S22), and is able to newly generate a second object based on the fourth data (step S23). This allows the user to have more options for new display patterns of the second object.

以上、図面を参照して本開示に係る種々の実施形態について述べたが、これら実施形態は例示であり、これら実施形態以外の様々な形態を採用することもできる。本開示の範囲内において、上記実施形態の自由な組み合わせ、各実施形態の任意の構成要素の変形、または各実施形態の任意の構成要素の省略が可能である。また、本発明の趣旨及び範囲から逸脱することなく、上記実施形態の変更、追加及び改良を適宜行うことができることが理解されるべきである。本発明の範囲は、特許請求の範囲の記載に基づいて解釈されるべきであり、さらにその均等物を含むものと理解されるべきである。 Although various embodiments of the present disclosure have been described above with reference to the drawings, these embodiments are merely examples, and various forms other than these embodiments may be adopted. Within the scope of this disclosure, the above embodiments may be freely combined, any component of each embodiment may be modified, or any component of each embodiment may be omitted. It should be understood that the above embodiments may be appropriately modified, added, and improved without departing from the spirit and scope of the present invention. The scope of the present invention should be interpreted based on the description of the claims, and should be understood to include equivalents thereof.

本開示に係る発明の内容を列記すると以下のとおりである。 The contents of the invention disclosed herein are as follows:

[項目1]
仮想環境内に存在しうる複数のオブジェクトを生成する機能と、
前記複数のオブジェクトのうちの第1のオブジェクトを構成すべき第1のデータの平均である第1のパラメータを算出する機能と、
前記複数のオブジェクトのうちの第2のオブジェクトを構成すべき第2のデータの平均である第2のパラメータを算出する機能と、
前記第1のパラメータと前記第2のパラメータとに基づいて第3のパラメータを算出する機能と、
少なくとも前記第3のパラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータを決定する機能と、
前記第3のデータに基づいて前記新たな第2のオブジェクトを生成する機能と
をコンピュータに実現させるプログラム(13A)。
[Item 1]
A function for generating a number of objects that may exist within a virtual environment;
A function of calculating a first parameter which is an average of first data to configure a first object of the plurality of objects;
A function of calculating a second parameter that is an average of second data that is to configure a second object of the plurality of objects;
A function of calculating a third parameter based on the first parameter and the second parameter;
a function of determining third data to be used to construct a new second object based on at least the third parameter;
and a program (13A) for causing a computer to realize a function of generating the new second object based on the third data.

[項目2]
項目1に記載のプログラム(13A)であって、前記第3のデータは、少なくとも前記第3のパラメータを前記第2のデータに適用することで算出される、プログラム(13A)。
[Item 2]
2. The program (13A) according to item 1, wherein the third data is calculated by applying at least the third parameter to the second data.

[項目3]
項目1に記載のプログラム(13A)であって、前記第2のオブジェクトは、前記仮想環境内で前記第1のオブジェクトと視覚的に一体化しうるオブジェクトである、プログラム(13A)。
[Item 3]
2. The program (13A) according to item 1, wherein the second object is an object that can be visually integrated with the first object in the virtual environment.

[項目4]
項目1から3のうちのいずれか1項に記載のプログラム(13A)であって、前記第3のパラメータは、前記第1のパラメータと前記第2のパラメータとの間の差分である、プログラム(13A)。
[Item 4]
4. The program (13A) according to any one of items 1 to 3, wherein the third parameter is a difference between the first parameter and the second parameter.

[項目5]
項目4に記載のプログラム(13A)であって、
前記第1のデータは、前記第1のオブジェクトの表示パターンを定める第1のテクスチャデータであり、
前記第1のパラメータは、前記第1のオブジェクトの代表的な表示色を表すパラメータであり、
前記第2のデータは、前記第2のオブジェクトの表示パターンを定める第2のテクスチャデータであり、
前記第2のパラメータは、前記第2のオブジェクトの代表的な表示色を表すパラメータであり、
前記第3のデータは、前記新たな第2のオブジェクトの表示パターンを示すデータであり、
当該プログラム(13A)が、前記コンピュータに、前記第2のオブジェクトの当該表示パターンを、前記第3のデータで示される表示パターンに変更する機能を実現させるプログラム(13A)。
[Item 5]
The program (13A) according to item 4,
the first data is first texture data that defines a display pattern of the first object;
the first parameter is a parameter representing a representative display color of the first object,
the second data is second texture data that defines a display pattern of the second object,
the second parameter is a parameter representing a representative display color of the second object,
the third data is data indicating a display pattern of the new second object,
The program (13A) causes the computer to realize a function of changing the display pattern of the second object to a display pattern indicated by the third data.

[項目6]
項目5に記載のプログラム(13A)であって、前記コンピュータに、
前記新たな第2のオブジェクトの当該表示パターンをユーザ端末(20)に提示する機能と、
前記ユーザ端末(20)から表示パターン変更要求を受信すると、前記第1のパラメータで表される表示色と色相の点で関連する別の表示色を表す第4のパラメータを算出する機能と、
前記第4のパラメータと前記第2のパラメータとの間の差分を算出する機能と、
少なくとも前記第4のパラメータと前記第2のパラメータとの間の当該差分に基づいて、さらに新たな第2のオブジェクトを構成すべき表示パターンを決定する機能と
を実現させるプログラム(13A)。
[Item 6]
Item 5. The program (13A) according to item 5, further comprising:
a function of presenting the display pattern of the new second object to a user terminal (20 k );
a function of calculating a fourth parameter representing another display color related in hue to the display color represented by the first parameter when a display pattern change request is received from the user terminal (20 k );
calculating a difference between the fourth parameter and the second parameter;
and a function of determining a display pattern for constituting a new second object based on at least the difference between the fourth parameter and the second parameter.

[項目7]
項目5に記載のプログラム(13A)であって、
前記第1のパラメータは、所定の色空間上の第1の色座標を示すベクトル量であり、
前記第2のパラメータは、前記所定の色空間上の第2の色座標を示すベクトル量である、プログラム(13A)。
[Item 7]
The program (13A) according to item 5,
the first parameter is a vector quantity indicating a first color coordinate in a predetermined color space;
The second parameter is a vector quantity indicating a second color coordinate in the predetermined color space, program (13A).

[項目8]
項目7に記載のプログラム(13A)であって、前記所定の色空間は、色相成分、彩度成分及び明度成分で構成されるHSV色空間である、プログラム(13A)。
[Item 8]
Item 7. The program (13A) according to item 7, wherein the predetermined color space is an HSV color space composed of a hue component, a saturation component, and a lightness component.

[項目9]
項目7または8に記載のプログラム(13A)であって、
前記第1の色座標は、前記第1のテクスチャデータの少なくとも一部を表す第1の色座標群を平均化することで算出され、
前記第2の色座標は、前記第2のテクスチャデータの少なくとも一部を表す第2の色座標群を平均化することで算出される、プログラム(13A)。
[Item 9]
The program (13A) according to item 7 or 8,
the first color coordinates are calculated by averaging a first set of color coordinates representing at least a portion of the first texture data;
The second color coordinates are calculated by averaging a group of second color coordinates that represent at least a portion of the second texture data.

[項目10]
項目9に記載のプログラム(13A)であって、前記コンピュータに、
前記第1のテクスチャデータを構成する原色空間上の色座標群に色空間変換を施すことで前記第1の色座標群を算出する機能と、
前記第2のテクスチャデータを構成する原色空間上の色座標群に色空間変換を施すことで前記第2の色座標群を算出する機能と
を実現させるプログラム(13A)。
[Item 10]
Item 9. The program (13A) according to item 9, further comprising:
a function of calculating the first set of color coordinates by performing color space conversion on a set of color coordinates in a primary color space that constitutes the first texture data;
and a program (13A) for realizing a function of calculating the second set of color coordinates by performing color space conversion on the set of color coordinates in the primary color space that constitutes the second texture data.

[項目11]
項目1から3のうちのいずれか1項に記載のプログラム(13A)であって、
前記第1のオブジェクトは、プレイヤキャラクタであり、
前記第2のオブジェクトは、前記仮想環境内で前記プレイヤキャラクタが身に付けられるオブジェクト、または、前記仮想環境内で前記プレイヤキャラクタが所持することができるオブジェクトである、プログラム(13A)。
[Item 11]
The program (13A) according to any one of items 1 to 3,
the first object is a player character;
The second object is an object that can be worn by the player character in the virtual environment or an object that can be held by the player character in the virtual environment.

[項目12]
ユーザ端末(20)にゲームサービスを提供するための情報処理システム(10)であって、
前記ユーザ端末(20)と通信可能な通信処理部(11)と、
前記通信処理部(11)と接続され、仮想環境内に存在しうる複数の仮想オブジェクトを生成するように構成されたゲーム進行制御部(12)と
を備え、
前記ゲーム進行制御部(12)は、
前記複数のオブジェクトのうちの第1のオブジェクトを構成すべき第1のデータの平均である第1のパラメータを算出し、
前記複数のオブジェクトのうちの第2のオブジェクトを構成すべき第2のデータの平均である第2のパラメータを算出し、
前記第1のパラメータと前記第2のパラメータとに基づいて第3のパラメータを算出し、
少なくとも前記第3のパラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータを決定し、
前記第3のデータに基づいて前記新たな第2のオブジェクトを生成する
ように構成されている、情報処理システム(10)。
[Item 12]
An information processing system (10) for providing a game service to a user terminal (20 k ), comprising:
A communication processing unit (11) capable of communicating with the user terminal (20 k );
a game progress control unit (12) connected to the communication processing unit (11) and configured to generate a plurality of virtual objects that may exist in a virtual environment;
The game progress control unit (12)
Calculating a first parameter that is an average of first data that is to constitute a first object of the plurality of objects;
Calculating a second parameter that is an average of second data that is to constitute a second object of the plurality of objects;
calculating a third parameter based on the first parameter and the second parameter;
determining third data for constituting a new second object based on at least the third parameter;
An information processing system (10) configured to generate the new second object based on the third data.

NW:通信ネットワーク、1:ゲームシステム、10:情報処理システム、11:通信処理部、12:ゲーム進行制御部、13:記憶部、13A:プログラム、13B:ゲーム情報、13C:ユーザ情報、20,20,…,20:ユーザ端末、31:通信インタフェース部(通信I/F部)、32:制御部、32A:操作入力受付部、32B:表示制御部、32C:ユーザインタフェース制御部(ユーザI/F制御部)、32D:アニメーション生成部、32E:ゲーム進行部、33:記憶部、33A:プログラム、33B:ゲーム情報、33C:ユーザ情報、34:表示部、35:入出力インタフェース部(入出力I/F部)、36:操作入力部、37:センサ部、40:ユーザ、41:ゲームコントローラ、42:記憶媒体、50:サーバ装置、51:プロセッサ、52:メモリ、53:ストレージ、54:通信インタフェース回路(通信I/F回路)、55:入出力インタフェース回路(入出力I/F回路)、56:信号路、60:端末装置、61:プロセッサ、62:メモリ、63:ストレージ、64:撮像センサ、65:測距センサ、66:タッチパネル型ディスプレイ、67:入力デバイス、68:入出力インタフェース回路(入出力I/F回路)、69:通信インタフェース回路(通信I/F回路)、70:信号路70。 NW: communication network, 1: game system, 10: information processing system, 11: communication processing unit, 12: game progress control unit, 13: memory unit, 13A: program, 13B: game information, 13C: user information, 20 1 , 20 2 , ..., 20 K : user terminal, 31: communication interface unit (communication I/F unit), 32: control unit, 32A: operation input reception unit, 32B: display control unit, 32C: user interface control unit (user I/F control unit), 32D: animation generation unit, 32E: game progress unit, 33: memory unit, 33A: program, 33B: game information, 33C: user information, 34: display unit, 35: input/output interface unit (input/output I/F unit), 36: operation input unit, 37: sensor unit, 40: user, 41: game controller, 42: storage medium, 5 0: server device, 51: processor, 52: memory, 53: storage, 54: communication interface circuit (communication I/F circuit), 55: input/output interface circuit (input/output I/F circuit), 56: signal path, 60: terminal device, 61: processor, 62: memory, 63: storage, 64: imaging sensor, 65: ranging sensor, 66: touch panel display, 67: input device, 68: input/output interface circuit (input/output I/F circuit), 69: communication interface circuit (communication I/F circuit), 70: signal path 70.

Claims (15)

仮想環境内に存在しうる複数のオブジェクトを生成する機能と、
前記複数のオブジェクトのうちの第1のオブジェクトを構成すべき第1のデータの平均である第1のパラメータを算出する機能と、
前記複数のオブジェクトのうちの第2のオブジェクトを構成すべき第2のデータの平均である第2のパラメータを算出する機能と、
前記第1のパラメータと前記第2のパラメータとに基づいて第3のパラメータを算出する機能と、
少なくとも前記第3のパラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータを決定する機能と、
前記第3のデータに基づいて前記新たな第2のオブジェクトを生成する機能と
をコンピュータに実現させるプログラム。
A function for generating a number of objects that may exist within a virtual environment;
A function of calculating a first parameter which is an average of first data to configure a first object of the plurality of objects;
A function of calculating a second parameter which is an average of second data to configure a second object of the plurality of objects;
A function of calculating a third parameter based on the first parameter and the second parameter;
a function of determining third data to be used to construct a new second object based on at least the third parameter;
and generating the new second object based on the third data.
請求項1に記載のプログラムであって、前記第3のデータは、少なくとも前記第3のパラメータを前記第2のデータに適用することで算出される、プログラム。 The program according to claim 1, wherein the third data is calculated by applying at least the third parameter to the second data. 請求項1に記載のプログラムであって、前記第2のオブジェクトは、前記仮想環境内で前記第1のオブジェクトと視覚的に一体化しうるオブジェクトである、プログラム。 The program of claim 1, wherein the second object is an object that can be visually integrated with the first object in the virtual environment. 請求項1から3のうちのいずれか1項に記載のプログラムであって、前記第3のパラメータは、前記第1のパラメータと前記第2のパラメータとの間の差分である、プログラム。 The program according to any one of claims 1 to 3, wherein the third parameter is a difference between the first parameter and the second parameter. 請求項4に記載のプログラムであって、
前記第1のデータは、前記第1のオブジェクトの表示パターンを定める第1のテクスチャデータであり、
前記第1のパラメータは、前記第1のオブジェクトの代表的な表示色を表すパラメータであり、
前記第2のデータは、前記第2のオブジェクトの表示パターンを定める第2のテクスチャデータであり、
前記第2のパラメータは、前記第2のオブジェクトの代表的な表示色を表すパラメータであり、
前記第3のデータは、前記新たな第2のオブジェクトの表示パターンを示すデータであり、
当該プログラムが、前記コンピュータに、前記第2のオブジェクトの当該表示パターンを、前記第3のデータで示される表示パターンに変更する機能を実現させるプログラム。
The program according to claim 4,
the first data is first texture data that defines a display pattern of the first object;
the first parameter is a parameter representing a representative display color of the first object,
the second data is second texture data that defines a display pattern of the second object,
the second parameter is a parameter representing a representative display color of the second object,
the third data is data indicating a display pattern of the new second object,
The program causes the computer to realize a function of changing the display pattern of the second object to a display pattern indicated by the third data.
請求項5に記載のプログラムであって、前記コンピュータに、
前記新たな第2のオブジェクトの当該表示パターンをユーザ端末に提示する機能と、
前記ユーザ端末から表示パターン変更要求を受信すると、前記第1のパラメータで表される表示色と色相の点で関連する別の表示色を表す第4のパラメータを算出する機能と、
前記第4のパラメータと前記第2のパラメータとの間の差分を算出する機能と、
少なくとも前記第4のパラメータと前記第2のパラメータとの間の当該差分に基づいて、さらに新たな第2のオブジェクトを構成すべき表示パターンを決定する機能と
を実現させるプログラム。
The program according to claim 5, further comprising:
a function of presenting the display pattern of the new second object on a user terminal;
a function of calculating a fourth parameter representing another display color related in terms of hue to the display color represented by the first parameter when a display pattern change request is received from the user terminal;
calculating a difference between the fourth parameter and the second parameter;
and determining a display pattern for constituting a new second object based on at least the difference between the fourth parameter and the second parameter.
請求項5に記載のプログラムであって、
前記第1のパラメータは、所定の色空間上の第1の色座標を示すベクトル量であり、
前記第2のパラメータは、前記所定の色空間上の第2の色座標を示すベクトル量である、プログラム。
The program according to claim 5,
the first parameter is a vector quantity indicating a first color coordinate in a predetermined color space;
The second parameter is a vector quantity indicating a second color coordinate in the predetermined color space.
請求項7に記載のプログラムであって、前記所定の色空間は、色相成分、彩度成分及び明度成分で構成されるHSV色空間である、プログラム。 The program according to claim 7, wherein the predetermined color space is an HSV color space composed of a hue component, a saturation component, and a brightness component. 請求項7または8に記載のプログラムであって、
前記第1の色座標は、前記第1のテクスチャデータの少なくとも一部を表す第1の色座標群を平均化することで算出され、
前記第2の色座標は、前記第2のテクスチャデータの少なくとも一部を表す第2の色座標群を平均化することで算出される、プログラム。
The program according to claim 7 or 8,
the first color coordinates are calculated by averaging a first set of color coordinates representing at least a portion of the first texture data;
The second color coordinates are calculated by averaging a second group of color coordinates that represent at least a portion of the second texture data.
請求項9に記載のプログラムであって、前記コンピュータに、
前記第1のテクスチャデータを構成する原色空間上の色座標群に色空間変換を施すことで前記第1の色座標群を算出する機能と、
前記第2のテクスチャデータを構成する原色空間上の色座標群に色空間変換を施すことで前記第2の色座標群を算出する機能と
を実現させるプログラム。
The program according to claim 9, further comprising:
a function of calculating the first set of color coordinates by performing color space conversion on a set of color coordinates in a primary color space that constitutes the first texture data;
a program for realizing a function of calculating the second set of color coordinates by performing color space conversion on a set of color coordinates in a primary color space that constitutes the second texture data.
請求項1から3のうちのいずれか1項に記載のプログラムであって、
前記第1のオブジェクトは、プレイヤキャラクタであり、
前記第2のオブジェクトは、前記仮想環境内で前記プレイヤキャラクタが身に付けられるオブジェクト、または、前記仮想環境内で前記プレイヤキャラクタが所持することができるオブジェクトである、プログラム。
The program according to any one of claims 1 to 3,
the first object is a player character;
The second object is an object that can be worn by the player character in the virtual environment or an object that can be held by the player character in the virtual environment.
ユーザ端末にゲームサービスを提供するための情報処理システムであって、
前記ユーザ端末と通信可能な通信処理部と、
前記通信処理部と接続され、仮想環境内に存在しうる複数の仮想オブジェクトを生成するように構成されたゲーム進行制御部と
を備え、
前記ゲーム進行制御部は、
前記複数のオブジェクトのうちの第1のオブジェクトを構成すべき第1のデータの平均である第1のパラメータを算出し、
前記複数のオブジェクトのうちの第2のオブジェクトを構成すべき第2のデータの平均である第2のパラメータを算出し、
前記第1のパラメータと前記第2のパラメータとに基づいて第3のパラメータを算出し、
少なくとも前記第3のパラメータに基づいて、新たな第2のオブジェクトを構成すべき第3のデータを決定し、
前記第3のデータに基づいて前記新たな第2のオブジェクトを生成する
ように構成されている、情報処理システム。
An information processing system for providing a game service to a user terminal, comprising:
A communication processing unit capable of communicating with the user terminal;
a game progress control unit connected to the communication processing unit and configured to generate a plurality of virtual objects that may exist in the virtual environment;
The game progress control unit:
Calculating a first parameter that is an average of first data that is to constitute a first object of the plurality of objects;
Calculating a second parameter that is an average of second data that is to constitute a second object of the plurality of objects;
calculating a third parameter based on the first parameter and the second parameter;
determining third data for constituting a new second object based on at least the third parameter;
an information processing system configured to generate the new second object based on the third data.
請求項12に記載の情報処理システムであって、前記第2のオブジェクトは、前記第1のオブジェクトに割り当てられ、前記仮想環境内で前記第1のオブジェクトと視覚的に一体化しうるオブジェクトである、情報処理システム。 The information processing system according to claim 12, wherein the second object is an object that is assigned to the first object and can be visually integrated with the first object in the virtual environment. 請求項12または13に記載の情報処理システムであって、前記第3のパラメータは、前記第1のパラメータと前記第2のパラメータとの間の差分である、情報処理システム。 The information processing system according to claim 12 or 13, wherein the third parameter is a difference between the first parameter and the second parameter. 請求項14に記載の情報処理システムであって、
前記第1のデータは、前記第1のオブジェクトの表示パターンを定める第1のテクスチャデータであり、
前記第1のパラメータは、前記第1のオブジェクトの代表的な表示色を表すベクトル量であり、
前記第2のデータは、前記第2のオブジェクトの表示パターンを定める第2のテクスチャデータであり、
前記第2のパラメータは、前記第2のオブジェクトの代表的な表示色を表すベクトル量であり、
前記第3のデータは、前記新たな第2のオブジェクトの表示パターンを示すデータであり、
前記ゲーム進行制御部は、前記第2のオブジェクトの当該表示パターンを、前記第3のデータで示される表示パターンに変更するように構成されている、情報処理システム。
15. The information processing system according to claim 14,
the first data is first texture data that defines a display pattern of the first object;
the first parameter is a vector quantity representing a representative display color of the first object;
the second data is second texture data that defines a display pattern of the second object,
the second parameter is a vector quantity representing a representative display color of the second object;
the third data is data indicating a display pattern of the new second object,
The information processing system, wherein the game progress control unit is configured to change the display pattern of the second object to a display pattern indicated by the third data.
JP2022155076A 2022-09-28 2022-09-28 Program and information processing system Pending JP2024048913A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022155076A JP2024048913A (en) 2022-09-28 2022-09-28 Program and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022155076A JP2024048913A (en) 2022-09-28 2022-09-28 Program and information processing system

Publications (1)

Publication Number Publication Date
JP2024048913A true JP2024048913A (en) 2024-04-09

Family

ID=90609289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022155076A Pending JP2024048913A (en) 2022-09-28 2022-09-28 Program and information processing system

Country Status (1)

Country Link
JP (1) JP2024048913A (en)

Similar Documents

Publication Publication Date Title
US11504620B2 (en) Method for controlling game character and electronic device and computer storage medium
CA2853212C (en) System, server, and control method for rendering an object on a screen
US9717988B2 (en) Rendering system, rendering server, control method thereof, program, and recording medium
US9652063B2 (en) Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method
US10850196B2 (en) Terminal device
US9707485B2 (en) Systems and methods for cloud processing and overlaying of content on streaming video frames of remotely processed applications
CA2890814C (en) Systems and methods for cloud processing and overlaying of content on streaming video frames of remotely processed applications
JP4079378B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2012147404A (en) Information processor
CN113262492A (en) Game data processing method and device and electronic terminal
JP2024048913A (en) Program and information processing system
JP2024048909A (en) Program and information processing system
JP6568246B2 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7213791B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
US11620801B2 (en) Information-processing device, storage medium, information-processing system, and information-processing method
JP6453500B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP6613328B2 (en) Image processing program, image processing system, image processing apparatus, and image processing method
JP2019130291A (en) Game program, method, and information processing device
JP2019063490A (en) Game program, method, and information processor
JP2019063250A (en) Game program, method, and information processor
JP2007140741A (en) Information communication system, information processor, information processing program, storage medium storing information processing program, operation terminal and mobile terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240809