JP7460839B1 - Programs and systems - Google Patents

Programs and systems Download PDF

Info

Publication number
JP7460839B1
JP7460839B1 JP2023147750A JP2023147750A JP7460839B1 JP 7460839 B1 JP7460839 B1 JP 7460839B1 JP 2023147750 A JP2023147750 A JP 2023147750A JP 2023147750 A JP2023147750 A JP 2023147750A JP 7460839 B1 JP7460839 B1 JP 7460839B1
Authority
JP
Japan
Prior art keywords
profile
user
program
setting values
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023147750A
Other languages
Japanese (ja)
Inventor
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2023147750A priority Critical patent/JP7460839B1/en
Application granted granted Critical
Publication of JP7460839B1 publication Critical patent/JP7460839B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザの作業負担を増加させることなく、オブジェクトに合わせて作成されたユニークなプロフィールを、当該オブジェクトに対応付けて公開可能なプログラムを提供する。【解決手段】プログラムは、コンピュータを、オンライン空間に配置されるオブジェクトの視覚的な特徴を設定するためにユーザが選択した複数の設定値に従って、オブジェクトを生成するオブジェクト生成手段と、予め学習させた学習済みモデルに複数の設定値を入力して、オブジェクトのプロフィールを生成させるプロフィール生成手段と、プロフィール生成手段が生成したプロフィールを、オブジェクト生成手段が生成したオブジェクトに対応付けて、オンライン空間に公開する公開手段として機能させる。【選択図】図13[Problem] To provide a program that can publish a unique profile created according to an object in association with the object without increasing the workload of the user. [Solution] The program causes a computer to function as: object generation means that generates an object according to multiple setting values selected by the user to set the visual characteristics of the object to be placed in an online space; profile generation means that inputs the multiple setting values into a trained model that has been trained in advance to generate a profile for the object; and publishing means that publishes in the online space the profile generated by the profile generation means in association with the object generated by the object generation means. [Selected Figure] Figure 13

Description

本発明は、プログラム及びシステムに関する。 The present invention relates to a program and a system.

従来より、VR(Virtual Reality)空間において、自身のアバターのプロフィールを他のアバターに公開する技術が知られている(例えば、特許文献1、2を参照)。そして、VR空間では、他のアバターのプロフィールを見て、当該アバターと友達になる(所謂、フレンド登録)か否かを決定することができる。 BACKGROUND ART Conventionally, there has been known a technique for disclosing the profile of one's avatar to other avatars in a VR (Virtual Reality) space (see, for example, Patent Documents 1 and 2). Then, in the VR space, it is possible to see the profiles of other avatars and decide whether to become friends with the avatars (so-called friend registration) or not.

同様に、複数のアバターが協力してプレイする協力型のオンラインゲーム、または複数のアバターが対戦する対戦型のオンラインゲームにおいて、他のアバターのプロフィールを見て、協力または対戦するアバターを選択することができるものがある。このように、VR空間やオンラインゲームにおいて、各アバターのプロフィールの重要度は高まってきている。 Similarly, in cooperative online games in which multiple avatars play together, or competitive online games in which multiple avatars play against each other, players can view the profiles of other avatars and select an avatar to cooperate or compete with. In this way, the profile of each avatar is becoming increasingly important in VR spaces and online games.

特開2018-170013号公報JP 2018-170013 Publication 特開2018-106499号公報Japanese Patent Application Publication No. 2018-106499

しかしながら、プロフィールの作成作業を負担に感じるユーザも多い。そのため、予め定められたデフォルトのプロフィールを使用するアバターが多くなると、フレンド登録、協力または対戦するアバターを選択するうえで、プロフィールが役に立たなくなるという課題を生じる。 However, many users feel that creating a profile is a burden. Therefore, when the number of avatars that use a predetermined default profile increases, a problem arises in that the profile becomes useless when selecting an avatar to register as a friend, cooperate with, or compete against.

本発明は、上記の事情に鑑みてなされたものであり、その目的は、ユーザの作業負担を増加させることなく、オブジェクトに合わせて作成されたユニークなプロフィールを、当該オブジェクトに対応付けて公開可能なプログラムを提供することにある。 The present invention has been made in consideration of the above circumstances, and its purpose is to provide a program that can publish a unique profile created to match an object, in association with the object, without increasing the workload of the user.

前記課題を解決するため、本発明に係るプログラムは、コンピュータを、オンライン空間に配置されるオブジェクトの視覚的な特徴を設定するためにユーザが選択した複数の設定値に従って、前記オブジェクトを生成するオブジェクト生成手段と、予め学習させた学習済みモデルに複数の前記設定値を入力して、前記オブジェクトのプロフィールを生成させるプロフィール生成手段と、前記プロフィール生成手段が生成した前記プロフィールを、前記オブジェクト生成手段が生成した前記オブジェクトに対応付けて、前記オンライン空間に公開する公開手段として機能させる。 To solve the above problem, the program of the present invention causes a computer to function as an object generation means for generating an object in accordance with multiple setting values selected by a user to set the visual characteristics of the object to be placed in an online space, a profile generation means for inputting the multiple setting values into a trained model that has been trained in advance to generate a profile for the object, and a publishing means for associating the profile generated by the profile generation means with the object generated by the object generation means and publishing the profile in the online space.

本発明によれば、ユーザの作業負担を増加させることなく、オブジェクトに合わせて作成されたユニークなプロフィールを、当該オブジェクトに対応付けて公開することができる。 According to the present invention, a unique profile created to match an object can be made public in association with the object without increasing the user's workload.

本実施形態に係るシステムの概要を示す図である。1 is a diagram showing an overview of a system according to an embodiment of the present invention; AIによる学習処理(A)及び生成処理(B)の概念図である。1 is a conceptual diagram of AI-based learning processing (A) and generation processing (B). AIを実現するニューラルネットワークを示す図である。FIG. 1 is a diagram showing a neural network that realizes AI. ユーザ端末のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of a user terminal. ユーザ端末の機能ブロック図である。FIG. 2 is a functional block diagram of a user terminal. アバター生成画面の一例である。This is an example of an avatar generation screen. 設定パラメータの優先度(A)及び設定値ヒストグラム(B)、(C)の一例である。13 shows an example of the priority (A) of setting parameters and setting value histograms (B) and (C). プロフィール(A)、(B)及び学習データ(C)の一例である。1 shows an example of profiles (A), (B) and learning data (C). アバター生成画面の他の例である。This is another example of the avatar generation screen. 設定パラメータの優先度(A)及び設定値ヒストグラム(B)、(C)の他の例である。This is another example of the setting parameter priority (A) and setting value histograms (B) and (C). プロフィール(A)、(B)及び学習データ(C)の他の例である。13 is another example of profiles (A), (B) and learning data (C). プロフィール編集画面(A)及び学習データ(B)の例である。This is an example of a profile editing screen (A) and learning data (B). ユーザ選択画面(A)及びユーザ詳細画面(B)の画面例である。13A shows an example of a user selection screen and FIG. 13B shows an example of a user details screen.

以下、実施形態に係るシステム1を図面に基づいて説明する。なお、以下に記載する本発明の実施形態は、本発明を具体化する際の一例を示すものであって、本発明の範囲を実施形態の記載の範囲に限定するものではない。従って、本発明は、実施形態に種々の変更を加えて実施することができる。 Below, the system 1 according to the embodiment will be described with reference to the drawings. Note that the embodiment of the present invention described below is an example of how the present invention can be realized, and does not limit the scope of the present invention to the scope of the described embodiment. Therefore, the present invention can be implemented by making various modifications to the embodiment.

[システム1の概要]
図1は、本実施形態に係るシステム1の概要を示す図である。図1に示すように、システム1は、ゲームサーバ10と、AIサーバ15と、複数のユーザ端末20とを主に備える。なお、図1には3つのユーザ端末20が図示されているが、システム1に含まれるユーザ端末20の数はこれに限定されない。ゲームサーバ10、AIサーバ15、及びユーザ端末20は、通信ネットワーク2を介して相互通信可能に接続されている。通信ネットワーク2の具体例は特に限定されないが、例えば、インターネット、移動体通信システム(例えば、4G、5Gなど)、Wi-Fi(登録商標)などの無線ネットワーク、またはこれらの組み合わせで構成される。
[Overview of System 1]
FIG. 1 is a diagram showing an overview of a system 1 according to this embodiment. As shown in FIG. 1, the system 1 mainly includes a game server 10, an AI server 15, and a plurality of user terminals 20. Although three user terminals 20 are illustrated in FIG. 1, the number of user terminals 20 included in the system 1 is not limited to this. The game server 10, the AI server 15, and the user terminals 20 are connected to each other so as to be able to communicate with each other via a communication network 2. Specific examples of the communication network 2 are not particularly limited, and may be, for example, the Internet, a mobile communication system (e.g., 4G, 5G, etc.), a wireless network such as Wi-Fi (registered trademark), or a combination thereof.

一例として、システム1は、複数のユーザ端末20A、20B、20Cのユーザ(プレイヤ)が協力してプレイする協力型のオンラインゲームを実現する。他の例として、システム1は、複数のユーザ端末20A、20B、20Cのユーザ(プレイヤ)が対戦する対戦型のオンラインゲームを実現する。さらに他の例として、複数のユーザ端末20A、20B、20Cのユーザがアバターを介してコミュニケーションする仮想空間を実現する。これらのシステム1は既に周知なので、詳細な説明は省略する。 As an example, the system 1 realizes a cooperative online game in which users (players) of a plurality of user terminals 20A, 20B, and 20C cooperate to play. As another example, the system 1 realizes a competitive online game in which users (players) of a plurality of user terminals 20A, 20B, and 20C compete against each other. As yet another example, a virtual space is realized in which users of a plurality of user terminals 20A, 20B, and 20C communicate via avatars. Since these systems 1 are already well known, detailed explanation will be omitted.

[ゲームサーバ10の構成]
ゲームサーバ10は、例えば、ワークステーション、またはパーソナルコンピュータなどの汎用コンピュータで実現される。一例として、オンラインゲームを提供するゲームサーバ10は、複数のユーザ端末20それぞれのゲームデータを同期させる。他の例として、仮想空間を提供するゲームサーバ10は、複数のユーザ端末20それぞれの仮想空間データを同期させる。以下、複数のユーザが参加可能なオンラインゲーム及び仮想空間を総称して、「オンライン空間」と表記する。すなわち、ゲームサーバ10は、複数のユーザ端末20A、20B、20Cに対して、オンライン空間を提供する。
[Configuration of game server 10]
The game server 10 is realized, for example, by a general-purpose computer such as a workstation or a personal computer. As an example, a game server 10 that provides online games synchronizes game data of each of a plurality of user terminals 20. As another example, the game server 10 that provides a virtual space synchronizes virtual space data of each of a plurality of user terminals 20. Hereinafter, online games and virtual spaces in which multiple users can participate will be collectively referred to as "online spaces." That is, the game server 10 provides online space to the plurality of user terminals 20A, 20B, and 20C.

[AIサーバ15の構成]
AIサーバ15は、例えば、ワークステーション、またはパーソナルコンピュータなどの汎用コンピュータで実現される。AIサーバ15は、学習済みモデルを含むAI(Artificial Intelligence)16を実現する。一例として、AIサーバ15は、ゲームサーバ10が提供するオンライン空間に対して最適化された専用AIを搭載していてもよい。このとき、ゲームサーバ10及びAIサーバ15は、1つのハードウェアで実現されてもよい。他の例として、AIサーバ15は、様々な用途に活用され得る汎用AIを搭載していてもよい。AI16の構成は既に周知なので詳細な説明は省略するが、例えば以下のような構成である。
[Configuration of AI server 15]
The AI server 15 is realized, for example, by a workstation or a general-purpose computer such as a personal computer. The AI server 15 realizes AI (Artificial Intelligence) 16 including a trained model. As an example, the AI server 15 may be equipped with a dedicated AI optimized for the online space provided by the game server 10. At this time, the game server 10 and the AI server 15 may be realized by one piece of hardware. As another example, the AI server 15 may be equipped with general-purpose AI that can be used for various purposes. Since the configuration of the AI 16 is already well known, a detailed explanation will be omitted, but for example, the configuration is as follows.

図2は、AI16による学習処理(A)及び生成処理(B)の概念図である。図3は、AI16を実現するニューラルネットワーク17を示す図である。AIサーバ15に搭載されるAI16は、入力データを処理して出力データを生成する、所謂「生成AI」である。そして、AI16は、図2(A)に示す学習処理と、図2(B)に示す生成処理とを実行する。また、AI16は、例えば、図3に示すニューラルネットワーク17を用いて、入力データから出力データを生成する。 FIG. 2 is a conceptual diagram of learning processing (A) and generation processing (B) by the AI 16. FIG. 3 is a diagram showing the neural network 17 that realizes the AI 16. The AI 16 installed in the AI server 15 is a so-called "generation AI" that processes input data and generates output data. The AI 16 then executes the learning process shown in FIG. 2(A) and the generation process shown in FIG. 2(B). Furthermore, the AI 16 uses, for example, the neural network 17 shown in FIG. 3 to generate output data from input data.

図2(A)に示すように、AI16は、学習モデル16aを備える。学習モデル16aとは、学習処理が行われる前のニューラルネットワーク17を指す。そして、学習モデル16aは、入力データ及び正解データを含む学習データによって、学習済みモデル16bとなる。入力データとは、AI16に入力されるデータを指す。正解データは、入力データが入力されたときに出力されるべきデータを指す。そして、学習モデル16aに複数の学習データを入力することによって、後述するようにニューラルネットワーク17が最適化されて、学習済みモデル16bとなる。 As shown in FIG. 2(A), AI 16 includes learning model 16a. Learning model 16a refers to the neural network 17 before the learning process is performed. The learning model 16a becomes trained model 16b with learning data including input data and correct answer data. Input data refers to data input to AI 16. Correct answer data refers to data that should be output when input data is input. By inputting multiple pieces of learning data into learning model 16a, the neural network 17 is optimized as described below, and becomes trained model 16b.

また、図2(B)に示すように、学習済みモデル16bは、ニューラルネットワーク17に入力データを入力することによって、出力データを生成して出力する。入力データ及び出力データは、テキスト形式、画像形式、音声形式の他、あらゆる形式のデータであってもよい。また、入力データ及び出力データは、形式の異なるデータでもよい。一方、正解データの形式は、出力データの形式と同一である。 Also, as shown in FIG. 2(B), the trained model 16b generates and outputs output data by inputting input data to the neural network 17. The input data and output data may be in any format, such as text, image, or audio. The input data and output data may also be in different formats. On the other hand, the format of the correct answer data is the same as the format of the output data.

なお、図2(A)に示す学習処理は、学習モデル16aに対してだけでなく、学習済みモデル16bに対して実行されてもよい。また、AI16は、本発明で現実に用いる入力データ及び正解データを用いて学習している必要はなく、汎用的な学習データで学習していてもよい。さらに、AI16が実行する学習処理は、入力データ及び正解データを入力する「教師あり学習」に限定されず、正解データを入力しない「教師なし学習」でもよいし、強化学習や転移学習などを実行してもよい。 The learning process shown in FIG. 2(A) may be performed not only on the learning model 16a, but also on the trained model 16b. In addition, the AI 16 does not need to learn using the input data and correct answer data actually used in the present invention, and may learn using general-purpose learning data. Furthermore, the learning process performed by the AI 16 is not limited to "supervised learning" in which input data and correct answer data are input, but may be "unsupervised learning" in which correct answer data is not input, or may perform reinforcement learning, transfer learning, etc.

図3に示すように、学習モデル16aまたは学習済みモデル16bのニューラルネットワーク17は、複数のノードI1、I2、I3で構成される入力層L1と、複数のノードH1、H2、H3、H4、H5で構成される中間層L2と、複数のノードO1、O2、O3で構成される出力層L3とで構成される。なお、図3の例では、入力層L1及び出力層L3ノード数が一致しているが、入力層L1及び出力層L3のノード数は異なっていてもよい。また、ニューラルネットワーク17は、複数の中間層L2を有していてもよい。さらに、図3では、各層L1、L2、L3を構成する複数のノードが隣接する層の全てのノードに接続された全結合型のニューラルネットワーク17を示しているが、ニューラルネットワーク17の構造はこれに限定されない。 As shown in FIG. 3, the neural network 17 of the learning model 16a or the trained model 16b includes an input layer L1 composed of a plurality of nodes I1, I2, and I3, and a plurality of nodes H1, H2, H3, H4, and H5. and an output layer L3 including a plurality of nodes O1, O2, and O3. In the example of FIG. 3, the numbers of nodes in the input layer L1 and output layer L3 are the same, but the numbers of nodes in the input layer L1 and output layer L3 may be different. Furthermore, the neural network 17 may include a plurality of intermediate layers L2. Furthermore, although FIG. 3 shows a fully connected neural network 17 in which a plurality of nodes constituting each layer L1, L2, and L3 are connected to all nodes of adjacent layers, the structure of the neural network 17 is as follows. but not limited to.

そして、学習処理は、入力データが入力層L1に入力されたときに、正解データが出力層L3から出力されるように、各ノードの重み係数やバイアスを調整する処理である。また、生成処理は、入力層L1に入力された入力データを、ノード毎に予め調整された重み係数やバイアスを用いて処理することによって、出力データを生成して出力層L3から出力する処理である。 The learning process is a process of adjusting the weighting coefficients and biases of each node so that correct data is output from the output layer L3 when input data is input to the input layer L1. The generation process is a process of generating output data and outputting it from the output layer L3 by processing the input data input to the input layer L1 using weighting coefficients and biases that have been adjusted in advance for each node.

但し、前述したAI16による処理の具体例は、一例であって、AIサーバ15では周知の様々な手法を採用することができる。他の例として、AI16は、CNN(Convolutional Neural Network)のネットワーク構造等があってもよい。さらに他の例として、ネットワーク構造は、LLM(Large Language Model:大規模言語モデル)、RNN(Recurrent Neural Network:再帰型ニューラルネットワーク)又はLSTM(Long Short-Term Memory)等の構成を有してもよい。すなわち、AI16は、ディープラーニング以外のネットワーク構造等であってもよい。 However, the specific example of the processing by the AI 16 described above is just an example, and the AI server 15 can employ various well-known techniques. As another example, the AI 16 may have a CNN (Convolutional Neural Network) network structure. As still another example, the network structure may have a configuration such as LLM (Large Language Model), RNN (Recurrent Neural Network), or LSTM (Long Short-Term Memory). good. That is, the AI 16 may have a network structure other than deep learning.

本実施形態では、テキスト形式の入力データを学習済みモデル16bに入力して、テキスト形式の出力データが生成される例を説明する。より詳細には、本実施形態に係る入力データは、アバター(オブジェクト)の視覚的または聴覚的(少なくとも、視覚的)な特徴を設定するためにユーザが選択した複数の設定値である。また、本実施形態に係る出力データは、複数の設定値に従って生成されたアバター(オブジェクト)のプロフィールである。 In this embodiment, an example will be described in which input data in text format is input to the trained model 16b, and output data in text format is generated. More specifically, the input data in this embodiment is a number of setting values selected by the user to set the visual or auditory (at least visual) characteristics of an avatar (object). Also, the output data in this embodiment is a profile of the avatar (object) generated in accordance with the number of setting values.

[ユーザ端末20の構成]
ユーザ端末20は、例えば、HMDセット、タブレット端末、スマートフォン、フィーチャーフォン、ラップトップ型コンピュータ、デスクトップコンピュータなどとして実現される。本実施形態では、図1に示すように、タブレット端末としてのユーザ端末20の例を説明する。
[Configuration of user terminal 20]
The user terminal 20 is realized as, for example, an HMD set, a tablet terminal, a smartphone, a feature phone, a laptop computer, a desktop computer, etc. In this embodiment, an example of the user terminal 20 as a tablet terminal will be described as shown in FIG.

図4は、ユーザ端末20のハードウェア構成図である。図4に示すように、ユーザ端末20は、プロセッサ21と、メモリ22と、ストレージ23と、通信インタフェース25と、モニタ31と、カメラ33、34と、マイク35と、スピーカ36と、動きセンサ41と、操作装置42(操作部)とを主に備える。ユーザ端末20の各構成要素は、通信バス29に接続されている。 Figure 4 is a hardware configuration diagram of the user terminal 20. As shown in Figure 4, the user terminal 20 mainly includes a processor 21, a memory 22, a storage 23, a communication interface 25, a monitor 31, cameras 33 and 34, a microphone 35, a speaker 36, a motion sensor 41, and an operation device 42 (operation unit). Each component of the user terminal 20 is connected to a communication bus 29.

プロセッサ21は、メモリ22またはストレージ23に格納されている端末プログラム23Pに含まれる一連の命令を実行することによって、後述する処理を実現する。プロセッサ21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、その他のデバイスとして実現される。 The processor 21 executes a series of instructions included in the terminal program 23P stored in the memory 22 or the storage 23, thereby realizing the processing described below. The processor 21 is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processing Unit), or an FPGA (Field-Programmable Gate A). rray) and other devices.

メモリ22は、端末プログラム23P及びデータを一時的に保持する。端末プログラム23Pは、例えば、ストレージ23からロードされる。データは、ユーザ端末20に入力されたデータと、プロセッサ21によって生成されたデータとを含む。例えば、メモリ22は、RAM(Random Access Memory)、その他の揮発メモリとして実現される。 The memory 22 temporarily holds the terminal program 23P and data. The terminal program 23P is loaded, for example, from the storage 23. The data includes data input to the user terminal 20 and data generated by the processor 21. For example, the memory 22 is realized as a RAM (Random Access Memory) or other volatile memory.

ストレージ23は、端末プログラム23P及びデータを永続的に保持する。ストレージ23は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。また、ストレージ23は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに他の例として、ストレージ23は、ユーザ端末20に内蔵されることに代えて、外部記憶装置としてユーザ端末20に接続されていてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のユーザ端末20が使用される場面において、端末プログラム23Pやデータの更新を一括して行うことが可能になる。 The storage 23 permanently holds the terminal program 23P and data. The storage 23 is realized, for example, as a ROM (Read-Only Memory), a hard disk device, a flash memory, or other nonvolatile storage device. Further, the storage 23 may be realized as a removable storage device such as a memory card. As yet another example, the storage 23 may be connected to the user terminal 20 as an external storage device instead of being built into the user terminal 20. According to such a configuration, for example, in a scene where a plurality of user terminals 20 are used as in an amusement facility, it becomes possible to update the terminal program 23P and data all at once.

通信インタフェース25は、通信ネットワーク2に接続されている他の装置(例えば、ゲームサーバ10、AIサーバ15)と通信する。通信インタフェース25は、例えば、LAN(Local Area Network)など有線通信インタフェース、Wi-Fi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)などの無線通信インタフェースとして実現される。 The communication interface 25 communicates with other devices (eg, the game server 10, the AI server 15) connected to the communication network 2. The communication interface 25 may be, for example, a wired communication interface such as a LAN (Local Area Network), or a wireless communication interface such as Wi-Fi (Wireless Fidelity), Bluetooth (registered trademark), or NFC (Near Field Communication). Realized.

モニタ31は、例えば図1に示すように、平板状の筐体の表面に設けられている。モニタ31は、画像または映像を表示する表示装置(表示部)である。カメラ33は、平板状の筐体の表面に取り付けられて、モニタ31を視認するユーザの顔を撮像する、所謂インカメラである。カメラ34は、平板状の筐体の裏面(モニタ31と反対側の面)に取り付けられて、周囲を撮像する、所謂アウトカメラである。 For example, as shown in FIG. 1, the monitor 31 is provided on the surface of a flat case. The monitor 31 is a display device (display unit) that displays images or videos. The camera 33 is a so-called in-camera that is attached to the surface of a flat case and captures an image of the face of the user viewing the monitor 31 . The camera 34 is a so-called outside camera that is attached to the back surface of the flat case (the surface opposite to the monitor 31) and captures an image of the surroundings.

マイク35は、ユーザの発話を音声信号(電気信号)に変換してコンピュータ26に出力する。スピーカ36は、コンピュータ26から出力された音声信号を音声に変換してユーザに出力する。なお、ユーザ端末20は、スピーカ36に替えてイヤホンを含み得る。 The microphone 35 converts the user's speech into an audio signal (electrical signal) and outputs it to the computer 26. The speaker 36 converts the audio signal output from the computer 26 into sound and outputs it to the user. Note that the user terminal 20 may include an earphone instead of the speaker 36.

動きセンサ41は、筐体の動き(例えば、互いに直交する3軸周りの回転)を検知する。動きセンサ41は、例えば、角速度センサ、地磁気センサ、あるいは加速度センサで実現されてもよい。 The motion sensor 41 detects the movement of the housing (for example, rotation around three mutually orthogonal axes). The motion sensor 41 may be realized by, for example, an angular velocity sensor, a geomagnetic sensor, or an acceleration sensor.

操作装置42は、ユーザによるユーザ端末20に対する命令の入力(操作)を受け付ける。操作装置42は、例えば、モニタ31に重畳されて、ユーザによる各種タッチ操作を受け付けるタッチパネルである。すなわち、本実施形態に係るモニタ31は、タッチパネル式の表示部である。但し、ユーザ端末20の具体的なハードウェア構成は、前述の例に限定されない。他の例として、ユーザ端末20は、ボタンや操作スティック等を備えたコントローラを、操作装置42として備えていてもよい。 The operation device 42 accepts input (operation) of commands by the user to the user terminal 20. The operation device 42 is, for example, a touch panel that is superimposed on the monitor 31 and accepts various touch operations by the user. In other words, the monitor 31 according to this embodiment is a touch panel type display unit. However, the specific hardware configuration of the user terminal 20 is not limited to the above example. As another example, the user terminal 20 may be provided with a controller equipped with buttons, an operation stick, etc. as the operation device 42.

[ユーザ端末20の機能ブロック図]
図5は、ユーザ端末20の機能ブロック図である。図5に示すように、メモリ22にロードされた端末プログラム23Pは、ユーザ端末20(コンピュータ)を、オブジェクト生成手段210と、選択手段220と、プロフィール生成手段230と、自動編集手段240と、学習手段250と、公開手段260と、ユーザ編集手段270と、フィードバック手段280として機能させる。
[Functional block diagram of user terminal 20]
FIG. 5 is a functional block diagram of the user terminal 20. As shown in FIG. 5, the terminal program 23P loaded into the memory 22 connects the user terminal 20 (computer) to the object generation means 210, the selection means 220, the profile generation means 230, the automatic editing means 240, and the learning It functions as means 250, publishing means 260, user editing means 270, and feedback means 280.

なお、図5にはプロフィールを生成して公開をするための機能ブロックを中心に図示しているが、ユーザ端末20は、オンライン空間での処理(例えば、ゲームへの参加、アバターの動作)を実現する機能をさらに有する。また、図5には、ユーザ端末20Aの機能ブロックを中心に図示しているが、ユーザ端末20B、20Cも同様の機能ブロックを有する。 Although FIG. 5 mainly shows functional blocks for generating and publishing a profile, the user terminal 20 also handles processing in the online space (for example, participation in a game, avatar movement). It has further functions to realize. Further, although FIG. 5 mainly shows the functional blocks of the user terminal 20A, the user terminals 20B and 20C also have similar functional blocks.

まず、図6~図8を参照して、ユーザ端末20Aにおいて、アバター及びプロフィールを生成する処理の例を説明する。図6は、アバター生成画面の一例である。図7は、設定パラメータの優先度(A)及び設定値ヒストグラム(B)、(C)の一例である。図8は、プロフィール(A)、(B)及び学習データ(C)の一例である。 First, an example of the process of generating an avatar and profile in the user terminal 20A will be described with reference to FIGS. 6 to 8. FIG. 6 is an example of an avatar generation screen. FIG. 7 is an example of the setting parameter priority (A) and setting value histograms (B) and (C). FIG. 8 is an example of profiles (A), (B) and learning data (C).

オブジェクト生成手段210は、図6に示すアバター生成画面をモニタ31に表示させる。アバター生成画面は、アバター(キャラクタ)を生成するための画面である。また、アバター生成画面は、アバターの視覚的(外見)または聴覚的(声色)な特徴を設定するために、ユーザ端末20Aのユーザに複数の設定値を選択させるための画面である。以下、視覚的な特徴を中心にアバター及びプロフィールを生成する処理を説明する。 The object generation means 210 displays the avatar generation screen shown in FIG. 6 on the monitor 31. The avatar generation screen is a screen for generating an avatar (character). The avatar generation screen is also a screen for allowing the user of the user terminal 20A to select multiple setting values in order to set the visual (appearance) or auditory (tone of voice) characteristics of the avatar. Below, the process of generating an avatar and profile will be explained, focusing on visual characteristics.

アバターは、ユーザの分身となってオンライン空間内で動作するオブジェクトの一例である。また、アバターは、3次元的に描かれた形状の3D形式でもよいし、2次元的に描かれた形状の2D形式でもよい。さらに、アバターは、視覚的な特徴を表すデータ(例えば、画像データ、3Dモデルデータ)と、聴覚的な特徴を表すデータ(例えば、音声データ)、或いはこれらを組み合わせて特定される。 An avatar is an example of an object that represents a user and operates within an online space. An avatar may be in a 3D format, which is a shape drawn in three dimensions, or in a 2D format, which is a shape drawn in two dimensions. An avatar is specified by data representing visual characteristics (e.g., image data, 3D model data) and data representing auditory characteristics (e.g., audio data), or a combination of these.

図6に示すように、アバター生成画面は、アバター表示領域A1と、性別選択領域A2と、年齢選択領域A3と、設定パラメータ選択領域A4と、候補アイコン選択領域A5と、[決定]アイコンとを含む。 As shown in FIG. 6, the avatar generation screen includes an avatar display area A1, a gender selection area A2, an age selection area A3, a setting parameter selection area A4, a candidate icon selection area A5, and a "Decide" icon.

アバター表示領域A1は、選択領域A2~A5を通じてユーザが選択した設定値に従って生成したアバターの画像(以下、「アバター画像」と表記する。)を表示する領域である。すなわち、選択領域A2~A5を通じて設定値が変更されることによって、アバター表示領域A1に表示されるアバター画像の見た目が変化する。また、アバター表示領域A1に対するタッチ操作(例えば、スワイプ操作、ピンチイン操作、ピンチアウト操作)によって、表示されるアバター画像が変化(例えば、回転、縮小、拡大)してもよい。 Avatar display area A1 is an area that displays an image of an avatar (hereinafter, referred to as an "avatar image") generated according to the setting values selected by the user through selection areas A2 to A5. That is, the appearance of the avatar image displayed in avatar display area A1 changes as the setting values are changed through selection areas A2 to A5. In addition, the displayed avatar image may change (e.g., rotate, shrink, enlarge) in response to a touch operation (e.g., a swipe operation, a pinch-in operation, a pinch-out operation) on avatar display area A1.

性別選択領域A2は、アバターの性別を選択する領域である。性別選択領域A2は、性別パラメータの設定値の候補として、[男性]アイコンと、[女性]アイコンとを含む。年齢選択領域A3は、アバターの年齢を選択する領域である。年齢選択領域A3は、年齢パラメータの設定値の候補として、[子供]アイコンと、[大人]アイコンとを含む。但し、年齢選択領域A3は、生年月日を入力するテキストボックスやプルダウンメニューを含んでもよい。 Gender selection area A2 is an area for selecting the gender of the avatar. Gender selection area A2 includes a [male] icon and a [female] icon as candidates for setting values of gender parameters. The age selection area A3 is an area for selecting the age of the avatar. The age selection area A3 includes a [child] icon and an [adult] icon as candidates for the setting value of the age parameter. However, the age selection area A3 may include a text box or pull-down menu for inputting the date of birth.

設定パラメータ選択領域A4は、設定パラメータ(輪郭、髪型、肌の色、服装、カラー)を選択する領域である。設定パラメータ選択領域A4は、[輪郭]タブ、[髪型]タブ、[肌の色]タブ、[服]タブ、[カラー]タブを含む。輪郭は、アバターの顔の輪郭を示す。髪型は、アバターの髪型を示す。肌の色は、アバターの肌の色を示す。服は、アバターが着る服を示す。カラーは、アバターのベースカラー(例えば、髪、服、アクセサリーの色)を示す。 The setting parameter selection area A4 is an area for selecting setting parameters (contour, hairstyle, skin colour, clothing, colour). The setting parameter selection area A4 includes an [Contour] tab, an [Hairstyle] tab, a [Skin Colour] tab, a [Clothing] tab, and a [Color] tab. The contour indicates the contour of the avatar's face. The hairstyle indicates the avatar's hairstyle. The skin colour indicates the avatar's skin colour. The clothing indicates the clothing worn by the avatar. The colour indicates the base colour of the avatar (e.g. the colour of the hair, clothing, accessories).

候補アイコン選択領域A5は、設定パラメータ選択領域A4で選択された選択パラメータに対応する設定値を選択する領域である。一例として、設定パラメータ選択領域A4で[髪型]タブが選択された場合、設定パラメータ選択領域A4には、選択可能な髪型の設定値(例えば、ショート、お団子、ツインテール、ポニーテール)の候補を示す複数の候補アイコンが表示される。他の例として、設定パラメータ選択領域A4で[服]タブが選択された場合、設定パラメータ選択領域A4には、選択可能な服の設定値(例えば、ワンピース、ミニスカ、デニム、メイド)の候補を示す複数の候補アイコンが表示される。 The candidate icon selection area A5 is an area for selecting a setting value corresponding to the selection parameter selected in the setting parameter selection area A4. As an example, when the [Hairstyle] tab is selected in the setting parameter selection area A4, the setting parameter selection area A4 shows candidates for selectable hairstyle setting values (for example, short, bun, twintails, ponytail). Multiple candidate icons are displayed. As another example, when the [Clothing] tab is selected in the setting parameter selection area A4, candidates for selectable clothing settings (for example, dress, miniskirt, denim, maid) are displayed in the setting parameter selection area A4. Multiple candidate icons are displayed.

図6の例において、性別、年齢、輪郭、髪型、肌の色、服、カラーは、設定パラメータの一例である。また、設定パラメータ(例えば、性別)に対応付けて選択可能な候補アイコン(例えば、[男性]アイコン、[女性]アイコン)は、アバター(オブジェクト)の視覚的な特徴を表す設定値の候補である。すなわち、設定パラメータとは、同種の設定値のグループ(種別)を表す。 In the example of FIG. 6, gender, age, contour, hairstyle, skin color, clothing, and color are examples of setting parameters. Also, the candidate icons (e.g., the "male" icon, the "female" icon) that can be selected in association with the setting parameters (e.g., gender) are candidates for setting values that represent the visual characteristics of the avatar (object). In other words, a setting parameter represents a group (type) of setting values of the same type.

但し、設定パラメータの具体例は、前述の例に限定されない。また、前述した設定パラメータにおいて、選択可能な設定値の候補は、前述の例に限定されない。さらに、設定パラメータは、アバターの視覚的な特徴を設定するものに限定されない。例えば、アバターの聴覚的な特徴を設定する設定パラメータとして、声色パラメータが挙げられる。声色パラメータの設定値としては、ソプラノ、メゾソプラノ、アルトなどが挙げられる。 However, specific examples of setting parameters are not limited to the above examples. Furthermore, for the above setting parameters, the selectable setting value candidates are not limited to the above examples. Furthermore, setting parameters are not limited to those that set the visual characteristics of the avatar. For example, a voice tone parameter is an example of a setting parameter that sets the auditory characteristics of the avatar. Setting values for the voice tone parameter include soprano, mezzo-soprano, alto, etc.

なお、視覚的な特徴としてのアバター自体、視覚的な特徴としてのアバターが身に着けるアイテム(例えば、衣装、アクセサリ等)、聴覚的な特徴としてのアバターの声のデータは、課金やガチャ等を通じて取得できてもよい。例えば、デフォルトのアバターと異なる見た目のアバター、漫画やアニメに登場するキャラが身に着けているアイテム、現実の声優の声のデータ等を取得できるようにしてもよい。 Please note that the avatar itself as a visual feature, the items worn by the avatar as a visual feature (e.g. costumes, accessories, etc.), and the data of the avatar's voice as an auditory feature may be collected through billing, gacha, etc. It may be possible to obtain it. For example, it may be possible to acquire avatars that look different from the default avatars, items worn by characters appearing in manga or anime, voice data of real voice actors, and the like.

そして、オブジェクト生成手段210は、選択領域A2~A5を通じてユーザが選択した複数の設定値(例えば、性別=女性、年齢=子供、輪郭=丸顔、髪型=ツインテール、肌の色=色白、服=メイド、カラー=白)に従って、アバターデータ(画像データ、3Dモデルデータ)を生成し、生成したアバターデータで示されるアバター画像をアバター表示領域A1に表示する。さらに、オブジェクト生成手段210は、[決定]アイコンが選択されたことに応じて、生成したアバターデータを確定させる。 Then, the object generation means 210 generates a plurality of setting values selected by the user through the selection areas A2 to A5 (for example, gender=female, age=child, outline=round face, hairstyle=pwintails, skin color=fair skin, clothes= Avatar data (image data, 3D model data) is generated according to the maid (color=white), and an avatar image indicated by the generated avatar data is displayed in the avatar display area A1. Further, the object generation means 210 finalizes the generated avatar data in response to the selection of the [Determination] icon.

選択手段220は、アバター生成画面を通じて選択された複数の設定値のうち、学習済みモデル16bに入力する設定値を選択する。選択手段220は、例えば、図7(A)に示す優先度テーブルと、図7(B)及び図7(C)に示す設定値ヒストグラムとを用いて、学習済みモデル16bに入力する設定値を選択する。なお、本実施形態では、7つの設定値のうちから4つの設定値を選択するものとする。但し、選択する設定値の数は、前述の例に限定されない。 The selection means 220 selects setting values to be input to the trained model 16b from among the multiple setting values selected through the avatar generation screen. The selection means 220 selects setting values to be input to the trained model 16b, for example, using the priority table shown in FIG. 7(A) and the setting value histograms shown in FIG. 7(B) and FIG. 7(C). In this embodiment, four setting values are selected from the seven setting values. However, the number of setting values to be selected is not limited to the above example.

図7(A)に示す優先度テーブルは、設定パラメータ毎の初期優先度を保持している。初期優先度は、複数の設定パラメータの予め定められた優先度を示す。初期優先度は、数値が小さいほど、優先度が高いことを示す。優先度テーブルは、例えば、ゲームサーバ10の管理者によって設定されて、予めユーザ端末20Aにダウンロードされる。すなわち、選択手段220は、図7(A)に示す優先度テーブルのみに従えば、性別、年齢、髪型、肌の色の設定値を固定で選択することになる。 The priority table shown in FIG. 7A holds initial priorities for each setting parameter. The initial priority indicates a predetermined priority of a plurality of setting parameters. The smaller the initial priority, the higher the priority. For example, the priority table is set by the administrator of the game server 10 and downloaded to the user terminal 20A in advance. That is, if the selection means 220 follows only the priority table shown in FIG. 7(A), it will select fixed setting values for gender, age, hairstyle, and skin color.

図7(B)及び図7(C)に示す設定値ヒストグラムは、ゲームサーバ10が提供するオンライン空間において、過去に他のユーザが選択した設定値を、設定パラメータ(例えば、髪型、服)毎に集計したものである。図7(B)及び図7(C)の縦軸は、選択された回数(度数)でもよいし、選択された割合(%)でもよい。これらの設定値ヒストグラムは、例えば、ゲームサーバ10によって集計される。そして、選択手段220は、通信IF25を通じてゲームサーバ10から設定値ヒストグラムを受信する。なお、図7には、髪型パラメータ及び服パラメータの設定値ヒストグラムのみを示しているが、他の設定パラメータの設定値ヒストグラムを参照してもよい。 The setting value histograms shown in FIGS. 7(B) and 7(C) show setting values selected by other users in the past for each setting parameter (for example, hairstyle, clothes) in the online space provided by the game server 10. This is the total. The vertical axis in FIG. 7(B) and FIG. 7(C) may be the number of selections (frequency) or the selection ratio (%). These setting value histograms are compiled by the game server 10, for example. Then, the selection means 220 receives the setting value histogram from the game server 10 through the communication IF 25. Although FIG. 7 shows only the setting value histograms of the hairstyle parameters and clothing parameters, reference may be made to the setting value histograms of other setting parameters.

そして、選択手段220は、ゲームサーバ10から取得した設定値ヒストグラムに基づいて、設定パラメータの優先度を変更する。一例として、選択手段220は、図7(B)に示すように、髪型パラメータにおける「ツインテール」の選択回数が2番目に多いので、髪型パラメータの優先度を変更しない。他の例として、選択手段220は、図7(C)に示すように、服パラメータにおける「メイド」の選択回数が1番少ないので、服パラメータの優先度を“1”に変更する(最も高くする)。 Then, the selection means 220 changes the priority of the setting parameters based on the setting value histogram acquired from the game server 10. As an example, as shown in FIG. 7(B), the selection means 220 does not change the priority of the hairstyle parameters because "twin tails" has been selected the second most times among the hairstyle parameters. As another example, as shown in FIG. 7C, the selection means 220 changes the priority of the clothing parameter to "1" (the highest do).

その結果、選択手段220は、図6及び図7の例において、学習済みモデル16bに入力する設定値として、性別=女性、年齢=子供、服=メイド、肌の色=色白を選択することになる。このように、選択手段220は、複数の設定値のうち、他のユーザが選択した回数が少ない設定値を優先して選択すればよい。但し、選択手段220が設定値を選択する方法は、これに限定されない。他の例として、選択手段220は、複数の設定値のうちから、学習済みモデル16bに入力する設定値をランダムに選択してもよい。さらに他の例として、選択手段220は、課金して取得したアバター、アイテム、声を示す設定値を、他の設定値より優先して学習済みモデル16bに入力してもよい。 As a result, in the examples of FIGS. 6 and 7, the selection means 220 selects gender = female, age = child, clothing = maid, and skin color = fair skin as the setting values to be input to the learned model 16b. Become. In this way, the selection means 220 may select, from among the plurality of setting values, the setting value that has been selected less frequently by other users. However, the method by which the selection means 220 selects the setting value is not limited to this. As another example, the selection means 220 may randomly select a setting value to be input to the learned model 16b from among a plurality of setting values. As still another example, the selection means 220 may input setting values indicating the avatar, item, and voice obtained by paying a fee to the learned model 16b with priority over other setting values.

プロフィール生成手段230は、選択手段220が選択した設定値(例えば、性別=女性、年齢=子供、服=メイド、肌の色=色白)を学習済みモデル16bに入力して、アバターのプロフィールを生成させる。また、プロフィール生成手段230は、ユーザが決定(入力)したアバターの名前(例えば、名前=リンダ)を、さらに学習済みモデル16bに入力してもよい。さらに、プロフィール生成手段230は、プロフィールの文字数の範囲(例えば、70~100文字)を、さらに学習済みモデル16bに入力してもよい。 The profile generating means 230 inputs the settings selected by the selecting means 220 (e.g., gender = female, age = child, clothing = maid, skin color = fair) into the trained model 16b to generate an avatar profile. The profile generating means 230 may also input the name of the avatar determined (input) by the user (e.g., name = Linda) into the trained model 16b. The profile generating means 230 may also input the range of the number of characters in the profile (e.g., 70 to 100 characters) into the trained model 16b.

例えば、自然言語処理が可能なAI16にプロフィールを生成させる場合、プロフィール生成手段230は、テキスト形式の入力データとして、「女性、子供、メイド、色白のリンダのプロフィールを、70~100文字で生成してください。」を、通信IF25を通じてAIサーバ15に送信する。 For example, when the AI 16 capable of natural language processing generates a profile, the profile generation means 230 inputs text-format input data such as ``Generate a profile of a woman, child, maid, and fair-skinned Linda in 70 to 100 characters.'' Please send it to the AI server 15 via the communication IF 25.

AIサーバ15は、ユーザ端末20Aから取得した入力データを入力層L1に入力し、中間層L2で処理して、テキスト形式のプロフィールを出力層L3から出力する。また、AIサーバ15は、生成したプロフィールをユーザ端末20Aに送信する。そして、プロフィール生成手段230は、図8(A)に示すプロフィール(出力データ)を、通信IF25を通じてAIサーバ15から受信する。 The AI server 15 inputs input data acquired from the user terminal 20A into the input layer L1, processes the data in the intermediate layer L2, and outputs a text-format profile from the output layer L3. The AI server 15 also transmits the generated profile to the user terminal 20A. The profile generation means 230 then receives the profile (output data) shown in FIG. 8(A) from the AI server 15 via the communication IF 25.

プロフィールは、アバターを紹介するテキスト形式のデータである。プロフィールに含まれるのは、アバターの嗜好、オンライン空間でやりたいこと、他のユーザに対するメッセージ、バックストーリー(例えば、出身地、学歴、職歴)、家族構成など、アバターに関するあらゆるテキスト情報が含まれ得る。また、プロフィールは、入力データとして入力した複数の設定値からイメージされるテキストである。但し、プロフィールは、テキスト形式に限定されず、画像形式、音声形式、或いはこれらの組み合わせでもよい。さらに、プロフィールは、真実である必要はなく、創作(フィクション)でよい。 A profile is text-format data that introduces an avatar. A profile may include any text information related to an avatar, such as the avatar's preferences, what the avatar wants to do in the online space, messages to other users, a backstory (e.g., hometown, educational background, work history), and family composition. A profile is also text that is imagined from multiple settings entered as input data. However, a profile is not limited to text format, and may also be in image format, audio format, or a combination of these. Furthermore, a profile does not have to be true, and may be fiction.

自動編集手段240は、プロフィール生成手段230が生成したプロフィールを編集する。一例として、自動編集手段240は、プロフィール生成手段が生成したプロフィールから、予め定められたキーワードを削除してもよい。他の例として、自動編集手段240は、プロフィール生成手段が生成したプロフィールのうち、予め定められたキーワードを、他のワードに置換してもよい。キーワードとは、例えば、性的、暴力的、差別的な表現、入力データに含めた設定値そのもの、具体的な個人情報(現住所、電話番号)などが挙げられる。 The automatic editing means 240 edits the profile generated by the profile generation means 230. As one example, the automatic editing means 240 may delete predetermined keywords from the profile generated by the profile generation means. As another example, the automatic editing means 240 may replace predetermined keywords in the profile generated by the profile generation means with other words. Examples of keywords include sexual, violent, and discriminatory expressions, setting values included in the input data, and specific personal information (current address, phone number).

図8(B)の例では、設定値そのものである「色白メイドの」が削除され、性的な表現である「セクシー」が「色々」に置換されている。キーワードを削除するか他のワードに置換するかは、予め定められていてもよいし、AI16に判断させてもよい。また、自動編集手段240は、予め定められたキーワードがプロフィールに含まれていない場合、編集の実行をスキップしてもよい。 In the example of FIG. 8(B), the setting value itself, "fair-skinned maid", is deleted, and the sexual expression "sexy" is replaced with "various". Whether to delete a keyword or replace it with another word may be predetermined, or the decision may be made by AI 16. Furthermore, the automatic editing means 240 may skip executing the edit if a predetermined keyword is not included in the profile.

学習手段250は、図8(C)に示すように、「女性、子供、メイド、色白のリンダのプロフィールを、70~100文字で生成してください。」を入力データとし、自動編集手段240が編集したプロフィールを正解データとする学習データを、学習済みモデル16bに入力してさらに学習させる。すなわち、学習手段250は、通信IF25を通じて学習データをAIサーバ15に送信する。AIサーバ15は、ユーザ端末20Aから受信した学習データを用いて、学習済みモデル16bに学習処理を実行させる。 As shown in FIG. 8(C), the learning means 250 takes as input data "Please create a profile of Linda, female, child, maid, fair-skinned, in 70 to 100 characters." and inputs the learning data, in which the profile edited by the automatic editing means 240 is used as correct answer data, into the trained model 16b for further learning. That is, the learning means 250 transmits the learning data to the AI server 15 via the communication IF 25. The AI server 15 uses the learning data received from the user terminal 20A to cause the trained model 16b to execute a learning process.

公開手段260は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィールを、オブジェクト生成手段210が生成したアバターに対応付けて、オンライン空間に公開する。より詳細には、公開手段260は、プロフィール生成手段230が生成したアバターデータと、プロフィール生成手段230または自動編集手段240が生成したプロフィールデータとを対応付けて、通信IF25を通じてゲームサーバ10に送信する。 The publishing unit 260 associates the profile generated by the profile generating unit 230 or edited by the automatic editing unit 240 with the avatar generated by the object generating unit 210, and publishes it in the online space. More specifically, the publishing means 260 associates the avatar data generated by the profile generation means 230 with the profile data generated by the profile generation means 230 or the automatic editing means 240, and transmits the data to the game server 10 via the communication IF 25. .

ゲームサーバ10は、ユーザ端末20B、20Cからの要求に応じて、ユーザ端末20Aから受信したアバターデータ及びプロフィールデータを、ユーザ端末20B、20Cに送信する。これにより、ユーザ端末20B、20Cのユーザは、ユーザ端末20Aが生成したアバター(以下、「アバターA」と表記する。)及びプロフィール(以下、「プロフィールA」と表記する。)を、モニタ31やスピーカ36を通じて知覚することができる。 The game server 10 transmits the avatar data and profile data received from the user terminal 20A to the user terminals 20B and 20C in response to requests from the user terminals 20B and 20C. As a result, the users of the user terminals 20B and 20C can view the avatar (hereinafter referred to as "Avatar A") and profile (hereinafter referred to as "Profile A") generated by the user terminal 20A on the monitor 31 or It can be perceived through the speaker 36.

一例として、ユーザ端末20B、20Cのユーザは、オンライン空間において、自身のアバターB、Cの視界に入ったアバターAを視認する。また、ユーザ端末20B、20Cのユーザは、視界に入ったアバターAを選択することによって、プロフィールAを閲覧する。さらに、ユーザ端末20B、20Cのユーザは、図13を参照して後述するユーザ選択画面またはユーザ詳細画面を通じて、アバターA及びプロフィールAを閲覧する。 As an example, the users of user terminals 20B and 20C visually recognize avatar A that comes into view of their own avatars B and C in the online space. The users of user terminals 20B and 20C also view profile A by selecting avatar A that comes into view. Furthermore, the users of user terminals 20B and 20C view avatar A and profile A through a user selection screen or a user details screen, which will be described later with reference to FIG. 13.

次に、図9~図11を参照して、ユーザ端末20Bにおいて、アバター及びプロフィールを生成する処理の例を説明する。図9は、アバター生成画面の他の例である。図10は、設定パラメータの優先度(A)及び設定値ヒストグラム(B)、(C)の他の例である。図11は、プロフィール(A)、(B)及び学習データ(C)の他の例である。なお、図6~図8の例との共通点の詳細な説明は省略し、相違点を中心に説明する。図9~図11の例は、アバター生成画面を通じてユーザが選択する設定値の組み合わせが図6~図8の例と異なる。 Next, an example of a process for generating an avatar and profile in the user terminal 20B will be described with reference to FIGS. 9 to 11. FIG. 9 is another example of the avatar generation screen. FIG. 10 is another example of the setting parameter priority (A) and setting value histograms (B) and (C). FIG. 11 shows other examples of profiles (A), (B) and learning data (C). Note that a detailed explanation of the common points with the examples of FIGS. 6 to 8 will be omitted, and the explanation will focus on the differences. The examples shown in FIGS. 9 to 11 differ from the examples shown in FIGS. 6 to 8 in the combination of setting values selected by the user through the avatar generation screen.

より詳細には、ユーザ端末20Bのユーザは、性別=男性、年齢=大人、輪郭=丸顔、髪型=モヒカン、肌の色=色黒、服=特攻服、カラー=白を、設定値として選択したものとする。オブジェクト生成手段210は、これらの設定値に従ってアバターデータを生成し、生成したアバターデータで示されるアバター画像をアバター表示領域A1に表示する。 More specifically, the user of the user terminal 20B selects, as setting values, gender=male, age=adult, contour=round face, hairstyle=mohawk, skin color=dark, clothes=special clothes, and color=white. It shall be assumed that Object generation means 210 generates avatar data according to these setting values, and displays an avatar image indicated by the generated avatar data in avatar display area A1.

選択手段220は、図10(A)及び図10(B)に示すように、髪型パラメータにおける「モヒカン」及び服パラメータにおける「特攻服」の選択回数が最も少ないので、髪型パラメータ及び服パラメータの優先度を“1”に変更する。そして、選択手段220は、図9及び図10の例において、学習済みモデル16bに入力する設定値として、性別=男性、年齢=大人、髪型=モヒカン、服=特攻服を選択する。 As shown in Figs. 10(A) and 10(B), the selection means 220 changes the priority of the hairstyle parameter "mohawk" and the clothing parameter "kamikaze uniform" to "1" because they have been selected the least number of times. Then, in the example of Figs. 9 and 10, the selection means 220 selects gender = male, age = adult, hairstyle = mohawk, and clothing = kamikaze uniform as the setting values to be input to the trained model 16b.

プロフィール生成手段230は、テキスト形式の入力データ「男性、大人、モヒカン、特攻服の太朗のプロフィールを、70~100文字で生成してください。」を学習済みモデル16bに入力して、図11(A)に示すプロフィールを生成させる。自動編集手段240は、図11(A)に示すプロフィールのうち、暴力的な表現である「と喧嘩」を削除し、暴力的な表現である「ストリートファイト」を「スポーツ」に置換する。なお、自動編集手段240の役割を学習済みモデル16bに担わせてもよい。すなわち、学習済みモデル16bは、予め定められたキーワード(換言すれば、プロフィールの使用に適さないキーワード)を事前学習していて、当該キーワードを含まないプロフィールを生成してもよい。 The profile generation means 230 inputs text-format input data "Please generate a profile of Taro, male, adult, Mohawk, special attack uniform, in 70 to 100 characters." to the learned model 16b, and generates the profile in FIG. 11 ( Generate the profile shown in A). The automatic editing means 240 deletes the violent expression "fight" and replaces the violent expression "street fight" with "sports" in the profile shown in FIG. 11(A). Note that the trained model 16b may play the role of the automatic editing means 240. That is, the trained model 16b may have pre-trained a predetermined keyword (in other words, a keyword unsuitable for use in a profile) and generate a profile that does not include the keyword.

学習手段250は、図11(C)に示すように、「男性、大人、モヒカン、特攻服の太朗のプロフィールを、70~100文字で生成してください。」を入力データとし、自動編集手段240が編集したプロフィールを正解データとする学習データを、学習済みモデル16bに入力してさらに学習させる。 As shown in FIG. 11(C), the learning means 250 uses as input data "Please generate a profile of Taro, male, adult, Mohican, special attack uniform, in 70 to 100 characters.", and the automatic editing means 240 Learning data in which the profile edited by is correct data is input to the learned model 16b for further learning.

公開手段260は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィール(以下、「プロフィールB」と表記する。)を、オブジェクト生成手段210が生成したアバター(以下、「アバターB」と表記する。)に対応付けて、オンライン空間に公開する。 The publishing means 260 converts the profile generated by the profile generating means 230 or edited by the automatic editing means 240 (hereinafter referred to as "profile B") into the avatar generated by the object generating means 210 (hereinafter referred to as "avatar B"). ) and publish it in the online space.

図12は、プロフィール編集画面(A)及び学習データ(B)の例である。ユーザ編集手段270は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィールを、ユーザ端末20Aのユーザの指示に従って編集する。より詳細には、ユーザ編集手段270は、図12(A)に示すプロフィール編集画面を、モニタ31に表示させる。 FIG. 12 is an example of the profile editing screen (A) and learning data (B). The user editing means 270 edits the profile generated by the profile generation means 230 or edited by the automatic editing means 240 according to instructions from the user of the user terminal 20A. More specifically, the user editing means 270 causes the monitor 31 to display a profile editing screen shown in FIG. 12(A).

プロフィール編集画面は、プロフィール表示領域A6と、ソフトウェアキーボードA7と、[決定]アイコンとを含む。プロフィール表示領域A6は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィールを表示する領域である。ソフトウェアキーボードA7は、プロフィール表示領域A6に表示されたプロフィールの編集(文字の追加、削除、修正)を指示するユーザの操作を受け付ける領域である。 The profile editing screen includes a profile display area A6, a software keyboard A7, and a [Set] icon. The profile display area A6 is an area where a profile generated by the profile generation means 230 or edited by the automatic editing means 240 is displayed. The software keyboard A7 is an area that accepts user operations to instruct editing (addition, deletion, modification of characters) of the profile displayed in the profile display area A6.

ユーザ編集手段270は、ソフトウェアキーボードA7を通じたユーザの操作(指示)に従って、プロフィール表示領域A6に表示されたプロフィールを編集する。そして、ユーザ編集手段270は、[決定]アイコンが選択されたことに応じて、プロフィールの編集を確定させる。なお、ユーザ編集手段270は、予め定められたキーワード(換言すれば、プロフィールの使用に適さないキーワード)をユーザが入力した場合に、当該キーワードをプロフィールに反映しないようにしてもよい。 The user editing means 270 edits the profile displayed in the profile display area A6 according to user operations (instructions) via the software keyboard A7. Then, the user editing means 270 finalizes the profile edits in response to the selection of the [OK] icon. Note that, when the user inputs a predetermined keyword (in other words, a keyword that is not suitable for use in the profile), the user editing means 270 may not reflect the keyword in the profile.

そして、公開手段260は、ユーザ編集手段270が編集したプロフィールを、アバターに対応付けて公開する。また、学習手段250は、図12(B)に示すように、プロフィール生成手段230が生成した入力データと、ユーザ編集手段270が編集したプロフィール(正解データ)とを含む学習データを、学習済みモデル16bに入力してさらに学習させる。 Then, the publishing means 260 publishes the profile edited by the user editing means 270 in association with the avatar. Further, as shown in FIG. 12(B), the learning means 250 uses the learning data including the input data generated by the profile generation means 230 and the profile (correct data) edited by the user editing means 270 to model the learned model. 16b for further learning.

次に、図13を参照して、ユーザ端末20CのユーザがアバターA、B及びプロフィールA、Bを閲覧する処理を説明する。ここでは、協力型のオンラインゲームにおいて、協力してプレイするユーザを選択する処理を例として説明する。図13は、ユーザ選択画面(A)及びユーザ詳細画面(B)の画面例である。 Next, referring to FIG. 13, a process in which a user of user terminal 20C views avatars A and B and profiles A and B will be described. Here, a process in which a user selects users to play cooperatively in a cooperative online game will be described as an example. FIG. 13 shows example screens of a user selection screen (A) and a user details screen (B).

ユーザ端末20Cは、図13(A)に示すユーザ選択画面をモニタ31に表示させる。ユーザ選択画面は、協力してプレイできるユーザ(例えば、オンラインゲームにログインしているユーザ)の一覧を表示する。ユーザ選択画面は、例えば、アバター、名前、レベル、[詳細]アイコンを、協力プレイできるユーザ毎に表示させる。すなわち、ユーザ端末20Cは、協力プレイできるユーザのアバター、名前、レベルをゲームサーバ10から受信して、ユーザ選択画面に一覧表示する。 The user terminal 20C displays the user selection screen shown in FIG. 13(A) on the monitor 31. The user selection screen displays a list of users who can play cooperatively (e.g., users who are logged in to the online game). The user selection screen displays, for example, the avatar, name, level, and [Details] icon for each user who can play cooperatively. In other words, the user terminal 20C receives the avatars, names, and levels of users who can play cooperatively from the game server 10, and displays them in a list on the user selection screen.

ユーザ端末20Cは、例えば、名前=リンダに対応する[詳細]アイコンが選択されたことに応じて、図13(B)に示すユーザ詳細画面をモニタ31に表示させる。ユーザ詳細画面は、ユーザ選択画面を通じて選択されたユーザの詳細な情報を表示する画面である。ユーザ詳細画面は、例えば、選択したユーザの名前、レベル、アバター画像、プロフィール、評価、[協力要請]アイコンを含む。 In response to the selection of the [Details] icon corresponding to the name Linda, for example, the user terminal 20C displays the user details screen shown in FIG. 13(B) on the monitor 31. The user details screen is a screen that displays detailed information about the user selected through the user selection screen. The user details screen includes, for example, the selected user's name, level, avatar image, profile, rating, and [Request for Cooperation] icon.

ユーザ詳細画面の評価の項目には、[GOOD]アイコンと、[BAD]アイコンと、過去に[GOOD]アイコンが選択された高評価回数(91)と、過去に[BAD]アイコンが選択された低評価回数(9)とを含む。[GOOD]アイコンは、プロフィールを見たユーザによる高評価に対応する。[BAD]アイコンは、プロフィールを見たユーザによる低評価に対応する。高評価回数及び低評価回数は、ゲームサーバ10によって集計された累積値である。ユーザ端末20Cは、[GOOD]アイコンまたは[BAD]アイコンが選択された場合に、選択されたアイコンをゲームサーバ10に通知する。ゲームサーバ10は、高評価回数及び低評価回数の集計結果を更新すると共に、更新後の高評価回数及び低評価回数をユーザ端末20Aに通知する。 The evaluation items on the user details screen include a [GOOD] icon, a [BAD] icon, the number of times the [GOOD] icon was previously selected (91), and the number of times the [BAD] icon was previously selected and the number of times the [BAD] icon was previously selected and the number of times the [BAD] icon was previously selected and the number of times the [BAD] icon was previously selected and the number of times the [GOOD] icon was previously selected and the number of times the [BAD ...

フィードバック手段280は、更新された高評価回数及び低評価回数を、通信IF25を通じてゲームサーバ10から受信する。高評価回数及び低評価回数は、プロフィールに対する評価の一例である。そして、フィードバック手段280は、プロフィールに対する評価を、学習済みモデル16bにフィードバックする。フィードバック手段280は、例えば、高評価回数をプロフィールの点数として、通信IF25を通じてAIサーバ15に送信する。学習済みモデル16bは、フィードバック手段280からフィードバックされた高評価回数を用いて再学習または追加学習する。すなわち、学習済みモデル16bは、高評価回数が多いプロフィールに近いプロフィールを生成しやすくなり、高評価回数が少ないプロフィールに近いプロフィールを生成しにくくなる。 The feedback means 280 receives the updated number of likes and dislikes from the game server 10 through the communication IF 25. The number of likes and dislikes is an example of an evaluation of the profile. The feedback means 280 then feeds back the evaluation of the profile to the trained model 16b. The feedback means 280 transmits, for example, the number of likes as a score for the profile to the AI server 15 through the communication IF 25. The trained model 16b relearns or additionally learns using the number of likes fed back from the feedback means 280. That is, the trained model 16b becomes more likely to generate a profile that is similar to a profile with a large number of likes and less likely to generate a profile that is similar to a profile with a small number of likes.

フィードバック手段280が評価をフィードバックするタイミング及び条件としては、例えば、以下が考えられる。一例として、フィードバック手段280は、プロフィールを公開してから所定の時間(例えば、10時間)が経過したタイミングで、フィードバックを実行する。他の例として、フィードバック手段280は、高評価回数、低評価回数、または高評価回数及び低評価回数の合計が所定の数(例えば、100回)に達したことを条件として、フィードバックを実行する。但し、プロフィールに対する他のユーザの評価の具体的な方法は、前述の例に限定されない。 The timing and conditions under which the feedback means 280 provides feedback on the evaluation may be, for example, as follows. As one example, the feedback means 280 performs feedback when a predetermined time (e.g., 10 hours) has elapsed since the profile was made public. As another example, the feedback means 280 performs feedback on the condition that the number of likes, the number of dislikes, or the total number of likes and dislikes has reached a predetermined number (e.g., 100). However, the specific method of other users' evaluation of a profile is not limited to the above examples.

[実施形態の作用効果]
上記の実施形態によれば、アバターを生成する際に選択する複数の設定値を入力データとして、アバターのプロフィールを学習済みモデル16bに生成させる。これにより、ユーザの作業負担を増加させることなく、アバターに合わせて生成されたユニークなプロフィールを、当該アバターに対応付けて公開することができる。
[Effects of the embodiment]
According to the above embodiment, a profile of an avatar is generated in the trained model 16b using multiple setting values selected when generating an avatar as input data. This makes it possible to publish a unique profile generated according to an avatar in association with the avatar without increasing the workload of the user.

また、上記の実施形態によれば、複数の設定値のうちから学習済みモデル16bに入力する設定値を選択することによって、ユニークなプロフィールを生成することができる。特に、他のユーザが選択する回数の少ない設定値を優先して入力することによって、さらにユニークなプロフィールを生成することができる。但し、全ての設定値を学習済みモデル16bに入力する場合は、選択手段220は省略可能である。 Furthermore, according to the above embodiment, a unique profile can be generated by selecting a setting value to be input to the trained model 16b from among a plurality of setting values. In particular, a more unique profile can be generated by preferentially inputting setting values that are selected less frequently by other users. However, when all setting values are input to the trained model 16b, the selection means 220 can be omitted.

また、上記の実施形態によれば、学習済みモデル16bが生成したプロフィールを編集することによって、好ましくない表現を含むプロフィールがオンライン空間に公開されるのを防止できる。但し、学習済みモデル16bに好ましくない表現を除外するように学習させておけば、自動編集手段240は省略可能である。 In addition, according to the above embodiment, by editing the profile generated by the trained model 16b, it is possible to prevent a profile including undesirable expressions from being published in the online space. However, if the trained model 16b is trained to exclude undesirable expressions, the automatic editing means 240 can be omitted.

また、上記の実施形態によれば、ユーザによるプロフィールの編集を可能にすることによって、ユーザの好みのプロフィールをオンライン空間に公開することができる。また、プロフィールを最初からユーザに生成させるのと比較すれば、ユーザの作業負担を軽減することができる。但し、ユーザ編集手段270は省略可能である。 In addition, according to the above embodiment, by enabling the user to edit the profile, the user's preferred profile can be made public in the online space. Also, compared to having the user create the profile from scratch, the user's workload can be reduced. However, the user editing means 270 can be omitted.

また、上記の実施形態によれば、自動編集手段240及びユーザ編集手段270が編集したプロフィールを、正解データとして学習済みモデル16bに再学習させることによって、さらにユニークで、好ましくない表現を含まず、且つユーザの好みに合ったプロフィールを生成することができる。但し、学習データの入力インタフェースを公開していない汎用のAI16を用いる場合は、学習手段250は省略可能である。 In addition, according to the above embodiment, the profile edited by the automatic editing means 240 and the user editing means 270 can be retrained as correct answer data in the trained model 16b to generate a profile that is more unique, does not include undesirable expressions, and matches the user's preferences. However, when using a general-purpose AI 16 that does not disclose the input interface for training data, the training means 250 can be omitted.

さらに、上記の実施形態によれば、オンライン空間に公開されたプロフィールを見た他のユーザの評価を集計して、学習済みモデル16bにフィードバックすることによって、さらにオンライン空間に適したプロフィールを生成することができる。但し、フィードバックの入力インタフェースを公開していない汎用のAI16を用いる場合は、フィードバック手段280は省略可能である。 Furthermore, according to the embodiment described above, the evaluations of other users who viewed the profile published in the online space are aggregated and fed back to the learned model 16b, thereby generating a profile that is more suitable for the online space. be able to. However, when using a general-purpose AI 16 whose feedback input interface is not made public, the feedback means 280 can be omitted.

[その他の実施形態]
なお、オブジェクトの具体例はアバターに限定されず、動物、モンスター、ロボット等のキャラクタ、装備(例えば、武器、防具、アクセサリ)、乗り物(例えば、自動車、船、航空機、宇宙船)、建物(例えば、住宅、城)等でもよい。また、設定パラメータの具体例は、オブジェクトの種類によって様々に変化する。例えば、住宅のオブジェクトに対応する設定パラメータとしては、屋根の形、壁の素材、窓の形、間取りなどが該当する。
[Other embodiments]
Note that specific examples of objects are not limited to avatars, and may include characters such as animals, monsters, and robots, equipment (e.g., weapons, armor, and accessories), vehicles (e.g., automobiles, ships, aircraft, and spaceships), and buildings (e.g., houses and castles). Specific examples of setting parameters vary depending on the type of object. For example, setting parameters corresponding to a house object include the shape of the roof, the material of the walls, the shape of the windows, and the layout of the house.

また、本発明に係るプログラムは、単一のプログラムに限定されず、複数のプログラムの集合体でもよい。また、本発明に係るプログラムは、単一の装置で実行されるものに限定されず、複数の装置で分担して実行されてもよい。さらに、ゲームサーバ10、AIサーバ15、及びユーザ端末20の役割分担は、前述の例に限定されない。すなわち、ゲームサーバ10の処理の一部がAIサーバ15またはユーザ端末20によって実行されてもよいし、AIサーバ15の処理の一部がゲームサーバ10またはユーザ端末20によって実行されてもよいし、ユーザ端末20の処理の一部がゲームサーバ10またはAIサーバ15によって実行されてもよい。 Furthermore, the program according to the present invention is not limited to a single program, but may be a collection of multiple programs. Further, the program according to the present invention is not limited to being executed by a single device, but may be shared and executed by a plurality of devices. Furthermore, the role sharing among the game server 10, AI server 15, and user terminal 20 is not limited to the above example. That is, a part of the processing of the game server 10 may be executed by the AI server 15 or the user terminal 20, a part of the processing of the AI server 15 may be executed by the game server 10 or the user terminal 20, A part of the processing of the user terminal 20 may be executed by the game server 10 or the AI server 15.

さらに、プログラムによって実現される各手段の一部または全部は、集積回路などのハードウェアで実現することもできる。さらに、プログラムは、コンピュータによって読み出し可能な非一過性の記録媒体に記録されて提供されてもよい。記録媒体とは、例えば、ハードディスク、SDカード、DVDの他、インターネット上のサーバ等を指す。 Further, part or all of the means implemented by the program can also be implemented by hardware such as an integrated circuit. Furthermore, the program may be provided by being recorded on a computer-readable non-transitory recording medium. The recording medium refers to, for example, a hard disk, an SD card, a DVD, and a server on the Internet.

1…システム、2…通信ネットワーク、10…ゲームサーバ、15…AIサーバ、16…学習モデル、16a…学習モデル、16b…学習済みモデル、17…ニューラルネットワーク、20…ユーザ端末、21…プロセッサ、22…メモリ、23…ストレージ、23P…端末プログラム、25…通信インタフェース、26…コンピュータ、29…通信バス、31…モニタ、33…カメラ、34…カメラ、35…マイク、36…スピーカ、41…動きセンサ、42…操作装置、210…オブジェクト生成手段、220…選択手段、230…プロフィール生成手段、240…自動編集手段、250…学習手段、260…公開手段、270…ユーザ編集手段、280…フィードバック手段 DESCRIPTION OF SYMBOLS 1... System, 2... Communication network, 10... Game server, 15... AI server, 16... Learning model, 16a... Learning model, 16b... Learned model, 17... Neural network, 20... User terminal, 21... Processor, 22 ...Memory, 23...Storage, 23P...Terminal program, 25...Communication interface, 26...Computer, 29...Communication bus, 31...Monitor, 33...Camera, 34...Camera, 35...Microphone, 36...Speaker, 41...Motion sensor , 42... Operating device, 210... Object generation means, 220... Selection means, 230... Profile generation means, 240... Automatic editing means, 250... Learning means, 260... Publishing means, 270... User editing means, 280... Feedback means

Claims (9)

コンピュータを、
オンライン空間に配置されるオブジェクトの視覚的な特徴を設定するためにユーザが選択した複数の設定値に従って、前記オブジェクトを生成するオブジェクト生成手段と、
予め学習させた学習済みモデルに複数の前記設定値を入力して、前記オブジェクトのプロフィールを生成させるプロフィール生成手段と、
前記プロフィール生成手段が生成した前記プロフィールを、前記オブジェクト生成手段が生成した前記オブジェクトに対応付けて、前記オンライン空間に公開する公開手段として機能させる、プログラム。
computer,
Object generation means for generating the object according to a plurality of setting values selected by the user to set visual characteristics of the object placed in the online space;
profile generation means for generating a profile of the object by inputting the plurality of setting values into a trained model trained in advance;
A program that functions as a publishing unit that associates the profile generated by the profile generating unit with the object generated by the object generating unit and publishes the profile in the online space.
請求項1に記載のプログラムにおいて、
前記コンピュータを、前記プロフィール生成手段が生成した前記プロフィールを編集する自動編集手段として機能させ、
前記公開手段は、前記自動編集手段が編集した前記プロフィールを公開する、プログラム。
The program according to claim 1,
causing the computer to function as automatic editing means for editing the profile generated by the profile generation means,
The publishing means is a program for publishing the profile edited by the automatic editing means.
請求項2に記載のプログラムにおいて、
前記自動編集手段は、前記プロフィール生成手段が生成した前記プロフィールから、予め定められたキーワードを削除する、プログラム。
The program according to claim 2,
The automatic editing means is a program for deleting a predetermined keyword from the profile generated by the profile generation means.
請求項2に記載のプログラムにおいて、
前記コンピュータを、複数の前記設定値を入力データとし、前記自動編集手段が編集した前記プロフィールを正解データとする学習データを、前記学習済みモデルに入力してさらに学習させる学習手段として機能させる、プログラム。
The program according to claim 2,
A program that causes the computer to function as a learning means for further learning by inputting learning data in which the plurality of setting values are input data and the profile edited by the automatic editing means is correct data to the trained model. .
請求項1に記載のプログラムにおいて、
前記コンピュータを、複数の前記設定値のうち、前記学習済みモデルに入力する前記設定値を選択する選択手段として機能させる、プログラム。
The program according to claim 1,
A program that causes the computer to function as a selection means for selecting the setting value to be input to the trained model from among the multiple setting values.
請求項5に記載のプログラムにおいて、
前記選択手段は、複数の前記設定値のうち、他のユーザが選択した回数が少ない前記設定値を優先して選択する、プログラム。
The program according to claim 5,
The selection means is a program for preferentially selecting, from among the plurality of setting values, the setting value that has been selected less frequently by other users.
請求項1に記載のプログラムにおいて、
前記コンピュータを、
前記プロフィール生成手段が生成した前記プロフィールを、ユーザの指示に従って編集するユーザ編集手段と、
複数の前記設定値を入力データとし、前記ユーザ編集手段が編集した前記プロフィールを正解データとする学習データを、前記学習済みモデルに入力してさらに学習させる学習手段として機能させる、プログラム。
The program according to claim 1,
The computer,
a user editing means for editing the profile generated by the profile generating means in accordance with an instruction from a user;
The program functions as a learning means for inputting learning data, which has a plurality of the setting values as input data and the profile edited by the user editing means as correct answer data, into the trained model for further training.
請求項1に記載のプログラムにおいて、
前記コンピュータを、前記公開手段が公開した前記プロフィールを見た他のユーザから前記プロフィールに対する評価を取得して、前記学習済みモデルにフィードバックするフィードバック手段として機能させる、プログラム。
The program according to claim 1,
A program that causes the computer to function as a feedback means for obtaining evaluations of the profile from other users who have viewed the profile published by the publishing means and providing feedback to the trained model.
オンライン空間に配置されるオブジェクトの視覚的な特徴を設定するためにユーザが選択した複数の設定値に従って、前記オブジェクトを生成するオブジェクト生成手段と、
予め学習させた学習済みモデルに複数の前記設定値を入力して、前記オブジェクトのプロフィールを生成させるプロフィール生成手段と、
前記プロフィール生成手段が生成した前記プロフィールを、前記オブジェクト生成手段が生成した前記オブジェクトに対応付けて、前記オンライン空間に公開する公開手段とを備える、システム。
Object generation means for generating the object according to a plurality of setting values selected by the user to set visual characteristics of the object placed in the online space;
profile generation means for generating a profile of the object by inputting the plurality of setting values into a trained model trained in advance;
A system comprising: publishing means for publishing the profile generated by the profile generating means in the online space in association with the object generated by the object generating means.
JP2023147750A 2023-09-12 2023-09-12 Programs and systems Active JP7460839B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023147750A JP7460839B1 (en) 2023-09-12 2023-09-12 Programs and systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023147750A JP7460839B1 (en) 2023-09-12 2023-09-12 Programs and systems

Publications (1)

Publication Number Publication Date
JP7460839B1 true JP7460839B1 (en) 2024-04-02

Family

ID=90474285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023147750A Active JP7460839B1 (en) 2023-09-12 2023-09-12 Programs and systems

Country Status (1)

Country Link
JP (1) JP7460839B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090254859A1 (en) 2008-04-03 2009-10-08 Nokia Corporation Automated selection of avatar characteristics for groups
US20130074002A1 (en) 2010-01-15 2013-03-21 Microsoft Corporation Recognizing User Intent In Motion Capture System
JP2018106499A (en) 2016-12-27 2018-07-05 株式会社コロプラ Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device
JP2018170013A (en) 2018-05-24 2018-11-01 株式会社コロプラ Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090254859A1 (en) 2008-04-03 2009-10-08 Nokia Corporation Automated selection of avatar characteristics for groups
US20130074002A1 (en) 2010-01-15 2013-03-21 Microsoft Corporation Recognizing User Intent In Motion Capture System
JP2018106499A (en) 2016-12-27 2018-07-05 株式会社コロプラ Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device
JP2018170013A (en) 2018-05-24 2018-11-01 株式会社コロプラ Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device

Similar Documents

Publication Publication Date Title
JP4395687B2 (en) Information processing device
CN109691054A (en) Animation user identifier
KR102646302B1 (en) Online gaming platform voice communication system
US11789905B2 (en) Automated generation of game tags
JP7307204B2 (en) Predictive data preloading
WO2022105846A1 (en) Virtual object display method and apparatus, electronic device, and medium
CN113014471B (en) Session processing method, device, terminal and storage medium
KR102619465B1 (en) Confirm consent
KR20190089451A (en) Electronic device for providing image related with text and operation method thereof
CN111541950A (en) Expression generation method and device, electronic equipment and storage medium
JP7278307B2 (en) Computer program, server device, terminal device and display method
CN112075054B (en) Chat application using game engine
CN113826147A (en) Improvements in animated characters
CN113766168A (en) Interactive processing method, device, terminal and medium
CN111768478A (en) Image synthesis method and device, storage medium and electronic equipment
KR20230148239A (en) Robust facial animation from video using neural networks
KR20230021640A (en) Customize soundtracks and hair styles in editable videos for multimedia messaging applications
JP2024507338A (en) Automatic detection of prohibited gaming content
KR100957858B1 (en) Avatar presenting method and computer readable medium processing the method
WO2022051140A1 (en) Determining game quality based on gameplay duration
JP7460839B1 (en) Programs and systems
JP7463509B2 (en) Prominent display of your target game in search results
JP7454166B2 (en) Information processing system, information processing method, and storage medium
JP7406133B2 (en) Information processing systems and programs
US11969649B2 (en) Prominent display of targeted game in search results

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240321

R150 Certificate of patent or registration of utility model

Ref document number: 7460839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150