JP7460839B1 - Programs and systems - Google Patents
Programs and systems Download PDFInfo
- Publication number
- JP7460839B1 JP7460839B1 JP2023147750A JP2023147750A JP7460839B1 JP 7460839 B1 JP7460839 B1 JP 7460839B1 JP 2023147750 A JP2023147750 A JP 2023147750A JP 2023147750 A JP2023147750 A JP 2023147750A JP 7460839 B1 JP7460839 B1 JP 7460839B1
- Authority
- JP
- Japan
- Prior art keywords
- profile
- user
- program
- setting values
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 description 47
- 238000000034 method Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 5
- 244000205754 Colocasia esculenta Species 0.000 description 2
- 235000006481 Colocasia esculenta Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002860 competitive effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001568 sexual effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 240000002132 Beaucarnea recurvata Species 0.000 description 1
- 241000556720 Manga Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Abstract
【課題】ユーザの作業負担を増加させることなく、オブジェクトに合わせて作成されたユニークなプロフィールを、当該オブジェクトに対応付けて公開可能なプログラムを提供する。【解決手段】プログラムは、コンピュータを、オンライン空間に配置されるオブジェクトの視覚的な特徴を設定するためにユーザが選択した複数の設定値に従って、オブジェクトを生成するオブジェクト生成手段と、予め学習させた学習済みモデルに複数の設定値を入力して、オブジェクトのプロフィールを生成させるプロフィール生成手段と、プロフィール生成手段が生成したプロフィールを、オブジェクト生成手段が生成したオブジェクトに対応付けて、オンライン空間に公開する公開手段として機能させる。【選択図】図13[Problem] To provide a program that can publish a unique profile created according to an object in association with the object without increasing the workload of the user. [Solution] The program causes a computer to function as: object generation means that generates an object according to multiple setting values selected by the user to set the visual characteristics of the object to be placed in an online space; profile generation means that inputs the multiple setting values into a trained model that has been trained in advance to generate a profile for the object; and publishing means that publishes in the online space the profile generated by the profile generation means in association with the object generated by the object generation means. [Selected Figure] Figure 13
Description
本発明は、プログラム及びシステムに関する。 The present invention relates to a program and a system.
従来より、VR(Virtual Reality)空間において、自身のアバターのプロフィールを他のアバターに公開する技術が知られている(例えば、特許文献1、2を参照)。そして、VR空間では、他のアバターのプロフィールを見て、当該アバターと友達になる(所謂、フレンド登録)か否かを決定することができる。
BACKGROUND ART Conventionally, there has been known a technique for disclosing the profile of one's avatar to other avatars in a VR (Virtual Reality) space (see, for example,
同様に、複数のアバターが協力してプレイする協力型のオンラインゲーム、または複数のアバターが対戦する対戦型のオンラインゲームにおいて、他のアバターのプロフィールを見て、協力または対戦するアバターを選択することができるものがある。このように、VR空間やオンラインゲームにおいて、各アバターのプロフィールの重要度は高まってきている。 Similarly, in cooperative online games in which multiple avatars play together, or competitive online games in which multiple avatars play against each other, players can view the profiles of other avatars and select an avatar to cooperate or compete with. In this way, the profile of each avatar is becoming increasingly important in VR spaces and online games.
しかしながら、プロフィールの作成作業を負担に感じるユーザも多い。そのため、予め定められたデフォルトのプロフィールを使用するアバターが多くなると、フレンド登録、協力または対戦するアバターを選択するうえで、プロフィールが役に立たなくなるという課題を生じる。 However, many users feel that creating a profile is a burden. Therefore, when the number of avatars that use a predetermined default profile increases, a problem arises in that the profile becomes useless when selecting an avatar to register as a friend, cooperate with, or compete against.
本発明は、上記の事情に鑑みてなされたものであり、その目的は、ユーザの作業負担を増加させることなく、オブジェクトに合わせて作成されたユニークなプロフィールを、当該オブジェクトに対応付けて公開可能なプログラムを提供することにある。 The present invention has been made in consideration of the above circumstances, and its purpose is to provide a program that can publish a unique profile created to match an object, in association with the object, without increasing the workload of the user.
前記課題を解決するため、本発明に係るプログラムは、コンピュータを、オンライン空間に配置されるオブジェクトの視覚的な特徴を設定するためにユーザが選択した複数の設定値に従って、前記オブジェクトを生成するオブジェクト生成手段と、予め学習させた学習済みモデルに複数の前記設定値を入力して、前記オブジェクトのプロフィールを生成させるプロフィール生成手段と、前記プロフィール生成手段が生成した前記プロフィールを、前記オブジェクト生成手段が生成した前記オブジェクトに対応付けて、前記オンライン空間に公開する公開手段として機能させる。 To solve the above problem, the program of the present invention causes a computer to function as an object generation means for generating an object in accordance with multiple setting values selected by a user to set the visual characteristics of the object to be placed in an online space, a profile generation means for inputting the multiple setting values into a trained model that has been trained in advance to generate a profile for the object, and a publishing means for associating the profile generated by the profile generation means with the object generated by the object generation means and publishing the profile in the online space.
本発明によれば、ユーザの作業負担を増加させることなく、オブジェクトに合わせて作成されたユニークなプロフィールを、当該オブジェクトに対応付けて公開することができる。 According to the present invention, a unique profile created to match an object can be made public in association with the object without increasing the user's workload.
以下、実施形態に係るシステム1を図面に基づいて説明する。なお、以下に記載する本発明の実施形態は、本発明を具体化する際の一例を示すものであって、本発明の範囲を実施形態の記載の範囲に限定するものではない。従って、本発明は、実施形態に種々の変更を加えて実施することができる。
Below, the
[システム1の概要]
図1は、本実施形態に係るシステム1の概要を示す図である。図1に示すように、システム1は、ゲームサーバ10と、AIサーバ15と、複数のユーザ端末20とを主に備える。なお、図1には3つのユーザ端末20が図示されているが、システム1に含まれるユーザ端末20の数はこれに限定されない。ゲームサーバ10、AIサーバ15、及びユーザ端末20は、通信ネットワーク2を介して相互通信可能に接続されている。通信ネットワーク2の具体例は特に限定されないが、例えば、インターネット、移動体通信システム(例えば、4G、5Gなど)、Wi-Fi(登録商標)などの無線ネットワーク、またはこれらの組み合わせで構成される。
[Overview of System 1]
FIG. 1 is a diagram showing an overview of a
一例として、システム1は、複数のユーザ端末20A、20B、20Cのユーザ(プレイヤ)が協力してプレイする協力型のオンラインゲームを実現する。他の例として、システム1は、複数のユーザ端末20A、20B、20Cのユーザ(プレイヤ)が対戦する対戦型のオンラインゲームを実現する。さらに他の例として、複数のユーザ端末20A、20B、20Cのユーザがアバターを介してコミュニケーションする仮想空間を実現する。これらのシステム1は既に周知なので、詳細な説明は省略する。
As an example, the
[ゲームサーバ10の構成]
ゲームサーバ10は、例えば、ワークステーション、またはパーソナルコンピュータなどの汎用コンピュータで実現される。一例として、オンラインゲームを提供するゲームサーバ10は、複数のユーザ端末20それぞれのゲームデータを同期させる。他の例として、仮想空間を提供するゲームサーバ10は、複数のユーザ端末20それぞれの仮想空間データを同期させる。以下、複数のユーザが参加可能なオンラインゲーム及び仮想空間を総称して、「オンライン空間」と表記する。すなわち、ゲームサーバ10は、複数のユーザ端末20A、20B、20Cに対して、オンライン空間を提供する。
[Configuration of game server 10]
The
[AIサーバ15の構成]
AIサーバ15は、例えば、ワークステーション、またはパーソナルコンピュータなどの汎用コンピュータで実現される。AIサーバ15は、学習済みモデルを含むAI(Artificial Intelligence)16を実現する。一例として、AIサーバ15は、ゲームサーバ10が提供するオンライン空間に対して最適化された専用AIを搭載していてもよい。このとき、ゲームサーバ10及びAIサーバ15は、1つのハードウェアで実現されてもよい。他の例として、AIサーバ15は、様々な用途に活用され得る汎用AIを搭載していてもよい。AI16の構成は既に周知なので詳細な説明は省略するが、例えば以下のような構成である。
[Configuration of AI server 15]
The
図2は、AI16による学習処理(A)及び生成処理(B)の概念図である。図3は、AI16を実現するニューラルネットワーク17を示す図である。AIサーバ15に搭載されるAI16は、入力データを処理して出力データを生成する、所謂「生成AI」である。そして、AI16は、図2(A)に示す学習処理と、図2(B)に示す生成処理とを実行する。また、AI16は、例えば、図3に示すニューラルネットワーク17を用いて、入力データから出力データを生成する。
FIG. 2 is a conceptual diagram of learning processing (A) and generation processing (B) by the
図2(A)に示すように、AI16は、学習モデル16aを備える。学習モデル16aとは、学習処理が行われる前のニューラルネットワーク17を指す。そして、学習モデル16aは、入力データ及び正解データを含む学習データによって、学習済みモデル16bとなる。入力データとは、AI16に入力されるデータを指す。正解データは、入力データが入力されたときに出力されるべきデータを指す。そして、学習モデル16aに複数の学習データを入力することによって、後述するようにニューラルネットワーク17が最適化されて、学習済みモデル16bとなる。
As shown in FIG. 2(A),
また、図2(B)に示すように、学習済みモデル16bは、ニューラルネットワーク17に入力データを入力することによって、出力データを生成して出力する。入力データ及び出力データは、テキスト形式、画像形式、音声形式の他、あらゆる形式のデータであってもよい。また、入力データ及び出力データは、形式の異なるデータでもよい。一方、正解データの形式は、出力データの形式と同一である。
Also, as shown in FIG. 2(B), the trained
なお、図2(A)に示す学習処理は、学習モデル16aに対してだけでなく、学習済みモデル16bに対して実行されてもよい。また、AI16は、本発明で現実に用いる入力データ及び正解データを用いて学習している必要はなく、汎用的な学習データで学習していてもよい。さらに、AI16が実行する学習処理は、入力データ及び正解データを入力する「教師あり学習」に限定されず、正解データを入力しない「教師なし学習」でもよいし、強化学習や転移学習などを実行してもよい。
The learning process shown in FIG. 2(A) may be performed not only on the
図3に示すように、学習モデル16aまたは学習済みモデル16bのニューラルネットワーク17は、複数のノードI1、I2、I3で構成される入力層L1と、複数のノードH1、H2、H3、H4、H5で構成される中間層L2と、複数のノードO1、O2、O3で構成される出力層L3とで構成される。なお、図3の例では、入力層L1及び出力層L3ノード数が一致しているが、入力層L1及び出力層L3のノード数は異なっていてもよい。また、ニューラルネットワーク17は、複数の中間層L2を有していてもよい。さらに、図3では、各層L1、L2、L3を構成する複数のノードが隣接する層の全てのノードに接続された全結合型のニューラルネットワーク17を示しているが、ニューラルネットワーク17の構造はこれに限定されない。
As shown in FIG. 3, the
そして、学習処理は、入力データが入力層L1に入力されたときに、正解データが出力層L3から出力されるように、各ノードの重み係数やバイアスを調整する処理である。また、生成処理は、入力層L1に入力された入力データを、ノード毎に予め調整された重み係数やバイアスを用いて処理することによって、出力データを生成して出力層L3から出力する処理である。 The learning process is a process of adjusting the weighting coefficients and biases of each node so that correct data is output from the output layer L3 when input data is input to the input layer L1. The generation process is a process of generating output data and outputting it from the output layer L3 by processing the input data input to the input layer L1 using weighting coefficients and biases that have been adjusted in advance for each node.
但し、前述したAI16による処理の具体例は、一例であって、AIサーバ15では周知の様々な手法を採用することができる。他の例として、AI16は、CNN(Convolutional Neural Network)のネットワーク構造等があってもよい。さらに他の例として、ネットワーク構造は、LLM(Large Language Model:大規模言語モデル)、RNN(Recurrent Neural Network:再帰型ニューラルネットワーク)又はLSTM(Long Short-Term Memory)等の構成を有してもよい。すなわち、AI16は、ディープラーニング以外のネットワーク構造等であってもよい。
However, the specific example of the processing by the
本実施形態では、テキスト形式の入力データを学習済みモデル16bに入力して、テキスト形式の出力データが生成される例を説明する。より詳細には、本実施形態に係る入力データは、アバター(オブジェクト)の視覚的または聴覚的(少なくとも、視覚的)な特徴を設定するためにユーザが選択した複数の設定値である。また、本実施形態に係る出力データは、複数の設定値に従って生成されたアバター(オブジェクト)のプロフィールである。
In this embodiment, an example will be described in which input data in text format is input to the trained
[ユーザ端末20の構成]
ユーザ端末20は、例えば、HMDセット、タブレット端末、スマートフォン、フィーチャーフォン、ラップトップ型コンピュータ、デスクトップコンピュータなどとして実現される。本実施形態では、図1に示すように、タブレット端末としてのユーザ端末20の例を説明する。
[Configuration of user terminal 20]
The
図4は、ユーザ端末20のハードウェア構成図である。図4に示すように、ユーザ端末20は、プロセッサ21と、メモリ22と、ストレージ23と、通信インタフェース25と、モニタ31と、カメラ33、34と、マイク35と、スピーカ36と、動きセンサ41と、操作装置42(操作部)とを主に備える。ユーザ端末20の各構成要素は、通信バス29に接続されている。
Figure 4 is a hardware configuration diagram of the
プロセッサ21は、メモリ22またはストレージ23に格納されている端末プログラム23Pに含まれる一連の命令を実行することによって、後述する処理を実現する。プロセッサ21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、その他のデバイスとして実現される。
The
メモリ22は、端末プログラム23P及びデータを一時的に保持する。端末プログラム23Pは、例えば、ストレージ23からロードされる。データは、ユーザ端末20に入力されたデータと、プロセッサ21によって生成されたデータとを含む。例えば、メモリ22は、RAM(Random Access Memory)、その他の揮発メモリとして実現される。
The
ストレージ23は、端末プログラム23P及びデータを永続的に保持する。ストレージ23は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。また、ストレージ23は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに他の例として、ストレージ23は、ユーザ端末20に内蔵されることに代えて、外部記憶装置としてユーザ端末20に接続されていてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のユーザ端末20が使用される場面において、端末プログラム23Pやデータの更新を一括して行うことが可能になる。
The
通信インタフェース25は、通信ネットワーク2に接続されている他の装置(例えば、ゲームサーバ10、AIサーバ15)と通信する。通信インタフェース25は、例えば、LAN(Local Area Network)など有線通信インタフェース、Wi-Fi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)などの無線通信インタフェースとして実現される。
The
モニタ31は、例えば図1に示すように、平板状の筐体の表面に設けられている。モニタ31は、画像または映像を表示する表示装置(表示部)である。カメラ33は、平板状の筐体の表面に取り付けられて、モニタ31を視認するユーザの顔を撮像する、所謂インカメラである。カメラ34は、平板状の筐体の裏面(モニタ31と反対側の面)に取り付けられて、周囲を撮像する、所謂アウトカメラである。
For example, as shown in FIG. 1, the
マイク35は、ユーザの発話を音声信号(電気信号)に変換してコンピュータ26に出力する。スピーカ36は、コンピュータ26から出力された音声信号を音声に変換してユーザに出力する。なお、ユーザ端末20は、スピーカ36に替えてイヤホンを含み得る。
The
動きセンサ41は、筐体の動き(例えば、互いに直交する3軸周りの回転)を検知する。動きセンサ41は、例えば、角速度センサ、地磁気センサ、あるいは加速度センサで実現されてもよい。
The
操作装置42は、ユーザによるユーザ端末20に対する命令の入力(操作)を受け付ける。操作装置42は、例えば、モニタ31に重畳されて、ユーザによる各種タッチ操作を受け付けるタッチパネルである。すなわち、本実施形態に係るモニタ31は、タッチパネル式の表示部である。但し、ユーザ端末20の具体的なハードウェア構成は、前述の例に限定されない。他の例として、ユーザ端末20は、ボタンや操作スティック等を備えたコントローラを、操作装置42として備えていてもよい。
The
[ユーザ端末20の機能ブロック図]
図5は、ユーザ端末20の機能ブロック図である。図5に示すように、メモリ22にロードされた端末プログラム23Pは、ユーザ端末20(コンピュータ)を、オブジェクト生成手段210と、選択手段220と、プロフィール生成手段230と、自動編集手段240と、学習手段250と、公開手段260と、ユーザ編集手段270と、フィードバック手段280として機能させる。
[Functional block diagram of user terminal 20]
FIG. 5 is a functional block diagram of the
なお、図5にはプロフィールを生成して公開をするための機能ブロックを中心に図示しているが、ユーザ端末20は、オンライン空間での処理(例えば、ゲームへの参加、アバターの動作)を実現する機能をさらに有する。また、図5には、ユーザ端末20Aの機能ブロックを中心に図示しているが、ユーザ端末20B、20Cも同様の機能ブロックを有する。
Although FIG. 5 mainly shows functional blocks for generating and publishing a profile, the
まず、図6~図8を参照して、ユーザ端末20Aにおいて、アバター及びプロフィールを生成する処理の例を説明する。図6は、アバター生成画面の一例である。図7は、設定パラメータの優先度(A)及び設定値ヒストグラム(B)、(C)の一例である。図8は、プロフィール(A)、(B)及び学習データ(C)の一例である。
First, an example of the process of generating an avatar and profile in the
オブジェクト生成手段210は、図6に示すアバター生成画面をモニタ31に表示させる。アバター生成画面は、アバター(キャラクタ)を生成するための画面である。また、アバター生成画面は、アバターの視覚的(外見)または聴覚的(声色)な特徴を設定するために、ユーザ端末20Aのユーザに複数の設定値を選択させるための画面である。以下、視覚的な特徴を中心にアバター及びプロフィールを生成する処理を説明する。
The object generation means 210 displays the avatar generation screen shown in FIG. 6 on the
アバターは、ユーザの分身となってオンライン空間内で動作するオブジェクトの一例である。また、アバターは、3次元的に描かれた形状の3D形式でもよいし、2次元的に描かれた形状の2D形式でもよい。さらに、アバターは、視覚的な特徴を表すデータ(例えば、画像データ、3Dモデルデータ)と、聴覚的な特徴を表すデータ(例えば、音声データ)、或いはこれらを組み合わせて特定される。 An avatar is an example of an object that represents a user and operates within an online space. An avatar may be in a 3D format, which is a shape drawn in three dimensions, or in a 2D format, which is a shape drawn in two dimensions. An avatar is specified by data representing visual characteristics (e.g., image data, 3D model data) and data representing auditory characteristics (e.g., audio data), or a combination of these.
図6に示すように、アバター生成画面は、アバター表示領域A1と、性別選択領域A2と、年齢選択領域A3と、設定パラメータ選択領域A4と、候補アイコン選択領域A5と、[決定]アイコンとを含む。 As shown in FIG. 6, the avatar generation screen includes an avatar display area A1, a gender selection area A2, an age selection area A3, a setting parameter selection area A4, a candidate icon selection area A5, and a "Decide" icon.
アバター表示領域A1は、選択領域A2~A5を通じてユーザが選択した設定値に従って生成したアバターの画像(以下、「アバター画像」と表記する。)を表示する領域である。すなわち、選択領域A2~A5を通じて設定値が変更されることによって、アバター表示領域A1に表示されるアバター画像の見た目が変化する。また、アバター表示領域A1に対するタッチ操作(例えば、スワイプ操作、ピンチイン操作、ピンチアウト操作)によって、表示されるアバター画像が変化(例えば、回転、縮小、拡大)してもよい。 Avatar display area A1 is an area that displays an image of an avatar (hereinafter, referred to as an "avatar image") generated according to the setting values selected by the user through selection areas A2 to A5. That is, the appearance of the avatar image displayed in avatar display area A1 changes as the setting values are changed through selection areas A2 to A5. In addition, the displayed avatar image may change (e.g., rotate, shrink, enlarge) in response to a touch operation (e.g., a swipe operation, a pinch-in operation, a pinch-out operation) on avatar display area A1.
性別選択領域A2は、アバターの性別を選択する領域である。性別選択領域A2は、性別パラメータの設定値の候補として、[男性]アイコンと、[女性]アイコンとを含む。年齢選択領域A3は、アバターの年齢を選択する領域である。年齢選択領域A3は、年齢パラメータの設定値の候補として、[子供]アイコンと、[大人]アイコンとを含む。但し、年齢選択領域A3は、生年月日を入力するテキストボックスやプルダウンメニューを含んでもよい。 Gender selection area A2 is an area for selecting the gender of the avatar. Gender selection area A2 includes a [male] icon and a [female] icon as candidates for setting values of gender parameters. The age selection area A3 is an area for selecting the age of the avatar. The age selection area A3 includes a [child] icon and an [adult] icon as candidates for the setting value of the age parameter. However, the age selection area A3 may include a text box or pull-down menu for inputting the date of birth.
設定パラメータ選択領域A4は、設定パラメータ(輪郭、髪型、肌の色、服装、カラー)を選択する領域である。設定パラメータ選択領域A4は、[輪郭]タブ、[髪型]タブ、[肌の色]タブ、[服]タブ、[カラー]タブを含む。輪郭は、アバターの顔の輪郭を示す。髪型は、アバターの髪型を示す。肌の色は、アバターの肌の色を示す。服は、アバターが着る服を示す。カラーは、アバターのベースカラー(例えば、髪、服、アクセサリーの色)を示す。 The setting parameter selection area A4 is an area for selecting setting parameters (contour, hairstyle, skin colour, clothing, colour). The setting parameter selection area A4 includes an [Contour] tab, an [Hairstyle] tab, a [Skin Colour] tab, a [Clothing] tab, and a [Color] tab. The contour indicates the contour of the avatar's face. The hairstyle indicates the avatar's hairstyle. The skin colour indicates the avatar's skin colour. The clothing indicates the clothing worn by the avatar. The colour indicates the base colour of the avatar (e.g. the colour of the hair, clothing, accessories).
候補アイコン選択領域A5は、設定パラメータ選択領域A4で選択された選択パラメータに対応する設定値を選択する領域である。一例として、設定パラメータ選択領域A4で[髪型]タブが選択された場合、設定パラメータ選択領域A4には、選択可能な髪型の設定値(例えば、ショート、お団子、ツインテール、ポニーテール)の候補を示す複数の候補アイコンが表示される。他の例として、設定パラメータ選択領域A4で[服]タブが選択された場合、設定パラメータ選択領域A4には、選択可能な服の設定値(例えば、ワンピース、ミニスカ、デニム、メイド)の候補を示す複数の候補アイコンが表示される。 The candidate icon selection area A5 is an area for selecting a setting value corresponding to the selection parameter selected in the setting parameter selection area A4. As an example, when the [Hairstyle] tab is selected in the setting parameter selection area A4, the setting parameter selection area A4 shows candidates for selectable hairstyle setting values (for example, short, bun, twintails, ponytail). Multiple candidate icons are displayed. As another example, when the [Clothing] tab is selected in the setting parameter selection area A4, candidates for selectable clothing settings (for example, dress, miniskirt, denim, maid) are displayed in the setting parameter selection area A4. Multiple candidate icons are displayed.
図6の例において、性別、年齢、輪郭、髪型、肌の色、服、カラーは、設定パラメータの一例である。また、設定パラメータ(例えば、性別)に対応付けて選択可能な候補アイコン(例えば、[男性]アイコン、[女性]アイコン)は、アバター(オブジェクト)の視覚的な特徴を表す設定値の候補である。すなわち、設定パラメータとは、同種の設定値のグループ(種別)を表す。 In the example of FIG. 6, gender, age, contour, hairstyle, skin color, clothing, and color are examples of setting parameters. Also, the candidate icons (e.g., the "male" icon, the "female" icon) that can be selected in association with the setting parameters (e.g., gender) are candidates for setting values that represent the visual characteristics of the avatar (object). In other words, a setting parameter represents a group (type) of setting values of the same type.
但し、設定パラメータの具体例は、前述の例に限定されない。また、前述した設定パラメータにおいて、選択可能な設定値の候補は、前述の例に限定されない。さらに、設定パラメータは、アバターの視覚的な特徴を設定するものに限定されない。例えば、アバターの聴覚的な特徴を設定する設定パラメータとして、声色パラメータが挙げられる。声色パラメータの設定値としては、ソプラノ、メゾソプラノ、アルトなどが挙げられる。 However, specific examples of setting parameters are not limited to the above examples. Furthermore, for the above setting parameters, the selectable setting value candidates are not limited to the above examples. Furthermore, setting parameters are not limited to those that set the visual characteristics of the avatar. For example, a voice tone parameter is an example of a setting parameter that sets the auditory characteristics of the avatar. Setting values for the voice tone parameter include soprano, mezzo-soprano, alto, etc.
なお、視覚的な特徴としてのアバター自体、視覚的な特徴としてのアバターが身に着けるアイテム(例えば、衣装、アクセサリ等)、聴覚的な特徴としてのアバターの声のデータは、課金やガチャ等を通じて取得できてもよい。例えば、デフォルトのアバターと異なる見た目のアバター、漫画やアニメに登場するキャラが身に着けているアイテム、現実の声優の声のデータ等を取得できるようにしてもよい。 Please note that the avatar itself as a visual feature, the items worn by the avatar as a visual feature (e.g. costumes, accessories, etc.), and the data of the avatar's voice as an auditory feature may be collected through billing, gacha, etc. It may be possible to obtain it. For example, it may be possible to acquire avatars that look different from the default avatars, items worn by characters appearing in manga or anime, voice data of real voice actors, and the like.
そして、オブジェクト生成手段210は、選択領域A2~A5を通じてユーザが選択した複数の設定値(例えば、性別=女性、年齢=子供、輪郭=丸顔、髪型=ツインテール、肌の色=色白、服=メイド、カラー=白)に従って、アバターデータ(画像データ、3Dモデルデータ)を生成し、生成したアバターデータで示されるアバター画像をアバター表示領域A1に表示する。さらに、オブジェクト生成手段210は、[決定]アイコンが選択されたことに応じて、生成したアバターデータを確定させる。 Then, the object generation means 210 generates a plurality of setting values selected by the user through the selection areas A2 to A5 (for example, gender=female, age=child, outline=round face, hairstyle=pwintails, skin color=fair skin, clothes= Avatar data (image data, 3D model data) is generated according to the maid (color=white), and an avatar image indicated by the generated avatar data is displayed in the avatar display area A1. Further, the object generation means 210 finalizes the generated avatar data in response to the selection of the [Determination] icon.
選択手段220は、アバター生成画面を通じて選択された複数の設定値のうち、学習済みモデル16bに入力する設定値を選択する。選択手段220は、例えば、図7(A)に示す優先度テーブルと、図7(B)及び図7(C)に示す設定値ヒストグラムとを用いて、学習済みモデル16bに入力する設定値を選択する。なお、本実施形態では、7つの設定値のうちから4つの設定値を選択するものとする。但し、選択する設定値の数は、前述の例に限定されない。
The selection means 220 selects setting values to be input to the trained
図7(A)に示す優先度テーブルは、設定パラメータ毎の初期優先度を保持している。初期優先度は、複数の設定パラメータの予め定められた優先度を示す。初期優先度は、数値が小さいほど、優先度が高いことを示す。優先度テーブルは、例えば、ゲームサーバ10の管理者によって設定されて、予めユーザ端末20Aにダウンロードされる。すなわち、選択手段220は、図7(A)に示す優先度テーブルのみに従えば、性別、年齢、髪型、肌の色の設定値を固定で選択することになる。
The priority table shown in FIG. 7A holds initial priorities for each setting parameter. The initial priority indicates a predetermined priority of a plurality of setting parameters. The smaller the initial priority, the higher the priority. For example, the priority table is set by the administrator of the
図7(B)及び図7(C)に示す設定値ヒストグラムは、ゲームサーバ10が提供するオンライン空間において、過去に他のユーザが選択した設定値を、設定パラメータ(例えば、髪型、服)毎に集計したものである。図7(B)及び図7(C)の縦軸は、選択された回数(度数)でもよいし、選択された割合(%)でもよい。これらの設定値ヒストグラムは、例えば、ゲームサーバ10によって集計される。そして、選択手段220は、通信IF25を通じてゲームサーバ10から設定値ヒストグラムを受信する。なお、図7には、髪型パラメータ及び服パラメータの設定値ヒストグラムのみを示しているが、他の設定パラメータの設定値ヒストグラムを参照してもよい。
The setting value histograms shown in FIGS. 7(B) and 7(C) show setting values selected by other users in the past for each setting parameter (for example, hairstyle, clothes) in the online space provided by the
そして、選択手段220は、ゲームサーバ10から取得した設定値ヒストグラムに基づいて、設定パラメータの優先度を変更する。一例として、選択手段220は、図7(B)に示すように、髪型パラメータにおける「ツインテール」の選択回数が2番目に多いので、髪型パラメータの優先度を変更しない。他の例として、選択手段220は、図7(C)に示すように、服パラメータにおける「メイド」の選択回数が1番少ないので、服パラメータの優先度を“1”に変更する(最も高くする)。
Then, the selection means 220 changes the priority of the setting parameters based on the setting value histogram acquired from the
その結果、選択手段220は、図6及び図7の例において、学習済みモデル16bに入力する設定値として、性別=女性、年齢=子供、服=メイド、肌の色=色白を選択することになる。このように、選択手段220は、複数の設定値のうち、他のユーザが選択した回数が少ない設定値を優先して選択すればよい。但し、選択手段220が設定値を選択する方法は、これに限定されない。他の例として、選択手段220は、複数の設定値のうちから、学習済みモデル16bに入力する設定値をランダムに選択してもよい。さらに他の例として、選択手段220は、課金して取得したアバター、アイテム、声を示す設定値を、他の設定値より優先して学習済みモデル16bに入力してもよい。
As a result, in the examples of FIGS. 6 and 7, the selection means 220 selects gender = female, age = child, clothing = maid, and skin color = fair skin as the setting values to be input to the learned
プロフィール生成手段230は、選択手段220が選択した設定値(例えば、性別=女性、年齢=子供、服=メイド、肌の色=色白)を学習済みモデル16bに入力して、アバターのプロフィールを生成させる。また、プロフィール生成手段230は、ユーザが決定(入力)したアバターの名前(例えば、名前=リンダ)を、さらに学習済みモデル16bに入力してもよい。さらに、プロフィール生成手段230は、プロフィールの文字数の範囲(例えば、70~100文字)を、さらに学習済みモデル16bに入力してもよい。
The profile generating means 230 inputs the settings selected by the selecting means 220 (e.g., gender = female, age = child, clothing = maid, skin color = fair) into the trained
例えば、自然言語処理が可能なAI16にプロフィールを生成させる場合、プロフィール生成手段230は、テキスト形式の入力データとして、「女性、子供、メイド、色白のリンダのプロフィールを、70~100文字で生成してください。」を、通信IF25を通じてAIサーバ15に送信する。
For example, when the
AIサーバ15は、ユーザ端末20Aから取得した入力データを入力層L1に入力し、中間層L2で処理して、テキスト形式のプロフィールを出力層L3から出力する。また、AIサーバ15は、生成したプロフィールをユーザ端末20Aに送信する。そして、プロフィール生成手段230は、図8(A)に示すプロフィール(出力データ)を、通信IF25を通じてAIサーバ15から受信する。
The
プロフィールは、アバターを紹介するテキスト形式のデータである。プロフィールに含まれるのは、アバターの嗜好、オンライン空間でやりたいこと、他のユーザに対するメッセージ、バックストーリー(例えば、出身地、学歴、職歴)、家族構成など、アバターに関するあらゆるテキスト情報が含まれ得る。また、プロフィールは、入力データとして入力した複数の設定値からイメージされるテキストである。但し、プロフィールは、テキスト形式に限定されず、画像形式、音声形式、或いはこれらの組み合わせでもよい。さらに、プロフィールは、真実である必要はなく、創作(フィクション)でよい。 A profile is text-format data that introduces an avatar. A profile may include any text information related to an avatar, such as the avatar's preferences, what the avatar wants to do in the online space, messages to other users, a backstory (e.g., hometown, educational background, work history), and family composition. A profile is also text that is imagined from multiple settings entered as input data. However, a profile is not limited to text format, and may also be in image format, audio format, or a combination of these. Furthermore, a profile does not have to be true, and may be fiction.
自動編集手段240は、プロフィール生成手段230が生成したプロフィールを編集する。一例として、自動編集手段240は、プロフィール生成手段が生成したプロフィールから、予め定められたキーワードを削除してもよい。他の例として、自動編集手段240は、プロフィール生成手段が生成したプロフィールのうち、予め定められたキーワードを、他のワードに置換してもよい。キーワードとは、例えば、性的、暴力的、差別的な表現、入力データに含めた設定値そのもの、具体的な個人情報(現住所、電話番号)などが挙げられる。 The automatic editing means 240 edits the profile generated by the profile generation means 230. As one example, the automatic editing means 240 may delete predetermined keywords from the profile generated by the profile generation means. As another example, the automatic editing means 240 may replace predetermined keywords in the profile generated by the profile generation means with other words. Examples of keywords include sexual, violent, and discriminatory expressions, setting values included in the input data, and specific personal information (current address, phone number).
図8(B)の例では、設定値そのものである「色白メイドの」が削除され、性的な表現である「セクシー」が「色々」に置換されている。キーワードを削除するか他のワードに置換するかは、予め定められていてもよいし、AI16に判断させてもよい。また、自動編集手段240は、予め定められたキーワードがプロフィールに含まれていない場合、編集の実行をスキップしてもよい。
In the example of FIG. 8(B), the setting value itself, "fair-skinned maid", is deleted, and the sexual expression "sexy" is replaced with "various". Whether to delete a keyword or replace it with another word may be predetermined, or the decision may be made by
学習手段250は、図8(C)に示すように、「女性、子供、メイド、色白のリンダのプロフィールを、70~100文字で生成してください。」を入力データとし、自動編集手段240が編集したプロフィールを正解データとする学習データを、学習済みモデル16bに入力してさらに学習させる。すなわち、学習手段250は、通信IF25を通じて学習データをAIサーバ15に送信する。AIサーバ15は、ユーザ端末20Aから受信した学習データを用いて、学習済みモデル16bに学習処理を実行させる。
As shown in FIG. 8(C), the learning means 250 takes as input data "Please create a profile of Linda, female, child, maid, fair-skinned, in 70 to 100 characters." and inputs the learning data, in which the profile edited by the automatic editing means 240 is used as correct answer data, into the trained
公開手段260は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィールを、オブジェクト生成手段210が生成したアバターに対応付けて、オンライン空間に公開する。より詳細には、公開手段260は、プロフィール生成手段230が生成したアバターデータと、プロフィール生成手段230または自動編集手段240が生成したプロフィールデータとを対応付けて、通信IF25を通じてゲームサーバ10に送信する。
The
ゲームサーバ10は、ユーザ端末20B、20Cからの要求に応じて、ユーザ端末20Aから受信したアバターデータ及びプロフィールデータを、ユーザ端末20B、20Cに送信する。これにより、ユーザ端末20B、20Cのユーザは、ユーザ端末20Aが生成したアバター(以下、「アバターA」と表記する。)及びプロフィール(以下、「プロフィールA」と表記する。)を、モニタ31やスピーカ36を通じて知覚することができる。
The
一例として、ユーザ端末20B、20Cのユーザは、オンライン空間において、自身のアバターB、Cの視界に入ったアバターAを視認する。また、ユーザ端末20B、20Cのユーザは、視界に入ったアバターAを選択することによって、プロフィールAを閲覧する。さらに、ユーザ端末20B、20Cのユーザは、図13を参照して後述するユーザ選択画面またはユーザ詳細画面を通じて、アバターA及びプロフィールAを閲覧する。
As an example, the users of
次に、図9~図11を参照して、ユーザ端末20Bにおいて、アバター及びプロフィールを生成する処理の例を説明する。図9は、アバター生成画面の他の例である。図10は、設定パラメータの優先度(A)及び設定値ヒストグラム(B)、(C)の他の例である。図11は、プロフィール(A)、(B)及び学習データ(C)の他の例である。なお、図6~図8の例との共通点の詳細な説明は省略し、相違点を中心に説明する。図9~図11の例は、アバター生成画面を通じてユーザが選択する設定値の組み合わせが図6~図8の例と異なる。
Next, an example of a process for generating an avatar and profile in the
より詳細には、ユーザ端末20Bのユーザは、性別=男性、年齢=大人、輪郭=丸顔、髪型=モヒカン、肌の色=色黒、服=特攻服、カラー=白を、設定値として選択したものとする。オブジェクト生成手段210は、これらの設定値に従ってアバターデータを生成し、生成したアバターデータで示されるアバター画像をアバター表示領域A1に表示する。
More specifically, the user of the
選択手段220は、図10(A)及び図10(B)に示すように、髪型パラメータにおける「モヒカン」及び服パラメータにおける「特攻服」の選択回数が最も少ないので、髪型パラメータ及び服パラメータの優先度を“1”に変更する。そして、選択手段220は、図9及び図10の例において、学習済みモデル16bに入力する設定値として、性別=男性、年齢=大人、髪型=モヒカン、服=特攻服を選択する。
As shown in Figs. 10(A) and 10(B), the selection means 220 changes the priority of the hairstyle parameter "mohawk" and the clothing parameter "kamikaze uniform" to "1" because they have been selected the least number of times. Then, in the example of Figs. 9 and 10, the selection means 220 selects gender = male, age = adult, hairstyle = mohawk, and clothing = kamikaze uniform as the setting values to be input to the trained
プロフィール生成手段230は、テキスト形式の入力データ「男性、大人、モヒカン、特攻服の太朗のプロフィールを、70~100文字で生成してください。」を学習済みモデル16bに入力して、図11(A)に示すプロフィールを生成させる。自動編集手段240は、図11(A)に示すプロフィールのうち、暴力的な表現である「と喧嘩」を削除し、暴力的な表現である「ストリートファイト」を「スポーツ」に置換する。なお、自動編集手段240の役割を学習済みモデル16bに担わせてもよい。すなわち、学習済みモデル16bは、予め定められたキーワード(換言すれば、プロフィールの使用に適さないキーワード)を事前学習していて、当該キーワードを含まないプロフィールを生成してもよい。
The profile generation means 230 inputs text-format input data "Please generate a profile of Taro, male, adult, Mohawk, special attack uniform, in 70 to 100 characters." to the learned
学習手段250は、図11(C)に示すように、「男性、大人、モヒカン、特攻服の太朗のプロフィールを、70~100文字で生成してください。」を入力データとし、自動編集手段240が編集したプロフィールを正解データとする学習データを、学習済みモデル16bに入力してさらに学習させる。
As shown in FIG. 11(C), the learning means 250 uses as input data "Please generate a profile of Taro, male, adult, Mohican, special attack uniform, in 70 to 100 characters.", and the automatic editing means 240 Learning data in which the profile edited by is correct data is input to the learned
公開手段260は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィール(以下、「プロフィールB」と表記する。)を、オブジェクト生成手段210が生成したアバター(以下、「アバターB」と表記する。)に対応付けて、オンライン空間に公開する。 The publishing means 260 converts the profile generated by the profile generating means 230 or edited by the automatic editing means 240 (hereinafter referred to as "profile B") into the avatar generated by the object generating means 210 (hereinafter referred to as "avatar B"). ) and publish it in the online space.
図12は、プロフィール編集画面(A)及び学習データ(B)の例である。ユーザ編集手段270は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィールを、ユーザ端末20Aのユーザの指示に従って編集する。より詳細には、ユーザ編集手段270は、図12(A)に示すプロフィール編集画面を、モニタ31に表示させる。
FIG. 12 is an example of the profile editing screen (A) and learning data (B). The user editing means 270 edits the profile generated by the profile generation means 230 or edited by the automatic editing means 240 according to instructions from the user of the
プロフィール編集画面は、プロフィール表示領域A6と、ソフトウェアキーボードA7と、[決定]アイコンとを含む。プロフィール表示領域A6は、プロフィール生成手段230が生成した、または自動編集手段240が編集したプロフィールを表示する領域である。ソフトウェアキーボードA7は、プロフィール表示領域A6に表示されたプロフィールの編集(文字の追加、削除、修正)を指示するユーザの操作を受け付ける領域である。 The profile editing screen includes a profile display area A6, a software keyboard A7, and a [Set] icon. The profile display area A6 is an area where a profile generated by the profile generation means 230 or edited by the automatic editing means 240 is displayed. The software keyboard A7 is an area that accepts user operations to instruct editing (addition, deletion, modification of characters) of the profile displayed in the profile display area A6.
ユーザ編集手段270は、ソフトウェアキーボードA7を通じたユーザの操作(指示)に従って、プロフィール表示領域A6に表示されたプロフィールを編集する。そして、ユーザ編集手段270は、[決定]アイコンが選択されたことに応じて、プロフィールの編集を確定させる。なお、ユーザ編集手段270は、予め定められたキーワード(換言すれば、プロフィールの使用に適さないキーワード)をユーザが入力した場合に、当該キーワードをプロフィールに反映しないようにしてもよい。 The user editing means 270 edits the profile displayed in the profile display area A6 according to user operations (instructions) via the software keyboard A7. Then, the user editing means 270 finalizes the profile edits in response to the selection of the [OK] icon. Note that, when the user inputs a predetermined keyword (in other words, a keyword that is not suitable for use in the profile), the user editing means 270 may not reflect the keyword in the profile.
そして、公開手段260は、ユーザ編集手段270が編集したプロフィールを、アバターに対応付けて公開する。また、学習手段250は、図12(B)に示すように、プロフィール生成手段230が生成した入力データと、ユーザ編集手段270が編集したプロフィール(正解データ)とを含む学習データを、学習済みモデル16bに入力してさらに学習させる。 Then, the publishing means 260 publishes the profile edited by the user editing means 270 in association with the avatar. Further, as shown in FIG. 12(B), the learning means 250 uses the learning data including the input data generated by the profile generation means 230 and the profile (correct data) edited by the user editing means 270 to model the learned model. 16b for further learning.
次に、図13を参照して、ユーザ端末20CのユーザがアバターA、B及びプロフィールA、Bを閲覧する処理を説明する。ここでは、協力型のオンラインゲームにおいて、協力してプレイするユーザを選択する処理を例として説明する。図13は、ユーザ選択画面(A)及びユーザ詳細画面(B)の画面例である。
Next, referring to FIG. 13, a process in which a user of
ユーザ端末20Cは、図13(A)に示すユーザ選択画面をモニタ31に表示させる。ユーザ選択画面は、協力してプレイできるユーザ(例えば、オンラインゲームにログインしているユーザ)の一覧を表示する。ユーザ選択画面は、例えば、アバター、名前、レベル、[詳細]アイコンを、協力プレイできるユーザ毎に表示させる。すなわち、ユーザ端末20Cは、協力プレイできるユーザのアバター、名前、レベルをゲームサーバ10から受信して、ユーザ選択画面に一覧表示する。
The
ユーザ端末20Cは、例えば、名前=リンダに対応する[詳細]アイコンが選択されたことに応じて、図13(B)に示すユーザ詳細画面をモニタ31に表示させる。ユーザ詳細画面は、ユーザ選択画面を通じて選択されたユーザの詳細な情報を表示する画面である。ユーザ詳細画面は、例えば、選択したユーザの名前、レベル、アバター画像、プロフィール、評価、[協力要請]アイコンを含む。
In response to the selection of the [Details] icon corresponding to the name Linda, for example, the
ユーザ詳細画面の評価の項目には、[GOOD]アイコンと、[BAD]アイコンと、過去に[GOOD]アイコンが選択された高評価回数(91)と、過去に[BAD]アイコンが選択された低評価回数(9)とを含む。[GOOD]アイコンは、プロフィールを見たユーザによる高評価に対応する。[BAD]アイコンは、プロフィールを見たユーザによる低評価に対応する。高評価回数及び低評価回数は、ゲームサーバ10によって集計された累積値である。ユーザ端末20Cは、[GOOD]アイコンまたは[BAD]アイコンが選択された場合に、選択されたアイコンをゲームサーバ10に通知する。ゲームサーバ10は、高評価回数及び低評価回数の集計結果を更新すると共に、更新後の高評価回数及び低評価回数をユーザ端末20Aに通知する。 The evaluation items on the user details screen include a [GOOD] icon, a [BAD] icon, the number of times the [GOOD] icon was previously selected (91), and the number of times the [BAD] icon was previously selected and the number of times the [BAD] icon was previously selected and the number of times the [BAD] icon was previously selected and the number of times the [BAD] icon was previously selected and the number of times the [GOOD] icon was previously selected and the number of times the [BAD ...
フィードバック手段280は、更新された高評価回数及び低評価回数を、通信IF25を通じてゲームサーバ10から受信する。高評価回数及び低評価回数は、プロフィールに対する評価の一例である。そして、フィードバック手段280は、プロフィールに対する評価を、学習済みモデル16bにフィードバックする。フィードバック手段280は、例えば、高評価回数をプロフィールの点数として、通信IF25を通じてAIサーバ15に送信する。学習済みモデル16bは、フィードバック手段280からフィードバックされた高評価回数を用いて再学習または追加学習する。すなわち、学習済みモデル16bは、高評価回数が多いプロフィールに近いプロフィールを生成しやすくなり、高評価回数が少ないプロフィールに近いプロフィールを生成しにくくなる。
The feedback means 280 receives the updated number of likes and dislikes from the
フィードバック手段280が評価をフィードバックするタイミング及び条件としては、例えば、以下が考えられる。一例として、フィードバック手段280は、プロフィールを公開してから所定の時間(例えば、10時間)が経過したタイミングで、フィードバックを実行する。他の例として、フィードバック手段280は、高評価回数、低評価回数、または高評価回数及び低評価回数の合計が所定の数(例えば、100回)に達したことを条件として、フィードバックを実行する。但し、プロフィールに対する他のユーザの評価の具体的な方法は、前述の例に限定されない。 The timing and conditions under which the feedback means 280 provides feedback on the evaluation may be, for example, as follows. As one example, the feedback means 280 performs feedback when a predetermined time (e.g., 10 hours) has elapsed since the profile was made public. As another example, the feedback means 280 performs feedback on the condition that the number of likes, the number of dislikes, or the total number of likes and dislikes has reached a predetermined number (e.g., 100). However, the specific method of other users' evaluation of a profile is not limited to the above examples.
[実施形態の作用効果]
上記の実施形態によれば、アバターを生成する際に選択する複数の設定値を入力データとして、アバターのプロフィールを学習済みモデル16bに生成させる。これにより、ユーザの作業負担を増加させることなく、アバターに合わせて生成されたユニークなプロフィールを、当該アバターに対応付けて公開することができる。
[Effects of the embodiment]
According to the above embodiment, a profile of an avatar is generated in the trained
また、上記の実施形態によれば、複数の設定値のうちから学習済みモデル16bに入力する設定値を選択することによって、ユニークなプロフィールを生成することができる。特に、他のユーザが選択する回数の少ない設定値を優先して入力することによって、さらにユニークなプロフィールを生成することができる。但し、全ての設定値を学習済みモデル16bに入力する場合は、選択手段220は省略可能である。
Furthermore, according to the above embodiment, a unique profile can be generated by selecting a setting value to be input to the trained
また、上記の実施形態によれば、学習済みモデル16bが生成したプロフィールを編集することによって、好ましくない表現を含むプロフィールがオンライン空間に公開されるのを防止できる。但し、学習済みモデル16bに好ましくない表現を除外するように学習させておけば、自動編集手段240は省略可能である。
In addition, according to the above embodiment, by editing the profile generated by the trained
また、上記の実施形態によれば、ユーザによるプロフィールの編集を可能にすることによって、ユーザの好みのプロフィールをオンライン空間に公開することができる。また、プロフィールを最初からユーザに生成させるのと比較すれば、ユーザの作業負担を軽減することができる。但し、ユーザ編集手段270は省略可能である。 In addition, according to the above embodiment, by enabling the user to edit the profile, the user's preferred profile can be made public in the online space. Also, compared to having the user create the profile from scratch, the user's workload can be reduced. However, the user editing means 270 can be omitted.
また、上記の実施形態によれば、自動編集手段240及びユーザ編集手段270が編集したプロフィールを、正解データとして学習済みモデル16bに再学習させることによって、さらにユニークで、好ましくない表現を含まず、且つユーザの好みに合ったプロフィールを生成することができる。但し、学習データの入力インタフェースを公開していない汎用のAI16を用いる場合は、学習手段250は省略可能である。
In addition, according to the above embodiment, the profile edited by the automatic editing means 240 and the user editing means 270 can be retrained as correct answer data in the trained
さらに、上記の実施形態によれば、オンライン空間に公開されたプロフィールを見た他のユーザの評価を集計して、学習済みモデル16bにフィードバックすることによって、さらにオンライン空間に適したプロフィールを生成することができる。但し、フィードバックの入力インタフェースを公開していない汎用のAI16を用いる場合は、フィードバック手段280は省略可能である。
Furthermore, according to the embodiment described above, the evaluations of other users who viewed the profile published in the online space are aggregated and fed back to the learned
[その他の実施形態]
なお、オブジェクトの具体例はアバターに限定されず、動物、モンスター、ロボット等のキャラクタ、装備(例えば、武器、防具、アクセサリ)、乗り物(例えば、自動車、船、航空機、宇宙船)、建物(例えば、住宅、城)等でもよい。また、設定パラメータの具体例は、オブジェクトの種類によって様々に変化する。例えば、住宅のオブジェクトに対応する設定パラメータとしては、屋根の形、壁の素材、窓の形、間取りなどが該当する。
[Other embodiments]
Note that specific examples of objects are not limited to avatars, and may include characters such as animals, monsters, and robots, equipment (e.g., weapons, armor, and accessories), vehicles (e.g., automobiles, ships, aircraft, and spaceships), and buildings (e.g., houses and castles). Specific examples of setting parameters vary depending on the type of object. For example, setting parameters corresponding to a house object include the shape of the roof, the material of the walls, the shape of the windows, and the layout of the house.
また、本発明に係るプログラムは、単一のプログラムに限定されず、複数のプログラムの集合体でもよい。また、本発明に係るプログラムは、単一の装置で実行されるものに限定されず、複数の装置で分担して実行されてもよい。さらに、ゲームサーバ10、AIサーバ15、及びユーザ端末20の役割分担は、前述の例に限定されない。すなわち、ゲームサーバ10の処理の一部がAIサーバ15またはユーザ端末20によって実行されてもよいし、AIサーバ15の処理の一部がゲームサーバ10またはユーザ端末20によって実行されてもよいし、ユーザ端末20の処理の一部がゲームサーバ10またはAIサーバ15によって実行されてもよい。
Furthermore, the program according to the present invention is not limited to a single program, but may be a collection of multiple programs. Further, the program according to the present invention is not limited to being executed by a single device, but may be shared and executed by a plurality of devices. Furthermore, the role sharing among the
さらに、プログラムによって実現される各手段の一部または全部は、集積回路などのハードウェアで実現することもできる。さらに、プログラムは、コンピュータによって読み出し可能な非一過性の記録媒体に記録されて提供されてもよい。記録媒体とは、例えば、ハードディスク、SDカード、DVDの他、インターネット上のサーバ等を指す。 Further, part or all of the means implemented by the program can also be implemented by hardware such as an integrated circuit. Furthermore, the program may be provided by being recorded on a computer-readable non-transitory recording medium. The recording medium refers to, for example, a hard disk, an SD card, a DVD, and a server on the Internet.
1…システム、2…通信ネットワーク、10…ゲームサーバ、15…AIサーバ、16…学習モデル、16a…学習モデル、16b…学習済みモデル、17…ニューラルネットワーク、20…ユーザ端末、21…プロセッサ、22…メモリ、23…ストレージ、23P…端末プログラム、25…通信インタフェース、26…コンピュータ、29…通信バス、31…モニタ、33…カメラ、34…カメラ、35…マイク、36…スピーカ、41…動きセンサ、42…操作装置、210…オブジェクト生成手段、220…選択手段、230…プロフィール生成手段、240…自動編集手段、250…学習手段、260…公開手段、270…ユーザ編集手段、280…フィードバック手段
DESCRIPTION OF
Claims (9)
オンライン空間に配置されるオブジェクトの視覚的な特徴を設定するためにユーザが選択した複数の設定値に従って、前記オブジェクトを生成するオブジェクト生成手段と、
予め学習させた学習済みモデルに複数の前記設定値を入力して、前記オブジェクトのプロフィールを生成させるプロフィール生成手段と、
前記プロフィール生成手段が生成した前記プロフィールを、前記オブジェクト生成手段が生成した前記オブジェクトに対応付けて、前記オンライン空間に公開する公開手段として機能させる、プログラム。 computer,
Object generation means for generating the object according to a plurality of setting values selected by the user to set visual characteristics of the object placed in the online space;
profile generation means for generating a profile of the object by inputting the plurality of setting values into a trained model trained in advance;
A program that functions as a publishing unit that associates the profile generated by the profile generating unit with the object generated by the object generating unit and publishes the profile in the online space.
前記コンピュータを、前記プロフィール生成手段が生成した前記プロフィールを編集する自動編集手段として機能させ、
前記公開手段は、前記自動編集手段が編集した前記プロフィールを公開する、プログラム。 The program according to claim 1,
causing the computer to function as automatic editing means for editing the profile generated by the profile generation means,
The publishing means is a program for publishing the profile edited by the automatic editing means.
前記自動編集手段は、前記プロフィール生成手段が生成した前記プロフィールから、予め定められたキーワードを削除する、プログラム。 The program according to claim 2,
The automatic editing means is a program for deleting a predetermined keyword from the profile generated by the profile generation means.
前記コンピュータを、複数の前記設定値を入力データとし、前記自動編集手段が編集した前記プロフィールを正解データとする学習データを、前記学習済みモデルに入力してさらに学習させる学習手段として機能させる、プログラム。 The program according to claim 2,
A program that causes the computer to function as a learning means for further learning by inputting learning data in which the plurality of setting values are input data and the profile edited by the automatic editing means is correct data to the trained model. .
前記コンピュータを、複数の前記設定値のうち、前記学習済みモデルに入力する前記設定値を選択する選択手段として機能させる、プログラム。 The program according to claim 1,
A program that causes the computer to function as a selection means for selecting the setting value to be input to the trained model from among the multiple setting values.
前記選択手段は、複数の前記設定値のうち、他のユーザが選択した回数が少ない前記設定値を優先して選択する、プログラム。 The program according to claim 5,
The selection means is a program for preferentially selecting, from among the plurality of setting values, the setting value that has been selected less frequently by other users.
前記コンピュータを、
前記プロフィール生成手段が生成した前記プロフィールを、ユーザの指示に従って編集するユーザ編集手段と、
複数の前記設定値を入力データとし、前記ユーザ編集手段が編集した前記プロフィールを正解データとする学習データを、前記学習済みモデルに入力してさらに学習させる学習手段として機能させる、プログラム。 The program according to claim 1,
The computer,
a user editing means for editing the profile generated by the profile generating means in accordance with an instruction from a user;
The program functions as a learning means for inputting learning data, which has a plurality of the setting values as input data and the profile edited by the user editing means as correct answer data, into the trained model for further training.
前記コンピュータを、前記公開手段が公開した前記プロフィールを見た他のユーザから前記プロフィールに対する評価を取得して、前記学習済みモデルにフィードバックするフィードバック手段として機能させる、プログラム。 The program according to claim 1,
A program that causes the computer to function as a feedback means for obtaining evaluations of the profile from other users who have viewed the profile published by the publishing means and providing feedback to the trained model.
予め学習させた学習済みモデルに複数の前記設定値を入力して、前記オブジェクトのプロフィールを生成させるプロフィール生成手段と、
前記プロフィール生成手段が生成した前記プロフィールを、前記オブジェクト生成手段が生成した前記オブジェクトに対応付けて、前記オンライン空間に公開する公開手段とを備える、システム。 Object generation means for generating the object according to a plurality of setting values selected by the user to set visual characteristics of the object placed in the online space;
profile generation means for generating a profile of the object by inputting the plurality of setting values into a trained model trained in advance;
A system comprising: publishing means for publishing the profile generated by the profile generating means in the online space in association with the object generated by the object generating means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023147750A JP7460839B1 (en) | 2023-09-12 | 2023-09-12 | Programs and systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023147750A JP7460839B1 (en) | 2023-09-12 | 2023-09-12 | Programs and systems |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7460839B1 true JP7460839B1 (en) | 2024-04-02 |
Family
ID=90474285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023147750A Active JP7460839B1 (en) | 2023-09-12 | 2023-09-12 | Programs and systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7460839B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090254859A1 (en) | 2008-04-03 | 2009-10-08 | Nokia Corporation | Automated selection of avatar characteristics for groups |
US20130074002A1 (en) | 2010-01-15 | 2013-03-21 | Microsoft Corporation | Recognizing User Intent In Motion Capture System |
JP2018106499A (en) | 2016-12-27 | 2018-07-05 | 株式会社コロプラ | Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device |
JP2018170013A (en) | 2018-05-24 | 2018-11-01 | 株式会社コロプラ | Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device |
-
2023
- 2023-09-12 JP JP2023147750A patent/JP7460839B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090254859A1 (en) | 2008-04-03 | 2009-10-08 | Nokia Corporation | Automated selection of avatar characteristics for groups |
US20130074002A1 (en) | 2010-01-15 | 2013-03-21 | Microsoft Corporation | Recognizing User Intent In Motion Capture System |
JP2018106499A (en) | 2016-12-27 | 2018-07-05 | 株式会社コロプラ | Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device |
JP2018170013A (en) | 2018-05-24 | 2018-11-01 | 株式会社コロプラ | Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4395687B2 (en) | Information processing device | |
CN109691054A (en) | Animation user identifier | |
KR102646302B1 (en) | Online gaming platform voice communication system | |
US11789905B2 (en) | Automated generation of game tags | |
JP7307204B2 (en) | Predictive data preloading | |
WO2022105846A1 (en) | Virtual object display method and apparatus, electronic device, and medium | |
CN113014471B (en) | Session processing method, device, terminal and storage medium | |
KR102619465B1 (en) | Confirm consent | |
KR20190089451A (en) | Electronic device for providing image related with text and operation method thereof | |
CN111541950A (en) | Expression generation method and device, electronic equipment and storage medium | |
JP7278307B2 (en) | Computer program, server device, terminal device and display method | |
CN112075054B (en) | Chat application using game engine | |
CN113826147A (en) | Improvements in animated characters | |
CN113766168A (en) | Interactive processing method, device, terminal and medium | |
CN111768478A (en) | Image synthesis method and device, storage medium and electronic equipment | |
KR20230148239A (en) | Robust facial animation from video using neural networks | |
KR20230021640A (en) | Customize soundtracks and hair styles in editable videos for multimedia messaging applications | |
JP2024507338A (en) | Automatic detection of prohibited gaming content | |
KR100957858B1 (en) | Avatar presenting method and computer readable medium processing the method | |
WO2022051140A1 (en) | Determining game quality based on gameplay duration | |
JP7460839B1 (en) | Programs and systems | |
JP7463509B2 (en) | Prominent display of your target game in search results | |
JP7454166B2 (en) | Information processing system, information processing method, and storage medium | |
JP7406133B2 (en) | Information processing systems and programs | |
US11969649B2 (en) | Prominent display of targeted game in search results |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231115 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240321 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7460839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |