JP7282122B2 - program, method, information processing device - Google Patents

program, method, information processing device Download PDF

Info

Publication number
JP7282122B2
JP7282122B2 JP2021068063A JP2021068063A JP7282122B2 JP 7282122 B2 JP7282122 B2 JP 7282122B2 JP 2021068063 A JP2021068063 A JP 2021068063A JP 2021068063 A JP2021068063 A JP 2021068063A JP 7282122 B2 JP7282122 B2 JP 7282122B2
Authority
JP
Japan
Prior art keywords
dimensional
model
abnormality
trained
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021068063A
Other languages
Japanese (ja)
Other versions
JP2022163251A (en
Inventor
達也 今井
孝則 曽羽
信之 太田
隆雄 海野
裕輝 山本
友也 高橋
幸一郎 若松
達斗 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pokemon Co
Heroz Inc
Original Assignee
Pokemon Co
Heroz Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pokemon Co, Heroz Inc filed Critical Pokemon Co
Priority to JP2021068063A priority Critical patent/JP7282122B2/en
Publication of JP2022163251A publication Critical patent/JP2022163251A/en
Application granted granted Critical
Publication of JP7282122B2 publication Critical patent/JP7282122B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本開示は、プログラム、方法、情報処理装置に関する。 The present disclosure relates to programs, methods, and information processing apparatuses.

コンピュータゲームのプログラムは、ゲームのルールだけでなく、画面の描画処理、音響の入出力処理、コントローラからの入力処理、通信処理、AIの思考処理等、様々な要素の処理を並行して行う複雑なプログラムである。そのため、各処理が正常に動作するのかを確認するテストについても多くの工数がかかる。 A computer game program is not only a game rule, but also a complex process that processes various elements in parallel, such as screen drawing processing, sound input/output processing, input processing from the controller, communication processing, and AI thought processing. program. Therefore, it takes a lot of man-hours to test whether each process operates normally.

特開2019-191786号公報JP 2019-191786 A

コンピュータゲームの動作を確認するためのテストには、ゲームリソース、例えば、ゲーム内で登場させるキャラクターに関するテストがある。当該テストでは、製作者は、例えば、ゲームリソースとしてのモデルを凝視し、モデルについての異常の有無を確認する。 A test for confirming the operation of a computer game includes a test for game resources, for example, a character that appears in the game. In the test, the creator, for example, stares at the model as a game resource and confirms whether or not there is an abnormality in the model.

製作者としては、ゲームに登場させるキャラクターを増やすことでゲームのクオリティを上げたいが、登場させるキャラクター数が増えるとテストケースが増えることになり、製作者の負担が増大することになる。 As a creator, I would like to increase the quality of the game by increasing the number of characters that appear in the game, but increasing the number of characters will increase the number of test cases, increasing the burden on the creator.

特許文献1では、ゲームルール処理プログラムが正しい状態となっているかをテストするためのプログラムを生成することが記載されている。しかしながら、特許文献では、登場キャラクターのモデルのテストについては記載されていない。 Patent Literature 1 describes generating a program for testing whether a game rule processing program is in a correct state. However, the patent literature does not describe testing of models of appearing characters.

本開示の目的は、ゲームリソースに関するテストに係る負担を軽減することである。 The purpose of the present disclosure is to reduce the burden of testing on game resources.

プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムである。プログラムは、プロセッサに、ゲームリソースについての1の3次元モデルデータに基づき、複数の2次元画像を生成するステップと、2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデルに、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するステップとを実行させる。 A program to be executed by a computer having a processor and a memory. The program provides the processor with a step of generating a plurality of two-dimensional images based on one piece of three-dimensional model data of a game resource; and inputting each of the generated two-dimensional images to the first trained model learned as a correct output, and determining whether or not there is an abnormality in each two-dimensional image.

本開示によれば、ゲームリソースに関するテストに係る負担を軽減できる。 According to the present disclosure, it is possible to reduce the burden of testing on game resources.

システムの全体構成を示すブロック図である。1 is a block diagram showing the overall configuration of a system; FIG. 図1に示す端末装置の構成を表すブロック図である。2 is a block diagram showing the configuration of the terminal device shown in FIG. 1; FIG. サーバの機能的な構成を示す図である。It is a figure which shows the functional structure of a server. 図3に示す制御部が第1学習済みモデルを生成する際の動作を説明するためのブロック図である。FIG. 4 is a block diagram for explaining the operation when the control unit shown in FIG. 3 generates a first trained model; 図3に示す制御部が第2学習済みモデルを生成する際の動作を説明するためのブロック図である。FIG. 4 is a block diagram for explaining the operation when the control unit shown in FIG. 3 generates a second trained model; 図2に示す制御部が第1学習済みモデルを用いて3次元モデルの異常を検出する際の動作を説明するためのブロック図である。3 is a block diagram for explaining the operation of the control unit shown in FIG. 2 when detecting an abnormality in the three-dimensional model using the first trained model; FIG. 端末装置のユーザに提示される推論結果を表す図である。FIG. 10 is a diagram showing an inference result presented to the user of the terminal device; 図2に示す制御部が第1学習済みモデル及び第2学習済みモデルを用いて3次元モデルの異常を検出する際の動作を説明するためのブロック図である。3 is a block diagram for explaining the operation of the control unit shown in FIG. 2 when detecting an abnormality in the three-dimensional model using the first trained model and the second trained model; FIG. 端末装置のユーザに提示される推論結果を表す図である。FIG. 10 is a diagram showing an inference result presented to the user of the terminal device; 端末装置のユーザに提示される推論結果の詳細を表す図である。FIG. 10 is a diagram showing details of an inference result presented to the user of the terminal device;

以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<概略>
本実施形態に係るシステムは、ゲームリソースについての3次元モデルを表すデータについて異常が発生しているか否かを、学習済みモデルを用いて判断する。
<Overview>
The system according to the present embodiment uses the learned model to determine whether or not an abnormality has occurred in the data representing the three-dimensional model of the game resource.

<1 システム全体の構成図>
図1は、システム1の全体構成の例を示すブロック図である。図1に示すシステム1は、複数の端末装置10と、サーバ20とを含む。端末装置10、及びサーバ20は、例えば、ネットワーク80を介して通信接続する。ネットワーク80は、例えば、インターネット、及び/又は通信事業者が提供する通信網等により実現される。ネットワーク80は、接続可能な端末が限定されている構内ネットワークであってもよい。
<1 Configuration diagram of the entire system>
FIG. 1 is a block diagram showing an example of the overall configuration of system 1. As shown in FIG. A system 1 shown in FIG. 1 includes a plurality of terminal devices 10 and a server 20 . The terminal device 10 and the server 20 are connected for communication via a network 80, for example. The network 80 is implemented by, for example, the Internet and/or a communication network provided by a telecommunications carrier. The network 80 may be a private network to which terminals that can be connected are limited.

図1において、システム1が端末装置10を3台ずつ含む例を示しているが、システム1に含まれる端末装置10の数は、3台に限定されない。端末装置10が3台未満であってもよいし、3台以上であってもよい。 FIG. 1 shows an example in which the system 1 includes three terminal devices 10, but the number of terminal devices 10 included in the system 1 is not limited to three. The number of terminal devices 10 may be less than three, or may be three or more.

本実施形態において、複数の装置の集合体を1つのサーバとしてもよい。1つ又は複数のハードウェアに対して本実施形態に係るサーバ20を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又はサーバ20に求められる仕様等に鑑みて適宜決定することができる。 In this embodiment, a set of multiple devices may be used as one server. The method of distributing a plurality of functions required to realize the server 20 according to this embodiment to one or a plurality of pieces of hardware is determined in consideration of the processing capability of each piece of hardware and/or the specifications required for the server 20. can be determined as appropriate.

端末装置10は、例えば、ゲームのデバッガーとしてもユーザが操作する装置である。本実施形態において、ゲームのデバッガーは、例えば、3次元モデルを表すデータにおけるバグの有無を確認する者を表す。ユーザは、端末装置10を操作し、例えば、3次元モデルを表すデータにおいてバグが発生しているか否かを確認する。端末装置10は、据え置き型のPC(Personal Computer)、又はラップトップPC等により実現される。端末装置10は、例えば、スマートフォン、又はタブレット等の携帯端末により実現されてもよい。 The terminal device 10 is, for example, a device operated by a user as a game debugger. In this embodiment, the game debugger represents, for example, someone who checks for bugs in the data representing the three-dimensional model. The user operates the terminal device 10 and confirms, for example, whether or not a bug has occurred in the data representing the three-dimensional model. The terminal device 10 is implemented by a stationary PC (Personal Computer), a laptop PC, or the like. The terminal device 10 may be realized by a mobile terminal such as a smart phone or a tablet, for example.

端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。 The terminal device 10 includes a communication IF (Interface) 12 , an input device 13 , an output device 14 , a memory 15 , a storage 16 and a processor 19 .

通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 12 is an interface for inputting and outputting signals so that the terminal device 10 communicates with an external device.

入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。 The input device 13 is a device (for example, a touch panel, a touch pad, a pointing device such as a mouse, a keyboard, etc.) for receiving an input operation from a user.

出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカ等)である。 The output device 14 is a device (display, speaker, etc.) for presenting information to the user.

メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 The memory 15 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory).

ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。 The storage 16 is for storing data, and is, for example, a flash memory or a HDD (Hard Disc Drive).

プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 19 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

サーバ20は、例えば、端末装置10で使用される学習済みモデルを学習させる、又は再学習させる装置である。また、サーバ20は、例えば、バグを取り除く対象としての、3次元モデルを表すデータを管理する。 The server 20 is, for example, a device that trains or re-learns a trained model used in the terminal device 10 . The server 20 also manages, for example, data representing a three-dimensional model as a target for removing bugs.

サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。 The server 20 includes a communication IF 22 , an input/output IF 23 , a memory 25 , a storage 26 and a processor 29 .

通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 22 is an interface for inputting and outputting signals for the server 20 to communicate with an external device.

入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し、情報を提示するための出力装置とのインタフェースとして機能する。 The input/output IF 23 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user.

メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM等の揮発性のメモリである。 The memory 25 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM.

ストレージ26は、データを保存するためのものであり、例えばフラッシュメモリ、HDDである。 The storage 26 is for storing data, and is, for example, flash memory or HDD.

プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。プロセッサ29は、例えば、CPU(Central Processing Unit)、又はGPU(Graphics Processing Unit)等を含む。 The processor 29 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like. The processor 29 includes, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).

<1.1 端末装置の構成>
図2は、図1に示す端末装置10の構成例を表すブロック図である。図2に示すように、端末装置10は、通信部120と、入力装置13と、出力装置14と、音声処理部17と、マイク171と、スピーカ172と、カメラ160と、記憶部180と、制御部190とを備える。端末装置10に含まれる各ブロックは、例えば、バス等により電気的に接続される。
<1.1 Configuration of terminal device>
FIG. 2 is a block diagram showing a configuration example of the terminal device 10 shown in FIG. As shown in FIG. 2, the terminal device 10 includes a communication unit 120, an input device 13, an output device 14, an audio processing unit 17, a microphone 171, a speaker 172, a camera 160, a storage unit 180, and a control unit 190 . Each block included in the terminal device 10 is electrically connected by, for example, a bus.

通信部120は、端末装置10が他の装置と通信するための変復調処理等の処理を行う。通信部120は、制御部190で生成された信号に送信処理を施し、外部(例えば、サーバ20)へ送信する。通信部120は、外部から受信した信号に受信処理を施し、制御部190へ出力する。 The communication unit 120 performs processing such as modulation/demodulation processing for the terminal device 10 to communicate with other devices. The communication unit 120 performs transmission processing on the signal generated by the control unit 190 and transmits the signal to the outside (for example, the server 20). Communication unit 120 performs reception processing on a signal received from the outside, and outputs the signal to control unit 190 .

入力装置13は、端末装置10を操作するユーザが指示、又は情報を入力するための装置である。入力装置13は、例えば、マウス131、キーボード132、及び、操作面へ触れることで指示が入力されるタッチ・センシティブ・デバイス133等により実現される。入力装置13は、ユーザから入力される指示、又は情報を電気信号へ変換し、電気信号を制御部190へ出力する。なお、入力装置13には、例えば、外部の入力機器から入力される電気信号を受け付ける受信ポートが含まれてもよい。 The input device 13 is a device for a user operating the terminal device 10 to input instructions or information. The input device 13 is realized by, for example, a mouse 131, a keyboard 132, and a touch sensitive device 133 that inputs instructions by touching an operation surface. The input device 13 converts an instruction or information input by a user into an electrical signal and outputs the electrical signal to the control unit 190 . Note that the input device 13 may include, for example, a receiving port for receiving an electrical signal input from an external input device.

出力装置14は、端末装置10を操作するユーザへ情報を提示するための装置である。出力装置14は、例えば、ディスプレイ141等により実現される。ディスプレイ141は、制御部190の制御に応じて、会計処理に関するデータを表示する。ディスプレイ141は、例えば、LCD(Liquid Crystal Display)、又は有機EL(Electro-Luminescence)ディスプレイ等によって実現される。 The output device 14 is a device for presenting information to the user who operates the terminal device 10 . The output device 14 is implemented by, for example, the display 141 or the like. The display 141 displays data regarding accounting processing under the control of the control unit 190 . The display 141 is implemented by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

音声処理部17は、例えば、音声信号のデジタル-アナログ変換処理を行う。音声処理部17は、マイク171から与えられる信号をデジタル信号に変換して、変換後の信号を制御部190へ与える。また、音声処理部17は、音声信号をスピーカ172へ与える。音声処理部17は、例えば音声処理用のプロセッサによって実現される。マイク171は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部17へ与える。スピーカ172は、音声処理部17から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。 The audio processing unit 17 performs digital-analog conversion processing of audio signals, for example. The audio processing unit 17 converts the signal supplied from the microphone 171 into a digital signal and supplies the converted signal to the control unit 190 . Also, the audio processing unit 17 provides an audio signal to the speaker 172 . The audio processing unit 17 is realized by, for example, a processor for audio processing. The microphone 171 receives an audio input and provides an audio signal corresponding to the audio input to the audio processing section 17 . The speaker 172 converts the audio signal given from the audio processing unit 17 into audio and outputs the audio to the outside of the terminal device 10 .

カメラ160は、受光素子により光を受光し、撮影信号として出力するためのデバイスである。 The camera 160 is a device for receiving light with a light receiving element and outputting it as a photographing signal.

記憶部180は、例えば、メモリ15、及びストレージ16等により実現され、端末装置10が使用するデータ、及びプログラムを記憶する。記憶部180は、例えば、第1学習済みモデル181、第2学習済みモデル182、及び3次元モデルデータ183を記憶する。 The storage unit 180 is realized by, for example, the memory 15 and the storage 16, and stores data and programs used by the terminal device 10. FIG. The storage unit 180 stores, for example, a first trained model 181, a second trained model 182, and three-dimensional model data 183.

第1学習済みモデル181、及び第2学習済みモデル182は、モデル学習プログラムに従い、サーバ20で機械学習モデルに機械学習を行わせることで生成されるモデルである。第1学習済みモデル181、及び第2学習済みモデル182は、例えば、入力されるデータに基づき、所定の推論を実施する、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数及びパラメータの組合せにより定義される。本実施形態に係る学習済みモデルは、上記の要請を満たす如何なるパラメータ付き合成関数であってもよい。 The first trained model 181 and the second trained model 182 are models generated by causing the server 20 to perform machine learning on the machine learning model according to the model learning program. The first trained model 181 and the second trained model 182 are, for example, synthetic functions with parameters that are composed of multiple functions that perform predetermined inference based on input data. A parameterized composite function is defined by a combination of multiple adjustable functions and parameters. A trained model according to this embodiment may be any parameterized composite function that satisfies the above requirements.

例えば、第1学習済みモデル181、及び第2学習済みモデル182が順伝播型の多層化ネットワークを用いて生成される場合、パラメータ付き合成関数は、例えば、重み行列を用いた各層間の線形関係、各層における活性化関数を用いた非線形関係(又は線形関係)、及びバイアスの組み合わせとして定義される。重み付行列、及びバイアスは、多層化ネットワークのパラメータと呼ばれる。パラメータ付き合成関数は、パラメータをどのように選ぶかで、関数としての形を変える。多層化ネットワークでは、構成するパラメータを適切に設定することで、出力層から好ましい結果を出力することが可能な関数を定義することができる。 For example, when the first trained model 181 and the second trained model 182 are generated using a forward propagation multi-layered network, the parameterized composite function is, for example, a linear relationship between each layer using a weight matrix , the non-linear relationship (or linear relationship) with the activation function in each layer, and the bias combination. Weighting matrices and biases are called parameters of the multilayered network. A parameterized composite function changes its form as a function depending on how the parameters are chosen. In a multi-layered network, by appropriately setting the constituent parameters, it is possible to define a function capable of outputting favorable results from the output layer.

本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。 As the multi-layered network according to the present embodiment, for example, a deep neural network (DNN), which is a multi-layered neural network targeted for deep learning, can be used. As the DNN, for example, a convolution neural network (CNN) targeting images may be used.

第1学習済みモデル181は、画像が入力されると、画像に異常が含まれているか否かを出力するモデルである。本実施形態では、第1学習済みモデル181は、例えば、画像の異常を以下のクラス(種類)で判断する。なお、以下に示す以外のクラスで判断されてもよい。
・頂点破壊(ポリゴンの頂点座標のノイズ)
・UV破壊(ポリゴンのUV座標のノイズ)
・ドットノイズ
・マテリアル異常(3次元モデルの表面を描画する際のパラメータがポリゴン間で不連続であることによるノイズ)
・ポリゴン欠け
・めり込み
The first trained model 181 is a model that, when an image is input, outputs whether or not the image contains an abnormality. In the present embodiment, the first trained model 181 judges, for example, the following classes (types) of abnormalities in an image. It should be noted that the judgment may be made in classes other than those shown below.
・Vertex destruction (noise of polygon vertex coordinates)
・UV destruction (noise of UV coordinates of polygons)
・Dot noise ・Material abnormality (noise due to discontinuity of parameters between polygons when drawing the surface of a 3D model)
・Polygon missing ・Embedded

第1学習済みモデル181は、画像が入力されると、上記の異常のいずれかを含むかを所定の指標で表すように学習されてもよい。所定の指標は、例えば、以下である。
・所定の最大値に基づく指標値(確率)
・異常の程度を表す記号(ABC、丸、三角、ばつ)
When an image is input, the first trained model 181 may be trained so as to indicate with a predetermined index whether any of the above abnormalities is included. For example, the predetermined index is as follows.
・Index value (probability) based on a predetermined maximum value
・Symbols representing the degree of abnormality (ABC, circle, triangle, cross)

また、第1学習済みモデル181は、画像が入力されると、画像中の着目すべき領域を識別可能に出力するように学習されてもよい。画像中の着目すべき領域とは、例えば、異常が存在する確率が高い領域である。 Also, the first trained model 181 may be trained so that when an image is input, the region of interest in the image can be output in an identifiable manner. A region of interest in an image is, for example, a region in which there is a high probability that an abnormality exists.

第2学習済みモデル182は、1つの3次元モデルについて取得された複数の画像の異常の判断結果が入力されると、3次元モデルを表すデータにバグが含まれているか否かを出力するモデルである。 The second trained model 182 is a model that outputs whether or not the data representing the 3D model contains bugs when judgment results of abnormalities in a plurality of images acquired for one 3D model are input. is.

3次元モデルデータ183は、ゲームリソースとしての複数のキャラクターそれぞれについての3次元モデルを表すデータを記憶している。ゲームリソースとしてのキャラクターは、ゲーム中でのユーザの操作に応じ、任意の方向から表示される可能性がある。そのため、ゲームリソースとしての3次元モデルは、全方位から視認されても異常がないようにしなければならない。 The 3D model data 183 stores data representing a 3D model for each of a plurality of characters as game resources. A character as a game resource may be displayed from any direction according to the user's operation during the game. Therefore, a three-dimensional model as a game resource must be able to be viewed from all directions without anomalies.

3次元モデルを表すデータは、例えば、ポリゴンデータ及びテクスチャデータを含む。3次元モデルを表すデータは、ポリゴンデータ及びテクスチャデータに限定されないが、以下ではポリゴンデータ及びテクスチャデータとして説明する。 Data representing a three-dimensional model includes, for example, polygon data and texture data. Although the data representing the three-dimensional model is not limited to polygon data and texture data, it will be explained as polygon data and texture data below.

制御部190は、プロセッサ19が記憶部180に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部190は、端末装置10の動作を制御する。制御部190は、プログラムに従って動作することにより、操作受付部191と、送受信部192と、画像生成部193と、推論部194と、表示制御部195としての機能を発揮する。 Control unit 190 is implemented by processor 19 reading a program stored in storage unit 180 and executing instructions included in the program. The control unit 190 controls operations of the terminal device 10 . The control unit 190 functions as an operation reception unit 191 , a transmission/reception unit 192 , an image generation unit 193 , an inference unit 194 , and a display control unit 195 by operating according to programs.

操作受付部191は、入力装置13から入力される指示、又は情報を受け付けるための処理を行う。具体的には、例えば、操作受付部191は、マウス131、キーボード132、又はタッチ・センシティブ・デバイス133等から入力される指示に基づく情報を受け付ける。 The operation reception unit 191 performs processing for receiving instructions or information input from the input device 13 . Specifically, for example, the operation reception unit 191 receives information based on instructions input from the mouse 131, keyboard 132, touch-sensitive device 133, or the like.

送受信部192は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。 The transmission/reception unit 192 performs processing for the terminal device 10 to transmit/receive data to/from an external device such as the server 20 according to a communication protocol.

画像生成部193は、3次元モデルから、複数の2次元画像を生成する処理を行う。例えば、画像生成部193は、記憶部180に記憶される1体のキャラクターについてのポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。3次元モデルが複数フレームのポリゴンデータ及びテクスチャデータを含む場合、画像生成部193は、少なくとも1フレームのポリゴンデータ及びテクスチャデータから複数の2次元画像を生成してもよい。 The image generator 193 performs processing for generating a plurality of two-dimensional images from the three-dimensional model. For example, the image generation unit 193 generates two-dimensional images viewed from a plurality of viewpoints based on polygon data and texture data for one character stored in the storage unit 180 . When the three-dimensional model includes multiple frames of polygon data and texture data, the image generator 193 may generate multiple two-dimensional images from at least one frame of polygon data and texture data.

推論部194は、記憶部180に記憶されている第1学習済みモデル181を利用して入力に対する出力を推論する。 The inference unit 194 infers an output for an input using the first trained model 181 stored in the storage unit 180 .

推論部194は、記憶部180に記憶されている第1学習済みモデル181及び第2学習済みモデル182を利用して入力に対する出力を推論してもよい。例えば、推論部194は、第1学習済みモデル181を利用して出力した推論の結果を、第2学習済みモデル182への入力として出力を推論する。 The inference unit 194 may use the first trained model 181 and the second trained model 182 stored in the storage unit 180 to infer the output for the input. For example, the inference unit 194 infers the result of inference output using the first trained model 181 as an input to the second trained model 182 as an output.

表示制御部195は、ユーザに対して推論の結果を提示するため、出力装置14を制御する。具体的には、例えば、表示制御部195は、推論部194で推論された推論結果をディスプレイ141に表示させる。 The display control unit 195 controls the output device 14 to present the inference result to the user. Specifically, for example, the display control unit 195 causes the display 141 to display the inference result inferred by the inference unit 194 .

<1.2 サーバの機能的な構成>
図3は、サーバ20の機能的な構成を示す図である。図3に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
<1.2 Functional Configuration of Server>
FIG. 3 is a diagram showing a functional configuration of the server 20. As shown in FIG. As shown in FIG. 3 , the server 20 functions as a communication section 201 , a storage section 202 and a control section 203 .

通信部201は、サーバ20が外部の装置と通信するための処理を行う。 The communication unit 201 performs processing for the server 20 to communicate with an external device.

記憶部202は、例えば、メモリ25、及びストレージ26等により実現され、サーバ20が使用するデータ、及びプログラムを記憶する。記憶部202は、例えば、第1学習済みモデル2021、第2学習済みモデル2022、及び3次元モデルデータ2023を有する。 The storage unit 202 is realized by, for example, the memory 25 and the storage 26, and stores data and programs used by the server 20. FIG. The storage unit 202 has a first trained model 2021, a second trained model 2022, and three-dimensional model data 2023, for example.

第1学習済みモデル2021、及び第2学習済みモデル2022は、サーバ20でトレーニングされたもの、又はサーバ20で再トレーニングされたものである。第1学習済みモデル2021が更新されると、更新された第1学習済みモデル2021は、端末装置10へ提供される。第2学習済みモデル2022が更新されると、更新された第2学習済みモデル2022は、端末装置10へ提供される。 The first trained model 2021 and the second trained model 2022 have been trained on the server 20 or retrained on the server 20 . When the first trained model 2021 is updated, the updated first trained model 2021 is provided to the terminal device 10 . When the second trained model 2022 is updated, the updated second trained model 2022 is provided to the terminal device 10 .

第1学習済みモデル2021、又は第2学習済みモデル2022は、外部の装置でトレーニングされ、サーバ20に提供されてもよい。 The first trained model 2021 or the second trained model 2022 may be trained by an external device and provided to the server 20 .

3次元モデルデータ2023は、ゲームリソースとしての複数のキャラクターそれぞれについてのポリゴンデータ及びテクスチャデータを記憶している。3次元モデルデータ2023が更新されると、更新された3次元モデルデータ2023は、端末装置10へ提供される。 The 3D model data 2023 stores polygon data and texture data for each of a plurality of characters as game resources. When the 3D model data 2023 is updated, the updated 3D model data 2023 is provided to the terminal device 10 .

制御部203は、プロセッサ29が記憶部202に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部203は、プログラムに従って動作することにより、受信制御モジュール2031、送信制御モジュール2032、画像生成モジュール2033、加工モジュール2034、学習モジュール2035、及び推論モジュール2036として示す機能を発揮する。 The control unit 203 is implemented by the processor 29 reading a program stored in the storage unit 202 and executing instructions included in the program. The control unit 203 operates according to a program to exhibit functions shown as a reception control module 2031, a transmission control module 2032, an image generation module 2033, a processing module 2034, a learning module 2035, and an inference module 2036.

受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。 The reception control module 2031 controls processing for the server 20 to receive a signal from an external device according to a communication protocol.

送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。 The transmission control module 2032 controls the processing by which the server 20 transmits signals to external devices according to a communication protocol.

画像生成モジュール2033は、3次元モデルから、複数の2次元画像を生成する処理を行う。例えば、画像生成モジュール2033は、記憶部202に記憶される1体のキャラクターについてのポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。また、例えば、画像生成モジュール2033は、加工モジュール2034で加工された3次元モデルについてのポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。3次元モデルが複数フレームのポリゴンデータ及びテクスチャデータを含む場合、画像生成モジュール2033は、各フレームのポリゴンデータ及びテクスチャデータから複数の2次元画像を生成してもよい。 The image generation module 2033 performs processing for generating a plurality of two-dimensional images from the three-dimensional model. For example, the image generation module 2033 generates two-dimensional images viewed from multiple viewpoints based on polygon data and texture data for one character stored in the storage unit 202 . Also, for example, the image generation module 2033 generates two-dimensional images viewed from a plurality of viewpoints based on the polygon data and texture data of the three-dimensional model processed by the processing module 2034 . If the three-dimensional model includes multiple frames of polygon data and texture data, the image generation module 2033 may generate multiple two-dimensional images from each frame of polygon data and texture data.

加工モジュール2034は、3次元モデルを加工する処理を行う。例えば、加工モジュール2034は、記憶部202に記憶されるポリゴンデータ又はテクスチャデータを以下のように加工する。
・ポリゴンの各頂点座標に確率的にノイズベクトルを加える。
・ポリゴンの各UV座標に確率的にノイズベクトルを加える。
・テクスチャにドットノイズを加える。
・3次元モデルの表面を描画する際のパラメータの少なくとも1つを、ランダムなポリゴンで変更する。
・ランダムにポリゴンを欠けさせる。
・所定の領域(関節)を連続的にずらし、めり込み(突き抜け)を発生させる。
The processing module 2034 performs processing for processing the three-dimensional model. For example, the processing module 2034 processes polygon data or texture data stored in the storage unit 202 as follows.
・Probabilistically add a noise vector to each vertex coordinate of a polygon.
Add a noise vector probabilistically to each UV coordinate of the polygon.
・Add dot noise to the texture.
- At least one of the parameters for rendering the surface of the 3D model is changed with random polygons.
・Make polygons disappear at random.
・The predetermined area (joint) is continuously displaced to generate penetration (penetration).

学習モジュール2035は、学習用データに基づき、機械学習モデルに機械学習を行わせることで第1学習済みモデル2021、又は第2学習済みモデル2022を生成する。 The learning module 2035 generates the first trained model 2021 or the second trained model 2022 by causing the machine learning model to perform machine learning based on the learning data.

具体的には、例えば、学習モジュール2035は、記憶部202に記憶されている3次元モデルから生成された2次元画像を入力データとし、この2次元画像が正常であることを正解出力データとして機械学習モデルを学習させる。また、学習モジュール2035は、加工モジュール2034で加工された3次元モデルから生成された2次元画像を入力データとし、3次元モデルの加工により与えられた異常に関する情報を正解出力データとして機械学習モデルを学習させることで、第1学習済みモデル2021を生成する。3次元モデルの加工により与えられた異常に関する情報には、例えば、3次元モデルへの異常の与え方(異常のクラス)、与えられた異常の位置等を含む。 Specifically, for example, the learning module 2035 uses a two-dimensional image generated from a three-dimensional model stored in the storage unit 202 as input data, and uses correct output data indicating that the two-dimensional image is normal. Train a learning model. In addition, the learning module 2035 uses the two-dimensional image generated from the three-dimensional model processed by the processing module 2034 as input data, and the information about the abnormality given by the processing of the three-dimensional model as correct output data to create a machine learning model. By learning, the first trained model 2021 is generated. The information about the abnormality given by processing the three-dimensional model includes, for example, how to give the three-dimensional model an abnormality (abnormality class), the position of the given abnormality, and the like.

また、例えば、学習モジュール2035は、第1学習済みモデル2021を用いた推論の結果を入力データとし、3次元モデルが正常であること、又は3次元モデルの加工により与えられた異常に関する情報を正解出力データとして機械学習モデルを学習させることで、第2学習済みモデル2022を生成する。 Also, for example, the learning module 2035 uses the result of inference using the first trained model 2021 as input data, and corrects information about whether the 3D model is normal or abnormal given by processing the 3D model. A second trained model 2022 is generated by learning the machine learning model as output data.

学習モジュール2035は、記憶部202に記憶されている3次元モデルから生成された複数の2次元画像を入力データとし、これらの2次元画像の元となる3次元モデルが正常であることを正解出力データとして機械学習モデルを学習させてもよい。このとき、学習モジュール2035は、加工モジュール2034で加工された3次元モデルから生成された複数の2次元画像と、与えられた加工及び加工の位置とを入力データとし、これらの2次元画像の元となる3次元モデルへ与えられた加工及び加工の位置を正解出力データとして機械学習モデルを学習させることで、第2学習済みモデル2022を生成する。 The learning module 2035 receives a plurality of two-dimensional images generated from the three-dimensional model stored in the storage unit 202 as input data, and outputs a correct answer indicating that the three-dimensional model on which these two-dimensional images are based is normal. A machine learning model may be trained as data. At this time, the learning module 2035 uses, as input data, a plurality of two-dimensional images generated from the three-dimensional model processed by the processing module 2034 and given processing and processing positions, and the originals of these two-dimensional images. A second trained model 2022 is generated by making the machine learning model learn the processing and the position of the processing given to the three-dimensional model as the correct output data.

また、学習モジュール2035は、新たに追加される学習用データに基づき、第1学習済みモデル2021、又は第2学習済みモデル2022を再学習させる。具体的には、例えば、学習モジュール2035は、以下の場合に、第1学習済みモデル2021、又は第2学習済みモデル2022を再学習させる。
・新たなキャラクターが追加された場合
・新たなクラスのエラーが定義された場合
Also, the learning module 2035 re-learns the first trained model 2021 or the second trained model 2022 based on newly added learning data. Specifically, for example, the learning module 2035 re-learns the first trained model 2021 or the second trained model 2022 in the following cases.
・When a new character is added ・When a new class of error is defined

推論モジュール2036は、記憶部202に記憶されている第1学習済みモデル2021を利用して入力に対する出力を推論する。推論モジュール2036の出力は、第2学習済みモデル2022の学習における入力データとして用いられる。 The inference module 2036 uses the first trained model 2021 stored in the storage unit 202 to infer the output for the input. The output of inference module 2036 is used as input data in training the second trained model 2022 .

<2 動作>
(第1学習済みモデル2021の生成)
サーバ20で第1学習済みモデル2021が生成される際の制御部203の動作を説明する。
<2 Operation>
(Generation of first trained model 2021)
The operation of the control unit 203 when the server 20 generates the first trained model 2021 will be described.

図4は、図3に示す制御部203が第1学習済みモデル2021を生成する際の動作を説明するためのブロック図である。 FIG. 4 is a block diagram for explaining the operation when the control unit 203 shown in FIG. 3 generates the first trained model 2021. As shown in FIG.

制御部203は、記憶部202に記憶される1体のキャラクターについてのポリゴンデータ及びテクスチャデータを読み出す。制御部203は、加工モジュール2034により、読み出したポリゴンデータ又はテクスチャデータを加工する。加工モジュール2034は、例えば、読み出したポリゴンデータ又はテクスチャデータに対し、各加工を施す。 The control unit 203 reads polygon data and texture data for one character stored in the storage unit 202 . The control unit 203 uses the processing module 2034 to process the read polygon data or texture data. The processing module 2034 performs processing on, for example, read polygon data or texture data.

制御部203は、画像生成モジュール2033により、加工モジュール2034で加工されたポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。画像生成モジュール2033は、例えば、加工が施された各ポリゴンデータ及びテクスチャデータに基づき、複数の2次元画像を生成する。 The control unit 203 uses the image generation module 2033 to generate two-dimensional images viewed from a plurality of viewpoints based on the polygon data and texture data processed by the processing module 2034 . The image generation module 2033 generates a plurality of two-dimensional images, for example, based on each processed polygon data and texture data.

制御部203は、学習モジュール2035により、機械学習モデルに機械学習を行わせることで第1学習済みモデル2021を生成する。機械学習のアルゴリズムとして、判別分析、ロジスティック回帰、サポートベクターマシン、ニューラルネットワーク、Randomized Trees、又は部分空間法等が挙げられる。 The control unit 203 causes the machine learning model to perform machine learning using the learning module 2035 to generate the first trained model 2021 . Machine learning algorithms include discriminant analysis, logistic regression, support vector machines, neural networks, randomized trees, subspace methods, and the like.

学習モジュール2035は、例えば、画像生成モジュール2033により生成された2次元画像を入力データとし、入力される2次元画像における異常のクラス、及び異常の位置等を正解出力データとして機械学習モデルを学習させる。 The learning module 2035 uses, for example, the two-dimensional image generated by the image generation module 2033 as input data, and learns a machine learning model using the abnormal class, the abnormal position, etc. in the input two-dimensional image as correct output data. .

具体的には、学習モジュール2035は、ポリゴンの頂点座標にノイズベクトルが加えられた3次元モデルについての2次元画像を入力データとし、異常のクラスが「頂点破壊」であること、及びノイズの位置を正解出力データとして機械学習モデルを学習させる。 Specifically, the learning module 2035 uses as input data a two-dimensional image of a three-dimensional model in which a noise vector is added to the vertex coordinates of polygons, and determines that the abnormality class is “vertex destruction” and that the noise position is used as the correct output data to train the machine learning model.

また、学習モジュール2035は、ポリゴンのUV座標にノイズベクトルが加えられた3次元モデルについての2次元画像を入力データとし、異常のクラスが「UV破壊」であること、及びノイズの位置を正解出力データとして機械学習モデルを学習させる。 In addition, the learning module 2035 uses as input data a two-dimensional image of a three-dimensional model in which a noise vector is added to the UV coordinates of polygons, and outputs the correct answer that the abnormality class is "UV destruction" and the position of the noise. Train a machine learning model as data.

また、学習モジュール2035は、テクスチャにドットノイズが加えられた3次元モデルについての2次元画像を入力データとし、異常のクラスが「ドットノイズ」であること、及びドットノイズの位置を正解出力データとして機械学習モデルを学習させる。 In addition, the learning module 2035 uses a two-dimensional image of a three-dimensional model with dot noise added to the texture as input data, and the abnormality class is "dot noise" and the position of the dot noise as correct output data. Train a machine learning model.

また、学習モジュール2035は、3次元モデルの表面を描画する際のパラメータの少なくとも1つが、ランダムなポリゴンで変更された3次元モデルについての2次元画像を入力データとし、異常のクラスが「マテリアル異常」であること、及びマテリアル異常の位置を正解出力データとして機械学習モデルを学習させる。 In addition, the learning module 2035 uses as input data a two-dimensional image of a three-dimensional model in which at least one of the parameters for drawing the surface of the three-dimensional model is changed with random polygons, and the abnormality class is "material abnormality". and the position of the material anomaly are used as correct output data to learn a machine learning model.

また、学習モジュール2035は、所定のポリゴンで3次元モデルの表面を描画する際のパラメータの少なくとも1つが変更された3次元モデルについての2次元画像を入力データとし、異常のクラスが「マテリアル異常」であること、及びマテリアル異常の位置を正解出力データとして機械学習モデルを学習させる。 In addition, the learning module 2035 uses as input data a two-dimensional image of a three-dimensional model in which at least one of the parameters for drawing the surface of the three-dimensional model with predetermined polygons has been changed, and the abnormality class is "material abnormality". and the position of the material anomaly are used as correct output data to learn a machine learning model.

また、学習モジュール2035は、ポリゴンが欠けさせられた3次元モデルについての2次元画像を入力データとし、異常のクラスが「ポリゴン欠け」であること、及び欠けているポリゴンの位置を正解出力データとして機械学習モデルを学習させる。 In addition, the learning module 2035 uses a two-dimensional image of a three-dimensional model with missing polygons as input data, the abnormality class being "missing polygons", and the position of the missing polygons as correct output data. Train a machine learning model.

また、学習モジュール2035は、めり込みを発生させた3次元モデルについての2次元画像を入力データとし、異常のクラスが「めり込み」であること、及びめり込みが発生している位置を正解出力データとして機械学習モデルを学習させる。 In addition, the learning module 2035 uses as input data a two-dimensional image of the three-dimensional model in which the embedding occurs, and the abnormality class is "embedding" and the position where the embedding occurs as correct output data. Train a learning model.

制御部203は、画像生成モジュール2033により、読み出したポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。 The control unit 203 uses the image generation module 2033 to generate two-dimensional images viewed from a plurality of viewpoints based on the read polygon data and texture data.

制御部203は、学習モジュール2035により、例えば、加工を加えていない3次元モデルに基づいて生成された2次元画像を入力データとし、入力される2次元画像が正常であることを正解出力データとして第1学習済みモデル2021を生成する。 The control unit 203 uses the learning module 2035 as input data, for example, a two-dimensional image generated based on an unprocessed three-dimensional model, and determines that the input two-dimensional image is normal as correct output data. A first trained model 2021 is generated.

制御部203は、上記処理を、例えば、記憶部202に記憶されている所定のキャラクターについて繰り返すことで、第1学習済みモデル2021を学習させる。所定のキャラクターとは、例えば、以下である。
・すべてのキャラクター
・管理者が選択したキャラクター
・人に関するキャラクター
・クリーチャーに関するキャラクター
・新たにデザインされたキャラクター(更新日が所定の日以降のキャラクター)
クリーチャーに関するキャラクターについては、例えば、以下の態様がある。
・二足歩行のクリーチャー
・四足歩行のクリーチャー
・飛行するクリーチャー
・節足動物を模したクリーチャー
・四肢のないクリーチャー
制御部203は、上記処理を、例えば、クリーチャーに関するキャラクターの態様毎、又は所定の組み合わせについて繰り返すことで、第1学習済みモデル2021を学習させてもよい。
The control unit 203 makes the first trained model 2021 learn by repeating the above process for, for example, a predetermined character stored in the storage unit 202 . Predetermined characters are, for example, the following.
・All characters ・Characters selected by the administrator ・Characters related to people ・Characters related to creatures ・Newly designed characters (characters updated on or after a certain date)
For characters related to creatures, there are, for example, the following aspects.
・Bipedal creature ・Quadruped creature ・Flying creature ・Creature imitating an arthropod ・Creature without limbs The first trained model 2021 may be trained by repeating the combinations.

以上のように上記実施形態では、制御部203は、加工モジュール2034により、ゲームリソースについての3次元モデルデータが予め設定した種類の異常を含むように、複数のキャラクターの3次元モデルデータを加工する。制御部203は、画像生成モジュール2033により、加工した3次元モデルデータに基づき、2次元画像を生成する。そして、制御部203は、学習モジュール2035により、生成した2次元画像を入力とし、加工により与えた異常の種類を正解出力として第1学習済みモデル2021をトレーニングするようにしている。これにより、第1学習済みモデル2021をトレーニングするための学習用データを自動で作成することが可能となる。このため、第1学習済みモデル2021の学習用データを作成するのに、異常が発見された3次元モデルを記憶しておく必要がなくなる。また、第1学習済みモデル2021を生成しようとしても、様々なエラー状況が発生した3次元モデルを準備することは容易ではなく、実際の3次元モデルのみでは、データの数が少ない場合も生じ得る。本実施形態では、第1学習済みモデル2021をトレーニングするためのデータを自動で作成するため、トレーニングに十分なデータを取得することが可能となる。 As described above, in the above-described embodiment, the control unit 203 uses the processing module 2034 to process the 3D model data of a plurality of characters so that the 3D model data of game resources includes a preset type of abnormality. . The control unit 203 uses the image generation module 2033 to generate a two-dimensional image based on the processed three-dimensional model data. The control unit 203 receives the generated two-dimensional image by the learning module 2035, and trains the first trained model 2021 with the type of abnormality given by processing as the correct output. This makes it possible to automatically create learning data for training the first trained model 2021 . For this reason, it is not necessary to store the three-dimensional model in which an abnormality has been found to create learning data for the first trained model 2021 . In addition, even when trying to generate the first trained model 2021, it is not easy to prepare a 3D model in which various error situations have occurred, and there may be cases where the number of data is small with only the actual 3D model. . In this embodiment, the data for training the first trained model 2021 is automatically created, so it is possible to obtain sufficient data for training.

また、上記実施形態では、制御部203は、学習モジュール2035により、いろいろなタイプのキャラクターの3次元モデルデータを学習用データとして第1学習済みモデル2021を学習させるようにしている。これにより、第1学習済みモデル2021を用いることで、学習されていないキャラクターについての3次元モデルデータについても、3次元モデルデータの異常を高精度に検出可能となる。 In the above embodiment, the control unit 203 causes the learning module 2035 to learn the first trained model 2021 using three-dimensional model data of various types of characters as learning data. As a result, using the first trained model 2021 makes it possible to detect, with high accuracy, anomalies in the three-dimensional model data of characters that have not been trained.

また、上記実施形態では、制御部203は、加工モジュール2034により、3次元モデルに、頂点破壊、UV破壊、ドットノイズ、マテリアル異常、ポリゴン欠け、又はめり込み等の種類の異常を付与するようにしている。これにより、現実に発生し得る異常を含む学習用データを自動で作成することが可能となる。 In the above-described embodiment, the control unit 203 uses the processing module 2034 to add types of abnormalities such as vertex destruction, UV destruction, dot noise, material abnormalities, polygon missing, or embedding to the three-dimensional model. there is This makes it possible to automatically create learning data including anomalies that can actually occur.

また、上記実施形態では、制御部203は、学習モジュール2035により、加工により異常を与えた位置を正解出力として第1学習済みモデル2021をトレーニングするようにしている。これにより、第1学習済みモデル2021の出力として、異常が発生している可能性のある領域が出力されるようになる。 Further, in the above embodiment, the control unit 203 uses the learning module 2035 to train the first trained model 2021 by using the position where the abnormality is given by processing as the correct output. As a result, an area in which an abnormality may occur is output as the output of the first trained model 2021 .

したがって、本実施形態に係るサーバ20によれば、ゲームリソースに関するテストに係る負担を軽減できる。 Therefore, according to the server 20 according to the present embodiment, it is possible to reduce the burden of testing the game resources.

(第2学習済みモデル2022の生成)
サーバ20で第1学習済みモデル2021が生成される際の制御部203の動作を説明する。
(Generation of second trained model 2022)
The operation of the control unit 203 when the server 20 generates the first trained model 2021 will be described.

図5は、図3に示す制御部203が第2学習済みモデル2022を生成する際の動作を説明するためのブロック図である。 FIG. 5 is a block diagram for explaining the operation when the control unit 203 shown in FIG. 3 generates the second trained model 2022. As shown in FIG.

制御部203は、記憶部202に記憶される1体のキャラクターについてのポリゴンデータ及びテクスチャデータを読み出す。制御部203は、加工モジュール2034により、読み出したポリゴンデータ又はテクスチャデータを加工する。 The control unit 203 reads polygon data and texture data for one character stored in the storage unit 202 . The control unit 203 uses the processing module 2034 to process the read polygon data or texture data.

制御部203は、画像生成モジュール2033により、加工モジュール2034で加工されたポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。 The control unit 203 uses the image generation module 2033 to generate two-dimensional images viewed from a plurality of viewpoints based on the polygon data and texture data processed by the processing module 2034 .

制御部203は、推論モジュール2036により、記憶部202に記憶されている第1学習済みモデル2021を利用して入力に対する出力を推論する。具体的には、例えば、推論モジュール2036は、画像生成モジュール2033で生成された2次元画像を、第1学習済みモデル2021へ入力し、異常のクラス、及び異常の位置を出力させる。 The control unit 203 uses the inference module 2036 to use the first trained model 2021 stored in the storage unit 202 to infer the output for the input. Specifically, for example, the inference module 2036 inputs the two-dimensional image generated by the image generation module 2033 to the first trained model 2021 and outputs the abnormal class and abnormal position.

制御部203は、学習モジュール2035により、機械学習モデルに機械学習を行わせることで第2学習済みモデル2022を生成する。学習モジュール2035は、例えば、推論モジュール2036により推論された、1つの3次元モデルについての複数の2次元画像の推論結果を入力データとし、3次元モデルに与えられた加工のクラス、及び加工の位置等を正解出力データとして機械学習モデルを学習させる。 The control unit 203 causes the machine learning model to perform machine learning using the learning module 2035 to generate the second trained model 2022 . The learning module 2035 uses, as input data, inference results of a plurality of two-dimensional images for one three-dimensional model inferred by the inference module 2036, and the processing class and processing position given to the three-dimensional model. etc. are used as correct output data to train a machine learning model.

制御部203は、画像生成モジュール2033により、読み出したポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。 The control unit 203 uses the image generation module 2033 to generate two-dimensional images viewed from a plurality of viewpoints based on the read polygon data and texture data.

制御部203は、推論モジュール2036により、記憶部202に記憶されている第1学習済みモデル2021を利用して入力に対する出力を推論する。具体的には、例えば、推論モジュール2036は、画像生成モジュール2033で生成された、加工が施されていない3次元モデルについての2次元画像を、第1学習済みモデル2021へ入力し、2次元画像についての推論結果を出力させる。 The control unit 203 uses the inference module 2036 to use the first trained model 2021 stored in the storage unit 202 to infer the output for the input. Specifically, for example, the inference module 2036 inputs the two-dimensional image of the unprocessed three-dimensional model generated by the image generation module 2033 to the first trained model 2021, and the two-dimensional image output the inference result about

制御部203は、学習モジュール2035により、例えば、推論モジュール2036により推論された、加工が施されていない3次元モデルについての複数の2次元画像の推論結果を入力データとし、3次元モデルが正常であることを正解出力データとして機械学習モデルを学習させる。 The control unit 203 uses, as input data, inference results of a plurality of two-dimensional images of an unprocessed three-dimensional model inferred by the inference module 2036 by the learning module 2035, and determines whether the three-dimensional model is normal. A machine learning model is trained by using a certain thing as correct output data.

制御部203は、上記処理を、例えば、記憶部202に記憶されている所定のキャラクターについて繰り返すことで、第2学習済みモデル2022を学習させる。 The control unit 203 repeats the above process for, for example, a predetermined character stored in the storage unit 202 to learn the second trained model 2022 .

以上のように上記実施形態では、制御部203は、学習モジュール2035により、複数の2次元画像を入力とした第1学習済みモデル2021からの出力を入力とし、加工により与えた異常の種類を正解出力として第2学習済みモデル2022をトレーニングするようにしている。1枚1枚の画像の認識では、画像に異常が含まれていなくても、光の当たり方、又はフレームによっては人間でも異常を誤認することがある。このような、人間でも誤認するような学習用データがAIの見かけ上の性能を下げるおそれがある。複数の2次元画像と、2次元画像の異常についての情報とを入力データとすることで、3次元モデルにおける異常の有無を総合的に判断することが可能となる。これにより、サーバ20は、3次元モデルにおける異常の有無の検出精度を向上させることが可能となる。 As described above, in the above-described embodiment, the control unit 203 uses the learning module 2035 to input the output from the first trained model 2021 that receives a plurality of two-dimensional images, and corrects the type of abnormality given by processing. We are trying to train the second trained model 2022 as an output. When recognizing images one by one, even if the image does not contain an abnormality, even a human may misidentify an abnormality depending on how the light hits the image or the frame. Such learning data that even humans misidentify may reduce the apparent performance of AI. By using a plurality of two-dimensional images and information about anomalies in the two-dimensional images as input data, it is possible to comprehensively determine the presence or absence of anomalies in the three-dimensional model. As a result, the server 20 can improve the accuracy of detecting the presence or absence of an abnormality in the three-dimensional model.

また、上記実施形態では、制御部203は、学習モジュール2035により、いろいろなタイプのキャラクターの3次元モデルデータを学習用データとして第1学習済みモデル2021及び第2学習済みモデル2022を学習させるようにしている。これにより、第1学習済みモデル2021及び第2学習済みモデル2022を用いることで、学習されていないキャラクターについての3次元モデルデータについても、3次元モデルデータの異常を高精度に検出可能となる。 In the above-described embodiment, the control unit 203 causes the learning module 2035 to learn the first trained model 2021 and the second trained model 2022 using three-dimensional model data of various types of characters as learning data. ing. As a result, by using the first trained model 2021 and the second trained model 2022, it is possible to detect, with high accuracy, an abnormality in the 3D model data of a character that has not been trained.

したがって、本実施形態に係るサーバ20によれば、ゲームリソースに関するテストに係る負担を軽減できる。 Therefore, according to the server 20 according to the present embodiment, it is possible to reduce the burden of testing the game resources.

(端末装置10における推論処理1)
端末装置10で推論処理が実施される際の制御部190の動作を説明する。
(Inference processing 1 in terminal device 10)
The operation of the control unit 190 when the inference processing is performed in the terminal device 10 will be described.

図6は、図2に示す制御部190が第1学習済みモデル181を用いて3次元モデルの異常を検出する際の動作を説明するためのブロック図である。 FIG. 6 is a block diagram for explaining the operation when the control unit 190 shown in FIG. 2 uses the first trained model 181 to detect an abnormality in the three-dimensional model.

制御部190は、記憶部180に記憶される1体のキャラクターについてのポリゴンデータ及びテクスチャデータを読み出す。このとき読み出されるポリゴンデータ及びテクスチャデータのキャラクターは、第1学習済みモデル181の学習において用いられたキャラクターであってもよいし、第1学習済みモデル181の学習において用いられたキャラクターと異なるキャラクターであってもよい。制御部190は、画像生成部193により、読み出したポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。3次元モデルが複数フレームのポリゴンデータ及びテクスチャデータを含む場合、画像生成部193は、少なくとも1フレームのポリゴンデータ及びテクスチャデータから複数の2次元画像を生成してもよい。 The control unit 190 reads polygon data and texture data for one character stored in the storage unit 180 . The characters of the polygon data and texture data read out at this time may be the characters used in the learning of the first trained model 181, or may be characters different from the characters used in the learning of the first trained model 181. There may be. The control unit 190 uses the image generation unit 193 to generate two-dimensional images viewed from a plurality of viewpoints based on the read polygon data and texture data. When the three-dimensional model includes multiple frames of polygon data and texture data, the image generator 193 may generate multiple two-dimensional images from at least one frame of polygon data and texture data.

制御部190は、推論部194により、記憶部180に記憶されている第1学習済みモデル181を利用し、入力に対する出力を推論する。具体的には、例えば、推論部194は、第1学習済みモデル181により実現される第1異常判定部1941に、画像生成部193で生成された2次元画像を入力する。第1異常判定部1941は、入力された2次元画像に異常が含まれているか否かを表す推論結果を出力する。例えば、第1異常判定部1941は、2次元画像が、正常、頂点破壊、UV破壊、ドットノイズ、マテリアル異常、ポリゴン欠け、又はめり込みのクラスに該当する可能性を表す指標値、及び着目すべき領域を出力する。 The control unit 190 uses the first trained model 181 stored in the storage unit 180 by the inference unit 194 to infer the output for the input. Specifically, for example, the inference unit 194 inputs the two-dimensional image generated by the image generation unit 193 to the first abnormality determination unit 1941 realized by the first trained model 181 . The first abnormality determination unit 1941 outputs an inference result indicating whether or not the input two-dimensional image contains an abnormality. For example, the first abnormality determination unit 1941 determines an index value representing the possibility that the two-dimensional image corresponds to the normal, vertex destruction, UV destruction, dot noise, material abnormality, polygon missing, or embedded classes, and Output the region.

制御部190は、例えば、ユーザにより指定されたキャラクターの3次元モデルについて上記処理を繰り返す。 For example, the control unit 190 repeats the above process for the three-dimensional model of the character designated by the user.

制御部190は、ユーザにより指定されたキャラクターの3次元モデルについての推論部194から推論結果が出力されると、表示制御部195により、ユーザへ推論結果を提示する。 When the inference result of the three-dimensional model of the character designated by the user is output from the inference unit 194, the control unit 190 presents the inference result to the user through the display control unit 195. FIG.

図7は、端末装置10のユーザに提示される推論結果の一例を表す模式図である。図7において、ディスプレイ141は、アラートリスト1411と、検証履歴リスト1412とを含む。アラートリスト1411は、異常を含む可能性が高い2次元画像が提示される。ディスプレイ141は、例えば、出力された指標値が予め設定された閾値よりも高い2次元画像を、アラートリスト1411に追加する。アラートリスト1411は、例えば、項目「実施日付」と、項目「ファイル名」と、項目「画像番号」と、項目「スコアサマリ」と、項目「サムネイル」とを含む。 FIG. 7 is a schematic diagram showing an example of an inference result presented to the user of the terminal device 10. As shown in FIG. In FIG. 7, display 141 includes alert list 1411 and verification history list 1412 . The alert list 1411 presents two-dimensional images that are highly likely to contain anomalies. The display 141 adds to the alert list 1411, for example, a two-dimensional image whose output index value is higher than a preset threshold. The alert list 1411 includes, for example, the item "implementation date", the item "file name", the item "image number", the item "score summary", and the item "thumbnail".

項目「実施日付」は、検証を実施した日付を表す。 The item "implementation date" represents the date on which the verification was implemented.

項目「ファイル名」は、検証が実施された3次元モデルのファイル名を表す。 The item "file name" represents the file name of the verified three-dimensional model.

項目「画像番号」は、3次元モデルについて生成された画像の識別番号を表す。 The item "image number" represents the identification number of the image generated for the three-dimensional model.

項目「スコアサマリ」は、2次元画像に対して出力された推論結果のサマリを表す。例えば、表示制御部195は、推論部194により出力されたクラスのうち、該当する可能性が最も高いクラスを項目「スコアサマリ」に表示する。例えば、表示制御部195は、推論部194により出力されたクラスのうち、指標値が最も高いクラスを項目「スコアサマリ」に表示する。 The item "score summary" represents a summary of the inference results output for the two-dimensional image. For example, the display control unit 195 displays, among the classes output by the inference unit 194, the class with the highest probability of being applicable in the item “score summary”. For example, the display control unit 195 displays the class with the highest index value among the classes output by the inference unit 194 in the item “score summary”.

項目「サムネイル」は、入力した2次元画像のサムネイルを表す。例えば、図7の四角で示される領域に、入力した2次元画像のサムネイル画像が表示される。表示制御部195は、ユーザによりサムネイル画像が押下されると、画像中の着目するべき領域をユーザに提示する。 The item "thumbnail" represents the thumbnail of the input two-dimensional image. For example, a thumbnail image of the input two-dimensional image is displayed in the area indicated by the square in FIG. When the user presses a thumbnail image, the display control unit 195 presents the user with an area of interest in the image.

検証履歴リスト1412は、検証対象となった2次元画像が提示される。検証履歴リスト1412は、例えば、項目「実施日付」と、項目「ファイル名」と、項目「画像番号」と、項目「スコアサマリ」と、項目「サムネイル」とを含む。 A verification history list 1412 presents two-dimensional images that are verification targets. The verification history list 1412 includes, for example, the item “implementation date”, the item “file name”, the item “image number”, the item “score summary”, and the item “thumbnail”.

ユーザは、ディスプレイ141に表示される推論結果を参照し、3次元モデルにおける異常を判断する。 The user refers to the inference result displayed on the display 141 and judges an abnormality in the three-dimensional model.

制御部190は、推論結果を他の端末装置10へ送信してもよい。また、制御部190は、推論結果そのものでなく、推論が完了した旨を他の端末装置10へ送信してもよい。 The control unit 190 may transmit the inference result to another terminal device 10 . Also, the control unit 190 may transmit to the other terminal device 10 the fact that the inference has been completed instead of the inference result itself.

以上のように、上記実施形態では、制御部190は、画像生成部193により、ゲームリソースについての1の3次元モデルデータに基づき、複数の2次元画像を生成する。制御部190は、推論部194により、2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデル181に、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するようにしている。これにより、端末装置10は、ゲームリソースとしての3次元モデルデータにおける異常の有無を検出することが可能となる。 As described above, in the above embodiment, the control unit 190 causes the image generation unit 193 to generate a plurality of two-dimensional images based on one piece of three-dimensional model data for the game resource. The control unit 190 uses the inference unit 194 to input a two-dimensional image, and to the first trained model 181 that has been trained using information regarding the presence or absence of an abnormality in the input two-dimensional image as a correct output. By inputting each two-dimensional image, it is determined whether or not there is an abnormality in each two-dimensional image. This enables the terminal device 10 to detect the presence or absence of an abnormality in the 3D model data as game resources.

また、ゲームリソースについての1の3次元モデルデータは、第1学習済みモデル181の学習の際に利用された3次元モデルデータと異なるものであってもよい。このため、新たなキャラクターについての3次元モデルデータにおける異常(バグ)の有無を、第1学習済みモデル181を用いて検出することが可能となる。 Also, one piece of 3D model data for a game resource may be different from the 3D model data used for learning the first trained model 181 . Therefore, it becomes possible to detect the presence or absence of an abnormality (bug) in the three-dimensional model data of the new character using the first trained model 181 .

したがって、本実施形態に係る端末装置10によれば、ゲームリソースに関するテストに係る負担を軽減できる。 Therefore, according to the terminal device 10 according to the present embodiment, it is possible to reduce the burden of testing for game resources.

また、上記実施形態では、制御部190は、推論部194において、第1学習済みモデル181に、入力された2次元画像に含まれる異常の種類を表す情報を出力させるようにしている。これにより、ユーザは、異常の確認をすることが容易となる。 In the above embodiment, the control unit 190 causes the inference unit 194 to output information representing the type of abnormality included in the input two-dimensional image to the first trained model 181 . This makes it easier for the user to confirm the abnormality.

また、上記実施形態では、制御部190は、推論部194において、第1学習済みモデル181に、入力された2次元画像に含まれる異常の種類と、当該種類の異常である可能性を表す指標とを出力させるようにしている。これにより、ユーザは、異常の確認をすることがさらに容易となる。 In the above embodiment, the control unit 190 causes the inference unit 194 to store the type of anomaly included in the input two-dimensional image in the first trained model 181 and an index indicating the possibility of the type of anomaly. and is output. This makes it easier for the user to confirm the abnormality.

また、上記実施形態では、制御部190は、推論部194において、第1学習済みモデル181に、入力された2次元画像において着目するべき領域を出力させるようにしている。これにより、ユーザは、異常を確認する際に着目するべき領域の見当をつけることが可能となる。 In the above embodiment, the control unit 190 causes the inference unit 194 to output the region to be focused on in the input two-dimensional image to the first trained model 181 . This allows the user to have an idea of the area to focus on when confirming the abnormality.

また、上記実施形態では、制御部190は、画像生成部193により、複数フレーム分の3次元モデルデータのうち、少なくとも1フレームの3次元モデルデータから複数の2次元画像を生成するようにしている。これにより、記憶部180に記憶されている3次元モデルデータが動画であっても、テストにおけるユーザの負担を軽減することが可能となる。 In the above embodiment, the control unit 190 causes the image generation unit 193 to generate a plurality of two-dimensional images from at least one frame of three-dimensional model data among the three-dimensional model data for a plurality of frames. . As a result, even if the three-dimensional model data stored in the storage unit 180 is a moving image, it is possible to reduce the burden on the user during the test.

(端末装置10における推論処理2)
端末装置10で推論処理が実施される際の制御部190の動作を説明する。
(Inference process 2 in terminal device 10)
The operation of the control unit 190 when the inference processing is performed in the terminal device 10 will be described.

図8は、図2に示す制御部190が第1学習済みモデル181及び第2学習済みモデル182を用いて3次元モデルの異常を検出する際の動作を説明するためのブロック図である。 FIG. 8 is a block diagram for explaining the operation when the control unit 190 shown in FIG. 2 uses the first trained model 181 and the second trained model 182 to detect an abnormality in the three-dimensional model.

制御部190は、記憶部180に記憶される1体のキャラクターについてのポリゴンデータ及びテクスチャデータを読み出す。このとき読み出されるポリゴンデータ及びテクスチャデータのキャラクターは、第1学習済みモデル181及び第2学習済みモデル182の学習において用いられたキャラクターであってもよいし、第1学習済みモデル181及び第2学習済みモデル182の学習において用いられたキャラクターと異なるキャラクターであってもよい。制御部190は、画像生成部193により、読み出したポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する。3次元モデルが複数フレームのポリゴンデータ及びテクスチャデータを含む場合、画像生成部193は、少なくとも1フレームのポリゴンデータ及びテクスチャデータから複数の2次元画像を生成してもよい。 The control unit 190 reads polygon data and texture data for one character stored in the storage unit 180 . The characters of the polygon data and texture data read at this time may be the characters used in the learning of the first trained model 181 and the second trained model 182, or the characters used in the learning of the first trained model 181 and the second trained model. It may be a character different from the character used in learning the finished model 182 . The control unit 190 uses the image generation unit 193 to generate two-dimensional images viewed from a plurality of viewpoints based on the read polygon data and texture data. When the three-dimensional model includes multiple frames of polygon data and texture data, the image generator 193 may generate multiple two-dimensional images from at least one frame of polygon data and texture data.

制御部190は、推論部194により、記憶部180に記憶されている第1学習済みモデル181及び第2学習済みモデル182を利用し、入力に対する出力を推論する。具体的には、例えば、推論部194は、第1学習済みモデル181により実現される第1異常判定部1941に、画像生成部193で生成された2次元画像を入力する。第1異常判定部1941は、入力された2次元画像に異常が含まれているか否かを表す推論結果を出力する。第1異常判定部1941は、画像生成部193で生成されたすべての2次元画像についての推論結果を、第2学習済みモデル182により実現される第2異常判定部1942へ出力する。 The control unit 190 uses the first trained model 181 and the second trained model 182 stored in the storage unit 180 by the inference unit 194 to infer the output for the input. Specifically, for example, the inference unit 194 inputs the two-dimensional image generated by the image generation unit 193 to the first abnormality determination unit 1941 realized by the first trained model 181 . The first abnormality determination unit 1941 outputs an inference result indicating whether or not the input two-dimensional image contains an abnormality. First abnormality determination section 1941 outputs inference results for all two-dimensional images generated by image generation section 193 to second abnormality determination section 1942 realized by second trained model 182 .

第2異常判定部1942は、入力された推論結果の元となる3次元モデルに異常が含まれているか否かを表す推論結果を出力する。例えば、第2異常判定部1942は、3次元モデルが、正常、頂点破壊、UV破壊、ドットノイズ、マテリアル異常、ポリゴン欠け、又はめり込みのクラスに該当する可能性があること、上記異常のクラスに該当する可能性を表す指標値、又は着目すべき領域を出力する。 The second anomaly determination unit 1942 outputs an inference result indicating whether or not an anomaly is included in the three-dimensional model from which the input inference result is based. For example, the second abnormality determination unit 1942 determines that the three-dimensional model may correspond to one of the following classes: normal, vertex destruction, UV destruction, dot noise, material abnormality, missing polygon, or embedding. An index value representing the possibility of matching or an area to be focused on is output.

制御部190は、例えば、ユーザにより指定されたキャラクターの3次元モデルについて上記処理を繰り返す。 For example, the control unit 190 repeats the above process for the three-dimensional model of the character designated by the user.

制御部190は、ユーザにより指定されたキャラクターの3次元モデルについての推論部194から推論結果が出力されると、表示制御部195により、ユーザへ推論結果を提示する。 When the inference result of the three-dimensional model of the character designated by the user is output from the inference unit 194, the control unit 190 presents the inference result to the user through the display control unit 195. FIG.

図9、図10は、端末装置10のユーザに提示される推論結果の一例を表す模式図である。図9において、ディスプレイ141は、アラートリスト1413と、検証履歴リスト1414とを含む。アラートリスト1413は、異常を含む可能性が高いと判断された3次元モデルが提示される。ディスプレイ141は、例えば、出力された指標値が予め設定された閾値よりも高い3次元モデルを、アラートリスト1413に追加する。アラートリスト1413は、例えば、項目「実施日付」と、項目「ファイル名」と、項目「スコアサマリ」と、項目「サムネイル」とを含む。 9 and 10 are schematic diagrams showing examples of inference results presented to the user of the terminal device 10. FIG. In FIG. 9, display 141 includes alert list 1413 and verification history list 1414 . The alert list 1413 presents three-dimensional models judged to have a high possibility of containing anomalies. The display 141 adds to the alert list 1413, for example, a three-dimensional model whose output index value is higher than a preset threshold. The alert list 1413 includes, for example, the item "implementation date", the item "file name", the item "score summary", and the item "thumbnail".

項目「実施日付」は、検証を実施した日付を表す。 The item "implementation date" represents the date on which the verification was implemented.

項目「ファイル名」は、検証が実施された3次元モデルのファイル名を表す。 The item "file name" represents the file name of the verified three-dimensional model.

項目「スコアサマリ」は、3次元モデルに対して出力された推論結果のサマリを表す。例えば、表示制御部195は、推論部194により出力されたクラスのうち、該当する可能性が最も高いクラスを項目「スコアサマリ」に表示する。例えば、表示制御部195は、推論部194により出力されたクラスのうち、指標値が最も高いクラスを項目「スコアサマリ」に表示する。 The item "score summary" represents a summary of the inference results output for the three-dimensional model. For example, the display control unit 195 displays, among the classes output by the inference unit 194, the class with the highest probability of being applicable in the item “score summary”. For example, the display control unit 195 displays the class with the highest index value among the classes output by the inference unit 194 in the item “score summary”.

項目「サムネイル」は、3次元モデルについて生成された代表的な2次元画像のサムネイルを表す。代表的な2次元画像は、例えば、以下である。
・指標値が最も高い2次元画像
・代表図として予め登録されている2次元画像
The item "thumbnail" represents a thumbnail of a representative 2D image generated for the 3D model. A typical two-dimensional image is, for example, the following.
・2D image with the highest index value ・2D image registered in advance as a representative view

図9の四角で示される領域に、3次元モデルについてのサムネイル画像が表示される。 A thumbnail image of the three-dimensional model is displayed in the area indicated by the square in FIG.

検証履歴リスト1414は、検証対象となった3次元モデルが提示される。検証履歴リスト1414は、例えば、項目「実施日付」と、項目「ファイル名」と、項目「画像番号」と、項目「スコアサマリ」と、項目「サムネイル」とを含む。 A verification history list 1414 presents the three-dimensional models that have been verified. The verification history list 1414 includes, for example, the item “implementation date”, the item “file name”, the item “image number”, the item “score summary”, and the item “thumbnail”.

表示制御部195は、アラートリスト1413に表示されるレコードのいずれかがユーザにより押下されると、図10に示す詳細情報をディスプレイ141に表示させる。図10において、ディスプレイ141は、サマリ情報1415と、詳細リスト1416とを含む。サマリ情報1415は、ユーザにより選択されたレコードについての情報を提示する。サマリ情報1415は、例えば、項目「実施日付」と、項目「ファイル名」と、項目「スコアサマリ」と、項目「サムネイル」とを含む。 When the user presses one of the records displayed in the alert list 1413, the display control unit 195 causes the display 141 to display the detailed information shown in FIG. In FIG. 10, display 141 includes summary information 1415 and detail list 1416 . Summary information 1415 presents information about the record selected by the user. The summary information 1415 includes, for example, the item “implementation date”, the item “file name”, the item “score summary”, and the item “thumbnail”.

詳細リスト1416は、ユーザにより指定された3次元モデルに基づいて生成された2次元画像それぞれについての推論結果を表す。詳細リスト1416は、例えば、項目「画像」と、項目「着目点」と、項目「スコア」とを含む。 Detail list 1416 represents inference results for each 2D image generated based on the 3D model specified by the user. The detailed list 1416 includes, for example, the item "image", the item "point of interest", and the item "score".

項目「画像」は、画像生成部193により生成された2次元画像を表す。この2次元画像は、第1異常判定部1941に入力された2次元画像と換言してもよい。 The item “image” represents a two-dimensional image generated by the image generator 193 . This two-dimensional image may be rephrased as a two-dimensional image input to the first abnormality determination section 1941 .

項目「着目点」は、第1異常判定部1941から出力された2次元画像であり、着目すべき領域を含む2次元画像である。この2次元画像では、例えば、異常が発生している可能性が高い領域に、他の領域と区別して識別可能な表示がなされている。 The item “focus point” is a two-dimensional image output from the first abnormality determination unit 1941, and is a two-dimensional image including a target area. In this two-dimensional image, for example, an area in which an abnormality is highly likely to occur is displayed so as to be distinguished from other areas and identifiable.

項目「スコア」は、第1異常判定部1941に入力された2次元画像に対して出力される、異常のクラスに該当する可能性を表す指標値を表す。 The item “score” represents an index value representing the possibility of the two-dimensional image input to the first abnormality determination unit 1941 being output to the abnormality class.

ユーザは、ディスプレイ141に表示される推論結果を参照し、3次元モデルにおける異常を判断する。 The user refers to the inference result displayed on the display 141 and judges an abnormality in the three-dimensional model.

制御部190は、推論結果を他の端末装置10へ送信してもよい。また、制御部190は、推論結果そのものでなく、推論が完了した旨を他の端末装置10へ送信してもよい。 The control unit 190 may transmit the inference result to another terminal device 10 . Also, the control unit 190 may transmit to the other terminal device 10 the fact that the inference has been completed instead of the inference result itself.

以上のように上記実施形態では、端末装置10は、推論部194により、1の3次元モデルデータに基づく複数の2次元画像についての異常の有無の判定結果を入力とし、3次元モデルデータについての異常の有無に関する情報を正解出力として学習された第2学習済みモデル182に、第1学習済みモデル181から出力される判定結果を入力することで、第1学習済みモデル181に入力した2次元画像の元となる3次元モデルデータについての異常の有無を判定するようにしている。これにより、端末装置10は、3次元モデルにおける異常の有無を総合的に判断することが可能となる。このため、ユーザは、1枚1枚の画像の異常の有無の推論結果を確認する必要がなくなる。つまり、端末装置10は、ユーザの負担を軽減することが可能となる。 As described above, in the above-described embodiment, the terminal device 10 receives, by the inference unit 194, the determination result of the presence/absence of abnormality in a plurality of two-dimensional images based on one piece of three-dimensional model data. By inputting the determination result output from the first trained model 181 to the second trained model 182 that has been trained using information regarding the presence or absence of an abnormality as a correct output, a two-dimensional image input to the first trained model 181 is obtained. It is determined whether or not there is an abnormality in the three-dimensional model data that is the basis of the . As a result, the terminal device 10 can comprehensively determine whether there is an abnormality in the three-dimensional model. Therefore, the user does not need to confirm the result of inference as to the presence or absence of abnormality in each image. That is, the terminal device 10 can reduce the burden on the user.

また、ゲームリソースについての1の3次元モデルデータは、第1学習済みモデル181及び第2学習済みモデル182の学習の際に利用された3次元モデルデータと異なるものであってもよい。このため、新たなキャラクターについての3次元モデルデータにおける異常(バグ)の有無を、第1学習済みモデル181及び第2学習済みモデル182を用いて検出することが可能となる。 Also, one piece of 3D model data for a game resource may be different from the 3D model data used for learning the first trained model 181 and the second trained model 182 . Therefore, it is possible to detect whether or not there is an abnormality (bug) in the three-dimensional model data of the new character using the first trained model 181 and the second trained model 182 .

また、上記実施形態では、制御部190は、画像生成部193により、複数フレーム分の3次元モデルデータのうち、少なくとも1フレームの3次元モデルデータから複数の2次元画像を生成する。制御部190は、推論部194により、第2学習済みモデル182に、第1学習済みモデル181から出力される、各フレームの3次元モデルデータについての2次元画像の判定結果を入力することで、各フレームの3次元モデルデータについての異常の有無を判定するようにしている。これにより、記憶部180に記憶されている3次元モデルデータが動画であっても、テストにおけるユーザの負担を軽減することが可能となる。 In the above embodiment, the control unit 190 causes the image generation unit 193 to generate a plurality of two-dimensional images from at least one frame of three-dimensional model data among the three-dimensional model data for a plurality of frames. The control unit 190 causes the inference unit 194 to input, to the second trained model 182, the determination result of the two-dimensional image for the three-dimensional model data of each frame, which is output from the first trained model 181. It is determined whether or not there is an abnormality in the three-dimensional model data of each frame. As a result, even if the three-dimensional model data stored in the storage unit 180 is a moving image, it is possible to reduce the burden on the user during the test.

したがって、本実施形態に係る端末装置10によれば、ゲームリソースに関するテストに係る負担を軽減できる。 Therefore, according to the terminal device 10 according to the present embodiment, it is possible to reduce the burden of testing for game resources.

<変形例>
上記実施形態では、画像生成部193、又は画像生成モジュール2033において、ポリゴンデータ及びテクスチャデータに基づき、複数の視点から見た2次元画像を生成する場合を例に説明した。しかしながら、複数の画像は、視点を変えて確認される2次元画像に限定されない。例えば、画像生成部193、又は画像生成モジュール2033は、ライティングを変えて、複数の2次元画像を生成してもよい。ライティングの変更とは、例えば、光源の位置、又は光量を変更することを含む。
<Modification>
In the above embodiment, the case where the image generation unit 193 or the image generation module 2033 generates two-dimensional images viewed from a plurality of viewpoints based on polygon data and texture data has been described as an example. However, the plurality of images are not limited to two-dimensional images that are viewed from different viewpoints. For example, the image generation unit 193 or the image generation module 2033 may generate multiple two-dimensional images with different lighting. Changing the lighting includes, for example, changing the position of the light source or the amount of light.

また、上記実施形態では、サーバ20で第1学習済みモデル2021、又は第2学習済みモデル2022をトレーニングし、トレーニングされた第1学習済みモデル2021、又は第2学習済みモデル2022を、端末装置10へ提供する場合を例に説明した。しかしながら、第1学習済みモデル2021、又は第2学習済みモデル2022がトレーニングされるのは、サーバ20に限定されない。端末装置10が第1学習済みモデル2021、又は第2学習済みモデル2022をトレーニングするようにしてもよい。 Further, in the above embodiment, the server 20 trains the first trained model 2021 or the second trained model 2022, and the trained first trained model 2021 or the second trained model 2022 is transferred to the terminal device 10. The case of providing to However, it is not limited to the server 20 that the first trained model 2021 or the second trained model 2022 is trained. The terminal device 10 may train the first trained model 2021 or the second trained model 2022 .

以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。 Although several embodiments of the present disclosure have been described above, these embodiments can be implemented in various other forms, and various omissions, replacements, and modifications are possible without departing from the spirit of the invention. It can be performed. These embodiments and their modifications are intended to be included in the scope of the invention described in the claims and their equivalents as well as included in the scope and gist of the invention.

<付記>
以上の各実施形態で説明した事項を以下に付記する。
<Appendix>
The items described in the above embodiments will be added below.

(付記1)
プロセッサ19と、メモリ15とを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、ゲームリソースについての1の3次元モデルデータ183に基づき、複数の2次元画像を生成するステップ(画像生成部193)と、2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデル181に、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するステップ(推論部194)とを実行させるプログラム。
(Appendix 1)
A program to be executed by a computer comprising a processor 19 and a memory 15, wherein the program causes the processor to generate a plurality of two-dimensional images based on one three-dimensional model data 183 of the game resource ( an image generation unit 193), and a first trained model 181 that receives a two-dimensional image as an input and learns information about the presence or absence of an abnormality in the input two-dimensional image as a correct output, and a plurality of generated two-dimensional images. , respectively, to execute a step (inference unit 194) of determining whether or not there is an abnormality in each two-dimensional image.

(付記2)
判定するステップにおいて、第1学習済みモデルは、入力された2次元画像に含まれる異常の種類を表す情報を出力する(付記1)に記載のプログラム。
(Appendix 2)
The program according to Appendix 1, wherein in the determining step, the first trained model outputs information representing the type of abnormality included in the input two-dimensional image.

(付記3)
判定するステップにおいて、第1学習済みモデルは、入力された2次元画像に含まれる異常の種類と、当該種類の異常である可能性を表す指標を出力する(付記1)に記載のプログラム。
(Appendix 3)
The program according to (Appendix 1), wherein in the determining step, the first trained model outputs the type of abnormality included in the input two-dimensional image and an index indicating the possibility of the type of abnormality.

(付記4)
判定するステップにおいて、第1学習済みモデルは、入力された2次元画像において着目するべき領域を出力する(付記1)乃至(付記3)のいずれかに記載のプログラム。
(Appendix 4)
The program according to any one of (Appendix 1) to (Appendix 3), wherein in the determining step, the first trained model outputs a region of interest in the input two-dimensional image.

(付記5)
判定するステップにおいて、1の3次元モデルデータに基づく複数の2次元画像についての異常の有無の判定結果を入力とし、3次元モデルデータについての異常の有無に関する情報を正解出力として学習された第2学習済みモデル182に、第1学習済みモデルから出力される判定結果を入力することで、第1学習済みモデルに入力した2次元画像の元となる3次元モデルデータについての異常の有無を判定する(付記1)乃至(付記4)のいずれかに記載のプログラム。
(Appendix 5)
In the judging step, the learned second model receives judgment results of the presence or absence of an abnormality in a plurality of two-dimensional images based on one piece of three-dimensional model data as an input and correct information regarding the presence or absence of an abnormality in the three-dimensional model data as a correct output. By inputting the determination result output from the first trained model to the trained model 182, it is determined whether or not there is an abnormality in the 3D model data that is the source of the 2D image input to the first trained model. The program according to any one of (Appendix 1) to (Appendix 4).

(付記6)
2次元画像を生成するステップにおいて、複数フレーム分の3次元モデルデータのうち、少なくとも1フレームの3次元モデルデータから複数の2次元画像を生成する(付記1)乃至(付記5)のいずれかに記載のプログラム。
(Appendix 6)
In any of (Appendix 1) to (Appendix 5), in the step of generating a two-dimensional image, a plurality of two-dimensional images are generated from at least one frame of three-dimensional model data among a plurality of frames of three-dimensional model data. program as described.

(付記7)
2次元画像を生成するステップにおいて、複数フレーム分の3次元モデルデータのうち、少なくとも1フレームの3次元モデルデータから複数の2次元画像を生成し、判定するステップにおいて、第2学習済みモデルに、第1学習済みモデルから出力される、各フレームの3次元モデルデータについての2次元画像の判定結果を入力することで、各フレームの3次元モデルデータについての異常の有無を判定する(付記5)に記載のプログラム。
(Appendix 7)
In the step of generating a two-dimensional image, generating a plurality of two-dimensional images from at least one frame of three-dimensional model data among a plurality of frames of three-dimensional model data, and in the determining step, the second trained model: By inputting the determination result of the two-dimensional image of the three-dimensional model data of each frame output from the first trained model, it is determined whether or not there is an abnormality in the three-dimensional model data of each frame (Appendix 5). program described in .

(付記8)
プロセッサと、メモリとを備えるコンピュータに実行される方法であって、プロセッサが、ゲームリソースについての1の3次元モデルデータに基づき、複数の2次元画像を生成するステップと、2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデルに、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するステップとを実行する方法。
(Appendix 8)
A computer-implemented method comprising a processor and a memory, the method comprising: generating a plurality of two-dimensional images based on one three-dimensional model data for a game resource; , by inputting each of the generated two-dimensional images to the first trained model that has been trained using information regarding the presence or absence of an abnormality in the input two-dimensional image as a correct output, thereby determining the abnormality in each two-dimensional image. A method for performing the step of determining the presence or absence of

(付記9)
制御部190と、記憶部180とを備える情報処理装置10であって、制御部が、ゲームリソースについての1の3次元モデルデータに基づき、複数の2次元画像を生成するステップと、2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデルに、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するステップとを実行する情報処理装置。
(Appendix 9)
An information processing apparatus 10 comprising a control unit 190 and a storage unit 180, wherein the control unit generates a plurality of two-dimensional images based on one piece of three-dimensional model data for a game resource; is input, and a plurality of generated two-dimensional images are input to the first trained model that has been trained using information regarding the presence or absence of an abnormality in the input two-dimensional image as a correct output, so that each two-dimensional image An information processing apparatus that performs a step of determining the presence or absence of an abnormality.

(付記10)
プロセッサ29と、メモリ25とを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、ゲームリソースについての3次元モデルデータが予め設定した種類の異常を含むように、3次元モデルデータを加工するステップ(加工モジュール2034)と、加工した3次元モデルデータに基づき、2次元画像を生成するステップ(画像生成モジュール2033)と、生成した2次元画像を入力とし、加工により与えた異常の種類を正解出力として第1学習済みモデルをトレーニングするステップ(学習モジュール2035)とを実行させるプログラム。
(Appendix 10)
A program to be executed by a computer comprising a processor 29 and a memory 25, the program instructing the processor to transform the 3D model data of the game resource so that the 3D model data of the game resource includes a preset type of anomaly. (processing module 2034), generating a two-dimensional image based on the processed three-dimensional model data (image generating module 2033), and inputting the generated two-dimensional image, processing the abnormality given by processing training the first trained model with type as correct output (learning module 2035).

(付記11)
加工するステップにおいて、3次元モデルデータに与える異常の種類は、頂点破壊、UV破壊、ドットノイズ、マテリアル異常、ポリゴン欠け、又はめり込みである(付記10)に記載のプログラム。
(Appendix 11)
10. The program according to Appendix 10, wherein in the processing step, the type of abnormality given to the 3D model data is vertex destruction, UV destruction, dot noise, material abnormality, lack of polygon, or embedment.

(付記12)
トレーニングするステップにおいて、加工により異常を与えた位置を正解出力として第1学習済みモデルをトレーニングする(付記10)又は(付記11)に記載のプログラム。
(Appendix 12)
The program according to (Appendix 10) or (Appendix 11), wherein, in the training step, the first trained model is trained using the position to which the abnormality is given by processing as the correct output.

(付記13)
複数の2次元画像を入力とした第1学習済みモデルからの出力を入力とし、加工により与えた異常の種類を正解出力として第2学習済みモデルをトレーニングする(付記10)乃至(付記12)のいずれかに記載のプログラム。
(Appendix 13)
Training a second trained model using the output from the first trained model with a plurality of two-dimensional images as input, and the type of abnormality given by processing as the correct output (Appendix 10) to (Appendix 12). Program as described in any.

(付記14)
プロセッサと、メモリとを備えるコンピュータに実行される方法であって、プロセッサが、ゲームリソースについての3次元モデルデータが予め設定した種類の異常を含むように、3次元モデルデータを加工するステップと、加工した3次元モデルデータに基づき、2次元画像を生成するステップと、生成した2次元画像を入力とし、加工により与えた異常の種類を正解出力として第1学習済みモデルをトレーニングするステップとを実行する方法。
(Appendix 14)
A computer-implemented method comprising a processor and a memory, wherein the processor processes three-dimensional model data for a game resource such that the three-dimensional model data includes a preset type of anomaly; A step of generating a two-dimensional image based on the processed three-dimensional model data, and a step of training a first trained model using the generated two-dimensional image as an input and correct output as the type of anomaly given by processing. how to.

(付記15)
制御部203と、記憶部202とを備える情報処理装置20であって、制御部が、ゲームリソースについての3次元モデルデータが予め設定した種類の異常を含むように、3次元モデルデータを加工するステップと、加工した3次元モデルデータに基づき、2次元画像を生成するステップと、生成した2次元画像を入力とし、加工により与えた異常の種類を正解出力として第1学習済みモデルをトレーニングするステップとを実行する情報処理装置。
(Appendix 15)
An information processing apparatus 20 comprising a control unit 203 and a storage unit 202, wherein the control unit processes the 3D model data of game resources so that the 3D model data includes a preset type of abnormality. a step of generating a two-dimensional image based on the processed three-dimensional model data; a step of training a first trained model using the generated two-dimensional image as an input and correct output as the type of anomaly given by processing. and an information processing device that executes

1…システム
10…端末装置
12…通信IF
120…通信部
13…入力装置
131…マウス
132…キーボード
133…タッチ・センシティブ・デバイス
14…出力装置
141…ディスプレイ
1411…アラートリスト
1412…検証履歴リスト
1413…アラートリスト
1414…検証履歴リスト
1415…サマリ情報
1416…詳細リスト
15…メモリ
16…ストレージ
160…カメラ
17…音声処理部
171…マイク
172…スピーカ
180…記憶部
181…第1学習済みモデル
182…第2学習済みモデル
183…3次元モデルデータ
19…プロセッサ
190…制御部
191…操作受付部
192…送受信部
193…画像生成部
194…推論部
1941…第1異常判定部
1942…第2異常判定部
195…表示制御部
20…サーバ
201…通信部
202…記憶部
2021…第1学習済みモデル
2022…第2学習済みモデル
2023…3次元モデルデータ
203…制御部
2031…受信制御モジュール
2032…送信制御モジュール
2033…画像生成モジュール
2034…加工モジュール
2035…学習モジュール
2036…推論モジュール
22…通信IF
23…入出力IF
25…メモリ
26…ストレージ
29…プロセッサ
80…ネットワーク

1... System 10... Terminal device 12... Communication IF
120... Communication unit 13... Input device 131... Mouse 132... Keyboard 133... Touch sensitive device 14... Output device 141... Display 1411... Alert list 1412... Verification history list 1413... Alert list 1414... Verification history list 1415... Summary information 1416 Detailed list 15 Memory 16 Storage 160 Camera 17 Sound processing unit 171 Microphone 172 Speaker 180 Storage unit 181 First trained model 182 Second trained model 183 Three-dimensional model data 19 Processor 190 Control unit 191 Operation receiving unit 192 Transmission/reception unit 193 Image generation unit 194 Inference unit 1941 First abnormality determination unit 1942 Second abnormality determination unit 195 Display control unit 20 Server 201 Communication unit 202 Storage unit 2021 First trained model 2022 Second trained model 2023 Three-dimensional model data 203 Control unit 2031 Reception control module 2032 Transmission control module 2033 Image generation module 2034 Processing module 2035 Learning module 2036 -- Inference module 22 -- Communication IF
23 input/output IF
25 Memory 26 Storage 29 Processor 80 Network

Claims (15)

プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
ゲームリソースについての1の3次元モデルデータに基づき、複数の2次元画像を生成するステップと、
2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデルに、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するステップと
を実行させるプログラム。
A program to be executed by a computer comprising a processor and a memory, the program comprising:
generating a plurality of two-dimensional images based on one three-dimensional model data for the game resource;
By inputting each of the generated two-dimensional images into a first trained model trained with a two-dimensional image as an input and information regarding the presence or absence of an abnormality in the input two-dimensional image as a correct output, each A program for executing a step of determining whether or not there is an abnormality in a two-dimensional image.
前記判定するステップにおいて、前記第1学習済みモデルは、入力された2次元画像に含まれる異常の種類を表す情報を出力する請求項1記載のプログラム。 2. The program according to claim 1, wherein in said determining step, said first trained model outputs information representing a type of abnormality contained in an input two-dimensional image. 前記判定するステップにおいて、前記第1学習済みモデルは、入力された2次元画像に含まれる異常の種類と、当該種類の異常である可能性を表す指標を出力する請求項1記載のプログラム。 2. The program according to claim 1, wherein in said determining step, said first trained model outputs a type of anomaly included in an input two-dimensional image and an index indicating the possibility of said type of anomaly. 前記判定するステップにおいて、前記第1学習済みモデルは、入力された2次元画像において着目するべき領域を出力する請求項1乃至3のいずれかに記載のプログラム。 4. The program according to any one of claims 1 to 3, wherein in said determining step, said first trained model outputs a region to be focused on in an input two-dimensional image. 前記判定するステップにおいて、1の3次元モデルデータに基づく複数の2次元画像についての異常の有無の判定結果を入力とし、前記3次元モデルデータについての異常の有無に関する情報を正解出力として学習された第2学習済みモデルに、前記第1学習済みモデルから出力される判定結果を入力することで、第1学習済みモデルに入力した2次元画像の元となる3次元モデルデータについての異常の有無を判定する請求項1乃至4のいずれかに記載のプログラム。 In the judging step, learning is performed with judgment results of the presence or absence of anomalies in a plurality of two-dimensional images based on one piece of three-dimensional model data as inputs, and information on the presence or absence of anomalies in the three-dimensional model data as a correct output. By inputting the determination result output from the first trained model to the second trained model, the presence or absence of abnormality in the three-dimensional model data that is the basis of the two-dimensional image input to the first trained model is checked. 5. The program according to any one of claims 1 to 4, for determining. 前記2次元画像を生成するステップにおいて、複数フレーム分の3次元モデルデータのうち、少なくとも1フレームの3次元モデルデータから複数の2次元画像を生成する請求項1乃至5のいずれかに記載のプログラム。 6. The program according to any one of claims 1 to 5, wherein in the step of generating the two-dimensional image, a plurality of two-dimensional images are generated from at least one frame of three-dimensional model data out of a plurality of frames of three-dimensional model data. . 前記2次元画像を生成するステップにおいて、複数フレーム分の3次元モデルデータのうち、少なくとも1フレームの3次元モデルデータから複数の2次元画像を生成し、
前記判定するステップにおいて、前記第2学習済みモデルに、前記第1学習済みモデルから出力される、各フレームの3次元モデルデータについての2次元画像の判定結果を入力することで、前記各フレームの3次元モデルデータについての異常の有無を判定する請求項5記載のプログラム。
generating a plurality of two-dimensional images from at least one frame of three-dimensional model data among a plurality of frames of three-dimensional model data, in the step of generating two-dimensional images;
In the determination step, by inputting the determination result of the two-dimensional image of the three-dimensional model data of each frame, which is output from the first trained model, to the second trained model, 6. The program according to claim 5, which determines whether or not there is an abnormality in the three-dimensional model data.
プロセッサと、メモリとを備えるコンピュータに実行される方法であって、前記プロセッサが、
ゲームリソースについての1の3次元モデルデータに基づき、複数の2次元画像を生成するステップと、
2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデルに、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するステップと
を実行する方法。
A computer-implemented method comprising a processor and a memory, wherein the processor comprises:
generating a plurality of two-dimensional images based on one three-dimensional model data for the game resource;
By inputting each of the generated two-dimensional images into a first trained model trained with a two-dimensional image as an input and information regarding the presence or absence of an abnormality in the input two-dimensional image as a correct output, each and determining whether there is an abnormality in the two-dimensional image.
制御部と、記憶部とを備える情報処理装置であって、前記制御部が、
ゲームリソースについての1の3次元モデルデータに基づき、複数の2次元画像を生成するステップと、
2次元画像を入力とし、入力された2次元画像についての異常の有無に関する情報を正解出力として学習された第1学習済みモデルに、生成された複数の2次元画像をそれぞれ入力することで、各2次元画像についての異常の有無を判定するステップと
を実行する情報処理装置。
An information processing device comprising a control unit and a storage unit, wherein the control unit
generating a plurality of two-dimensional images based on one three-dimensional model data for the game resource;
By inputting each of the generated two-dimensional images into a first trained model trained with a two-dimensional image as an input and information regarding the presence or absence of an abnormality in the input two-dimensional image as a correct output, each and determining whether or not there is an abnormality in the two-dimensional image.
プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
ゲームリソースについての3次元モデルデータが予め設定した種類の異常を含むように、3次元モデルデータを加工するステップと、
前記加工した3次元モデルデータに基づき、2次元画像を生成するステップと、
前記生成した2次元画像を入力とし、加工により与えた異常の種類を正解出力として第1学習済みモデルをトレーニングするステップと
を実行させるプログラム。
A program to be executed by a computer comprising a processor and a memory, the program comprising:
processing the three-dimensional model data for the game resource so that the three-dimensional model data includes a preset type of anomaly;
generating a two-dimensional image based on the processed three-dimensional model data;
a step of training a first trained model using the generated two-dimensional image as an input and correct output as the type of anomaly given by processing.
前記加工するステップにおいて、前記3次元モデルデータに与える異常の種類は、頂点破壊、UV破壊、ドットノイズ、マテリアル異常、ポリゴン欠け、又はめり込みである請求項10記載のプログラム。 11. The program according to claim 10, wherein in said processing step, the type of abnormality given to said three-dimensional model data is vertex destruction, UV destruction, dot noise, material abnormality, lack of polygon, or embedment. 前記トレーニングするステップにおいて、前記加工により異常を与えた位置を正解出力として前記第1学習済みモデルをトレーニングする請求項10又は11に記載のプログラム。 12. The program according to claim 10, wherein, in said training step, said first learned model is trained by using a position to which an abnormality is given by said processing as a correct output. 複数の2次元画像を入力とした第1学習済みモデルからの出力を入力とし、前記加工により与えた異常の種類を正解出力として第2学習済みモデルをトレーニングする請求項10乃至12のいずれかに記載のプログラム。 13. Any one of claims 10 to 12, wherein a second trained model is trained with an output from a first trained model that receives a plurality of two-dimensional images as an input, and a type of abnormality given by said processing as a correct output. program as described. プロセッサと、メモリとを備えるコンピュータに実行される方法であって、前記プロセッサが、
ゲームリソースについての3次元モデルデータが予め設定した種類の異常を含むように、3次元モデルデータを加工するステップと、
前記加工した3次元モデルデータに基づき、2次元画像を生成するステップと、
前記生成した2次元画像を入力とし、加工により与えた異常の種類を正解出力として第1学習済みモデルをトレーニングするステップと
を実行する方法。
A computer-implemented method comprising a processor and a memory, wherein the processor comprises:
processing the three-dimensional model data for the game resource so that the three-dimensional model data includes a preset type of anomaly;
generating a two-dimensional image based on the processed three-dimensional model data;
and training a first trained model using the generated two-dimensional image as an input and the type of anomaly given by processing as a correct output.
制御部と、記憶部とを備える情報処理装置であって、前記制御部が、
ゲームリソースについての3次元モデルデータが予め設定した種類の異常を含むように、3次元モデルデータを加工するステップと、
前記加工した3次元モデルデータに基づき、2次元画像を生成するステップと、
前記生成した2次元画像を入力とし、加工により与えた異常の種類を正解出力として第1学習済みモデルをトレーニングするステップと
を実行する情報処理装置。

An information processing device comprising a control unit and a storage unit, wherein the control unit
processing the three-dimensional model data for the game resource so that the three-dimensional model data includes a preset type of anomaly;
generating a two-dimensional image based on the processed three-dimensional model data;
and training a first learned model using the generated two-dimensional image as an input and the type of anomaly given by processing as a correct output.

JP2021068063A 2021-04-14 2021-04-14 program, method, information processing device Active JP7282122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021068063A JP7282122B2 (en) 2021-04-14 2021-04-14 program, method, information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021068063A JP7282122B2 (en) 2021-04-14 2021-04-14 program, method, information processing device

Publications (2)

Publication Number Publication Date
JP2022163251A JP2022163251A (en) 2022-10-26
JP7282122B2 true JP7282122B2 (en) 2023-05-26

Family

ID=83742376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021068063A Active JP7282122B2 (en) 2021-04-14 2021-04-14 program, method, information processing device

Country Status (1)

Country Link
JP (1) JP7282122B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108733A (en) 2018-11-09 2020-07-16 株式会社ソニー・インタラクティブエンタテインメント Data processing system and method
JP6843450B1 (en) 2019-11-08 2021-03-17 リーダー電子株式会社 Teacher data generation method, trained model generation method, device, recording medium, program, information processing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108733A (en) 2018-11-09 2020-07-16 株式会社ソニー・インタラクティブエンタテインメント Data processing system and method
JP6843450B1 (en) 2019-11-08 2021-03-17 リーダー電子株式会社 Teacher data generation method, trained model generation method, device, recording medium, program, information processing device

Also Published As

Publication number Publication date
JP2022163251A (en) 2022-10-26

Similar Documents

Publication Publication Date Title
KR102107709B1 (en) Spatial transformer modules
CN111260545B (en) Method and device for generating image
US11341364B2 (en) Using simulation and domain adaptation for robotic control
US20220114705A1 (en) Digital Image Fill
US9679416B2 (en) Content creation tool
CN115769234A (en) Template-based generation of 3D object mesh from 2D images
US20220014582A1 (en) Document-sharing conferencing system
US11954536B2 (en) Data engine
KR20230069919A (en) Systems and methods for predicting lower body poses
JP2024518695A (en) User input based distraction removal in media items - Patents.com
CN115774774A (en) Extracting event information from game logs using natural language processing
KR102441490B1 (en) Method and system for generating adversarial pattern on image
CN112835807B (en) Interface identification method and device, electronic equipment and storage medium
JP7282122B2 (en) program, method, information processing device
US20240111894A1 (en) Generative machine learning models for privacy preserving synthetic data generation using diffusion
JP7267068B2 (en) Trained model generation device, program and trained model generation system
JP6892844B2 (en) Information processing device, information processing method, watermark detection device, watermark detection method, and program
Ivaschenko et al. Industrial application of accented visualization based on Augmented Reality
JP2021033707A (en) Information processing apparatus
KR102683407B1 (en) Method, program, and apparatus for presenting results of exam supervision based on test taker behavioral analysis results
US12051205B1 (en) Systems and methods for interacting with a large language model
KR102687528B1 (en) Method and system for deleting text in image
WO2022181252A1 (en) Joint detection device, training model generation device, joint detection method, training model generation method, and computer-readable recording medium
WO2024161477A1 (en) Information processing device, information processing method, and computer-readable recording medium
CN111985510B (en) Generative model training method, image generation device, medium, and terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7282122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150