JP7055300B2 - Information processing equipment, methods and programs - Google Patents

Information processing equipment, methods and programs Download PDF

Info

Publication number
JP7055300B2
JP7055300B2 JP2019084366A JP2019084366A JP7055300B2 JP 7055300 B2 JP7055300 B2 JP 7055300B2 JP 2019084366 A JP2019084366 A JP 2019084366A JP 2019084366 A JP2019084366 A JP 2019084366A JP 7055300 B2 JP7055300 B2 JP 7055300B2
Authority
JP
Japan
Prior art keywords
user
information
input
data
input value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019084366A
Other languages
Japanese (ja)
Other versions
JP2020181392A (en
Inventor
誠幸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixie Dust Technologies Inc
Original Assignee
Pixie Dust Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixie Dust Technologies Inc filed Critical Pixie Dust Technologies Inc
Priority to JP2019084366A priority Critical patent/JP7055300B2/en
Publication of JP2020181392A publication Critical patent/JP2020181392A/en
Application granted granted Critical
Publication of JP7055300B2 publication Critical patent/JP7055300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本明細書における開示は、情報処理装置、方法及びプログラムに関する。 The disclosure herein relates to information processing devices, methods and programs.

学習データを用いて学習された学習済モデルを用いて、新たなデータを生成することが知られている。 It is known to generate new data using a trained model trained using trained data.

このような学習済みモデルを得る方法として、敵対的ネットワーク(GAN:Generative Adversarial Networks)、変分自己符号化器(VAE:Variational Auto Encoder)などの深層学習を利用する技術が知られている。例えば、特開2018-139071号公報(特許文献1)には、敵対的ネットワーク(GAN)を利用した学習方法について記載されている。GANは、生成器(Generator)と識別器(Discriminator)の2つのネットワークから構成されている。識別器は、入力されたデータが学習データであるか、又は、生成器によって生成されたものかを識別する。生成器は、学習データと同じようなデータを生成しようとする。生成器は、より精巧な偽物のデータを生成しようとし、識別器は、より正確に偽物のデータを見分けるように学習する。このように生成器と識別器とが学習を繰り返すことにより、学習データとは見分けのつかないデータを生成器が生成できるようにする。 As a method of obtaining such a trained model, a technique using deep learning such as a hostile network (GAN: Generative Adversarial Networks) and a variational self-encoder (VAE) is known. For example, Japanese Patent Application Laid-Open No. 2018-139071 (Patent Document 1) describes a learning method using a hostile network (GAN). The GAN consists of two networks, a generator and a discriminator. The discriminator identifies whether the input data is training data or is generated by the generator. The generator attempts to generate data similar to the training data. The generator tries to generate more elaborate fake data, and the discriminator learns to discriminate the fake data more accurately. By repeating the learning between the generator and the discriminator in this way, the generator can generate data that is indistinguishable from the training data.

特開2018-139071号公報Japanese Unexamined Patent Publication No. 2018-139071

GANにより、学習データとは一見して見分けがつかない画像を生成することができる。一方、ユーザの趣味嗜好は様々である。そのため、GANにより生成される多様な画像には、ユーザの趣味嗜好に適合しないものも含まれる。ユーザが所望するものを考慮して生成器で画像を生成しようとすると、これらユーザの希望が反映された学習済みモデルを予め用意しておく必要がある。 With GAN, it is possible to generate an image that is at first glance indistinguishable from the training data. On the other hand, users have various hobbies and tastes. Therefore, the various images generated by GAN include those that do not suit the user's hobbies and tastes. When an image is to be generated by the generator in consideration of what the user wants, it is necessary to prepare a trained model that reflects these user's wishes in advance.

しかしながら、学習済みモデルを構築するには時間を要するため、ユーザの希望に応じた画像の生成にも長時間を要する。
したがって、ユーザの希望に応じた画像の生成を、よりいっそう容易にする技術が必要とされている。
However, since it takes time to build the trained model, it also takes a long time to generate an image according to the user's wishes.
Therefore, there is a need for a technique that makes it even easier to generate an image according to the user's wishes.

本開示に示す一実施形態によると、情報処理装置は、学習済みの生成モデル、及び、生成モデルへ入力する変数を推定するための関数を記憶する記憶部と、一又は複数のコンピュータプロセッサと、を備える。一又は複数コンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、ユーザに関連付けられる第1の入力値を取得するステップと、推定モデルに対し第1の入力値を入力することで、推定結果として第1の変数を推定するステップと、第1の変数を生成モデルに入力することにより第1のデータを生成するステップと、生成された第1のデータをユーザに提示するステップと、を行う。 According to one embodiment shown in the present disclosure, the information processing apparatus includes a trained generative model, a storage unit for storing a function for estimating a variable input to the generative model, and one or more computer processors. To prepare for. The one or more computer processors obtain the first input value associated with the user by executing a computer-readable instruction, and the estimation result by inputting the first input value to the estimation model. A step of estimating the first variable, a step of generating the first data by inputting the first variable into the generation model, and a step of presenting the generated first data to the user are performed. ..

一実施形態によると、ユーザの希望に応じたデータを生成するための時間を短縮化することができ、ユーザの操作感がよりいっそう向上する。 According to one embodiment, the time for generating data according to the user's wishes can be shortened, and the user's operability is further improved.

本実施形態の端末装置10のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the terminal apparatus 10 of this embodiment. 端末装置10の機能的な構成を示す図である。It is a figure which shows the functional structure of the terminal apparatus 10. 生成モデル学習モジュール1042の詳細を説明する図である。It is a figure explaining the detail of the generation model learning module 1042. 端末装置10が保持するデータのデータ構造を示す図である。It is a figure which shows the data structure of the data held by the terminal apparatus 10. 推定モデル決定モジュール1043が、推定モデル183を得る過程を示す図である。It is a figure which shows the process which the estimation model determination module 1043 obtains an estimation model 183. 本実施形態における画面例を示す図である。It is a figure which shows the screen example in this embodiment. 端末装置10の動作を示すフローチャートである。It is a flowchart which shows the operation of a terminal apparatus 10.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、説明を繰り返さない。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the drawings for explaining the embodiments, the same components are designated by the same reference numerals in principle, and the description is not repeated.

<概要>
本実施形態では、データ(例えば、画像データ)を生成するための学習済みモデルに潜在変数を与えることにより、当該潜在変数に応じたデータを得て、当該データに対し、ユーザの入力などによりタグ情報を設定する。学習済みモデルに対して様々な潜在変数を与えることにより、潜在変数に応じたデータが生成される。そのため、(i)入力となる潜在変数と、(ii)学習済みモデルにより生成されるデータと、(iii)当該データに設定されるタグとがデータベースに蓄積されていくこととなる。
<Overview>
In the present embodiment, by giving a latent variable to a trained model for generating data (for example, image data), data corresponding to the latent variable is obtained, and the data is tagged by user input or the like. Set the information. By giving various latent variables to the trained model, data corresponding to the latent variables is generated. Therefore, (i) input latent variables, (ii) data generated by the trained model, and (iii) tags set in the data are accumulated in the database.

ここで、タグ情報を指定した場合に潜在変数を推定するモデルを用意しておくとする。この場合、当該指定されるタグ情報に基づいて潜在変数を推定し、推定した潜在変数を学習済みモデルに入力することでデータを得ることができる。ユーザが趣味嗜好等に基づいて入力操作によりタグ情報を指定した場合、これにより推定される潜在変数に基づき学習済みモデルで生成するデータは、ユーザの趣味嗜好等が反映されたものといえる。 Here, it is assumed that a model for estimating a latent variable is prepared when tag information is specified. In this case, data can be obtained by estimating the latent variable based on the designated tag information and inputting the estimated latent variable into the trained model. When the user specifies the tag information by the input operation based on the hobby preference etc., it can be said that the data generated by the trained model based on the latent variable estimated by this reflects the user's hobby preference etc.

<構成>
図1は、本実施形態の端末装置10のハードウェア構成例を示す図である。端末装置10は、各ユーザが操作する装置である。端末装置10は、例えば据え置き型のPC(Personal Computer)、ラップトップPC、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末などにより実現される。端末装置10は、プロセッサ101と、メモリ102と、記憶部103と、入力装置104と、出力装置106と、通信IF(Interface)107とを備える。
<Structure>
FIG. 1 is a diagram showing a hardware configuration example of the terminal device 10 of the present embodiment. The terminal device 10 is a device operated by each user. The terminal device 10 is realized by, for example, a stationary PC (Personal Computer), a laptop PC, a smartphone compatible with a mobile communication system, a mobile terminal such as a tablet, or the like. The terminal device 10 includes a processor 101, a memory 102, a storage unit 103, an input device 104, an output device 106, and a communication IF (Interface) 107.

端末装置10は、ネットワークを介してサーバ等の他の装置(図示しない)と通信可能に接続される。端末装置10は、所定の通信規格に対応した無線基地局、IEEE802.11などの無線LAN規格に対応した無線LANルータ等の通信機器と通信することによりネットワークに接続される。ユーザは、例えば、オフィスに設置されるPC、外出時に使用する携帯端末のいずれからでもサーバと通信して、サーバを介したデータの入出力操作を行うことができる。例えば、ユーザは、オフィス滞在時であっても、外出時であっても、端末装置10によりサーバと通信し、サーバで管理される各種データを参照し、データを入力することができる。 The terminal device 10 is communicably connected to another device (not shown) such as a server via a network. The terminal device 10 is connected to the network by communicating with a communication device such as a wireless base station corresponding to a predetermined communication standard and a wireless LAN router corresponding to a wireless LAN standard such as IEEE802.11. The user can perform data input / output operations via the server by communicating with the server from, for example, a PC installed in the office or a mobile terminal used when going out. For example, the user can communicate with the server by the terminal device 10, refer to various data managed by the server, and input data regardless of whether he / she is staying in the office or going out.

プロセッサ101は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。端末装置10は、一又は複数のコンピュータプロセッサを含んで構成されている。 The processor 101 is hardware for executing an instruction set described in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like. The terminal device 10 is configured to include one or more computer processors.

メモリ102は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 The memory 102 is for temporarily storing a program, data processed by the program, or the like, and is, for example, a volatile memory such as a DRAM (Dynamic Random Access Memory).

記憶部103は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。 The storage unit 103 is a storage device for storing data, and is, for example, a flash memory or an HDD (Hard Disc Drive).

入力装置104は、ユーザからの入力操作を受け付けるための装置(例えば、タッチセンシティブデバイス、マウス等のポインティングデバイス、キーボード、マイクロフォン、モーションセンサ等)である。 The input device 104 is a device for receiving an input operation from a user (for example, a touch-sensitive device, a pointing device such as a mouse, a keyboard, a microphone, a motion sensor, etc.).

出力装置106は、ユーザに対し情報を提示するための装置(ディスプレイ、スピーカ等)である。 The output device 106 is a device (display, speaker, etc.) for presenting information to the user.

通信IF107は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 107 is an interface for inputting / outputting signals because the terminal device 10 communicates with an external device.

なお、図1の例では、端末装置10は、単一のコンピュータにより構成されているが、これに限らず、例えばネットワークを介して接続された複数のコンピュータにより構成された形態であってもよい。 In the example of FIG. 1, the terminal device 10 is configured by a single computer, but is not limited to this, and may be configured by, for example, a plurality of computers connected via a network. ..

また、図示していないが、端末装置10は、GPS(Global Positioning System)モジュール等により端末装置10の位置を検出する位置情報センサを含んでいてもよい。端末装置10は、端末装置10を使用するユーザの現在地を、位置情報センサにより取得することができる。この他にも、端末装置10は、端末装置10を振動させ、振動によりユーザに通知を行うためのバイブレータを含んでいてもよい。 Further, although not shown, the terminal device 10 may include a position information sensor that detects the position of the terminal device 10 by a GPS (Global Positioning System) module or the like. The terminal device 10 can acquire the current location of the user who uses the terminal device 10 by the position information sensor. In addition to this, the terminal device 10 may include a vibrator for vibrating the terminal device 10 and notifying the user by the vibration.

次に、端末装置10の機能的な構成について説明する。
図2は、端末装置10の機能的な構成を示す図である。図2に示すように、端末装置10Aは、通信部107Aと、記憶部103Aと、制御部101Aとしての機能を発揮する。
Next, the functional configuration of the terminal device 10 will be described.
FIG. 2 is a diagram showing a functional configuration of the terminal device 10. As shown in FIG. 2, the terminal device 10A exhibits functions as a communication unit 107A, a storage unit 103A, and a control unit 101A.

制御部101Aは、端末装置10Aのプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして示す機能を発揮する。各モジュールの詳細は後述する。 The control unit 101A exhibits the functions shown as various modules when the processor of the terminal device 10A performs processing according to a program. Details of each module will be described later.

記憶部103Aは、端末装置10が使用するデータ及びプログラムを記憶する。記憶部103Aは、生成モデル181と、生成画像データベース182と、推定モデル183と、ユーザ行動ログデータベース184とを記憶している。 The storage unit 103A stores data and programs used by the terminal device 10. The storage unit 103A stores the generation model 181, the generation image database 182, the estimation model 183, and the user action log database 184.

生成モデル181は、後述する生成モデル学習モジュールにより得られるモデルである。本実施形態では、生成モデル181は、潜在変数を入力とすることで、画像データを生成する。 The generative model 181 is a model obtained by a generative model learning module described later. In the present embodiment, the generative model 181 generates image data by inputting a latent variable.

生成画像データベース182は、生成モデル181に入力として与える潜在変数と、生成モデル181によって生成された画像と、当該画像に対して設定されるタグ情報とを含むデータベースである。 The generated image database 182 is a database including latent variables given as inputs to the generated model 181, an image generated by the generated model 181 and tag information set for the image.

推定モデル183は、後述する推定モデル決定モジュール1043により得られるモデルである。 The estimation model 183 is a model obtained by the estimation model determination module 1043 described later.

ユーザ行動ログデータベース184は、ユーザが行動した内容をログとして記録するデータベースである。ユーザが行動した内容の情報としては、例えば、端末装置10又はユーザが装着するウェアラブルデバイスなど、ユーザが所持するデバイスのセンサ装置等により取得されるライフログデータがある。例えば、ユーザの位置情報、ユーザの音声、ユーザの生体情報その他の情報がライフログデータに含まれる。この他に、ユーザが行動した内容の情報としては、ユーザがブラウザ等によりウェブサイトにアクセスした履歴も含まれる。アクセスの履歴としては、例えば、ユーザがEC(electronic commerce)サイトを閲覧した場合に、当該ウェブサイトを閲覧していた時間、商品を指定したこと、購買を行ったことその他の情報がある。 The user action log database 184 is a database that records the contents of user actions as a log. Information on the content of the user's actions includes, for example, life log data acquired by a sensor device of a device possessed by the user, such as a terminal device 10 or a wearable device worn by the user. For example, the user's location information, the user's voice, the user's biometric information and other information are included in the life log data. In addition to this, the information on the content of the user's actions includes the history of the user accessing the website with a browser or the like. The access history includes, for example, when a user browses an EC (electronic commerce) site, the time during which the user browsed the website, the designation of a product, the purchase, and other information.

通信部107Aは、端末装置10Aが外部の装置と通信するための処理を行う。 The communication unit 107A performs a process for the terminal device 10A to communicate with an external device.

操作内容取得モジュール1041は、入力装置104に対するユーザの入力操作を取得して、操作内容を判別する。 The operation content acquisition module 1041 acquires the user's input operation to the input device 104 and determines the operation content.

生成モデル学習モジュール1042は、データを生成するためのモデルを学習する。生成モデル学習モジュール1042は、学習済みのモデルを、生成モデル181として記憶部103に記憶させる。詳細は後述するが、本実施形態では、深層学習を利用してモデルを得るものとして説明する。具体的には、生成モデル学習モジュール1042は、敵対的ネットワーク(GAN)を利用して、画像データを生成するためのモデルを学習する。 The generative model learning module 1042 learns a model for generating data. The generation model learning module 1042 stores the trained model in the storage unit 103 as the generation model 181. Details will be described later, but in this embodiment, it is assumed that a model is obtained by using deep learning. Specifically, the generative model learning module 1042 uses a hostile network (GAN) to learn a model for generating image data.

推定モデル決定モジュール1043は、生成モデル181に入力として与える変数(潜在変数)を推定するための関数を決定する。詳細は後述する。推定モデル決定モジュール1043は、決定した関数を、推定モデル183として記憶部103に記憶させる。 The estimation model determination module 1043 determines a function for estimating a variable (latent variable) given as an input to the generative model 181. Details will be described later. The estimation model determination module 1043 stores the determined function in the storage unit 103 as an estimation model 183.

潜在変数推定モジュール1044は、推定モデル183を利用して、生成モデル181に入力として与える変数を得る。詳細は後述するが、潜在変数推定モジュール1044は、ユーザに関連付けられる入力値を取得して、取得した入力値を推定モデル183の入力とすることで、生成モデル181に入力するための潜在変数を得ることができる。 The latent variable estimation module 1044 utilizes the estimation model 183 to obtain variables to be input to the generative model 181. Although the details will be described later, the latent variable estimation module 1044 acquires the input value associated with the user and uses the acquired input value as the input of the estimation model 183 to input the latent variable to be input to the generation model 181. Obtainable.

画像生成モジュール1045は、潜在変数推定モジュール1044により得られる潜在変数を生成モデル181の入力とすることで、データとして画像データを生成する。 The image generation module 1045 generates image data as data by inputting the latent variable obtained by the latent variable estimation module 1044 into the generation model 181.

行動ログ解析モジュール1046は、ユーザ行動ログデータベース184に蓄積される、ユーザが行動した内容の情報に基づいて、潜在変数推定モジュール1044の入力とする変数を演算する。すなわち、ユーザが行動した内容の情報は、各種センサ装置等が生成した情報、ユーザがウェブサイトで行動した内容の情報などを含むため、これら情報を統合して、潜在変数推定モジュール1044の入力とするための潜在変数に変換する。 The action log analysis module 1046 calculates a variable to be input to the latent variable estimation module 1044 based on the information of the content of the user's action accumulated in the user action log database 184. That is, since the information on the content that the user has acted on includes the information generated by various sensor devices and the information on the content that the user has acted on the website, these information are integrated and input to the latent variable estimation module 1044. Convert to a latent variable to do.

図3は、生成モデル学習モジュール1042の詳細を説明する図である。図3に示すように、生成モデル学習モジュール1042は、生成器301と、学習データセット302と、識別器303とを含む。上記のように、生成モデル学習モジュール1042は、敵対的ネットワークの学習方法の一例としてGANを利用するが、これに限られない。図3において、「X」は識別器303に入力される入力変数である。「Y」は識別器303が出力する出力変数である。「Z」は生成器301に入力される入力変数(潜在変数)である。 FIG. 3 is a diagram illustrating the details of the generative model learning module 1042. As shown in FIG. 3, the generation model learning module 1042 includes a generator 301, a training data set 302, and a classifier 303. As described above, the generative model learning module 1042 uses GAN as an example of a learning method for a hostile network, but is not limited to this. In FIG. 3, "X" is an input variable input to the classifier 303. “Y” is an output variable output by the classifier 303. "Z" is an input variable (latent variable) input to the generator 301.

識別器303は、入力変数Xが学習データセット302であるか、生成器301により生成されたデータ(生成データ)であるかを識別可能なように学習される。図3の例では、識別器303は、生成器301から生成されたデータに対し、出力Yが0になるように学習する。識別器303は、学習データセット302から選ばれた入力変数Xに対し、出力変数Yが1になるように学習する。すなわち、識別器303において、入力変数Xが生成器301により生成されたデータの場合は出力変数Yを0とし、入力変数Xが学習データセット302のものである場合は出力変数Yを1とするように、識別器303を構成する各パラメータの値が学習される。 The classifier 303 is trained so that it can discriminate whether the input variable X is the training data set 302 or the data (generated data) generated by the generator 301. In the example of FIG. 3, the classifier 303 learns so that the output Y becomes 0 with respect to the data generated from the generator 301. The classifier 303 learns so that the output variable Y becomes 1 with respect to the input variable X selected from the training data set 302. That is, in the classifier 303, the output variable Y is set to 0 when the input variable X is the data generated by the generator 301, and the output variable Y is set to 1 when the input variable X is that of the learning data set 302. As described above, the value of each parameter constituting the classifier 303 is learned.

一方、生成器301は、識別器303が学習データセット302の学習データと識別できないデータを生成するように学習される。図3の例では、生成器301は、ノイズzを入力とし、学習データと同じようなデータを生成するよう学習する。例えば、入力変数Xが学習データセット302の学習データである場合は出力変数Yが0になるように、生成器301を構成する各パラメータの値が学習される。上記学習を繰り返すことで、識別器303の識別精度が向上し、生成器301の生成精度(生成器301が生成するデータが学習データセット302の学習データに類似する精度)が向上する。 On the other hand, the generator 301 is trained so that the classifier 303 generates data that cannot be distinguished from the training data of the training data set 302. In the example of FIG. 3, the generator 301 takes the noise z as an input and learns to generate data similar to the training data. For example, when the input variable X is the training data of the training data set 302, the value of each parameter constituting the generator 301 is learned so that the output variable Y becomes 0. By repeating the above learning, the identification accuracy of the classifier 303 is improved, and the generation accuracy of the generator 301 (the accuracy in which the data generated by the generator 301 is similar to the learning data of the learning data set 302) is improved.

上記のような学習は、以下の(式1)に示す評価関数を解くことにより実現される。(式1)において、「V」は評価値、「D」は識別器303を構成するパラメータ群、「G」は生成器301を構成するパラメータ群、E[・]は期待値、「x~pdata」はデータセットからサンプリングされた学習データの集合(入力変数X)に相当する。また、「z~pz」は潜在変数Z、D(X)は入力変数Xが入力された場合の出力変数Y、G(Z)は潜在変数Zを入力とした場合に生成されるデータに相当する。

Figure 0007055300000001
The above learning is realized by solving the evaluation function shown in the following (Equation 1). In (Equation 1), "V" is an evaluation value, "D" is a parameter group constituting the classifier 303, "G" is a parameter group constituting the generator 301, E [·] is an expected value, and "x ~". "pdata" corresponds to a set of training data (input variable X) sampled from the data set. Further, "z ~ pz" corresponds to the latent variable Z, D (X) corresponds to the output variable Y when the input variable X is input, and G (Z) corresponds to the data generated when the latent variable Z is input. do.
Figure 0007055300000001

(式1)の式の右辺第1項は、識別器303の評価値に相当し、識別器303の識別精度が高いほど、高い値となる。(式1)の式の右辺第2項は、生成器301の評価値に相当し、識別器303が、生成器301が生成するデータを、学習データセット302のデータであると誤認識するほど(つまり、識別器303の識別エラーが多いほど)、高い値となる。 The first term on the right side of the equation (Equation 1) corresponds to the evaluation value of the classifier 303, and the higher the identification accuracy of the classifier 303, the higher the value. The second term on the right side of the equation (Equation 1) corresponds to the evaluation value of the generator 301, and the classifier 303 erroneously recognizes the data generated by the generator 301 as the data of the learning data set 302. (That is, the more identification errors of the classifier 303), the higher the value.

よって、識別器303の学習が進むほど、(式1)の右辺第1項が高くなり、右辺第2項が低くなる。また、生成器301の学習が進むほど、(式1)の右辺第1項が低くなり、右辺第2項が高くなる。 Therefore, as the learning of the classifier 303 progresses, the first term on the right side of (Equation 1) becomes higher and the second term on the right side becomes lower. Further, as the learning of the generator 301 progresses, the first term on the right side of (Equation 1) becomes lower and the second term on the right side becomes higher.

<データ構造>
図4は、端末装置10が保持するデータのデータ構造を示す図である。
<Data structure>
FIG. 4 is a diagram showing a data structure of data held by the terminal device 10.

図4に示すように、生成画像データベース182の各レコードは、項目「生成画像ID」と、項目「画像生成時の潜在変数」と、項目「タグ」とを含む。 As shown in FIG. 4, each record of the generated image database 182 includes an item "generated image ID", an item "latent variable at the time of image generation", and an item "tag".

項目「生成画像ID」は、生成モデル181が生成した画像を特定するための識別情報である。 The item "generated image ID" is identification information for specifying the image generated by the generated model 181.

項目「画像生成時の潜在変数」は、項目「生成画像ID」により特定される画像を生成モデル181が生成した際に、入力値として与えられる潜在変数である。 The item "latent variable at the time of image generation" is a latent variable given as an input value when the generation model 181 generates an image specified by the item "generated image ID".

項目「タグ」は、項目「生成画像ID」により特定される画像に対して設定されたタグ情報の内容を示す。 The item "tag" indicates the content of the tag information set for the image specified by the item "generated image ID".

タグ情報は、画像に含まれる対象物に関する情報であってもよい。以下に説明するように、タグ情報は、対象物の「売れやすさ」、「ブランド」、「年代」、「色彩パターン」、「ファッション系統」など、1又は複数の項目の情報を含む。
画像に含まれる対象物としては、ファッションアイテム、日用品(電化製品など)、芸術作品その他の物品がある。これらの物品は、その外観がユーザにとって鑑賞の対象となるものであり、また、購買の動機となるものである。
The tag information may be information about an object included in the image. As described below, the tag information includes information on one or more items such as "ease of sale", "brand", "age", "color pattern", and "fashion system" of the object.
Objects included in the image include fashion items, daily necessities (electric appliances, etc.), works of art, and other items. The appearance of these items is an object of appreciation for the user, and is a motivation for purchasing.

タグ情報には、対象物の出所(ブランド名、販売会社など)に関する情報が含まれ得る。タグ情報には、対象物が生成された時期の情報(製作された年代、販売開始された時期、公開された時期など)が含まれる。タグ情報には、対象物の色彩に関する情報が含まれる。このように、タグ情報に設定される内容は、仮にユーザが対象物を購入する場合に、購入をする決断をするために参照される項目であるとしてもよい。例えば、生成モデル181が生成した画像に対し、ユーザが、タグ情報として特定のブランドを指定したとする。この場合、タグ情報は、画像に含まれる対象物が、「特定のブランドであろう」とユーザが評価した度合いを示すこととしてもよい。また、タグ情報には、ファッション系統の情報が含まれることとしてもよい。ファッション系統とは、「カジュアル」、「きれいめ」、「コンサバ」、「ガーリッシュ」など、ユーザの視点から分類されるカテゴリである。この場合、タグ情報は、画像に含まれる対象物が、特定の系統に適合するとユーザが評価した度合いを示すこととしてもよい。 The tag information may include information about the source of the object (brand name, sales company, etc.). The tag information includes information on when the object was created (date of production, time of sale, time of publication, etc.). The tag information includes information about the color of the object. As described above, the content set in the tag information may be an item referred to for making a purchase decision when the user purchases the object. For example, it is assumed that the user specifies a specific brand as tag information for the image generated by the generation model 181. In this case, the tag information may indicate the degree to which the user evaluates that the object included in the image is "a specific brand". Further, the tag information may include information on the fashion system. The fashion system is a category classified from the user's point of view, such as "casual", "pretty", "conservative", and "garish". In this case, the tag information may indicate the degree to which the user evaluates that the object contained in the image is suitable for a specific system.

タグ情報は、当該対象物に対するユーザの評価項目に関する情報であってもよい。例えば、ユーザが当該画像に対して入力した評価値を含む。評価値としては、例えば、当該画像に含まれる対象物が、ファッションアイテムなどユーザの趣味嗜好により購買される傾向があるものである場合、当該対象物をユーザが評価する度合(「売れやすさ」、「流行しそう」などと表現してもよい)を数値化したものとしてもよい。また、タグ情報における評価値としては、ユーザの感情を評価した値であるとしてもよい。例えば、画像に対して、対象物を好意的に評価する「いいね」、対象物を否定的に評価する「そうでもない」をユーザが指定できることとしてもよい。 The tag information may be information about a user's evaluation item for the object. For example, it includes an evaluation value input by the user for the image. As the evaluation value, for example, when the object included in the image tends to be purchased according to the user's hobbies and tastes such as fashion items, the degree to which the user evaluates the object (“easiness to sell””. , "It seems to be popular", etc.) may be quantified. Further, the evaluation value in the tag information may be a value in which the user's emotion is evaluated. For example, the user may be able to specify "like" for positively evaluating the object and "not so" for negatively evaluating the object for the image.

また、画像に含まれる対象物としては、「製品」、「人物」、「動物」などが含まれ得る。タグ情報は、「製品」、「人物」、「動物」に対して趣味嗜好に適合する度合いを示す情報であるとしてもよいし、感情の評価値の情報であるとしてもよい。 Further, the object included in the image may include a "product", a "person", an "animal" and the like. The tag information may be information indicating the degree to which the "product", "person", and "animal" are suitable for hobbies and tastes, or may be information on the evaluation value of emotions.

ユーザ行動ログデータベース184の各レコードは、ユーザの識別情報(ユーザID)と対応付けて、項目「サイト行動ログ」と、項目「SNS行動ログ」と、項目「ライフログデータ」とを含んで構成されている。 Each record of the user action log database 184 is configured to include the item "site action log", the item "SNS action log", and the item "life log data" in association with the user identification information (user ID). Has been done.

項目「サイト行動ログ」は、ユーザがブラウザ等によりウェブサイトを訪問し、ウェブサイト(例えば、ECサイト)内で行った行動のログを示す。例えば、「サイト行動ログ」には、ウェブサイトにアクセスしたタイミングの情報、当該ウェブサイトでユーザが閲覧したページの情報、当該ウェブサイトでユーザが購買行動を行ったページ又は画像の情報などを含む。 The item "site action log" shows a log of actions taken by a user visiting a website using a browser or the like and within the website (for example, an EC site). For example, the "site action log" includes information on the timing of accessing a website, information on a page viewed by a user on the website, information on a page or image on which the user made a purchase on the website, and the like. ..

項目「SNS行動ログ」は、ユーザがSNS(Social Network Service)において行った行動のログを示す。行動のログとして、例えば、ユーザが他のユーザの情報を閲覧したこと、ユーザが画像などのデータに対してアクションを行ったこと(「いいね」を押下した分布)などが含まれる。 The item "SNS action log" indicates a log of actions taken by the user in the SNS (Social Network Service). The action log includes, for example, the user browsing the information of another user, the user taking an action on data such as an image (distribution of pressing "Like"), and the like.

項目「ライフログデータ」は、端末装置10、又は、ウェアラブル装置によって取得される各種ライフログのデータである。例えば、ユーザの位置の情報、音声の情報などが含まれる。ライフログの情報としては、他にも、ユーザが端末装置10等で動作させることで生成されるデータも含む。例えば、ユーザが端末装置10のメモ作成用のアプリケーションを実行した場合に、当該メモの内容がライフログの情報になり得る。 The item "life log data" is data of various life logs acquired by the terminal device 10 or the wearable device. For example, user position information, voice information, and the like are included. The life log information also includes data generated by the user operating the terminal device 10 or the like. For example, when the user executes an application for creating a memo of the terminal device 10, the content of the memo can be the information of the life log.

図5は、推定モデル決定モジュール1043が、推定モデル183を得る過程を示す図である。 FIG. 5 is a diagram showing a process in which the estimation model determination module 1043 obtains the estimation model 183.

図5(A)の状態に示すように、まず、生成モデル181(生成器301を学習させた結果)に対して潜在変数を入力することにより、画像を生成する。ここで、潜在変数は、N(Nは1以上の整数)次元の値を有するものとする。生成モデル181によって生成された画像に対して、タグ情報を設定する。 As shown in the state of FIG. 5A, first, an image is generated by inputting a latent variable to the generation model 181 (result of training the generator 301). Here, it is assumed that the latent variable has a value of N (N is an integer of 1 or more) dimension. Tag information is set for the image generated by the generative model 181.

図5(B)の状態に示すように、生成画像データベース182には、潜在変数と、タグ情報とが対応付けて記憶されている。例えば、タグ情報としてユーザの評価値(画像に含まれる製品を気に入るか否か、など)を使用することがあり得る。なお、図5(B)の状態は、上述するように、生成画像データベース182を概念的に示したものである。図5(B)の状態に示すように、複数の潜在変数について、(i)潜在変数と、(ii)設定されるタグ情報とが関連付けられている。これらデータセットに深層学習、又は重回帰分析などを行うことにより、推定モデル183を得る。 As shown in the state of FIG. 5B, the latent variable and the tag information are stored in association with each other in the generated image database 182. For example, the user's evaluation value (whether or not the product included in the image is liked, etc.) may be used as the tag information. The state of FIG. 5B conceptually shows the generated image database 182 as described above. As shown in the state of FIG. 5B, (i) the latent variable and (ii) the tag information to be set are associated with each other for the plurality of latent variables. An estimation model 183 is obtained by performing deep learning, multiple regression analysis, or the like on these data sets.

図5では、タグ情報として、1次元の値を使用して、推定モデル183を得る例を示しているが、タグ情報は、多次元の値を有するベクトルであってもよい。例えば、タグ情報は、複数の項目を有しており、それぞれの項目について評価値を有することとしてもよい。例えば、タグ情報が、ファッションブランドに関する評価値と、年代に関する評価値とを有する(例えば、ファッションアイテムなど物品に関する項目として、「特定のブランドっぽさ」と、「発表された年代」などの複数の項目)といったように、別の概念の評価値を有することとしてもよい。また、タグ情報が、第1のブランドに対応する値と、第2のブランドに対応する値を有する(例えば、物品に関する項目として、「第1のブランドっぽさ」と、「第2のブランドっぽさ」などの複数の項目)といったように、同概念だが別の種類の評価値を有することとしてもよい。 FIG. 5 shows an example of obtaining an estimation model 183 by using a one-dimensional value as the tag information, but the tag information may be a vector having a multidimensional value. For example, the tag information may have a plurality of items and may have an evaluation value for each item. For example, the tag information has an evaluation value related to a fashion brand and an evaluation value related to an age (for example, as an item related to an article such as a fashion item, a plurality of items such as "specific brand-likeness" and "announced age". It may have an evaluation value of another concept such as (item). Further, the tag information has a value corresponding to the first brand and a value corresponding to the second brand (for example, "first brand-likeness" and "second brand" as items related to goods. Multiple items such as "likeness") may have the same concept but different types of evaluation values.

図6は、本実施形態における画面例を示す図である。
図6(A)の画面例は、生成モデル181に潜在変数Zを入力値として与えることにより生成された画像に対して、ユーザの評価を受け付ける局面を示す。これにより、生成画像データベース182において、潜在変数と、画像の識別情報と対応付けて、ユーザの評価をタグ情報として保持することができる。
FIG. 6 is a diagram showing a screen example in this embodiment.
The screen example of FIG. 6A shows a situation in which a user's evaluation is accepted for an image generated by giving a latent variable Z as an input value to the generation model 181. As a result, in the generated image database 182, the user's evaluation can be held as tag information in association with the latent variable and the image identification information.

図6(A)の画面例では、一例として、出力装置106がディスプレイであり、入力装置104がタッチセンシティブデバイスである場合を示す。端末装置10は、出力装置106(ディスプレイ)に、画像表示部106Aと、評価値表示部106Bと、評価入力部106Cとを表示する。 In the screen example of FIG. 6A, as an example, a case where the output device 106 is a display and the input device 104 is a touch-sensitive device is shown. The terminal device 10 displays the image display unit 106A, the evaluation value display unit 106B, and the evaluation input unit 106C on the output device 106 (display).

画像表示部106Aは、生成モデル181に潜在変数を入力することで生成された画像を表示する。 The image display unit 106A displays an image generated by inputting a latent variable into the generation model 181.

評価値表示部106Bは、ユーザが入力している評価値を表示する。 The evaluation value display unit 106B displays the evaluation value input by the user.

評価入力部106Cは、ユーザから、評価値の入力を受け付ける。評価入力部106Cは、図示するように、評価項目として、画像表示部106Aに表示される対象物(図示する例では、ファッションアイテム)に対して、売れやすさ(流行りそうか)を設定している。ユーザは、スライドバー106Dにより、売れやすさ(流行りそうか、そうではなさそうか)を入力する。ユーザは、指106Fにより、スライドバー106Dのアイコン106Eをスライドさせる。図示する例では、端末装置10は、評価値として一定の範囲の値をユーザから受け付ける。端末装置10は、ユーザがアイコン106Eをスライドバー106D上で左右に移動させることに伴って、スライドバー106D上の位置に応じた評価値の入力を受け付けて、その評価値を評価値表示部106Bに表示する。 The evaluation input unit 106C accepts the input of the evaluation value from the user. As shown in the figure, the evaluation input unit 106C sets the ease of selling (probably fashionable) for the object (fashion item in the illustrated example) displayed on the image display unit 106A as an evaluation item. There is. The user inputs the ease of selling (whether it seems to be popular or not) by the slide bar 106D. The user slides the icon 106E of the slide bar 106D with the finger 106F. In the illustrated example, the terminal device 10 accepts a value in a certain range as an evaluation value from the user. The terminal device 10 accepts the input of the evaluation value according to the position on the slide bar 106D as the user moves the icon 106E left and right on the slide bar 106D, and displays the evaluation value in the evaluation value display unit 106B. Display on.

端末装置10は、ユーザから、対象となる評価項目(例えば、「売れやすさ」)の評価値を確定させる操作を受け付けることにより、生成画像データベース182を更新して、画像の識別情報と関連付けて(つまり、当該画像を生成モデル181により生成する際の潜在変数と関連付けて)、当該評価項目の評価値をタグ情報として保持する。 The terminal device 10 updates the generated image database 182 by receiving an operation of determining the evaluation value of the target evaluation item (for example, “ease of sale”) from the user, and associates it with the identification information of the image. (That is, the evaluation value of the evaluation item is retained as tag information in association with the latent variable when the image is generated by the generation model 181).

図6(B)の画面例は、ユーザが入力値を指定することで、推定モデル183により潜在変数を推定し、推定した潜在変数により画像を生成する局面を示す。端末装置10は、出力装置106に、調整画像表示部106Gと、評価値表示部106Hと、評価値入力部106Jと、登録受付部106Lと、情報取得部106Mとを表示する。 The screen example of FIG. 6B shows a situation in which a user specifies an input value, a latent variable is estimated by the estimation model 183, and an image is generated by the estimated latent variable. The terminal device 10 displays the adjustment image display unit 106G, the evaluation value display unit 106H, the evaluation value input unit 106J, the registration reception unit 106L, and the information acquisition unit 106M on the output device 106.

端末装置10は、ユーザが指106Fにより、アイコン106Eを、評価値入力部106Jに表示されるスライドバー106K上で移動させることで、入力する評価値を調整する。評価値表示部106Hは、ユーザが入力している評価値を表示するための領域である。 The terminal device 10 adjusts the evaluation value to be input by the user moving the icon 106E on the slide bar 106K displayed on the evaluation value input unit 106J by the finger 106F. The evaluation value display unit 106H is an area for displaying the evaluation value input by the user.

端末装置10は、ユーザが評価値を変更させる操作を行うことに応答して、都度、推定モデル183により、潜在変数を推定する。端末装置10は、推定した潜在変数を生成モデル181の入力値として画像を生成し、生成した画像を調整画像表示部106Gに表示する。これにより、ユーザは、スライドバー106K上で評価値の入力を更新するたびに、画像表示部106Aに表示される画像を確認することができる。 The terminal device 10 estimates the latent variable by the estimation model 183 each time in response to the operation of changing the evaluation value by the user. The terminal device 10 generates an image using the estimated latent variable as an input value of the generation model 181 and displays the generated image on the adjustment image display unit 106G. As a result, the user can confirm the image displayed on the image display unit 106A every time the input of the evaluation value is updated on the slide bar 106K.

登録受付部106Lは、ユーザが、調整画像表示部106Gに表示される画像を保存するための操作を受け付ける。これにより、端末装置10は、調整画像表示部106Gに表示される画像の識別情報と、ユーザが入力した評価値と、推定モデル183により推定された潜在変数とを関連付けて、例えば生成画像データベース182に保持させる。端末装置10は、このようにして生成画像データベース182が更新されることに応答して、推定モデル決定モジュール1043により推定モデル183を決定することとしてもよい。 The registration reception unit 106L accepts an operation for the user to save the image displayed on the adjustment image display unit 106G. As a result, the terminal device 10 associates the identification information of the image displayed on the adjusted image display unit 106G with the evaluation value input by the user and the latent variable estimated by the estimation model 183, for example, the generated image database 182. To hold it. The terminal device 10 may determine the estimation model 183 by the estimation model determination module 1043 in response to the update of the generated image database 182 in this way.

情報取得部106Mは、ユーザのライフログ情報に基づいて、推定モデル183に入力するための値を取得する。端末装置10は、情報取得部106Mへのユーザの操作に応答して、ユーザ行動ログデータベース184の項目「ライフログデータ」を読み出し、読み出した各種ライフログのデータを参照して、ユーザの嗜好性に関する指標値を計算する。これにより、端末装置10は、指標値を推定モデル183に入力することにより潜在変数を推定し、推定した潜在変数と生成モデル181とにより調整画像表示部106Gに画像を表示することができる。 The information acquisition unit 106M acquires a value to be input to the estimation model 183 based on the user's life log information. The terminal device 10 reads out the item "life log data" of the user action log database 184 in response to the user's operation to the information acquisition unit 106M, and refers to the read data of various life logs, and the user's preference. Calculate the index value for. As a result, the terminal device 10 can estimate the latent variable by inputting the index value into the estimation model 183, and display the image on the adjusted image display unit 106G by the estimated latent variable and the generation model 181.

図6(C)の画面例は、図6(B)の画面例のように、推定モデル183により潜在変数を推定することで画像を生成する局面を示す。図6(B)の画面例と比較すると、図6(B)の画面例では、ユーザが入力する評価値が一次元の値であるのに対し、図6(C)の画面例では、多次元の値である点で異なる。 The screen example of FIG. 6C shows a phase in which an image is generated by estimating a latent variable by an estimation model 183, as in the screen example of FIG. 6B. Compared with the screen example of FIG. 6 (B), in the screen example of FIG. 6 (B), the evaluation value input by the user is a one-dimensional value, whereas in the screen example of FIG. 6 (C), there are many. It differs in that it is a dimensional value.

端末装置10は、図6(B)の画面例とは異なる評価値入力部106Pと、評価値表示部106Nとを表示する。 The terminal device 10 displays an evaluation value input unit 106P and an evaluation value display unit 106N, which are different from the screen example of FIG. 6B.

端末装置10は、評価値入力部106Pにおいて、多次元の値の入力をユーザから受け付ける入力受付画像106Qを表示する。図6(C)の画面例では、一例として、3次元(x、y、z)の評価値をユーザから受け付けることとしている。端末装置10は、入力受付画像106Qとして、各次元の値を調整可能な図形を表示する。図示する例では、入力受付画像106Qは、六角形の形状を有している。当該六角形の形状において、頂点間を接続することで、3次元の値の入力を受け付ける。例えば、水平方向は、「x」の値の入力を示し、右上がりの方向は、「y」の値の入力を示し、右下がりの方向は、「z」の値の入力を示す。ユーザは、指106Fにより、アイコン106Eを、入力受付画像106Qで移動させることにより、3次元の評価値を入力することができる。 The terminal device 10 displays the input reception image 106Q that accepts the input of the multidimensional value from the user in the evaluation value input unit 106P. In the screen example of FIG. 6C, as an example, a three-dimensional (x, y, z) evaluation value is accepted from the user. The terminal device 10 displays a figure whose value in each dimension can be adjusted as the input reception image 106Q. In the illustrated example, the input reception image 106Q has a hexagonal shape. In the hexagonal shape, input of a three-dimensional value is accepted by connecting the vertices. For example, the horizontal direction indicates the input of the value of "x", the upward-sloping direction indicates the input of the value of "y", and the downward-sloping direction indicates the input of the value of "z". The user can input a three-dimensional evaluation value by moving the icon 106E with the input reception image 106Q by the finger 106F.

端末装置10は、ユーザが評価値入力部106Pで入力した多次元の入力値を、評価値表示部106Nに表示する。 The terminal device 10 displays the multidimensional input value input by the user in the evaluation value input unit 106P on the evaluation value display unit 106N.

以上のように、図6(B)の画面例、図6(C)の画面例では、スライドバー106K、評価値入力部106Pにより、ユーザが評価値を入力する例を説明した。この他に、ユーザが評価値を入力することなく、ユーザから所定の操作を受け付けることで、推定モデル183に入力する入力値を決定することとしてもよい。 As described above, in the screen example of FIG. 6B and the screen example of FIG. 6C, an example in which the user inputs the evaluation value by the slide bar 106K and the evaluation value input unit 106P has been described. In addition to this, the input value to be input to the estimation model 183 may be determined by accepting a predetermined operation from the user without inputting the evaluation value by the user.

図6(D)の画面例は、端末装置10が、ユーザに対して画像などのデータを複数提示して、ユーザが選択する操作を受け付けることにより、ユーザの趣味嗜好等を推定する局面を示す。端末装置10は、このようにしてユーザの趣味嗜好等の傾向を予測することで、推定モデル183に与える入力値を決定する。 The screen example of FIG. 6D shows a situation in which the terminal device 10 presents a plurality of data such as images to the user and accepts an operation selected by the user to estimate the user's hobbies and tastes. .. The terminal device 10 determines the input value given to the estimation model 183 by predicting the tendency of the user's hobbies and tastes in this way.

図6(D)の画面例に示すように、端末装置10は、出力装置106に、複数の画像(画像106R1、106R2、106R3、106R4)を表示している。当該画像は、例えばファッションアイテムなどの物品の画像である。これら画像には、予め、ブランド名、製作された年代、ファッション系統等の分類が付与されている。
このように、ユーザにサンプルを提示して、ユーザの趣味嗜好等の傾向を推定する際、サンプルとして、音楽をユーザに提示することとしてもよい。例えば、ユーザに提示する音楽がカテゴリに分類されており、ユーザが選択した音楽に付与された分類に基づいて、ユーザの趣味嗜好等の傾向を推定することができる。また、ユーザに雑誌(ファッション雑誌など)コンテンツを提示することとしてもよい。雑誌は、通常、顧客セグメントを定義して製作されていることが多いため、ユーザが選択した雑誌コンテンツに付与された情報に基づいて、ユーザの趣味嗜好等の傾向を推定することができる。また、ユーザに、有名な人物(芸能人、著名人)の情報を提示することとしてもよい。これら人物に付与された情報(年代、ファッション傾向、製作しているコンテンツ等)に基づいて、ユーザの趣味嗜好等の傾向を推定することができる。
As shown in the screen example of FIG. 6D, the terminal device 10 displays a plurality of images (images 106R1, 106R2, 106R3, 106R4) on the output device 106. The image is an image of an article such as a fashion item. These images are given classifications such as brand name, age of production, fashion system, etc. in advance.
In this way, when presenting a sample to the user and estimating a tendency such as a user's hobbies and tastes, music may be presented to the user as a sample. For example, the music presented to the user is classified into categories, and the tendency of the user's hobbies and tastes can be estimated based on the classification given to the music selected by the user. Further, the content of a magazine (fashion magazine, etc.) may be presented to the user. Since a magazine is usually produced by defining a customer segment, it is possible to estimate a tendency such as a user's hobbies and preferences based on the information given to the magazine content selected by the user. In addition, information on a famous person (entertainer, celebrity) may be presented to the user. Based on the information given to these persons (age, fashion tendency, content being produced, etc.), it is possible to estimate the tendency of the user's hobbies and tastes.

このように、端末装置10は、ユーザに複数の画像を提示して、ユーザから選択を受け付ける処理を繰り返すにつれて、選択された画像に付与された分類に基づいて、ユーザの趣味嗜好等の傾向を推定することができる。端末装置10は、このようにして推定したユーザの趣味嗜好等の傾向のデータに基づいて、所定の処理を行うことにより、推定モデル183に入力する入力値を決定する。 As described above, as the terminal device 10 repeats the process of presenting a plurality of images to the user and accepting the selection from the user, the terminal device 10 shows the tendency of the user's hobbies and tastes based on the classification given to the selected image. Can be estimated. The terminal device 10 determines an input value to be input to the estimation model 183 by performing a predetermined process based on the tendency data such as the user's hobbies and preferences estimated in this way.

<動作>
図7は、端末装置10の動作を示すフローチャートである。
<Operation>
FIG. 7 is a flowchart showing the operation of the terminal device 10.

ステップS701において、端末装置10(操作内容取得モジュール1041)は、推定モデル183に入力するための入力値をユーザから受け付けるUI(User Interface)部品を出力装置106に表示する。図6(B)の画面例の評価値入力部106Jを表示すること等に対応する。 In step S701, the terminal device 10 (operation content acquisition module 1041) displays on the output device 106 a UI (User Interface) component that receives an input value to be input to the estimation model 183 from the user. Corresponds to displaying the evaluation value input unit 106J of the screen example of FIG. 6B.

ステップS705において、端末装置10(潜在変数推定モジュール1044)は、ユーザが指定した入力値を、推定モデル183に入力する。これにより、端末装置10は、潜在変数の推定結果を取得する。 In step S705, the terminal device 10 (latent variable estimation module 1044) inputs the input value specified by the user into the estimation model 183. As a result, the terminal device 10 acquires the estimation result of the latent variable.

ステップS709において、端末装置10(画像生成モジュール1045)は、ステップS705で取得した潜在変数を、生成モデル181の入力とすることにより画像を生成する。 In step S709, the terminal device 10 (image generation module 1045) generates an image by using the latent variable acquired in step S705 as an input of the generation model 181.

ステップS713において、端末装置10は、生成した画像と、ユーザが指定した入力値とを出力装置106に表示する。図6(B)の画面例の調整画像表示部106G、評価値表示部106Hを表示すること等に対応する。 In step S713, the terminal device 10 displays the generated image and the input value specified by the user on the output device 106. It corresponds to displaying the adjustment image display unit 106G and the evaluation value display unit 106H of the screen example of FIG. 6B.

<変形例>
(1)生成モデル181の学習方法
上記の実施形態で、図3等を用いて、生成モデル181の学習方法について説明した。ここで、学習用のデータとして、例えばファッションアイテムなどの物品において特定のブランドの画像を用いることとしてもよい。これにより、生成モデル181は、特定のブランドの物品のような画像を生成することができる。
また、学習用のデータとして、複数のブランドの画像を用いることとしてもよい。これにより、生成モデル181は、複数のブランドが混合したような画像を生成することができる。
<Modification example>
(1) Learning method of the generative model 181 In the above embodiment, the learning method of the generative model 181 has been described with reference to FIG. 3 and the like. Here, as learning data, an image of a specific brand may be used in an article such as a fashion item. This allows the generative model 181 to generate an image that resembles an article of a particular brand.
In addition, images of a plurality of brands may be used as learning data. As a result, the generative model 181 can generate an image in which a plurality of brands are mixed.

(2)画像生成方法を提供する態様
例えば、本実施形態における画像生成方法を、ECサイト等のウェブサイトにおいて提供することとしてもよい。例えばファッションアイテムを販売するECサイトである場合、当該ECサイトにおいてユーザが所定の行動をしたことに応答して、図6(B)の画面例に示すようにユーザから評価値の入力を受け付けて調整画像表示部106Gに画像を表示することとしてもよい。当該図6(B)の画面例において登録受付部106Lへの操作をユーザが行うこと等により、ECサイト側において、ユーザが所望するファッションアイテムの情報を取得することができる。
(2) Aspect for Providing an Image Generation Method For example, the image generation method in the present embodiment may be provided on a website such as an EC site. For example, in the case of an EC site that sells fashion items, in response to the user performing a predetermined action on the EC site, an evaluation value is input from the user as shown in the screen example of FIG. 6 (B). An image may be displayed on the adjusted image display unit 106G. By the user performing an operation on the registration reception unit 106L in the screen example of FIG. 6B, information on the fashion item desired by the user can be acquired on the EC site side.

ここで、所定の行動としては、例えば、ユーザがアイテムを検索するためにキーワードを入力したこと、ユーザがアイテムを購入するにあたりカートにアイテムを追加したこと、ユーザがアイテムを購入する決済処理を行うこと、等が含まれる。ECサイトは、ユーザがこれら所定の行動を行ったときに、抽選で、図6(B)の画面例のようにユーザから評価値の入力を受け付ける画面を表示することとしてもよい。これにより、ECサイトでの購入体験に意外感を持たせて、継続してECサイトを訪問するよう動機づけることができ得る。 Here, as predetermined actions, for example, the user inputs a keyword to search for an item, the user adds an item to the cart when purchasing the item, and the user performs a payment process for purchasing the item. That, etc. are included. The EC site may display a screen that accepts the input of the evaluation value from the user as in the screen example of FIG. 6B by lottery when the user performs these predetermined actions. This can make the purchase experience on the EC site surprising and motivate you to continue to visit the EC site.

<付記>
以上の実施形態で説明した事項を、以下に付記する。
<Additional Notes>
The matters described in the above embodiments are added below.

(付記1) 一実施形態によると、情報処理装置(10)が提供される。
情報処理装置(10)は、学習済みの生成モデル(181)、及び、生成モデルへ入力する変数を推定するための推定モデル(183)を記憶する記憶部(103A)と、一又は複数のコンピュータプロセッサ(101A)と、を備える。一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、ユーザに関連付けられる第1の入力値を取得するステップ(1041、106J、106P)と、推定モデルに対し第1の入力値を入力することで、推定結果として第1の変数を推定するステップ(1044)と、第1の変数を生成モデルに入力することにより第1のデータを生成するステップ(1045)と、生成された第1のデータをユーザに提示するステップ(106G)と、を行う。
(Appendix 1) According to one embodiment, an information processing apparatus (10) is provided.
The information processing apparatus (10) includes a generative model (181) that has been trained, a storage unit (103A) that stores an estimation model (183) for estimating variables to be input to the generative model, and one or more computers. It includes a processor (101A). One or more computer processors obtain the first input value associated with the user by executing a computer-readable instruction (1041, 106J, 106P) and the first input value for the estimation model. Is generated to estimate the first variable as an estimation result (1044) and to generate the first data by inputting the first variable into the generation model (1045). The step (106G) of presenting the first data to the user is performed.

(付記2) (付記1)において、記憶部は、生成モデルに入力する変数と、当該変数を入力することで生成されるデータに対して関連付けられるタグ情報とを記憶するように構成されている(182)。一又は複数のコンピュータプロセッサは、記憶される複数の変数及びタグ情報を分析することにより、推定モデルを決定するステップ(10443、図5)を行い、推定モデルは、タグ情報に関する入力値に応じて変数を推定する。 (Appendix 2) In (Appendix 1), the storage unit is configured to store the variable input to the generation model and the tag information associated with the data generated by inputting the variable. (182). One or more computer processors perform a step of determining an estimation model (10443, FIG. 5) by analyzing a plurality of stored variables and tag information, which is based on input values for the tag information. Estimate the variable.

(付記3) (付記2)において、生成モデルは、変数の入力に応答して画像データを生成するものであり、タグ情報は、画像データとして生成される対象物に関する情報、又は、当該対象物に対するユーザの評価項目に関する情報の少なくともいずれかを含む(182)。 (Appendix 3) In (Appendix 2), the generation model generates image data in response to the input of variables, and the tag information is information about an object generated as image data or the object. Contains at least one of the information about the user's evaluation items for (182).

(付記4) (付記3)において、タグ情報は、対象物に関する情報であり、対象物には、ファッションアイテム、日用品、芸術作品その他の物品が含まれ、対象物に関する情報には、物品の出所に関する情報、物品が生成された時期の情報、物品の色彩に関する情報の少なくともいずれかを含む(182)。 (Appendix 4) In (Appendix 3), the tag information is information about the object, the object includes fashion items, daily necessities, works of art and other articles, and the information about the object includes the source of the article. It contains at least one of information about, when the article was created, and information about the color of the article (182).

(付記5) (付記3)において、タグ情報は、対象物に対するユーザの評価項目に関する情報であり、対象物に関するユーザの評価項目に関する情報は、ユーザの趣味嗜好に適合する度合を示す情報、ユーザの感情の評価値の情報の少なくともいずれかを含む(182)。 (Appendix 5) In (Appendix 3), the tag information is information about the user's evaluation item for the object, and the information about the user's evaluation item for the object is information indicating the degree of conformity with the user's hobbies and tastes, the user. It contains at least one of the information on the evaluation value of the emotion of (182).

(付記6) (付記5)において、対象物には、製品、人、又は、動物が含まれ、対象物に関するユーザの評価項目に関する情報は、生成される画像データに含まれる製品、人又は動物に対して趣味嗜好に適合する度合を示す情報、感情の評価値の情報の少なくともいずれかを含む(182)。 (Appendix 6) In (Appendix 5), the object includes a product, a person, or an animal, and information on a user's evaluation item regarding the object is the product, a person, or an animal included in the generated image data. It includes at least one of information indicating the degree of suitability for hobbies and tastes and information on evaluation values of emotions (182).

(付記7) (付記4)から(付記6)のいずれかにおいて、一又は複数のコンピュータプロセッサは、学習データに基づいて、生成モデルを学習するステップを行い(1042)、学習するステップにおいて、一又は複数の特定のブランドの製品の画像データを学習データとして生成モデルを学習し、第1の入力値を取得するステップにおいて、第1の入力値として、ブランドに関する情報を受け付ける。 (Appendix 7) In any one of (Appendix 4) to (Appendix 6), one or more computer processors perform a step of learning the generated model based on the training data (1042), and in the learning step, one. Alternatively, in a step of learning a generation model using image data of a plurality of specific brand products as training data and acquiring a first input value, information about the brand is accepted as the first input value.

(付記8) (付記1)から(付記7)のいずれかにおいて、第1の入力値を取得するステップにおいて、ユーザに対し、第1の入力値の入力を受け付けるための第1のインタフェースを提示し(106J、106P)、推定するステップにおいて、第1のインタフェースに対する入力結果を推定モデルに入力する。 (Appendix 8) In any of (Appendix 1) to (Appendix 7), in the step of acquiring the first input value, the user is presented with the first interface for accepting the input of the first input value. Then, in the estimation step (106J, 106P), the input result for the first interface is input to the estimation model.

(付記9) (付記8)において、第1の入力値は、複数の入力項目の情報を含み、第1の入力値を取得するステップにおいて、ユーザに対し、複数の入力項目について第1の入力値の入力を受け付け(106P)、推定するステップにおいて、複数の入力項目の情報を含む第1の入力値に応答して第1の変数を推定する。 (Appendix 9) In (Appendix 8), the first input value includes information on a plurality of input items, and in the step of acquiring the first input value, the user is informed of the first input for the plurality of input items. In the step of accepting input of a value (106P) and estimating, the first variable is estimated in response to the first input value including information of a plurality of input items.

(付記10) (付記9)において、第1の入力値を取得するステップにおいて、ユーザに対し、多次元の入力を受け付ける画像(106Q)を第1のインタフェースとして提示する。 (Appendix 10) In (Appendix 9), in the step of acquiring the first input value, an image (106Q) that accepts multidimensional input is presented to the user as the first interface.

(付記11) (付記8)から(付記10)のいずれかにおいて、提示するステップにおいて、第1の入力値の入力を受け付けるための第1のインタフェース(106J)と、生成される第1のデータ(106G)と、入力値(106H)と、当該第1のデータをユーザが確定する操作を受け付けるための第2のインタフェース(106L)とを一画面でユーザに提示し、一又は複数のコンピュータプロセッサは、確定する操作を受け付けることにより、入力値をタグ情報として第1データと関連付けて記憶部に記憶させるステップを行う(182)。 (Appendix 11) In any of (Appendix 8) to (Appendix 10), in the step of presenting, the first interface (106J) for accepting the input of the first input value and the first data to be generated. (106G), an input value (106H), and a second interface (106L) for accepting an operation for confirming the first data by the user are presented to the user on one screen, and one or more computer processors. Performs a step of associating the input value with the first data as tag information and storing it in the storage unit by accepting the operation of confirming (182).

(付記12) (付記1)から(付記11)のいずれかにおいて、一又は複数のコンピュータプロセッサは、ユーザの行動のログを取得するステップを行い(184)、第1の入力値を取得するステップにおいて、ユーザの行動のログに基づき第1の入力値を取得する。 (Appendix 12) In any one of (Appendix 1) to (Appendix 11), one or more computer processors performs a step of acquiring a log of user actions (184), and a step of acquiring a first input value. In, the first input value is acquired based on the log of the user's action.

(付記13) (付記1)から(付記12)のいずれかにおいて、第3のインタフェースにより、所定の情報をユーザに提示し(106R1、106R2、106R3、106R4)、ユーザからの応答の内容に基づいて、第1の入力値を取得する。 (Appendix 13) In any of (Appendix 1) to (Appendix 12), predetermined information is presented to the user by the third interface (106R1, 106R2, 106R3, 106R4), and based on the content of the response from the user. And get the first input value.

(付記14) (付記1)から(付記13)のいずれかにおいて、一又は複数のコンピュータプロセッサは、学習データに基づいて、生成モデルを学習するステップを行い(1042)、学習するステップにおいて、データを生成する生成器(301)と、学習データ(302)及び生成器により生成されたデータを識別する識別器(303)と、を含む敵対的ネットワークの学習方法により、生成モデルを学習する。 (Appendix 14) In any of (Appendix 1) to (Appendix 13), one or more computer processors perform a step of learning a generative model based on the training data (1042), and in the learning step, the data. The generative model is trained by a learning method of a hostile network including a generator (301) that generates the data, a training data (302), and a discriminator (303) that identifies the data generated by the generator.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be variously improved or modified without departing from the gist of the present invention. Further, the above embodiments and modifications can be combined.

Claims (16)

学習済みの生成モデル、及び、前記生成モデルへ入力する変数を推定するための推定モデルを記憶する記憶部と、一又は複数のコンピュータプロセッサと、を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
ユーザに関連付けられる第1の入力値を取得するステップと、
前記推定モデルに対し前記第1の入力値を入力することで、推定結果として第1の変数を推定するステップと、
前記第1の変数を前記生成モデルに入力することにより第1のデータを生成するステップと、
生成された前記第1のデータを前記ユーザに提示するステップと、を行う、情報処理装置。
A storage unit for storing a trained generative model and an estimation model for estimating variables to be input to the generative model, and one or more computer processors.
The one or more computer processors may execute computer-readable instructions.
The step to get the first input value associated with the user,
A step of estimating the first variable as an estimation result by inputting the first input value to the estimation model, and
The step of generating the first data by inputting the first variable into the generative model, and
An information processing apparatus that performs a step of presenting the generated first data to the user.
前記記憶部は、前記生成モデルに入力する変数と、当該変数を入力することで生成されるデータに対して関連付けられるタグ情報とを記憶するように構成されており、
前記一又は複数のコンピュータプロセッサは、
前記記憶される複数の前記変数及び前記タグ情報を分析することにより、前記推定モデルを決定するステップを行い、
前記推定モデルは、前記タグ情報に関する入力値に応じて前記変数を推定する、請求項1に記載の情報処理装置。
The storage unit is configured to store a variable to be input to the generation model and tag information associated with the data generated by inputting the variable.
The one or more computer processors
By analyzing the plurality of stored variables and the tag information, a step of determining the estimation model is performed.
The information processing apparatus according to claim 1, wherein the estimation model estimates the variable according to an input value related to the tag information.
前記生成モデルは、変数の入力に応答して画像データを生成するものであり、
前記タグ情報は、画像データとして生成される対象物に関する情報、又は、当該対象物に対するユーザの評価項目に関する情報の少なくともいずれかを含む、請求項2に記載の情報処理装置。
The generative model generates image data in response to the input of variables.
The information processing apparatus according to claim 2, wherein the tag information includes at least one of information about an object generated as image data and information about a user's evaluation item for the object.
前記タグ情報は、前記対象物に関する情報であり、
前記対象物には、ファッションアイテム、日用品、又は、芸術作品の物品が含まれ、
前記対象物に関する情報には、前記物品の出所に関する情報、前記物品が生成された時期の情報、前記物品の色彩に関する情報の少なくともいずれかを含む、請求項3に記載の情報処理装置。
The tag information is information about the object, and is
The object includes fashion items, daily necessities, or works of art.
The information processing apparatus according to claim 3, wherein the information regarding the object includes at least one of information regarding the source of the article, information about the time when the article was generated, and information regarding the color of the article.
前記タグ情報は、前記対象物に対するユーザの評価項目に関する情報であり、
前記対象物に関するユーザの評価項目に関する情報は、ユーザの趣味嗜好に適合する度合を示す情報、ユーザの感情の評価値の情報の少なくともいずれかを含む、請求項3に記載の情報処理装置。
The tag information is information about a user's evaluation item for the object, and is
The information processing apparatus according to claim 3, wherein the information regarding the user's evaluation item regarding the object includes at least one of information indicating the degree of conformity with the user's hobbies and tastes and information on the evaluation value of the user's emotions.
前記対象物には、製品、人、又は、動物が含まれ、
前記対象物に関するユーザの評価項目に関する情報は、生成される前記画像データに含まれる製品、人又は動物に対して前記趣味嗜好に適合する度合を示す情報、前記感情の評価値の情報の少なくともいずれかを含む、請求項5に記載の情報処理装置。
The object includes a product, a person, or an animal.
The information regarding the user's evaluation item regarding the object is at least one of information indicating the degree to which the product, person or animal contained in the generated image data is suitable for the hobby and taste, and information on the evaluation value of the emotion. The information processing apparatus according to claim 5, comprising the above.
前記一又は複数のコンピュータプロセッサは
習データに基づいて、前記生成モデルを学習するステップを行い、
前記学習するステップにおいて、一又は複数の特定のブランドの製品の画像データを学習データとして前記生成モデルを学習し、
前記第1の入力値を取得するステップにおいて、前記第1の入力値として、前記ブランドに関する情報を受け付ける、請求項4から6のいずれか1項に記載の情報処理装置。
The one or more computer processors
Based on the training data, perform steps to train the generative model,
In the learning step, the generation model is trained using image data of one or more specific brand products as training data.
The information processing apparatus according to any one of claims 4 to 6, which receives information about the brand as the first input value in the step of acquiring the first input value.
前記第1の入力値を取得するステップにおいて、前記ユーザに対し、前記第1の入力値の入力を受け付けるための第1のインタフェースを提示し、
前記推定するステップにおいて、前記第1のインタフェースに対する入力結果を前記推定モデルに入力する、請求項1から7のいずれか1項に記載の情報処理装置。
In the step of acquiring the first input value, the user is presented with a first interface for accepting the input of the first input value.
The information processing apparatus according to any one of claims 1 to 7, wherein in the estimation step, an input result for the first interface is input to the estimation model.
前記第1の入力値は、複数の入力項目の情報を含み、
前記第1の入力値を取得するステップにおいて、前記ユーザに対し、複数の入力項目について前記第1の入力値の入力を受け付け、
前記推定するステップにおいて、前記複数の入力項目の情報を含む前記第1の入力値に応答して前記第1の変数を推定する、請求項8に記載の情報処理装置。
The first input value includes information on a plurality of input items, and includes information on a plurality of input items.
In the step of acquiring the first input value, the user is accepted to input the first input value for a plurality of input items.
The information processing apparatus according to claim 8, wherein in the estimation step, the first variable is estimated in response to the first input value including information of the plurality of input items.
前記第1の入力値を取得するステップにおいて、前記ユーザに対し、多次元の入力を受け付ける画像を前記第1のインタフェースとして提示する、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein in the step of acquiring the first input value, an image that accepts a multidimensional input is presented to the user as the first interface. 前記提示するステップにおいて、前記第1の入力値の入力を受け付けるための前記第1のインタフェースと、生成される前記第1のデータと、前記第1の入力値と、当該第1のデータを前記ユーザが確定する操作を受け付けるための第2のインタフェースとを一画面で前記ユーザに提示し、
前記一又は複数のコンピュータプロセッサは、前記確定する操作を受け付けることにより、前記第1の入力値をタグ情報として前記第1データと関連付けて前記記憶部に記憶させるステップを行う、請求項8から10のいずれか1項に記載の情報処理装置。
In the step presented, the first interface for accepting the input of the first input value, the generated first data, the first input value, and the first data are described. A second interface for accepting an operation confirmed by the user is presented to the user on one screen, and the user is presented with the second interface.
The one or a plurality of computer processors receive the operation to be determined, and perform a step of associating the first input value with the first data as tag information and storing it in the storage unit, according to claim 8. The information processing apparatus according to any one of 10.
前記一又は複数のコンピュータプロセッサは、ユーザの行動のログを取得するステップを行い、
前記第1の入力値を取得するステップにおいて、前記ユーザの行動のログに基づき前記第1の入力値を取得する、請求項1から11のいずれか1項に記載の情報処理装置。
The one or more computer processors perform the step of acquiring a log of the user's actions.
The information processing apparatus according to any one of claims 1 to 11, wherein in the step of acquiring the first input value, the first input value is acquired based on the log of the user's action.
第3のインタフェースにより、所定の情報を前記ユーザに提示し、前記ユーザからの応答の内容に基づいて、前記第1の入力値を取得する、請求項1から12のいずれか1項に記載の情報処理装置。 The third interface according to any one of claims 1 to 12, wherein predetermined information is presented to the user and the first input value is acquired based on the content of the response from the user. Information processing device. 前記一又は複数のコンピュータプロセッサは
習データに基づいて、前記生成モデルを学習するステップを行い、
前記学習するステップにおいて、データを生成する生成器と、前記学習データ及び前記生成器により生成されたデータを識別する識別器と、を含む敵対的ネットワークの学習方法により、前記生成モデルを学習する、請求項1からのいずれか1項に記載の情報処理装置。
The one or more computer processors
Based on the training data, perform steps to train the generative model,
In the learning step, the generation model is trained by a learning method of a hostile network including a generator that generates data and a discriminator that identifies the training data and the data generated by the generator. The information processing apparatus according to any one of claims 1 to 6 .
コンピュータにより実行される方法であって、
前記コンピュータは、学習済みの生成モデル、及び、前記生成モデルへ入力する変数を推定するための推定モデルを記憶する記憶部と、一又は複数のコンピュータプロセッサと、を備え、
前記方法は、前記一又は複数のコンピュータプロセッサが、コンピュータ読み取り可能な命令を実行することにより、
ユーザに関連付けられる第1の入力値を取得するステップと、
前記推定モデルに対し前記第1の入力値を入力することで、推定結果として第1の変数を推定するステップと、
前記第1の変数を前記生成モデルに入力することにより第1のデータを生成するステップと、
生成された前記第1のデータを前記ユーザに提示するステップと、を行うことを含む、方法。
A method performed by a computer
The computer comprises a trained generative model and a storage unit for storing an estimation model for estimating variables input to the generative model, and one or more computer processors.
The method is such that the one or more computer processors execute computer-readable instructions.
The step to get the first input value associated with the user,
A step of estimating the first variable as an estimation result by inputting the first input value to the estimation model, and
The step of generating the first data by inputting the first variable into the generative model, and
A method comprising performing a step of presenting the generated first data to the user.
コンピュータにより実行されるプログラムであって、
前記コンピュータは、学習済みの生成モデル、及び、前記生成モデルへ入力する変数を推定するための推定モデルを記憶する記憶部と、一又は複数のコンピュータプロセッサと、を備え、
前記プログラムは、前記一又は複数のコンピュータプロセッサに、
ユーザに関連付けられる第1の入力値を取得するステップと、
前記推定モデルに対し前記第1の入力値を入力することで、推定結果として第1の変数を推定するステップと、
前記第1の変数を前記生成モデルに入力することにより第1のデータを生成するステップと、
生成された前記第1のデータを前記ユーザに提示するステップと、を実行させる、プログラム。
A program run by a computer
The computer comprises a trained generative model and a storage unit for storing an estimation model for estimating variables input to the generative model, and one or more computer processors.
The program can be applied to the one or more computer processors.
The step to get the first input value associated with the user,
A step of estimating the first variable as an estimation result by inputting the first input value to the estimation model, and
A step of generating the first data by inputting the first variable into the generative model, and
A program for executing a step of presenting the generated first data to the user.
JP2019084366A 2019-04-25 2019-04-25 Information processing equipment, methods and programs Active JP7055300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019084366A JP7055300B2 (en) 2019-04-25 2019-04-25 Information processing equipment, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084366A JP7055300B2 (en) 2019-04-25 2019-04-25 Information processing equipment, methods and programs

Publications (2)

Publication Number Publication Date
JP2020181392A JP2020181392A (en) 2020-11-05
JP7055300B2 true JP7055300B2 (en) 2022-04-18

Family

ID=73024623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084366A Active JP7055300B2 (en) 2019-04-25 2019-04-25 Information processing equipment, methods and programs

Country Status (1)

Country Link
JP (1) JP7055300B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022264461A1 (en) * 2021-06-15 2022-12-22 ソニーグループ株式会社 Information processing system and information processing method
JP7344501B1 (en) 2023-03-29 2023-09-14 AI inside株式会社 Program, method, information processing device, system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180314716A1 (en) 2017-04-27 2018-11-01 Sk Telecom Co., Ltd. Method for learning cross-domain relations based on generative adversarial networks
JP6448839B1 (en) 2018-06-20 2019-01-09 株式会社 ディー・エヌ・エー Image generation device, image generator, image classifier, image generation program, and image generation method
US20190026274A1 (en) 2017-07-21 2019-01-24 Samsung Electronics Co., Ltd. Adversarial method and system for generating user preferred contents
JP2019046390A (en) 2017-09-06 2019-03-22 株式会社東芝 Learning device, method for learning, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180314716A1 (en) 2017-04-27 2018-11-01 Sk Telecom Co., Ltd. Method for learning cross-domain relations based on generative adversarial networks
US20190026274A1 (en) 2017-07-21 2019-01-24 Samsung Electronics Co., Ltd. Adversarial method and system for generating user preferred contents
JP2019046390A (en) 2017-09-06 2019-03-22 株式会社東芝 Learning device, method for learning, and program
JP6448839B1 (en) 2018-06-20 2019-01-09 株式会社 ディー・エヌ・エー Image generation device, image generator, image classifier, image generation program, and image generation method

Also Published As

Publication number Publication date
JP2020181392A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
US10726438B2 (en) Personalized contextual coupon engine
KR20180121466A (en) Personalized product recommendation using deep learning
CN107835994A (en) Pass through the task focused search of image
US9082086B2 (en) Adaptively learning a similarity model
US10430860B2 (en) Systems and methods for enhancing shopping experience in physical stores
JP7464741B2 (en) Automatically improving data quality
WO2012016057A1 (en) Enabling proxy shopping
JP6185216B1 (en) Information providing system, information providing apparatus, information providing method, and program
US20120296776A1 (en) Adaptive interactive search
JP7055300B2 (en) Information processing equipment, methods and programs
KR101639656B1 (en) Method and server apparatus for advertising
JP2015179461A (en) Information provision device, information provision method, and information provision program
US11887134B2 (en) Product performance with location on page analysis
KR20220121003A (en) Program for providing product recommendation service
JP2012194691A (en) Re-learning method and program of discriminator, image recognition device
KR20190015874A (en) Method for determining the range of selling price of art products and computer program for executing the method
JP5588938B2 (en) Item recommendation apparatus, method and program
JP2017021613A (en) Cross-modal perception analysis system, presentation information determination system, information presentation system, cross-modal perception analysis program, presentation information determination program, and information presentation program
JP2010113683A (en) Device, method and program for recommending information
JP5451644B2 (en) RECOMMENDATION SYSTEM, RECOMMENDATION METHOD, RECOMMENDATION PROGRAM, AND INFORMATION STORAGE MEDIUM
CN112749332B (en) Data processing method, device and computer readable medium
Idrees et al. Mobile 3D body scanning applications: a review of contact-free AI body measuring solutions for apparel
JP6851944B2 (en) Search system and search method
EP4220577A1 (en) Prospective object search techniques based on removed objects
KR102358339B1 (en) A method of recommending customer-specific materials

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210728

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7055300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150