JP2018041334A - Generation device, generation method, and generation program - Google Patents

Generation device, generation method, and generation program Download PDF

Info

Publication number
JP2018041334A
JP2018041334A JP2016175845A JP2016175845A JP2018041334A JP 2018041334 A JP2018041334 A JP 2018041334A JP 2016175845 A JP2016175845 A JP 2016175845A JP 2016175845 A JP2016175845 A JP 2016175845A JP 2018041334 A JP2018041334 A JP 2018041334A
Authority
JP
Japan
Prior art keywords
user
image
generation
information
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016175845A
Other languages
Japanese (ja)
Other versions
JP6480900B2 (en
Inventor
奈翁美 笹谷
Naomi Sasaya
奈翁美 笹谷
文啓 伊藤
Fumihiro Ito
文啓 伊藤
伸裕 鍜治
Nobuhiro Kaji
伸裕 鍜治
正樹 野口
Masaki Noguchi
正樹 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016175845A priority Critical patent/JP6480900B2/en
Publication of JP2018041334A publication Critical patent/JP2018041334A/en
Application granted granted Critical
Publication of JP6480900B2 publication Critical patent/JP6480900B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To generate an appropriate image according to a user while suppressing a user's load.SOLUTION: A generation device includes an acquisition unit and generation unit. The acquisition unit obtains user information on a user using a terminal device. The generation unit generate a provision image to be provided for the terminal device, on the basis of both the user information obtained by the acquisition unit and a model for outputting an image according to input information. For example, the generation unit generates a provision image to be provided for the terminal device, on the basis of the user information including attribute information of the user.SELECTED DRAWING: Figure 2

Description

本発明は、生成装置、生成方法、及び生成プログラムに関する。   The present invention relates to a generation device, a generation method, and a generation program.

従来、種々の情報に基づいて、画像を生成する技術が提供されている。例えば、推薦画像に含まれる対象物を組み合わせる対象としてユーザによって選択された画像に基づいて、推薦画像を出力(生成)する技術が提供されている。   Conventionally, techniques for generating images based on various information have been provided. For example, there is provided a technique for outputting (generating) a recommended image based on an image selected by a user as a target to be combined with an object included in the recommended image.

特開2015−097036号公報Japanese Patent Application Laid-Open No. 2015-097036

Alec Radford, Luke Metz, Soumith Chintala, "Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks", arXiv preprint arXiv:1511.06434 (2016) & ICLR(International Conference on Learning Representations)-2016Alec Radford, Luke Metz, Soumith Chintala, "Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks", arXiv preprint arXiv: 1511.06434 (2016) & ICLR (International Conference on Learning Representations) -2016 Leon A. Gatys, Alexander S. Ecker, Matthias Bethge, "A Neural Algorithm of Artistic Style", arXiv preprint arXiv:1508.06576Leon A. Gatys, Alexander S. Ecker, Matthias Bethge, "A Neural Algorithm of Artistic Style", arXiv preprint arXiv: 1508.06576

しかしながら、上記の従来技術では、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することが難しい場合がある。例えば、ユーザへの推薦画像にも関わらず、ユーザが推薦画像に含まれる対象物を組み合わせる対象として画像を選択する必要が生じたりするため、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することが難しい。   However, with the above-described conventional technology, it may be difficult to generate an appropriate image according to the user while suppressing the load on the user. For example, it may be necessary for the user to select an image as a target to be combined with the target object included in the recommended image in spite of the recommended image to the user. It is difficult to generate an image.

本願は、上記に鑑みてなされたものであって、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成する生成装置、生成方法、及び生成プログラムを提供することを目的とする。   The present application has been made in view of the above, and an object thereof is to provide a generation device, a generation method, and a generation program that generate an appropriate image according to a user while suppressing a user's load.

本願に係る生成装置は、端末装置を利用するユーザに関するユーザ情報を取得する取得部と、前記取得部により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成部と、を備えたことを特徴とする。   The generation device according to the present application is based on an acquisition unit that acquires user information related to a user who uses a terminal device, the user information acquired by the acquisition unit, and a model that outputs an image according to input information. And a generation unit that generates a provided image to be provided to the terminal device.

実施形態の一態様によれば、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができるという効果を奏する。   According to one aspect of the embodiment, it is possible to generate an appropriate image according to the user while suppressing the load on the user.

図1は、実施形態に係る生成処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of a generation process according to the embodiment. 図2は、実施形態に係る生成装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the generation apparatus according to the embodiment. 図3は、実施形態に係るユーザ属性情報記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a user attribute information storage unit according to the embodiment. 図4は、実施形態に係る行動履歴情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of an action history information storage unit according to the embodiment. 図5は、実施形態に係る行動予定情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of the action schedule information storage unit according to the embodiment. 図6は、実施形態に係るシード情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the seed information storage unit according to the embodiment. 図7は、実施形態に係るモデル情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of a model information storage unit according to the embodiment. 図8は、実施形態に係る生成処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the generation process according to the embodiment. 図9は、変形例に係る生成処理の一例を示す図である。FIG. 9 is a diagram illustrating an example of the generation process according to the modification. 図10は、変形例に係る生成装置の構成例を示す図である。FIG. 10 is a diagram illustrating a configuration example of a generation apparatus according to a modification. 図11は、変形例に係るスタイル情報記憶部の一例を示す図である。FIG. 11 is a diagram illustrating an example of a style information storage unit according to a modification. 図12は、変形例に係る生成処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the generation process according to the modification. 図13は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 13 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the generation apparatus.

以下に、本願に係る生成装置、生成方法、及び生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、及び生成プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a generation apparatus, a generation method, and a mode for executing a generation program (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the generation device, the generation method, and the generation program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

(実施形態)
〔1.生成処理〕
図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。図1では、生成装置100は、ユーザのユーザ情報に基づいて、ユーザが利用する端末装置10へ提供する提供画像を生成する場合を示す。また、図1では、生成装置100は、提供画像として、メールアプリAのテーマ画像を生成する場合を示す。なお、図1の例では、メールアプリAのテーマ画像が提供画像である場合を一例として示すが、提供画像はユーザに提供する画像であればどのような画像(コンテンツ)であってもよい。
(Embodiment)
[1. Generation process)
An example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a generation process according to the embodiment. FIG. 1 shows a case where the generation apparatus 100 generates a provided image to be provided to the terminal apparatus 10 used by the user based on the user information of the user. Further, FIG. 1 illustrates a case where the generation apparatus 100 generates a theme image of the mail application A as a provided image. In the example of FIG. 1, a case where the theme image of the mail application A is a provided image is shown as an example, but the provided image may be any image (content) as long as it is an image provided to the user.

図1に示すように、生成システム1には、端末装置10と、生成装置100とが含まれる。端末装置10と、生成装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。また、図1に示した生成システム1には、複数台の端末装置10や、複数台の生成装置100が含まれてもよい。   As illustrated in FIG. 1, the generation system 1 includes a terminal device 10 and a generation device 100. The terminal device 10 and the generation device 100 are connected to be communicable by wire or wireless via a predetermined communication network (not shown). The generation system 1 illustrated in FIG. 1 may include a plurality of terminal devices 10 and a plurality of generation devices 100.

生成装置100は、ユーザ情報と、入力情報に応じて画像を出力する画像生成モデル(以下、単に「モデル」ともいう)とに基づいて、端末装置10に提供する提供画像を生成する情報処理装置である。例えば、生成装置100は、モデル情報記憶部125に示すように、メールアプリAのテーマ画像を生成するために用いるモデルM1を有する。なお、生成装置100は、生成する画像に応じて複数のモデルを有してもよい。   The generation apparatus 100 is an information processing apparatus that generates a provided image to be provided to the terminal device 10 based on user information and an image generation model (hereinafter also simply referred to as “model”) that outputs an image according to input information. It is. For example, as illustrated in the model information storage unit 125, the generation device 100 includes a model M1 that is used to generate a theme image of the mail application A. Note that the generation apparatus 100 may have a plurality of models according to the image to be generated.

例えば、図1に示す例において、生成装置100が用いるモデルM1等のモデルは、畳み込みニューラルネットワーク(Convolutional Neural Network)等の種々の従来技術を適宜用いて生成された学習器であってもよい。例えば、生成装置100が用いるモデルM1等のモデルは、非特許文献1のようなDCGANs(Deep Convolutional Generative Adversarial Networks)により生成されたモデルであってもよい。例えば、生成装置100は、種々の画像から抽出した入力情報(例えば、N次元のベクトル(Nは1以上の任意の数))等を学習データとして用いることにより、モデルM1等のモデルを生成してもよい。例えば、生成装置100は、メールアプリAのテーマ画像に関する種々の画像から抽出した入力情報(例えば、N次元のベクトル)等を学習データとして用いることにより、モデルM1を生成してもよい。なお、上記は一例であり、生成装置100は、モデルM1等の所望のモデルを生成可能であれば、どのような手法によりモデルを生成してもよい。   For example, in the example shown in FIG. 1, the model such as the model M1 used by the generation apparatus 100 may be a learning device that is appropriately generated using various conventional techniques such as a convolutional neural network. For example, the model such as the model M1 used by the generation apparatus 100 may be a model generated by DCGANs (Deep Convolutional Generative Adversarial Networks) as in Non-Patent Document 1. For example, the generation device 100 generates a model such as the model M1 by using input information extracted from various images (for example, an N-dimensional vector (N is an arbitrary number equal to or greater than 1)) as learning data. May be. For example, the generating apparatus 100 may generate the model M1 by using input information (for example, an N-dimensional vector) extracted from various images related to the theme image of the mail application A as learning data. Note that the above is an example, and the generation apparatus 100 may generate a model by any method as long as a desired model such as the model M1 can be generated.

図1の例では、生成装置100は、モデル情報記憶部125に示すように、モデルM1を生成する。また、モデル情報記憶部125に示すように、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。例えば、生成装置100は、モデルM1にN次元のベクトル等の所定の入力情報を入力することにより、入力した入力情報から画像を生成する。なお、生成装置100は、モデルM1等の所望のモデルを外部の情報処理装置から取得してもよい。   In the example of FIG. 1, the generation device 100 generates a model M1 as shown in the model information storage unit 125. Further, as shown in the model information storage unit 125, the model information related to the model M1 has a feature 1 weight of “0.5”, a feature 2 weight of “−0.4”, and a feature 3 weight of “0. 2 "etc. For example, the generation device 100 generates an image from input input information by inputting predetermined input information such as an N-dimensional vector to the model M1. Note that the generation apparatus 100 may acquire a desired model such as the model M1 from an external information processing apparatus.

また、生成装置100は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて提供画像を生成する。なお、ここでいうコンテキストは、ユーザや端末装置10の状況やユーザや端末装置10の環境(背景)を意味する。例えば、コンテキストは、ユーザによって端末装置10が使われている状況や、端末装置10を所持するユーザが置かれている状態に対応する情報である。また、コンテキストには、ユーザに提供されるコンテンツの内容、ユーザの発話の内容、ユーザの属性、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの運動状態、および、ユーザの感情等の種々の情報に基づいて推定されてもよい。   Further, the generation device 100 generates a provided image using a parameter based on a user context estimated based on user information. Note that the context here means the situation of the user or the terminal device 10 and the environment (background) of the user or the terminal device 10. For example, the context is information corresponding to a situation where the terminal device 10 is used by a user or a state where a user who owns the terminal device 10 is placed. The context includes the content of the content provided to the user, the content of the user's utterance, the user's attributes, the user's current location, the current time, the physical environment in which the user is placed, the social environment in which the user is placed, the user It may be estimated based on various information such as the exercise state of the user and the emotion of the user.

なお、図1の例では、ユーザ属性情報記憶部121に示すように、コンテキストをコンテキストCN11やコンテキストCN21等のように抽象的な記号で示すが、各コンテキストはユーザの具体的な状況を示す情報であってもよい。例えば、コンテキストCN11は、「アニメ好きのユーザがキャラAに関心を持っている」状況に対応するコンテキストであってもよい。例えば、コンテキストCN21は、「サッカーの試合を観戦する予定がある」状況に対応するコンテキストであってもよい。   In the example of FIG. 1, as shown in the user attribute information storage unit 121, the context is indicated by an abstract symbol such as the context CN11 or the context CN21, but each context is information indicating a specific situation of the user. It may be. For example, the context CN11 may be a context corresponding to a situation where “a user who likes anime is interested in the character A”. For example, the context CN21 may be a context corresponding to a situation “planned to watch a soccer game”.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。図1に示す例においては、端末装置10がユーザが利用するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。具体的には、図1では、端末装置10がユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)が利用するスマートフォンである場合を示す。   The terminal device 10 is an information processing device used by a user. The terminal device 10 is realized by, for example, a smartphone, a tablet terminal, a notebook PC, a desktop PC, a mobile phone, a PDA, or the like. In the example shown in FIG. 1, the case where the terminal device 10 is a smartphone used by the user is shown. Hereinafter, the terminal device 10 may be referred to as a user. That is, hereinafter, the user can be read as the terminal device 10. Specifically, FIG. 1 illustrates a case where the terminal device 10 is a smartphone used by a user identified by the user ID “U1” (hereinafter, may be referred to as “user U1”).

また、図1に示す例においては、端末装置10の画面の表示に応じて、端末装置10を端末装置10−1、10−2として説明する。なお、端末装置10−1、10−2は同一の端末装置10である。また、以下では、端末装置10−1、10−2について、特に区別なく説明する場合には、端末装置10と記載する。   In the example illustrated in FIG. 1, the terminal device 10 will be described as the terminal devices 10-1 and 10-2 according to the display of the screen of the terminal device 10. The terminal devices 10-1 and 10-2 are the same terminal device 10. Hereinafter, the terminal devices 10-1 and 10-2 will be referred to as the terminal device 10 when they are not particularly distinguished.

まず、図1に示すように、端末装置10は、ユーザU1の操作に応じてメールアプリAの起動を開始する(ステップS11)。そして、端末装置10は、メールアプリAのテーマ画像を生成装置100に要求する(ステップS12)。また、図1の例では、端末装置10は、メールアプリAのテーマ画像を生成装置100に要求する際に、ユーザU1のユーザ情報を送信する。なお、生成装置100がユーザU1のユーザ情報を取得済みである場合、端末装置10は、ステップS12においてユーザU1のユーザ情報を送信しなくてもよい。   First, as illustrated in FIG. 1, the terminal device 10 starts the mail application A in response to the operation of the user U1 (step S11). And the terminal device 10 requests | requires the theme image of the mail application A from the production | generation apparatus 100 (step S12). In the example of FIG. 1, the terminal device 10 transmits user information of the user U1 when requesting the theme image of the mail application A to the generation device 100. Note that if the generation apparatus 100 has already acquired the user information of the user U1, the terminal apparatus 10 may not transmit the user information of the user U1 in step S12.

例えば、端末装置10−1は、端末装置10を利用するユーザU1が20代女性であることを示す情報を生成装置100に送信する。なお、生成装置100がユーザU1に関するユーザ情報を記憶している場合、端末装置10−1は、端末装置10を利用するユーザU1が20代女性であることを示す情報を生成装置100に送信しなくてもよい。また、図1の例では、端末装置10がメールアプリAを起動する際に、メールアプリAのテーマ画像を生成装置100に要求する場合を示すが、端末装置10は予め生成装置100からメールアプリAのテーマ画像を取得し、メールアプリAの起動の際に、そのテーマ画像を表示してもよい。   For example, the terminal device 10-1 transmits information indicating that the user U1 who uses the terminal device 10 is a 20's female to the generation device 100. When the generation apparatus 100 stores user information related to the user U1, the terminal apparatus 10-1 transmits information indicating that the user U1 who uses the terminal apparatus 10 is a 20's female to the generation apparatus 100. It does not have to be. In the example of FIG. 1, the terminal device 10 requests the generation device 100 for a theme image of the mail application A when the mail application A is activated. A theme image of A may be acquired, and the theme image may be displayed when the mail application A is activated.

ユーザU1が利用する端末装置10からメールアプリAのテーマ画像の要求を取得した生成装置100は、ユーザU1に関するコンテキストを推定する(ステップS13)。生成装置100は、ユーザU1のユーザ情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、生成装置100は、ユーザ属性情報記憶部121や行動履歴情報記憶部122や行動予定情報記憶部123等に記憶されたユーザU1に関する各種情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、生成装置100は、ユーザの行動履歴、ユーザの行動予定、ユーザの属性、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの運動状態、および、ユーザの感情等の種々の情報等に基づいてユーザのコンテキストを推定する。   The generation device 100 that has acquired the request for the theme image of the mail application A from the terminal device 10 used by the user U1 estimates a context related to the user U1 (step S13). The generation device 100 estimates the context related to the user U1 using the user information of the user U1. For example, the generating apparatus 100 estimates a context related to the user U1 using various information related to the user U1 stored in the user attribute information storage unit 121, the action history information storage unit 122, the action schedule information storage unit 123, and the like. For example, the generation apparatus 100 may include a user action history, a user action schedule, a user attribute, a user current position, a current time, a physical environment in which the user is placed, a social environment in which the user is placed, a user exercise state, And a user's context is estimated based on various information, such as a user's emotion.

図1の例では、生成装置100は、ユーザU1がアニメAに登場するキャラAに関する検索を行ったことや、アニメAの映画を観賞する予定があること等を含むユーザ情報からユーザU1のコンテキストを推定する。例えば、生成装置100は、ユーザ属性情報記憶部121−1に示すように、ユーザU1のコンテキストをコンテキストCN11であると推定する。なお、ユーザ属性情報記憶部121−1は、ユーザU1のコンテキストに関する情報がコンテキスト「CN11」に更新された点以外は、ユーザ属性情報記憶部121と同様である。このように、図1の例では、生成装置100は、ユーザU1のコンテキストを「アニメ好きのユーザがキャラAに関心を持っている」状況に対応するコンテキストCN11であると推定する。   In the example of FIG. 1, the generation apparatus 100 uses the user information including the fact that the user U1 has searched for the character A appearing in the anime A, and plans to watch a movie of the anime A, and the context of the user U1. Is estimated. For example, as illustrated in the user attribute information storage unit 121-1, the generation device 100 estimates that the context of the user U1 is the context CN11. Note that the user attribute information storage unit 121-1 is the same as the user attribute information storage unit 121 except that the information related to the context of the user U 1 has been updated to the context “CN 11”. As described above, in the example of FIG. 1, the generating apparatus 100 estimates that the context of the user U1 is the context CN11 corresponding to the situation where “the user who likes anime is interested in the character A”.

その後、生成装置100は、シードを抽出する(ステップS14)。ここでいうシードとは、モデルに入力するベクトルの基となるシードベクトルである。図1の例では、生成装置100がシード情報記憶部124に複数のシードを格納する場合を示す。例えば、シードID「SD1」により識別されるシード(以下、「シードSD1」ともいう)は、モデルM1に入力された場合、花模様のテーマ画像が生成されるベクトルであるものとする。例えば、シードID「SD2」により識別されるシード(以下、「シードSD2」ともいう)は、モデルM1に入力された場合、サッカー風のテーマ画像が生成されるベクトルであるものとする。例えば、シードID「SD3」により識別されるシード(以下、「シードSD3」ともいう)は、モデルM1に入力された場合、アニメ風のテーマ画像が生成されるベクトルであるものとする。   Thereafter, the generation apparatus 100 extracts seeds (Step S14). Here, the seed is a seed vector that is a basis of a vector input to the model. In the example of FIG. 1, a case where the generation apparatus 100 stores a plurality of seeds in the seed information storage unit 124 is illustrated. For example, a seed identified by a seed ID “SD1” (hereinafter, also referred to as “seed SD1”) is a vector for generating a flower pattern theme image when input to the model M1. For example, the seed identified by the seed ID “SD2” (hereinafter, also referred to as “seed SD2”) is a vector that generates a soccer-style theme image when input to the model M1. For example, the seed identified by the seed ID “SD3” (hereinafter, also referred to as “seed SD3”) is assumed to be a vector for generating an animated theme image when input to the model M1.

図1の例では、生成装置100は、ユーザU1のコンテキストが「アニメ好きのユーザがキャラAに関心を持っている」状況であることを示すコンテキストCN11に基づいて、シードSD3を抽出(選択)する。例えば、生成装置100は、ユーザU1がアニメに関心を持っている状況に基づいて、アニメ風のテーマ画像が生成されるシードSD3を抽出する。なお、図1の例では、生成装置100がユーザU1のコンテキストCN11に基づいて、複数のシードSD1〜SD3等からシードSD3を抽出する場合を示したが、生成装置100は、他の情報を適宜用いてシードを抽出したり、シードを生成したりしてもよい。   In the example of FIG. 1, the generation apparatus 100 extracts (selects) the seed SD3 based on the context CN11 indicating that the context of the user U1 is “a user who likes anime is interested in the character A”. To do. For example, the generation apparatus 100 extracts a seed SD3 from which an animated theme image is generated based on a situation in which the user U1 is interested in animation. In the example of FIG. 1, the generation apparatus 100 extracts the seed SD3 from the plurality of seeds SD1 to SD3 based on the context CN11 of the user U1, but the generation apparatus 100 appropriately stores other information. It may be used to extract seeds or generate seeds.

その後、生成装置100は、シードSD3に基づいて入力情報を生成する(ステップS15)。なお、以下では、入力情報が100次元のベクトルである場合を一例として説明する。例えば、生成装置100は、ユーザU1のコンテキストに基づいてシードSD3の各次元の数値を変動させた入力情報を生成する。例えば、生成装置100は、ユーザのコンテキストに基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。   Thereafter, the generation device 100 generates input information based on the seed SD3 (step S15). Hereinafter, a case where the input information is a 100-dimensional vector will be described as an example. For example, the generating device 100 generates input information in which the numerical value of each dimension of the seed SD3 is changed based on the context of the user U1. For example, the generating apparatus 100 generates input information in which numerical values of each dimension of the seed SD3 are changed using parameters based on the user context.

ここで、生成装置100は、100次元のベクトルのうち、どの次元のベクトルが生成する画像にどのような影響を与えるかの対応付けに関する情報を有するものとする。例えば、生成装置100は、100次元のベクトルのうち、5次元目の数値が大きいベクトル程、生成される画像に花柄の要素が強くなることを示す情報を有するものとする。すなわち、生成装置100は、100次元のベクトルのうち、5次元目が生成される画像における花柄の要素に影響を与える次元であることを示す情報を有する。   Here, it is assumed that the generation apparatus 100 has information regarding how the dimensional vector of 100 dimensional vectors has an influence on an image generated. For example, it is assumed that the generation apparatus 100 has information indicating that the greater the fifth-dimensional numerical value among 100-dimensional vectors, the stronger the floral element in the generated image. That is, the generating apparatus 100 has information indicating that the dimension affects the floral elements in the image in which the fifth dimension is generated among the 100-dimensional vectors.

また、例えば、生成装置100は、100次元のベクトルのうち、3次元目の数値が大きいベクトル程、生成される画像に猫の要素が強くなることを示す情報を有するものとする。すなわち、生成装置100は、100次元のベクトルのうち、3次元目が生成される画像における猫の要素に影響を与える次元であることを示す情報を有する。なお、このようなどの次元がどの要素に影響を与えるかの対応関係を示す情報は、生成装置100の管理者等が生成装置100に入力し、設定してもよいし、生成装置100が自動で学習してもよい。   Further, for example, the generation apparatus 100 has information indicating that a vector having a larger third-dimensional numerical value among 100-dimensional vectors has stronger cat elements in the generated image. That is, the generation apparatus 100 has information indicating that the dimension affects the cat element in the image in which the third dimension is generated among the 100-dimensional vectors. Information indicating the correspondence relationship of which dimension affects which element may be input and set by the administrator of the generation apparatus 100 to the generation apparatus 100 or automatically generated by the generation apparatus 100. You may learn at.

ここで、上述したキャラAが猫のキャラである場合を一例として説明する。生成装置100は、ユーザU1のコンテキストCN11に基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。図1の例では、生成装置100は、ユーザU1がコンテキストCN11、すなわち「アニメ好きのユーザがキャラAに関心を持っている」状況であるため、例えば、入力情報において、キャラAの対象である猫の要素が強くなるようなパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。この場合、パラメータは、猫の要素に関する次元の数値を大きくする等の情報であってもよい。なお、パラメータは、シード中の所望の次元の値を変更可能であれば、どのような情報であってもよい。   Here, a case where the character A described above is a cat character will be described as an example. The generation device 100 generates input information in which numerical values of each dimension of the seed SD3 are changed using parameters based on the context CN11 of the user U1. In the example of FIG. 1, the generation apparatus 100 is the target of the character A in the input information because the user U1 is in the context CN11, that is, “the user who likes anime is interested in the character A”. The input information is generated by changing the numerical value of each dimension of the seed SD3 using the parameter that makes the element of the cat strong. In this case, the parameter may be information such as increasing the numerical value of the dimension related to the cat element. The parameter may be any information as long as the value of a desired dimension in the seed can be changed.

例えば、生成装置100は、猫の要素に関する次元の数値を大きくすることを示すパラメータを用いて、100次元のベクトルのうち3次元目の数値が大きくなるようにシードSD3の各次元の数値を変動させた入力情報を生成する。図1の例では、生成装置100は、入力情報リストIL1に示すように、シードSD3から猫の要素に関する次元である3次元目の数値を大きくした入力情報を生成する。具体的には、生成装置100は、3次元目の数値がシードSD3中の「0.1」から「1.0」に変更された入力情報SD3−1を生成する。このように、生成装置100は、アニメ風のテーマ画像に関するシードSD3が猫の要素が強くなるように変更された入力情報SD3−1を用いることにより、ユーザU1のコンテキストCN11に適した、アニメ風の猫に関するテーマ画像が生成されやすくする。   For example, the generating apparatus 100 uses the parameter indicating that the dimension value related to the element of the cat is increased, and changes the numerical value of each dimension of the seed SD3 so that the third dimension value of the 100-dimensional vector increases. Generate the input information. In the example of FIG. 1, as illustrated in the input information list IL1, the generation apparatus 100 generates input information in which the numerical value of the third dimension, which is a dimension related to a cat element, is increased from the seed SD3. Specifically, the generation device 100 generates the input information SD3-1 in which the numerical value of the third dimension is changed from “0.1” to “1.0” in the seed SD3. In this way, the generation apparatus 100 uses the input information SD3-1 in which the seed SD3 related to the anime-style theme image is changed so that the cat element is strong, thereby enabling the animation style suitable for the context CN11 of the user U1. Make it easier to generate theme images for cats.

その後、生成装置100は、モデルM1に入力情報SD3−1を入力する(ステップS16)。生成装置100により入力情報SD3−1が入力されたモデルM1は、テーマ画像を出力する(ステップS17)。図1の例では、生成装置100により入力情報SD3−1が入力されたモデルM1は、テーマ画像IM1を出力する。図1に示すように、入力情報SD3−1が入力されたモデルM1は、ユーザU1のコンテキストCN11に適した、アニメ風の猫に関するテーマ画像IM1を出力する。   Thereafter, the generation device 100 inputs the input information SD3-1 to the model M1 (Step S16). The model M1 to which the input information SD3-1 is input by the generation device 100 outputs a theme image (step S17). In the example of FIG. 1, the model M1 to which the input information SD3-1 is input by the generation device 100 outputs the theme image IM1. As illustrated in FIG. 1, the model M1 to which the input information SD3-1 is input outputs a theme image IM1 related to an anime-like cat that is suitable for the context CN11 of the user U1.

その後、生成装置100は、ステップS17において生成したテーマ画像を端末装置10へ提供する(ステップS18)。図1の例では、生成装置100は、アニメ風の猫に関するテーマ画像IM1を端末装置10へ提供する。   Thereafter, the generation device 100 provides the theme image generated in step S17 to the terminal device 10 (step S18). In the example of FIG. 1, the generation device 100 provides the terminal device 10 with a theme image IM1 related to an anime-like cat.

生成装置100からテーマ画像IM1を提供された端末装置10は、メールアプリAに関する表示を行う(ステップS19)。図1の例では、端末装置10−1から端末装置10−2へ表示が遷移される。   The terminal device 10 provided with the theme image IM1 from the generation device 100 performs display related to the mail application A (step S19). In the example of FIG. 1, the display is transitioned from the terminal device 10-1 to the terminal device 10-2.

端末装置10−2の画面には、メールアプリAのアプリ画面AP1が表示される。図1の例では、端末装置10−2の画面には、テーマ画像IM1を用いたメールアプリAのアプリ画面AP1が表示される。   The application screen AP1 of the mail application A is displayed on the screen of the terminal device 10-2. In the example of FIG. 1, the application screen AP1 of the mail application A using the theme image IM1 is displayed on the screen of the terminal device 10-2.

上述したように、生成装置100は、ユーザのコンテキストに応じて変動する入力情報を用いてテーマ画像を生成することにより、ユーザに適したテーマ画像をユーザに提供することができる。したがって、生成装置100は、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   As described above, the generation apparatus 100 can provide the user with a theme image suitable for the user by generating the theme image using the input information that varies according to the user's context. Therefore, the generation device 100 can generate an appropriate image according to the user while suppressing the load on the user.

なお、生成装置100は、モデルM1に限らず、種々のモデルを適宜用いて、画像を生成してもよい。例えば、生成装置100は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。例えば、生成装置100は、カテゴリごとに生成された複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。例えば、生成装置100は、スポーツや花等の種々のカテゴリごとに生成された複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。また、例えば、生成装置100は、男性が関心を有する可能性が高い画像群を用いて生成したモデルや女性が関心を有する可能性が高い画像群を用いて生成したモデルを用いて、入力情報から画像を生成してもよい。例えば、生成装置100は、男性のクリック率が女性のクリック率に比べて相対的に高い画像群を用いて生成したモデルや、女性のクリック率が男性のクリック率に比べて相対的に高い画像群を用いて生成したモデルを用いて、入力情報から画像を生成してもよい。この場合、例えば、生成装置100は、要求元のユーザが男性である場合、男性が関心を有する可能性が高い画像群を用いて生成したモデルを用いて、テーマ画像を生成してもよい。また、例えば、生成装置100は、要求元のユーザが女性である場合、女性が関心を有する可能性が高い画像群を用いて生成したモデルを用いて、テーマ画像を生成してもよい。   Note that the generation apparatus 100 may generate an image using not only the model M1 but also various models as appropriate. For example, the generating apparatus 100 may generate a provided image from input information using a model selected according to user information from among a plurality of models. For example, the generation apparatus 100 may generate a provided image from input information using a model selected according to user information among a plurality of models generated for each category. For example, the generation device 100 may generate a provided image from input information using a model selected according to user information among a plurality of models generated for various categories such as sports and flowers. . In addition, for example, the generation apparatus 100 uses the model generated using the image group that is likely to be interested in men and the model generated using the image group that is likely to be interested in women. An image may be generated from the image. For example, the generation apparatus 100 generates a model generated using an image group in which the male click rate is relatively higher than the female click rate, or an image in which the female click rate is relatively higher than the male click rate. You may produce | generate an image from input information using the model produced | generated using the group. In this case, for example, when the requesting user is a male, the generating apparatus 100 may generate a theme image using a model generated using an image group that is likely to be of interest to a male. In addition, for example, when the requesting user is a woman, the generating apparatus 100 may generate a theme image using a model generated using an image group that is likely to be interested by a woman.

また、上述した例では、生成装置100がテーマ画像IM1を生成する例を示したが、生成装置100は、テーマ画像IM1に限らず種々の画像を生成してもよい。例えば、生成装置100は、入力情報に応じて種々のオブジェクトを生成するモデル(以下、「オブジェクト生成モデル」ともいう)を用いて、キャラクタ等の種々のオブジェクトを生成してもよい。この場合、生成装置100は、ユーザのコンテキストに基づいて変動する入力情報をオブジェクト生成モデルに入力することにより、ユーザのコンテキストに応じたオブジェクトを生成してもよい。また、生成装置100は、ユーザのコンテキストに応じて生成されたオブジェクトを所定のテーマ画像に適用し、そのオブジェクトが適用されたテーマ画像をユーザに生成してもよい。図1の例では、生成装置100は、テーマ画像IM1中の猫のキャラクタ(以下、「猫キャラ」とする)等の種々のオブジェクトを生成するオブジェクト生成モデルを用いて、ユーザのコンテキストに応じたオブジェクトを生成してもよい。この場合、生成装置100は、ユーザU1のコンテキストCN11に応じて生成された入力情報をオブジェクト生成モデルに入力することにより、猫キャラを生成してもよい。また、生成装置100は、ユーザU1のコンテキストCN11に応じて生成された猫キャラを所定のテーマ画像に適用し、猫キャラが適用されたテーマ画像(例えば、テーマ画像IM1)をユーザに生成してもよい。   Moreover, although the example which the production | generation apparatus 100 produced | generated the theme image IM1 was shown in the example mentioned above, the production | generation apparatus 100 may produce | generate not only the theme image IM1 but a various image. For example, the generation apparatus 100 may generate various objects such as characters using a model (hereinafter, also referred to as “object generation model”) that generates various objects according to input information. In this case, the generation apparatus 100 may generate an object according to the user context by inputting input information that varies based on the user context into the object generation model. Further, the generation apparatus 100 may apply an object generated according to the user's context to a predetermined theme image, and generate a theme image to which the object is applied to the user. In the example of FIG. 1, the generation device 100 uses an object generation model that generates various objects such as a cat character (hereinafter referred to as “cat character”) in the theme image IM1 according to the user's context. An object may be generated. In this case, the generation apparatus 100 may generate a cat character by inputting input information generated according to the context CN11 of the user U1 to the object generation model. Further, the generation device 100 applies a cat character generated according to the context CN11 of the user U1 to a predetermined theme image, and generates a theme image (for example, the theme image IM1) to which the cat character is applied. Also good.

また、生成装置100は、生成したテーマ画像を提供したユーザが、そのテーマ画像を継続して使用するかに関する情報を収集してもよい。例えば、生成装置100は、生成したテーマ画像を提供したユーザが、そのテーマ画像を使用するテーマ画像として設定したかどうかに関する情報を収集してもよい。また、例えば、生成装置100は、あるコンテキスト(コンテキストCN100)に応じて生成されたテーマ画像IM50の設定率が他のテーマ画像の設定率よりも高い場合、コンテキストCN100とテーマ画像IM50との相関が高いと判定し、ユーザのコンテキストがコンテキストCN100の場合テーマ画像IM50が生成されるような入力情報を用いてもよい。   Further, the generation apparatus 100 may collect information regarding whether the user who provided the generated theme image continues to use the theme image. For example, the generation apparatus 100 may collect information regarding whether or not the user who provided the generated theme image has set the theme image as the theme image to be used. Further, for example, when the setting rate of the theme image IM50 generated according to a certain context (context CN100) is higher than the setting rate of other theme images, the generation device 100 has a correlation between the context CN100 and the theme image IM50. Input information that determines that the theme image IM50 is generated when the user context is the context CN100 may be used.

〔2.生成装置の構成〕
次に、図2を用いて、実施形態に係る生成装置100の構成について説明する。図2は、実施形態に係る生成装置100の構成例を示す図である。図2に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、生成装置100は、生成装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of the generator
Next, the configuration of the generation apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of the generation apparatus 100 according to the embodiment. As illustrated in FIG. 2, the generation apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The generation device 100 includes an input unit (for example, a keyboard and a mouse) that receives various operations from an administrator of the generation device 100 and a display unit (for example, a liquid crystal display) for displaying various types of information. May be.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to the network by wire or wireless, and transmits / receives information to / from the terminal device 10.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、ユーザ属性情報記憶部121と、行動履歴情報記憶部122と、行動予定情報記憶部123と、シード情報記憶部124と、モデル情報記憶部125とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 2, the storage unit 120 according to the embodiment includes a user attribute information storage unit 121, an action history information storage unit 122, an action schedule information storage unit 123, a seed information storage unit 124, and a model information storage. Part 125.

(ユーザ属性情報記憶部121)
実施形態に係るユーザ属性情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ属性情報記憶部121は、ユーザ属性に関する各種情報を記憶する。図3は、実施形態に係るユーザ属性情報記憶部の一例を示す図である。図3に示すユーザ属性情報記憶部121は、「ユーザID」、「年齢」、「性別」、「居住地」、「関心」、「コンテキスト」といった項目が含まれる。
(User attribute information storage unit 121)
The user attribute information storage unit 121 according to the embodiment stores various types of information regarding the user. For example, the user attribute information storage unit 121 stores various information related to user attributes. FIG. 3 is a diagram illustrating an example of a user attribute information storage unit according to the embodiment. The user attribute information storage unit 121 illustrated in FIG. 3 includes items such as “user ID”, “age”, “sex”, “residence”, “interest”, and “context”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。   “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. “Age” indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35 years old. “Gender” indicates the gender of the user identified by the user ID.

また、「居住地」は、ユーザIDにより識別されるユーザの居住する地域を示す。なお、「居住地」は、ユーザIDにより識別されるユーザの具体的な住所であってもよい。また、「関心」は、ユーザIDにより識別されるユーザが関心のある対象を示す。なお、「関心」は、複数登録されてもよい。また、「コンテキスト」は、ユーザIDにより識別されるユーザのコンテキストを示す。   “Residence” indicates a region where the user is identified by the user ID. “Residence” may be a specific address of the user identified by the user ID. Further, “interest” indicates an object in which the user identified by the user ID is interested. A plurality of “interests” may be registered. “Context” indicates the context of the user identified by the user ID.

例えば、図3に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「女性」であることを示す。また、例えば、図3に示す例において、ユーザU1は、居住地が「A地域」であり、関心のある対象が「アニメ」であることを示す。また、ユーザU1は、コンテキストが「−」、すなわち未推定であることを示す。   For example, in the example illustrated in FIG. 3, the age of the user (user U1) identified by the user ID “U1” is “20s”, and the gender is “female”. In addition, for example, in the example illustrated in FIG. 3, the user U1 indicates that the residence is “A region” and the object of interest is “animation”. Further, the user U1 indicates that the context is “−”, that is, unestimated.

例えば、図3に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)の年齢は、「30代」であり、性別は、「男性」であることを示す。また、例えば、図3に示す例において、ユーザU2は、居住地が「B地域」であり、関心のある対象が「スポーツ」であることを示す。また、ユーザU2は、ユーザ情報に基づいて推定された最新のコンテキストが「CN21」であることを示す。   For example, in the example illustrated in FIG. 3, the age of the user (user U2) identified by the user ID “U2” is “30s”, and the gender is “male”. Further, for example, in the example illustrated in FIG. 3, the user U <b> 2 indicates that the residence is “B area” and the object of interest is “sports”. Further, the user U2 indicates that the latest context estimated based on the user information is “CN21”.

なお、ユーザ属性情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ属性情報記憶部121は、年齢や性別に加えて他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ属性情報記憶部121は、氏名、勤務地、家族構成、収入、ライフスタイル等の情報を記憶してもよい。   The user attribute information storage unit 121 is not limited to the above, and may store various types of information according to the purpose. For example, the user attribute information storage unit 121 may store other demographic attribute information and psychographic attribute information in addition to age and sex. For example, the user attribute information storage unit 121 may store information such as name, work place, family structure, income, lifestyle, and the like.

(行動履歴情報記憶部122)
実施形態に係る行動履歴情報記憶部122は、行動履歴に関する各種情報を記憶する。図4は、実施形態に係る行動履歴情報記憶部の一例を示す図である。例えば、行動履歴情報記憶部122は、ユーザが過去に行った行動に関する情報を記憶する。図4に示す行動履歴情報記憶部122には、「ユーザID」、「行動情報」といった項目が含まれる。
(Behavior history information storage unit 122)
The action history information storage unit 122 according to the embodiment stores various types of information related to the action history. FIG. 4 is a diagram illustrating an example of an action history information storage unit according to the embodiment. For example, the action history information storage unit 122 stores information related to actions that the user has performed in the past. The action history information storage unit 122 illustrated in FIG. 4 includes items such as “user ID” and “behavior information”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動情報」には、対応するユーザの行動に関する情報を示し、「行動ID」、「日時」、「内容」といった項目が含まれる。   “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. In addition, “behavior information” indicates information related to the action of the corresponding user, and includes items such as “behavior ID”, “date and time”, and “content”.

「行動ID」は、各行動を識別するための識別情報を示す。「日時」は、対応する行動が行われた日時を示す。なお、図4の例では、「日時」に記憶される情報を「DA1−1」等の符号で図示するが、「日時」には、「2016年8月31日20時16分43秒」等の具体的な日時が記憶されるものとする。「内容」は、対応するユーザの行動の種別やその行動において対象となった内容等を示す。   “Action ID” indicates identification information for identifying each action. “Date and time” indicates the date and time when the corresponding action was performed. In the example of FIG. 4, the information stored in the “date and time” is illustrated by a code such as “DA1-1”, but the “date and time” includes “20:16:43 on August 31, 2016”. It is assumed that a specific date and time is stored. “Content” indicates the type of action of the corresponding user, the contents targeted in the action, and the like.

例えば、図4に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC1−1」により識別される行動や行動ID「AC1−2」により識別される行動を行ったことを示す。また、例えば、図4に示す例において、行動ID「AC1−1」により識別される行動は、日時「DA1−1」に行われ、その内容がコンテンツAの閲覧であることを示す。また、例えば、図4に示す例において、行動ID「AC1−2」により識別される行動は、日時「DA1−2」に行われ、その内容がクエリ「キャラA」を用いた検索であることを示す。   For example, in the example illustrated in FIG. 4, the user (user U1) identified by the user ID “U1” is the behavior identified by the behavior ID “AC1-1” or the behavior identified by the behavior ID “AC1-2”. Indicates that Further, for example, in the example illustrated in FIG. 4, the action identified by the action ID “AC1-1” is performed on the date “DA1-1”, and the content indicates that the content A is viewed. Further, for example, in the example illustrated in FIG. 4, the action identified by the action ID “AC1-2” is performed on the date “DA1-2”, and the content is a search using the query “Character A”. Indicates.

なお、行動履歴情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、行動履歴情報記憶部122は、行動が所定の期間継続して行われたものであれば、その期間に関する情報を記憶してもよい。   The action history information storage unit 122 is not limited to the above, and may store various information according to the purpose. For example, the behavior history information storage unit 122 may store information regarding a period if the behavior is performed continuously for a predetermined period.

(行動予定情報記憶部123)
実施形態に係る行動予定情報記憶部123は、行動予定に関する各種情報を記憶する。図5は、実施形態に係る行動予定情報記憶部の一例を示す図である。例えば、行動予定情報記憶部123は、ユーザが将来行う行動の予定に関する情報を記憶する。例えば、行動予定情報記憶部123は、ユーザのスケジュールに関する情報を記憶してもよい。図5に示す行動予定情報記憶部123には、「ユーザID」、「予定情報」といった項目が含まれる。
(Behavior schedule information storage unit 123)
The action schedule information storage unit 123 according to the embodiment stores various types of information related to the action schedule. FIG. 5 is a diagram illustrating an example of the action schedule information storage unit according to the embodiment. For example, the action schedule information storage unit 123 stores information related to a schedule of actions that the user will perform in the future. For example, the action schedule information storage unit 123 may store information related to the user's schedule. The action schedule information storage unit 123 illustrated in FIG. 5 includes items such as “user ID” and “schedule information”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「予定情報」には、対応するユーザの行動に関する情報を示し、「予定ID」、「開始日時」、「内容」といった項目が含まれる。   “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. Further, “schedule information” indicates information related to the action of the corresponding user and includes items such as “schedule ID”, “start date / time”, and “content”.

「予定ID」は、各予定を識別するための識別情報を示す。「開始日時」は、対応する予定行動が行われる(開始される)日時を示す。なお、図5の例では、「開始日時」に記憶される情報を「FD1−1」等の符号で図示するが、「開始日時」には、「2016年9月15日18時45分」等の具体的な日時が記憶されるものとする。「内容」は、対応するユーザの行動の種別やその行動において対象となる内容等を示す。   “Schedule ID” indicates identification information for identifying each schedule. “Start date and time” indicates the date and time when the corresponding scheduled action is performed (started). In the example of FIG. 5, the information stored in the “start date / time” is illustrated by a symbol such as “FD1-1”, but the “start date / time” includes “18:45 on September 15, 2016”. It is assumed that a specific date and time is stored. “Content” indicates the type of action of the corresponding user, the content that is the target of the action, and the like.

例えば、図5に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、予定ID「PD1−1」により識別される予定に関する行動を今後行う予定があることを示す。また、例えば、図5に示す例において、予定ID「PD1−1」により識別される行動が行われる予定の日時は、日時「FD1−1」であり、その内容がアニメAの映画鑑賞であることを示す。   For example, in the example illustrated in FIG. 5, the user (user U1) identified by the user ID “U1” indicates that there is a plan to perform an action related to the schedule identified by the schedule ID “PD1-1” in the future. Further, for example, in the example shown in FIG. 5, the date and time when the action identified by the schedule ID “PD1-1” is scheduled to be performed is date and time “FD1-1”, and the content is a movie appreciation of animation A. It shows that.

例えば、図5に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)は、予定ID「PD2−1」により識別される予定に関する行動を今後行う予定があることを示す。また、例えば、図5に示す例において、予定ID「PD2−1」により識別される行動が行われる予定の日時は、日時「FD2−1」であり、その内容がサッカーチームAの試合観戦(スポーツ観戦)であることを示す。   For example, in the example illustrated in FIG. 5, the user (user U2) identified by the user ID “U2” indicates that there is a plan to perform an action related to the schedule identified by the schedule ID “PD2-1” in the future. Further, for example, in the example shown in FIG. 5, the date and time when the action identified by the schedule ID “PD2-1” is scheduled to be performed is the date and time “FD2-1”, the content of which is the game watching of the soccer team A ( Show sports).

なお、行動予定情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、行動予定情報記憶部123は、行動が終了する終了日時に関する情報を記憶してもよい。例えば、行動予定情報記憶部123は、行動が所定の期間継続して行われるものであれば、その期間に関する情報を記憶してもよい。   In addition, the action schedule information storage part 123 may memorize | store not only the above but various information according to the objective. For example, the action schedule information storage unit 123 may store information related to the end date and time when the action ends. For example, if the action is performed continuously for a predetermined period, the action schedule information storage unit 123 may store information regarding the period.

(シード情報記憶部124)
実施形態に係るシード情報記憶部124は、シードに関する各種情報を記憶する。図6に、実施形態に係るシード情報記憶部124の一例を示す。図6に示すシード情報記憶部124は、「シード(ベクトル)」、「次元1」、「次元2」、「次元3」といった項目を有する。なお、項目「次元」は、各シードの次元数だけ設けられ、ベクトルがN次元である場合、「次元N」まで設けられる。具体的には、シードが100次元のベクトルの場合、項目「次元1」、「次元2」、「次元3」・・・「次元100」まで設けられる。
(Seed information storage unit 124)
The seed information storage unit 124 according to the embodiment stores various types of information related to seeds. FIG. 6 shows an example of the seed information storage unit 124 according to the embodiment. The seed information storage unit 124 illustrated in FIG. 6 includes items such as “seed (vector)”, “dimension 1”, “dimension 2”, and “dimension 3”. It should be noted that the item “dimension” is provided as many as the number of dimensions of each seed. Specifically, when the seed is a 100-dimensional vector, items “dimension 1”, “dimension 2”, “dimension 3”... “Dimension 100” are provided.

「シード(ベクトル)」は、各シードを識別するための識別情報を示す。「次元1」、「次元2」、「次元3」は、対応する次元の数値を示す。   “Seed (vector)” indicates identification information for identifying each seed. “Dimension 1”, “Dimension 2”, and “Dimension 3” indicate numerical values of the corresponding dimensions.

例えば、図6に示す例において、シードID「SD1」により識別されるシード(シードSD1)に対応するベクトル情報は、次元1の数値が「0.5」、次元2の数値が「0.2」、次元3の数値が「−0.7」等であることを示す。   For example, in the example shown in FIG. 6, the vector information corresponding to the seed (seed SD1) identified by the seed ID “SD1” has a numerical value of dimension 1 of “0.5” and a numerical value of dimension 2 of “0.2”. ", Indicating that the numerical value of dimension 3 is" -0.7 "or the like.

なお、シード情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、シード情報記憶部124は、各シードがモデルに入力された場合にどのような画像が生成されるかに関する情報を記憶してもよい。例えば、シードSD1は、モデルM1に入力された場合、花模様のテーマ画像が生成されるベクトルであることを示す情報を記憶してもよい。例えば、シードSD2は、モデルM1に入力された場合、サッカー風のテーマ画像が生成されるベクトルであることを示す情報を記憶してもよい。例えば、シードSD3は、モデルM1に入力された場合、アニメ風のテーマ画像が生成されるベクトルであることを示す情報を記憶してもよい。   Note that the seed information storage unit 124 is not limited to the above, and may store various information according to the purpose. For example, the seed information storage unit 124 may store information regarding what image is generated when each seed is input to the model. For example, when the seed SD1 is input to the model M1, the seed SD1 may store information indicating that a flower pattern theme image is a generated vector. For example, the seed SD2 may store information indicating that it is a vector for generating a soccer-style theme image when input to the model M1. For example, the seed SD3 may store information indicating that it is a vector for generating an animated theme image when input to the model M1.

(モデル情報記憶部125)
実施形態に係るモデル情報記憶部125は、モデルに関する情報を記憶する。例えば、モデル情報記憶部125は、生成処理により生成されたモデル情報を記憶する。図7は、実施形態に係るモデル情報記憶部の一例を示す図である。図7に示すモデル情報記憶部125は、モデル情報として、各モデルM1等に対応させて「素性1」〜「素性3」等といった項目を有する。なお、図7では、モデルM1のみを図示するが、モデルM2、M3等の複数のモデル情報が記憶されてもよい。
(Model information storage unit 125)
The model information storage unit 125 according to the embodiment stores information related to the model. For example, the model information storage unit 125 stores model information generated by the generation process. FIG. 7 is a diagram illustrating an example of a model information storage unit according to the embodiment. The model information storage unit 125 illustrated in FIG. 7 includes items such as “feature 1” to “feature 3” corresponding to each model M1 and the like as model information. In FIG. 7, only the model M1 is illustrated, but a plurality of model information such as models M2 and M3 may be stored.

例えば、図7に示す例において、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。例えば、モデルの素性(特徴量)がm次元のベクトルで表現される場合、素性数はm個になり、素性1〜素性mの重みが記憶される。   For example, in the example illustrated in FIG. 7, the model information regarding the model M1 includes feature 1 weight “0.5”, feature 2 weight “−0.4”, feature 3 weight “0.2”, and the like. Indicates that For example, when the feature (feature value) of the model is expressed by an m-dimensional vector, the number of features is m, and the weights of the features 1 to m are stored.

なお、モデル情報記憶部125は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。   The model information storage unit 125 is not limited to the above, and may store various model information according to the purpose.

(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 2, the control unit 130 is a controller and is stored in a storage device inside the generation apparatus 100 by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Various programs (corresponding to an example of a generation program) are implemented by using the RAM as a work area. The control unit 130 is a controller, and is realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図2に示すように、制御部130は、取得部131と、抽出部132と、生成部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   As illustrated in FIG. 2, the control unit 130 includes an acquisition unit 131, an extraction unit 132, a generation unit 133, and a provision unit 134, and realizes or executes information processing functions and operations described below. . The internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 2, and may be another configuration as long as the information processing described later is performed.

(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、ユーザ属性情報記憶部121、行動履歴情報記憶部122、行動予定情報記憶部123、シード情報記憶部124、モデル情報記憶部125等から各種情報を取得する。また、取得部131は、各種情報を外部の情報処理装置から取得してもよい。
(Acquisition part 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from the user attribute information storage unit 121, the action history information storage unit 122, the action schedule information storage unit 123, the seed information storage unit 124, the model information storage unit 125, and the like. The acquisition unit 131 may acquire various types of information from an external information processing apparatus.

例えば、取得部131は、端末装置10を利用するユーザに関するユーザ情報を取得する。なお、取得部131は、端末装置10を利用するユーザに関するユーザ情報をユーザが利用する端末装置10以外の外部装置から取得してもよい。取得部131は、端末装置10を利用するユーザに関するユーザ情報を収集する情報処理装置からユーザ情報を取得してもよい。   For example, the acquisition unit 131 acquires user information regarding a user who uses the terminal device 10. The acquisition unit 131 may acquire user information related to a user who uses the terminal device 10 from an external device other than the terminal device 10 used by the user. The acquisition unit 131 may acquire user information from an information processing apparatus that collects user information regarding a user who uses the terminal device 10.

図1の例では、取得部131は、ユーザU1が利用する端末装置10からユーザU1のユーザ情報を取得する。例えば、取得部131は、端末装置10を利用するユーザU1が20代女性であることを示す情報を端末装置10から取得する。例えば、取得部131は、端末装置10を利用するユーザU1の行動履歴や行動予定等の種々の情報を端末装置10から取得する。また、取得部131は、ユーザ属性情報記憶部121や行動履歴情報記憶部122や行動予定情報記憶部123に取得したユーザ情報を格納する。   In the example of FIG. 1, the acquisition unit 131 acquires user information of the user U1 from the terminal device 10 used by the user U1. For example, the acquisition unit 131 acquires information indicating that the user U1 who uses the terminal device 10 is a 20's female from the terminal device 10. For example, the acquisition unit 131 acquires various information such as an action history and an action schedule of the user U1 who uses the terminal device 10 from the terminal device 10. The acquisition unit 131 stores the acquired user information in the user attribute information storage unit 121, the action history information storage unit 122, and the action schedule information storage unit 123.

また、例えば、取得部131は、シード情報記憶部124(図6参照)に記憶されるシードに関する情報やモデル情報記憶部125(図7参照)に記憶されるモデルに関する情報を取得してもよい。例えば、取得部131は、シード情報記憶部124(図6参照)に記憶されるシードに関する情報やモデル情報記憶部125(図7参照)に記憶されるモデルに関する情報を外部の情報処理装置から取得してもよい。   For example, the acquisition unit 131 may acquire information about seeds stored in the seed information storage unit 124 (see FIG. 6) or information about models stored in the model information storage unit 125 (see FIG. 7). . For example, the acquisition unit 131 acquires information about seeds stored in the seed information storage unit 124 (see FIG. 6) and information about models stored in the model information storage unit 125 (see FIG. 7) from an external information processing apparatus. May be.

(抽出部132)
抽出部132は、各種情報を抽出する。例えば、抽出部132は、シードを抽出する。例えば、抽出部132は、シード情報記憶部124に記憶された複数のシードのうち、ユーザのコンテキストに対応するシードを抽出する。
(Extractor 132)
The extraction unit 132 extracts various information. For example, the extraction unit 132 extracts seeds. For example, the extraction unit 132 extracts a seed corresponding to the user's context from the plurality of seeds stored in the seed information storage unit 124.

図1の例では、抽出部132は、ユーザU1のコンテキストが「アニメ好きのユーザがキャラAに関心を持っている」状況であることを示すコンテキストCN11に基づいて、シードSD3を抽出(選択)する。例えば、抽出部132は、ユーザU1がアニメに関心を持っている状況に基づいて、アニメ風のテーマ画像が生成されるシードSD3を抽出する。   In the example of FIG. 1, the extraction unit 132 extracts (selects) the seed SD3 based on the context CN11 indicating that the context of the user U1 is “a user who likes anime is interested in the character A”. To do. For example, the extraction unit 132 extracts a seed SD3 from which an animated theme image is generated based on a situation in which the user U1 is interested in animation.

また、抽出部132は、ユーザのコンテキストを抽出(推定)してもよい。例えば、抽出部132は、ユーザU1のユーザ情報に基づいて、ユーザU1に関するコンテキストを推定する。図1の例では、抽出部132は、ユーザ属性情報記憶部121や行動履歴情報記憶部122や行動予定情報記憶部123等に記憶されたユーザU1に関する各種情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、抽出部132は、ユーザの行動履歴、ユーザの行動予定、ユーザの属性、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの運動状態、および、ユーザの感情等の種々の情報等に基づいてユーザのコンテキストを推定する。   The extraction unit 132 may extract (estimate) the user's context. For example, the extraction unit 132 estimates a context related to the user U1 based on the user information of the user U1. In the example of FIG. 1, the extracting unit 132 uses the various types of information related to the user U1 stored in the user attribute information storage unit 121, the action history information storage unit 122, the action schedule information storage unit 123, and the like to obtain a context related to the user U1. presume. For example, the extraction unit 132 may include a user action history, a user action schedule, a user attribute, a user current position, a current time, a physical environment in which the user is placed, a social environment in which the user is placed, a user exercise state, And a user's context is estimated based on various information, such as a user's emotion.

図1の例では、抽出部132は、ユーザU1がアニメAに登場するキャラAに関する検索を行ったことや、アニメAの映画を観賞する予定があること等を含むユーザ情報からユーザU1のコンテキストを推定する。例えば、図1の例では、抽出部132は、ユーザU1のコンテキストを「アニメ好きのユーザがキャラAに関心を持っている」状況に対応するコンテキストCN11であると推定する。   In the example of FIG. 1, the extracting unit 132 determines the context of the user U1 from user information including that the user U1 has performed a search for the character A appearing in the anime A, and that the user U1 is planning to watch a movie of the anime A. Is estimated. For example, in the example of FIG. 1, the extraction unit 132 estimates that the context of the user U1 is the context CN11 corresponding to the situation “a user who likes anime is interested in the character A”.

(生成部133)
生成部133は、各種情報を生成する。例えば、生成部133は、取得部131により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、端末装置10に提供する提供画像を生成する。
(Generator 133)
The generation unit 133 generates various information. For example, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on the user information acquired by the acquisition unit 131 and a model that outputs an image according to the input information.

例えば、生成部133は、ユーザの属性情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザが関心を有する対象に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザの行動履歴を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザの行動予定に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。   For example, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including user attribute information. Further, for example, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including information related to a target that the user is interested in. Further, for example, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including a user's action history. For example, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including information related to the user's action schedule.

例えば、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて提供画像を生成する。また、例えば、生成部133は、パラメータにより変動する入力情報をモデルに入力することにより提供画像を生成する。   For example, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on the user context estimated based on the user information. Further, for example, the generation unit 133 generates a provided image using a parameter based on a user context estimated based on user information. Further, for example, the generation unit 133 generates a provided image by inputting input information that varies depending on a parameter to the model.

また、例えば、生成部133は、モデルを生成してもよい。例えば、生成部133は、モデル情報記憶部125(図7参照)に示すように、モデルM1を生成する。例えば、生成装置100は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であるモデルM1を生成する。例えば、生成装置100は、モデルM1にN次元のベクトル等の所定の入力情報を入力することにより、入力した入力情報から画像を生成する。   For example, the generation unit 133 may generate a model. For example, the generation unit 133 generates a model M1 as shown in the model information storage unit 125 (see FIG. 7). For example, the generation apparatus 100 generates a model M1 in which the weight of the feature 1 is “0.5”, the weight of the feature 2 is “−0.4”, the weight of the feature 3 is “0.2”, and the like. For example, the generation device 100 generates an image from input input information by inputting predetermined input information such as an N-dimensional vector to the model M1.

また、例えば、生成部133は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。例えば、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて提供画像を生成する。   For example, the generation unit 133 may generate a provided image from input information using a model selected according to user information from among a plurality of models. For example, the generation unit 133 generates a provided image using a parameter based on a user context estimated based on user information.

図1の例では、生成部133は、シードSD3に基づいて入力情報を生成する。例えば、生成部133は、ユーザU1のコンテキストに基づいてシードSD3の各次元の数値を変動させた入力情報を生成する。例えば、生成装置100は、ユーザのコンテキストに基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。   In the example of FIG. 1, the generation unit 133 generates input information based on the seed SD3. For example, the generation unit 133 generates input information in which the numerical value of each dimension of the seed SD3 is changed based on the context of the user U1. For example, the generating apparatus 100 generates input information in which numerical values of each dimension of the seed SD3 are changed using parameters based on the user context.

また、図1の例では、生成部133は、ユーザU1のコンテキストCN11に基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。例えば、生成部133は、ユーザU1がコンテキストCN11、すなわち「アニメ好きのユーザがキャラAに関心を持っている」状況であるため、例えば、入力情報において、キャラAの対象である猫の要素が強くなるようなパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。   In the example of FIG. 1, the generation unit 133 generates input information in which the numerical value of each dimension of the seed SD3 is changed using a parameter based on the context CN11 of the user U1. For example, since the generation unit 133 has a context CN11, that is, “a user who likes anime is interested in character A”, for example, in the input information, the element of the cat that is the target of character A is The input information is generated by changing the numerical value of each dimension of the seed SD3 using a parameter that becomes stronger.

例えば、生成部133は、猫の要素に関する次元の数値を大きくすることを示すパラメータを用いて、100次元のベクトルのうち3次元目の数値が大きくなるようにシードSD3の各次元の数値を変動させた入力情報を生成する。図1の例では、生成部133は、入力情報リストIL1に示すように、シードSD3から猫の要素に関する次元である3次元目の数値を大きくした入力情報を生成する。具体的には、生成部133は、3次元目の数値がシードSD3中の「0.1」から「1.0」に変更された入力情報SD3−1を生成する。   For example, the generation unit 133 changes the numerical value of each dimension of the seed SD3 so that the numerical value of the third dimension of the 100-dimensional vector is increased using a parameter indicating that the numerical value of the dimension related to the cat element is increased. Generate the input information. In the example of FIG. 1, as shown in the input information list IL1, the generation unit 133 generates input information in which the numerical value of the third dimension, which is a dimension related to the cat element, is increased from the seed SD3. Specifically, the generation unit 133 generates input information SD3-1 in which the numerical value of the third dimension is changed from “0.1” to “1.0” in the seed SD3.

また、例えば、生成部133は、モデルに入力情報を入力することによりテーマ画像を生成する。図1の例では、生成部133は、モデルM1に入力情報SD3−1を入力することによりテーマ画像IM1を生成する。例えば、生成部133は、ユーザU1のコンテキストCN11に適した、アニメ風の猫に関するテーマ画像IM1を生成する。   Further, for example, the generation unit 133 generates a theme image by inputting input information to the model. In the example of FIG. 1, the generation unit 133 generates the theme image IM1 by inputting the input information SD3-1 to the model M1. For example, the generation unit 133 generates a theme image IM1 related to an anime-style cat suitable for the context CN11 of the user U1.

(提供部134)
提供部134は、各種情報を提供する。例えば、提供部134は、端末装置10に各種情報を提供する。例えば、提供部134は、生成部133により生成されたテーマ画像に基づくサービスを提供する。例えば、提供部134は、生成部133により生成されたテーマ画像を端末装置10へ提供する。図1の例では、提供部134は、生成部133により生成されたアニメ風の猫に関するテーマ画像IM1を端末装置10へ提供する。
(Providing unit 134)
The providing unit 134 provides various information. For example, the providing unit 134 provides various information to the terminal device 10. For example, the providing unit 134 provides a service based on the theme image generated by the generating unit 133. For example, the providing unit 134 provides the theme image generated by the generating unit 133 to the terminal device 10. In the example of FIG. 1, the providing unit 134 provides the terminal device 10 with the theme image IM <b> 1 related to the anime-like cat generated by the generating unit 133.

〔3.生成処理のフロー〕
次に、図8を用いて、実施形態に係る生成システム1による生成処理の手順について説明する。図8は、実施形態に係る生成処理の一例を示すフローチャートである。
[3. Generation process flow)
Next, a generation process procedure performed by the generation system 1 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of the generation process according to the embodiment.

図8に示すように、生成装置100は、ユーザ情報を取得する(ステップS101)。例えば、生成装置100は、端末装置10を利用するユーザに関するユーザ情報をユーザが利用する端末装置10から取得する。   As illustrated in FIG. 8, the generation device 100 acquires user information (step S101). For example, the generation device 100 acquires user information regarding a user who uses the terminal device 10 from the terminal device 10 used by the user.

その後、生成装置100は、推定したユーザのコンテキストに基づいてシード(ベクトル)を抽出する(ステップS102)。図1の例では、生成装置100は、ユーザU1のコンテキストが「アニメ好きのユーザがキャラAに関心を持っている」状況であることを示すコンテキストCN11に基づいて、シードSD3を抽出(選択)する。   Thereafter, the generation apparatus 100 extracts seeds (vectors) based on the estimated user context (step S102). In the example of FIG. 1, the generation apparatus 100 extracts (selects) the seed SD3 based on the context CN11 indicating that the context of the user U1 is “a user who likes anime is interested in the character A”. To do.

その後、生成装置100は、抽出したシードに基づいて入力情報を生成する(ステップS103)。図1の例では、生成装置100は、ユーザU1のコンテキストCN11に基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報SD3−1を生成する。   Thereafter, the generation device 100 generates input information based on the extracted seed (step S103). In the example of FIG. 1, the generation device 100 generates input information SD3-1 in which numerical values of each dimension of the seed SD3 are changed using parameters based on the context CN11 of the user U1.

その後、生成装置100は、入力情報と画像生成モデル(モデル)とに基づいてテーマ画像を生成する(ステップS104)。図1の例では、生成装置100は、モデルM1に入力情報SD3−1を入力することによりテーマ画像IM1を生成する。   Thereafter, the generation apparatus 100 generates a theme image based on the input information and the image generation model (model) (step S104). In the example of FIG. 1, the generation apparatus 100 generates the theme image IM1 by inputting the input information SD3-1 to the model M1.

〔4.変形例〕
上記の実施形態に限らず、生成装置100は種々の情報に基づいて画像を生成してもより。変形例に係る生成装置100Aは、所定の画風(スタイル)を画像に適用した画像を生成してもよい。この点について、図9〜図12を基に説明する。なお、実施形態と同様の構成については、同一の符号を付して説明を省略する。
[4. (Modification)
Not limited to the above embodiment, the generation apparatus 100 may generate an image based on various information. The generation apparatus 100A according to the modification may generate an image in which a predetermined style (style) is applied to the image. This point will be described with reference to FIGS. In addition, about the structure similar to embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

〔4−1.生成処理〕
まず、変形例に係る生成処理について説明する。図9は、変形例に係る生成処理の一例を示す図である。図9では、生成装置100Aは、ユーザのユーザ情報に基づいて、ユーザが利用する端末装置10へ提供する提供画像を生成する場合を示す。また、図9では、生成装置100Aは、ユーザのコンテキストに応じて決定される画風をユーザから取得した画像に適用した提供画像を生成する場合を示す。
[4-1. Generation process)
First, the generation process according to the modification will be described. FIG. 9 is a diagram illustrating an example of the generation process according to the modification. In FIG. 9, the generation device 100 </ b> A illustrates a case where a provided image to be provided to the terminal device 10 used by the user is generated based on the user information of the user. Further, FIG. 9 illustrates a case where the generation apparatus 100A generates a provided image in which an image style determined according to the user's context is applied to an image acquired from the user.

図9に示すように、生成システム1Aには、端末装置10と、生成装置100Aとが含まれる。端末装置10と、生成装置100Aとは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。また、図9に示した生成システム1Aには、複数台の端末装置10や、複数台の生成装置100Aが含まれてもよい。このように、生成システム1Aは、生成装置100に替えて生成装置100Aを含む点において、生成システム1と相違する。   As illustrated in FIG. 9, the generation system 1A includes a terminal device 10 and a generation device 100A. The terminal device 10 and the generation device 100A are connected to be communicable by wire or wireless via a predetermined communication network (not shown). In addition, the generation system 1A illustrated in FIG. 9 may include a plurality of terminal devices 10 and a plurality of generation devices 100A. As described above, the generation system 1A is different from the generation system 1 in that the generation system 100A includes the generation device 100A instead of the generation device 100.

生成装置100Aは、ユーザ情報から推定されるユーザのコンテキストに応じて決定される画風と、画像とに基づいて、端末装置10に提供する提供画像を生成する情報処理装置である。例えば、生成装置100Aは、スタイル情報記憶部126に示すように、複数の画風(以下、「スタイル」ともいう)のうち、ユーザのコンテキストに対応するスタイルを決定(抽出)し、抽出したスタイルを他の画像に適用する処理を行う。   The generation device 100A is an information processing device that generates a provided image to be provided to the terminal device 10 based on a style determined according to a user context estimated from user information and an image. For example, as illustrated in the style information storage unit 126, the generation apparatus 100A determines (extracts) a style corresponding to the user's context among a plurality of styles (hereinafter also referred to as “styles”), and uses the extracted style. Performs processing applied to other images.

まず、図9に示すように、生成装置100Aは、ユーザU1が利用する端末装置10からユーザU1のユーザ情報を取得する(ステップS21)。例えば、生成装置100Aは、端末装置10を利用するユーザU1が近日中に絵画の美術鑑賞を行う予定があることを示す予定情報を取得する。なお、生成装置100AがユーザU1に関するユーザ情報を取得済みである場合、ステップS21の処理を行わなくてもよい。   First, as illustrated in FIG. 9, the generation device 100A acquires user information of the user U1 from the terminal device 10 used by the user U1 (Step S21). For example, the generation device 100A acquires schedule information indicating that the user U1 who uses the terminal device 10 has a plan to appreciate art in the near future. Note that if the generation apparatus 100A has already acquired user information regarding the user U1, the process of step S21 may not be performed.

そして、生成装置100Aは、端末装置10からシード画像を取得する(ステップS22)。なお、ここでいうシード画像とは、ユーザのコンテキストに応じてスタイルを適用する対象となる画像をいう。なお、シード画像はユーザから取得しなくてもよい。例えば、シード画像は図1の例におけるテーマ画像であってもよい。図9の例では、生成装置100Aは、端末装置10から対象として犬を含むシード画像IM21を取得する。   Then, the generation device 100A acquires a seed image from the terminal device 10 (step S22). Here, the seed image refers to an image to which a style is applied according to the user's context. Note that the seed image may not be acquired from the user. For example, the seed image may be the theme image in the example of FIG. In the example of FIG. 9, the generation device 100A acquires a seed image IM21 including a dog as a target from the terminal device 10.

ユーザU1が利用する端末装置10からシード画像IM21を取得した生成装置100Aは、ユーザU1に関するコンテキストを推定する(ステップS23)。生成装置100Aは、図1に示すステップS13と同様に、ユーザU1のユーザ情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、生成装置100Aは、行動予定情報記憶部123−1に記憶されたユーザU1に行動予定情報を用いて、ユーザU1に関するコンテキストを推定する。なお、行動予定情報記憶部123−1は、アニメAの映画鑑賞に替えて行動予定に絵画の美術鑑賞が含まれる点以外は、図1中の行動予定情報記憶部123と同様である。   100 A of production | generation apparatuses which acquired seed image IM21 from the terminal device 10 which the user U1 uses estimate the context regarding the user U1 (step S23). The generation device 100A estimates the context related to the user U1 using the user information of the user U1 as in step S13 illustrated in FIG. For example, 100 A of production | generation apparatuses estimate the context regarding the user U1 using action schedule information for the user U1 memorize | stored in the action schedule information storage part 123-1. The action schedule information storage unit 123-1 is the same as the action schedule information storage unit 123 in FIG. 1 except that the action schedule includes art appreciation of painting instead of the animation A movie appreciation.

図9の例では、生成装置100Aは、ユーザU1が近日中に絵画の美術鑑賞を行う予定等を含むユーザ情報からユーザU1のコンテキストを推定する。例えば、生成装置100Aは、ユーザ属性情報記憶部121−2に示すように、ユーザU1のコンテキストをコンテキストCN12であると推定する。なお、ユーザ属性情報記憶部121−2は、ユーザU1のコンテキストに関する情報がコンテキスト「CN12」に更新された点以外は、ユーザ属性情報記憶部121と同様である。このように、図9の例では、生成装置100Aは、ユーザU1のコンテキストを「近日中に絵画を鑑賞する予定がある」状況に対応するコンテキストCN12であると推定する。   In the example of FIG. 9, the generation device 100A estimates the context of the user U1 from user information including the schedule for the user U1 to appreciate paintings in the near future. For example, as illustrated in the user attribute information storage unit 121-2, the generation device 100A estimates that the context of the user U1 is the context CN12. The user attribute information storage unit 121-2 is the same as the user attribute information storage unit 121, except that the information related to the context of the user U1 is updated to the context “CN12”. As described above, in the example of FIG. 9, the generation apparatus 100A estimates that the context of the user U1 is the context CN12 corresponding to the situation “scheduled to appreciate a painting in the near future”.

その後、生成装置100Aは、スタイルを抽出する(ステップS24)。例えば、ここでいうスタイルとは、その画像に現れた作風、すなわち画風であり、その画像を創作した作者が創作した画像群の傾向や特徴等を意味する。図9の例では、生成装置100Aがスタイル情報記憶部126に複数のスタイルを格納する場合を示す。   Thereafter, the generation device 100A extracts a style (step S24). For example, the style here refers to the style that appears in the image, that is, the style, and means the tendency and characteristics of the image group created by the creator who created the image. The example of FIG. 9 shows a case where the generation apparatus 100A stores a plurality of styles in the style information storage unit 126.

例えば、図9に示す例において、スタイルID「ST1」により識別されるスタイル(以下、「スタイルST1」と記載する場合がある)は、対応する画像「STM1」に表現されており、その画風が「アニメX風」であることを示す。また、例えば、図9に示す例において、スタイルID「ST2」により識別されるスタイル(以下、「スタイルST2」と記載する場合がある)は、対応する画像「STM2」に表現されており、その画風が「画家Y風」であることを示す。このように、図9の例では、生成装置100Aがスタイル情報記憶部126に複数のスタイルを格納する。   For example, in the example shown in FIG. 9, the style identified by the style ID “ST1” (hereinafter sometimes referred to as “style ST1”) is expressed in the corresponding image “STM1”, and its style is Indicates "Anime X style". Further, for example, in the example shown in FIG. 9, the style identified by the style ID “ST2” (hereinafter sometimes referred to as “style ST2”) is expressed in the corresponding image “STM2”. This indicates that the style is “painter Y style”. As described above, in the example of FIG. 9, the generation device 100 </ b> A stores a plurality of styles in the style information storage unit 126.

そこで、図9の例では、生成装置100Aは、ユーザU1のコンテキストが「近日中に絵画を鑑賞する予定がある」状況であることを示すコンテキストCN12に基づいて、スタイルST2を、シード画像IM21に画風を適用するスタイルとして抽出(決定)する。   Therefore, in the example of FIG. 9, the generating apparatus 100A sets the style ST2 to the seed image IM21 based on the context CN12 indicating that the context of the user U1 is “scheduled to appreciate a painting in the near future”. Extracted (decided) as a style to apply style.

その後、生成装置100Aは、抽出したスタイルST2の画風をシード画像IM21に適用することにより、画像を生成する(ステップS25)。図9の例では、生成装置100Aは、画家Y風のスタイルST2の画風をシード画像IM21に適用することにより、スタイルST2を適用した適用後画像IM22を生成する。例えば、生成装置100Aは、非特許文献2に記載された画風を変換するアルゴリズム等の種々の従来技術を適宜用いて、抽出したスタイルST2の画風をシード画像IM21に適用することにより、画像を生成する。   Thereafter, the generating apparatus 100A generates an image by applying the extracted style ST2 style to the seed image IM21 (step S25). In the example of FIG. 9, the generating apparatus 100A generates the post-application image IM22 to which the style ST2 is applied by applying the style of the painter Y style ST2 to the seed image IM21. For example, the generation apparatus 100A generates an image by applying the extracted style ST2 style to the seed image IM21 using various conventional techniques such as an algorithm for transforming the style described in Non-Patent Document 2 as appropriate. To do.

その後、生成装置100Aは、ステップS25において生成した画像を端末装置10へ提供する(ステップS26)。図9の例では、生成装置100Aは、画家Y風のスタイルが適用された適用後画像IM22を端末装置10へ提供する。   Thereafter, the generation device 100A provides the image generated in step S25 to the terminal device 10 (step S26). In the example of FIG. 9, the generation device 100 </ b> A provides the terminal device 10 with the applied image IM <b> 22 to which the painter Y style is applied.

上述したように、生成装置100Aは、ユーザのコンテキストに応じて決定されるスタイルを用いて画像を生成することにより、ユーザに適した画像をユーザに提供することができる。上述した例では、ユーザU1は、スタイルを適用(変更)したい画像を生成装置100Aに送信するだけで、自身のコンテキストに応じたスタイルが適用された画像を生成することができる。したがって、生成装置100Aは、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。なお、生成装置100Aは、上述したスタイルの適用をテーマ画像に対して行ってもよい。例えば、生成装置100Aは、所定のテーマ画像にユーザのコンテキストに応じて抽出されたスタイルを適用し、スタイル適用後のテーマ画像をユーザに提供してもよい。例えば、生成装置100Aは、図1に示す例のようにメールアプリAを利用するユーザU1に、ユーザU1のコンテキストに基づいて抽出されたスタイルを適用したテーマ画像を提供してもよい。   As described above, the generation apparatus 100A can provide an image suitable for the user by generating an image using a style determined according to the user's context. In the above-described example, the user U1 can generate an image to which a style according to his / her context is applied only by transmitting the image to which the style is to be applied (changed) to the generation apparatus 100A. Therefore, the generation apparatus 100A can generate an appropriate image according to the user while suppressing the load on the user. The generating apparatus 100A may apply the above-described style to the theme image. For example, the generation apparatus 100A may apply a style extracted according to the user's context to a predetermined theme image, and provide the user with the theme image after applying the style. For example, the generation apparatus 100A may provide a theme image to which the style extracted based on the context of the user U1 is applied to the user U1 who uses the mail application A as in the example illustrated in FIG.

〔4−2.決定装置の構成〕
次に、図10を用いて、変形例に係る生成装置100Aの構成について説明する。図10は、変形例に係る決定装置100Aの構成例を示す図である。図10に示すように、生成装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、生成装置100Aは、生成装置100Aの管理者等から各種操作を取得する入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[4-2. Configuration of decision device]
Next, the configuration of the generation apparatus 100A according to the modification will be described with reference to FIG. FIG. 10 is a diagram illustrating a configuration example of a determination device 100A according to a modification. As illustrated in FIG. 10, the generation device 100A includes a communication unit 110, a storage unit 120A, and a control unit 130A. The generation device 100A includes an input unit (for example, a keyboard and a mouse) that acquires various operations from an administrator of the generation device 100A and a display unit (for example, a liquid crystal display) for displaying various types of information. May be.

(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図10に示すように、ユーザ属性情報記憶部121と、行動履歴情報記憶部122と、行動予定情報記憶部123と、スタイル情報記憶部126とを有する。記憶部120Aは、スタイル情報記憶部126を有する点で実施形態に係る記憶部120と相違する。
(Storage unit 120A)
The storage unit 120A is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 10, the storage unit 120 </ b> A according to the modification includes a user attribute information storage unit 121, an action history information storage unit 122, an action schedule information storage unit 123, and a style information storage unit 126. The storage unit 120A is different from the storage unit 120 according to the embodiment in that it includes a style information storage unit 126.

(スタイル情報記憶部126)
変形例に係るスタイル情報記憶部126は、スタイルに関する各種情報を記憶する。図11は、変形例に係るスタイル情報記憶部の一例を示す図である。図11に示すスタイル情報記憶部126は、「スタイルID」、「画像」、「内容」といった項目を有する。
(Style information storage unit 126)
The style information storage unit 126 according to the modification stores various pieces of information related to the style. FIG. 11 is a diagram illustrating an example of a style information storage unit according to a modification. The style information storage unit 126 illustrated in FIG. 11 includes items such as “style ID”, “image”, and “content”.

「スタイルID」は、スタイルを識別するための識別情報を示す。「画像」は、対応するスタイルの特徴を示す画像(画像情報)を示す。具体的には、「画像」は、そのスタイルの特徴が顕著に表現されている画像を示す。図11では、説明のため画像IDにより識別される画像を図示するが、「画像」としては、画像の格納場所を示すファイルパス名などが格納されてもよい。「内容」は、画像に対応付けて付される情報であり、画像のスタイル(画風)に含まれる対象を示す。   “Style ID” indicates identification information for identifying a style. “Image” indicates an image (image information) indicating the feature of the corresponding style. Specifically, the “image” indicates an image in which the feature of the style is remarkably expressed. In FIG. 11, an image identified by an image ID is illustrated for explanation, but a file path name indicating the storage location of the image may be stored as “image”. “Content” is information attached in association with an image, and indicates a target included in the style (image style) of the image.

例えば、図11に示す例において、スタイルID「ST1」により識別されるスタイルは、対応する画像「STM1」に表現されており、その画風が「アニメX風」であることを示す。また、例えば、図11に示す例において、スタイルID「ST2」により識別されるスタイルは、対応する画像「STM2」に表現されており、その画風が「画家Y風」であることを示す。   For example, in the example shown in FIG. 11, the style identified by the style ID “ST1” is expressed in the corresponding image “STM1”, and indicates that the style is “animation X style”. Further, for example, in the example shown in FIG. 11, the style identified by the style ID “ST2” is expressed in the corresponding image “STM2”, and indicates that the style is “painter Y style”.

なお、スタイル情報記憶部126は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、スタイル情報記憶部126は、「画像」に限らず、スタイルの特徴を示す情報であれば、どのような情報を記憶してもよい。   The style information storage unit 126 is not limited to the above, and may store various information according to the purpose. For example, the style information storage unit 126 is not limited to an “image”, and may store any information as long as it is information indicating style characteristics.

(制御部130A)
図10の説明に戻って、制御部130Aは、コントローラであり、例えば、CPUやMPU等によって、生成装置100A内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 130A)
Returning to the description of FIG. 10, the control unit 130A is a controller. For example, various programs (corresponding to an example of the generation program) stored in the storage device inside the generation device 100A are stored in the RAM by the CPU, the MPU, or the like. This is realized by being executed as a work area. The control unit 130A is a controller, and is realized by an integrated circuit such as an ASIC or FPGA, for example.

図10に示すように、制御部130Aは、取得部131と、抽出部132Aと、生成部133Aと、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。   As illustrated in FIG. 10, the control unit 130A includes an acquisition unit 131, an extraction unit 132A, a generation unit 133A, and a provision unit 134, and implements or executes information processing functions and operations described below. .

(抽出部132A)
抽出部132Aは、種々の情報を抽出する。例えば、抽出部132Aは、実施形態に係る抽出部132と同様の処理を行う。例えば、抽出部132Aは、スタイルを抽出する。例えば、抽出部132Aは、スタイル情報記憶部126からスタイルを抽出する。図9の例では、抽出部132Aは、ユーザU1のコンテキストが「近日中に絵画を鑑賞する予定がある」状況であることを示すコンテキストCN12に基づいて、スタイルST2を、シード画像IM21に画風を適用するスタイルとして抽出(決定)する。
(Extractor 132A)
The extraction unit 132A extracts various information. For example, the extraction unit 132A performs the same processing as the extraction unit 132 according to the embodiment. For example, the extraction unit 132A extracts a style. For example, the extraction unit 132A extracts a style from the style information storage unit 126. In the example of FIG. 9, the extraction unit 132A displays the style ST2 on the seed image IM21 based on the context CN12 indicating that the context of the user U1 is “scheduled to appreciate a painting in the near future”. Extract (decide) as the style to apply.

(生成部133A)
生成部133Aは、種々の情報を生成する。例えば、生成部133Aは、実施形態に係る生成部133と同様の処理を行う。例えば、生成部133Aは、取得部131により取得されたユーザ情報から推定されるユーザのコンテキストに応じて決定される画風と、画像とに基づいて、端末装置10に提供する提供画像を生成する。
(Generator 133A)
The generation unit 133A generates various information. For example, the generation unit 133A performs the same processing as the generation unit 133 according to the embodiment. For example, the generation unit 133A generates a provided image to be provided to the terminal device 10 based on the style and the image determined according to the user context estimated from the user information acquired by the acquisition unit 131.

図9の例では、生成部133Aは、抽出部132Aにより抽出されたスタイルST2の画風をシード画像IM21に適用することにより、画像を生成す。例えば、生成部133Aは、画家Y風のスタイルST2の画風をシード画像IM21に適用することにより、スタイルST2を適用した適用後画像IM22を生成する。例えば、生成部133Aは、非特許文献2に記載された画風を変換するアルゴリズム等の種々の従来技術を適宜用いて、抽出したスタイルST2の画風をシード画像IM21に適用することにより、画像を生成する。   In the example of FIG. 9, the generation unit 133A generates an image by applying the style ST2 style extracted by the extraction unit 132A to the seed image IM21. For example, the generation unit 133A generates the post-application image IM22 to which the style ST2 is applied by applying the style of the painter Y style ST2 to the seed image IM21. For example, the generation unit 133A generates an image by applying the extracted style ST2 style to the seed image IM21 using various conventional techniques such as an algorithm for transforming the style described in Non-Patent Document 2 as appropriate. To do.

〔4−3.生成処理のフロー〕
次に、図12を用いて、変形例に係る生成システム1Aによる生成処理の手順について説明する。図12は、変形例に係る生成処理の一例を示すフローチャートである。
[4-3. Generation process flow)
Next, a generation process procedure performed by the generation system 1A according to the modification will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of the generation process according to the modification.

図12に示すように、生成装置100Aは、ユーザ情報を取得する(ステップS201)。図9の例では、生成装置100Aは、ユーザU1が利用する端末装置10からユーザU1のユーザ情報を取得する。   As illustrated in FIG. 12, the generation device 100A acquires user information (step S201). In the example of FIG. 9, the generation device 100A acquires user information of the user U1 from the terminal device 10 used by the user U1.

その後、生成装置100Aは、シード画像を取得する(ステップS202)。図9の例では、生成装置100Aは、端末装置10から対象として犬を含むシード画像IM21を取得する。   Thereafter, the generation device 100A acquires a seed image (step S202). In the example of FIG. 9, the generation device 100A acquires a seed image IM21 including a dog as a target from the terminal device 10.

その後、生成装置100Aは、推定したユーザのコンテキストに基づいてスタイルを抽出する(ステップS203)。図9の例では、生成装置100Aは、ユーザU1のコンテキストが「近日中に絵画を鑑賞する予定がある」状況であることを示すコンテキストCN12に基づいて、スタイルST2を、シード画像IM21に画風を適用するスタイルとして抽出(決定)する。   Thereafter, the generation device 100A extracts a style based on the estimated user context (step S203). In the example of FIG. 9, the generating apparatus 100A displays the style ST2 and the style on the seed image IM21 based on the context CN12 indicating that the context of the user U1 is “scheduled to appreciate a painting soon”. Extract (decide) as the style to apply.

その後、生成装置100Aは、シード画像とスタイルとに基づいて適用後画像を生成する(ステップS204)。図9の例では、生成装置100Aは、画家Y風のスタイルST2の画風をシード画像IM21に適用することにより、スタイルST2を適用した適用後画像IM22を生成する。   Thereafter, the generation device 100A generates an applied image based on the seed image and the style (step S204). In the example of FIG. 9, the generating apparatus 100A generates the post-application image IM22 to which the style ST2 is applied by applying the style of the painter Y style ST2 to the seed image IM21.

〔5.効果〕
上述してきたように、実施形態に係る生成装置100は、取得部131と、生成部133とを有する。取得部131は、端末装置10を利用するユーザに関するユーザ情報を取得する。また、生成部133は、取得部131により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、端末装置10に提供する提供画像を生成する。
[5. effect〕
As described above, the generation device 100 according to the embodiment includes the acquisition unit 131 and the generation unit 133. The acquisition unit 131 acquires user information related to a user who uses the terminal device 10. Further, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on the user information acquired by the acquisition unit 131 and a model that outputs an image according to the input information.

これにより、実施形態に係る生成装置100は、取得したユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Accordingly, the generation device 100 according to the embodiment generates a provided image to be provided to the terminal device 10 based on the acquired user information and a model that outputs an image according to the input information, thereby reducing the load on the user. It is possible to generate an appropriate image according to the user while suppressing the above.

また、実施形態に係る生成装置100において、生成部133は、ユーザの属性情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。   In the generation device 100 according to the embodiment, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including user attribute information.

これにより、実施形態に係る生成装置100は、ユーザの属性情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, the production | generation apparatus 100 which concerns on embodiment produces | generates the provision image provided to the terminal device 10 based on the user information containing a user's attribute information, and according to a user, suppressing a user's load. Appropriate images can be generated.

また、実施形態に係る生成装置100において、生成部133は、ユーザが関心を有する対象に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。   Moreover, in the generation device 100 according to the embodiment, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including information related to a target that the user is interested in.

これにより、実施形態に係る生成装置100は、ユーザが関心を有する対象に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, the generation device 100 according to the embodiment generates a provided image to be provided to the terminal device 10 based on user information including information related to a target that the user is interested in, thereby suppressing the load on the user. An appropriate image can be generated according to the user.

また、実施形態に係る生成装置100において、生成部133は、ユーザの行動履歴を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。   Further, in the generation device 100 according to the embodiment, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including a user's behavior history.

これにより、実施形態に係る生成装置100は、ユーザの行動履歴を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, the production | generation apparatus 100 which concerns on embodiment produces | generates the provision image provided to the terminal device 10 based on the user information containing a user's action log | history, and according to a user, suppressing a user's load. Appropriate images can be generated.

また、実施形態に係る生成装置100において、生成部133は、ユーザの行動予定に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。   In the generation device 100 according to the embodiment, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on user information including information related to the user's action schedule.

これにより、実施形態に係る生成装置100は、ユーザの行動予定に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, the production | generation apparatus 100 which concerns on embodiment produces | generates the provision image provided to the terminal device 10 based on the user information containing the information regarding a user's action plan, and suppresses a user's load to a user. An appropriate image can be generated accordingly.

また、実施形態に係る生成装置100において、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、端末装置10に提供する提供画像を生成する。   In the generation device 100 according to the embodiment, the generation unit 133 generates a provided image to be provided to the terminal device 10 based on a user context estimated based on user information.

これにより、実施形態に係る生成装置100は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, the generation device 100 according to the embodiment generates the provided image to be provided to the terminal device 10 based on the user context estimated based on the user information, thereby suppressing the load on the user. An appropriate image can be generated according to the above.

また、実施形態に係る生成装置100において、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに関する情報に基づくパラメータを用いて提供画像を生成する。   Further, in the generation device 100 according to the embodiment, the generation unit 133 generates a provided image using a parameter based on information related to a user context estimated based on user information.

これにより、実施形態に係る生成装置100は、ユーザ情報に基づいて推定されるユーザのコンテキストに関する情報に基づくパラメータを用いて提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, the generation apparatus 100 according to the embodiment generates a provided image using a parameter based on information related to the user context estimated based on the user information, thereby suppressing the load on the user and responding to the user. And an appropriate image can be generated.

また、実施形態に係る生成装置100において、生成部133は、パラメータにより変動する入力情報をモデルに入力することにより提供画像を生成する。   Further, in the generation device 100 according to the embodiment, the generation unit 133 generates a provided image by inputting input information that varies depending on a parameter to the model.

これにより、実施形態に係る生成装置100は、パラメータにより変動する入力情報をモデルに入力することにより提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Accordingly, the generation apparatus 100 according to the embodiment generates an appropriate image according to a user while suppressing a user's load by generating a provided image by inputting input information that varies depending on a parameter to the model. can do.

また、実施形態に係る生成装置100において、生成部133は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成する。   In the generation device 100 according to the embodiment, the generation unit 133 generates a provided image from input information using a model selected according to user information from among a plurality of models.

これにより、実施形態に係る生成装置100は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, the generation device 100 according to the embodiment generates a provided image from input information using a model selected according to user information among a plurality of models, while suppressing the load on the user. An appropriate image can be generated according to the user.

また、変形例に係る生成装置100Aは、取得部131と、生成部133Aとを有する。取得部131は、端末装置10を利用するユーザに関するユーザ情報と、画像とを取得する。生成部133Aは、取得部131により取得されたユーザ情報から推定されるユーザのコンテキストに応じて決定される画像のスタイル(画風)と、画像とに基づいて、端末装置10に提供する提供画像を生成する。   Further, the generation device 100A according to the modification includes an acquisition unit 131 and a generation unit 133A. The acquisition unit 131 acquires user information regarding a user who uses the terminal device 10 and an image. The generation unit 133A generates a provided image to be provided to the terminal device 10 based on the image style (style) determined based on the user context estimated from the user information acquired by the acquisition unit 131 and the image. Generate.

これにより、変形例に係る生成装置100Aは、ユーザ情報から推定されるユーザのコンテキストに応じて決定される画像のスタイルと、画像とに基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。   Thereby, 100 A of production | generation apparatuses which concern on a modification produce | generate the provision image provided to the terminal device 10 based on the style of the image determined according to the user's context estimated from user information, and an image. Thus, an appropriate image can be generated according to the user while suppressing the load on the user.

〔6.ハードウェア構成〕
上述してきた実施形態に係る生成装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。図13は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration)
The generation apparatus 100 according to the above-described embodiment is realized by a computer 1000 having a configuration as illustrated in FIG. FIG. 13 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the generation apparatus. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the network N and sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to other devices via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the generation apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 implements the function of the control unit 130 by executing a program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them. However, as another example, these programs may be acquired from other devices via the network N.

以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments and modifications of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various aspects can be made based on the knowledge of those skilled in the art including the aspects described in the disclosure line of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.

〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. Others]
In addition, among the processes described in the above-described embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or are described as being performed manually. All or part of the processing can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Further, the processes described in the above-described embodiments and modifications can be appropriately combined within a range in which the processing contents are not contradictory.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 生成システム
100 生成装置
121 ユーザ属性情報記憶部
122 行動履歴情報記憶部
123 行動予定情報記憶部
124 シード情報記憶部
125 モデル情報記憶部
130 制御部
131 取得部
132 抽出部
133 生成部
134 提供部
10 端末装置
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Generation system 100 Generation apparatus 121 User attribute information storage part 122 Action history information storage part 123 Action plan information storage part 124 Seed information storage part 125 Model information storage part 130 Control part 131 Acquisition part 132 Extraction part 133 Generation part 134 Providing part 10 Terminal device N network

Claims (12)

端末装置を利用するユーザに関するユーザ情報を取得する取得部と、
前記取得部により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成部と、
を備えることを特徴とする生成装置。
An acquisition unit for acquiring user information regarding a user who uses the terminal device;
A generating unit that generates a provided image to be provided to the terminal device based on user information acquired by the acquiring unit and a model that outputs an image according to input information;
A generating apparatus comprising:
前記生成部は、
ユーザの属性情報を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
ことを特徴とする請求項1に記載の生成装置。
The generator is
The generation apparatus according to claim 1, wherein a provision image to be provided to the terminal device is generated based on the user information including user attribute information.
前記生成部は、
ユーザが関心を有する対象に関する情報を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
ことを特徴とする請求項1または請求項2に記載の生成装置。
The generator is
The generation apparatus according to claim 1, wherein a provision image to be provided to the terminal device is generated based on the user information including information regarding an object that the user is interested in.
前記生成部は、
ユーザの行動履歴を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
ことを特徴とする請求項1〜3のいずれか1項に記載の生成装置。
The generator is
The generation device according to claim 1, wherein a provision image to be provided to the terminal device is generated based on the user information including a user's action history.
前記生成部は、
ユーザの行動予定に関する情報を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
ことを特徴とする請求項1〜4のいずれか1項に記載の生成装置。
The generator is
The generation device according to claim 1, wherein a provision image to be provided to the terminal device is generated based on the user information including information related to a user's action schedule.
前記生成部は、
前記ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、前記端末装置に提供する提供画像を生成する
ことを特徴とする請求項1〜5のいずれか1項に記載の生成装置。
The generator is
The generation device according to claim 1, wherein a provision image to be provided to the terminal device is generated based on a user context estimated based on the user information.
前記生成部は、
前記ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて前記提供画像を生成する
ことを特徴とする請求項6に記載の生成装置。
The generator is
The generating apparatus according to claim 6, wherein the provided image is generated using a parameter based on a user context estimated based on the user information.
前記生成部は、
前記パラメータにより変動する前記入力情報を前記モデルに入力することにより前記提供画像を生成する
ことを特徴とする請求項7に記載の生成装置。
The generator is
The generation apparatus according to claim 7, wherein the provided image is generated by inputting the input information that varies according to the parameter to the model.
前記生成部は、
複数のモデルのうち、前記ユーザ情報に応じて選択されるモデルを用いて、前記入力情報から前記提供画像を生成する
ことを特徴とする請求項1〜8のいずれか1項に記載の生成装置。
The generator is
The generating apparatus according to claim 1, wherein the provided image is generated from the input information using a model selected from the plurality of models according to the user information. .
コンピュータが実行する生成方法であって、
端末装置を利用するユーザに関するユーザ情報を取得する取得工程と、
前記取得工程により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成工程と、
を含むことを特徴とする生成方法。
A generation method executed by a computer,
An acquisition step of acquiring user information relating to a user who uses the terminal device;
Based on the user information acquired by the acquisition step and a model that outputs an image according to input information, a generation step of generating a provided image to be provided to the terminal device,
A generation method comprising:
端末装置を利用するユーザに関するユーザ情報を取得する取得手順と、
前記取得手順により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成手順と、
をコンピュータに実行させることを特徴とする生成プログラム。
An acquisition procedure for acquiring user information relating to a user who uses the terminal device;
A generation procedure for generating a provided image to be provided to the terminal device based on user information acquired by the acquisition procedure and a model for outputting an image according to input information;
A program for causing a computer to execute.
端末装置を利用するユーザに関するユーザ情報と、画像とを取得する取得部と、
前記取得部により取得されたユーザ情報から推定される前記ユーザのコンテキストに応じて決定される画風と、前記画像とに基づいて、前記端末装置に提供する提供画像を生成する生成部と、
を備えることを特徴とする生成装置。
An acquisition unit for acquiring user information and an image regarding a user who uses the terminal device;
A generating unit that generates a provided image to be provided to the terminal device based on the image style determined according to the user context estimated from the user information acquired by the acquiring unit and the image;
A generating apparatus comprising:
JP2016175845A 2016-09-08 2016-09-08 Generating device, generating method, and generating program Active JP6480900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016175845A JP6480900B2 (en) 2016-09-08 2016-09-08 Generating device, generating method, and generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016175845A JP6480900B2 (en) 2016-09-08 2016-09-08 Generating device, generating method, and generating program

Publications (2)

Publication Number Publication Date
JP2018041334A true JP2018041334A (en) 2018-03-15
JP6480900B2 JP6480900B2 (en) 2019-03-13

Family

ID=61626113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016175845A Active JP6480900B2 (en) 2016-09-08 2016-09-08 Generating device, generating method, and generating program

Country Status (1)

Country Link
JP (1) JP6480900B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021144890A1 (en) * 2020-01-15 2021-07-22 日本電気株式会社 Information generation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259288A (en) * 2002-02-28 2003-09-12 Konica Corp Picture processing method, computer readable recording medium, and picture processor
JP2007019921A (en) * 2005-07-08 2007-01-25 Casio Hitachi Mobile Communications Co Ltd Image correcting device, image processing method and image processing program
JP2014203377A (en) * 2013-04-09 2014-10-27 ソニー株式会社 Image processor and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259288A (en) * 2002-02-28 2003-09-12 Konica Corp Picture processing method, computer readable recording medium, and picture processor
JP2007019921A (en) * 2005-07-08 2007-01-25 Casio Hitachi Mobile Communications Co Ltd Image correcting device, image processing method and image processing program
JP2014203377A (en) * 2013-04-09 2014-10-27 ソニー株式会社 Image processor and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021144890A1 (en) * 2020-01-15 2021-07-22 日本電気株式会社 Information generation method
JP7388454B2 (en) 2020-01-15 2023-11-29 日本電気株式会社 Information generation method

Also Published As

Publication number Publication date
JP6480900B2 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
JP6719727B2 (en) Purchase behavior analysis device and program
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
JP5993897B2 (en) Specific apparatus, specific method, and specific program
JP6501939B2 (en) Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method
JP6050284B2 (en) Extraction apparatus, extraction method, and extraction program
US11651450B2 (en) Simulated network system and method for relating users of real-world e-commerce and other user network systems to information
JP6344995B2 (en) Specific apparatus, specific method, and specific program
JP2017151867A (en) Update device, update method, and update program
CN112100489A (en) Object recommendation method, device and computer storage medium
JP2018045332A (en) Estimation device, estimation method, and estimation program
JP6480900B2 (en) Generating device, generating method, and generating program
JP2018156420A (en) Determination device, determination method, and determination program
JP2021119526A (en) Generation device, generation method, data generation program
JP6757276B2 (en) Generation device, generation method, and generation program
JP2019049945A (en) Extraction device, extraction method, extraction program, and model
JP2019053558A (en) Learning device, learning method, learning program, first model, and second model
JP6955392B2 (en) Decision device, decision method, and decision program
JP6985059B2 (en) Generator, generation method, and generation program
JP6679447B2 (en) Change device, change method, and change program
JP6092160B2 (en) Display control apparatus, display control method, and display control program
JP6832759B2 (en) Display program, display method, terminal device, information processing device, information processing method, and information processing program
JP6938259B2 (en) Generation device, generation method, and generation program
JP6529559B2 (en) Learning apparatus, generating apparatus, learning method, generating method, learning program, generating program, and model
JP7208286B2 (en) Information processing device, information processing method and information processing program
JP2018156187A (en) Creation device, creation method, and creation program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170829

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190208

R150 Certificate of patent or registration of utility model

Ref document number: 6480900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350