JP6480900B2 - 生成装置、生成方法、及び生成プログラム - Google Patents

生成装置、生成方法、及び生成プログラム Download PDF

Info

Publication number
JP6480900B2
JP6480900B2 JP2016175845A JP2016175845A JP6480900B2 JP 6480900 B2 JP6480900 B2 JP 6480900B2 JP 2016175845 A JP2016175845 A JP 2016175845A JP 2016175845 A JP2016175845 A JP 2016175845A JP 6480900 B2 JP6480900 B2 JP 6480900B2
Authority
JP
Japan
Prior art keywords
user
information
image
generation
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016175845A
Other languages
English (en)
Other versions
JP2018041334A (ja
Inventor
奈翁美 笹谷
奈翁美 笹谷
文啓 伊藤
文啓 伊藤
伸裕 鍜治
伸裕 鍜治
正樹 野口
正樹 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016175845A priority Critical patent/JP6480900B2/ja
Publication of JP2018041334A publication Critical patent/JP2018041334A/ja
Application granted granted Critical
Publication of JP6480900B2 publication Critical patent/JP6480900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、生成装置、生成方法、及び生成プログラムに関する。
従来、種々の情報に基づいて、画像を生成する技術が提供されている。例えば、推薦画像に含まれる対象物を組み合わせる対象としてユーザによって選択された画像に基づいて、推薦画像を出力(生成)する技術が提供されている。
特開2015−097036号公報
Alec Radford, Luke Metz, Soumith Chintala, "Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks", arXiv preprint arXiv:1511.06434 (2016) & ICLR(International Conference on Learning Representations)-2016 Leon A. Gatys, Alexander S. Ecker, Matthias Bethge, "A Neural Algorithm of Artistic Style", arXiv preprint arXiv:1508.06576
しかしながら、上記の従来技術では、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することが難しい場合がある。例えば、ユーザへの推薦画像にも関わらず、ユーザが推薦画像に含まれる対象物を組み合わせる対象として画像を選択する必要が生じたりするため、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することが難しい。
本願は、上記に鑑みてなされたものであって、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成する生成装置、生成方法、及び生成プログラムを提供することを目的とする。
本願に係る生成装置は、端末装置を利用するユーザに関するユーザ情報を取得する取得部と、前記取得部により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成部と、を備えたことを特徴とする。
実施形態の一態様によれば、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができるという効果を奏する。
図1は、実施形態に係る生成処理の一例を示す図である。 図2は、実施形態に係る生成装置の構成例を示す図である。 図3は、実施形態に係るユーザ属性情報記憶部の一例を示す図である。 図4は、実施形態に係る行動履歴情報記憶部の一例を示す図である。 図5は、実施形態に係る行動予定情報記憶部の一例を示す図である。 図6は、実施形態に係るシード情報記憶部の一例を示す図である。 図7は、実施形態に係るモデル情報記憶部の一例を示す図である。 図8は、実施形態に係る生成処理の一例を示すフローチャートである。 図9は、変形例に係る生成処理の一例を示す図である。 図10は、変形例に係る生成装置の構成例を示す図である。 図11は、変形例に係るスタイル情報記憶部の一例を示す図である。 図12は、変形例に係る生成処理の一例を示すフローチャートである。 図13は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る生成装置、生成方法、及び生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、及び生成プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.生成処理〕
図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。図1では、生成装置100は、ユーザのユーザ情報に基づいて、ユーザが利用する端末装置10へ提供する提供画像を生成する場合を示す。また、図1では、生成装置100は、提供画像として、メールアプリAのテーマ画像を生成する場合を示す。なお、図1の例では、メールアプリAのテーマ画像が提供画像である場合を一例として示すが、提供画像はユーザに提供する画像であればどのような画像(コンテンツ)であってもよい。
図1に示すように、生成システム1には、端末装置10と、生成装置100とが含まれる。端末装置10と、生成装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。また、図1に示した生成システム1には、複数台の端末装置10や、複数台の生成装置100が含まれてもよい。
生成装置100は、ユーザ情報と、入力情報に応じて画像を出力する画像生成モデル(以下、単に「モデル」ともいう)とに基づいて、端末装置10に提供する提供画像を生成する情報処理装置である。例えば、生成装置100は、モデル情報記憶部125に示すように、メールアプリAのテーマ画像を生成するために用いるモデルM1を有する。なお、生成装置100は、生成する画像に応じて複数のモデルを有してもよい。
例えば、図1に示す例において、生成装置100が用いるモデルM1等のモデルは、畳み込みニューラルネットワーク(Convolutional Neural Network)等の種々の従来技術を適宜用いて生成された学習器であってもよい。例えば、生成装置100が用いるモデルM1等のモデルは、非特許文献1のようなDCGANs(Deep Convolutional Generative Adversarial Networks)により生成されたモデルであってもよい。例えば、生成装置100は、種々の画像から抽出した入力情報(例えば、N次元のベクトル(Nは1以上の任意の数))等を学習データとして用いることにより、モデルM1等のモデルを生成してもよい。例えば、生成装置100は、メールアプリAのテーマ画像に関する種々の画像から抽出した入力情報(例えば、N次元のベクトル)等を学習データとして用いることにより、モデルM1を生成してもよい。なお、上記は一例であり、生成装置100は、モデルM1等の所望のモデルを生成可能であれば、どのような手法によりモデルを生成してもよい。
図1の例では、生成装置100は、モデル情報記憶部125に示すように、モデルM1を生成する。また、モデル情報記憶部125に示すように、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。例えば、生成装置100は、モデルM1にN次元のベクトル等の所定の入力情報を入力することにより、入力した入力情報から画像を生成する。なお、生成装置100は、モデルM1等の所望のモデルを外部の情報処理装置から取得してもよい。
また、生成装置100は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて提供画像を生成する。なお、ここでいうコンテキストは、ユーザや端末装置10の状況やユーザや端末装置10の環境(背景)を意味する。例えば、コンテキストは、ユーザによって端末装置10が使われている状況や、端末装置10を所持するユーザが置かれている状態に対応する情報である。また、コンテキストには、ユーザに提供されるコンテンツの内容、ユーザの発話の内容、ユーザの属性、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの運動状態、および、ユーザの感情等の種々の情報に基づいて推定されてもよい。
なお、図1の例では、ユーザ属性情報記憶部121に示すように、コンテキストをコンテキストCN11やコンテキストCN21等のように抽象的な記号で示すが、各コンテキストはユーザの具体的な状況を示す情報であってもよい。例えば、コンテキストCN11は、「アニメ好きのユーザがキャラAに関心を持っている」状況に対応するコンテキストであってもよい。例えば、コンテキストCN21は、「サッカーの試合を観戦する予定がある」状況に対応するコンテキストであってもよい。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。図1に示す例においては、端末装置10がユーザが利用するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。具体的には、図1では、端末装置10がユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)が利用するスマートフォンである場合を示す。
また、図1に示す例においては、端末装置10の画面の表示に応じて、端末装置10を端末装置10−1、10−2として説明する。なお、端末装置10−1、10−2は同一の端末装置10である。また、以下では、端末装置10−1、10−2について、特に区別なく説明する場合には、端末装置10と記載する。
まず、図1に示すように、端末装置10は、ユーザU1の操作に応じてメールアプリAの起動を開始する(ステップS11)。そして、端末装置10は、メールアプリAのテーマ画像を生成装置100に要求する(ステップS12)。また、図1の例では、端末装置10は、メールアプリAのテーマ画像を生成装置100に要求する際に、ユーザU1のユーザ情報を送信する。なお、生成装置100がユーザU1のユーザ情報を取得済みである場合、端末装置10は、ステップS12においてユーザU1のユーザ情報を送信しなくてもよい。
例えば、端末装置10−1は、端末装置10を利用するユーザU1が20代女性であることを示す情報を生成装置100に送信する。なお、生成装置100がユーザU1に関するユーザ情報を記憶している場合、端末装置10−1は、端末装置10を利用するユーザU1が20代女性であることを示す情報を生成装置100に送信しなくてもよい。また、図1の例では、端末装置10がメールアプリAを起動する際に、メールアプリAのテーマ画像を生成装置100に要求する場合を示すが、端末装置10は予め生成装置100からメールアプリAのテーマ画像を取得し、メールアプリAの起動の際に、そのテーマ画像を表示してもよい。
ユーザU1が利用する端末装置10からメールアプリAのテーマ画像の要求を取得した生成装置100は、ユーザU1に関するコンテキストを推定する(ステップS13)。生成装置100は、ユーザU1のユーザ情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、生成装置100は、ユーザ属性情報記憶部121や行動履歴情報記憶部122や行動予定情報記憶部123等に記憶されたユーザU1に関する各種情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、生成装置100は、ユーザの行動履歴、ユーザの行動予定、ユーザの属性、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの運動状態、および、ユーザの感情等の種々の情報等に基づいてユーザのコンテキストを推定する。
図1の例では、生成装置100は、ユーザU1がアニメAに登場するキャラAに関する検索を行ったことや、アニメAの映画を観賞する予定があること等を含むユーザ情報からユーザU1のコンテキストを推定する。例えば、生成装置100は、ユーザ属性情報記憶部121−1に示すように、ユーザU1のコンテキストをコンテキストCN11であると推定する。なお、ユーザ属性情報記憶部121−1は、ユーザU1のコンテキストに関する情報がコンテキスト「CN11」に更新された点以外は、ユーザ属性情報記憶部121と同様である。このように、図1の例では、生成装置100は、ユーザU1のコンテキストを「アニメ好きのユーザがキャラAに関心を持っている」状況に対応するコンテキストCN11であると推定する。
その後、生成装置100は、シードを抽出する(ステップS14)。ここでいうシードとは、モデルに入力するベクトルの基となるシードベクトルである。図1の例では、生成装置100がシード情報記憶部124に複数のシードを格納する場合を示す。例えば、シードID「SD1」により識別されるシード(以下、「シードSD1」ともいう)は、モデルM1に入力された場合、花模様のテーマ画像が生成されるベクトルであるものとする。例えば、シードID「SD2」により識別されるシード(以下、「シードSD2」ともいう)は、モデルM1に入力された場合、サッカー風のテーマ画像が生成されるベクトルであるものとする。例えば、シードID「SD3」により識別されるシード(以下、「シードSD3」ともいう)は、モデルM1に入力された場合、アニメ風のテーマ画像が生成されるベクトルであるものとする。
図1の例では、生成装置100は、ユーザU1のコンテキストが「アニメ好きのユーザがキャラAに関心を持っている」状況であることを示すコンテキストCN11に基づいて、シードSD3を抽出(選択)する。例えば、生成装置100は、ユーザU1がアニメに関心を持っている状況に基づいて、アニメ風のテーマ画像が生成されるシードSD3を抽出する。なお、図1の例では、生成装置100がユーザU1のコンテキストCN11に基づいて、複数のシードSD1〜SD3等からシードSD3を抽出する場合を示したが、生成装置100は、他の情報を適宜用いてシードを抽出したり、シードを生成したりしてもよい。
その後、生成装置100は、シードSD3に基づいて入力情報を生成する(ステップS15)。なお、以下では、入力情報が100次元のベクトルである場合を一例として説明する。例えば、生成装置100は、ユーザU1のコンテキストに基づいてシードSD3の各次元の数値を変動させた入力情報を生成する。例えば、生成装置100は、ユーザのコンテキストに基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。
ここで、生成装置100は、100次元のベクトルのうち、どの次元のベクトルが生成する画像にどのような影響を与えるかの対応付けに関する情報を有するものとする。例えば、生成装置100は、100次元のベクトルのうち、5次元目の数値が大きいベクトル程、生成される画像に花柄の要素が強くなることを示す情報を有するものとする。すなわち、生成装置100は、100次元のベクトルのうち、5次元目が生成される画像における花柄の要素に影響を与える次元であることを示す情報を有する。
また、例えば、生成装置100は、100次元のベクトルのうち、3次元目の数値が大きいベクトル程、生成される画像に猫の要素が強くなることを示す情報を有するものとする。すなわち、生成装置100は、100次元のベクトルのうち、3次元目が生成される画像における猫の要素に影響を与える次元であることを示す情報を有する。なお、このようなどの次元がどの要素に影響を与えるかの対応関係を示す情報は、生成装置100の管理者等が生成装置100に入力し、設定してもよいし、生成装置100が自動で学習してもよい。
ここで、上述したキャラAが猫のキャラである場合を一例として説明する。生成装置100は、ユーザU1のコンテキストCN11に基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。図1の例では、生成装置100は、ユーザU1がコンテキストCN11、すなわち「アニメ好きのユーザがキャラAに関心を持っている」状況であるため、例えば、入力情報において、キャラAの対象である猫の要素が強くなるようなパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。この場合、パラメータは、猫の要素に関する次元の数値を大きくする等の情報であってもよい。なお、パラメータは、シード中の所望の次元の値を変更可能であれば、どのような情報であってもよい。
例えば、生成装置100は、猫の要素に関する次元の数値を大きくすることを示すパラメータを用いて、100次元のベクトルのうち3次元目の数値が大きくなるようにシードSD3の各次元の数値を変動させた入力情報を生成する。図1の例では、生成装置100は、入力情報リストIL1に示すように、シードSD3から猫の要素に関する次元である3次元目の数値を大きくした入力情報を生成する。具体的には、生成装置100は、3次元目の数値がシードSD3中の「0.1」から「1.0」に変更された入力情報SD3−1を生成する。このように、生成装置100は、アニメ風のテーマ画像に関するシードSD3が猫の要素が強くなるように変更された入力情報SD3−1を用いることにより、ユーザU1のコンテキストCN11に適した、アニメ風の猫に関するテーマ画像が生成されやすくする。
その後、生成装置100は、モデルM1に入力情報SD3−1を入力する(ステップS16)。生成装置100により入力情報SD3−1が入力されたモデルM1は、テーマ画像を出力する(ステップS17)。図1の例では、生成装置100により入力情報SD3−1が入力されたモデルM1は、テーマ画像IM1を出力する。図1に示すように、入力情報SD3−1が入力されたモデルM1は、ユーザU1のコンテキストCN11に適した、アニメ風の猫に関するテーマ画像IM1を出力する。
その後、生成装置100は、ステップS17において生成したテーマ画像を端末装置10へ提供する(ステップS18)。図1の例では、生成装置100は、アニメ風の猫に関するテーマ画像IM1を端末装置10へ提供する。
生成装置100からテーマ画像IM1を提供された端末装置10は、メールアプリAに関する表示を行う(ステップS19)。図1の例では、端末装置10−1から端末装置10−2へ表示が遷移される。
端末装置10−2の画面には、メールアプリAのアプリ画面AP1が表示される。図1の例では、端末装置10−2の画面には、テーマ画像IM1を用いたメールアプリAのアプリ画面AP1が表示される。
上述したように、生成装置100は、ユーザのコンテキストに応じて変動する入力情報を用いてテーマ画像を生成することにより、ユーザに適したテーマ画像をユーザに提供することができる。したがって、生成装置100は、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
なお、生成装置100は、モデルM1に限らず、種々のモデルを適宜用いて、画像を生成してもよい。例えば、生成装置100は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。例えば、生成装置100は、カテゴリごとに生成された複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。例えば、生成装置100は、スポーツや花等の種々のカテゴリごとに生成された複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。また、例えば、生成装置100は、男性が関心を有する可能性が高い画像群を用いて生成したモデルや女性が関心を有する可能性が高い画像群を用いて生成したモデルを用いて、入力情報から画像を生成してもよい。例えば、生成装置100は、男性のクリック率が女性のクリック率に比べて相対的に高い画像群を用いて生成したモデルや、女性のクリック率が男性のクリック率に比べて相対的に高い画像群を用いて生成したモデルを用いて、入力情報から画像を生成してもよい。この場合、例えば、生成装置100は、要求元のユーザが男性である場合、男性が関心を有する可能性が高い画像群を用いて生成したモデルを用いて、テーマ画像を生成してもよい。また、例えば、生成装置100は、要求元のユーザが女性である場合、女性が関心を有する可能性が高い画像群を用いて生成したモデルを用いて、テーマ画像を生成してもよい。
また、上述した例では、生成装置100がテーマ画像IM1を生成する例を示したが、生成装置100は、テーマ画像IM1に限らず種々の画像を生成してもよい。例えば、生成装置100は、入力情報に応じて種々のオブジェクトを生成するモデル(以下、「オブジェクト生成モデル」ともいう)を用いて、キャラクタ等の種々のオブジェクトを生成してもよい。この場合、生成装置100は、ユーザのコンテキストに基づいて変動する入力情報をオブジェクト生成モデルに入力することにより、ユーザのコンテキストに応じたオブジェクトを生成してもよい。また、生成装置100は、ユーザのコンテキストに応じて生成されたオブジェクトを所定のテーマ画像に適用し、そのオブジェクトが適用されたテーマ画像をユーザに生成してもよい。図1の例では、生成装置100は、テーマ画像IM1中の猫のキャラクタ(以下、「猫キャラ」とする)等の種々のオブジェクトを生成するオブジェクト生成モデルを用いて、ユーザのコンテキストに応じたオブジェクトを生成してもよい。この場合、生成装置100は、ユーザU1のコンテキストCN11に応じて生成された入力情報をオブジェクト生成モデルに入力することにより、猫キャラを生成してもよい。また、生成装置100は、ユーザU1のコンテキストCN11に応じて生成された猫キャラを所定のテーマ画像に適用し、猫キャラが適用されたテーマ画像(例えば、テーマ画像IM1)をユーザに生成してもよい。
また、生成装置100は、生成したテーマ画像を提供したユーザが、そのテーマ画像を継続して使用するかに関する情報を収集してもよい。例えば、生成装置100は、生成したテーマ画像を提供したユーザが、そのテーマ画像を使用するテーマ画像として設定したかどうかに関する情報を収集してもよい。また、例えば、生成装置100は、あるコンテキスト(コンテキストCN100)に応じて生成されたテーマ画像IM50の設定率が他のテーマ画像の設定率よりも高い場合、コンテキストCN100とテーマ画像IM50との相関が高いと判定し、ユーザのコンテキストがコンテキストCN100の場合テーマ画像IM50が生成されるような入力情報を用いてもよい。
〔2.生成装置の構成〕
次に、図2を用いて、実施形態に係る生成装置100の構成について説明する。図2は、実施形態に係る生成装置100の構成例を示す図である。図2に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、生成装置100は、生成装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、ユーザ属性情報記憶部121と、行動履歴情報記憶部122と、行動予定情報記憶部123と、シード情報記憶部124と、モデル情報記憶部125とを有する。
(ユーザ属性情報記憶部121)
実施形態に係るユーザ属性情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ属性情報記憶部121は、ユーザ属性に関する各種情報を記憶する。図3は、実施形態に係るユーザ属性情報記憶部の一例を示す図である。図3に示すユーザ属性情報記憶部121は、「ユーザID」、「年齢」、「性別」、「居住地」、「関心」、「コンテキスト」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
また、「居住地」は、ユーザIDにより識別されるユーザの居住する地域を示す。なお、「居住地」は、ユーザIDにより識別されるユーザの具体的な住所であってもよい。また、「関心」は、ユーザIDにより識別されるユーザが関心のある対象を示す。なお、「関心」は、複数登録されてもよい。また、「コンテキスト」は、ユーザIDにより識別されるユーザのコンテキストを示す。
例えば、図3に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「女性」であることを示す。また、例えば、図3に示す例において、ユーザU1は、居住地が「A地域」であり、関心のある対象が「アニメ」であることを示す。また、ユーザU1は、コンテキストが「−」、すなわち未推定であることを示す。
例えば、図3に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)の年齢は、「30代」であり、性別は、「男性」であることを示す。また、例えば、図3に示す例において、ユーザU2は、居住地が「B地域」であり、関心のある対象が「スポーツ」であることを示す。また、ユーザU2は、ユーザ情報に基づいて推定された最新のコンテキストが「CN21」であることを示す。
なお、ユーザ属性情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ属性情報記憶部121は、年齢や性別に加えて他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ属性情報記憶部121は、氏名、勤務地、家族構成、収入、ライフスタイル等の情報を記憶してもよい。
(行動履歴情報記憶部122)
実施形態に係る行動履歴情報記憶部122は、行動履歴に関する各種情報を記憶する。図4は、実施形態に係る行動履歴情報記憶部の一例を示す図である。例えば、行動履歴情報記憶部122は、ユーザが過去に行った行動に関する情報を記憶する。図4に示す行動履歴情報記憶部122には、「ユーザID」、「行動情報」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動情報」には、対応するユーザの行動に関する情報を示し、「行動ID」、「日時」、「内容」といった項目が含まれる。
「行動ID」は、各行動を識別するための識別情報を示す。「日時」は、対応する行動が行われた日時を示す。なお、図4の例では、「日時」に記憶される情報を「DA1−1」等の符号で図示するが、「日時」には、「2016年8月31日20時16分43秒」等の具体的な日時が記憶されるものとする。「内容」は、対応するユーザの行動の種別やその行動において対象となった内容等を示す。
例えば、図4に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC1−1」により識別される行動や行動ID「AC1−2」により識別される行動を行ったことを示す。また、例えば、図4に示す例において、行動ID「AC1−1」により識別される行動は、日時「DA1−1」に行われ、その内容がコンテンツAの閲覧であることを示す。また、例えば、図4に示す例において、行動ID「AC1−2」により識別される行動は、日時「DA1−2」に行われ、その内容がクエリ「キャラA」を用いた検索であることを示す。
なお、行動履歴情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、行動履歴情報記憶部122は、行動が所定の期間継続して行われたものであれば、その期間に関する情報を記憶してもよい。
(行動予定情報記憶部123)
実施形態に係る行動予定情報記憶部123は、行動予定に関する各種情報を記憶する。図5は、実施形態に係る行動予定情報記憶部の一例を示す図である。例えば、行動予定情報記憶部123は、ユーザが将来行う行動の予定に関する情報を記憶する。例えば、行動予定情報記憶部123は、ユーザのスケジュールに関する情報を記憶してもよい。図5に示す行動予定情報記憶部123には、「ユーザID」、「予定情報」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「予定情報」には、対応するユーザの行動に関する情報を示し、「予定ID」、「開始日時」、「内容」といった項目が含まれる。
「予定ID」は、各予定を識別するための識別情報を示す。「開始日時」は、対応する予定行動が行われる(開始される)日時を示す。なお、図5の例では、「開始日時」に記憶される情報を「FD1−1」等の符号で図示するが、「開始日時」には、「2016年9月15日18時45分」等の具体的な日時が記憶されるものとする。「内容」は、対応するユーザの行動の種別やその行動において対象となる内容等を示す。
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、予定ID「PD1−1」により識別される予定に関する行動を今後行う予定があることを示す。また、例えば、図5に示す例において、予定ID「PD1−1」により識別される行動が行われる予定の日時は、日時「FD1−1」であり、その内容がアニメAの映画鑑賞であることを示す。
例えば、図5に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)は、予定ID「PD2−1」により識別される予定に関する行動を今後行う予定があることを示す。また、例えば、図5に示す例において、予定ID「PD2−1」により識別される行動が行われる予定の日時は、日時「FD2−1」であり、その内容がサッカーチームAの試合観戦(スポーツ観戦)であることを示す。
なお、行動予定情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、行動予定情報記憶部123は、行動が終了する終了日時に関する情報を記憶してもよい。例えば、行動予定情報記憶部123は、行動が所定の期間継続して行われるものであれば、その期間に関する情報を記憶してもよい。
(シード情報記憶部124)
実施形態に係るシード情報記憶部124は、シードに関する各種情報を記憶する。図6に、実施形態に係るシード情報記憶部124の一例を示す。図6に示すシード情報記憶部124は、「シード(ベクトル)」、「次元1」、「次元2」、「次元3」といった項目を有する。なお、項目「次元」は、各シードの次元数だけ設けられ、ベクトルがN次元である場合、「次元N」まで設けられる。具体的には、シードが100次元のベクトルの場合、項目「次元1」、「次元2」、「次元3」・・・「次元100」まで設けられる。
「シード(ベクトル)」は、各シードを識別するための識別情報を示す。「次元1」、「次元2」、「次元3」は、対応する次元の数値を示す。
例えば、図6に示す例において、シードID「SD1」により識別されるシード(シードSD1)に対応するベクトル情報は、次元1の数値が「0.5」、次元2の数値が「0.2」、次元3の数値が「−0.7」等であることを示す。
なお、シード情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、シード情報記憶部124は、各シードがモデルに入力された場合にどのような画像が生成されるかに関する情報を記憶してもよい。例えば、シードSD1は、モデルM1に入力された場合、花模様のテーマ画像が生成されるベクトルであることを示す情報を記憶してもよい。例えば、シードSD2は、モデルM1に入力された場合、サッカー風のテーマ画像が生成されるベクトルであることを示す情報を記憶してもよい。例えば、シードSD3は、モデルM1に入力された場合、アニメ風のテーマ画像が生成されるベクトルであることを示す情報を記憶してもよい。
(モデル情報記憶部125)
実施形態に係るモデル情報記憶部125は、モデルに関する情報を記憶する。例えば、モデル情報記憶部125は、生成処理により生成されたモデル情報を記憶する。図7は、実施形態に係るモデル情報記憶部の一例を示す図である。図7に示すモデル情報記憶部125は、モデル情報として、各モデルM1等に対応させて「素性1」〜「素性3」等といった項目を有する。なお、図7では、モデルM1のみを図示するが、モデルM2、M3等の複数のモデル情報が記憶されてもよい。
例えば、図7に示す例において、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。例えば、モデルの素性(特徴量)がm次元のベクトルで表現される場合、素性数はm個になり、素性1〜素性mの重みが記憶される。
なお、モデル情報記憶部125は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図2に示すように、制御部130は、取得部131と、抽出部132と、生成部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、ユーザ属性情報記憶部121、行動履歴情報記憶部122、行動予定情報記憶部123、シード情報記憶部124、モデル情報記憶部125等から各種情報を取得する。また、取得部131は、各種情報を外部の情報処理装置から取得してもよい。
例えば、取得部131は、端末装置10を利用するユーザに関するユーザ情報を取得する。なお、取得部131は、端末装置10を利用するユーザに関するユーザ情報をユーザが利用する端末装置10以外の外部装置から取得してもよい。取得部131は、端末装置10を利用するユーザに関するユーザ情報を収集する情報処理装置からユーザ情報を取得してもよい。
図1の例では、取得部131は、ユーザU1が利用する端末装置10からユーザU1のユーザ情報を取得する。例えば、取得部131は、端末装置10を利用するユーザU1が20代女性であることを示す情報を端末装置10から取得する。例えば、取得部131は、端末装置10を利用するユーザU1の行動履歴や行動予定等の種々の情報を端末装置10から取得する。また、取得部131は、ユーザ属性情報記憶部121や行動履歴情報記憶部122や行動予定情報記憶部123に取得したユーザ情報を格納する。
また、例えば、取得部131は、シード情報記憶部124(図6参照)に記憶されるシードに関する情報やモデル情報記憶部125(図7参照)に記憶されるモデルに関する情報を取得してもよい。例えば、取得部131は、シード情報記憶部124(図6参照)に記憶されるシードに関する情報やモデル情報記憶部125(図7参照)に記憶されるモデルに関する情報を外部の情報処理装置から取得してもよい。
(抽出部132)
抽出部132は、各種情報を抽出する。例えば、抽出部132は、シードを抽出する。例えば、抽出部132は、シード情報記憶部124に記憶された複数のシードのうち、ユーザのコンテキストに対応するシードを抽出する。
図1の例では、抽出部132は、ユーザU1のコンテキストが「アニメ好きのユーザがキャラAに関心を持っている」状況であることを示すコンテキストCN11に基づいて、シードSD3を抽出(選択)する。例えば、抽出部132は、ユーザU1がアニメに関心を持っている状況に基づいて、アニメ風のテーマ画像が生成されるシードSD3を抽出する。
また、抽出部132は、ユーザのコンテキストを抽出(推定)してもよい。例えば、抽出部132は、ユーザU1のユーザ情報に基づいて、ユーザU1に関するコンテキストを推定する。図1の例では、抽出部132は、ユーザ属性情報記憶部121や行動履歴情報記憶部122や行動予定情報記憶部123等に記憶されたユーザU1に関する各種情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、抽出部132は、ユーザの行動履歴、ユーザの行動予定、ユーザの属性、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの運動状態、および、ユーザの感情等の種々の情報等に基づいてユーザのコンテキストを推定する。
図1の例では、抽出部132は、ユーザU1がアニメAに登場するキャラAに関する検索を行ったことや、アニメAの映画を観賞する予定があること等を含むユーザ情報からユーザU1のコンテキストを推定する。例えば、図1の例では、抽出部132は、ユーザU1のコンテキストを「アニメ好きのユーザがキャラAに関心を持っている」状況に対応するコンテキストCN11であると推定する。
(生成部133)
生成部133は、各種情報を生成する。例えば、生成部133は、取得部131により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、端末装置10に提供する提供画像を生成する。
例えば、生成部133は、ユーザの属性情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザが関心を有する対象に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザの行動履歴を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザの行動予定に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。
例えば、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、端末装置10に提供する提供画像を生成する。また、例えば、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて提供画像を生成する。また、例えば、生成部133は、パラメータにより変動する入力情報をモデルに入力することにより提供画像を生成する。
また、例えば、生成部133は、モデルを生成してもよい。例えば、生成部133は、モデル情報記憶部125(図7参照)に示すように、モデルM1を生成する。例えば、生成装置100は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であるモデルM1を生成する。例えば、生成装置100は、モデルM1にN次元のベクトル等の所定の入力情報を入力することにより、入力した入力情報から画像を生成する。
また、例えば、生成部133は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成してもよい。例えば、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて提供画像を生成する。
図1の例では、生成部133は、シードSD3に基づいて入力情報を生成する。例えば、生成部133は、ユーザU1のコンテキストに基づいてシードSD3の各次元の数値を変動させた入力情報を生成する。例えば、生成装置100は、ユーザのコンテキストに基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。
また、図1の例では、生成部133は、ユーザU1のコンテキストCN11に基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。例えば、生成部133は、ユーザU1がコンテキストCN11、すなわち「アニメ好きのユーザがキャラAに関心を持っている」状況であるため、例えば、入力情報において、キャラAの対象である猫の要素が強くなるようなパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報を生成する。
例えば、生成部133は、猫の要素に関する次元の数値を大きくすることを示すパラメータを用いて、100次元のベクトルのうち3次元目の数値が大きくなるようにシードSD3の各次元の数値を変動させた入力情報を生成する。図1の例では、生成部133は、入力情報リストIL1に示すように、シードSD3から猫の要素に関する次元である3次元目の数値を大きくした入力情報を生成する。具体的には、生成部133は、3次元目の数値がシードSD3中の「0.1」から「1.0」に変更された入力情報SD3−1を生成する。
また、例えば、生成部133は、モデルに入力情報を入力することによりテーマ画像を生成する。図1の例では、生成部133は、モデルM1に入力情報SD3−1を入力することによりテーマ画像IM1を生成する。例えば、生成部133は、ユーザU1のコンテキストCN11に適した、アニメ風の猫に関するテーマ画像IM1を生成する。
(提供部134)
提供部134は、各種情報を提供する。例えば、提供部134は、端末装置10に各種情報を提供する。例えば、提供部134は、生成部133により生成されたテーマ画像に基づくサービスを提供する。例えば、提供部134は、生成部133により生成されたテーマ画像を端末装置10へ提供する。図1の例では、提供部134は、生成部133により生成されたアニメ風の猫に関するテーマ画像IM1を端末装置10へ提供する。
〔3.生成処理のフロー〕
次に、図8を用いて、実施形態に係る生成システム1による生成処理の手順について説明する。図8は、実施形態に係る生成処理の一例を示すフローチャートである。
図8に示すように、生成装置100は、ユーザ情報を取得する(ステップS101)。例えば、生成装置100は、端末装置10を利用するユーザに関するユーザ情報をユーザが利用する端末装置10から取得する。
その後、生成装置100は、推定したユーザのコンテキストに基づいてシード(ベクトル)を抽出する(ステップS102)。図1の例では、生成装置100は、ユーザU1のコンテキストが「アニメ好きのユーザがキャラAに関心を持っている」状況であることを示すコンテキストCN11に基づいて、シードSD3を抽出(選択)する。
その後、生成装置100は、抽出したシードに基づいて入力情報を生成する(ステップS103)。図1の例では、生成装置100は、ユーザU1のコンテキストCN11に基づくパラメータを用いて、シードSD3の各次元の数値を変動させた入力情報SD3−1を生成する。
その後、生成装置100は、入力情報と画像生成モデル(モデル)とに基づいてテーマ画像を生成する(ステップS104)。図1の例では、生成装置100は、モデルM1に入力情報SD3−1を入力することによりテーマ画像IM1を生成する。
〔4.変形例〕
上記の実施形態に限らず、生成装置100は種々の情報に基づいて画像を生成してもより。変形例に係る生成装置100Aは、所定の画風(スタイル)を画像に適用した画像を生成してもよい。この点について、図9〜図12を基に説明する。なお、実施形態と同様の構成については、同一の符号を付して説明を省略する。
〔4−1.生成処理〕
まず、変形例に係る生成処理について説明する。図9は、変形例に係る生成処理の一例を示す図である。図9では、生成装置100Aは、ユーザのユーザ情報に基づいて、ユーザが利用する端末装置10へ提供する提供画像を生成する場合を示す。また、図9では、生成装置100Aは、ユーザのコンテキストに応じて決定される画風をユーザから取得した画像に適用した提供画像を生成する場合を示す。
図9に示すように、生成システム1Aには、端末装置10と、生成装置100Aとが含まれる。端末装置10と、生成装置100Aとは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。また、図9に示した生成システム1Aには、複数台の端末装置10や、複数台の生成装置100Aが含まれてもよい。このように、生成システム1Aは、生成装置100に替えて生成装置100Aを含む点において、生成システム1と相違する。
生成装置100Aは、ユーザ情報から推定されるユーザのコンテキストに応じて決定される画風と、画像とに基づいて、端末装置10に提供する提供画像を生成する情報処理装置である。例えば、生成装置100Aは、スタイル情報記憶部126に示すように、複数の画風(以下、「スタイル」ともいう)のうち、ユーザのコンテキストに対応するスタイルを決定(抽出)し、抽出したスタイルを他の画像に適用する処理を行う。
まず、図9に示すように、生成装置100Aは、ユーザU1が利用する端末装置10からユーザU1のユーザ情報を取得する(ステップS21)。例えば、生成装置100Aは、端末装置10を利用するユーザU1が近日中に絵画の美術鑑賞を行う予定があることを示す予定情報を取得する。なお、生成装置100AがユーザU1に関するユーザ情報を取得済みである場合、ステップS21の処理を行わなくてもよい。
そして、生成装置100Aは、端末装置10からシード画像を取得する(ステップS22)。なお、ここでいうシード画像とは、ユーザのコンテキストに応じてスタイルを適用する対象となる画像をいう。なお、シード画像はユーザから取得しなくてもよい。例えば、シード画像は図1の例におけるテーマ画像であってもよい。図9の例では、生成装置100Aは、端末装置10から対象として犬を含むシード画像IM21を取得する。
ユーザU1が利用する端末装置10からシード画像IM21を取得した生成装置100Aは、ユーザU1に関するコンテキストを推定する(ステップS23)。生成装置100Aは、図1に示すステップS13と同様に、ユーザU1のユーザ情報を用いて、ユーザU1に関するコンテキストを推定する。例えば、生成装置100Aは、行動予定情報記憶部123−1に記憶されたユーザU1に行動予定情報を用いて、ユーザU1に関するコンテキストを推定する。なお、行動予定情報記憶部123−1は、アニメAの映画鑑賞に替えて行動予定に絵画の美術鑑賞が含まれる点以外は、図1中の行動予定情報記憶部123と同様である。
図9の例では、生成装置100Aは、ユーザU1が近日中に絵画の美術鑑賞を行う予定等を含むユーザ情報からユーザU1のコンテキストを推定する。例えば、生成装置100Aは、ユーザ属性情報記憶部121−2に示すように、ユーザU1のコンテキストをコンテキストCN12であると推定する。なお、ユーザ属性情報記憶部121−2は、ユーザU1のコンテキストに関する情報がコンテキスト「CN12」に更新された点以外は、ユーザ属性情報記憶部121と同様である。このように、図9の例では、生成装置100Aは、ユーザU1のコンテキストを「近日中に絵画を鑑賞する予定がある」状況に対応するコンテキストCN12であると推定する。
その後、生成装置100Aは、スタイルを抽出する(ステップS24)。例えば、ここでいうスタイルとは、その画像に現れた作風、すなわち画風であり、その画像を創作した作者が創作した画像群の傾向や特徴等を意味する。図9の例では、生成装置100Aがスタイル情報記憶部126に複数のスタイルを格納する場合を示す。
例えば、図9に示す例において、スタイルID「ST1」により識別されるスタイル(以下、「スタイルST1」と記載する場合がある)は、対応する画像「STM1」に表現されており、その画風が「アニメX風」であることを示す。また、例えば、図9に示す例において、スタイルID「ST2」により識別されるスタイル(以下、「スタイルST2」と記載する場合がある)は、対応する画像「STM2」に表現されており、その画風が「画家Y風」であることを示す。このように、図9の例では、生成装置100Aがスタイル情報記憶部126に複数のスタイルを格納する。
そこで、図9の例では、生成装置100Aは、ユーザU1のコンテキストが「近日中に絵画を鑑賞する予定がある」状況であることを示すコンテキストCN12に基づいて、スタイルST2を、シード画像IM21に画風を適用するスタイルとして抽出(決定)する。
その後、生成装置100Aは、抽出したスタイルST2の画風をシード画像IM21に適用することにより、画像を生成する(ステップS25)。図9の例では、生成装置100Aは、画家Y風のスタイルST2の画風をシード画像IM21に適用することにより、スタイルST2を適用した適用後画像IM22を生成する。例えば、生成装置100Aは、非特許文献2に記載された画風を変換するアルゴリズム等の種々の従来技術を適宜用いて、抽出したスタイルST2の画風をシード画像IM21に適用することにより、画像を生成する。
その後、生成装置100Aは、ステップS25において生成した画像を端末装置10へ提供する(ステップS26)。図9の例では、生成装置100Aは、画家Y風のスタイルが適用された適用後画像IM22を端末装置10へ提供する。
上述したように、生成装置100Aは、ユーザのコンテキストに応じて決定されるスタイルを用いて画像を生成することにより、ユーザに適した画像をユーザに提供することができる。上述した例では、ユーザU1は、スタイルを適用(変更)したい画像を生成装置100Aに送信するだけで、自身のコンテキストに応じたスタイルが適用された画像を生成することができる。したがって、生成装置100Aは、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。なお、生成装置100Aは、上述したスタイルの適用をテーマ画像に対して行ってもよい。例えば、生成装置100Aは、所定のテーマ画像にユーザのコンテキストに応じて抽出されたスタイルを適用し、スタイル適用後のテーマ画像をユーザに提供してもよい。例えば、生成装置100Aは、図1に示す例のようにメールアプリAを利用するユーザU1に、ユーザU1のコンテキストに基づいて抽出されたスタイルを適用したテーマ画像を提供してもよい。
〔4−2.決定装置の構成〕
次に、図10を用いて、変形例に係る生成装置100Aの構成について説明する。図10は、変形例に係る決定装置100Aの構成例を示す図である。図10に示すように、生成装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、生成装置100Aは、生成装置100Aの管理者等から各種操作を取得する入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図10に示すように、ユーザ属性情報記憶部121と、行動履歴情報記憶部122と、行動予定情報記憶部123と、スタイル情報記憶部126とを有する。記憶部120Aは、スタイル情報記憶部126を有する点で実施形態に係る記憶部120と相違する。
(スタイル情報記憶部126)
変形例に係るスタイル情報記憶部126は、スタイルに関する各種情報を記憶する。図11は、変形例に係るスタイル情報記憶部の一例を示す図である。図11に示すスタイル情報記憶部126は、「スタイルID」、「画像」、「内容」といった項目を有する。
「スタイルID」は、スタイルを識別するための識別情報を示す。「画像」は、対応するスタイルの特徴を示す画像(画像情報)を示す。具体的には、「画像」は、そのスタイルの特徴が顕著に表現されている画像を示す。図11では、説明のため画像IDにより識別される画像を図示するが、「画像」としては、画像の格納場所を示すファイルパス名などが格納されてもよい。「内容」は、画像に対応付けて付される情報であり、画像のスタイル(画風)に含まれる対象を示す。
例えば、図11に示す例において、スタイルID「ST1」により識別されるスタイルは、対応する画像「STM1」に表現されており、その画風が「アニメX風」であることを示す。また、例えば、図11に示す例において、スタイルID「ST2」により識別されるスタイルは、対応する画像「STM2」に表現されており、その画風が「画家Y風」であることを示す。
なお、スタイル情報記憶部126は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、スタイル情報記憶部126は、「画像」に限らず、スタイルの特徴を示す情報であれば、どのような情報を記憶してもよい。
(制御部130A)
図10の説明に戻って、制御部130Aは、コントローラであり、例えば、CPUやMPU等によって、生成装置100A内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
図10に示すように、制御部130Aは、取得部131と、抽出部132Aと、生成部133Aと、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
(抽出部132A)
抽出部132Aは、種々の情報を抽出する。例えば、抽出部132Aは、実施形態に係る抽出部132と同様の処理を行う。例えば、抽出部132Aは、スタイルを抽出する。例えば、抽出部132Aは、スタイル情報記憶部126からスタイルを抽出する。図9の例では、抽出部132Aは、ユーザU1のコンテキストが「近日中に絵画を鑑賞する予定がある」状況であることを示すコンテキストCN12に基づいて、スタイルST2を、シード画像IM21に画風を適用するスタイルとして抽出(決定)する。
(生成部133A)
生成部133Aは、種々の情報を生成する。例えば、生成部133Aは、実施形態に係る生成部133と同様の処理を行う。例えば、生成部133Aは、取得部131により取得されたユーザ情報から推定されるユーザのコンテキストに応じて決定される画風と、画像とに基づいて、端末装置10に提供する提供画像を生成する。
図9の例では、生成部133Aは、抽出部132Aにより抽出されたスタイルST2の画風をシード画像IM21に適用することにより、画像を生成す。例えば、生成部133Aは、画家Y風のスタイルST2の画風をシード画像IM21に適用することにより、スタイルST2を適用した適用後画像IM22を生成する。例えば、生成部133Aは、非特許文献2に記載された画風を変換するアルゴリズム等の種々の従来技術を適宜用いて、抽出したスタイルST2の画風をシード画像IM21に適用することにより、画像を生成する。
〔4−3.生成処理のフロー〕
次に、図12を用いて、変形例に係る生成システム1Aによる生成処理の手順について説明する。図12は、変形例に係る生成処理の一例を示すフローチャートである。
図12に示すように、生成装置100Aは、ユーザ情報を取得する(ステップS201)。図9の例では、生成装置100Aは、ユーザU1が利用する端末装置10からユーザU1のユーザ情報を取得する。
その後、生成装置100Aは、シード画像を取得する(ステップS202)。図9の例では、生成装置100Aは、端末装置10から対象として犬を含むシード画像IM21を取得する。
その後、生成装置100Aは、推定したユーザのコンテキストに基づいてスタイルを抽出する(ステップS203)。図9の例では、生成装置100Aは、ユーザU1のコンテキストが「近日中に絵画を鑑賞する予定がある」状況であることを示すコンテキストCN12に基づいて、スタイルST2を、シード画像IM21に画風を適用するスタイルとして抽出(決定)する。
その後、生成装置100Aは、シード画像とスタイルとに基づいて適用後画像を生成する(ステップS204)。図9の例では、生成装置100Aは、画家Y風のスタイルST2の画風をシード画像IM21に適用することにより、スタイルST2を適用した適用後画像IM22を生成する。
〔5.効果〕
上述してきたように、実施形態に係る生成装置100は、取得部131と、生成部133とを有する。取得部131は、端末装置10を利用するユーザに関するユーザ情報を取得する。また、生成部133は、取得部131により取得されたユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、端末装置10に提供する提供画像を生成する。
これにより、実施形態に係る生成装置100は、取得したユーザ情報と、入力情報に応じて画像を出力するモデルとに基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、ユーザの属性情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。
これにより、実施形態に係る生成装置100は、ユーザの属性情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、ユーザが関心を有する対象に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。
これにより、実施形態に係る生成装置100は、ユーザが関心を有する対象に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、ユーザの行動履歴を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。
これにより、実施形態に係る生成装置100は、ユーザの行動履歴を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、ユーザの行動予定に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成する。
これにより、実施形態に係る生成装置100は、ユーザの行動予定に関する情報を含むユーザ情報に基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、端末装置10に提供する提供画像を生成する。
これにより、実施形態に係る生成装置100は、ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、ユーザ情報に基づいて推定されるユーザのコンテキストに関する情報に基づくパラメータを用いて提供画像を生成する。
これにより、実施形態に係る生成装置100は、ユーザ情報に基づいて推定されるユーザのコンテキストに関する情報に基づくパラメータを用いて提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、パラメータにより変動する入力情報をモデルに入力することにより提供画像を生成する。
これにより、実施形態に係る生成装置100は、パラメータにより変動する入力情報をモデルに入力することにより提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、実施形態に係る生成装置100において、生成部133は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成する。
これにより、実施形態に係る生成装置100は、複数のモデルのうち、ユーザ情報に応じて選択されるモデルを用いて、入力情報から提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
また、変形例に係る生成装置100Aは、取得部131と、生成部133Aとを有する。取得部131は、端末装置10を利用するユーザに関するユーザ情報と、画像とを取得する。生成部133Aは、取得部131により取得されたユーザ情報から推定されるユーザのコンテキストに応じて決定される画像のスタイル(画風)と、画像とに基づいて、端末装置10に提供する提供画像を生成する。
これにより、変形例に係る生成装置100Aは、ユーザ情報から推定されるユーザのコンテキストに応じて決定される画像のスタイルと、画像とに基づいて、端末装置10に提供する提供画像を生成することにより、ユーザの負荷を抑制しつつ、ユーザに応じて適切な画像を生成することができる。
〔6.ハードウェア構成〕
上述してきた実施形態に係る生成装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。図13は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 生成システム
100 生成装置
121 ユーザ属性情報記憶部
122 行動履歴情報記憶部
123 行動予定情報記憶部
124 シード情報記憶部
125 モデル情報記憶部
130 制御部
131 取得部
132 抽出部
133 生成部
134 提供部
10 端末装置
N ネットワーク

Claims (10)

  1. 端末装置を利用するユーザに関するユーザ情報を取得する取得部と、
    前記取得部により取得されたユーザ情報と、入力情報の基となる複数のベクトルから、前記ユーザ情報に基づいて選択したベクトルに基づく入力情報に応じて画像を出力する複数のモデルのうち、前記ユーザ情報に応じて選択されるモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成部と、
    を備えることを特徴とする生成装置。
  2. 前記生成部は、
    ユーザの属性情報を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
    ことを特徴とする請求項1に記載の生成装置。
  3. 前記生成部は、
    ユーザが関心を有する対象に関する情報を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
    ことを特徴とする請求項1または請求項2に記載の生成装置。
  4. 前記生成部は、
    ユーザの行動履歴を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
    ことを特徴とする請求項1〜3のいずれか1項に記載の生成装置。
  5. 前記生成部は、
    ユーザの行動予定に関する情報を含む前記ユーザ情報に基づいて、前記端末装置に提供する提供画像を生成する
    ことを特徴とする請求項1〜4のいずれか1項に記載の生成装置。
  6. 前記生成部は、
    前記ユーザ情報に基づいて推定されるユーザのコンテキストに基づいて、前記端末装置に提供する提供画像を生成する
    ことを特徴とする請求項1〜5のいずれか1項に記載の生成装置。
  7. 前記生成部は、
    前記ユーザ情報に基づいて推定されるユーザのコンテキストに基づくパラメータを用いて前記提供画像を生成する
    ことを特徴とする請求項6に記載の生成装置。
  8. 前記生成部は、
    前記パラメータにより変動する前記入力情報を前記モデルに入力することにより前記提供画像を生成する
    ことを特徴とする請求項7に記載の生成装置。
  9. コンピュータが実行する生成方法であって、
    端末装置を利用するユーザに関するユーザ情報を取得する取得工程と、
    前記取得工程により取得されたユーザ情報と、入力情報の基となる複数のベクトルから、前記ユーザ情報に基づいて選択したベクトルに基づく入力情報に応じて画像を出力する複数のモデルのうち、前記ユーザ情報に応じて選択されるモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成工程と、
    を含むことを特徴とする生成方法。
  10. 端末装置を利用するユーザに関するユーザ情報を取得する取得手順と、
    前記取得手順により取得されたユーザ情報と、入力情報の基となる複数のベクトルから、前記ユーザ情報に基づいて選択したベクトルに基づく入力情報に応じて画像を出力する複数のモデルのうち、前記ユーザ情報に応じて選択されるモデルとに基づいて、前記端末装置に提供する提供画像を生成する生成手順と、
    をコンピュータに実行させることを特徴とする生成プログラム。
JP2016175845A 2016-09-08 2016-09-08 生成装置、生成方法、及び生成プログラム Active JP6480900B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016175845A JP6480900B2 (ja) 2016-09-08 2016-09-08 生成装置、生成方法、及び生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016175845A JP6480900B2 (ja) 2016-09-08 2016-09-08 生成装置、生成方法、及び生成プログラム

Publications (2)

Publication Number Publication Date
JP2018041334A JP2018041334A (ja) 2018-03-15
JP6480900B2 true JP6480900B2 (ja) 2019-03-13

Family

ID=61626113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016175845A Active JP6480900B2 (ja) 2016-09-08 2016-09-08 生成装置、生成方法、及び生成プログラム

Country Status (1)

Country Link
JP (1) JP6480900B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230055800A1 (en) * 2020-01-15 2023-02-23 Nec Corporation Information generation method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259288A (ja) * 2002-02-28 2003-09-12 Konica Corp 画像処理方法、コンピュータが読取可能な記録媒体、及び画像処理装置
JP2007019921A (ja) * 2005-07-08 2007-01-25 Casio Hitachi Mobile Communications Co Ltd 画像補正装置、画像処理方法および画像処理プログラム
JP6089898B2 (ja) * 2013-04-09 2017-03-08 ソニー株式会社 画像処理装置および記憶媒体

Also Published As

Publication number Publication date
JP2018041334A (ja) 2018-03-15

Similar Documents

Publication Publication Date Title
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
JP5993897B2 (ja) 特定装置、特定方法及び特定プログラム
JP6501939B2 (ja) モデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラム、情報配信プログラム、推定装置および推定方法
JP6782591B2 (ja) 推定装置、推定方法、及び推定プログラム
US20230281729A1 (en) Simulated network system and method for relating users of real-world e-commerce and other user network systems to information
KR20210012730A (ko) 인공지능 모델의 학습 방법 및 전자 장치
JP2017151867A (ja) 更新装置、更新方法、及び更新プログラム
JP6344995B2 (ja) 特定装置、特定方法及び特定プログラム
JP2016006593A (ja) 抽出装置、抽出方法及び抽出プログラム
JP2019053558A (ja) 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル
JP6480900B2 (ja) 生成装置、生成方法、及び生成プログラム
JP2018156420A (ja) 決定装置、決定方法、及び決定プログラム
JP6998162B2 (ja) 抽出装置、抽出方法、及び抽出プログラム
JP2021119526A (ja) 生成装置、生成方法、及び生成プログラム
JP6732639B2 (ja) 提供装置、提供方法、及び提供プログラム
JP2018136887A (ja) 生成装置、生成方法、及び生成プログラム
JP6818717B2 (ja) 抽出装置、抽出方法、及び抽出プログラム
JP6955392B2 (ja) 決定装置、決定方法、及び決定プログラム
JP6679447B2 (ja) 変更装置、変更方法、及び変更プログラム
JP6832759B2 (ja) 表示プログラム、表示方法、端末装置、情報処理装置、情報処理方法、及び情報処理プログラム
JP6938259B2 (ja) 生成装置、生成方法、及び生成プログラム
JP6529559B2 (ja) 学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、及びモデル
JP7208286B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7198900B2 (ja) 生成装置、生成方法、及び生成プログラム
JP2018156187A (ja) 生成装置、生成方法、及び生成プログラム

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170829

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190208

R150 Certificate of patent or registration of utility model

Ref document number: 6480900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350