JP2019008742A - 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム - Google Patents

学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム Download PDF

Info

Publication number
JP2019008742A
JP2019008742A JP2017126710A JP2017126710A JP2019008742A JP 2019008742 A JP2019008742 A JP 2019008742A JP 2017126710 A JP2017126710 A JP 2017126710A JP 2017126710 A JP2017126710 A JP 2017126710A JP 2019008742 A JP2019008742 A JP 2019008742A
Authority
JP
Japan
Prior art keywords
information
output
learning
input
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017126710A
Other languages
English (en)
Other versions
JP6355800B1 (ja
Inventor
正樹 野口
Masaki Noguchi
正樹 野口
亮 中井
Akira Nakai
亮 中井
隼人 小林
Hayato Kobayashi
隼人 小林
幸浩 田頭
Yukihiro Tagashira
幸浩 田頭
一真 村尾
Kazuma Murao
一真 村尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017126710A priority Critical patent/JP6355800B1/ja
Priority to US15/996,968 priority patent/US20190005399A1/en
Application granted granted Critical
Publication of JP6355800B1 publication Critical patent/JP6355800B1/ja
Publication of JP2019008742A publication Critical patent/JP2019008742A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習データが有する関係性の学習を容易にする。【解決手段】本願に係る学習装置は、それぞれ異なる種別の複数の入力情報を取得する取得部と、前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習部とを有することを特徴とする。【選択図】図1

Description

本発明は、学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、およびモデルに関する。
従来、種別が異なる複数のデータの組を学習データとし、学習データが有する関連性をモデルに学習させ、学習結果を用いて各種の処理を実行する技術が知られている。このような技術の一例として、言語データと非言語データとの組を学習データとし、学習データが有する関係性をモデルに学習させ、学習済みのモデルを用いて、非言語データに対応する言語データの推定を行う技術が知られている。
特開2016−004550号公報
しかしながら、上述した学習技術では、学習データが有する関係性の学習が困難となる場合がある。
例えば、モデルに学習データの特徴を精度良く学習させる場合には、比較的多くの学習データが必要となる。しかしながら、学習させたい関係性を有するデータの組を準備するのは、手間がかかるため、十分な数の学習データを準備することができない恐れがある。
本願は、上記に鑑みてなされたものであって、学習データが有する関係性の学習を容易にすることを目的とする。
本願に係る学習装置は、それぞれ異なる種別の複数の入力情報を取得する取得部と、前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習部とを有することを特徴とする。
実施形態の一態様によれば、学習データが有する関係性の学習を容易にすることができる。
図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。 図2は、実施形態に係る情報提供装置の構成例を示す図である。 図3は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。 図4は、実施形態に係るモデルデータベースに登録される情報の一例を示す図である。 図5は、実施形態に係る情報提供装置が学習させる処理モデルの構造の一例を説明する図である。 図6は、実施形態に係る情報提供装置が実行する学習処理の流れの一例を示すフローチャートである。 図7は、実施形態に係る情報提供装置が実行する生成処理の流れの一例を示すフローチャートである。 図8は、ハードウェア構成の一例を示す図である。
以下に、本願に係る学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、およびモデルを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、およびモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
〔1−1.情報提供装置の一例〕
まず、図1を用いて、生成装置および学習装置の一例である情報提供装置が実行する学習処理および生成処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。図1では、情報提供装置10は、インターネット等の所定のネットワークN(例えば、図2参照)を介して、所定のクライアントが使用するデータサーバ50および端末装置100と通信可能である。
情報提供装置10は、後述する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。また、データサーバ50は、情報提供装置10が後述する学習処理を実行する際に用いる学習データや、情報提供装置10が後述する生成処理を実行する際に出力する配信コンテンツを管理する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
例えば、データサーバ50は、端末装置100に対してニュースや、利用者によって投稿された各種のコンテンツを配信する配信サービスを実行する。このような配信サービスは、例えば、各種ニュースの配信サイトやSNS(Social Networking Service)等により実現される。
端末装置100は、スマートフォンやタブレット等のスマートデバイスであり、3G(3rd Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。なお、端末装置100は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。
〔1−2.要約の配信について〕
ここで、データサーバ50は、配信対象となる配信コンテンツが複数存在する場合には、各配信コンテンツを全て配信するのではなく、各配信コンテンツの要約となる要約コンテンツを端末装置100へと配信し、配信した要約コンテンツのうち利用者が選択した要約コンテンツと対応する配信コンテンツを配信する場合がある。しかしながら、配信コンテンツごとに、人手で要約コンテンツを生成するのは、手間がかかる。
そこで、各種情報が有する特徴を学習したモデルを用いて、配信コンテンツから要約コンテンツを自動的に生成するといった技術が考えらえる。例えば、データサーバ50が配信する配信コンテンツには、写真等の画像、見出しとなるテキスト、本文となるテキスト等、それぞれ異なる種別の情報が含まれる場合がある。このような場合、配信コンテンツに含まれる各情報の種別ごとに、各情報の特徴を学習されたモデルを個別に生成し、生成した複数のモデルを用いて、配信コンテンツに含まれる各情報から情報の要約を生成するといった手法が考えられる。
例えば、情報ごとに異なるモデルを用いて要約を生成する要約サーバは、配信コンテンツに含まれる画像と、その配信コンテンツの要約である要約コンテンツに含めるべき要約画像(すなわち、サムネイル)とを学習データとして取得する。そして、要約サーバは、画像から要約画像を生成するようにモデルの学習を行う。このような学習は、例えば、複数のノードを多段に接続したDNN(Deep Neural Network)等のニューラルネットワーク等により実演される。同様に、要約サーバは、配信コンテンツに含まれる見出しや本文から、要約コンテンツに含める要約見出しや要約本文等を生成するようにモデルの学習を行う。そして、要約サーバは、学習した各モデルを用いて、新たな配信コンテンツに含まれる画像、見出し、本文等から要約画像、要約見出し、要約本文をそれぞれ生成し、生成した要約画像、要約見出し、要約本文を用いて要約コンテンツを生成する。
しかしながら、上述した処理では、適切な要約コンテンツを生成することができない恐れがある。例えば、上述した要約サーバは、配信コンテンツに含まれる情報ごとに、異なるモデルを用いて要約を生成するので、各モデルが生成する要約の内容が一致しない恐れがある。より具体的な例を挙げると、複数の人物が撮影された画像と、撮影された人物のうちいずれかの人物に関連する本文を含む配信コンテンツが存在する場合、本文から要約本文を生成するモデルが適切な要約を作成したとしても、画像から要約画像を生成するモデルが、本文に関連する人物とは異なる人物が撮影された範囲を要約画像として抽出する恐れがある。
そこで、配信コンテンツが含む複数の情報から、直接要約コンテンツを生成するといった手法が考えられる。例えば、要約サーバは、配信コンテンツから要約コンテンツを生成するように学習が行われたモデルを用いて、配信コンテンツから要約コンテンツを生成する。しかしながら、このような手法では、モデルの学習に要する時間や計算リソースが増大する。
〔1−3.学習処理について〕
そこで、情報提供装置10は、以下の学習処理を実行することで、配信コンテンツから要約コンテンツを生成するための処理モデルの学習を行う。まず、情報提供装置10は、処理モデルの学習に用いるデータ、すなわち、学習データとして、それぞれ異なる種別の情報を取得する。また、情報提供装置10は、入力情報から入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含む処理モデルを生成する。そして、情報提供装置10は、複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、処理モデルの学習を行う。
〔1−3−1.部分モデルの生成について〕
以下、情報提供装置10が実行する学習処理の一例について説明する。まず、情報提供装置10は、要約の生成対象となる配信コンテンツに含まれる情報の種別ごとに、その情報の要約を生成するためのモデルである部分モデルを準備する。例えば、情報提供装置10は、配信コンテンツに画像と本文とが含まれる場合は、画像の要約を生成するための第1部分モデルと、本文の要約を生成するための第2部分モデルとを準備する。
このような要約を生成するための部分モデルは、例えば、入力された情報の次元量を圧縮することで入力された情報が有する特徴を抽出する符号化器(以下、「エンコーダー」と記載する場合がある。)と、エンコーダーによって抽出された特徴の次元量を増大させ、エンコーダーに入力された情報よりも次元数が少ない情報、すなわち、入力された情報の要約を出力する復号器(以下、「デコーダー」と記載する場合がある。)との組によって実現される。なお、エンコーダーおよびデコーダーは、単純に入力された情報量の次元数を変化させるニューラルネットワークのみならず、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)等といった各種のニューラルネットワークが採用可能である。
また、情報提供装置10は、準備した部分モデルに情報が有する特徴を学習させる。例えば、情報提供装置10は、画像に対応する第1部分モデルの学習データとして、画像と、その画像のうちサムネイルとして最適な範囲を抽出した要約画像との組を取得する。なお、第1部分モデルの学習データは、配信コンテンツに含まれる画像に関連する学習データである必要はなく、一般的な画像とその画像の要部である要約画像との組により実現される。
そして、情報提供装置10は、学習データの画像に含まれる各画素の画素値を入力した際に、学習データの要約画像に含まれる各画素の画素値を出力するように、第1部分モデルの学習を行う。例えば、情報提供装置10は、第1部分モデルが出力した画素値が、学習データの要約画像に含まれる各画素の画素値に近づくように、バックプロパゲーション等の手法により、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第1部分モデルに一般的な画像が有する特徴を学習させる。
同様に、情報提供装置10は、本文に対応する第2部分モデルの学習データとして、文章と、その文章の要約である要約文章との組を取得する。なお、第2部分モデルの学習データは、配信コンテンツに含まれる本文に関連する学習データである必要はなく、一般的な文章とその文章の要約である要約文章との組により実現される。
そして、情報提供装置10は、学習データの文章に含まれる各単語をベクトル化した情報を入力した際に、学習データの要約文章に含まれる各単語のベクトルを出力するように、第2部分モデルの学習を行う。例えば、情報提供装置10は、第2部分モデルが出力したベクトルが、学習データの要約文章に含まれる各単語のベクトルに近づくように、バックプロパゲーション等の手法により、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正することで、第2部分モデルに一般的な文章が有する特徴を学習させる。
〔1−3−2.処理モデルの生成について〕
続いて、情報提供装置10は、第1部分モデルに含まれるエンコーダーを第1エンコーダーとし、第1部分モデルに含まれるデコーダーを第1デコーダーとして抽出する。また、情報提供装置10は、第2部分モデルに含まれるエンコーダーを第2エンコーダーとし、第2部分モデルに含まれるデコーダーを第2デコーダーとして抽出する。
そして、情報提供装置10は、第1エンコーダーの出力、すなわち、入力された画像の特徴を示す情報である特徴情報と、第2エンコーダーの出力、すなわち、入力された本文の特徴を示す情報である特徴情報とを合成した合成情報を生成する合成モデルを、第1エンコーダーおよび第2エンコーダーに連結する。
例えば、情報提供装置10は、第1エンコーダーが出力する特徴情報と、第2エンコーダーが出力する特徴情報との線形結合を合成情報として出力する合成モデルを生成する。このような合成モデルは、例えば、第1エンコーダーおよび第2エンコーダーが出力した情報であって、画像や本文の特徴を示す多次元量(例えば、ベクトル)である特徴情報を受付け、受付けた特徴情報を線形結合した情報を出力するモデルや中間層等によって実現可能である。なお、後述するように、合成モデルは、各特徴情報に対して所定の重みを適用した合成情報を生成してもよい。
また、情報提供装置10は、合成モデルが出力する合成情報が第1デコーダーおよび第2デコーダーに入力されるように、第1デコーダーおよび第2デコーダーを連結する。例えば、情報提供装置10は、合成モデルが出力する合成情報を第1デコーダーの入力層に対応する次元数まで畳み込み、畳み込んだ合成情報を第1デコーダーに入力するように、第1デコーダーを合成モデルに連結する。また、情報提供装置10は、合成モデルが出力する合成情報を第2デコーダーの入力層に対応する次元数まで畳み込み、畳み込んだ合成情報を第2デコーダーに入力するように、第2デコーダーを合成モデルに連結する。
このように、情報提供装置10は、それぞれ異なる種別の情報が有する特徴を学習した複数のエンコーダーと、それぞれ異なるエンコーダーと同じ種別の情報が有する特徴を学習した複数のデコーダーとを有する処理モデルを生成する。例えば、情報提供装置10は、画像の特徴を学習した第1エンコーダーおよび第1デコーダーと、本文の特徴を学習した第2エンコーダーおよび第2デコーダーとを有する処理モデルを生成する。また、情報提供装置10は、複数のデコーダーとして、合成情報からそれぞれ異なる種別の情報を生成する複数のデコーダーであって、それぞれ異なるエンコーダーに入力される情報と同じ種別の情報を出力する複数のデコーダーを有する処理モデルを生成する。例えば、情報提供装置10は、第1エンコーダーに入力される情報と同じ種別の情報、すなわち、要約画像を出力する第1デコーダーと、第2エンコーダーに入力される情報と同じ種別の情報、すなわち、要約本文を出力する第2デコーダーとを有する処理モデルを生成する。
このような処理の結果、情報提供装置10は、画像の特徴と本文の特徴とをそれぞれ個別に抽出した後で、抽出した特徴を合成し、特徴を合成した合成情報から要約画像および要約本文をそれぞれ生成する構成を有する処理モデルを得ることができる。そして、情報提供装置10は、配信コンテンツと、予め生成された配信コンテンツに対応する要約コンテンツとの組を学習データとして、処理モデルの学習を行う。
例えば、情報提供装置10は、処理モデルが有する第1エンコーダーに配信コンテンツの画像を入力し、第2エンコーダーに配信コンテンツの本文を入力した際に、処理モデルが出力した要約画像および要約文章が、要約コンテンツに含まれる要約画像および要約文章と一致するように、処理モデルの学習を行う。例えば、情報提供装置10は、処理モデルが有する第1エンコーダー、第2エンコーダー、第1デコーダー、および第2デコーダーにおける接続係数の修正を個別に行ってもよく、合成モデルに含まれる接続係数の修正を行ってもよい。また、情報提供装置10は、例えば、第1デコーダーおよび第2デコーダーにおける接続係数の修正のみを行ってもよい。すなわち、情報提供装置10は、所定のコンテンツに含まれる複数の情報であって、それぞれ種別が異なる情報から、相互に関連する内容の情報を出力するように処理モデルの学習を行うのであれば、任意の学習を行ってよい。
このような処理の結果、情報提供装置10は、情報の種別ごとに、配信コンテンツに含まれる各情報の特徴を個別に抽出し、抽出した特徴を統合するとともに、統合された特徴に基づいて、配信コンテンツに含まれる各情報の要約をそれぞれ個別に生成する処理モデルを生成することができる。すなわち、情報提供装置10は、複数種別の情報が入力された場合に複数種別の情報の畳み込み等を行う従来のCNNとは異なり、情報の種別ごとに個別に特徴情報を抽出し、抽出した特徴情報を合成した合成情報を生成し、生成した合成情報から再度情報の種別ごとに個別に出力する情報を生成する処理モデルを生成する。
言い換えると、情報提供装置10は、相互に接続されていないエンコーダーであって、それぞれ異なる種別の情報が有する特徴を学習したエンコーダーを用いて、特徴情報を抽出し、相互に接続されていないデコーダーであって、それぞれ異なる種別の情報が有する特徴を学習したデコーダーを用いて、各エンコーダーが抽出した特徴情報を合成した合成情報から、それぞれ異なる種別の複数の情報を生成する。この結果、情報提供装置10は、学習データが有する関係性の学習を容易にすることができる。
例えば、情報提供装置10は、画像や本文等、情報の種別ごとに、一般的な情報が有する特徴を学習済みの部分モデルを用いて、処理モデルを生成する。この結果、配信コンテンツに含まれる各情報の特徴をプレトレーニングした状態の処理モデルを得ることができる。この結果、情報提供装置10は、所定の精度を担保するために必要な学習データの数、すなわち、複数の種別の情報を含む配信コンテンツと要約コンテンツとの組の数を少なくすることができ、学習に要する時間や計算リソースを軽減することができる。
また、上述した構造を有する処理モデルは、各入力情報から特徴情報を生成する部分同士が接続されておらず、合成情報から各出力情報を生成する部分同士も接続されていない。この結果、情報提供装置10は、学習時において考慮すべき接続係数の数を削減する結果、学習に要するリソースを削減できる。
また、上述した処理モデルにおいて、複数の出力情報のうちいずれかの出力情報のみの精度が他の出力情報と比較して低い場合は、精度が低い出力情報を合成情報から生成したデコーダー、または、その出力情報と対応する入力情報から特徴情報を生成したエンコーダー(すなわち、精度が低い出力情報の種別と対応するエンコーダーおよびデコーダーの組)に、精度を低下させる原因があると推定される。このように、上述した構造を有する処理モデルは、学習時に修正すべき部分の推定を容易にすることができるので、学習に要する時間や計算リソースを削減できる。
さらに、情報提供装置10は、各情報の特徴をそれぞれ個別に用いるのではなく、各情報の特徴を合成した情報、すなわち、各情報の特徴を統合した情報を用いて、各情報の要約をそれぞれ個別に生成する。このため、情報提供装置10は、要約画像や要約本文等といった生成される要約の内容を揃えることができる。
〔1−4.生成処理について〕
次に、上述した学習処理によって学習が行われた処理モデルを用いて、要約コンテンツを生成する生成処理の一例について説明する。まず、情報提供装置10は、要約コンテンツの生成対象となる配信コンテンツを取得する。そして、情報提供装置10は、要約コンテンツに含まれる画像と本文とを処理モデルに入力し、処理モデルが生成した要約画像および要約本文を取得する。その後、情報提供装置10は、要約画像および要約本文を用いて、要約コンテンツを生成し、生成した要約コンテンツを端末装置100へと配信する。
すなわち、情報提供装置10は、それぞれ異なる種別の入力情報から入力情報が有する特徴を示す特徴情報を生成する複数のエンコーダーと、複数のエンコーダーが生成した特徴情報を合成した合成情報を生成する合成モデルと、合成モデルが生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数のデコーダーとを用いて、配信コンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する。そして、情報提供装置10は、取得した複数の出力情報から、所定のコンテンツに対応する要約コンテンツを生成する。
例えば、情報提供装置10は、配信コンテンツに含まれる情報であって、それぞれ種別が異なる複数の情報を抽出する。より具体的な例を挙げると、情報提供装置10は、配信コンテンツに含まれる画像と本文とを抽出する。そして、情報提供装置10は、抽出した画像に含まれる各画素の画素値を、処理モデルのうち、第1エンコーダーの入力層に対応するノードに入力し、抽出した本文に含まれる各単語のベクトルを、処理モデルのうち、第2エンコーダーの入力装置に対応するノードへと入力する。
この結果、情報提供装置10は、処理モデルが実行させる処理により、画像の特徴および本文の特徴をそれぞれ個別に抽出し、抽出した特徴を合成した合成情報を生成し、生成した合成情報からそれぞれ個別に生成された要約画像および要約文章を得ることができる。そして、情報提供装置10は、要約画像および要約文章を用いて、要約コンテンツを生成する。この結果、情報提供装置10は、配信コンテンツの要約である要約コンテンツを適切に生成することができる。
〔1−5.前処理について〕
ここで、情報提供装置10は、処理モデルに含まれる第1エンコーダーや第2エンコーダーに配信コンテンツの情報を直接入力するのではなく、各種の情報が有する特徴を示す中間表現を入力してもよい。例えば、情報提供装置10は、入力情報の種別に応じた構造を有し、入力された情報が有する特徴を示す中間表現を生成する複数の中間モデルと、各中間モデルが生成した中間表現から特徴情報を生成する複数のエンコーダーを用いてもよい。
例えば、情報提供装置10は、各種の画像から、その画像が有する特徴を示す情報であって、画像の要約を生成する際に必要な情報を含む中間表現を生成するように学習が行われた第1中間モデルを取得する。また、情報提供装置10は、各種の文章から、その文章が有する特徴を示す情報であって、文章の要約を生成する際に必要な情報を含む中間表現を生成するように学習が行われた第2中間モデルを取得する。
ここで、情報が有する特徴を示す中間表現を生成する中間モデルとしては、各種のニューラルネットワークにより実現可能であるが、情報の特徴を精度良く抽出できるモデルの構造は、情報の種別に応じて異なる。例えば、画像が有する特徴は、単一の画素のみならず、隣接する周囲の画素によると考えられる。このため、画像が有する特徴を抽出するモデルとしては、情報の畳み込みを行うニューラルネットワーク、すなわち、CNNが望ましい。一方、本文等の文章が有する特徴は、単一の単語のみならず、その単語と前後する他の単語やその単語に続く単語群等によると考えられる。このため、本文が有する特徴を抽出するモデルとしては、RNNやLSTM等、再帰型のニューラルネットワークが望ましい。
そこで、情報提供装置10は、要約を生成する情報、すなわち、処理対象となる情報の種別ごとに異なる構造を有する中間モデルを取得する。例えば、情報提供装置10は、画像の中間表現を生成する中間モデルとして、CNNの構造を含む第1中間モデルを取得する。また、情報提供装置10は、本文の中間表現を生成する中間モデルとして、RNNの構造を含む第2中間モデルを取得する。そして、情報提供装置10は、配信コンテンツに含まれる画像を第1中間モデルに入力し、第1中間モデルが出力した中間表現を処理モデルが有する第1エンコーダーに入力する。また、情報提供装置10は、配信コンテンツに含まれる文章を第2中間モデルに入力し、第2中間モデルが出力した中間表現を処理モデルが有する第2エンコーダーに入力する。このような処理の結果、情報提供装置10は、より精度よく各情報の要約を生成することができる。
なお、情報提供装置10は、中間モデルを含む処理モデルを学習してもよく、処理モデルとは別に中間モデルの学習および使用を行ってもよい。例えば、情報提供装置10は、処理モデルに中間モデルが含まれない場合は、処理モデルとは個別に学習等が行われた中間モデルを用いて中間表現を生成し、生成した中間表現を処理モデルに入力してもよい。また、情報提供装置10は、処理モデルに中間モデルが含まれる場合は、配信コンテンツに含まれる各種の情報をそのまま処理モデルに入力してもよい。
〔1−6.処理の一例について〕
次に、図1を用いて、情報提供装置10が実行する学習処理および生成処理の流れの一例について説明する。まず、情報提供装置10は、学習処理を実行する。具体的には、情報提供装置10は、それぞれ異なる種別の情報の特徴を学習したエンコーダーおよびデコーダーの組を学習する(ステップS1)。
例えば、情報提供装置10は、一般的な画像を入力画像として第1エンコーダーE1に入力し、第1エンコーダーE1が出力した情報を第1デコーダーD1に入力した際に、第1デコーダーD1が出力した画像が入力画像の要約である要約画像となるように、第1エンコーダーE1および第1デコーダーD1の学習を行う。また、例えば、情報提供装置10は、一般的な文章を入力文章として第2エンコーダーE2に入力し、第2エンコーダーE2が出力した情報を第2デコーダーD2に入力した際に、第2デコーダーD2が出力した文章が入力文章の要約である要約文章となるように、第2エンコーダーE2および第2デコーダーD2の学習を行う。なお、以下の説明では、第1エンコーダーE1や第2エンコーダーE2等の各エンコーダーを「エンコーダーE」と総称し、第1デコーダーD1や第2デコーダーD2等の各デコーダーを「デコーダーD」と総称する場合がある。
次に、情報提供装置10は、処理モデルの学習に用いる学習データをデータサーバ50から取得する(ステップS2)。例えば、情報提供装置10は、配信コンテンツと、その配信コンテンツの要約である要約コンテンツとの組を学習データとして収集する。そして、情報提供装置10は、各エンコーダーEの出力を合成し、各デコーダーDが合成結果から異なる種別の出力情報を出力するように、処理モデルの学習を行う(ステップS3)。
例えば、情報提供装置10は、画像の中間表現を生成する第1中間モデルMM1および文章の中間表現を生成する第2中間モデルMM2を取得する。そして、情報提供装置10は、以下の構造を有する処理モデルM1を生成する。例えば、情報提供装置10は、第1中間モデルMM1が出力する中間表現が入力情報として第1エンコーダーE1に入力され、第2中間モデルMM2が出力する中間表現が入力情報として第2エンコーダーE2に入力される構造の処理モデルM1を生成する。また、情報提供装置10は、第1エンコーダーE1が中間表現から生成した特徴情報と、第2エンコーダーE2が中間表現から生成した特徴情報とが合成モデルSM1に入力される構造の処理モデルM1を生成する。
また、情報提供装置10は、合成モデルSM1が各特徴情報から合成した合成情報を第1デコーダーD1および第2デコーダーD2に入力する構造を有する処理モデルM1を生成する。すなわち、情報提供装置10は、図1に示すように、画像が有する特徴を示す特徴情報と、文章が有する特徴を示す特徴情報とをそれぞれ個別に生成し、生成した特徴情報を合成し、合成した合成情報から要約画像と要約文章とをそれぞれ個別に生成する構造の処理モデルM1を生成する。
そして、情報提供装置10は、学習データに含まれる画像を処理モデルM1の第1中間モデルMM1に入力するとともに、学習データに含まれる文章を第2中間モデルMM2へと入力する。そして、情報提供装置10は、処理モデルM1の第1デコーダーD1が出力した要約画像が、処理モデルM1の第1中間モデルMM1に入力した画像の要約となり、処理モデルM1の第2デコーダーD2が出力した要約文章が、処理モデルM1の第2中間モデルMM2に入力した文章の要約となり、かつ、要約画像と要約文章とが共通する事象を示すように、処理モデルM1の学習を行う。
例えば、情報提供装置10は、第1デコーダーD1および第2デコーダーD2の接続係数のみを修正してもよく、処理モデルM1全体の接続係数を修正してもよい。また、例えば、第2デコーダーD2が出力する要約文章が適切な要約であるが、第1デコーダーD1が生成した要約画像が適切な要約画像ではない場合、第1中間モデルMM1、第1エンコーダーE1、および第1デコーダーD1の学習精度が低いとも考えられる。そこで、情報提供装置10は、第2デコーダーD2が出力する要約文章が適切な要約であるが、第1デコーダーD1が生成した要約画像が適切な要約画像ではない場合、処理モデルM1が有する接続係数のうち、第1中間モデルMM1、第1エンコーダーE1、および第1デコーダーD1の接続係数のみを修正対象としてもよい。
続いて、情報提供装置10は、生成処理を実行する。具体的には、情報提供装置10は、データサーバ50から、要約コンテンツの生成対象となる配信コンテンツを取得する(ステップS4)。そして、情報提供装置10は、処理モデルM1を用いて、配信コンテンツから要約コンテンツを生成する(ステップS5)。
例えば、情報提供装置10は、配信コンテンツから処理モデルM1に含まれる各エンコーダーEと対応する種別の情報を抽出する。より具体的には、情報提供装置10は、配信コンテンツから画像と本文とを抽出する。そして、情報提供装置10は、画像と本文とを処理モデルM1に入力し、要約画像と要約本文とを取得する。その後、情報提供装置10は、取得した要約画像と要約本文とを用いて要約コンテンツを生成し、生成した要約コンテンツを端末装置100へと出力する(ステップS6)。
〔1−7.処理対象について〕
上述した説明では、情報提供装置10は、配信コンテンツに含まれる画像の要約である要約画像と、配信コンテンツに含まれる本文の要約である要約本文とを生成する処理モデルM1の学習を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、要約以外にも、入力される情報(以下、「入力情報」と記載する。)に対応する情報(以下、「出力情報」と記載する。)を出力するのであれば、入力情報と任意の関係性を有する出力情報を生成する処理モデルM1の生成を行ってよい。また、情報提供装置10は、任意の種別の入力情報から任意の情報の出力情報を生成してよい。すなわち、情報提供装置10は、それぞれ異なる種別の入力情報であって、共通するトピックを含む複数の入力情報から、そのトピックを保持した複数の出力情報を出力するのであれば、任意の種別の情報に対して任意の処理を実行する処理モデルM1の生成を行ってよい。
例えば、情報提供装置10は、動画像に含まれる画像の要部と、その動画像に含まれる音声の要部とを抽出する処理モデルM1の生成を行ってもよい。かかる要部は、動画像のうち同一の再生位置に含まれる画像および音声であってもよく、異なる再生位置の画像および音声であってもよい。また、情報提供装置10は、ミュージックビデオの画像と音声とを入力情報とした場合に、動画像に含まれる画像の要部と、歌詞の要約とを出力する処理モデルM1の生成を行ってもよい。すなわち、情報提供装置10は、複数の入力情報であって、各入力情報と対応する出力情報のトピックを共通化したい入力情報であれば、任意の入力情報および出力情報について、上述した処理モデルM1の生成を行ってよい。
また、情報提供装置10は、3つ以上の入力情報から、各入力情報と対応する出力情報であって、トピックを共通化した出力情報の生成を行う処理モデルM1の生成を行ってもよい。例えば、情報提供装置10は、入力情報の種別ごとに異なるエンコーダーを有し、各エンコーダーEが出力した特徴情報から合成情報を生成し、生成した合成情報から各入力情報と対応する出力情報を生成する処理モデルM1であれば、任意の数の種別の入力情報から出力情報を生成する処理モデルM1の生成を行ってよい。
例えば、情報提供装置10は、配信コンテンツ内に画像、タイトル、本文といった複数種別の情報が存在する場合は、画像、タイトル、本文のそれぞれについて特徴を抽出する独立した複数のエンコーダー、各エンコーダーEが出力する特徴情報を合成する合成モデル、および合成情報から画像、タイトル、本文のそれぞれに対応する情報を個別に出力する独立した複数のデコーダーの組を含む処理モデルM1を生成してもよい。また、例えば、情報提供装置10は、配信コンテンツに含まれる全ての情報について要約を生成する必要はなく、少なくとも、画像が有する特徴を示す特徴情報を生成する第1エンコーダーE1と、テキストである本文が有する特徴を示す特徴情報を生成する第2エンコーダーE2と、合成情報を生成する合成モデルSM1と、合成情報から画像に対応する出力情報を生成する第1デコーダーD1と、合成情報から本文対応する出力情報を生成する第2デコーダーD2とを有する処理モデルM1を生成してもよい。
〔1−8.合成情報の生成について〕
ここで、合成モデルSM1は、各エンコーダーEが出力した特徴情報を合成した合成情報を生成するのであれば、任意の合成手法で合成された合成情報を生成してよい。例えば、合成モデルSM1は、第1エンコーダーE1が出力した特徴情報の末尾に第2エンコーダーE2が出力した特徴情報を結合してもよく、第2エンコーダーE2が出力した特徴情報の末尾に第1エンコーダーE1が出力した特徴情報を結合してもよい。また、合成モデルSM1は、第1エンコーダーE1が出力した特徴情報と第2エンコーダーE2が出力した特徴情報とのテンソル積を合成情報としてもよい。
ここで、各エンコーダーEが出力する特徴情報は、単一のベクトルとして生成された情報のみならず、複数のベクトルであってもよい。例えば、各エンコーダーEは、複数のベクトルからなる特徴情報を生成してもよい。このような場合、合成モデルSM1は、各エンコーダーEが出力した複数のベクトルを合成した合成情報を生成してもよく、各ベクトルごとに異なる重みを考慮した合成情報を生成してもよい。
例えば、エンコーダーEとデコーダーDとの組からなるエンコーダーデコーダーモデルにおいては、デコーダーD側の状態(直前の出力)に応じて、エンコーダーEが生成する特徴情報を変化させるアテンション機構(attention mechanism)を導入することにより、全体としての精度を向上させる技術が知られている。このようなアテンション機構が導入されたエンコーダーデコーダーモデルでは、エンコーダーEが入力された単語に対応するベクトルの集合を特徴情報(隠れ状態ベクトル)を出力し、デコーダーDはそのベクトルの集合の重み付き平均を用いて次の単語を予測する。このようなエンコーダーデコーダーモデルにおいて、デコーダーD側の状態に応じて、その重み付き平均の重みを変化させることでソフトアライメントを実現することができる。
また、情報提供装置10は、第1デコーダーD1と第2デコーダーD2とに対し、それぞれ異なる重みを考慮した合成情報を出力する合成モデルSM1を用いてもよい。例えば、合成モデルSM1は、第1エンコーダーE1が出力した特徴情報に第1の重み(例えば、「0.8」)を積算した値と、第2エンコーダーE2が出力した特徴情報に第2の重み(例えば、「0.2」)を積算した値との線形結合を合成情報として、第1デコーダーD1に入力する。一方、合成モデルSM1は、第1エンコーダーE1が出力した特徴情報に第2の重みを積算した値と、第2エンコーダーE2が出力した特徴情報に第1の重みを積算した値との線形結合を合成情報として、第2デコーダーD2に入力する。
なお、このような合成モデルSM1は、例えば、以下のような構造を有するニューラルネットワークにより実現される。例えば、合成モデルSM1は、第1エンコーダーE1が出力した特徴情報が入力される第1ノード群と、第2エンコーダーE2が出力した特徴情報が入力される第2ノード群とを有する中間層を有する。また、合成モデルSM1は、第1ノード群から第1デコーダーD1に対して伝達される情報に対して第1の重みを適用する第1の接続係数群と、第2ノード群から第1デコーダーD2に対して伝達される情報に対して第2の重みを適用する第2の接続係数群とを有する。また、合成モデルSM1は、第1ノード群から第2デコーダーD2に対して伝達される情報に対して第2の重みを適用する第3の接続係数群と、第2ノード群から第2デコーダーD2に対して伝達される情報に対して第1の重みを適用する第4の接続係数群とを有する。
なお、合成情報を生成する際、若しくは、合成情報を出力する際に適用される重みは、目的に応じて適宜任意の値が採用可能である。例えば、情報提供装置10は、処理モデルM1が出力する複数の出力情報が有するトピックがそろうように、重みの設定を行ってもよい。また、情報提供装置10は、第1ノード群に含まれる各ノードおよび第2ノード群に含まれる各ノードから第1デコーダーD1や第2デコーダーD2に対して伝達される各値に対して、それぞれ異なる重みを適用してもよい。
ここで、要約コンテンツの配信対応においては、要約文章よりも要約画像の方が人目を引く可能性が高いとも考えられる。そこで、情報提供装置10は、処理モデルM1が要約コンテンツを生成する場合、第1の重みを第2の重みよりも大きい値に設定してもよい。すなわち、情報提供装置10は、処理モデルM1の出力情報に関する情報の配信態様に応じて、重みの値を変化させてもよい。
また、情報提供装置10は、第1デコーダーD1に伝達する合成情報と、第2デコーダーD2に伝達する合成情報とで、異なる重みを採用してもよい。例えば、情報提供装置10は、第1エンコーダーE1の特徴情報に第1の重みを採用し、第2エンコーダーE2の特徴情報に第2の重みを採用した合成情報を第1デコーダーD1に伝達し、第1エンコーダーE1の特徴情報に第3の重みを採用し、第2エンコーダーE2の特徴情報に第4の重みを採用した合成情報を第2デコーダーD2に伝達してもよい。
また、情報提供装置10は、出力情報から生成されるコンテンツ、すなわち、処理モデルM1に入力されるコンテンツと対応するコンテンツ(以下、「対応コンテンツ」と記載する。)の出力態様に応じた合成態様で、特徴情報から合成情報を生成してもよい。例えば、情報提供装置10は、要約コンテンツを閲覧する利用者が画像を重視する属性を有する場合は、第1の重みを第2の重みよりも大きい値にしてもよい。
また、情報提供装置10は、要約コンテンツにおいて要約画像が表示される領域が、要約本文が表示される領域よりも大きい場合には、第1の重みや第3の重みを第2の重みや第4の重みよりも大きい値にしてもよい。また、これ以外にも、情報提供装置10は、対象コンテンツの配信先となる利用者の各種デモグラフィック属性やサイコグラフィック属性、購買履歴、検索履歴、各種コンテンツの閲覧履歴、利用者が選択した要約コンテンツの履歴等に応じて、任意の重みが採用可能である。
また、情報提供装置10は、このような合成モデルSM1が採用する各種の重みを学習してもよい。例えば、情報提供装置10は、処理モデルM1が要約画像や要約文章を適切に出力するように第1デコーダーD1や第2デコーダーD2の接続係数を修正する際に、合成モデルSMが採用する重み、すなわち、合成モデルSMの接続係数を修正してもよい。この際、情報提供装置10は、要約データを選択した利用者の属性に応じて、合成モデルSMの接続係数を修正してもよく、要約データを選択しなかった利用者の属性に応じて、合成モデルSMの接続係数を修正してもよい。
また、情報提供装置10は、利用者の属性と合成モデルSMが採用する重みとの間の関係性を所定のモデル(以下、「重みモデル」と記載する。)に学習させてもよい。このような場合、情報提供装置10は、配信コンテンツの要約コンテンツを生成する際に、配信コンテンツの閲覧を所望する利用者の属性に応じて、重みモデルから合成モデルSMが採用する重みの値を算出する。そして、情報提供装置10は、処理モデルM1が有する合成モデルSM1に算出された重みの値を設定した上で、要約データを生成してもよい。
このように、情報提供装置10は、画像が有する情報をより重視した形で合成情報を生成してもよい。このように、情報提供装置10は、対応コンテンツの出力先となる利用者の属性に応じた合成態様で、特徴情報を合成した合成情報を生成してもよく、特徴情報を線形結合した情報から、対応コンテンツの出力態様に応じた合成情報を生成する合成モデルSM1を用いてもよい。
〔1−9.その他〕
また、情報提供装置10は、任意の形状の要約画像を生成するように、処理モデルM1の学習を行ってよい。例えば、情報提供装置10は、利用者の属性や画像の属性、本文の内容等に応じて、四角形、三角形、丸型等の任意の形状の要約画像を生成するように、処理モデルM1の学習を行ってもよい。また、情報提供装置10は、配信コンテンツに複数の画像が含まれる場合、各画像のうち注目度が高い領域や本文との関係性が高い範囲をそれぞれ抽出し、抽出した範囲をパッチワークのように合成した画像を要約画像として生成するように、処理モデルM1の学習を行ってもよい。
例えば、情報提供装置10は、本文が人物に関連する内容であれば、画像のうち、本文で言及される人物の顔が撮影されている範囲であって、正方形の範囲を抽出するように、処理モデルM1の学習を行ってもよい。また、情報提供装置10は、本文が車に関連する内容であり、画像に車が撮影されている場合は、車が撮影された長方形の範囲を抽出するように、処理モデルM1の学習を行ってもよい。
また、情報提供装置10は、エンコーダーやデコーダーの構成を、処理対象となる入力情報の種別に応じて変えてもよい。例えば、情報提供装置10は、第1エンコーダーE1および第1デコーダーD1をCNNで構成し、第2エンコーダーE2および第2デコーダーD2をRNNで構成してもよい。
〔2.情報提供装置の構成〕
以下、上記した学習処理を実現する情報提供装置10が有する機能構成の一例について説明する。図2は、実施形態に係る情報提供装置の構成例を示す図である。図2に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100やデータサーバ50との間で情報の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、学習データデータベース31、およびモデルデータベース32を記憶する。
学習データデータベース31には、学習データが登録される。例えば、図3は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図3に示すように、学習データデータベース31には、「学習データID(Identifier)」、「画像データ」、「本文データ」、「要約画像データ」、および「要約本文データ」といった項目を有する情報が登録される。
なお、図3に示す情報のうち「画像データ」および「本文データ」は、図1に示す「学習データ」に対応し、「要約画像データ」および「要約本文データ」は、図1に示す「要約データ」に対応する。なお、図3に示す情報以外にも、学習データデータベース31には、学習データや要約データを閲覧した利用者に関する各種の情報が登録されていてもよい。なお、図3に示す例では、「画像#1」、「本文#1」、「要約画像#1」、「要約本文#1」といった概念的な情報を記載したが、実際には、各種の画像データやテキストデータが登録されることとなる。
ここで、「学習データID」とは、学習データを識別するための識別子である。また、「画像データ」とは、学習データに含まれる画像に関するデータである。また、「本文データ」とは、学習データに含まれるテキストのデータである。また「要約画像データ」とは、要約画像として表示される画像のデータである。また、「要約本文データ」とは、要約本文となるテキストのデータである。
例えば、図3に示す例では、学習データID「ID#1」、画像データ「画像#1」、本文データ「本文#1」、要約画像データ「要約画像#1」、および要約本文データ「要約本文#1」といった情報が対応付けて登録されている。このような情報は、例えば、学習データID「ID#1」が示す学習データに、画像データ「画像#1」が示す画像と、本文データ「本文#1」が示す本文とが含まれており、このような学習データの要約である要約データに、要約画像データ「要約画像#1」が示す要約画像、および要約本文データ「要約本文#1」が示す要約本文が含まれる旨を示す。
図2に戻り、説明を続ける。モデルデータベース32には、処理モデルM1として、処理モデルM1に含まれる各種のモデルのデータが登録される。例えば、図4は、実施形態に係るモデルデータベースに登録される情報の一例を示す図である。図4に示す例では、モデルデータベース32には、「モデルID」、「モデル種別」、および「モデルデータ」といった情報が登録されている。
ここで、「モデルID」とは、各モデルを識別するための情報である。また、「モデル種別」とは、対応付けられた「モデルID」が示すモデルが、中間モデルであるか、エンコーダーであるか、デコーダーであるか、合成モデルであるかを示す情報である。また、「モデルデータ」とは、対応付けられた「モデルID」が示すモデルのデータであり、例えば、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報である。
例えば、図4に示す例では、モデルID「モデル#1」、モデル種別「中間モデルMM1」、およびモデルデータ「モデルデータ#1」といった情報が対応付けて登録されている。このような情報は、例えば、モデルID「モデル#1」が示すモデルの種別が「中間モデルMM1」であり、そのモデルのデータが「モデルデータ#1」である旨を示す。なお、図4に示す例では、「モデル#1」、「中間モデルMM1」、「モデルデータ#1」といった概念的な情報を記載したが、実際には、モデルを識別するための文字列、モデルの種別を示す文字列、およびモデルの構造や接続係数を示す文字列や数値等が登録されることとなる。
ここで、モデルデータベース32には、処理モデルM1として、第1中間モデルMM1、第2中間モデルMM2、第1エンコーダーE1、第2エンコーダーE2、合成モデルSM1、第1デコーダーD1、および第2デコーダーD2の情報が登録される。このような処理モデルM1は、それぞれ異なる種別の情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重み(すなわち、接続係数)とに基づく演算を行うことにより、各入力情報と対応する複数の出力情報であって、それぞれ異なる種別の出力情報を示す値を出力層から出力するよう、コンピュータを機能させるためのモデルである。
なお、処理モデルM1がDNN等、1つまたは複数の中間層を有するニューラルネットワークで実現される場合、処理モデルM1が含む第1要素とは、入力層または中間層が有するいずれかのノードと見做すことができ、第2要素とは、第1要素と対応するノードから値が伝達されるノード、すなわち、次段のノードと対応し、第1要素の重みとは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重み、すなわち、接続係数である。
情報提供装置10は、処理モデルM1を用いて、出力情報を生成する。より具体的には、処理モデルM1は、情報提供装置10に対し、それぞれ異なる種別の入力情報が入力された場合に、各入力情報ごとに特徴情報を個別に生成し、生成した特徴情報を合成した合成情報を生成し、生成した合成情報から、それぞれ異なる種別の出力情報をそれぞれ個別に生成する一連の処理を実行させるモデルである。
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
また、制御部40は、記憶部30に記憶される処理モデルM1に従った情報処理により、処理モデルM1の入力層に入力された複数の入力情報に対し、処理モデルM1が有する係数(すなわち、処理モデルM1が学習した各種の特徴に対応する係数)に基づく演算を行い、処理モデルM1の出力層から、それぞれ異なる種別の入力情報に対応する情報であって、それぞれ異なる種別の出力情報を出力する。
なお、上記例では、処理モデルM1が、それぞれ異なる種別の複数の入力情報が入力された場合に、各入力情報の要約等、各入力情報と対応する出力情報を出力するモデルである例を示した。しかし、実施形態に係る処理モデルM1は、処理モデルM1にデータの入出力を繰り返すことで得られる結果に基づいて生成される他のモデルであってもよい。例えば、処理モデルM1は、ある入力情報を入力した際に、出力情報を出力する他のモデルであって、処理モデルM1がその入力情報から生成する出力情報と同じ出力情報を出力するよう学習が行われたモデルであってもよい。
また、情報提供装置10がGAN(Generative Adversarial Networks)を用いた学習処理を行う場合、モデル123は、GANの一部を構成するモデルであってもよい。
図2に示すように、制御部40は、学習データ取得部41、学習部42、出力情報取得部43、生成部44、および提供部45を有する。学習データ取得部41は、学習データとして、それぞれ異なる種別の情報の組を取得する。例えば、学習データ取得部41は、学習データとして、配信コンテンツに含まれる画像と本文との組をデータサーバ50から取得するとともに、要約データとして、その配信コンテンツに含まれる画像の要約である要約画像と、本文の要約である本文要約とを取得する。そして、学習データ取得部41は、取得した各データを対応付けて学習データデータベース31に登録する。
学習部42は、処理モデルM1の学習を行い、学習した処理モデルM1をモデルデータベース32に格納する。より具体的には、学習部42は、学習データを処理モデルM1に入力した際に、処理モデルM1が要約データを出力するように、処理モデルM1が有する各モデルの接続係数の設定を行う。すなわち、学習部42は、それぞれ種別が異なる入力情報を入力した際に、処理モデルM1がそれぞれ種別が異なる出力情報であって、各入力情報に対応する出力情報を出力するように、処理モデルM1の学習を行う。
例えば、学習部42は、処理モデルM1が有する入力層のノードであって、入力情報と対応する特徴を学習したエンコーダーEの入力層と対応するノードに入力情報を入力し、各中間層を辿って処理モデルM1の出力層までデータを伝播させることで、出力情報を出力させる。そして、学習部42は、処理モデルM1が実際に出力した出力情報と、入力情報から出力が期待される出力情報との差に基づいて、処理モデルM1の接続係数を修正する。例えば、学習部42は、バックプロパゲーション等の手法を用いて、接続係数の修正を行ってもよい。この際、学習部42は、例えば、各出力情報が有するトピックの比較結果に応じて、接続係数の修正を行ってもよい。
なお、学習部42は、いかなる学習アルゴリズムを用いて処理モデルM1を学習してもよい。例えば、学習部42は、ニューラルネットワーク、サポートベクターマシン(support vector machine)、クラスタリング、強化学習等の学習アルゴリズムを用いて、処理モデルM1に含まれる各モデルを学習してよい。
ここで、学習部42は、それぞれ異なる種別の入力情報から入力情報が有する特徴を示す特徴情報を生成する複数のエンコーダーE1、E2と、複数のエンコーダーE1、E2が生成した特徴情報を合成した合成情報を生成する合成モデルSM1と、合成モデルSM1が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数のデコーダーD1、D2とを含む処理モデルM1の学習を行う。例えば、学習部42は、複数の入力情報から、関連する内容の出力情報を出力するように、すなわち、出力情報のトピックを揃えるように処理モデルM1の学習を行う。
例えば、学習部42は、学習データに含まれる画像や文章等といった入力情報を、処理モデルM1が有する入力層にそれぞれ入力した際に、処理モデルM1が出力する各種の出力情報が、要約画像や要約文章等といった入力情報の要約となるように、処理モデルM1が有する各モデルの接続係数を修正することで、処理モデルM1の学習を行う。より具体的には、学習部42は、配信コンテンツに含まれる複数の入力情報を、処理モデルM1が有する各モデルのうち、入力情報の特徴を示す特徴情報を生成するエンコーダーに入力することで、各入力情報が有する特徴を示す特徴情報を取得する。
また、学習部42は、複数のデコーダーD1、D2として、合成情報からそれぞれ異なる種別の出力情報を生成する複数のデコーダーD1、D2であって、それぞれ異なるエンコーダーE1、E2に入力される入力情報と同じ種別の出力情報を出力する複数のデコーダーD1、D2を含む処理モデルM1の学習を行う。また、学習部42は、それぞれ異なる種別の情報が有する特徴を学習した複数のエンコーダーE1、E2と、それぞれ異なるエンコーダーE1、E2と同じ種別の情報が有する特徴を学習した複数のデコーダーD1、D2とを用いる。すなわち、学習部42は、それぞれ異なる種別の情報が有する特徴を学習したエンコーダーとデコーダーとの組に含まれるエンコーダーとデコーダーとを含む処理モデルM1の学習を行う。
例えば、学習部42は、画像が有する特徴を学習した第1エンコーダーE1と第1デコーダーD1との組、および、文章が有する特徴を学習した第2エンコーダーE2と第2デコーダーD2との組とを含む処理モデルM1の学習を行う。より具体的には、学習部42は、少なくとも、画像が有する特徴を示す特徴情報を生成する第1エンコーダーE1と、テキストが有する特徴を示す特徴情報を生成する第2エンコーダーE2と、第1エンコーダーおよび第2エンコーダーが生成した特徴情報を合成した合成情報を生成する合成モデルSM1と、合成情報から画像に対応する出力情報を生成する第1デコーダーD1と、合成情報からテキストに対応する出力情報を生成する第2デコーダーD2とを含む処理モデルM1の学習を行う。
また、学習部42は、処理モデルM1が出力する出力情報を用いて生成されるコンテンツの出力態様に応じた合成態様で、各エンコーダーEが生成した特徴情報を合成した合成情報を生成する合成モデルSM1を含む処理モデルM1の学習を行う。例えば、学習部42は、コンテンツの出力先となる利用者の属性に応じた合成態様で、各エンコーダーEが生成した特徴情報を合成した合成情報を生成する合成モデルSMを含む処理モデルM1の学習を行う。より具体的な例を挙げると、学習部42は、各エンコーダーEが生成した特徴情報を線形結合した結合情報から、コンテンツの出力態様に応じた合成情報を生成する合成モデルSM1を含む処理モデルM1の学習を行う。
また、学習部42は、入力情報の種別に応じた構造を有し、入力された情報が有する特徴を示す中間表現を生成する複数の中間モデルMM1、MM2と、各中間モデルMM1、MM2が生成した中間表現から特徴情報を生成する複数のエンコーダーE1、E2を用いる。例えば、学習部42は、入力情報の種別が画像である第1中間モデルMM1については、畳み込みニューラルネットワークを採用し、入力情報の種別がテキストである第2中間モデルについては、再帰型ニューラルネットワークを採用した処理モデルM1の学習を行う。
出力情報取得部43は、それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数のエンコーダーE1、E2と、複数のエンコーダーE1、E2が生成した特徴情報を合成した合成情報を生成する合成モデルSM1と、合成モデルSM1が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数のデコーダーD1、D2とを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する。すなわち、出力情報取得部43は、上述した学習部42によって学習が行われた処理モデルM1を用いて、それぞれ異なる種別の出力情報を取得する。
例えば、出力情報取得部43は、データサーバ50から、要約コンテンツの生成対象となる配信コンテンツを取得する。このような場合、出力情報取得部43は、配信コンテンツに含まれる画像と本文とを抽出する。また、出力情報取得部43は、処理モデルM1が有する第1中間モデルMM1の入力層に、配信コンテンツの画像を示す情報を入力し、処理モデルM1が有する第2中間モデルMM2の入力層に、配信コンテンツの本文を示す情報を入力する。そして、出力情報取得部43は、接続係数を考慮しながら、処理モデルM1が有する各ノードが出力した値を、そのノードと接続された他のノードに対して順次伝達されることで、処理モデルM1に要約画像と要約文章とを生成させる。
生成部44は、複数の出力情報から、所定のコンテンツに対応する対応コンテンツを生成する。例えば、生成部44は、配信コンテンツに含まれる画像と本文とから、要約画像と要約本文とが取得された場合は、要約画像と要約本文とを含む要約コンテンツを生成する。
提供部45は、生成した対応コンテンツを利用者に対して提供する。例えば、提供部45は、端末装置100からの要求に応じて、生成部44が生成した要約コンテンツを配信する。なお、提供部45は、生成部44が生成した要約コンテンツをデータサーバ50に提供し、データサーバ50から配信させてもよい。
〔3.処理モデルの学習について〕
次に、図5を用いて、情報提供装置10が学習させる処理モデルの一例について説明する。図5は、実施形態に係る情報提供装置が学習させる処理モデルの構造の一例を説明する図である。例えば、図5に示す例では、配信コンテンツには、画像、タイトル、第1本文等、各種の情報が含まれているものとする。このような場合、情報提供装置10は、配信コンテンツに含まれる情報の種別ごとに独立して特徴情報を生成する処理モデルM1を生成する。
例えば、図5に示す例では、処理モデルM1は、画像から中間表現を生成する第1中間モデルMM1および画像の中間表現から特徴情報を生成する第1エンコーダーE1とを有する部分モデルPM1を有する。また、処理モデルM1は、タイトルから中間表現を生成する第2中間モデルMM2およびタイトルの中間表現から特徴情報を生成する第2エンコーダーE2とを有する部分モデルPM2を有する。また、処理モデルM1は、第1本文から中間表現を生成する第3中間モデルMM3および第1本文の中間表現から特徴情報を生成する第3エンコーダーE3とを有する部分モデルPM3を有する。なお、処理モデルM1は、図5に示す部分モデルPM1〜PM3以外にも、配信コンテンツに含まれる情報の種別ごとに部分モデルを有するものとする。
また、処理モデルM1は、各部分モデルPM1〜PM3等が生成した特徴情報を合成した合成情報を生成する合成モデルSM1を有する。また、処理モデルM1は、合成情報から画像に対応する要約画像を生成する第1デコーダーD1、合成情報からタイトルに対応する要約タイトルを生成する第2デコーダーD2、および合成情報から第1本文に対応する要約第1本文を生成する第3デコーダーD3を有する。すなわち、処理モデルM1は、配信コンテンツに含まれる情報の種別ごとにエンコーダーとデコーダーとの組を有する。
情報提供装置10は、このような構成を有する処理モデルM1に対して配信コンテンツに含まれる各種の情報を入力情報として入力することで、各種の情報に対応する要約を出力情報として取得する。そして、情報提供装置10は、取得した出力情報を用いて、入力した配信コンテンツに対応する要約コンテンツを得ることができる。
なお、情報提供装置10は、各種のパラメーターを用いて、合成モデルSM1による合成態様を変化させてもよい。例えば、情報提供装置10は、要約を生成する日時や配信コンテンツの配信日等を示す日時情報、配信先となる利用者の属性を示す属性情報等のパラメーターに基づいて、合成モデルSM1が各特徴情報から合成情報を生成する際の合成態様を制御してもよい。このような処理の結果、情報提供装置10は、配信日時や利用者の属性に応じた出力情報を得ることができる。
なお、このようなパラメーターの値は、学習時において各モデルの接続係数を修正する際に、合わせて学習されてもよい。また、パラメータは、合成モデルSM1の入力とするのではなく、入力情報の一つとして処理モデルM1が有する入力層に入力されてもよい。すなわち、情報提供装置10は、入力情報の種別ごとに独立して特徴情報を生成し、生成した特徴情報を合成した合成情報を生成し、生成した合成情報から出力情報を種別ごとに独立して生成するのであれば、任意の情報を付加的に反映させる構造を有する処理モデルM1を生成してよい。
〔4.情報提供装置の処理フロー〕
次に、図6、図7を用いて、情報提供装置10が実行する学習処理および生成処理の手順の一例について説明する。図6は、実施形態に係る情報提供装置が実行する学習処理の流れの一例を示すフローチャートである。図7は、実施形態に係る情報提供装置が実行する生成処理の流れの一例を示すフローチャートである。
まず、図6を用いて、情報提供装置10が実行する学習処理の流れの一例について説明する。まず、情報提供装置10は、エンコーダーおよびデコーダーの組であって、それぞれ異なる情報の特徴を学習した組を取得する(ステップS101)。続いて、情報提供装置10は、各エンコーダーEの出力を、各エンコーダーEの出力を合成する合成モデルSM1に入力し、合成モデルSM1の出力、すなわち合成情報を、各デコーダーDに入力する処理モデルM1を構成する(ステップS102)。そして、情報提供装置10は、各エンコーダーEに、同一のコンテンツに含まれる情報であって、それぞれ異なる種別の情報を入力した際に、各デコーダーDが、それぞれ対応する種別の情報の要約を出力するように、モデルの学習を行い(ステップS103)、学習処理を終了する。
次に、図7を用いて、情報提供装置10が実行する生成処理の流れの一例について説明する。まず、情報提供装置10は、要約の作成対象となるコンテンツ、すなわち、配信コンテンツを受付ける(ステップS201)。このような場合、情報提供装置10は、配信コンテンツから処理モデルM1に含まれる各エンコーダーEに入力する種別の情報を抽出する(ステップS202)。そして、情報提供装置10は、抽出した情報を処理モデルM1に入力することで、各情報の要約を取得する(ステップS203)。その後、情報提供装置10は、取得した要約を用いて、配信コンテンツの要約である要約コンテンツを生成し、生成した要約コンテンツを配信し(ステップS204)、処理を終了する。
〔5.変形例〕
上記では、情報提供装置10による学習処理および生成処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する学習処理および生成処理のバリエーションについて説明する。
〔5−1.装置構成〕
情報提供装置10は、任意の数の端末装置100と通信可能に接続されていてもよく、任意の数のデータサーバ50と通信可能に接続されていてもよい。また、情報提供装置10は、端末装置100と情報のやり取りを行うフロントエンドサーバと、各種の処理を実行するバックエンドサーバとにより実現されてもよい。このような場合、フロントエンドサーバには、図2に示す提供部45が配置され、バックエンドサーバには、図2に示す学習データ取得部41、学習部42、出力情報取得部43、および生成部44が含まれることとなる。
また、情報提供装置10は、例えば、図2に示す学習データ取得部41および学習部42を有し、学習処理を実行する学習サーバと、図2に示す出力情報取得部43および生成部44を有し、生成処理を実行する生成サーバと、図2に示す提供部45を有し、生成サーバが生成した情報を利用者に提供する提供サーバとが協調して動作することにより、実現されてもよい。また、記憶部30に登録された学習データデータベース31およびモデルデータベース32は、外部のストレージサーバによって管理されていてもよい。
〔5−2.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔6.プログラム〕
また、上述した実施形態に係る情報提供装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムまたはデータ(例えば、処理モデルM1)を実行することにより、制御部40の機能を実現する。コンピュータ1000の演算装置1030は、これらのプログラムまたはデータ(例えば、処理モデルM1)を一次記憶装置1040から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
〔7.効果〕
上述したように、情報提供装置10は、学習データとして、それぞれ異なる種別の情報の組を取得する。そして、情報提供装置10は、学習データを入力情報とした際に、その学習データと対応する出力情報を出力するように、それぞれ異なる種別の入力情報からその入力情報が有する特徴を示す特徴情報を生成する複数のエンコーダーEと、その複数のエンコーダーEが生成した特徴情報を合成した合成情報を生成する合成モデルSM1と、合成モデルSM1が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数のデコーダーDとを含む処理モデルM1の学習を行う。
上述した処理モデルM1は、従来のDNNと比較して、学習に要する時間や計算リソースを削減することができる。この結果、情報提供装置10は、学習データが有する関係性の学習を容易にすることができる。
また、情報提供装置10は、複数のデコーダーDとして、合成情報からそれぞれ異なる種別の出力情報を生成する複数のデコーダーDであって、それぞれ異なるエンコーダーEに入力される入力情報と同じ種別の出力情報を出力する複数のデコーダーDを学習する。また、情報提供装置10は、それぞれ異なる種別の情報が有する特徴を学習した複数のエンコーダーEと、それぞれ異なるエンコーダーEと同じ種別の情報が有する特徴を学習した複数のデコーダーDとを学習する。このため、情報提供装置10は、入力情報に対応する出力情報を適切に出力する処理モデルM1を学習できる。
また、情報提供装置10は、少なくとも、画像が有する特徴を示す特徴情報を生成する第1エンコーダーE1と、テキストが有する特徴を示す特徴情報を生成する第2エンコーダーE2と、第1エンコーダーE1および第2エンコーダーE2が生成した特徴情報を合成した合成情報を生成する合成器と、その合成情報から画像に対応する出力情報を生成する第1デコーダーD1と、その合成情報からテキストに対応する出力情報を生成する第2デコーダーD2とを学習する。このため、情報提供装置10は、画像およびテキストと対応する出力情報を適切に出力する処理モデルM1を学習できる。
また、情報提供装置10は、出力情報の出力態様に応じた合成態様で、各エンコーダーEが生成した特徴情報を合成した合成情報を生成する合成モデルSM1を学習する。例えば、情報提供装置10は、対応コンテンツの出力先となる利用者の属性に応じた合成態様で、各エンコーダーEが生成した特徴情報を合成した合成情報を生成する合成モデルSM1を学習する。また、例えば、情報提供装置10は、各エンコーダーEが生成した特徴情報を線形結合した結合情報から、対応コンテンツの出力態様に応じた合成情報を生成する合成モデルSM1を学習する。このため、情報提供装置10は、対応コンテンツの出力態様を考慮した出力情報を生成する処理モデルM1を学習できる。
また、情報提供装置10は、入力情報の種別に応じた構造を有し、入力された情報が有する特徴を示す中間表現を生成する複数の中間モデルMM1、MM2と、中間モデルMM1、MM2が生成した中間表現から特徴情報を生成する複数のエンコーダーEを学習する。例えば、情報提供装置10は、テキストである入力情報の中間表現を生成する第2中間モデルMM2として、再帰型ニューラルネットワークであるモデルを学習し、画像である入力情報の中間表現を生成する第1中間モデルMM1として、畳み込みニューラルネットワークであるモデルを学習する。このため、情報提供装置10は、より適切に入力情報の特徴情報を抽出する処理モデルM1を学習できる。
また、情報提供装置10は、エンコーダーEとデコーダーDとの組であって、それぞれ異なる種別の情報が有する特徴を学習した複数の組に含まれる複数のエンコーダーEと複数のデコーダーDとの学習を行う。すなわち、情報提供装置10は、同じ種別の情報を処理するエンコーダーEとデコーダーDとの組ごとにプレトレーニングを行う。このため、情報提供装置10は、処理モデルM1の精度を容易に向上させることができる。
また、情報提供装置10は、所定のコンテンツに含まれる複数の入力情報から、関連する内容の出力情報を出力するように、エンコーダーE、合成モデルSM1、およびエンコーダーEの少なくともいずれか一つの学習を行う。このため、情報提供装置10は、トピックがそろっている出力情報を生成する処理モデルM1を学習することができる。
また、情報提供装置10は、それぞれ異なる種別の入力情報から入力情報が有する特徴を示す特徴情報を生成する複数のエンコーダーEと、複数のエンコーダーEが生成した特徴情報を合成した合成情報を生成する合成モデルSM1と、合成モデルSM1が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数のデコーダーDとを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する。すなわち、情報提供装置10は、処理モデルM1を用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する。そして、情報提供装置10は、取得した複数の出力情報から、所定のコンテンツに対応する対応コンテンツを生成する。このため、情報提供装置10は、トピックがそろっている出力情報に基づいた対応コンテンツを提供することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、配信部は、配信手段や配信回路に読み替えることができる。
10 情報提供装置
20 通信部
30 記憶部
31 学習データデータベース
32 モデルデータベース
40 制御部
41 学習データ取得部
42 学習部
43 出力情報取得部
44 生成部
45 提供部
50 データサーバ
100 端末装置
本発明は、学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラに関する。
以下に、本願に係る学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。

Claims (17)

  1. それぞれ異なる種別の複数の入力情報を取得する取得部と、
    前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習部と
    を有することを特徴とする学習装置。
  2. 前記学習部は、前記複数の復号器として、前記合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器であって、それぞれ異なる符号化器に入力される入力情報と同じ種別の出力情報を出力する前記複数の復号器を学習する
    ことを特徴とする請求項1に記載の学習装置。
  3. 前記学習部は、それぞれ異なる種別の情報が有する特徴を学習した前記複数の符号化器と、それぞれ異なる符号化器と同じ種別の情報が有する特徴を学習した前記複数の復号器とを学習する
    ことを特徴とする請求項1または2に記載の学習装置。
  4. 前記学習部は、少なくとも、画像が有する特徴を示す特徴情報を生成する第1符号化器と、テキストが有する特徴を示す特徴情報を生成する第2符号化器と、第1符号化器および第2符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、当該合成情報から前記画像に対応する出力情報を生成する第1復号器と、当該合成情報から前記テキストに対応する出力情報を生成する第2復号器とを学習する
    ことを特徴とする請求項1〜3のうちいずれか1つに記載の学習装置。
  5. 前記学習部は、前記出力情報の出力態様に応じた合成態様で、各符号化器が生成した特徴情報を合成した合成情報を生成する合成器を学習する
    ことを特徴とする請求項1〜4のうちいずれか1つに記載の学習装置。
  6. 前記学習部は、前記出力情報の出力先となる利用者の属性に応じた合成態様で、各符号化器が生成した特徴情報を合成した合成情報を生成する合成器を学習する
    ことを特徴とする請求項5に記載の学習装置。
  7. 前記学習部は、各符号化器が生成した特徴情報を線形結合した結合情報から、前記出力情報の出力態様に応じた合成情報を生成する合成器を学習する
    ことを特徴とする請求項5または6に記載の学習装置。
  8. 前記学習部は、入力情報の種別に応じた構造を有し、入力された情報が有する特徴を示す中間表現を生成する複数のモデルと、各モデルが生成した中間表現から前記特徴情報を生成する前記複数の符号化器を学習する
    ことを特徴とする請求項1〜7のうちいずれか1つに記載の学習装置。
  9. 前記学習部は、テキストである入力情報の中間表現を生成するモデルとして、再帰型ニューラルネットワークであるモデルを学習し、画像である入力情報の中間表現を生成するモデルとして、畳み込みニューラルネットワークであるモデルを学習する
    ことを特徴とする請求項8に記載の学習装置。
  10. 前記学習部は、符号化器と復号器との組であって、それぞれ異なる種別の情報が有する特徴を学習した複数の組に含まれる複数の符号化器と複数の復号器との学習を行う
    ことを特徴とする請求項1〜9のうちいずれか1つに記載の学習装置。
  11. 前記学習部は、所定のコンテンツに含まれる複数の入力情報から、関連する内容の出力情報を出力するように、前記符号化器、前記合成器、および前記符号化器の少なくともいずれか一つの学習を行う
    ことを特徴とする請求項1〜10のうちいずれか1つに記載の学習装置。
  12. それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器とを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する取得部と、
    前記取得部が取得した複数の出力情報から、前記所定のコンテンツに対応する対応コンテンツを生成する生成部と
    を有することを特徴とする生成装置。
  13. 学習装置が実行する学習方法であって、
    それぞれ異なる種別の複数の入力情報を取得する取得工程と、
    前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習工程と
    を含むことを特徴とする学習方法。
  14. 生成装置が実行する生成方法であって、
    それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器とを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する取得工程と、
    前記取得された複数の出力情報から、前記所定のコンテンツに対応する対応コンテンツを生成する生成工程と
    を含むことを特徴とする生成方法。
  15. それぞれ異なる種別の複数の入力情報を取得する取得手順と、
    前記複数の入力情報を入力した際に、各入力情報と対応する複数の出力情報を出力するように、前記入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報からそれぞれ異なる種別の出力情報を生成する複数の復号器とを含むモデルの学習を行う学習手順と
    をコンピュータに実行させるための学習プログラム。
  16. それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、当該複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器とを用いて、所定のコンテンツに含まれる複数の入力情報に対応する複数の出力情報を取得する取得手順と、
    前記取得された複数の出力情報から、前記所定のコンテンツに対応する対応コンテンツを生成する生成手順と
    をコンピュータに実行させるための生成プログラム。
  17. それぞれ異なる種別の入力情報から当該入力情報が有する特徴を示す特徴情報を生成する複数の符号化器と、
    前記複数の符号化器が生成した特徴情報を合成した合成情報を生成する合成器と、
    前記合成器が生成した合成情報から、それぞれ異なる種別の入力情報に対応する出力情報を生成する複数の復号器と
    を含むことを特徴とするモデル。
JP2017126710A 2017-06-28 2017-06-28 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム Active JP6355800B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017126710A JP6355800B1 (ja) 2017-06-28 2017-06-28 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム
US15/996,968 US20190005399A1 (en) 2017-06-28 2018-06-04 Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017126710A JP6355800B1 (ja) 2017-06-28 2017-06-28 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム

Publications (2)

Publication Number Publication Date
JP6355800B1 JP6355800B1 (ja) 2018-07-11
JP2019008742A true JP2019008742A (ja) 2019-01-17

Family

ID=62843776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017126710A Active JP6355800B1 (ja) 2017-06-28 2017-06-28 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム

Country Status (2)

Country Link
US (1) US20190005399A1 (ja)
JP (1) JP6355800B1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020262316A1 (ja) * 2019-06-25 2020-12-30 日本電信電話株式会社 データ分析システム、データ分析方法及びプログラム
JPWO2021020198A1 (ja) * 2019-07-26 2021-02-04
JP2021099791A (ja) * 2019-11-20 2021-07-01 楽天グループ株式会社 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム
US11101583B2 (en) 2018-03-14 2021-08-24 Omron Corporation Terminal block displaying connection state
JP2022144345A (ja) * 2021-03-18 2022-10-03 ヤフー株式会社 生成装置、生成方法および生成プログラム
JP2022549352A (ja) * 2019-09-27 2022-11-24 グーグル エルエルシー 構造化埋め込みを生成するようにニューラルネットワークをトレーニングすること
US11604964B2 (en) 2018-12-18 2023-03-14 Samsung Electronics Co., Ltd. Recognizer, object recognition method, learning apparatus, and learning method for domain adaptation
WO2023166746A1 (ja) * 2022-03-04 2023-09-07 日本電信電話株式会社 要約生成装置、要約モデル学習装置、要約生成方法、要約モデル学習方法、及びプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187865B2 (ja) * 2018-07-25 2022-12-13 富士フイルムビジネスイノベーション株式会社 コンテンツ評価装置
EP3726521A4 (en) * 2018-10-19 2021-11-10 Sony Group Corporation INFORMATION PROCESSING METHODS, INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING PROGRAM
US11431688B2 (en) 2019-12-13 2022-08-30 TripleBlind, Inc. Systems and methods for providing a modified loss function in federated-split learning
US11973743B2 (en) 2019-12-13 2024-04-30 TripleBlind, Inc. Systems and methods for providing a systemic error in artificial intelligence algorithms
US11582203B2 (en) 2019-12-13 2023-02-14 TripleBlind, Inc. Systems and methods for encrypting data and algorithms
KR20210089347A (ko) * 2020-01-08 2021-07-16 엘지전자 주식회사 음성 인식 장치 및 음성데이터를 학습하는 방법
CN111444367B (zh) * 2020-03-24 2022-10-14 哈尔滨工程大学 一种基于全局与局部注意力机制的图像标题生成方法
KR102421488B1 (ko) * 2020-04-08 2022-07-15 엘지전자 주식회사 복수개의 출력 레이어를 이용한 인공 지능 장치 및 방법
US20220051092A1 (en) * 2020-08-14 2022-02-17 Capital One Services, Llc System and methods for translating error messages
US11507693B2 (en) 2020-11-20 2022-11-22 TripleBlind, Inc. Systems and methods for providing a blind de-identification of privacy data
US11625377B1 (en) 2022-02-03 2023-04-11 TripleBlind, Inc. Systems and methods for enabling two parties to find an intersection between private data sets without learning anything other than the intersection of the datasets

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0296467A (ja) * 1988-09-30 1990-04-09 Nec Corp 文書蓄積装置
JP2005309427A (ja) * 2000-12-12 2005-11-04 Nec Corp オーディオビジュアルサマリ作成方法および装置
JP2012038240A (ja) * 2010-08-11 2012-02-23 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US20170132526A1 (en) * 2015-11-11 2017-05-11 Adobe Systems Incorporated Structured Knowledge Modeling and Extraction from Images

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10762283B2 (en) * 2015-11-20 2020-09-01 Adobe Inc. Multimedia document summarization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0296467A (ja) * 1988-09-30 1990-04-09 Nec Corp 文書蓄積装置
JP2005309427A (ja) * 2000-12-12 2005-11-04 Nec Corp オーディオビジュアルサマリ作成方法および装置
JP2012038240A (ja) * 2010-08-11 2012-02-23 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US20170132526A1 (en) * 2015-11-11 2017-05-11 Adobe Systems Incorporated Structured Knowledge Modeling and Extraction from Images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
張 よう、外6名: "ニュース文と画像内容の一致性を考慮した複数ニュース映像の要約", 電子情報通信学会技術研究報告, vol. 115, no. 495, JPN6017050548, 29 February 2016 (2016-02-29), JP, pages 67 - 72, ISSN: 0003714591 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11101583B2 (en) 2018-03-14 2021-08-24 Omron Corporation Terminal block displaying connection state
US11604964B2 (en) 2018-12-18 2023-03-14 Samsung Electronics Co., Ltd. Recognizer, object recognition method, learning apparatus, and learning method for domain adaptation
WO2020262316A1 (ja) * 2019-06-25 2020-12-30 日本電信電話株式会社 データ分析システム、データ分析方法及びプログラム
JP2021005170A (ja) * 2019-06-25 2021-01-14 日本電信電話株式会社 データ分析システム、データ分析方法及びプログラム
JP7275903B2 (ja) 2019-06-25 2023-05-18 日本電信電話株式会社 データ分析システム、データ分析方法及びプログラム
JPWO2021020198A1 (ja) * 2019-07-26 2021-02-04
WO2021020198A1 (ja) * 2019-07-26 2021-02-04 富士フイルム株式会社 情報処理装置、プログラム、学習済みモデル、診断支援装置、学習装置及び予測モデルの生成方法
JP2022549352A (ja) * 2019-09-27 2022-11-24 グーグル エルエルシー 構造化埋め込みを生成するようにニューラルネットワークをトレーニングすること
JP7383802B2 (ja) 2019-09-27 2023-11-20 グーグル エルエルシー 構造化埋め込みを生成するようにニューラルネットワークをトレーニングすること
JP2021099791A (ja) * 2019-11-20 2021-07-01 楽天グループ株式会社 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム
JP2022144345A (ja) * 2021-03-18 2022-10-03 ヤフー株式会社 生成装置、生成方法および生成プログラム
WO2023166746A1 (ja) * 2022-03-04 2023-09-07 日本電信電話株式会社 要約生成装置、要約モデル学習装置、要約生成方法、要約モデル学習方法、及びプログラム

Also Published As

Publication number Publication date
JP6355800B1 (ja) 2018-07-11
US20190005399A1 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
JP6355800B1 (ja) 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム
US11803730B2 (en) Webinterface presentation using artificial neural networks
JP6523498B1 (ja) 学習装置、学習方法および学習プログラム
CN110688528B (zh) 生成视频的分类信息的方法、装置、电子设备和介质
CN111712832A (zh) 使用机器学习的自动图像校正
US20180322188A1 (en) Automatic conversation creator for news
CN111800671B (zh) 用于对齐段落和视频的方法和装置
JP2020521995A (ja) 代替インタフェースでのプレゼンテーションのための電子会話の解析
US20190095530A1 (en) Tag relationship modeling and prediction
JP6151404B1 (ja) 学習装置、学習方法および学習プログラム
JP5961320B2 (ja) ソーシャル・メデイアにおけるユーザの分類方法、コンピュータ・プログラム及びコンピュータ
US10581772B2 (en) Information processing method, information processing apparatus, and recording medium having program recorded thereon
JP2022529178A (ja) 人工知能推奨モデルの特徴処理方法、装置、電子機器、及びコンピュータプログラム
JP2020174338A (ja) 情報を生成するための方法、装置、サーバー、コンピュータ可読記憶媒体およびコンピュータプログラム
JP7337172B2 (ja) 音声パケット推薦方法、装置、電子機器およびプログラム
US20190354533A1 (en) Information processing device, information processing method, and non-transitory computer-readable recording medium
JP2017199383A (ja) モデル
JP6975610B2 (ja) 学習装置および学習方法
US20220318653A1 (en) Social media content recommendation
US20190080354A1 (en) Location prediction based on tag data
JP2019021218A (ja) 学習装置、プログラムパラメータ、学習方法およびモデル
JP7113000B2 (ja) 映像を生成するための方法および装置
KR20230065339A (ko) 모델 데이터 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 매체
JP6979899B2 (ja) 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム
JP2020004054A (ja) 出力装置、出力方法および出力プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

R150 Certificate of patent or registration of utility model

Ref document number: 6355800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250