JP2019053558A - 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル - Google Patents

学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル Download PDF

Info

Publication number
JP2019053558A
JP2019053558A JP2017177718A JP2017177718A JP2019053558A JP 2019053558 A JP2019053558 A JP 2019053558A JP 2017177718 A JP2017177718 A JP 2017177718A JP 2017177718 A JP2017177718 A JP 2017177718A JP 2019053558 A JP2019053558 A JP 2019053558A
Authority
JP
Japan
Prior art keywords
model
learning
summary information
evaluation value
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017177718A
Other languages
English (en)
Inventor
毅司 増山
Takeshi Masuyama
毅司 増山
一真 村尾
Kazuma Murao
一真 村尾
隼人 小林
Hayato Kobayashi
隼人 小林
村上 直也
Naoya Murakami
直也 村上
小林 健
Takeshi Kobayashi
健 小林
太一 谷塚
Taichi Tanizuka
太一 谷塚
立 日暮
Ritsu Higure
立 日暮
学 明神
Manabu Myojin
学 明神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017177718A priority Critical patent/JP2019053558A/ja
Publication of JP2019053558A publication Critical patent/JP2019053558A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザに対する興味を効果的に高めることができる要約情報を生成すること。【解決手段】本願にかかる学習装置は、取得部と、学習部とを有する。取得部は、文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて生成された要約情報を取得する。学習部は、取得部により取得された要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値に基づいて、第1のモデルを学習する。【選択図】図3

Description

本発明の実施形態は、学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデルに関する。
近年、インターネットの飛躍的な普及に伴い、ネットワークを介して様々なコンテンツの提供が盛んに行われている。また、ユーザにより適したコンテンツを提供する技術が知られている。
例えば、特許文献1では、サーバから提供される任意のコンテンツの表示スタイルをユーザの嗜好に合わせてパーソナライズ化する技術が提案されている。
特開2013−77240号公報
しかしながら、上記の従来技術では、必ずしもユーザに対する興味を効果的に高めることができる要約情報を生成することができるとは限らない。例えば、上記の従来技術では、端末から要求があったコンテンツをサーバから取得し、取得したコンテンツに対して嗜好データに対応する部分をパーソナライズ化し、パーソナライズ化されたコンテンツと取得したコンテンツを切り替えて端末に送信する。
このように、上記の従来技術は、ユーザの嗜好に合わせてコンテンツをパーソナライズ化するものに過ぎず、文字情報から要約情報を生成するものではない。したがって、上記の従来技術では、必ずしもユーザに対する興味を効果的に高めることができる要約情報を生成することができるとは限らない。
本願は、上記に鑑みてなされたものであって、ユーザに対する興味を効果的に高めることができる要約情報を生成することができる学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデルを提供することを目的とする。
本願にかかる学習装置は、文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて生成された要約情報を取得する取得部と、前記取得部により取得された要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値に基づいて、第1のモデルを学習する学習部とを有することを特徴とする。
実施形態の一態様によれば、ユーザに対する興味を効果的に高めることができる要約情報を生成することができるといった効果を奏する。
図1は、実施形態にかかる学習処理の一例を示す図である。 図2は、実施形態にかかる学習処理システムの構成例を示す図である。 図3は、実施形態にかかる学習装置の構成例を示す図である。 図4は、実施形態にかかる編集情報記憶部の一例を示す図である。 図5は、実施形態にかかる評価情報記憶部の一例を示す図である。 図6は、実施形態にかかるコンテンツ記憶部の一例を示す図である。 図7は、実施形態にかかるモデル情報記憶部の一例を示す図である。 図8は、実施形態にかかるキーワード記憶部の一例を示す図である。 図9は、実施形態にかかるユーザ情報記憶部の一例を示す図である。 図10は、強化学習にかかる学習処理を模式的に示す図である。 図11は、実施形態にかかる学習装置による学習処理手順を示すフローチャートである。 図12は、実施形態にかかる学習装置による配信処理手順を示すフローチャートである。 図13は、学習装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願にかかる学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデルが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.学習処理〕
まず、図1を用いて、実施形態にかかる学習処理の一例について説明する。図1は、実施形態にかかる学習処理の一例を示す図である。実施形態にかかる学習処理は、図1に示す学習装置100によって行われる。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1に示す例においては、端末装置10がタッチパネル機能を有するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。また、図1に示す端末装置10は、ユーザU1によって利用されるものとする。
学習装置100は、ユーザに対してタイトルを含む記事コンテンツを配信するサービスを行うサーバ装置である。例えば、学習装置100は、記事コンテンツの本文(以下、「記事本文」とする)が要約された文章を、記事コンテンツのタイトルとして、このタイトルの一覧をユーザに提示する。このような状態において、ユーザがタイトルの一覧の中から特定のタイトルを選択した場合に、学習装置100は、選択されたタイトルに対応する記事本文をユーザに対して配信する。
このようなことから、本実施形態では、タイトルは要約情報の一例に相当する。また、タイトルに対応する記事本文は、文字情報の一例に相当する。なお、文字情報は、必ずしも記事コンテンツの本文である必要はなく、記事コンテンツ以外のコンテンツ(例えば、広告コンテンツ)の本文であってもよい。また、タイトルは、「見出し」や「トピックス」と言い換えることができる。
ここで、学習装置100が以下に示す学習処理を行ううえでの前提について説明する。記事本文がユーザに効果的に閲覧されるには、まず、タイトルがユーザの興味を引き付けるものでなければならない。したがって、まず、どのようなタイトルがよりユーザの興味を引き付けるものであるかを学習し分析する必要がある。一例を示すと、どのようなキーワードを含むタイトルがよりユーザの興味を引き付けるものであるかを学習し分析する必要がある。
このため、実施形態にかかる学習装置100は、文字情報と当該文字情報に対応する要約情報とに基づいて、第1のモデルを学習する。具体的には、学習装置100は、所定の文字情報が入力された場合に、入力された文字情報に対応する要約情報を出力として生成する第1のモデルを学習する。ここで、第1のモデルを用いて生成される要約情報は、ユーザの興味を引き付けるものであるとは限らない。したがって、学習装置100は、所定の要約情報と、この要約情報を評価する評価値とに基づき学習された第2のモデルを用いて予測された評価値であって、第1のモデルを用いて生成された要約情報に対応する評価値に基づいて、第1のモデルを学習する。具体的には、学習装置100は、第1のモデルを用いて生成された要約情報と、この要約情報を評価する評価値とに基づき学習された第2のモデルを用いて予測された評価値に基づいて、第1にモデルをより強化する強化学習を行う。
これにより、実施形態にかかる学習装置100は、評価値の高い、すなわちユーザの興味を引き付け易い要約情報を生成可能なモデルを学習することができる。なお、以下の実施形態では、第1のモデルを「要約生成モデル」と表記する場合がある。また、第2のモデルを「評価値予測モデル」と表記する場合がある。
また、以下の実施形態では、要約情報を評価する評価値として、ユーザの閲覧に関する評価値を用いる。ユーザの閲覧に関する評価値とは、例えば、要約情報がユーザによって選択される確率(クリック率(CTR:Crick Through Rate))である。また、ユーザの閲覧に関する評価値は、要約情報または要約情報に対応する文字情報がユーザによって閲覧された回数(PV:Page View)であってもよい。以下では、実施形態にかかる学習処理の一例について説明する。
まず、学習装置100は、図1に示すように、編集情報記憶部121を有する。編集情報記憶部121は、これまでにユーザに配信された記事コンテンツを記憶する記憶部である。例えば、編集情報記憶部121は、これまでにユーザに配信された記事コンテンツとして、記事本文とタイトルとの組合せを記憶する。編集情報記憶部121に記憶されるタイトルは、記事本文に基づき人手(例えば、所定の編集者)によって作製されたものである。図1の例では、編集情報記憶部121は、記事本文nw1と記事本文nw1から作成されたタイトルtl1とを対応付けて記憶する。また、編集情報記憶部121は、記事本文nw2と記事本文nw2から作成されたタイトルtl2とを対応付けて記憶する。また、編集情報記憶部121は、記事本文nw3と記事本文nw3から作成されたタイトルtl3とを対応付けて記憶する。編集情報記憶部121に記憶されるこれらの情報を総称して記事コンテンツAT11とする。
また、学習装置100は、図1に示すように、評価情報記憶部122を有する。評価情報記憶部122は、編集情報記憶部121に記憶される各記事コンテンツが配信された場合における当該記事コンテンツに対する評価値を記憶する記憶部である。例えば、評価情報記憶部122は、タイトルに対する評価値としてCTRを記憶する。図1の例では、評価情報記憶部122は、タイトルtl1のCTRとして「0.02」を記憶する。また、評価情報記憶部122は、タイトルtl2のCTRとして「0.01」を記憶する。また、評価情報記憶部122は、タイトルtl3のCTRとして「0.15」を記憶する。評価情報記憶部122に記憶されるこれらの情報を総称して評価値NO11とする。
このような状態において、学習装置100は、記事コンテンツAT11を用いた学習により、記事コンテンツAT11から要約生成モデルm1を生成する(ステップS1)。例えば、学習装置100は、記事コンテンツAT11に示す情報を編集情報記憶部121から取得し、要約生成モデルm1を学習する。すなわち、学習装置100は、各タイトル(人手で作成されたもの)と、当該タイトルに対応する記事本文との組合せを正例として、例えばタイトルが作成されてないタイトル未知の記事本文であって、未配信の記事本文が入力された場合に、入力された記事本文に対応するタイトルを出力する要約生成モデルm1を学習する。例えば、学習装置100は、リカレントニューラルネットワーク等の種々の従来技術を適宜用いて、要約生成モデルm1を学習する。
また、学習装置100は、評価値NO11を用いた学習により、評価値NO11から評価値予測モデルm2を生成する(ステップS2)。例えば、学習装置100は、評価値NO11に示す情報を評価情報記憶部122から取得し、評価値予測モデルm2を学習する。すなわち、学習装置100は、各タイトル(人手で作成されたもの)と、当該タイトルに対応するCTRとの組合せを正例として、例えば評価値未知のタイトルであって、未配信のタイトルが入力された場合に、入力されたタイトルに対応するCTRを出力する評価値予測モデルm2を学習する。なお、後述するが、学習装置100は、要約情報(タイトル)および評価値(CTR)以外にも、例えば所定のキーワードに基づく情報を素性として用いることにより、評価値予測モデルm2を学習する場合がある。
さて、以上のようにして各モデルを生成すると、次に、学習装置100は、要約生成モデルm1を強化する強化学習を行う。例えば、学習装置100は、要約情報を評価値予測モデルm2に入力した場合に、より評価値が高くなるような要約情報を生成するよう要約生成モデルm1を強化学習する。例えば、学習装置100は、要約生成モデルm1から生成された要約情報を評価値予測モデルm2に入力することにより予測された評価値を、要約生成モデルm1にフィードバックすることにより、要約生成モデルm1を強化学習する。この点について、一例を用いて説明する。
図1に示すように、学習装置100は、さらにコンテンツ記憶部123を有する。コンテンツ記憶部123は、今後配信予定の記事コンテンツのうち記事本文を記憶する記憶部である。図1の例では、コンテンツ記憶部123は、記事本文NW1、NW2およびNW3を記憶する。そして、この時点では、コンテンツ記憶部123に記憶される各記事本文について、タイトルは生成されていないものとする。
このような状態において、学習装置100は、例えば、記事本文NW1を要約生成モデルm1に入力することにより(ステップS3)、記事本文NW1に対応するタイトルを生成する(ステップS4)。要約生成モデルm1を用いた場合、1つの記事本文から複数のタイトルが生成される場合がある。例えば、図1に示すように、学習装置100は、記事本文NW1を要約生成モデルm1に入力することにより、タイトルTL11、TL12およびTL13といったように3つのタイトルを生成する。
次に、学習装置100は、タイトルTL11〜TL13それぞれを評価値予測モデルm2に入力することにより(ステップS5)、タイトルTL11〜TL13それぞれに対応するCTRを予測する(ステップS6)。図1の例では、学習装置100は、タイトルTL11に対応するCTRとしてCTR「X11」、タイトルTL12に対応するCTRとしてCTR「X12」、タイトルTL13に対応するCTRとしてCTR「X13」を予測したものとする。なお、ここではCTRとして「X11」といった概念記号を用いているが、実際には、CTRは数値で表される。
このような状態において、学習装置100は、CTR「X11」、CTR「X12」、CTR「X13」それぞれを要約生成モデルm1にフィードバックすることにより(ステップS7)、よりCTRが高くなるようなタイトルとはどのようなタイトルであるかを学習する。タイトルは、複数の単語から構成される文章であるが、学習装置100は、どのような単語の組合せであればよりCTRが高くなるかを学習する。また、学習装置100は、1つの単語の前後にどのような単語が存在すればよりCTRが高くなるかを学習する。このようにして、学習装置100は、より評価値が高くなるようなタイトルを生成するよう要約生成モデルm1を強化学習する。例えば、CTRの最大値が「0.1」であることが判明している場合には、学習装置100は、CTRが「0.1」に近付くようなタイトルを生成するよう要約生成モデルm1を強化学習する。
また、不図示であるが、学習装置100は、同様の処理を記事本文NW2およびNW3についても行う。例えば、学習装置100は、記事本文NW2を要約生成モデルm1に入力することにより、記事本文NW2に対応するタイトルを生成し、生成したタイトルを評価値予測モデルm2に入力することにより、評価値を得る。そして、学習装置100は、この評価値を要約生成モデルm1にフィードバックすることにより、要約生成モデルm1を強化学習する。
以上のように要約生成モデルm1に対して強化学習を行うことにより、学習装置100は、強化学習後のモデルとして、例えば、強化モデルM1を生成する(ステップS8)。強化モデルM1は、要約生成モデルm1が強化学習されることにより得られたモデルである。また、強化モデルM1も要約生成モデルm1と同様に、文字情報が入力された場合に、入力された文字情報に対応する要約情報を出力として生成するモデルである。
ここで、学習装置100は、端末装置10からコンテンツの配信要求を受信したとする(ステップS9)。かかるコンテンツは、各種の記事本文に対応するタイトルが一覧(トピックス一覧ともいえる)表示されるウェブページP1であるものとする。
学習装置100は、配信要求を受信すると、強化学習によって得られた強化モデルM1を用いて、コンテンツ記憶部123に記憶される記事本文に対応するタイトルを生成する。図1の例では、学習装置100は、記事本文NW1〜NW3を強化モデルM1に入力することにより(ステップS10)、記事本文NW1〜NW3それぞれに対応するタイトルを生成する(ステップS11)。図1の例では、学習装置100が、記事本文NW1に対応するタイトルTL111として、「○○道 トラック衝突 ケガ人多数」を生成した例を示す。また、学習装置100が、記事本文NW2に対応するタイトルTL211として、「ドラマD 第15話は放送休止」を生成した例を示す。また、学習装置100が、記事本文NW3に対応するタイトルTL311として、「柔道快進撃 軽量級全て制覇」を生成した例を示す。
なお、学習装置100は、記事本文NW1〜NW3それぞれに対応するタイトルを複数ずつ生成する場合がある。例えば、図1の例では、学習装置100は、1つの記事本文NW1から1つのタイトルTL111を生成しているが、強化モデルM1による生成アルゴリズムにより、複数のタイトルを生成する場合がある。記事本文NW2およびNW3についても同様のことがいえる。かかる場合、後述するが、学習装置100は、各記事本文に対応するタイトルの中から所定のタイトルを抽出する処理を行う。
説明を元に戻す。学習装置100は、タイトルTL111、TL211およびTL311を含むタイトル一覧TL1が表示されるウェブページP1を生成し、生成したウェブページP1を端末装置10に配信する(ステップS12)。端末装置10は、学習装置100から受信したウェブページP1を表示画面に表示する。図1に示すように、端末装置10によって表示されるウェブページP1には、タイトルTL111、TL211およびTL311を含むタイトル一覧TL1が表示される。
さて、これまで説明してきたように、実施形態にかかる学習装置100は、文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて、要約情報を生成する。そして、学習装置100は、文字情報に対応する要約情報と当該要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値とに基づき学習された第2のモデルを用いて、第1のモデルから生成された要約情報の評価値を予測する。そして、学習装置100は、予測した評価値に基づいて、第1のモデルに対して強化学習を行う。
これにより、実施形態にかかる学習装置100は、文字情報からユーザに適した要約情報を高精度に生成することができる。また、学習装置100は、ユーザに対する興味をより高めることができるような要約情報を生成することができるため、結果的に、要約情報に対応する文字情報(例えば、記事コンテンツの本文)を効果的に閲覧させることができる。さらに、学習装置100は、人手によらずとも、動的に高精度な要約情報を生成することができる。
〔2.学習処理システムの構成〕
次に、図2を用いて、実施形態にかかる学習処理システムの構成について説明する。図2は、実施形態にかかる学習処理システム1の構成例を示す図である。図2に示すように、学習処理システム1は、端末装置10と、学習装置100とを含む。端末装置10と、学習装置100とは、ネットワークNを介して有線または無線により通信可能に接続される。なお、図1に示す学習処理システム1には、複数台の端末装置10や、複数台の学習装置100が含まれてもよい。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。例えば、端末装置10は、ユーザ操作に応じて、学習装置100から各種コンテンツを取得し、取得したコンテンツを表示画面に表示する。
図1で説明した通り、本実施形態では、コンテンツは、ニュース新着記事、経済関連の記事、エンターテイメント関連の記事、スポーツ関連の記事等の各種の記事が掲載される記事コンテンツであるものとする。しかし本実施形態において学習装置100の処理対象となるコンテンツは、記事コンテンツに限定されるものではなく、例えば、広告コンテンツや個人のブログ等も対象とすることができる。
学習装置100は、図1で説明した学習処理を行うサーバ装置である。また、学習装置100は、強化学習によって得られたモデルを用いて生成した要約情報(例えば、タイトル)が一覧表示されるコンテンツを記事コンテンツの本文に対応するトピックス一覧として、ユーザに配信する。
〔3.学習装置の構成〕
次に、図3を用いて、実施形態にかかる学習装置100について説明する。図3は、実施形態にかかる学習装置100の構成例を示す図である。図3に示すように、学習装置100は、通信部110と、記憶部120と、制御部130とを有する。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、編集情報記憶部121と、評価情報記憶部122と、コンテンツ記憶部123と、モデル情報記憶部124と、キーワード記憶部125と、ユーザ情報記憶部126とを有する。
(編集情報記憶部121について)
編集情報記憶部121は、これまでにユーザに配信された記事コンテンツを記憶する記憶部である。例えば、編集情報記憶部121は、これまでにユーザに配信された記事コンテンツとして、記事本文とタイトルとの組合せを記憶する。編集情報記憶部121に記憶されるタイトルは、記事本文に基づき人手(例えば、所定の編集者)によって作製されたものである。ここで、図4に実施形態にかかる編集情報記憶部121の一例を示す。図4の例では、編集情報記憶部121は、「編集ID」、「記事本文」、「タイトル」といった項目を有する。
「編集ID」は、これまでに配信された記事コンテンツであって、記事コンテンツに含まれる「記事本文」と「タイトル」との組合せを識別する識別情報を示す。「記事本文」は、これまでに配信された記事コンテンツの具体的な内容を示す文章のテキストデータである。「タイトル」は、「記事本文」が要約された文章のテキストデータである。すなわち、図4の例では、編集ID「ED1」によって示される記事コンテンツ(例えば、「記事コンテンツED1」と言い換えることができる)は、記事本文「nw1」と、タイトル「tl1」とから構成されることを示す。なお、図4の例では、記事本文「nw1」、タイトル「tl1」といったように概念的な記号を用いているが、実際には、記事本文「nw1」に対応するテキストデータ、タイトル「tl1」に対応するテキストデータが記憶される。
(評価値情報記憶部122について)
評価値情報記憶部122は、編集情報記憶部121に記憶される各記事コンテンツが配信された場合における当該記事コンテンツに対する評価値を記憶する記憶部である。例えば、評価値情報記憶部122は、タイトルに対する評価値として、タイトルがユーザに選択されたことによる選択率(CTR)を記憶する。ここで、図5に実施形態にかかる評価情報記憶部122の一例を示す。図5の例では、評価値情報記憶部122は、「編集ID」、「評価値(CTR)」といった項目を有する。また、図5の例では、「評価値(CTR)」は、例えば、「10代」、「20代」...、「男性」、「女性」...といったユーザの属性情報(ユーザ属性)毎に記憶される。このようなことから、実施形態にかかる評価情報記憶部122は、各ユーザ属性に対応する評価値(CTR)、当該ユーザ属性毎に記憶する。
「編集ID」は、編集情報記憶部121に記憶される「記事本文」と「タイトル」との組合せを識別する識別情報を示す。つまり、評価値情報記憶部122に記憶される「編集ID」は、編集情報記憶部121に記憶される「編集ID」と同一である。「評価値(CTR)」に含まれる項目のうち、「10代」は、ユーザ属性「10代」のユーザにおける記事コンテンツのCTRを示す。また、「評価値(CTR)」に含まれる項目のうち、ユーザ属性「男性」は、「男性」のユーザにおける記事コンテンツのCTRを示す。
すなわち、図5の例では、編集ID「ED1」によって示される記事コンテンツ(記事コンテンツED1)に対する「10代」ユーザのCTRは「0.01」である例を示す。なお、評価値情報記憶部122は、CTR以外の評価値を記憶してもよい。例えば、評価値情報記憶部122は、タイトルまたはタイトルに対応する記事本文がユーザによって閲覧された回数(PV)を編集IDに対応付けて記憶してもよい。
(コンテンツ記憶部123について)
コンテンツ記憶部123は、今後配信予定の記事コンテンツに対応する記事本文を記憶する記憶部である。ここで、図6に実施形態にかかるコンテンツ記憶部123の一例を示す。図6の例では、コンテンツ記憶部123は、「コンテンツID」、「記事本文」といった項目を有する。
「コンテンツID」は、今後配信予定の記事コンテンツであって、記事コンテンツに含まれる「記事本文」を識別する識別情報を示す。「記事本文」は、今後配信予定の記事コンテンツの具体的な内容を示す文章のテキストデータである。
すなわち、図6の例では、コンテンツID「CO1」によって示される記事コンテンツ(例えば、「記事コンテンツCO1」と言い換えることができる)は、記事本文は「NW1」を含むことを示す。なお、コンテンツ記憶部123は、例えば、コンテンツ記憶部123に記憶される「記事本文」が、強化学習後のモデルに入力されることにより、タイトルが生成された場合には、生成されたタイトルをさらに記憶してもよい。
(モデル情報記憶部124について)
モデル情報記憶部124は、学習されたモデルを記憶する記憶部である。例えば、モデル情報記憶部124は、所定の要約情報と、この所定の要約情報を評価する評価値とに基づき学習された第2のモデルを記憶する。言い換えれば、モデル情報記憶部124は、要約情報が入力された場合に、入力された要約情報に対応する評価値を予測値として出力する第2のモデルを記憶する。また、モデル情報記憶部124は、ユーザ属性毎に学習された第2のモデルを記憶する。また、モデル情報記憶部124は、第2のモデルを用いて予測された評価値であって、第1のモデルを用いて生成された要約情報に対応する評価値に基づき強化学習された学習後の第1のモデル(強化モデル)を記憶する。ここで、図7に実施形態にかかるモデル情報記憶部124の一例を示す。図7の例では、モデル情報記憶部124には、第2のモデルを記憶するモデル情報記憶部124(a)と、強化モデルを記憶するモデル情報記憶部124(b)とが含まれる。
モデル情報記憶部124(a)は、「ユーザ属性」、「モデル」といった項目を有する。「ユーザ属性」は、「10代男性」といったように、年代と性別を組み合わせたユーザ属性を示す。なお、「ユーザ属性」は、「10代男性」といったように、複数の属性情報が組合わされるのではなく、年代毎、性別毎に別々であってもよい。「モデル」は、対応する「ユーザ属性」に応じて生成された第2のモデルを示す。
すなわち、図7の例では、ユーザ属性「10代男性」に対応する情報(例えば、要約情報および評価値)に基づき生成された第2のモデルが「m2a」であることを示す。
モデル情報記憶部124(b)は、「ユーザ属性」、「モデル」といった項目を有する。「ユーザ属性」は、「10代男性」といったように、年代と性別を組み合わせたユーザ属性を示す。なお、「ユーザ属性」は、「10代男性」といったように、複数の属性情報が組合わされるのではなく、年代毎、性別毎に別々であってもよい。「モデル」は、対応する「ユーザ属性」に応じて生成された強化モデルを示す。
すなわち、図7の例では、ユーザ属性「10代男性」に対応する情報(例えば、要約情報および評価値)に基づき生成された強化モデルが「M1a」であることを示す。
(キーワード記憶部125について)
キーワード記憶部125は、これまでに配信された記事コンテンツに含まれるキーワードと、当該キーワードがインターネット上で使用された使用頻度を記憶する記憶部である。本実施形態では、キーワード記憶部125は、キーワードがインターネット上で使用された使用頻度として、キーワードがインターネット上で使用された使用回数を記憶するものとする。ここで、図8に実施形態にかかるキーワード記憶部125の一例を示す。図8の例では、「キーワード」、「使用頻度(回)」といった項目を有する。また、図8の例では、「使用頻度(回)」は、例えば、「10代」、「20代」...、「男性」、「女性」...といったユーザの属性情報(ユーザ属性)毎に記憶される。このようなことから、実施形態にかかるキーワード記憶部125は、各ユーザ属性に対応する使用頻度(回)を、当該ユーザ属性毎に記憶する。
「キーワード」は、これまでに配信された記事コンテンツに含まれていたキーワードを示す。なお、「キーワード」は、これまでに配信された記事コンテンツに含まれていたものではなく、例えば、インターネット上の各種コンテンツに含まれていたものであってもよい。「使用頻度(回)」は、対応する「キーワード」がインターネット上で使用された使用回数を示す。例えば、「使用頻度(回)」は、検索クエリとして使用された使用回数を示す。
すなわち、図8の例では、キーワード「KW1」が、ユーザ属性「10代」のユーザによって、所定期間中に「360回」使用されたことを示す。
(ユーザ情報記憶部126について)
ユーザ情報記憶部126は、ユーザに関する各種情報を記憶する記憶部である。ここで、図9に実施形態にかかるユーザ情報記憶部126の一例を示す。図9の例では、ユーザ情報記憶部126は、「ユーザID」、「年齢」、「性別」、「住所」といった項目を有する。「ユーザID」は、ユーザまたは端末装置10を識別する識別情報を示す。「年齢」は、ユーザの年齢を示す。「性別」は、ユーザの性別を示す。「住所」は、ユーザの居住地を示す。
(制御部130について)
図3に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、学習装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、第1学習部132と、第2学習部133と、生成部134と、抽出部135と、配信部136とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131について)
取得部131は、各種情報を取得する。例えば、取得部131は、記憶部120から情報を取得する。例えば、取得部131は、第1学習部132によって学習が行われる際に、編集情報記憶部121から学習に用いる情報を取得する。また、取得部131は、第2学習部133によって学習が行われる際に、評価値情報記憶部122から学習に用いる情報を取得する。
また、取得部131は、第1学習部132によって学習が行われる際に、文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて生成された要約情報を取得する。例えば、取得部131は、文字情報と当該文字情報に対応する要約情報との組合せのうち、所定のキーワードを含む文字情報と要約情報との組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得する。具体的には、取得部131は、所定のキーワードとして、ユーザによる使用頻度に基づくキーワードを含む組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得する。
例えば、取得部131は、文字情報と当該文字情報に対応する要約情報との組合せのうち、文字情報と当該文字情報に対応する要約情報の双方に所定のキーワードを含む組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得してもよい。また、取得部131は、文字情報と当該文字情報に対応する要約情報との組合せのうち、文字情報または当該文字情報に対応する要約情報のいずれか一方に、所定のキーワードを含む組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得してもよい。なお、ユーザによる使用頻度に基づくキーワードを含む文字情報とは、例えば、所定期間内での使用回数が所定回数より多いキーワードである。
また、取得部131は、モデル情報記憶部124からモデルを取得してもよい。例えば、取得部131は、モデル情報記憶部124から、第1学習部132、第2学習部133によって学習されたモデルを取得する。
(第1学習部132について)
第1学習部132は、各素性の重みを学習する。例えば、第1学習部132は、各種情報に基づいて、学習により第1のモデル(要約生成モデル)を生成する。例えば、第1学習部132は、文字情報と、当該文字情報に対応する要約情報とが対応付けられた情報により、第1のモデルを学習する。
図1の例では、取得部131は、記事コンテンツAT11に示す情報を編集情報記憶部121から取得する。例えば、取得部131は、記事本文と当該記事本文に対応するタイトルとの組合せのうち、記事本文と当該記事本文に対応するタイトルの双方に所定のキーワードを含む組合せ、あるいは、記事本文と当該記事本文に対応するタイトルとの組合せのうち、記事本文と当該記事本文に対応するタイトルのいずれか一方に、所定のキーワードを含む組合せを取得する。なお、取得部131は、所定のキーワードとして、ユーザによる使用頻度に基づくキーワードを含む組合せを取得することができる。例えば、取得部131は、所定期間内での使用回数が所定回数より多いキーワードを含む組合せを取得することができる。
このように、ユーザによる使用頻度に基づくキーワードを含む組合せを用いることで、学習装置100は、ユーザに対する興味を高めることができる要約情報を出力可能な第1のモデルを生成することができる。
例えば、取得部131は、キーワード記憶部125を参照することにより、所定期間内での使用回数が所定回数より多いキーワードを含む組合せを特定する。そして、取得部131は、特定した組み合わせを取得する。ここでは、説明を簡単にするために、取得部131は、記事本文nw1とタイトルtl1との組合せ、記事本文nw2とタイトルtl2との組合せ、記事本文nw3とタイトルtl3との組合せを取得したものとする。
このような状態において、第1学習部132は、取得部131により取得された情報を用いて、要約生成モデルm1を学習する。すなわち、第1学習部132は、各タイトル(人手で作成されたもの)と、当該タイトルに対応する記事本文との組合せを正例として、例えばタイトルが作成されてないタイトル未知の記事本文であって、未配信の記事本文が入力された場合に、入力された記事本文に対応するタイトルを出力する要約生成モデルm1を学習する。例えば、第1学習部132は、リカレントニューラルネットワーク等の種々の従来技術を適宜用いて、要約生成モデルm1を学習する。
このようなことから、第1のモデルは、文字情報と当該文字情報に対応する要約情報とに基づいて、入力された文字情報に対応する要約情報を出力するよう、コンピュータを機能させるためのモデルである。
例えば、第1学習部132は、以下のような疑似学習データを用いてモデルを学習してもよい。例えば、「A駅の人身事故でB線が遅延」を係り受け解析して、他の要素は「B線が遅延」にかかるので、統計情報などを加味して、係り受け木から必要なさそうな部分木をカットして「人身事故で山手線が遅延」などに要約した疑似学習データを用いる。例えば、このような疑似学習データは、種々の従来手法により生成することができる。そして、第1学習部132は、疑似学習データを用いて(ニューラルネットワーク)モデルを学習(プリトレーニング)した後、記事コンテンツAT11に示す情報等を用いて学習することにより、精度の高い要約生成モデルを生成することができる。
また、第1学習部132は、第1のモデルに対して強化学習を行うことにより、第1のモデルが強化された強化モデルを生成する。この手法については後述する。
(第2学習部133について)
第2学習部133は、各素性の重みを学習する。例えば、第2学習部133は、各種情報に基づいて、学習により第2のモデル(評価値予測モデル)を生成する。例えば、第2学習部133は、文字情報に対応する要約情報と、当該要約情報を評価する評価値であって当該要約情報に対するユーザの閲覧に関する評価値(例えば、CTR)とに基づいて、第2のモデルを生成する。より具体的には、第2学習部133は、文字情報に対応する要約情報と、当該要約情報に含まれるキーワードに対するユーザの使用頻度と、当該要約情報を評価する評価値とに基づいて、第2のモデルを生成する。
また、第2学習部133は、ユーザ属性毎に第2のモデルを学習することにより、各ユーザ属性に応じた第2のモデルを生成する。例えば、第2学習部133は、ユーザ属性「10代男性」に対応する第2のモデル、ユーザ属性「20代女性」に対応する第2のモデル、ユーザ属性「20代男性」に対応する第2のモデル、をそれぞれ生成する。
図1の例では、取得部131は、評価値NO11に示す情報を評価情報記憶部122から取得する。例えば、取得部131は、タイトルと当該タイトルに対応する評価値との組合せを評価情報記憶部122から取得する。例えば、このとき取得部131は、タイトルのうち、ユーザによる使用頻度に基づくキーワード(例えば、所定期間内での使用回数が所定回数より多いキーワード)を含むタイトルと、かかる使用頻度(使用回数)と、当該タイトルに対応する評価値との組合せを評価情報記憶部122から取得する。取得部131は、使用頻度(使用回数)については、キーワード記憶部125から取得する。ここでは、説明を簡単にするために、取得部131は、タイトルtl1とタイトルtl1に対応するCTRの組合せ、タイトルtl2とタイトルtl2に対応するCTRの組合せ、タイトルtl3とタイトルtl3に対応するCTRの組合せを取得したものとする。
このような状態において、第2学習部133は、例えば、ユーザ属性「10代男性」に対応する評価値予測モデルm2a(第2のモデルの一例)を学習する場合、各タイトルについて、各タイトルと、各タイトルに含まれるキーワードの使用回数と、各タイトルがユーザ属性「10代男性」を有するユーザに配信されたことによるCTRとの組合せを正例として、例えば、ユーザ属性「10代男性」に配信された場合の評価値が未知のタイトルであって、未配信のタイトルが入力された場合に、入力されたタイトルに対応するCTRを出力する評価値予測モデルm2aを学習する。
同様にして、第2学習部133は、例えば、ユーザ属性「10代女性」に対応する評価値予測モデルm2b(第2のモデルの一例)を学習する場合、各タイトルについて、各タイトルと、各タイトルに含まれるキーワードの使用回数と、各タイトルがユーザ属性「10代女性」を有するユーザに配信されたことによるCTRとの組合せを正例として、例えば、ユーザ属性「10代女性」に配信された場合の評価値が未知のタイトルであって、未配信のタイトルが入力された場合に、入力されたタイトルに対応するCTRを出力する評価値予測モデルm2bを学習する。
このようなことから、第2のモデルは、文字情報に対応する要約情報と当該要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値とに基づいて、入力された要約情報に対応する評価値を出力するよう、コンピュータを機能させるためのモデルである。
なお、第2学習部133は、上記の様に各ユーザ属性毎に第2のモデルを学習する場合、使用回数がより多いキーワードを含むタイトルほど、より高いCTRが予測されるように第2のモデルを学習してもよい。
(生成部134について)
生成部134は、第1のモデルおよび第2のモデルを用いて対象の情報を生成する。例えば、生成部134は、文字情報を第1のモデルの入力することにより、入力した文字情報に対応する要約情報を生成する。例えば、生成部134は、今後配信予定(未配信)の記事本文が取得部131によってコンテンツ記憶部123から取得された場合に、取得された記事本文を第1のモデルの入力することにより、入力した記事本文に対応する要約情報を生成する。また、生成部134は、第1のモデルを用いて生成した要約情報を第2のモデルに入力することにより、入力した要約情報に対応する評価値を生成する(予測する)。なお、このとき取得部131は、コンテンツ記憶部123に記憶される文字情報のうち、所定期間におけるユーザの使用回数が所定回数より多いキーワードを含む文字情報を取得してもよい。
また、生成部134は、強化学習により得られた強化モデルを用いて、要約情報を生成する。例えば、生成部134は、端末装置10からコンテンツ(図1の例では、ウェブページP1)の配信要求が受信された場合に、配信要求送信元のユーザのユーザ属性に対応する強化モデルを用いて、今後配信予定(未配信)の記事本文から記事本文に対応する要約情報を生成する。
(第1学習部132による強化学習ついて)
第1学習部132は、取得部131により取得された要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値に基づいて、既に生成されている第1のモデルに対して強化学習を行う。例えば、第1学習部132は、取得部131により取得された要約情報に対応する評価値として、ユーザ属性毎の評価値に基づいて、当該ユーザ属性毎に第1のモデルを強化学習する。この点について、一例を用いて説明する。
例えば、取得部131は、コンテンツ記憶部123から記事本文NW1、NW2、NW3(記事本文NW1〜NW3)を取得する。生成部134は、取得部131により取得された記事本文NW1〜NW3それぞれを要約生成モデルm1に入力することにより、記事本文NW1〜NW3それぞれに対応するタイトルを生成する。例えば、生成部134は、記事本文NW1に対応するタイトルとして、タイトルTL11、TL12、TL13(タイトルTL11〜TL13)を生成したものとする。このように、要約生成モデルm1を用いた場合、1つの記事本文から複数のタイトルが生成される場合がある。
次に、生成部134は、タイトルTL11〜TL13を各ユーザ属性に対応する評価値予測モデルに入力することにより、タイトルTL11〜TL13それぞれついて、ユーザ属性毎のCTRを予測する。例えば、生成部134は、ユーザ属性「10代男性」に対応する評価値予測モデルm2aに対して、タイトルTL11を入力することにより、タイトルTL11がユーザ属性「10代男性」を有するユーザに配信された場合におけるCTRを予測する。また、生成部134は、ユーザ属性「10代女性」に対応する評価値予測モデルm2bに対して、タイトルTL11を入力することにより、タイトルTL11がユーザ属性「10代女性」を有するユーザに配信された場合におけるCTRを予測する。
また、生成部134は、タイトルTL12、TL13についても同様に、ユーザ属性毎のCTRを予測する。また、生成部134が、記事本文NW1に対応するタイトルからユーザ属性毎のCTRを予測する例を挙げたが、生成部134は、記事本文NW2およびNW3について生成した各タイトルについても同様に、ユーザ属性に対応する評価値予測モデルを用いて、ユーザ属性毎のCTRを予測する。
このような状態において、第1学習部132は、生成部134により生成されたユーザ属性毎のCTRを要約生成モデルm1にフィードバックすることにより、よりCTRが高くなるようなタイトルとはどのようなタイトルであるかを学習する。タイトルは、複数の単語あるいは形態素から構成される文章であるが、第1学習部132は、どのような単語の組合せであればよりCTRが高くなるかを学習する。また、第1学習部132は、1つの単語の前後にどのような単語が存在すればよりCTRが高くなるかを学習する。このようにして、第1学習部132は、よりCTRが高くなるようなタイトルを生成するよう要約生成モデルm1を強化学習する。
より具体的には、第1学習部132は、ユーザ属性毎の情報を用いて、ユーザ属性毎によりCTRが高くなるようなタイトルを生成するよう要約生成モデルm1を強化学習する。そして、第1学習部132は、ユーザ属性毎の強化モデルを生成する。
例えば、第1学習部132は、ユーザ属性「10代男性」に対応する評価値予測モデルm2aから予測されたCTRに基づいて、ユーザ属性「10代男性」に対応する強化モデルM1aを生成する。また、第1学習部132は、ユーザ属性「10代女性」に対応する評価値予測モデルm2bから予測されたCTRに基づいて、ユーザ属性「10代女性」に対応する強化モデルM1bを生成する。
以下では、図10を用いて、強化学習についてより詳細に説明する。図10は、強化学習にかかる学習処理を模式的に示す図である。図10では、コンテンツ記憶部123に記憶される記事本文NW1を用いた強化学習を一例に挙げて説明する。
生成部134は、取得部131により取得された記事本文NW1を要約生成モデルm1に入力することにより、記事本文NW1に対応するタイトルを生成する。なお、記事本文NW1は、図10に示すように、「株式会社○○はM月D日、人工知能(AI)を活用したスマートフォン向けの配車アプリの実証実験を実用化へ向けて始めると発表した。」といった文章であるものとする。ここで、例えば、生成部134は、記事本文NW1に対応するタイトルとして、タイトルTL11、TL12、TL13(タイトルTL11〜TL13)を生成したものとする。図10の例では、タイトルTL11は「AI活用した配車 実用化へ実証実験」、タイトルTL12は「株式会社○○ 配車アプリの実証実験」、タイトルTL13は「AI活用した配車アプリの実用化」である。
次に、生成部134は、タイトルTL11〜TL13をユーザ属性「10代男性」に対応する評価値予測モデルm2aに対して入力することにより、タイトルTL11〜TL13それぞれがユーザ属性「10代男性」を有するユーザに配信された場合におけるCTRを予測する。図10の例では、生成部134は、タイトルTL11に対応するCTRとしてCTR「X11」、タイトルTL12に対応するCTRとしてCTR「X12」、タイトルTL13に対応するCTRとしてCTR「X13」を予測したものとする。
このような状態において、例えば、生成部134は、さらに記事本文NW1からタイトルを生成する。例えば、生成部134は、記事本文NW1に対して形態素解析を行い、形態解析によって得られた複数の単語を組み合わせることにより、タイトルを生成する。例えば、生成部134は、図10に示すようなタイトルTL14を生成する。また、生成部134は、タイトルTL14を評価値予測モデルm2aに入力することにより、タイトルTL14に対するCTRを予測する。図10の例では、生成部134は、タイトルTL14に対応するCTRとしてCTR「X14」を予測したものとする。
このように、第1学習部132は、生成部134に対してさらにタイトルを生成する処理を繰り返させることで、生成されたタイトルについて予測されたCTRを要約生成モデルm1にフィードバックする。そして、第1学習部132は、どのようなタイトルであればCTRが最大値に近付くか学習する。例えば、第1学習部132は、どのような単語をどのような順序で組み合わせることで、CTRが最大値に近付くか学習する。例えば、第1学習部132は、生成部134により生成されたタイトルのうち、予測されたCTRが所定値より高いCTRが予測されたタイトルについて、リカレントニューラルネットワークにおける報酬を与える。
なお、これまでの例では、学習装置100が、コンテンツ記憶部123に記憶されるコンテンツ、すなわち未配信のコンテンツについて予測された評価値を用いて強化学習を行う例を示した。しかし、学習装置100は、編集情報記憶部121に記憶されるコンテンツ、すなわちこれまでに配信されたコンテンツについて予測された評価値を用いて強化学習を行ってもよい。
(抽出部135について)
抽出部135は、第1学習部132により学習された第1のモデルを用いて生成された要約情報の中から所定の要約情報を配信対象の要約情報として抽出する、具体的には、抽出部135は、強化学習された第1のモデル(強化モデル)を用いて生成された要約情報の中から所定の要約情報を配信対象の要約情報として抽出する。
例えば、抽出部135は、第1のモデルを用いて生成された要約情報を、第2のモデルに適用することにより予測された評価値に基づいて、第1のモデルを用いて生成された要約情報の中から所定の要約情報を抽出する。例えば、抽出部135は、強化学習された第1のモデル(強化モデル)を用いて生成された要約情報を、第2のモデルに適用することにより予測された評価値に基づいて、強化モデルを用いて生成された要約情報の中から所定の要約情報を抽出する。
また、例えば、抽出部135は、第1のモデル(強化モデル)のうち要約情報が提供される対象ユーザのユーザ属性に応じた第1のモデルを用いて生成された要約情報を、第2のモデルのうち当該対象ユーザのユーザ属性に応じた第2のモデルに適用することにより予測された評価値に基づいて、当該対象ユーザのユーザ属性に応じた第1のモデル(強化モデル)を用いて生成された要約情報の中から所定の要約情報を抽出する。
また、抽出部135は、所定の要約情報として、第1のモデル(強化モデル)を用いて生成された要約情報のうち、第2のモデルに適用することにより予測された評価値がより高い要約情報を抽出する。また、抽出部135は、所定の要約情報として、第1のモデル(強化モデル)を用いて生成された要約情報のうち、使用頻度がより高いキーワードを含む要約情報を抽出する。
例えば、これまでの例の通り、学習装置100が、第1のモデル、ユーザ属性毎の第2のモデル、および、強化学習後の第1のモデルであってユーザ属性毎の第1のモデル(ユーザ属性毎の強化モデル)を生成済みであるものとする。このような状態において、学習装置100は、ユーザU1からコンテンツの配信要求を受信したものとする。例えば、学習装置100は、図1のように、ユーザU1からウェブページP1の配信要求を受信したものとする。
ここで、例えば、抽出部135は、ユーザ情報記憶部126を参照し、ユーザU1のユーザ属性を特定する。図9の例では、抽出部135は、ユーザU1のユーザ属性を「10代男性」と特定する。そして、抽出部135は、コンテンツ記憶部123から、例えば、全ての記事本文を取得し、取得した各記事本文をユーザ属性を「10代男性」に対応する強化モデルM1aに入力することにより、各記事本文に対応するタイトルを生成する。また、抽出部135は、生成された各タイトルをユーザ属性を「10代男性」に対応する評価値予測モデルm2aに入力することにより、各タイトルに対応するCTRを予測する。
例えば、タイトルを3つ抽出するよう予め決められているとすると、抽出部135は、CTRを予測した各タイトルの中から、CTRが高い上位3つのタイトルを配信対象として抽出する。また、抽出部135は、CTRを予測した各タイトルの中から、使用頻度がより高いキーワードとして、例えば、ユーザによる使用回数が所定回数より多いキーワードを含むタイトルを配信対象として抽出してもよい。また、抽出部135は、ユーザによる使用回数が所定回数より多いキーワードをより多く含むタイトルを優先的に配信対象として抽出してもよい。
また、抽出部135は、ユーザU1と同一または類似するユーザ属性を有するユーザによって使用されたキーワードのうち、使用回数がより多いキーワードを含むタイトルを抽出してもよい。なお、ここでは、抽出部135は、図1に示す通り、3つのタイトルとして、タイトルTL111、TL211、TL311を抽出したものとする。
(配信部136について)
配信部136は、コンテンツを配信する。具体的には、配信部136は、端末装置10から送信された配信要求に応じて、端末装置10にコンテンツを配信する。例えば、配信装置136は、配信対象のコンテンツを生成し、生成したコンテンツを端末装置10に配信する。
例えば、配信部136は、上記の通り、抽出部135によりタイトルTL111、TL211、TL311が抽出された場合には、これら3つのタイトルが一覧表示されるウェブページP1を生成する。そして、配信部136は、生成したウェブページP1を配信要求送信元の端末装置10に配信する。
〔4.処理手順(モデルの学習)〕
次に、図11を用いて、実施形態にかかる学習装置100が実行する学習処理の手順について説明する。図11は、実施形態にかかる学習装置100による学習処理手順を示すフローチャートである。
まず、学習装置100は、学習に用いる情報を取得する(ステップS101)。例えば、学習装置100は、学習に用いる情報として、これまでに配信されたコンテンツ(例えば、記事コンテンツ)に含まれる文字情報(例えば、記事本文)と、要約情報(例えば、タイトル)を取得する。次に、学習装置100は、第1のモデル(要約生成モデル)および第2のモデル(評価値予測モデル)を生成する(ステップS102)。例えば、学習装置100は、文字情報と当該文字情報に対応する要約情報とに基づいて、第1のモデルを生成する。また、学習装置100は、文字情報に対応する要約情報と当該要約情報を評価する評価値(例えば、CTR)とに基づいて、第2のモデルを生成する。
次に、学習装置100は、学習に用いる情報を取得する(ステップS103)。具体的には、学習装置100は、強化学習に用いる情報として、第1のモデルを用いて生成された要約情報を取得する。例えば、学習装置100は、未配信の文字情報を第1のモデルに適用することにより生成された要約情報を取得する。
そして、学習装置100は、強化学習により強化モデルを生成する(ステップS104)。例えば、学習装置100は、ステップS103で取得した要約情報を第2のモデルに適用することにより要約情報に対応する評価値を予測する。そして、学習装置100は、予測した評価値に基づいて、第1のモデルに対して強化学習を行うことにより、第1のモデルが強化された強化モデルを生成する。
〔5.処理手順(コンテンツ配信)〕
次に、図12を用いて、実施形態にかかる学習装置100が実行する配信処理の手順について説明する。図12は、実施形態にかかる学習装置100による配信処理手順を示すフローチャートである。
まず、学習装置100は、コンテンツの配信要求を受信したか否かを判定する(ステップS201)。学習装置100は、配信要求を受信していないと判定した場合には(ステップS201;No)、受信するまで待機する。一方、学習装置100は、配信要求を受信したと判定した場合には(ステップS201;Yes)、配信要求送信元のユーザのユーザ属性を特定する(ステップS202)。
次に、学習装置100は、ステップS202で特定したユーザ属性に応じた強化モデルを取得する(ステップS203)。次に、学習装置100は、取得した強化モデルを用いて、要約情報を生成する(ステップS204)。例えば、学習装置100は、未配信のコンテンツ(例えば、記事コンテンツ)に含まれる文字情報を強化モデルに適用することにより、要約情報を生成する。また、学習装置100は、生成した要約情報を第2のモデルに適用することにより、要約情報に対応する評価値を予測する。
このような状態において、学習装置100は、ステップS204で生成した要約情報の中から、配信対象の要約情報を抽出する(ステップS205)。そして、学習装置100は、抽出した要約情報を配信要求送信元の端末装置10に配信する(ステップS206)。
〔6.変形例〕
上記実施形態にかかる学習装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、学習装置100の他の実施形態について説明する。
〔6−1.評価値の実績値を用いた強化学習〕
上記実施形態では、学習装置100が、第1のモデルを用いて生成した要約情報を第2にモデルに適用することにより、当該要約情報について予測した評価値に基づいて、第1のモデルを強化学習する例を示した。しかし、第1学習部132は、要約情報を評価する評価値の実績値に基づいて、第1のモデルを学習してもよい。例えば、第1学習部132は、取得部131により取得された要約情報を評価する評価値の実績値に基づいて、第1のモデルを強化学習する。
図1の例では、学習装置100は、例えば、コンテンツ記憶部123に記憶される未配信の記事コンテンツを実際に配信してみることにより、まず、各記事コンテンツに対する評価値の実績値を算出する。例えば、学習装置100は、各記事コンテンツに含まれる要約情報に対するCTRの実績値を算出する。第1学習部132は、このように算出されたCTRの実績値を第1のモデルにフィードバックすることにより、第1のモデルを強化学習する。なお、第1学習部132は、要約情報を第2のモデルに適用することにより予測されたCTRも第1のモデルにフィードバックすることにより、CTRの実績値および予測値に基づいて、強化学習を行ってもよい。
これにより、実施形態にかかる学習装置100は、評価値の予測値だけでなく実績値も用いて強化学習することができるため、強化学習の精度を高めることができる。
〔6−2.学習に用いる情報〕
上記実施形態では、学習装置100が、文字情報と当該文字情報に対応する要約情報との組合せのうち、使用頻度に基づくキーワード(例えば、使用回数が所定回数より多いキーワード)を含む組合せを取得し、この組合せに基づいて、第1のモデルを生成する例を示した。しかし、取得部131は、文字情報または当該文字情報に対応する要約情報に対する評価値に基づいて、第1のモデルを生成するための文字情報と当該文字情報に対応する要約情報とを取得してもよい。例えば、取得部131は、文字情報と当該文字情報に対応する要約情報との組合せのうち、文字情報または要約情報のいずれか一方の評価値(例えば、CTR)が所定値より高い組合せを取得する。そして、第1学習部132は、このように取得された組合せに基づいて、第1のモデルを生成する。
評価値が高いコンテンツほど人気があるコンテンツといえる、実施形態にかかる学習装置100は、ユーザによる人気度を一定水準以上有するコンテンツを用いて、第1のモデルを生成することができる。この結果、学習装置100は、ユーザによる人気度を一定水準以上有する要約情報を生成することができる。また、学習装置100は、ユーザによる人気度を一定水準以上有するコンテンツを用いて生成された第1のモデルに対する強化学習により、ユーザによる人気度を一定水準以上有する要約情報を生成することができる。
なお、学習装置100は、強化学習を行うにあたっても、例えば、評価値(例えば、CTR)が所定値より高い文字情報あるいは要約情報を用いてもよい。
〔6−3.コンテンツ配信について〕
上記実施形態では、学習装置100が、ユーザから配信要求を受信した場合に、ユーザに適した要約情報を生成し、生成した要約情報が一覧表示されるコンテンツを配信する例を示した。しかし、学習装置100は、配信要求を受信するよりも前に、予め、各ユーザ属性に応じた要約情報を強化モデルを用いて生成しておいてもよい。かかる場合、学習装置100は、配信要求を受信した場合に、要約情報を生成する必要が無いため、配信要求を受信してから配信までに要する時間を短縮することができる。
〔7.ハードウェア構成〕
また、上述してきた実施形態にかかる学習装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。図13は、学習装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態にかかる学習装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
〔8.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔9.効果〕
実施形態にかかる学習装置100は、取得部131と、第1学習部132(学習部に相当)とを有する。取得部131は、文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて生成された要約情報を取得する。第1学習部132は、取得部131により取得された要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値に基づいて、第1のモデルを学習する。
これにより、実施形態にかかる学習装置100は、ユーザに対する興味を効果的に高めることができる要約情報を生成することができる。
また、取得部131は、文字情報と当該文字情報に対応する要約情報との組合せのうち、所定のキーワードを含む文字情報と要約情報との組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得する。
これにより、実施形態にかかる学習装置100は、ユーザに対する興味を効果的に高めることができる要約情報を生成することができる。
また、取得部131は、所定のキーワードとして、ユーザによる使用頻度に基づくキーワードを含む組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得する。
第1のモデルを用いて生成された要約情報は、ユーザに対する興味を高めることができる要約情報であるため、実施形態にかかる学習装置100は、このような要約情報を強化学習に用いることができるため、強化学習後の第1のモデルもユーザに対する興味を効果的に高めることができる要約情報を生成可能なモデルとすることができる。
また、第1学習部132は、文字情報に対応する要約情報と当該要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値とに基づき学習された第2のモデルを用いて取得部131により取得された要約情報について予測された評価値に基づいて、第1のモデルを学習する。
これにより、実施形態にかかる学習装置100は、評価値がより高くなるような要約情報を生成するよう第1のモデルに対して強化学習することができるため、強化学習後の第1のモデルを用いて、評価値がより高い要約情報、すなわちユーザに対する興味を効果的に高めることができる要約情報を生成することができる。
また、第1学習部132は、文字情報に対応する要約情報と、当該要約情報に含まれるキーワードに対するユーザの使用頻度と、要約情報を評価する評価値とに基づき学習された第2のモデルを用いて取得部により取得された要約情報について予測された評価値に基づいて、第1のモデルを学習する。
これにより、実施形態にかかる学習装置100は、ユーザの興味を引き付け易いキーワードを含む要約情報を生成するよう第1のモデルに対して強化学習することができるため、強化学習後の第1のモデルを用いて、ユーザに対する興味を効果的に高めることができる要約情報を生成することができる。
また、第1学習部132は、取得部131により取得された要約情報を評価する評価値の実績値に基づいて、第1のモデルを学習する。
これにより、実施形態にかかる学習装置100は、評価値の予測値だけでなく実績値も用いて強化学習することができるため、強化学習の精度を高めることができる。
また、第1学習部132は、取得部131により取得された要約情報を評価する評価値として、ユーザ属性毎の評価値に基づいて、当該ユーザ属性毎に第1のモデルを学習する。
これにより、実施形態にかかる学習装置100は、各ユーザ属性に適した要約情報を生成することができるため、ユーザに対する興味を効果的に高めることができる要約情報を生成することができる。
また、第1学習部132は、ユーザ属性毎の第2のモデルを用いて予測された評価値であってユーザ属性毎の評価値に基づいて、当該ユーザ属性毎に第1のモデルを学習する。
これにより、実施形態にかかる学習装置100は、各ユーザ属性に適した要約情報を生成することができるため、ユーザに対する興味を効果的に高めることができる要約情報を生成することができる。
また、取得部131は、文字情報として記事コンテンツに含まれる本文と、文字情報に対応する要約情報として当該本文に対応する見出しを取得する。
これにより、実施形態にかかる学習装置100は、ユーザに対する興味を効果的に高めることができる見出しを生成することができる。
また、実施形態にかかる学習装置100は、抽出部135を有する。抽出部135は、第1学習部132により学習された第1のモデルを用いて生成された要約情報の中から所定の要約情報を配信対象の要約情報として抽出する。
これにより、実施形態にかかる学習装置100は、強化学習された第1のモデルを用いて生成された要約情報をユーザに提供することができる。
また、抽出部135は、第1のモデルを用いて生成された要約情報を、第2のモデルに適用することにより予測された評価値に基づいて、第1のモデルを用いて生成された要約情報の中から所定の要約情報を抽出する。
これにより、実施形態にかかる学習装置100は、評価値のより高い要約情報をユーザに提供することができるため、ユーザに対する興味を効果的に高めることができる要約情報を提供することができる。
また、抽出部135は、第1のモデルのうち要約情報が提供される対象ユーザのユーザ属性に応じた第1のモデルを用いて生成された要約情報を、第2のモデルのうち当該対象ユーザのユーザ属性に応じた第2のモデルに適用することにより予測された評価値に基づいて、当該対象ユーザのユーザ属性に応じた第1のモデルを用いて生成された要約情報の中から所定の要約情報を抽出する。
これにより、実施形態にかかる学習装置100は、対象ユーザのユーザ属性により適した要約情報を対象ユーザに提供することができる。
また、抽出部135は、第1のモデルを用いて生成された要約情報のうち、第2のモデルに適用することにより予測された評価値がより高い要約情報を抽出する。
これにより、実施形態にかかる学習装置100は、ユーザに対する興味を高めることができる要約情報を提供することができる。
また、抽出部135は、第1のモデルを用いて生成された要約情報のうち、使用頻度がより高いキーワードを含む要約情報を抽出する。
これにより、実施形態にかかる学習装置100は、ユーザに対する興味を高めることができる要約情報を提供することができる。
1 学習処理システム
10 端末装置
100 学習装置
121 編集情報記憶部
122 評価値情報記憶部
123 コンテンツ記憶部
124 モデル情報記憶部
125 キーワード記憶部
126 ユーザ情報記憶部
131 取得部
132 第1学習部
133 第2学習部
134 生成部
135 抽出部
136 配信部

Claims (18)

  1. 文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて生成された要約情報を取得する取得部と、
    前記取得部により取得された要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値に基づいて、第1のモデルを学習する学習部と
    を有することを特徴とする学習装置。
  2. 前記取得部は、前記文字情報と当該文字情報に対応する要約情報との組合せのうち、所定のキーワードを含む文字情報と要約情報との組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得する
    ことを特徴とする請求項1に記載の学習装置。
  3. 前記取得部は、前記所定のキーワードとして、ユーザによる使用頻度に基づくキーワードを含む前記組合せに基づき学習された第1のモデルを用いて生成された要約情報を取得する
    ことを特徴とする請求項2に記載の学習装置。
  4. 前記学習部は、文字情報に対応する要約情報と当該要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値とに基づき学習された第2のモデルを用いて前記取得部により取得された要約情報について予測された評価値に基づいて、前記第1のモデルを学習する
    ことを特徴とする請求項1〜3のいずれか1つに記載の学習装置。
  5. 前記学習部は、前記文字情報に対応する要約情報と、当該要約情報に含まれるキーワードに対するユーザの使用頻度と、前記要約情報を評価する評価値とに基づき学習された第2のモデルを用いて前記取得部により取得された要約情報について予測された評価値に基づいて、前記第1のモデルを学習する
    ことを特徴とする請求項4に記載の学習装置。
  6. 前記学習部は、前記取得部により取得された要約情報を評価する評価値の実績値に基づいて、第1のモデルを学習する
    ことを特徴とする請求項1〜5のいずれか1つに記載の学習装置。
  7. 前記学習部は、前記取得部により取得された要約情報を評価する評価値として、ユーザ属性毎の評価値に基づいて、当該ユーザ属性毎に第1のモデルを学習する
    ことを特徴とする請求項1〜6のいずれか1つに記載の学習装置。
  8. 前記学習部は、前記ユーザ属性毎の第2のモデルを用いて予測された評価値であって前記ユーザ属性毎の評価値に基づいて、当該ユーザ属性毎に第1のモデルを学習する
    ことを特徴とする請求項7に記載の学習装置。
  9. 前記取得部は、前記文字情報として記事コンテンツに含まれる本文と、前記文字情報に対応する要約情報として当該本文に対応する見出しを取得する
    ことを特徴とする請求項1〜8のいずれか1つに記載の学習装置。
  10. 前記学習部により学習された第1のモデルを用いて生成された要約情報の中から所定の要約情報を配信対象の要約情報として抽出する抽出部をさらに有する
    ことを特徴とする請求項1〜9のいずれか1つに記載の学習装置。
  11. 前記抽出部は、第1のモデルを用いて生成された要約情報を、第2のモデルに適用することにより予測された評価値に基づいて、第1のモデルを用いて生成された要約情報の中から所定の要約情報を抽出する
    ことを特徴とする請求項10に記載の学習装置。
  12. 前記抽出部は、第1のモデルのうち要約情報が提供される対象ユーザのユーザ属性に応じた第1のモデルを用いて生成された要約情報を、第2のモデルのうち当該対象ユーザのユーザ属性に応じた第2のモデルに適用することにより予測された評価値に基づいて、当該対象ユーザのユーザ属性に応じた第1のモデルを用いて生成された要約情報の中から所定の要約情報を抽出する
    ことを特徴とする請求項10または11に記載の学習装置。
  13. 前記抽出部は、第1のモデルを用いて生成された要約情報のうち、第2のモデルに適用することにより予測された評価値がより高い要約情報を抽出する
    ことを特徴とする請求項10〜12のいずれか1つに記載の学習装置。
  14. 前記抽出部は、第1のモデルを用いて生成された要約情報のうち、使用頻度がより高いキーワードを含む要約情報を抽出する
    ことを特徴とする請求項10〜13のいずれか1つに記載の学習装置。
  15. 学習装置が実行する学習方法であって、
    文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて生成された要約情報を取得する取得工程と、
    前記取得工程により取得された要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値に基づいて、前記第1のモデルを学習する学習工程と
    を含んだことを特徴とする学習方法。
  16. 文字情報と当該文字情報に対応する要約情報とに基づき学習された第1のモデルを用いて生成された要約情報を取得する取得手順と、
    前記取得手順により取得された要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値に基づいて、前記第1のモデルを学習する学習手順と
    をコンピュータに実行させることを特徴とする学習プログラム。
  17. 文字情報と当該文字情報に対応する要約情報とに基づいて、入力された文字情報に対応する要約情報を出力するよう、コンピュータを機能させるための第1のモデル。
  18. 文字情報に対応する要約情報と当該要約情報を評価する評価値であって、当該要約情報に対するユーザの閲覧に関する評価値とに基づいて、入力された要約情報に対応する評価値を出力するよう、コンピュータを機能させるための第2のモデル。
JP2017177718A 2017-09-15 2017-09-15 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル Pending JP2019053558A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017177718A JP2019053558A (ja) 2017-09-15 2017-09-15 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017177718A JP2019053558A (ja) 2017-09-15 2017-09-15 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル

Publications (1)

Publication Number Publication Date
JP2019053558A true JP2019053558A (ja) 2019-04-04

Family

ID=66014904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017177718A Pending JP2019053558A (ja) 2017-09-15 2017-09-15 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル

Country Status (1)

Country Link
JP (1) JP2019053558A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021047817A (ja) * 2019-09-20 2021-03-25 富士ゼロックス株式会社 出力装置、及び出力プログラム
JP2021149663A (ja) * 2020-03-19 2021-09-27 ヤフー株式会社 評価装置、評価方法及び評価プログラム
JP2021149606A (ja) * 2020-03-19 2021-09-27 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2021189817A (ja) * 2020-06-01 2021-12-13 株式会社日立製作所 通話録音テキスト分析システムおよび方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248676A (ja) * 2002-02-22 2003-09-05 Communication Research Laboratory 解データ編集処理装置、解データ編集処理方法、自動要約処理装置、および自動要約処理方法
JP2004253011A (ja) * 2004-06-07 2004-09-09 National Institute Of Information & Communication Technology 自動要約処理装置および自動要約処理方法
JP2015090663A (ja) * 2013-11-07 2015-05-11 三菱電機株式会社 テキスト要約装置
US20160147387A1 (en) * 2014-11-21 2016-05-26 Samsung Electronics Co., Ltd. Method and apparatus for displaying summarized data
JP2016161967A (ja) * 2015-02-26 2016-09-05 日本電信電話株式会社 パラメタ学習装置、テキスト要約装置、方法、及びプログラム
JP2017111190A (ja) * 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
US20170213130A1 (en) * 2016-01-21 2017-07-27 Ebay Inc. Snippet extractor: recurrent neural networks for text summarization at industry scale

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248676A (ja) * 2002-02-22 2003-09-05 Communication Research Laboratory 解データ編集処理装置、解データ編集処理方法、自動要約処理装置、および自動要約処理方法
JP2004253011A (ja) * 2004-06-07 2004-09-09 National Institute Of Information & Communication Technology 自動要約処理装置および自動要約処理方法
JP2015090663A (ja) * 2013-11-07 2015-05-11 三菱電機株式会社 テキスト要約装置
US20160147387A1 (en) * 2014-11-21 2016-05-26 Samsung Electronics Co., Ltd. Method and apparatus for displaying summarized data
JP2016161967A (ja) * 2015-02-26 2016-09-05 日本電信電話株式会社 パラメタ学習装置、テキスト要約装置、方法、及びプログラム
JP2017111190A (ja) * 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
US20170213130A1 (en) * 2016-01-21 2017-07-27 Ebay Inc. Snippet extractor: recurrent neural networks for text summarization at industry scale

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
酒井 浩之,増山 繁: "ユーザの要約要求を反映するためにユーザとのインタラクションを導入した複数文書要約システム", 知能と情報, vol. 第18巻第2号, JPN6018046748, 15 April 2006 (2006-04-15), JP, pages 265 - 279, ISSN: 0003927704 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021047817A (ja) * 2019-09-20 2021-03-25 富士ゼロックス株式会社 出力装置、及び出力プログラム
JP2021149663A (ja) * 2020-03-19 2021-09-27 ヤフー株式会社 評価装置、評価方法及び評価プログラム
JP2021149606A (ja) * 2020-03-19 2021-09-27 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7212642B2 (ja) 2020-03-19 2023-01-25 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7457545B2 (ja) 2020-03-19 2024-03-28 Lineヤフー株式会社 評価装置、評価方法及び評価プログラム
JP2021189817A (ja) * 2020-06-01 2021-12-13 株式会社日立製作所 通話録音テキスト分析システムおよび方法
JP7300420B2 (ja) 2020-06-01 2023-06-29 株式会社日立製作所 通話録音テキスト分析システムおよび方法

Similar Documents

Publication Publication Date Title
US10832008B2 (en) Computerized system and method for automatically transforming and providing domain specific chatbot responses
EP3244312B1 (en) A personal digital assistant
US10180979B2 (en) System and method for generating suggestions by a search engine in response to search queries
US8875038B2 (en) Anchoring for content synchronization
US9152674B2 (en) Performing application searches
US20220253499A1 (en) Allocating communication resources via information technology infrastructure
KR20200003106A (ko) 정보 검색 방법, 장치 및 시스템
US9542450B1 (en) Selecting content using entity properties
JP2019053558A (ja) 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル
JP2024503774A (ja) 融合パラメータの特定方法及び装置、情報推奨方法及び装置、パラメータ測定モデルのトレーニング方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
US9330135B2 (en) Method, apparatus and computer readable recording medium for a search using extension keywords
Chauhan et al. Prediction of places of visit using tweets
CN107798622B (zh) 一种识别用户意图的方法和装置
JP2016006593A (ja) 抽出装置、抽出方法及び抽出プログラム
CN111787042A (zh) 用于推送信息的方法和装置
CN104102727A (zh) 查询词的推荐方法及装置
CN112200614A (zh) 广告文本植入、展示方法及其相应的装置、设备、介质
WO2020247085A1 (en) Recommending theme patterns of a document
JP2018077671A (ja) 情報処理装置、情報処理方法、予測モデルの生成装置、予測モデルの生成方法、およびプログラム
US11887155B2 (en) Method and a system for selecting a targeted message to be included within a web resource
JP2019057266A (ja) 生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル
JP6092160B2 (ja) 表示制御装置、表示制御方法及び表示制御プログラム
KR102570419B1 (ko) 이지 포스팅 시스템을 위한 광고 컨텐츠의 포스팅 보조 방법 및 장치
US10496698B2 (en) Method and system for determining image-based content styles
JP2017021469A (ja) 分類装置、分類方法、及び分類プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190507