JP7017478B2 - 出力装置、出力方法および出力プログラム - Google Patents

出力装置、出力方法および出力プログラム Download PDF

Info

Publication number
JP7017478B2
JP7017478B2 JP2018122446A JP2018122446A JP7017478B2 JP 7017478 B2 JP7017478 B2 JP 7017478B2 JP 2018122446 A JP2018122446 A JP 2018122446A JP 2018122446 A JP2018122446 A JP 2018122446A JP 7017478 B2 JP7017478 B2 JP 7017478B2
Authority
JP
Japan
Prior art keywords
information
output
output information
generated
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018122446A
Other languages
English (en)
Other versions
JP2020004054A (ja
Inventor
隼人 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018122446A priority Critical patent/JP7017478B2/ja
Priority to US16/237,840 priority patent/US20200005137A1/en
Publication of JP2020004054A publication Critical patent/JP2020004054A/ja
Application granted granted Critical
Publication of JP7017478B2 publication Critical patent/JP7017478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は出力装置、出力方法および出力プログラムに関する。
従来、各種のモデルを用いて所定の入力情報と対応する出力情報を生成する技術が知られている。このような技術の一例として、入力されたコンテンツに含まれるテキストや画像から、コンテンツの要約となる情報を生成する技術が知られている。
特開2018-073199号公報
ここで、入力された情報と対応する情報を生成する際に、生成精度を向上させるため、複数の生成結果を用いるアンサンブルの技術が知られている。このようなアンサンブルの技術として、文章を構成する単語を順に入力すると要約や見出しを構成する単語の出現確率を要約や見出しに含まれる順に出力するモデルを複数生成し、各モデルが出力した出現確率を単語単位で平均し、平均値に基づいて、要約や見出しを構成する各単語を順番に決定する技術が知られている。
しかしながら、上述した従来技術では、入力情報と対応する出力情報を効率的に生成しているとは言えない場合がある。
例えば、文章から要約や見出しを生成する際にRNN(Recurrent Neural Network)をモデルとして利用する態様が考えられる。このようなRNNをモデルとして利用した場合は、モデルが前回出力した単語を新たな入力としてモデルに再度入力し、次に出現する単語を予測する態様が考えられる。しかしながら、このようなRNNと従来のアンサンブルとを組み合わせた場合、単語を予測する度に、前回各モデルの出力から決定された単語を全モデルに入力し、全モデルが次の単語の出現確率を算出するまで待機する必要がある。また、文章から要約や見出しを出力する処理以外にも、音楽や動画像等、順序性を有する情報から順序性を有する他の情報を生成する処理において、同様の課題が生じうる。
本願は、上記に鑑みてなされたものであって、入力情報と対応する出力情報の生成効率を改善することを目的とする。
本願に係る出力装置は、入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する取得部と、前記複数の出力情報同士の類似性に基づいて、当該複数の出力情報の中から前記対象情報と対応する対応情報として出力する出力情報を選択する選択部と、前記選択部により選択された出力情報を前記対応情報として出力する出力部とを有することを特徴とする。
実施形態の一態様によれば、入力情報と対応する出力情報の生成効率を改善する。
図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。 図2は、実施形態に係る情報提供装置が生成するモデルの一例を示す図である。 図3は、実施形態に係る情報提供装置の構成例を示す図である。 図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。 図5は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。 図6は、実施形態に係る情報提供装置が実行する出力処理の流れの一例を示すフローチャートである。 図7は、ハードウェア構成の一例を示す図である。
以下に、本願に係る出力装置、出力方法および出力プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力装置、出力方法および出力プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
〔1.情報提供装置の概要について〕
まず、図1を用いて、出力装置の一例である情報提供装置が実行する処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。図1では、情報提供装置10は、以下に説明する出力処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
例えば、情報提供装置10は、インターネット等の所定のネットワークN(例えば、図3参照)を介して、端末装置100、および配信装置200と通信可能である。なお、情報提供装置10は、任意の数の端末装置100、および複数の数の配信装置200と通信可能であってよい。
端末装置100は、スマートフォンやタブレット等のスマートデバイス、PC(Personal Computer)等、各種の情報処理装置により実現される。例えば、端末装置100は、各種の情報の表示を行う機能を有する。
配信装置200は、各種の情報を配信する機能を有する情報処理装置であり、サーバ装置やクラウドシステムにより実現される。例えば、配信装置200は、ニュースを利用者に対して提供するサービスを実現する。例えば、配信装置200は、投稿された文章の見出しを生成し、生成した見出しを端末装置100へと提供する。そして、配信装置200は、端末装置100が選択した見出しと対応する文章を端末装置100に対して提供する。
なお、実施形態は、これに限定されるものではなく、配信装置200は、任意のサービスを利用者に対して提供してもよい。例えば、配信装置200は、ニュース以外にも、各種ウェブサイトに投稿された記事や利用者により投稿された各種の投稿情報を配信対象とし、配信対象となる投稿情報に含まれる文章の見出しを配信してよい。
〔1-1.見出しの生成について〕
ここで、配信装置200は、Q&Aサービス等、利用者から投稿された情報を他の利用者に配信するサービスを提供する。例えば、配信装置200は、タイトルやサムネイル等、本文の内容を示唆する情報(すなわち、見出し)を利用者に送信する。そして、配信装置200は、利用者が見出しを選択した場合は、選択された見出しと対応する本文を利用者に対して配信する。
ここで、投稿の手間を削減するため、本文のみの登録を受付け、受付けられた本文から見出しとなる文章を生成するといった手段が考えられる。このような文章を生成する技術として、DNN(Deep Neural Network)等といったモデルを用いて、本文から見出しとなる文章を生成する技術が考えられる。なお、ここで、DNNは、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)であってもよい。また、RNNは、LSTM(Long short-term memory)等であってもよい。以下の説明では、モデルとして、RNNを利用する例について説明する。
例えば、配信装置200は、RNNを準備するとともに、学習データとなる文章と見出しとの組を取得する。例えば、配信装置200は、学習データとして、文章と、その文章の見出しとなる文章との組を取得する。そして、配信装置200は、例えば、文章が有する特徴量をRNNに入力した際に、RNNが見出しとなる文章の特徴量を出力するように、RNNの学習を行う。
例えば、配信装置200は、文章に含まれる各単語を特定し、各単語を示す値(すなわち、特徴量)を各単語が文章に出現した順にRNNに入力する。そして、配信装置200は、RNNが、各単語が出現する確率を各単語が見出しに含まれる順序で出力するように、RNNの学習を行う。例えば、配信装置200は、見出しの1番目に各単語が出現する確率を出力し、続いて、見出しの2番目に各単語が出現する確率を出力するように、RNNの学習を行う。
より具体的には、配信装置200は、RNNが最初に出力した確率から見出しの1番目に出現すると推定される単語を選択する。そして、配信装置200は、選択した単語の特徴量をRNNに入力した際に見出しの2番目に各単語が出現する確率を出力するように、RNNの学習を行う。すなわち、配信装置200は、文章に含まれる単語を順に入力した際に、見出しに含まれる最初の単語を出力し、その後、出力した単語を順次入力した場合に、見出しに含まれる2番目以降の単語を順に出力するように、RNNの学習を行う。なお、このようなRNNは、エンコーダ=デコーダモデルと呼ばれる場合がある。
例えば、図2は、実施形態に係る情報提供装置が生成するモデルの一例を示す図である。例えば、情報提供装置10は、モデルの学習に用いる文章である学習文章や処理対象となる対象文章(以下、「入力文章」と総称する。)に含まれている単語#1-1~単語#1-4を抽出する。そして、情報提供装置10は、単語#1-1~単語#1-4を、文章における出現順にRNNに入力する。例えば、情報提供装置10は、単語#1-1の特徴量をRNNに入力し、次に、単語#1-2の特徴量をRNNに入力し、次に、単語#1-3の特徴量をRNNに入力し、最後に、単語#1-4の特徴量をRNNに入力する。なお、情報提供装置10は、単語#1-4の特徴量を入力した後で、例えば、文末表現等、入力文章に含まれる全ての単語が入力された旨を示唆する情報の特徴量をRNNに入力してもよい。
このように、入力文章に含まれる全ての単語が入力された場合、RNNは、入力文章と対応する見出し文章に含まれる単語を、見出し文章における出現順に出力する。すなわち、情報提供装置10は、入力文章に含まれる全ての単語が入力された場合に、見出し文章に含まれる単語を順番に出力するように、RNNの学習を行う。例えば、RNNは、入力文章に含まれるすべての単語が入力された場合、見出し文章に含まれる単語#2-1を出力する。続いて、RNNは、前回出力した単語#2-1の入力を受付ける。そして、RNNは、単語#2-1の入力を受付けた場合、見出し文章において単語#2-1の次に出現する単語#2-2を出力する。また、RNNは、前回出力した単語#2-2の入力を受付ける。そして、RNNは、単語#2-2の入力を受付けた場合、見出し文章において単語#2-2の次に出現する単語#2-3を出力する。
一方で、入力された情報と対応する情報を生成する際に、生成精度を向上させるため、複数の生成結果を用いるアンサンブルの技術が知られている。例えば、このようなアンサンブルの技術を用いる情報処理装置は、それぞれ個別に学習を行った複数のRNNを準備し、処理対象となる文章に含まれる各単語を、文章に出現する順序で各RNNに入力する。続いて、情報処理装置は、複数のRNNのそれぞれが出力した確率の平均値を算出する。例えば、情報処理装置は、各RNNが出力した確率であって、各単語が見出しの1番目に出現する確率の平均値を、各単語ごとに算出する。そして、情報処理装置は、算出した平均値の値が最も高い単語を、見出しの1番目に出現する単語として選択し、選択した単語を各RNNに入力することで、各単語が見出しの2番目に出現する確率を算出させる。
しかしながら、上述した従来技術では、効率的に見出しを生成することができない。例えば、上述した技術では、各RNNが確率を出力することに平均値を算出し、算出した平均値に基づいて見出しに含まれる単語を選択し、選択した単語を再度各RNNに入力することで、各単語が次に出現する確率を算出する。このため、従来技術では、見出しに含まれる各単語を予測する段階ごとに、全てのRNNが確率を出力するまで待機する必要があり、効率的な処理を実演しているとは言えない。
〔1-2.情報提供装置が実行する処理について〕
そこで、情報提供装置10は、以下の出力処理を実行する。まず、情報提供装置10は、入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する。また、情報提供装置10は、複数の出力情報同士の類似性に基づいて、複数の出力情報の中から対象情報と対応する対応情報として出力する出力情報を選択する。そして、情報提供装置10は、選択された出力情報を対応情報として出力する。
より具体的には、情報提供装置10は、モデルとして、出力された情報が入力された場合に、新たな情報を出力する再帰型ニューラルネットワークが生成した出力情報を取得する。また、情報提供装置10は、ノード間の接続係数がランダムに異なる複数のモデルから生成した複数のモデルであって、それぞれ個別に学習情報が有する特徴を学習させた複数のモデルが生成した出力情報を取得する。また、情報提供装置10は、モデルとして、複数の情報を含む入力情報が入力された場合に入力情報が有する特徴を示す特徴情報を生成するエンコーダと、エンコーダが生成した特徴情報から出力情報に含まれる複数の情報を順に生成するデコーダとを含む複数のモデルが所定の対象情報から生成した複数の出力情報を取得する。
例えば、情報提供装置10は、入力情報となるテキスト(以下、「入力文章」と記載する。)から、入力文章の見出しを出力する複数のモデルを準備する。また、情報提供装置10は、各モデルを個別に用いて、処理対象となる対象文章から、複数の見出しの候補を生成する。そして、情報提供装置10は、候補同士の類似性を特定し、特定した類似性に基づいて、各モデルが出力した見出しの候補中から、対象文章の見出しとして出力する候補を選択する。例えば、情報提供装置10は、各候補のうち、他の候補との類似性が最も高い候補を出力対象として選択する。
このように、情報提供装置10は、順序関係を有する複数の情報(例えば、単語)を含む入力情報(例えば、文章)から、それぞれ異なるモデルを個別に用いて、複数の情報を含む出力情報(例えば、見出しの候補)を生成する。このような処理の結果、情報提供装置10は、出力情報から出力情報を生成する処理を分散可能とするので、処理の効率化を実現することができる。また、情報提供装置10は、各出力情報同士の類似性に基づいて、出力対象する出力情報を選択するので、出力される出力情報の精度の低下を防ぎつつ、処理の効率化を実現することができる。すなわち、情報提供装置10は、各モデルの出力を事後的にアンサンブルするポストアンサンブル処理を実行する。
例えば、各モデルが同一の文章からそれぞれ個別に見出しの候補を生成した場合、各モデルの学習が適切に行われている場合は、各モデルにより生成される候補の内容が類似すると考えられる。このため、ある程度適切な学習が行われているのであれば、複数のモデルのうち一定のモデルにより生成された候補の内容が類似すると考えられる。この結果、ある文章の見出しとして適切な候補は、各モデルが生成した候補との類似性がより高くなると考えられる。換言すると、候補同士の類似性を距離と見做した空間上に各候補を投影した場合、より多くの候補が投影された範囲(すなわち、候補の濃度が高い範囲)に含まれる候補は、より適切な見出しに近いと推定される。
そこで、情報提供装置10は、各モデルにより生成された候補の類似性を特定し、各モデルにより生成された候補のうち、他の候補との類似性がより高い候補を出力対象として選択する。例えば、情報提供装置10は、各モデルが生成した候補の意味的な類似性に基づいて、出力対象とする候補の選択を行う。
例えば、情報提供装置10は、見出しの候補に含まれる各単語を対応する数値に置き換えることで、候補と対応する分散表現を生成し、生成した分散表現同士のコサイン類似度を算出する。なお、情報提供装置10は、出力情報に含まれる複数の情報のそれぞれと対応するベクトルを生成し、生成したベクトルを統合したベクトルを、候補と対応するベクトルとして生成してもよい。また、情報提供装置10は、単語や文章を、意味的な類似性に基づいて分散表現空間上に投影する各種の手法(例えば、word2vec)等を用いて、各見出しを分散表現に変換してもよい。
そして、情報提供装置10は、候補うち他の候補との類似性が高い候補を選択する。例えば、情報提供装置10は、候補同士の類似度(例えば、コサイン類似度)を算出し、算出した類似度の和が最も大きい候補を見出しとして選択してもよい。また、情報提供装置10は、候補同士の類似度に基づいて、各候補を任意の空間上に投影し、空間上において投影された候補の数が最も多い領域(すなわち、候補の濃度が最も高い領域)を特定する。そして、情報提供装置10は、特定した領域に含まれる候補を、出力対象として選択してもよい。例えば、情報提供装置10は、特定した領域の中心に最も近い候補を選択してもよく、特定した領域に投影された候補の分散表現の平均値を算出し、算出した平均値と最も近い分散表現と対応する候補を見出しとして選択してもよい。
〔1-3.分布の考慮について〕
ここで、無数の学習済モデルを用いてある入力文章から見出しの候補(以下、単に「見出し」と記載する場合がある。)を生成した例を考える。このような場合において、見出し同士の類似度を所定の空間上の距離として、各見出しをその空間上に投影した場合、入力文章の見出しとして適切な見出しが投影される領域においては、他の領域よりも多くの見出しが投影されると考えられる。このような見出しの分布を、各学習済モデルから出力される見出しの確率分布として見做した場合、入力文章の見出しとして適切な見出しは、各モデルにより生成された見出しが投影される確率が高い範囲に投影されると考えられる。
そこで、情報提供装置10は、見出し同士の類似性に基づいて、入力文章から生成されうる見出しの確率分布を推定する。そして、情報提供装置10は、見出しのうち、確率分布における所定の領域に含まれる見出しを出力対象として選択してもよい。例えば、情報提供装置10は、複数のモデルが生成した見出しを標本と見做したカーネル密度推定により、所定の入力文章から生成されうる見出しの確率密度関数を推定する。そして、情報提供装置10は、確率密度関数のうち、より多くの見出しが含まれうる領域、すなわち、密度がより高い範囲に投影される見出しの中から、出力対象とする見出しを選択する。
例えば、情報提供装置10は、カーネル密度推定において母集団とするカーネル関数を選択する。例えば、情報提供装置10は、ガウス分布やロジスティック分布、フォンミーゼス分布、フォンミーゼスフィッシャー分布等、任意の分布を示す関数をカーネル関数として採用してよい。そして、情報提供装置10は、カーネル密度推定により、標本が属する確率密度関数の推定を行う。
例えば、情報提供装置10は、各モデルにより生成された見出し(以下、「見出し候補」と記載する場合がある。)のコサイン類似度を標本同士の類似度と見做すことで、見出し候補が形成する確率密度関数の推定を行う。また、情報提供装置10は、推定された確率密度関数において確率密度が所定の閾値を超える範囲を特定し、見出し候補のうち特定した範囲に投影される見出し候補を抽出する。そして、情報提供装置10は、抽出した見出し候補の中から、入力文章の見出しとして出力する見出し候補を選択する。例えば、情報提供装置10は、抽出した見出し候補の分散表現の平均値を算出し、算出した平均値に最も近い見出し候補を選択してもよい。
以下、情報提供装置10が実行する処理の一例を数式を用いて説明する。以下の説明では、ある学習モデルpに対して入力文章xを入力した場合の出力(すなわち、見出し候補)をsと記載する。この場合、見出し候補の集合Sは、以下の式(1)で示すことができる。なお、式(1)における中括弧{}は、ハッシュや分散表現を示すものとする。
Figure 0007017478000001
続いて、情報提供装置10は、以下の式(2)に示すように、ある出力sについて、他の全ての出力s´との間の類似度に基づくスコアcを算出する。ここで、式(2)におけるK(s、s´)は、出力sと出力s´との間の類似度を算出するためのカーネル関数である。すなわち、スコアcは、他の出力との間の類似性の平均値である。
Figure 0007017478000002
続いて、情報提供装置10は、以下の式(3)に示すように、各出力sのスコアcの集合をC[s]とし、式(4)に示すように、スコアcの値が最も高い出力sを集合Sから選択する。
Figure 0007017478000003
Figure 0007017478000004
なお、各見出し候補の類似度としてコサイン類似度を採用する場合、式(2)の関数Kは、以下の式(5)で表すことができる。
Figure 0007017478000005
続いて、カーネル密度推定について説明する。例えば、推定対象となる確率密度関数をfとし、確率密度関数fにおける標本をX~Xとおくと、カーネル密度推定量は、以下の式(6)で示すことができる。
Figure 0007017478000006
ここで、各モデルp~pがそれぞれランダムなパラメータθ~θから学習が行われ、出力s~sを出力したものとする。ここで、パラメータθ~θが独立同分布である場合、パラメータθに基づく出力sも、独立同分布であると考えられる。このため、式(2)は、式(6)と等価であると考えられる。このため、情報提供装置10は、上述した式(2)を用いて、見出し候補から出力する見出しを選択することで、入力文章から生成されうる見出し候補の分布を示す確率密度関数を求め、確率密度関数が示す確率分布に基づいて、見出しの選択を行うことができる。
ここで、情報提供装置10は、式(2)に示すカーネル関数Kとして、以下の式(7)に示すガウシアンカーネルKgaus(s、s´)を採用することができる。ここで、hはスムージングの許容パラメータである。また、mは、出力sの次元数である。また、d(s、s´)は、出力sと出力s´との距離であり、以下の式(8)で表される関数である。
Figure 0007017478000007
Figure 0007017478000008
また、情報提供装置10は、式(2)に示すカーネル関数として、以下の式(9)に示すフォンミーゼスフィッシャーカーネルKvmf(s、s´)を採用することができる。ここで、式(9)のIとは、v次のベッセル関数であり、qは、次元数である。また、式(9)におけるC(κ)は、正規化定数であり、以下の式(10)で示すことができる。また、式(10)におけるチルダ付のκは、最尤推定におけるκの近似値であり、以下の式(11)で示すことができる。なお、式(11)におけるチルダ付のμは、出力sと出力s´との間のコサイン距離である。
Figure 0007017478000009
Figure 0007017478000010
Figure 0007017478000011
〔1-4.出力処理の一例について〕
次に、図1を用いて、情報提供装置10が実行する出力処理の一例を説明する。まず、情報提供装置10は、配信装置200から見出しの生成対象となる対象文章を受付ける(ステップS1)。例えば、情報提供装置10は、配信装置200から、利用者により投稿された文章を対象文章として受付ける。
このような場合、情報提供装置10は、文章から見出しを生成する複数のモデルを用いて、対象文章の見出しを複数生成する(ステップS2)。例えば、情報提供装置10は、初期パラメータをランダムに変化させたn個のRNNをモデル#1~#nとして準備し、所定の学習データを用いて、入力文章から見出し文章を生成するように、各モデル#1~#nを個別に学習させる。そして、情報提供装置10は、各モデル#1~#nに対して、それぞれ個別に対象文章を入力し、各モデル#1~#nがそれぞれ個別に生成した見出し#1~#nを取得する。
すなわち、情報提供装置10は、各モデル#1~#nが対象文章から生成した単語を1つ1つ統合するのではなく、各モデル#1~#nを独立に用いて、対象文章から見出し#1~#nを生成する。例えば、情報提供装置10は、モデル#1に対して対象文章に含まれる単語を出現順に入力し、その後モデル#1が出力した単語を逐次モデル#1に入力し直すことで、見出し#1に含まれる単語を出現順にモデル#1から出力させる。このように、情報提供装置10は、各モデル#1~#nを個別に用いて、複数の見出し#1~#nを個別に出力するので、例えば、各モデル#1~#nによる見出し#1~#nの生成を並列化することができる。
続いて、情報提供装置10は、見出し同士の類似度をそれぞれ特定する(ステップS3)。例えば、情報提供装置10は、各見出し#1~#nをぞれぞれ分散表現化する。例えば、情報提供装置10は、見出しに含まれる各単語を、word2vecを用いて、対応する所定の値に変換することで、見出しを分散表現に変換してもよい。また、情報提供装置10は、各種文章を分散表現化する任意の手法を用いて、各見出しを分散表現化してもよい。
そして、情報提供装置10は、各見出しの分散表現間の類似度を特定する。例えば、情報提供装置10は、各見出しの分散表現間のコサイン類似度を特定する。例えば、情報提供装置10は、見出し#1の分散表現と見出し#2の分散表現との間のコサイン類似度を、見出し#1と見出し#2との間の類似度#1-2として算出する。
そして、情報提供装置10は、特定した類似度に基づいて、各モデル#1~#nが生成した見出し#1~#nから、対象文章の見出しとして出力する見出しを選択する。すなわち、情報提供装置10は、特定した類似度に基づいて、対象文章から生成されるであろう見出しの確率密度関数を推定し、確率密度関数が示す確率分布、すなわち、対象文章から生成されるであろう見出しの確率分布のうち、多くの見出しが属するであろう範囲に含まれる見出しを、見出し同士の類似度に基づいて選択する(ステップS4)。
例えば、各モデル#1~#nが生成した見出し#1~#nを標本とした場合、見出し#1~#n間の類似性は、標本間の類似性と見做すことができる。ここで、図1のステップS4に示すように、各見出し#1~#nを類似性に基づいて1次元空間に投影した場合、多くの類似する見出しが生成される範囲に投影される見出しは、多くの類似する見出しが生成されうる領域に投影されていると言える。ここで、複数のモデルが適切に学習されている場合、多くのモデルの出力は、適切な見出しに近付くと推定される。換言すると、各見出しを標本として推定される確率密度関数が示す確率分布において、より多くの見出しが属する範囲には、より適切な見出しが投影されると考えらえる。そこで、情報提供装置10は、上述した式(4)を満たす見出し(例えば、見出し#X)を出力対象として選択する。すなわち、情報提供装置10は、最も多くの見出しが投影されうる領域(すなわち、確率分布が最も高い領域)に最も近い見出しを選択する。
そして、情報提供装置10は、見出しを配信装置200に提供する(ステップS5)。このような場合、配信装置200は、見出しを端末装置100に配信する(ステップS6)。また、端末装置100は、見出しに基づいて利用者が選択した文章の配信を配信装置200に要求する(ステップS7)。このような場合、配信装置200は、要求された文章を端末装置100に配信する(ステップS8)。
〔1-5.適用対象について〕
上述した例では、情報提供装置10は、複数の単語を含む入力文章から、複数の単語を含む見出しを生成する複数のモデルをそれぞれ個別に用いて、対象文章から複数の見出しの候補を生成し、各見出し同士の類似性に基づいて、対象文章の見出しを見出しの候補の中から選択した。しかしながら、実施形態は、これに限定されるものではない。上述した出力処理は、連続性を有する複数の情報をモデルの入力或いは出力とするのであれば、任意の情報について適用可能である。
例えば、音声データは、音の周波数を時系列順に並べた情報であると言える。情報提供装置10は、このような音声データについて、上述した出力処理を実行して良い。例えば、情報提供装置10は、音声データから新たな音声データを生成するモデルを複数生成する。より具体的な例を挙げると、情報提供装置10は、男性の声を含む音声データを女性の声を含むの音声データに変換するモデルを複数生成してもよく、大人の声を含む音声データを子供の声を含む音声データに変換するモデルを複数生成してもよい。また、情報提供装置10は、音声データの要約となる音声データを生成するモデルを複数生成してもよい。
そして、情報提供装置10は、処理対象となる音声データを各モデルに個別に入力し、各モデルがそれぞれ個別に出力した音声データ同士の類似度に基づいて、処理対象となる音声データに対応する音声データを選択すればよい。すなわち、情報提供装置10は、入力された音声データと対応する音声データであって、出力対象とする音声データを、各モデルが個別に生成した音声データの中から、音声データ同士の類似度に基づいて選択すればよい。
なお、情報提供装置10は、例えば、動画像、株価の時系列変化を示す情報、渋滞の時系列変化を示す情報等、複数の情報を含み、各情報の出現順序が意味を有する情報を入力情報とし、同様に複数の情報を含み、各情報の出現順序が意味を有する情報を出力情報とするのであれば、任意の情報について、上述した出力処理を実行してよい。
〔2.情報提供装置が有する機能構成の一例について〕
以下、上記した検出処理および配信処理を実現する情報提供装置10が有する機能構成の一例について説明する。図3は、実施形態に係る情報提供装置の構成例を示す図である。図3に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、任意の装置との間での情報の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現されてる。また、記憶部30は、学習データデータベース31およびモデルデータベース32を記憶する。
学習データデータベース31には、モデルの学習に用いる学習データが登録される。例えば、図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図4に示すように、学習データデータベースには、「テキストID(Identifier)」、「テキストデータ」、「第1抽出単語」、「見出しテキストデータ」、および「第2抽出単語」といった項目を有する情報が登録される。
ここで、「テキストID」とは、学習データとなる文章の識別子、すなわち、学習文章の識別子である。また、「テキストデータ」とは、学習文章のテキストデータである。また、「第1抽出単語」とは、対応付けられた学習文章から抽出された単語であり、対応付けられたテキストデータから抽出された順に登録されている。また、「見出しテキストデータ」とは、対応付けられたテキストデータの見出しとなるテキストデータである。また、「第2抽出単語」とは、対応付けられた見出しテキストデータから抽出された単語であり、対応付けられたテキストデータから抽出された順に登録されている。
なお、図4に示す例では、「テキストデータ#T1」、「単語#1-1」、「見出しテキストデータ#T1」、「単語#2-1」といった概念的な値を記載したが、実際には、学習文章や見出しのテキストのデータや単語のテキスト等が登録されることとなる。また、図4に示す情報以外にも、学習データデータベース31には、学習データに関する任意の情報が登録されていてよい。
例えば、図4に示す例では、学習データデータベース31には、テキストID「T1」が示す学習文章として、テキストデータ「テキストデータ#T1」が登録されており、テキストデータ「テキストデータ#T1」に含まれる「単語#1-1」、「単語#1-2」が、テキストデータ「テキストデータ#T1」において出現する順に登録されている。また学習データデータベース31には、テキストデータ「テキストデータ#T1」と対応する見出しとして、見出しテキストデータ「見出しテキストデータ#T1」が登録されており、見出しテキストデータ「見出しテキストデータ#T1」に含まれる「単語#2-1」、「単語#2-2」が、見出しテキストデータ「見出しテキストデータ#T1」において出現する順に登録されている。
図2に戻り、説明を続ける。モデルデータベース32には、順序性を有する複数の情報を含む入力情報から、順序性を有する複数の情報を含む出力情報を生成する複数のモデルが登録されている。より具体的には、モデルデータベース32には、初期パラメータをランダムに変更した複数のモデルであって、入力文章に含まれる各単語を出現順に入力すると、出力文章に含まれる各単語を出現順に出力するモデルが登録されている。例えば、モデルデータベース32には、入力文章の見出しを生成するRNNが登録されている。
例えば、図5は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図5に示すように、学習データデータベースには、「モデルID」、「モデルデータ」、および「初期値」といった項目を有する情報が登録される。
ここで、「モデルID」とは、モデルを識別する識別子である。また、「モデルデータ」とは、モデルのデータであり、例えば、RNNを構成するノード間の接続関係や、ノード間を接続する接続経路における接続係数(すなわち、各ノードが出力した値に対して適用される重み)等が登録される。また、「初期値」とは、各モデルを生成する際に採用した初期値を示す情報であり、例えば、RNNを構成するノード間の接続係数の初期値である。
図5に示す例では、モデルデータベース32には、モデルID「モデル#1」、モデルデータ「モデルデータ#1」、および初期値「初期値#1」が対応付けて登録されている。このような情報は、モデルID「モデル#1」が示すモデルのデータがモデルデータ「モデルデータ#1」であり、初期値「初期値#1」から学習が行われたモデルであるものとする。
なお、図5に示す例では、「モデルデータ#1」や「初期値」といった概念的な値を記載したが、実際には、接続関係や接続係数を示す数値が等が登録されることとなる。また、図5に示す情報以外にも、モデルデータベース32には、モデルに関する任意の情報が登録されていてよい。
図3に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図4に示すように、制御部40は、学習部41、取得部42、推定部43、選択部44、および出力部45を有する。
学習部41は、入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルの学習を行う。より具体的には、学習部41は、ノード間の接続係数がランダムに異なる複数のモデルから生成した複数のモデルであって、それぞれ個別に学習情報が有する特徴をモデルに学習させる。例えば、学習部41は、再帰型ニューラルネットワークの学習を行う。
例えば、学習部41は、接続係数の値をそれぞれランダムに変更した複数のRNNをモデルとして生成する。続いて、学習部41は、学習データデータベース31に登録された学習データを用いて、各モデルの学習をそれぞれ個別に実行する。例えば、学習部41は、あるテキストデータから抽出された第1抽出単語を順番にモデルに入力した際に、そのテキストデータと対応する見出しテキストデータから抽出された第2抽出単語を、順番に出力するように、モデルが有する接続係数を補正を行う。すなわち、学習部41は、エンコーダとデコーダーとを有するエンコーダデコーダモデルの学習を行う。
より具体的には、学習部41は、第1抽出単語を全て入力した後で、第2抽出単語のうち最初に出現する単語を出力し、その単語をさらに入力した際に、第2抽出単語のうち2番目に出現する単語を出力するように、モデルの学習を行う。なお、学習については、バックプロパゲーション等、任意の学習が採用可能である。そして、学習部41は、各モデルごとに学習を実行し、学習済のモデルをモデルデータベース32に登録する。
取得部42は、入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する。例えば、取得部42は、モデルとして、出力された情報が入力された場合に、新たな情報を出力する再帰型ニューラルネットワークが生成した出力情報を取得する。また、情報提供装置10は、ノード間の接続係数がランダムに異なる複数のモデルから生成した複数のモデルであって、それぞれ個別に学習情報が有する特徴を学習させた複数のモデルが生成した出力情報を取得する。
例えば、取得部42は、モデルとして、複数の情報を含む入力情報が入力された場合に入力情報が有する特徴を示す特徴情報を生成するエンコーダと、エンコーダが生成した特徴情報から出力情報に含まれる複数の情報を順に生成するデコーダとを含む複数のモデルが所定の対象情報から生成した複数の出力情報を取得する。また、例えば、取得部42は、テキストである入力情報からテキストである出力情報を生成する複数のモデルが、テキストである対象情報から生成した複数の出力情報を取得する。また、取得部42、テキストである入力情報から、テキストの見出し若しくは要約となるテキストである出力情報を生成する複数のモデルが、テキストである対象情報から生成した複数の出力情報を取得する。
例えば、取得部42は、配信装置200から処理対象となる対象文章を受付ける。このような場合、取得部42は、モデルデータベース32に登録された各モデルごとに、以下の処理を実行する。まず、取得部42は、対象文章に含まれる単語を抽出し、抽出した単語の特徴量を、各単語の出現順にモデルに入力する。続いて、取得部42は、モデルが最初に出力した特徴量から見出しの最初に登場する単語を特定するとともに、モデルが出力した特徴量を再度モデルに入力することで、次に出現する単語の特徴量をモデルから出力させる。そして、情報提供装置10は、モデルが特徴量を出力する度に、モデルが出力した特徴量を再度モデルに入力することで、見出しに含まれる各単語の特徴量を、各単語の出現順に取得する。その後、取得部42は、取得した特徴量から見出しに含まれる各単語を特定し、特定した単語から見出しとなるテキストを生成する。
推定部43は、出力情報同士の類似性に基づいて、所定の対象情報から生成されうる出力情報の確率分布を推定する。例えば、推定部43は、複数のモデルが生成した出力情報を標本と見做したカーネル密度推定により、所定の対象情報から生成されうる出力情報の確率分布を推定する。
例えば、推定部43は、取得部42によって取得された各見出しを分散表現に変換し、各分散表現の類似度を算出する。例えば、推定部43は、上述した式(5)、式(7)若しくは式(9)を用いて、各分散表現の類似度を算出する。そして、推定部43は、式(2)を用いて、各分散表現のスコアcを算出する。ここで、式(2)を用いて各分散表現スコアcを算出する処理は、式(6)を用いて、各見出しを標本とする確率密度関数を推定する処理、すなわち、複数のモデルが出力した見出しを標本と見做したカーネル密度推定により、所定の対象情報から生成されうる出力情報の確率分布を推定する処理と同義となる。
選択部44は、複数の出力情報同士の類似性に基づいて、複数の出力情報の中から対象情報と対応する対応情報として出力する出力情報を選択する。また、選択部44は、複数の出力情報の意味的な類似性に基づいて、対応情報として出力する出力情報を選択する。また、選択部44は、複数の出力情報と対応するベクトルのコサイン類似度に基づいて、対応情報として出力する出力情報を選択する。例えば、選択部44は、出力情報に含まれる複数の情報のそれぞれと対応するベクトルを統合したベクトルを出力情報と対応するベクトルとして生成し、生成したベクトル同士のコサイン類似度に基づいて、対応情報として出力する出力情報を選択する。
ここで、選択部44は、複数の出力情報のうち、他の出力情報との類似性が高い出力情報を選択する。すなわち、選択部44は、複数の出力情報のうち、確率分布における所定の領域に含まれる出力情報を選択する。換言すると、選択部44は、確率分布のうち、より多くの出力情報が含まれうる領域に含まれる出力情報を選択する。
例えば、選択部44は、式(2)で示される各見出しのスコアcを取得する。そして、選択部44は、各見出しのうち、スコアcの値が最も大きい見出しを出力対象として選択する。すなわち、選択部44は、生成されうる見出しの確率分布のうち、最も多くの見出しが生成されうる領域に含まれる見出しを、各モデルが生成した見出しの中から選択する。換言すると、選択部44は、より見出しとして相応しい可能性が高い見出しを選択する。
出力部45は、選択部44により選択された出力情報を対応情報として出力する。例えば、出力部45は、選択部44により選択された見出しを、入力文章の見出しとして配信装置200に出力する。
〔3.情報提供装置が実行する処理の流れについて〕
次に、図6を用いて、情報提供装置10が実行する処理の流れの一例について説明する。図6は、実施形態に係る情報提供装置が実行する出力処理の流れの一例を示すフローチャートである。
まず、情報提供装置10は、文章を受付けると(ステップS101)、複数のモデルを用いて、文章から複数の見出しを生成する(ステップS102)。そして、情報提供装置10は、見出し同士の類似性に基づいて、他の見出しとの類似性が高い見出しを選択する(ステップS103)。その後、情報提供装置10は、選択した見出しを受付けた文章の見出しとして出力し(ステップS104)、処理を終了する。
〔4.変形例〕
上記では、情報提供装置10による出力処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10が実行する処理のバリエーションについて説明する。
〔4-1.モデルについて〕
上述した説明では、情報提供装置10は、RNNをモデルとして採用した。より具体的には、情報提供装置10は、入力情報に含まれる情報を出現順に入力した場合に、出力情報に含まれる情報を出現順に出力するモデルであって、前回出力した情報を再度入力した場合に、その情報の次に出現する情報を出力するモデルを採用した。しかしながら、実施形態は、これに限定されるものではない。
例えば、情報提供装置10は、CNNやLSTMにより実現される複数のモデルを用いて、複数の見出しの候補を生成し、生成した候補同士の類似性に基づいて、見出しとする候補の選択を行ってもよい。また、情報提供装置10は、それぞれ種別が異なるモデルを用いてもよい。例えば、情報提供装置10は、入力情報から出力情報を生成するCNN、LSTM、RNNのそれぞれを用いて、入力情報と対応する出力情報の候補を生成し、生成した候補の類似性に基づいて、出力情報とする候補の選択を行ってもよい。
このように、情報提供装置10は、モデルの種別に係わらず、複数のモデルをそれぞれ独立に用いて入力情報から出力情報を生成し、生成した出力情報同士の類似性に基づいて、生成した出力情報の中から、出力対象とする出力情報を選択すればよい。このような処理を実行することにより、情報提供装置10は、各モデルを用いて入力情報から出力情報を生成する処理の並列化を実現するので、効率的な出力情報の生成を実現することができる。
〔4-2.各モデルの初期値について〕
上述した例では、情報提供装置10は、ランダムな初期値から学習が行われた複数のモデルをそれぞれ独立に用いることで、出力情報の候補の生成を行った。しかしながら、実施形態は、これに限定されるものではない。情報提供装置10は、それぞれ異なるモデルを用いて複数の出力情報の候補を個別に生成し、生成した出力情報の候補から出力情報を選択するのであれば、任意の手法により学習が行われたモデルを採用することができる。
例えば、情報提供装置10は、同一のモデルから生成された複数のモデルであって、学習情報が有する特徴をそれぞれ異なる段階まで学習させた複数のモデルにより生成された出力情報を取得してもよい。例えば、情報提供装置10は、1つのモデルを準備し、学習情報が有する特徴を学習させる。ここで、情報提供装置10は、ある段階までモデルの学習を進めた場合は、そのモデルのコピーを生成し、生成したモデルのコピーを第1モデルとして採用する。また、情報提供装置10は、モデルの学習をさらに進め、ある段階までモデルの学習を進めた場合は、そのモデルのコピーを第2モデルとして採用する。すなわち、情報提供装置10は、単一のモデルから生成された複数のモデルであって、それぞれ学習段階が異なる複数のモデルを準備する。そして、情報提供装置10は、準備した複数のモデルを用いて、出力情報の候補を生成してもよい。
また、例えば、情報提供装置10は、ノード間の接続関係がそれぞれ異なる複数のモデルにより生成された出力情報を取得してもよい。すなわち、情報提供装置10は、それぞれ構造が異なる複数のモデルを用いて、出力情報の候補を生成してもよい。
また、例えば、情報提供装置10は、それぞれ異なる学習対象情報の特徴を学習した複数のモデルであって、所定の学習情報から生成された複数の学習対象情報の特徴を学習した複数のモデルにより生成された出力情報を取得してもよい。すなわち、情報提供装置10は、バギングの手法を用いて学習が行われた複数のモデルを用いてもよい。例えば、情報提供装置10は、学習情報からブートストラップサンプリングによって複数の学習対象情報を生成する。そして、情報提供装置10は、それぞれ異なる学習対象情報を用いて学習が行われた複数のモデルを準備し、これらのモデルを用いて出力情報の候補を生成してもよい。
〔4-3.装置構成〕
記憶部30に登録された各データベース31、32は、外部のストレージサーバに保持されていてもよい。また、情報提供装置10は、学習処理を実行する学習サーバ、および出力処理を実行する出力サーバとが連携して動作することにより、実現されてもよい。このような場合、学習サーバには図3に示す学習部41が配置され、出力サーバには取得部42、推定部43、選択部44、および出力部45が配置されていればよい。
〔4-4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔4-5.プログラム〕
また、上述した実施形態に係る情報提供装置10は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムまたはデータ(例えば、モデルM1)を実行することにより、制御部40の機能を実現する。コンピュータ1000の演算装置1030は、これらのプログラムまたはデータ(例えば、モデルM1)を一次記憶装置1040から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
〔5.効果〕
上述したように、情報提供装置10は、入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する。そして、情報提供装置10は、複数の出力情報同士の類似性に基づいて、その複数の出力情報の中から対象情報と対応する対応情報として出力する出力情報を選択し、選択された出力情報を対応情報として出力する。このような処理の結果、情報提供装置10は、複数のモデルが出力した出力情報のアンサンブルにおいて、各モデルによる処理を並列化することができるので、入力情報と対応する出力情報の生成効率を改善することができる。
また、情報提供装置10は、複数の出力情報の意味的な類似性に基づいて、対応情報として出力する出力情報を選択する。また、情報提供装置10は、複数の出力情報と対応するベクトルのコサイン類似度に基づいて、対応情報として出力する出力情報を選択する。例えば、情報提供装置10は、出力情報に含まれる複数の情報のそれぞれと対応するベクトルを統合したベクトルをその出力情報と対応するベクトルとして生成し、生成したベクトル同士のコサイン類似度に基づいて、対応情報として出力する出力情報を選択する。また、情報提供装置10は、複数の出力情報のうち、他の出力情報との類似性が高い出力情報を選択する。このため、情報提供装置10は、各モデルが個別に生成した出力情報から、入力情報と対応する対応情報として最も適切な可能性が高い出力情報を出力することができる。
また、情報提供装置10は、出力情報同士の類似性に基づいて、所定の対象情報から生成されうる出力情報の確率分布を推定し、複数の出力情報のうち、確率分布における所定の領域に含まれる出力情報を選択する。例えば、情報提供装置10は、複数のモデルが生成した出力情報を標本と見做したカーネル密度推定により、所定の対象情報から生成されうる出力情報の確率分布を推定する。そして、情報提供装置10は、確率分布のうち、より多くの出力情報が含まれうる領域に含まれる出力情報を選択する。このため、情報提供装置10は、各モデルが個別に生成した出力情報から、入力情報と対応する対応情報として最も適切な可能性が高い出力情報を出力することができる。
また、情報提供装置10は、モデルとして、出力された情報が入力された場合に、新たな情報を出力する再帰型ニューラルネットワークが生成した出力情報を取得する。例えば、情報提供装置10は、ノード間の接続係数がランダムに異なる複数のモデルから生成した複数のモデルであって、それぞれ個別に学習情報が有する特徴を学習させた複数のモデルが生成した出力情報を取得する。
例えば、情報提供装置10は、同一のモデルから生成された複数のモデルであって、学習情報が有する特徴をそれぞれ異なる段階まで学習させた複数のモデルにより生成された出力情報を取得する。また、他の例では、情報提供装置10は、ノード間の接続関係がそれぞれ異なる複数のモデルにより生成された出力情報を取得する。また、他の例では、情報提供装置10は、それぞれ異なる学習対象情報の特徴を学習した複数のモデルであって、所定の学習情報から生成された複数の学習対象情報の特徴を学習した複数のモデルにより生成された出力情報を取得する。
また、情報提供装置10は、モデルとして、複数の情報を含む入力情報が入力された場合にその入力情報が有する特徴を示す特徴情報を生成するエンコーダと、エンコーダが生成した特徴情報から出力情報に含まれる複数の情報を順に生成するデコーダとを含む複数のモデルが所定の対象情報から生成した複数の出力情報を取得する。このため、情報提供装置10は、例えば、連続性を有する情報を含む入力情報と対応する対応情報であって、連続性を有する情報を含む対応情報の生成精度を向上させることができる。
また、情報提供装置10は、テキストである入力情報からテキストである出力情報を生成する複数のモデルが、テキストである対象情報から生成した複数の出力情報を取得する。例えば、情報提供装置10は、テキストである入力情報から、そのテキストの見出し若しくは要約となるテキストである出力情報を生成する複数のモデルが、テキストである対象情報から生成した複数の出力情報を取得する。このため、情報提供装置10は、例えば、入力文章から生成される見出しの精度を向上させることができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、検出部は、検出手段や検出回路に読み替えることができる。
10 情報提供装置
20 通信部
30 記憶部
31 学習データデータベース
32 モデルデータベース
40 制御部
41 学習部
42 取得部
43 推定部
44 選択部
45 出力部
100 端末装置
200 配信装置

Claims (19)

  1. 入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する取得部と、
    前記複数の出力情報同士の類似性をすべての組合せについて算出し、当該複数の出力情報の中から、他の出力情報との間の類似性の和が所定の条件を満たす出力情報を、前記対象情報と対応する対応情報として選択する選択部と、
    前記選択部により選択された出力情報を前記対応情報として出力する出力部と
    を有することを特徴とする出力装置。
  2. 前記選択部は、前記複数の出力情報の意味的な類似性に基づいて、前記対応情報として出力する出力情報を選択する
    ことを特徴とする請求項1に記載の出力装置。
  3. 前記選択部は、前記複数の出力情報と対応するベクトルのコサイン類似度に基づいて、前記対応情報として出力する出力情報を選択する
    ことを特徴とする請求項1または2に記載の出力装置。
  4. 前記選択部は、前記出力情報に含まれる複数の情報のそれぞれと対応するベクトルを統合したベクトルを当該出力情報と対応するベクトルとして生成し、生成したベクトル同士のコサイン類似度に基づいて、前記対応情報として出力する出力情報を選択する
    ことを特徴とする請求項3に記載の出力装置。
  5. 前記選択部は、前記複数の出力情報のうち、他の出力情報との間の類似性の和が所定の閾値を超える出力情報を選択する
    ことを特徴とする請求項1~4のうちいずれか1つに記載の出力装置。
  6. 入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する取得部と、
    前記複数の出力情報を、ガウシアンカーネルを用いたカーネル密度推定における標本と見做して、前記所定の対象情報から生成されうる出力情報の確率分布であって、相互に類似する出力情報同士が近傍に分布された場合の確率分布を推定する推定部と、
    前記複数の出力情報のうち、前記確率分布における所定の領域に含まれる出力情報を前記対象情報と対応する対応情報として選択する選択部と、
    前記選択部により選択された出力情報を前記対応情報として出力する出力部と
    を有することを特徴とする出力装置。
  7. 前記選択部は、前記確率分布のうち、より多くの出力情報が含まれうる領域に含まれる出力情報を選択する
    ことを特徴とする請求項6に記載の出力装置。
  8. 前記取得部は、前記モデルとして、前記出力された情報が入力された場合に、新たな情報を出力する再帰型ニューラルネットワークが生成した出力情報を取得する
    ことを特徴とする請求項1~のうちいずれか1つに記載の出力装置。
  9. 前記取得部は、ノード間の接続係数がランダムに異なる複数のモデルから生成した複数のモデルであって、それぞれ個別に学習情報が有する特徴を学習させた複数のモデルが生成した出力情報を取得する
    ことを特徴とする請求項に記載の出力装置。
  10. 前記取得部は、同一のモデルから生成された複数のモデルであって、学習情報が有する特徴をそれぞれ異なる段階まで学習させた複数のモデルにより生成された出力情報を取得する
    ことを特徴とする請求項に記載の出力装置。
  11. 前記取得部は、ノード間の接続関係がそれぞれ異なる複数のモデルにより生成された出力情報を取得する
    ことを特徴とする請求項に記載の出力装置。
  12. 前記取得部は、それぞれ異なる学習対象情報の特徴を学習した複数のモデルであって、所定の学習情報から生成された複数の学習対象情報の特徴を学習した複数のモデルにより生成された出力情報を取得する
    ことを特徴とする請求項に記載の出力装置。
  13. 前記取得部は、前記モデルとして、複数の情報を含む入力情報が入力された場合に当該入力情報が有する特徴を示す特徴情報を生成するエンコーダと、エンコーダが生成した特徴情報から出力情報に含まれる複数の情報を順に生成するデコーダとを含む複数のモデルが所定の対象情報から生成した複数の出力情報を取得する
    ことを特徴とする請求項1~1のうちいずれか1つに記載の出力装置。
  14. 前記取得部は、テキストである入力情報からテキストである出力情報を生成する複数のモデルが、テキストである対象情報から生成した複数の出力情報を取得する
    ことを特徴とする請求項1~1のうちいずれか1つに記載の出力装置。
  15. 前記取得部は、テキストである入力情報から、当該テキストの見出し若しくは要約となるテキストである出力情報を生成する複数のモデルが、テキストである対象情報から生成した複数の出力情報を取得する
    ことを特徴とする請求項1に記載の出力装置。
  16. 出力装置が実行する出力方法であって、
    入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する取得工程と、
    前記複数の出力情報同士の類似性をすべての組合せについて算出し、当該複数の出力情報の中から、他の出力情報との間の類似性の和が所定の条件を満たす出力情報を、前記対象情報と対応する対応情報として選択する選択工程と、
    前記選択工程により選択された出力情報を前記対応情報として出力する出力工程と
    を含むことを特徴とする出力方法。
  17. 入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する取得手順と、
    前記複数の出力情報同士の類似性をすべての組合せについて算出し、当該複数の出力情報の中から、他の出力情報との間の類似性の和が所定の条件を満たす出力情報を、前記対象情報と対応する対応情報として選択する選択手順と、
    前記選択手順により選択された出力情報を前記対応情報として出力する出力手順と
    をコンピュータに実行させるための出力プログラム。
  18. 出力装置が実行する出力方法であって、
    入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する取得工程と、
    前記複数の出力情報を、ガウシアンカーネルを用いたカーネル密度推定における標本と見做して、前記所定の対象情報から生成されうる出力情報の確率分布であって、相互に類似する出力情報同士が近傍に分布された場合の確率分布を推定する推定工程と、
    前記複数の出力情報のうち、前記確率分布における所定の領域に含まれる出力情報を前記対象情報と対応する対応情報として選択する選択工程と、
    前記選択工程により選択された出力情報を前記対応情報として出力する出力工程と
    を含むことを特徴とする出力方法。
  19. 入力情報から順序関係を有する複数の情報を含んだ出力情報を生成する複数のモデルが所定の対象情報から生成した複数の出力情報を取得する取得手順と、
    前記複数の出力情報を、ガウシアンカーネルを用いたカーネル密度推定における標本と見做して、前記所定の対象情報から生成されうる出力情報の確率分布であって、相互に類似する出力情報同士が近傍に分布された場合の確率分布を推定する推定手順と、
    前記複数の出力情報のうち、前記確率分布における所定の領域に含まれる出力情報を前記対象情報と対応する対応情報として選択する選択手順と、
    前記選択手順により選択された出力情報を前記対応情報として出力する出力手順と
    をコンピュータに実行させるための出力プログラム。
JP2018122446A 2018-06-27 2018-06-27 出力装置、出力方法および出力プログラム Active JP7017478B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018122446A JP7017478B2 (ja) 2018-06-27 2018-06-27 出力装置、出力方法および出力プログラム
US16/237,840 US20200005137A1 (en) 2018-06-27 2019-01-02 Output device, output method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018122446A JP7017478B2 (ja) 2018-06-27 2018-06-27 出力装置、出力方法および出力プログラム

Publications (2)

Publication Number Publication Date
JP2020004054A JP2020004054A (ja) 2020-01-09
JP7017478B2 true JP7017478B2 (ja) 2022-02-08

Family

ID=69007757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018122446A Active JP7017478B2 (ja) 2018-06-27 2018-06-27 出力装置、出力方法および出力プログラム

Country Status (2)

Country Link
US (1) US20200005137A1 (ja)
JP (1) JP7017478B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7396762B1 (ja) * 2023-09-12 2023-12-12 株式会社Godot 情報処理システム、情報処理方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110379A (ja) 2007-10-31 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> パターン予測装置、パターン予測方法及びパターン予測プログラム
JP2011138306A (ja) 2009-12-28 2011-07-14 National Institute Of Information & Communication Technology 文書要約装置、文書処理装置、文書要約方法、文書処理方法、及びプログラム
US20120310990A1 (en) 2011-06-03 2012-12-06 Microsoft Corporation Semantic search interface for data collections
JP2013250653A (ja) 2012-05-30 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> コンテンツ要約支援装置、方法、及びプログラム
JP2016218869A (ja) 2015-05-22 2016-12-22 富士通株式会社 設定方法、設定プログラム、及び設定装置
JP2017167987A (ja) 2016-03-17 2017-09-21 ヤフー株式会社 判定装置、および判定方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242258B2 (en) * 2015-09-30 2019-03-26 Microsoft Technology Licensing, Llc Organizational data enrichment
US9858257B1 (en) * 2016-07-20 2018-01-02 Amazon Technologies, Inc. Distinguishing intentional linguistic deviations from unintentional linguistic deviations
GB201706047D0 (en) * 2017-04-14 2017-05-31 Digital Genius Ltd Automated tagging of text
US10275452B2 (en) * 2017-05-12 2019-04-30 International Business Machines Corporation Automatic, unsupervised paraphrase detection
US11010436B1 (en) * 2018-04-20 2021-05-18 Facebook, Inc. Engaging users by personalized composing-content recommendation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110379A (ja) 2007-10-31 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> パターン予測装置、パターン予測方法及びパターン予測プログラム
JP2011138306A (ja) 2009-12-28 2011-07-14 National Institute Of Information & Communication Technology 文書要約装置、文書処理装置、文書要約方法、文書処理方法、及びプログラム
US20120310990A1 (en) 2011-06-03 2012-12-06 Microsoft Corporation Semantic search interface for data collections
JP2013250653A (ja) 2012-05-30 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> コンテンツ要約支援装置、方法、及びプログラム
JP2016218869A (ja) 2015-05-22 2016-12-22 富士通株式会社 設定方法、設定プログラム、及び設定装置
JP2017167987A (ja) 2016-03-17 2017-09-21 ヤフー株式会社 判定装置、および判定方法

Also Published As

Publication number Publication date
JP2020004054A (ja) 2020-01-09
US20200005137A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP7360497B2 (ja) クロスモーダルな特徴の抽出方法、抽出装置、ならびに、プログラム
CN111539197B (zh) 文本匹配方法和装置以及计算机系统和可读存储介质
US11521110B2 (en) Learning apparatus, learning method, and non-transitory computer readable storage medium
JP6151404B1 (ja) 学習装置、学習方法および学習プログラム
JP6975610B2 (ja) 学習装置および学習方法
CN111783810B (zh) 用于确定用户的属性信息的方法和装置
JP6199517B1 (ja) 決定装置、決定方法および決定プログラム
CN110516033B (zh) 一种计算用户偏好的方法和装置
JP6370962B1 (ja) 生成装置、生成方法および生成プログラム
CN111078842A (zh) 查询结果的确定方法、装置、服务器及存储介质
CN114896454B (zh) 一种基于标签分析的短视频数据推荐方法及系统
US11841897B2 (en) Identifying content items in response to a text-based request
CN113688310A (zh) 一种内容推荐方法、装置、设备及存储介质
JP6824795B2 (ja) 修正装置、修正方法および修正プログラム
JP2017199383A (ja) モデル
JP2020021343A (ja) 解析装置、解析方法及びプログラム
JP7058556B2 (ja) 判定装置、判定方法、および判定プログラム
JP7017478B2 (ja) 出力装置、出力方法および出力プログラム
JP6963988B2 (ja) 提供装置、提供方法および提供プログラム
JP6964481B2 (ja) 学習装置、プログラムおよび学習方法
JP6680655B2 (ja) 学習装置および学習方法
CN112307738A (zh) 用于处理文本的方法和装置
CN107483595B (zh) 信息推送方法和装置
JP2019057266A (ja) 生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル
JP7001559B2 (ja) 公開装置、公開方法および公開プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220127

R150 Certificate of patent or registration of utility model

Ref document number: 7017478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250