JP2019133529A - Learning apparatus, generation apparatus, learning method, generation method, learning program, generation program, and model - Google Patents

Learning apparatus, generation apparatus, learning method, generation method, learning program, generation program, and model Download PDF

Info

Publication number
JP2019133529A
JP2019133529A JP2018016776A JP2018016776A JP2019133529A JP 2019133529 A JP2019133529 A JP 2019133529A JP 2018016776 A JP2018016776 A JP 2018016776A JP 2018016776 A JP2018016776 A JP 2018016776A JP 2019133529 A JP2019133529 A JP 2019133529A
Authority
JP
Japan
Prior art keywords
text
learning
model
input
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018016776A
Other languages
Japanese (ja)
Other versions
JP6906456B2 (en
Inventor
隼人 小林
Hayato Kobayashi
隼人 小林
慎太郎 竹前
Shintaro Takemae
慎太郎 竹前
一真 村尾
Kazuma Murao
一真 村尾
太一 谷塚
Taichi Tanizuka
太一 谷塚
正樹 野口
Masaki Noguchi
正樹 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018016776A priority Critical patent/JP6906456B2/en
Publication of JP2019133529A publication Critical patent/JP2019133529A/en
Application granted granted Critical
Publication of JP6906456B2 publication Critical patent/JP6906456B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To generate a text with high accuracy.SOLUTION: A learning apparatus includes a generation unit and a learning unit. The generation unit generates a fourth text corresponding to a third text from the third text by use of a model which is generated by learning based on a relationship between a first text and a second text corresponding to the first text. The learning unit executes learning based on a relationship between the third text and the fourth text.SELECTED DRAWING: Figure 1

Description

本発明は、学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、及びモデルに関する。   The present invention relates to a learning device, a generation device, a learning method, a generation method, a learning program, a generation program, and a model.

テキストを装置に生成させる技術が知られている。例えば、装置に文書の要約文を生成させる技術が知られている。装置にテキストを生成させることで、人がテキストを生成する手間を省くことができる。   Techniques for generating text on a device are known. For example, a technique for causing a device to generate a summary sentence of a document is known. By causing the device to generate text, it is possible to save the person from generating text.

特開2005−115628号公報JP 2005-115628 A 特開2005−174173号公報JP 2005-174173 A

近年、機械学習が注目されている。テキストの生成は、例えば、複数組のテキスト(例えば、文書とその要約文を1組とした複数組のテキスト)を学習データとして学習した学習モデル(以下、単にモデルという。)を使用することで実現可能である。   In recent years, machine learning has attracted attention. For example, the text is generated by using a learning model (hereinafter simply referred to as a model) obtained by learning a plurality of sets of text (for example, a plurality of sets of texts including a document and its summary sentence) as learning data. It is feasible.

学習用のテキストの組を多く準備することができれば、精度の高いモデルを実現可能である。しかし、テキストの組は人の手で作成されるため、用意できるテキストの組の数には限界がある。テキストの組の数の数が少ないと、精度の高いモデルの実現は困難となる。モデルの精度が低いと、装置が生成するテキストは精度(例えば、正確性)が低いものとなる。   If a large number of text sets for learning can be prepared, a highly accurate model can be realized. However, since text sets are created manually, the number of text sets that can be prepared is limited. When the number of text sets is small, it is difficult to realize a highly accurate model. When the accuracy of the model is low, the text generated by the device is low in accuracy (eg, accuracy).

本願は、上記に鑑みてなされたものであって、精度が高いテキストを生成できるようにすることを目的とする。   The present application has been made in view of the above, and an object thereof is to enable generation of highly accurate text.

本願に係る学習装置は、第1のテキストと第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて、第3のテキストから第3のテキストに対応する第4のテキストを生成する生成部と、第3のテキストと第4のテキストとの関係性に基づいて学習を行う学習部と、を備える。   The learning device according to the present application supports a third text to a third text using a model generated by learning based on the relationship between the first text and the second text corresponding to the first text. A generation unit that generates a fourth text to be performed, and a learning unit that performs learning based on the relationship between the third text and the fourth text.

実施形態の一態様によれば、精度が高いテキストを生成できるようにすることができる。   According to one aspect of the embodiment, it is possible to generate text with high accuracy.

図1は、実施形態1に係る情報処理装置が実行する処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of processing executed by the information processing apparatus according to the first embodiment. 図2は、コンテンツが表示された端末装置を示す図である。FIG. 2 is a diagram illustrating a terminal device on which content is displayed. 図3は、学習データデータベースに登録される学習データの一例を示す図である。FIG. 3 is a diagram illustrating an example of learning data registered in the learning data database. 図4は、擬似見出しが格納された学習データの一例を示す図である。FIG. 4 is a diagram illustrating an example of learning data in which pseudo headings are stored. 図5は、モデルの一例を示す図である。FIG. 5 is a diagram illustrating an example of a model. 図6は、実施形態2に係る情報処理装置が実行する処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of processing executed by the information processing apparatus according to the second embodiment. 図7は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 7 is a diagram illustrating a configuration example of the information processing apparatus according to the embodiment. 図8は、学習データデータベースに登録される情報の一例を示す図である。FIG. 8 is a diagram illustrating an example of information registered in the learning data database. 図9は、モデルデータベースに登録される情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of information registered in the model database. 図10は、コンテンツ情報データベースに登録される情報の一例を示す図である。FIG. 10 is a diagram illustrating an example of information registered in the content information database. 図11は、学習処理の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the learning process. 図12は、生成処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the generation process. 図13は、実施形態に係る情報処理装置が実行する処理の他の例を示す図である。FIG. 13 is a diagram illustrating another example of processing executed by the information processing apparatus according to the embodiment. 図14は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 14 is a hardware configuration diagram illustrating an example of a computer that implements the functions of the information processing apparatus.

以下に、本願に係る学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、以下の実施形態により本願に係る学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a learning device, a generation device, a learning method, a generation method, a learning program, a generation program, and a form for implementing a model (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. explain. Note that the learning device, the generation device, the learning method, the generation method, the learning program, the generation program, and the model according to the present application are not limited to the following embodiments. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

〔実施形態1〕
〔1−1.情報処理装置の一例〕
最初に、生成装置および学習装置の一例である情報処理装置が実行する学習処理の一例について説明する。図1は、実施形態1に係る情報処理装置10が実行する処理の一例を示す図である。情報処理装置10は、インターネット等の所定のネットワークを介して、所定のクライアントが使用するデータサーバ20および端末装置30と通信可能である。
[Embodiment 1]
[1-1. Example of information processing apparatus]
First, an example of learning processing executed by an information processing apparatus that is an example of a generation apparatus and a learning apparatus will be described. FIG. 1 is a diagram illustrating an example of processing executed by the information processing apparatus 10 according to the first embodiment. The information processing apparatus 10 can communicate with a data server 20 and a terminal device 30 used by a predetermined client via a predetermined network such as the Internet.

情報処理装置10は、後述の学習処理及び生成処理を実行する装置である。情報処理装置10は、サーバ装置やクラウドシステム等により実現される。   The information processing apparatus 10 is an apparatus that executes learning processing and generation processing described later. The information processing device 10 is realized by a server device, a cloud system, or the like.

データサーバ20は、情報処理装置10が後述する学習処理を実行する際に用いる学習データや、情報処理装置10が後述する生成処理を実行する際に出力する配信コンテンツを管理する情報処理装置である。データサーバ20は、サーバ装置やクラウドシステム等により実現される。データサーバ20は、例えば、端末装置30に対してニュースや、利用者によって投稿された各種のコンテンツを配信する配信サービスを実行する。このような配信サービスは、例えば、各種ニュースの配信サイトやSNS(Social Networking Service)等により実現される。   The data server 20 is an information processing apparatus that manages learning data used when the information processing apparatus 10 executes learning processing described later, and distribution content output when the information processing apparatus 10 executes generation processing described later. . The data server 20 is realized by a server device, a cloud system, or the like. For example, the data server 20 executes a distribution service that distributes news and various contents posted by the user to the terminal device 30. Such a distribution service is realized by, for example, various news distribution sites or SNS (Social Networking Service).

端末装置30は、スマートフォンやタブレット等のスマートデバイスであり、3G(3rd Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。なお、端末装置30は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。   The terminal device 30 is a smart device such as a smartphone or a tablet, and is a mobile terminal device that can communicate with an arbitrary server device via a wireless communication network such as 3G (3rd Generation) or LTE (Long Term Evolution). is there. The terminal device 30 may be not only a smart device but also an information processing device such as a desktop PC (Personal Computer) or a notebook PC.

〔1−2.要約コンテンツの配信について〕
ここで、データサーバ20は、配信対象となる配信コンテンツが複数存在する場合には、各コンテンツを全て配信するのではなく、各コンテンツの要約となるテキストが含まれる要約コンテンツを端末装置30へと配信することがある。配信コンテンツは、例えば、情報媒体或いは情報の配信主体から取得したニュース記事である。一例として、要約コンテンツは、配信コンテンツへのリンクが張られたポータルサイトのトップページである。
[1-2. About distribution of summary content)
Here, when there are a plurality of distribution contents to be distributed, the data server 20 does not distribute all of the contents, but sends the summary contents including the text that is a summary of each content to the terminal device 30. May be delivered. The distribution content is, for example, a news article acquired from an information medium or an information distribution entity. As an example, the summary content is a top page of a portal site with a link to distribution content.

なお、情報媒体とは、情報の配信媒体或いは掲載媒体を示す情報であり、例えば、“新聞”、“雑誌”等を示す情報である。また、配信主体とは、ニュース記事等の情報を配信する組織或いは個人である。例えば、配信主体は、新聞社、出版社、放送局(テレビ局、ラジオ局)等のマスメディアである。勿論、配信主体はマスメディアに限定されない。配信主体は、ポータルサイトの運営者であってもよいし、携帯電話会社であってもよい。配信主体は、情報処理装置10の運営者自身であってもよい。   The information medium is information indicating an information distribution medium or a posting medium, for example, information indicating “newspaper”, “magazine”, or the like. The distribution subject is an organization or an individual that distributes information such as news articles. For example, the distribution subject is a mass media such as a newspaper company, a publisher, a broadcasting station (a television station, a radio station), or the like. Of course, the distribution subject is not limited to mass media. The distribution subject may be a portal site operator or a mobile phone company. The distribution subject may be the operator of the information processing apparatus 10 itself.

図2は、コンテンツが表示された端末装置30を示す図である。図2の状態J1は、ポータルサイトのトップページが表示された様子を示す図であり、図2の状態J2は、配信コンテンツC11を含むページが表示された様子を示す図である。配信コンテンツC11は、例えば、所定の配信主体から情報処理装置10の運営者(例えば、ポータルサイトの運営者)が取得したニュース記事である。状態J1に示す端末装置30には、記事へのリンクが張られたタイルが複数配置されたページが表示されている。各タイルには、配信コンテンツの内容を示すテキスト(以下、見出しという。)が表示されている。例えば、縦一列に並ぶ複数のタイルの一番上のタイルには、見出しU11が表示されている。見出しU11は配信コンテンツC11の内容に対応するテキストである。ユーザが見出しU11が表示されたタイルをタップすると、端末装置30には、配信コンテンツC11を含む画面が表示される。配信コンテンツC11には、記事の本文K11と、記事のタイトルT11が含まれている。   FIG. 2 is a diagram illustrating the terminal device 30 on which content is displayed. A state J1 in FIG. 2 is a diagram illustrating a state in which a top page of the portal site is displayed, and a state J2 in FIG. 2 is a diagram illustrating a state in which a page including the distribution content C11 is displayed. The distribution content C11 is, for example, a news article acquired by an operator of the information processing apparatus 10 (for example, an administrator of a portal site) from a predetermined distribution subject. The terminal device 30 shown in the state J1 displays a page on which a plurality of tiles with links to articles are arranged. In each tile, text indicating the content of the distribution content (hereinafter referred to as a headline) is displayed. For example, the heading U11 is displayed on the top tile of the plurality of tiles arranged in a vertical row. The heading U11 is text corresponding to the content of the distribution content C11. When the user taps the tile on which the heading U11 is displayed, a screen including the distribution content C11 is displayed on the terminal device 30. The distribution content C11 includes an article body K11 and an article title T11.

配信コンテンツに対応付けられるテキスト(例えば、ポータルサイトのトップページに掲載される見出し)は、配信コンテンツの内容に基づいて人が作成する。例えば、見出しU11は、配信コンテンツC11に含まれるタイトルT11をポータルサイトの運営者の従業員が読んで要約することにより作成される。しかしながら、配信コンテンツごとに、人手で見出しを生成するのは、手間がかかる。   Text associated with the distribution content (for example, a headline posted on the top page of the portal site) is created by a person based on the content of the distribution content. For example, the headline U11 is created by reading and summarizing the title T11 included in the distribution content C11 by an employee of the portal site operator. However, it is troublesome to manually generate a headline for each distribution content.

そこで、各種情報が有する特徴を学習した学習モデル(以下、単にモデルという。)を用いて、配信コンテンツから見出しを自動的に生成することが考えらえる。例えば、配信コンテンツに含まれるテキスト(例えば、タイトル)から、見出しとなるタイトルを自動的に生成することが考えられる。   Thus, it is conceivable to automatically generate a headline from the distribution content using a learning model (hereinafter simply referred to as a model) in which features of various information are learned. For example, it is conceivable to automatically generate a title as a headline from text (for example, a title) included in the distribution content.

精度が高い見出し(例えば、正確性が高い見出し)を作成するには、精度が高いモデルの生成が必要となる。精度が高いモデルを生成するには、学習データとなるテキストの組を大量に準備する必要がある。しかし、テキストの組は人の手で作成されるため、用意できるテキストの組の数には限界がある。テキストの組の数の数が少ないと、精度の高いモデルの実現は困難となる。モデルの精度が低いと、装置が生成するテキストは精度(例えば、正確性)が低いものとなる。   In order to create a headline with high accuracy (for example, a headline with high accuracy), it is necessary to generate a model with high accuracy. In order to generate a model with high accuracy, it is necessary to prepare a large number of text sets as learning data. However, since text sets are created manually, the number of text sets that can be prepared is limited. When the number of text sets is small, it is difficult to realize a highly accurate model. When the accuracy of the model is low, the text generated by the device is low in accuracy (eg, accuracy).

〔1−3.再帰的学習〕
そこで、情報処理装置10は、以下の学習処理を実行することで、モデルM1を生成するための学習を行う。モデルM1は、配信コンテンツに含まれるテキスト(例えば、タイトル)から見出しとなるテキストを生成するためのモデルである。以下、図1を参照しながら情報処理装置10が実行する学習処理の一例について説明する。
[1-3. (Recursive learning)
Therefore, the information processing apparatus 10 performs learning for generating the model M1 by executing the following learning process. The model M1 is a model for generating a heading text from text (for example, a title) included in the distribution content. Hereinafter, an example of the learning process executed by the information processing apparatus 10 will be described with reference to FIG.

まず、情報処理装置10は、データサーバ20から学習データとなる情報を取得する。例えば、情報処理装置10は、データサーバ20から、過去、ユーザに配信された配信コンテンツを取得する。そして、情報処理装置10は、データサーバ20から取得した情報を学習データデータベースに登録する。   First, the information processing apparatus 10 acquires information serving as learning data from the data server 20. For example, the information processing apparatus 10 acquires the distribution content distributed to the user in the past from the data server 20. Then, the information processing apparatus 10 registers the information acquired from the data server 20 in the learning data database.

図3は、学習データデータベースに登録される学習データの一例を示す図である。学習データデータベースには、学習データとして、本文、タイトル、見出しおよびスコアを関連付けた情報が登録される。本文、タイトル、および見出しの組には、それぞれ、学習データID(Identifier)が付されている。「本文」及び「タイトル」は、配信コンテンツに含まれるテキストである。   FIG. 3 is a diagram illustrating an example of learning data registered in the learning data database. In the learning data database, information associating the text, title, heading, and score is registered as learning data. A learning data ID (Identifier) is assigned to each set of a text, a title, and a heading. “Body” and “Title” are texts included in the distribution content.

「見出し」は、配信コンテンツの内容をユーザが容易に把握するためのテキストである。見出しは、配信コンテンツに含まれるテキスト(例えば、本文或いはタイトル)に対応するテキストである。学習データとなる見出しは、配信コンテンツに含まれるテキストを所定の者(例えば、ポータルサイトの運営者の従業員)が読んで要約することにより作成される。なお、見出しは、所定の条件を満たすよう生成される。例えば、見出しは、所定の文字数以下となるよう生成される。一例として、見出しは、13.5文字以下となるよう生成される。このとき、13.5文字は、全角文字1個を1文字とした文字数である。半角文字1文字は0.5文字である。以下の説明では、所定の条件のことを「生成条件」という。生成条件は、13.5文字以下に限定されない。生成条件となる文字数は、13.5文字より多くてもよいし少なくてもよい。勿論、生成条件は文字数に限定されない。   “Heading” is text for the user to easily grasp the contents of the distribution content. The headline is text corresponding to text (for example, a body or a title) included in the distribution content. A headline serving as learning data is created by a predetermined person (for example, an employee of a portal site operator) reading and summarizing text included in the distribution content. The headline is generated so as to satisfy a predetermined condition. For example, the heading is generated so as to be a predetermined number of characters or less. As an example, the heading is generated to be 13.5 characters or less. At this time, 13.5 characters is the number of characters with one double-byte character as one character. One half-width character is 0.5 character. In the following description, the predetermined condition is referred to as “generation condition”. The generation conditions are not limited to 13.5 characters or less. The number of characters as a generation condition may be more or less than 13.5 characters. Of course, the generation condition is not limited to the number of characters.

なお、「見出し」は、要約、タイトル、短縮タイトル、トピック、トピック見出し等と言い換えることができる。同様に、配信コンテンツに含まれる「タイトル」も、要約等と言い換えることができる。本実施形態では、「見出し」は、配信コンテンツに含まれる「タイトル」に基づき作成される短縮テキストであるものとする。勿論、「見出し」は本文に基づき作成された短縮テキストであってもよい。なお、構文上は文が短縮されていても、「見出し」の文字数が「タイトル」の文字数より多くなることがあり得る。例えば、「タイトル」に含まれる略語を正式名称に置き換えた場合は、構文上は文が短縮されていても、結果として文字数が増えることがある。このような場合も、「見出し」は「タイトル」の短縮テキストである。   “Heading” can be rephrased as a summary, title, abbreviated title, topic, topic heading, or the like. Similarly, the “title” included in the distribution content can also be called a summary or the like. In the present embodiment, it is assumed that the “headline” is a shortened text created based on the “title” included in the distribution content. Of course, the “headline” may be a shortened text created based on the text. Note that even if the sentence is shortened syntactically, the number of characters of the “heading” may be larger than the number of characters of the “title”. For example, when an abbreviation included in the “title” is replaced with a formal name, the number of characters may increase as a result even if the sentence is shortened syntactically. In such a case, “heading” is a shortened text of “title”.

図3の例の場合、見出しU11はタイトルT11或いは本文K11に基づきサイトの運営者の従業員(以下、単に運営者という。)が作成した見出しである。また、見出しU12はタイトルT12或いは本文K12に基づき運営者が作成した見出しである。また、見出しU13はタイトルT13或いは本文K13に基づき運営者が作成した見出しである。なお、一部のデータには、「見出し」の項目に情報が格納されていない。例えば、図3の例であれば、学習データIDが2001以降のデータには「見出し」の項目に情報が格納されていない。これは、運営者により見出しが作成していないことを示している。以下の説明では見出しが生成されているデータ群をグループG1、見出しが生成されていないデータ群をグループG2という。見出しは人の手で作成されるので、実際には、グループG1に属するコンテンツの数に対して、グループG2に属するコンテンツの数が圧倒的に多い。一例を挙げると、グループG1に属するコンテンツの数が10万であるのに対し、グループG2に属するコンテンツの数は100万である。グループG2に属するコンテンツをモデルの学習に有効利用できれば、情報処理装置10は、精度の高いモデルを取得できる。   In the case of the example in FIG. 3, the headline U11 is a headline created by an employee of the site operator (hereinafter simply referred to as the operator) based on the title T11 or the text K11. The headline U12 is a headline created by the operator based on the title T12 or the text K12. The heading U13 is a heading created by the operator based on the title T13 or the text K13. Note that information is not stored in the item “heading” in some data. For example, in the example of FIG. 3, information having a learning data ID of 2001 or later does not store information in the “heading” item. This indicates that the headline has not been created by the operator. In the following description, a data group in which a heading is generated is referred to as a group G1, and a data group in which a heading is not generated is referred to as a group G2. Since the headline is created manually, the number of contents belonging to the group G2 is actually overwhelmingly larger than the number of contents belonging to the group G1. As an example, the number of contents belonging to the group G1 is 100,000, whereas the number of contents belonging to the group G2 is 1 million. If the content belonging to the group G2 can be used effectively for model learning, the information processing apparatus 10 can acquire a highly accurate model.

本実施形態では、情報処理装置10は、グループG1に属するコンテンツ(例えばタイトルと見出し)を使って第1のモデル(以下、モデルM1という。)を学習する。例えば、情報処理装置10は、タイトルと見出しとの関係性に基づく学習によりモデルM1を生成する。そして、情報処理装置10は、モデルM1を使ってグループG2に属するコンテンツの擬似的な見出し(以下、擬似見出しという。)を生成する。そして、情報処理装置10は、生成した擬似見出しを学習データの「見出し」の項目に格納していく。図4は、擬似見出しが格納された学習データの一例を示す図である。図4の例の場合、見出しPU11〜PU16が擬似見出しである。そして、情報処理装置10は、グループG2に属するコンテンツ(例えば、タイトル)とその擬似見出しを使って第2のモデル(以下、モデルM2という。)を学習する。グループG2に属するコンテンツの数はグループG1に属するコンテンツの数と比べて圧倒的に多いので、情報処理装置10は、精度の高いモデルを取得できる。   In the present embodiment, the information processing apparatus 10 learns a first model (hereinafter referred to as model M1) using content (for example, a title and a headline) belonging to the group G1. For example, the information processing apparatus 10 generates the model M1 by learning based on the relationship between the title and the headline. Then, the information processing apparatus 10 generates a pseudo heading (hereinafter referred to as a pseudo heading) of content belonging to the group G2 using the model M1. Then, the information processing apparatus 10 stores the generated pseudo heading in the “heading” item of the learning data. FIG. 4 is a diagram illustrating an example of learning data in which pseudo headings are stored. In the example of FIG. 4, headings PU11 to PU16 are pseudo headings. Then, the information processing apparatus 10 learns a second model (hereinafter referred to as a model M2) using content (for example, a title) belonging to the group G2 and a pseudo headline thereof. Since the number of contents belonging to the group G2 is overwhelmingly larger than the number of contents belonging to the group G1, the information processing apparatus 10 can acquire a highly accurate model.

図1に戻り、情報処理装置10は、学習データデータベースに登録されたデータの中から、タイトルと見出しとの組を複数組取得する。例えば、情報処理装置10は、グループG1に属するコンテンツのタイトルと見出しを取得する。そして、情報処理装置10の学習部は、タイトルと見出しとの関係性に基づく学習によりモデルM1を生成する(ステップS1)。ここで、モデルM1は、モデルに入力されるテキスト(以下、入力テキストという。)から生成条件を満たすテキスト(以下、出力テキストという。)を生成するモデルである。情報処理装置10は、タイトルを入力データ、見出しを正解データとして学習(例えば、教師あり学習)を行うことによりモデルM1を生成する。   Returning to FIG. 1, the information processing apparatus 10 acquires a plurality of sets of titles and headings from the data registered in the learning data database. For example, the information processing apparatus 10 acquires titles and headings of content belonging to the group G1. Then, the learning unit of the information processing apparatus 10 generates the model M1 by learning based on the relationship between the title and the headline (Step S1). Here, the model M1 is a model that generates text (hereinafter referred to as output text) that satisfies a generation condition from text input to the model (hereinafter referred to as input text). The information processing apparatus 10 generates the model M1 by performing learning (for example, supervised learning) using the title as input data and the headline as correct answer data.

なお、以下の説明では、学習の際、入力データとなるテキスト(本実施形態の場合、グループG1に属するコンテンツのタイトル)のことを第1のテキスト、正解データとなるテキスト(本実施形態の場合、グループG1に属するコンテンツの見出し)のことを第2のテキストということがある。また、以下の説明では、正解データのことを教師ラベルということもある。   In the following description, the text that becomes input data (in the case of the present embodiment, the title of the content belonging to the group G1) is the first text, and the text that becomes correct answer data (in the case of the present embodiment). , Headings of contents belonging to the group G1) may be referred to as second text. In the following description, the correct answer data may be referred to as a teacher label.

第1のテキストは、例えば、所定の配信主体からのテキストである。一例として、第1のテキストは、所定の配信主体から取得した記事のタイトルである。また、第2のテキストは、例えば、第1のテキストを、生成条件を満たすように変換した短縮タイトル(すなわち、見出し)である。また、第1のテキストは、例えば、所定の情報媒体からのテキストであってもよい。一例として、第1のテキストは、所定の情報媒体から取得した記事のタイトルである。また、第2のテキストは、例えば、第1のテキストを、生成条件を満たすように変換した短縮タイトル(すなわち、見出し)である。   The first text is, for example, text from a predetermined distribution subject. As an example, the first text is the title of an article acquired from a predetermined distribution subject. The second text is, for example, a shortened title (that is, a heading) obtained by converting the first text so as to satisfy the generation condition. Further, the first text may be a text from a predetermined information medium, for example. As an example, the first text is a title of an article acquired from a predetermined information medium. The second text is, for example, a shortened title (that is, a heading) obtained by converting the first text so as to satisfy the generation condition.

モデルM1は、入力テキストから入力テキストが有する特徴を示す特徴情報を生成するエンコーダと、特徴情報から出力テキストを生成するデコーダと、を含むモデルであってもよい。図5は、モデルM1の一例を示す図である。具体的には、図5では、モデルM1の一例であるモデルMを示している。   The model M1 may be a model including an encoder that generates feature information indicating features of the input text from the input text, and a decoder that generates output text from the feature information. FIG. 5 is a diagram illustrating an example of the model M1. Specifically, FIG. 5 illustrates a model M that is an example of the model M1.

モデルMは、RNN(Recurrent Neural Network)の一例であるLSTM(Long Short Term Memory)を用いたSequence to Sequence Model(以下、Seq2Seqともいう。)である。Seq2Seqは、エンコーダ−デコーダモデルの一種であり、異なる長さのワード列 (Sequence)を入力とし、異なる長さのワード列(Sequence)を出力とすることを可能とする。図5に示すモデルMは、エンコーダE1とデコーダD1とから構成されている。   The model M is a Sequence to Sequence Model (hereinafter also referred to as Seq2Seq) using LSTM (Long Short Term Memory) which is an example of RNN (Recurrent Neural Network). Seq2Seq is a kind of encoder-decoder model, which allows word strings (Sequence) of different lengths to be input and word strings (Sequence) of different lengths to be output. A model M shown in FIG. 5 includes an encoder E1 and a decoder D1.

エンコーダE1は、入力テキストが有する特徴を抽出する。エンコーダE1は、入力層Xと中間層(隠れ層)H1とを有する。エンコーダE1には、第1のテキスト(本実施形態の場合、タイトル)に含まれるワード(図5に示すワードW11〜W13)が順次入力される。<EOS>は、End Of Statementの略であり、テキストの終わりであることを示す。図5に示すエンコーダE1は、入力層Xと中間層H1を時間軸方向に展開した図である。中間層H1には、入力層Xからの出力に加えて前回の中間層H1の出力が入力される。なお、図5に示す例では、第1のテキストに含まれるワードが、ワードW11〜W13までの3つとなっているが、第1のテキストに含まれるワードは、3つより多くてもよい。エンコーダE1は、入力されたテキストの特徴を示す多次元量(例えば、ベクトル)である特徴情報Fを出力する。   The encoder E1 extracts features of the input text. The encoder E1 has an input layer X and an intermediate layer (hidden layer) H1. Words (words W11 to W13 shown in FIG. 5) included in the first text (in the case of the present embodiment) are sequentially input to the encoder E1. <EOS> is an abbreviation for End Of Statement and indicates the end of text. The encoder E1 shown in FIG. 5 is a diagram in which the input layer X and the intermediate layer H1 are developed in the time axis direction. In addition to the output from the input layer X, the previous output of the intermediate layer H1 is input to the intermediate layer H1. In the example shown in FIG. 5, the number of words included in the first text is three from words W11 to W13, but the number of words included in the first text may be more than three. The encoder E1 outputs feature information F which is a multidimensional quantity (for example, a vector) indicating the feature of the input text.

なお、エンコーダE1には、入力されるテキストの分類を示す分類情報Pを入力するための層(以下、入力層N1という。)が用意されている。分類情報Pは、例えば、入力層Xに入力されるテキスト(例えば、タイトル)の分類を示す情報である。例えば、分類情報Pは、例えば、入力層Xに入力されるテキストがスポーツ関連のテキストか政治関連のテキストかを示す情報である。入力層N1は、分類情報Pを中間層H1の入力に対応する次元数の多次元量(例えば、ベクトル)に変換する。図5の例では、テキストの先頭ワードであるワードW11が入力される前に入力層N1の出力が中間層H1に入力されている。エンコーダE1に、第1のテキストの分類情報Pを入力することにより、エンコーダE1は、第1のテキストの分類も加味して、第1のテキストが有する特徴を学習できる。勿論、エンコーダE1には、入力層N1は用意されていなくてもよい。   The encoder E1 is provided with a layer (hereinafter referred to as an input layer N1) for inputting classification information P indicating the classification of text to be input. The classification information P is information indicating the classification of text (for example, title) input to the input layer X, for example. For example, the classification information P is information indicating, for example, whether a text input to the input layer X is a sports-related text or a political-related text. The input layer N1 converts the classification information P into a multidimensional quantity (for example, a vector) having the number of dimensions corresponding to the input of the intermediate layer H1. In the example of FIG. 5, the output of the input layer N1 is input to the intermediate layer H1 before the word W11 that is the first word of the text is input. By inputting the classification information P of the first text to the encoder E1, the encoder E1 can learn the characteristics of the first text in consideration of the classification of the first text. Of course, the input layer N1 may not be prepared for the encoder E1.

デコーダD1は、入力テキストが短縮されたテキスト(すなわち、短縮テキスト)を出力する。デコーダD1は、中間層(隠れ層)H2と出力層Yとを有する。図5に示すデコーダD1は、エンコーダE1と同じく、中間層(隠れ層)H2と出力層Yを時間軸方向に展開した図である。デコーダD1には、エンコーダE1から出力された特徴情報Fが入力され、出力層Yから短縮テキストとなるワード(図5に示すワードW21〜W23)が順次出力される。なお、図5に示す例では、短縮テキストに含まれるワードが、ワードW21〜W23までの3つとなっているが、短縮テキストに含まれるワードは、3つより多くてもよい。   The decoder D1 outputs a text obtained by shortening the input text (that is, a shortened text). The decoder D1 has an intermediate layer (hidden layer) H2 and an output layer Y. The decoder D1 shown in FIG. 5 is a diagram in which the intermediate layer (hidden layer) H2 and the output layer Y are developed in the time axis direction, like the encoder E1. The feature information F output from the encoder E1 is input to the decoder D1, and words (words W21 to W23 shown in FIG. 5) that are shortened texts are sequentially output from the output layer Y. In the example shown in FIG. 5, the number of words included in the abbreviated text is three from word W21 to W23, but the number of words included in the abbreviated text may be more than three.

情報処理装置10は、エンコーダE1に第1のテキストを入力した際に、デコーダD1から第1のテキストに対応する第2のテキストが出力されるよう、モデルMの学習を行う。例えば、情報処理装置10は、デコーダD1が出力した短縮テキストが、第2のテキストに近づくように、バックプロパゲーション等の手法により、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正する。これにより、情報処理装置10は、モデルMに第1のテキストが有する特徴を学習させる。なお、情報処理装置10は、短縮テキストの分散表現となるベクトルと第2のテキストの分散表現となるベクトルとのコサイン類似度に基づいて重みの値を修正してもよい。   The information processing apparatus 10 learns the model M so that when the first text is input to the encoder E1, the second text corresponding to the first text is output from the decoder D1. For example, the information processing apparatus 10 uses a weight (that is, a value considered when a value is transmitted between the nodes by a method such as back propagation so that the shortened text output from the decoder D1 approaches the second text). , Correct the connection coefficient). As a result, the information processing apparatus 10 causes the model M to learn the characteristics of the first text. Note that the information processing apparatus 10 may correct the weight value based on the cosine similarity between a vector that is a distributed representation of the shortened text and a vector that is a distributed representation of the second text.

図1に戻り、情報処理装置10は、学習データデータベースに登録されたデータの中から、見出しが生成されていないタイトルを入力データとして取得する。例えば、情報処理装置10は、グループG2に属するコンテンツのタイトルを取得する。このとき、見出しが生成されていないタイトルが複数あるのであれば、情報処理装置10は、複数のタイトルを取得する。そして、情報処理装置10の生成部は、取得したタイトルをモデルM1に入力することにより、入力したタイトルに対応する擬似見出し(出力データ)を生成する。なお、取得したタイトルが複数あるのであれば、情報処理装置10は、複数のタイトルをそれぞれモデルM1に入力し、複数の擬似見出しを生成する(ステップS2)。   Returning to FIG. 1, the information processing apparatus 10 acquires, as input data, a title for which no heading has been generated from data registered in the learning data database. For example, the information processing apparatus 10 acquires the titles of content belonging to the group G2. At this time, if there are a plurality of titles for which headings are not generated, the information processing apparatus 10 acquires a plurality of titles. And the production | generation part of the information processing apparatus 10 produces | generates the pseudo heading (output data) corresponding to the input title by inputting the acquired title into the model M1. If there are a plurality of acquired titles, the information processing apparatus 10 inputs the plurality of titles into the model M1 and generates a plurality of pseudo headings (step S2).

そして、情報処理装置10の学習データ生成部は、入力データ(タイトル)と出力データ(生成した擬似見出し)とに基づいて学習データデータベースに登録するデータを生成する。そして、情報処理装置10の学習データ生成部は、生成したデータを学習データデータベースに登録する(ステップS3)。   Then, the learning data generation unit of the information processing apparatus 10 generates data to be registered in the learning data database based on the input data (title) and the output data (generated pseudo heading). Then, the learning data generation unit of the information processing apparatus 10 registers the generated data in the learning data database (step S3).

なお、以下の説明では、モデルM1への入力データとなるテキストのことを第3のテキスト、モデルM1に第3のテキストを入力することにより得られる出力テキストのことを第4のテキストということがある。第3のテキストは、例えば、グループG2に属するコンテンツのタイトルである。また、第4のテキストは、例えば、グループG2に属するコンテンツの擬似見出しである。   In the following description, text serving as input data to the model M1 is referred to as third text, and output text obtained by inputting the third text into the model M1 is referred to as fourth text. is there. The third text is, for example, a title of content belonging to the group G2. The fourth text is, for example, a pseudo headline for content belonging to the group G2.

そして、ステップS1に戻り、情報処理装置10の学習部は、第3のテキストと第4のテキストとの関係性に基づいて再帰的に学習を行う。具体的には、情報処理装置10は、学習データデータベースに登録されたデータの中から、グループG2に属するコンテンツのタイトルと擬似見出しとの組を複数組取得する。ここで取得する擬似見出しは、ステップS2で生成された擬似見出しである。そして、情報処理装置10は、タイトルと擬似見出しとの関係性に基づく学習によりモデルM1を更新する(ステップS1)。以後、情報処理装置10は、ステップS1〜ステップS3の処理を繰り返し実行する。   Then, returning to step S1, the learning unit of the information processing apparatus 10 learns recursively based on the relationship between the third text and the fourth text. Specifically, the information processing apparatus 10 acquires a plurality of sets of titles and pseudo headings of content belonging to the group G2 from data registered in the learning data database. The pseudo heading acquired here is the pseudo heading generated in step S2. Then, the information processing apparatus 10 updates the model M1 through learning based on the relationship between the title and the pseudo headline (Step S1). Thereafter, the information processing apparatus 10 repeatedly executes the processes of steps S1 to S3.

情報処理装置10は、再帰的学習により生成されたモデルM1を使って入力テキストから出力テキストを生成し、端末装置30に出力する。   The information processing device 10 generates an output text from the input text using the model M1 generated by recursive learning, and outputs the output text to the terminal device 30.

本実施形態によれば、情報処理装置10は、モデルM1を使ってグループG2に属するコンテンツの擬似見出しを生成する。そして、情報処理装置10は、グループG2に属するコンテンツ(例えば、タイトル)とその擬似見出しを使ってモデルM2を生成する。上述したように、グループG2に属するコンテンツの数はグループG1に属するコンテンツの数と比べて圧倒的に多い。そのため、情報処理装置10は、精度の高いモデルを取得できる。しかも、情報処理装置10は、再帰的に学習を実行するので、さらに精度の高いモデルを取得できる。   According to the present embodiment, the information processing apparatus 10 generates a pseudo headline for content belonging to the group G2 using the model M1. Then, the information processing apparatus 10 generates a model M2 using content (for example, a title) belonging to the group G2 and its pseudo heading. As described above, the number of contents belonging to the group G2 is overwhelmingly larger than the number of contents belonging to the group G1. Therefore, the information processing apparatus 10 can acquire a highly accurate model. In addition, since the information processing apparatus 10 performs learning recursively, it is possible to acquire a model with higher accuracy.

〔実施形態2〕
〔1−4.情報処理装置の他の例〕
次に、情報処理装置10が実行する学習処理および生成処理の他の例について説明する。図6は、実施形態2に係る情報処理装置10が実行する処理の一例を示す図である。情報処理装置10、データサーバ20、及び端末装置30の構成は実施形態1と同じである。
[Embodiment 2]
[1-4. Other examples of information processing apparatus]
Next, another example of learning processing and generation processing executed by the information processing apparatus 10 will be described. FIG. 6 is a diagram illustrating an example of processing executed by the information processing apparatus 10 according to the second embodiment. The configurations of the information processing device 10, the data server 20, and the terminal device 30 are the same as those in the first embodiment.

〔1−5.学習処理について〕
情報処理装置10は、以下の学習処理を実行することで、配信コンテンツに含まれるテキスト(例えば、タイトル)から見出しとなるテキストを生成するためのモデルの学習を行う。以下、図6を参照しながら情報処理装置10が実行する学習処理の一例について説明する。
[1-5. About learning process)
The information processing apparatus 10 performs the following learning process to learn a model for generating a text to be a headline from a text (for example, a title) included in the distribution content. Hereinafter, an example of the learning process executed by the information processing apparatus 10 will be described with reference to FIG.

まず、情報処理装置10は、データサーバ20から学習データとなる情報を取得する(ステップS101)。例えば、情報処理装置10は、データサーバ20から、過去、ユーザに配信された配信コンテンツを取得する。そして、情報処理装置10は、データサーバ20から取得した情報を例えば図3に示すように学習データデータベースに登録する。上述したように、図3に示す学習データベースに登録された学習データは、見出しが生成されているデータ群(グループG1)と、見出しが生成されていないデータ群(グループG2)とに分かれている。   First, the information processing apparatus 10 acquires information serving as learning data from the data server 20 (step S101). For example, the information processing apparatus 10 acquires the distribution content distributed to the user in the past from the data server 20. Then, the information processing apparatus 10 registers the information acquired from the data server 20 in the learning data database as shown in FIG. 3, for example. As described above, the learning data registered in the learning database shown in FIG. 3 is divided into a data group (group G1) in which headings are generated and a data group (group G2) in which no headings are generated. .

本実施形態では、情報処理装置10は、グループG1に属するコンテンツ(例えばタイトルと見出し)を使って第1のモデル(以下、モデルM1という。)を学習する。例えば、情報処理装置10は、タイトルと見出しとの関係性に基づく学習によりモデルM1を生成する。そして、情報処理装置10は、モデルM1を使ってグループG2に属するコンテンツの擬似的な見出し(以下、擬似見出しという。)を生成する。そして、情報処理装置10は、生成した擬似見出しを図4に示すように学習データの「見出し」の項目に格納していく。   In the present embodiment, the information processing apparatus 10 learns a first model (hereinafter referred to as model M1) using content (for example, a title and a headline) belonging to the group G1. For example, the information processing apparatus 10 generates the model M1 by learning based on the relationship between the title and the headline. Then, the information processing apparatus 10 generates a pseudo heading (hereinafter referred to as a pseudo heading) of content belonging to the group G2 using the model M1. Then, the information processing apparatus 10 stores the generated pseudo heading in the “heading” item of the learning data as shown in FIG.

なお、自然言語処理のための学習モデル(例えば、RNN(Recurrent Neural Network))は、現在〜過去に入力した1又は複数のワードから尤もらしい次のワードを予測するモデルでもある。そのため、情報処理装置10は、学習モデルの学習結果(例えば、生成されたニューラルネットワーク)に基づいて、学習モデルが生成したテキストの尤もらしさを示すスコア(以下、単にスコアという。)を算出可能である。なお、スコアは尤度と言い換えることもできる。情報処理装置10は、モデルの更なる精度向上のため、図3及び図4に示すように、学習データに「スコア」の項目を設け、算出したスコアを学習データに格納してもよい。例えば、情報処理装置10は、タイトルT21から見出しPU21が形成される確率(例えば、P(PU21|T21))であるスコアV21を学習データID“2001”の「スコア」の項目に格納する。同様に、情報処理装置10は、タイトルT22〜T26から見出しPU22〜PU26が形成される確率であるスコアV22〜V26を学習データの「スコア」の項目に格納する。スコアの使用方法については後述する。   A learning model for natural language processing (for example, RNN (Recurrent Neural Network)) is also a model for predicting a likely next word from one or a plurality of words input from the present to the past. Therefore, the information processing apparatus 10 can calculate a score (hereinafter simply referred to as a score) indicating the likelihood of the text generated by the learning model based on the learning result of the learning model (for example, the generated neural network). is there. The score can be rephrased as likelihood. In order to further improve the accuracy of the model, the information processing apparatus 10 may provide an item “score” in the learning data and store the calculated score in the learning data as shown in FIGS. 3 and 4. For example, the information processing apparatus 10 stores a score V21 that is a probability (for example, P (PU21 | T21)) that the headline PU21 is formed from the title T21 in the item “score” of the learning data ID “2001”. Similarly, the information processing apparatus 10 stores scores V22 to V26, which are probabilities that headings PU22 to PU26 are formed from the titles T22 to T26, in the “score” item of the learning data. The method of using the score will be described later.

図6に戻り、情報処理装置10は、学習データデータベースに登録されたデータの中から、タイトルと見出しとの組を複数組取得する。例えば、情報処理装置10は、グループG1に属するコンテンツのタイトルと見出しを取得する。そして、情報処理装置10の学習部は、タイトルと見出しとの関係性に基づく学習によりモデルM1を生成する(ステップS102)。情報処理装置10は、タイトルを入力データ、見出しを正解データとした学習によりモデルM1の学習(例えば、教師あり学習)を行う。   Returning to FIG. 6, the information processing apparatus 10 acquires a plurality of sets of titles and headings from the data registered in the learning data database. For example, the information processing apparatus 10 acquires titles and headings of content belonging to the group G1. Then, the learning unit of the information processing device 10 generates the model M1 by learning based on the relationship between the title and the headline (Step S102). The information processing apparatus 10 learns the model M1 (for example, supervised learning) by learning using the title as input data and the heading as correct data.

なお、以下の説明では、実施形態1と同様に、学習の際、入力データとなるテキスト(本実施形態の場合、グループG1に属するコンテンツのタイトル)のことを第1のテキスト、正解データとなるテキスト(本実施形態の場合、グループG1に属するコンテンツの見出し)のことを第2のテキストということがある。また、以下の説明では、実施形態1と同様に、正解データのことを教師ラベルということもある。   In the following description, as in the first embodiment, the text that becomes input data during learning (in the case of this embodiment, the title of content belonging to the group G1) becomes the first text and correct data. The text (in the case of the present embodiment, the heading of content belonging to the group G1) may be referred to as the second text. In the following description, the correct answer data may be referred to as a teacher label as in the first embodiment.

図6に戻り、情報処理装置10は、学習データデータベースに登録されたデータの中から、見出しが生成されていないタイトルを入力データとして取得する。例えば、情報処理装置10は、グループG2に属するコンテンツのタイトルを取得する。このとき、見出しが生成されていないタイトルが複数あるのであれば、情報処理装置10は、複数のタイトルを取得する。そして、情報処理装置10の生成部は、取得したタイトルをモデルM1に入力することにより、入力したタイトルに対応する擬似見出し(出力データ)を生成する。なお、取得したタイトルが複数あるのであれば、情報処理装置10は、複数のタイトルをそれぞれモデルM1に入力し、複数の擬似見出しを生成する(ステップS103)。   Returning to FIG. 6, the information processing apparatus 10 acquires, as input data, a title for which no headline has been generated from data registered in the learning data database. For example, the information processing apparatus 10 acquires the titles of content belonging to the group G2. At this time, if there are a plurality of titles for which headings are not generated, the information processing apparatus 10 acquires a plurality of titles. And the production | generation part of the information processing apparatus 10 produces | generates the pseudo heading (output data) corresponding to the input title by inputting the acquired title into the model M1. If there are a plurality of acquired titles, the information processing apparatus 10 inputs the plurality of titles to the model M1 and generates a plurality of pseudo headings (step S103).

そして、情報処理装置10の学習データ生成部は、入力データ(タイトル)と出力データ(生成した擬似見出し)とに基づいて学習データデータベースに登録するデータを生成する。そして、情報処理装置10の学習データ生成部は、生成したデータを学習データデータベースに登録する(ステップS104)。   Then, the learning data generation unit of the information processing apparatus 10 generates data to be registered in the learning data database based on the input data (title) and the output data (generated pseudo heading). Then, the learning data generation unit of the information processing apparatus 10 registers the generated data in the learning data database (step S104).

なお、以下の説明では、実施形態1と同様に、モデルM1への入力データとなるテキストのことを第3のテキスト、モデルM1に第3のテキストを入力することにより得られる出力テキストのことを第4のテキストということがある。第3のテキストは、例えば、グループG2に属するコンテンツのタイトルである。また、第4のテキストは、例えば、グループG2に属するコンテンツの擬似見出しである。   In the following description, as in the first embodiment, the text serving as input data to the model M1 is the third text, and the output text obtained by inputting the third text to the model M1. Sometimes called fourth text. The third text is, for example, a title of content belonging to the group G2. The fourth text is, for example, a pseudo headline for content belonging to the group G2.

続いて、情報処理装置10は、学習データデータベースに登録されたデータの中から、グループG2に属するコンテンツのタイトルと擬似見出しとの組を複数組取得する。ここで取得する擬似見出しは、ステップS3で生成された擬似見出しである。そして、情報処理装置10は、タイトルと擬似見出しとの関係性に基づく学習によりモデルM2を生成する(ステップS105)。ここで、モデルM2は、モデルM1と同様に、入力テキストから出力テキストを生成するモデルである。ここで、モデルM2は、モデルM1と同じ構成であってもよいし、異なる構成であってもよい。本実施形態の場合、モデルM2は、LSTMを用いたSeq2Seqである。   Subsequently, the information processing apparatus 10 acquires a plurality of sets of titles and pseudo headings of content belonging to the group G2 from the data registered in the learning data database. The pseudo heading acquired here is the pseudo heading generated in step S3. Then, the information processing apparatus 10 generates the model M2 by learning based on the relationship between the title and the pseudo headline (Step S105). Here, the model M2 is a model that generates output text from input text, like the model M1. Here, the model M2 may have the same configuration as the model M1 or may have a different configuration. In the case of this embodiment, the model M2 is Seq2Seq using LSTM.

例えば、モデルM2が、図5に示すモデルMと同じ構成であるとする。このとき、情報処理装置10は、エンコーダE1に第3のテキスト(例えば、タイトル)を入力した際に、デコーダD1から第3のテキストに対応する第4のテキスト(例えば、擬似見出し)が出力されるよう、モデルM2の学習を行う。例えば、情報処理装置10は、デコーダD1が出力した短縮テキストが、第4のテキストに近づくように、バックプロパゲーション等の手法により、各ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を修正する。これにより、情報処理装置10は、モデルMに第1のテキストが有する特徴を学習させる。なお、情報処理装置10は、短縮テキストの分散表現となるベクトルと第2のテキストの分散表現となるベクトルとのコサイン類似度に基づいて重みの値を修正してもよい。   For example, assume that the model M2 has the same configuration as the model M shown in FIG. At this time, when the third text (for example, title) is input to the encoder E1, the information processing apparatus 10 outputs the fourth text (for example, pseudo heading) corresponding to the third text from the decoder D1. Then, the model M2 is learned. For example, the information processing apparatus 10 uses a weight (that is, a value considered when a value is transmitted between nodes by a method such as back propagation so that the shortened text output from the decoder D1 approaches the fourth text). , Correct the connection coefficient). As a result, the information processing apparatus 10 causes the model M to learn the characteristics of the first text. Note that the information processing apparatus 10 may correct the weight value based on the cosine similarity between a vector that is a distributed representation of the shortened text and a vector that is a distributed representation of the second text.

なお、情報処理装置10は、グループG2に属するコンテンツのタイトル(第3のテキスト)と擬似見出し(第4のテキスト)のみならず、グループG1に属するコンテンツのタイトル(第1のテキスト)と見出し(第2のテキスト)をモデルM2の学習用のテキストとしてもよい。そして、情報処理装置10は、第1のテキストと第2のテキストと第3のテキストと第4のテキストとに基づいて、第2のモデルの学習を行ってもよい。例えば、モデルM2が、図5に示すモデルMと同じ構成であるとする。このとき、情報処理装置10は、エンコーダE1に第1のテキスト或いは第3のテキストを入力した際に、デコーダD1から第2のテキスト或いは第4のテキストが出力されるよう、モデルMの学習を行う。これにより、情報処理装置10は、より多くのテキストの組を学習データとできる。しかも、情報処理装置10は、第4のテキスト(擬似見出し)より正確性が高いと思われる第2のテキスト(見出し)を学習データとできる。そのため、情報処理装置10は、精度の高いモデルM2を生成できる。   Note that the information processing apparatus 10 not only includes the title (third text) and pseudo heading (fourth text) of content belonging to the group G2, but also the title (first text) and heading (first text) of the content belonging to the group G1. The second text) may be a text for learning the model M2. Then, the information processing apparatus 10 may perform learning of the second model based on the first text, the second text, the third text, and the fourth text. For example, assume that the model M2 has the same configuration as the model M shown in FIG. At this time, the information processing apparatus 10 learns the model M so that when the first text or the third text is input to the encoder E1, the second text or the fourth text is output from the decoder D1. Do. Thereby, the information processing apparatus 10 can use more text sets as learning data. Moreover, the information processing apparatus 10 can use the second text (heading) that is considered to be more accurate than the fourth text (pseudo heading) as the learning data. Therefore, the information processing apparatus 10 can generate a highly accurate model M2.

なお、ステップS103において、情報処理装置10は、複数の擬似見出しを生成したが、必ずしも、生成した擬似見出し全てを学習用のデータとして使用する必要はない。情報処理装置10は、ステップS103で生成した複数の擬似見出し(複数の第4のテキスト)の中から所定の基準に従い選択された擬似見出し(第4のテキスト)を学習用のデータとして選択してもよい。このとき、情報処理装置10は、モデルM1の学習結果に基づき算出されるスコアであって擬似見出しの尤もらしさを示すスコア(尤度)に基づいて、モデルM2の学習に使用する擬似見出しを選択してもよい。例えば、情報処理装置10は、スコアが所定の値を超えている擬似見出しを学習用のデータとして選択してもよい。或いは、情報処理装置10は、スコアが高い順に所定数の擬似見出しを学習用のデータとして選択してもよい。なお、スコアは例えば学習データデータベースに登録したスコア(例えば図4に示すV21〜V26)であってもよい。そして、情報処理装置10は、擬似見出しと、選択された擬似見出しに対応するタイトルとに基づいて、モデルM2の学習を行う。これにより、情報処理装置10は、複数の擬似見出しの中でスコアが高い擬似見出しのみを学習データとできる。そのため、情報処理装置10は、精度の高いモデルM2を生成できる。   In step S103, the information processing apparatus 10 generates a plurality of pseudo headings. However, it is not always necessary to use all the generated pseudo headings as learning data. The information processing apparatus 10 selects, as learning data, a pseudo heading (fourth text) selected according to a predetermined criterion from the plurality of pseudo headings (a plurality of fourth texts) generated in step S103. Also good. At this time, the information processing apparatus 10 selects a pseudo heading used for learning the model M2 based on a score (likelihood) that is calculated based on the learning result of the model M1 and indicates the likelihood of the pseudo heading. May be. For example, the information processing apparatus 10 may select a pseudo heading whose score exceeds a predetermined value as learning data. Alternatively, the information processing apparatus 10 may select a predetermined number of pseudo headings as learning data in descending order of score. The score may be, for example, a score registered in the learning data database (for example, V21 to V26 shown in FIG. 4). Then, the information processing apparatus 10 learns the model M2 based on the pseudo heading and the title corresponding to the selected pseudo heading. As a result, the information processing apparatus 10 can use only pseudo headings having a high score among a plurality of pseudo headings as learning data. Therefore, the information processing apparatus 10 can generate a highly accurate model M2.

〔1−6.生成処理について〕
次に、上述した学習処理によって学習が行われたモデルを用いて、入力テキストに対応する出力テキストを生成する生成処理の一例について説明する。このとき、出力テキストは、生成条件を満たすテキストであってもよい。例えば、出力テキストは入力テキストの短縮テキストである。
[1-6. About generation processing)
Next, an example of a generation process that generates an output text corresponding to an input text using the model learned by the above-described learning process will be described. At this time, the output text may be text that satisfies the generation condition. For example, the output text is a shortened text of the input text.

まず、情報処理装置10は、データサーバ20からモデルMに入力される情報を取得する(ステップS105)。例えば、情報処理装置10は、データサーバ20から、配信予定の配信コンテンツ(本文及びタイトル)を取得する。   First, the information processing apparatus 10 acquires information input to the model M from the data server 20 (step S105). For example, the information processing apparatus 10 acquires distribution contents (text and title) scheduled to be distributed from the data server 20.

そして、情報処理装置10は、モデルM2に入力テキスト(例えば、タイトル)を入力することにより、入力テキストに対応する出力テキスト(例えば、見出し)を生成する(ステップS106)。例えば、モデルM2が図5に示すモデルMなのであれば、情報処理装置10は、入力テキストに含まれるワードを、順次、エンコーダE1に入力する。そして、情報処理装置10は、デコーダD1から、順次、出力テキストとワードを取得する。このとき、情報処理装置10は、出力テキストの精度を高めるため、入力テキストの分類情報をエンコーダE1に入力してもよい。   Then, the information processing apparatus 10 generates an output text (for example, a headline) corresponding to the input text by inputting the input text (for example, a title) to the model M2 (step S106). For example, if the model M2 is the model M shown in FIG. 5, the information processing apparatus 10 sequentially inputs words included in the input text to the encoder E1. Then, the information processing apparatus 10 sequentially obtains output text and words from the decoder D1. At this time, the information processing apparatus 10 may input the classification information of the input text to the encoder E1 in order to increase the accuracy of the output text.

出力テキストが生成されたら、情報処理装置10は、出力テキストを用いて、要約コンテンツを生成する。そして、情報処理装置10は、要約コンテンツを端末装置30に配信する(ステップS107)。   When the output text is generated, the information processing apparatus 10 generates summary content using the output text. Then, the information processing device 10 distributes the summary content to the terminal device 30 (step S107).

本実施形態によれば、情報処理装置10は、モデルM1を使ってグループG2に属するコンテンツの擬似見出しを生成する。そして、情報処理装置10は、グループG2に属するコンテンツ(例えば、タイトル)とその擬似見出しを使ってモデルM2を生成する。上述したように、グループG2に属するコンテンツの数はグループG1に属するコンテンツの数と比べて圧倒的に多い。そのため、情報処理装置10は、精度の高いモデルを取得できる。   According to the present embodiment, the information processing apparatus 10 generates a pseudo headline for content belonging to the group G2 using the model M1. Then, the information processing apparatus 10 generates a model M2 using content (for example, a title) belonging to the group G2 and its pseudo heading. As described above, the number of contents belonging to the group G2 is overwhelmingly larger than the number of contents belonging to the group G1. Therefore, the information processing apparatus 10 can acquire a highly accurate model.

〔2.情報処理装置の構成例〕
以上、本実施形態の情報処理装置10の動作を述べたが、以下、情報処理装置10の構成を説明する。
[2. Configuration example of information processing apparatus]
The operation of the information processing apparatus 10 according to the present embodiment has been described above. Hereinafter, the configuration of the information processing apparatus 10 will be described.

情報処理装置10は、端末装置30等のクライアントコンピュータからの要求を処理するサーバ用ホストコンピュータ(以下、単に「サーバ」という。)である。情報処理装置10は、PCサーバであってもよいし、ミッドレンジサーバであってもよいし、メインフレームサーバであってもよい。また、情報処理装置10は、1つのサーバにより構成されていてもよいし、協働して処理を実行する複数のサーバにより構成されていてもよい。情報処理装置10が複数のサーバで構成される場合、これらサーバの設置場所は離れていてもよい。設置場所が離れていたとしても、協働して処理を実行するのであれば、これらサーバは1つの情報処理装置とみなすことができる。情報処理装置10は、生成装置および学習装置として機能する。   The information processing apparatus 10 is a server host computer (hereinafter simply referred to as a “server”) that processes a request from a client computer such as the terminal apparatus 30. The information processing apparatus 10 may be a PC server, a midrange server, or a mainframe server. Further, the information processing apparatus 10 may be configured by a single server, or may be configured by a plurality of servers that cooperate to execute processing. When the information processing apparatus 10 includes a plurality of servers, the installation locations of these servers may be separated. Even if the installation locations are separated, these servers can be regarded as a single information processing device as long as the processing is executed in cooperation. The information processing device 10 functions as a generation device and a learning device.

上述したように、情報処理装置10は、データサーバ20及び端末装置30とネットワークを介して接続されている。ネットワークは、LAN(Local Area Network)、WAN(Wide Area Network)、電話網(携帯電話網、固定電話網等)、地域IP(Internet Protocol)網、インターネット等の通信ネットワークである。ネットワークには、有線ネットワークが含まれていてもよいし、無線ネットワークが含まれていてもよい。   As described above, the information processing apparatus 10 is connected to the data server 20 and the terminal apparatus 30 via the network. The network is a communication network such as a LAN (Local Area Network), a WAN (Wide Area Network), a telephone network (a mobile phone network, a fixed telephone network, etc.), a regional IP (Internet Protocol) network, and the Internet. The network may include a wired network or a wireless network.

図7は、実施形態に係る情報処理装置10の構成例を示す図である。情報処理装置10は、通信部11と、記憶部12と、制御部13と、を備える。なお、図7に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。   FIG. 7 is a diagram illustrating a configuration example of the information processing apparatus 10 according to the embodiment. The information processing apparatus 10 includes a communication unit 11, a storage unit 12, and a control unit 13. Note that the configuration shown in FIG. 7 is a functional configuration, and the hardware configuration may be different.

通信部11は、外部の装置と通信する通信インタフェースである。通信部11は、ネットワークインタフェースであってもよいし、機器接続インタフェースであってもよい。例えば、通信部11は、NIC(Network Interface Card)等のLANインタフェースであってもよいし、USB(Universal Serial Bus)ホストコントローラ、USBポート等により構成されるUSBインタフェースであってもよい。また、通信部11は、有線インタフェースであってもよいし、無線インタフェースであってもよい。通信部11は、情報処理装置10の通信手段として機能する。通信部11は、制御部13の制御に従ってデータサーバ20及び端末装置30と通信する。   The communication unit 11 is a communication interface that communicates with an external device. The communication unit 11 may be a network interface or a device connection interface. For example, the communication unit 11 may be a LAN interface such as a NIC (Network Interface Card) or a USB interface configured by a USB (Universal Serial Bus) host controller, a USB port, or the like. The communication unit 11 may be a wired interface or a wireless interface. The communication unit 11 functions as a communication unit of the information processing apparatus 10. The communication unit 11 communicates with the data server 20 and the terminal device 30 according to the control of the control unit 13.

記憶部12は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置である。記憶部12は、情報処理装置10の記憶手段として機能する。記憶部12は、学習データデータベース121、モデルデータベース122、及びコンテンツ情報データベース123を記憶する。   The storage unit 12 is a storage device capable of reading and writing data, such as a dynamic random access memory (DRAM), a static random access memory (SRAM), a flash memory, and a hard disk. The storage unit 12 functions as a storage unit of the information processing apparatus 10. The storage unit 12 stores a learning data database 121, a model database 122, and a content information database 123.

学習データデータベース121には、学習データが登録される。図8は、学習データデータベース121に登録される情報の一例を示す図である。学習データデータベース121には、「学習データID(Identifier)」、「本文」、「タイトル」、「見出し」、および「スコア」といった項目を有する情報が登録される。   Learning data is registered in the learning data database 121. FIG. 8 is a diagram illustrating an example of information registered in the learning data database 121. Information having items such as “learning data ID (Identifier)”, “text”, “title”, “heading”, and “score” is registered in the learning data database 121.

なお、図8に示す情報のうち「本文」、「タイトル」、「見出し」、および「スコア」は、図3又は図4に示す「本文」、「タイトル」、「見出し」、および「スコア」に対応する。なお、学習データデータベース121には、図8に示す情報以外にも、学習データや要約データを閲覧した利用者に関する各種の情報が登録されていてもよい。なお、図8に示す例では、学習データデータベース121に登録される情報として、「K11、K12、K21、K22」、「T11、T12、T21、T22」、「U11、U12、PU21」、「V21」といった概念的な情報を示したが、実際には、テキストデータやバイナリデータが登録されることとなる。   Of the information shown in FIG. 8, “text”, “title”, “headline”, and “score” are “text”, “title”, “headline”, and “score” shown in FIG. Corresponding to In addition to the information shown in FIG. 8, various information related to the user who has browsed the learning data and the summary data may be registered in the learning data database 121. In the example shown in FIG. 8, the information registered in the learning data database 121 includes “K11, K12, K21, K22”, “T11, T12, T21, T22”, “U11, U12, PU21”, “V21”. In this example, text data and binary data are registered.

ここで、「学習データID」とは、学習データを識別するための識別子である。また、「属性情報」とは、テキストの属性を示す情報である。また、「本文」とは、ユーザに配信されたコンテンツ(例えば、記事)に含まれる本文となるテキストである。また「タイトル」とは、コンテンツ或いは当該コンテンツに含まれる本文に付されたタイトルである。また、「見出し」とは、コンテンツ(本文或いはタイトル)に付された見出しである。   Here, the “learning data ID” is an identifier for identifying learning data. The “attribute information” is information indicating text attributes. Further, the “body” is a text that becomes a body included in content (for example, an article) distributed to the user. The “title” is a title attached to the content or the text included in the content. “Heading” is a heading attached to content (text or title).

例えば、図8に示す例では、学習データデータベース121には、学習データID「1001」、本文「K11」、タイトル「T11」、および見出し「U11」といった情報が対応付けて登録されている。このような情報は、例えば、学習データID「1001」が示す学習データに、「K11」が示す本文と、「T11」が示すタイトルと、「U11」が示す見出しとが含まれる旨を示す。また、学習データデータベース121には、学習データID「2001」、本文「K21」、タイトル「T21」、擬似見出し「PU21」、およびスコア「V21」といった情報が対応付けて登録されている。このような情報は、例えば、学習データID「2001」が示す学習データに、「K21」が示す本文と、「T21」が示すタイトルと、「PU21」が示す擬似見出しと、「V21」が示すスコアが含まれる旨を示す。   For example, in the example illustrated in FIG. 8, information such as the learning data ID “1001”, the text “K11”, the title “T11”, and the heading “U11” is registered in the learning data database 121 in association with each other. Such information indicates, for example, that the learning data indicated by the learning data ID “1001” includes the text indicated by “K11”, the title indicated by “T11”, and the heading indicated by “U11”. In the learning data database 121, information such as a learning data ID “2001”, a text “K21”, a title “T21”, a pseudo heading “PU21”, and a score “V21” are registered in association with each other. Such information includes, for example, the learning data indicated by the learning data ID “2001”, the text indicated by “K21”, the title indicated by “T21”, the pseudo heading indicated by “PU21”, and “V21”. Indicates that a score is included.

図7に戻り、モデルデータベース122には、情報処理装置10が有するモデルのデータが登録される。図9は、モデルデータベース122に登録される情報の一例を示す図である。図9に示す例では、モデルデータベース122には、「モデルID」、および「モデルデータ」といった情報が登録されている。   Returning to FIG. 7, model data of the information processing apparatus 10 is registered in the model database 122. FIG. 9 is a diagram illustrating an example of information registered in the model database 122. In the example illustrated in FIG. 9, information such as “model ID” and “model data” is registered in the model database 122.

ここで、「モデルID」とは、各モデルを識別するための情報である。また、「モデルデータ」とは、対応付けられた「モデルID」が示すモデルのデータであり、例えば、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報である。   Here, the “model ID” is information for identifying each model. The “model data” is data of the model indicated by the associated “model ID”. For example, nodes in each layer, functions adopted by each node, connection relationships between nodes, and connections between nodes Information including a connection coefficient set for.

例えば、図9に示す例では、モデルID「3001」およびモデルデータ「M1」といった情報が対応付けて登録されている。このような情報は、例えば、「3001」が示すモデルのデータが「M1」である旨を示す。なお、図9に示す例では、モデルデータベース122に登録される情報として、「M1〜M3」といった概念的な情報を記載したが、実際には、モデルの構造や接続係数を示す文字列や数値等が登録されることとなる。   For example, in the example shown in FIG. 9, information such as model ID “3001” and model data “M1” is registered in association with each other. Such information indicates, for example, that the model data indicated by “3001” is “M1”. In the example illustrated in FIG. 9, conceptual information such as “M1 to M3” is described as information registered in the model database 122, but in reality, a character string or a numerical value indicating a model structure or a connection coefficient is described. Etc. will be registered.

モデルMは、例えば、第1のテキストと第1のテキストに対応する第2のテキストとに基づいて学習したモデルM1(第1のモデル)である。また、モデルMは、第3のテキストとモデルM1に第3のテキストを入力することにより生成された第4のテキストとに基づいて学習したモデルM2(第2のモデル)であってもよい。また、また、モデルMは、第3のテキストとモデルM2に第3のテキストを入力することにより生成された第5のテキストとに基づいて学習したモデルM3(第3のモデル)であってもよい。   The model M is, for example, a model M1 (first model) learned based on the first text and the second text corresponding to the first text. The model M may be a model M2 (second model) learned based on the third text and the fourth text generated by inputting the third text into the model M1. The model M may be a model M3 (third model) learned based on the third text and the fifth text generated by inputting the third text into the model M2. Good.

モデルMは、入力テキストから所定の条件を満たす出力テキストを生成する。このようなモデルMは、テキストが入力される入力層と、入力層に入力されたテキストに対応するテキストであって生成条件を満たすテキストを出力する出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重み(すなわち、接続係数)とに基づく演算を行うことにより、入力層に入力されたテキストに対応するテキストであって生成条件を満たすテキストを出力層から出力するよう、コンピュータを機能させるためのモデルである。   The model M generates an output text that satisfies a predetermined condition from the input text. Such a model M includes an input layer to which text is input, an output layer that outputs text corresponding to the text input to the input layer and that satisfies a generation condition, and any one from the input layer to the output layer. A first element belonging to a layer other than the output layer, and a second element whose value is calculated based on the first element and the weight of the first element, and is input to the input layer Text input to the input layer by performing an operation based on the first element and the weight of the first element (that is, the connection coefficient), with each element belonging to each layer other than the output layer as the first element. This is a model for causing a computer to function so as to output text that satisfies the generation condition from the output layer.

ここで、モデルMが「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、モデルMが含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。   Here, it is assumed that the model M is realized by a regression model represented by “y = a1 * x1 + a2 * x2 +... + Ai * xi”. In this case, the first element included in the model M corresponds to input data (xi) such as x1 and x2. The weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can correspond to any node of the input layer, and the second element can be regarded as a node of the output layer.

また、モデルMがDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、モデルMが含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。   Further, it is assumed that the model M is realized by a neural network having one or a plurality of intermediate layers such as DNN (Deep Neural Network). In this case, the first element included in the model M corresponds to any node of the input layer or the intermediate layer. The second element corresponds to the next node, which is a node to which a value is transmitted from the node corresponding to the first element. The weight of the first element corresponds to a connection coefficient that is a weight considered for a value transmitted from a node corresponding to the first element to a node corresponding to the second element.

情報処理装置10は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、出力テキストの算出を行う。具体的には、モデルMは、テキスト(例えば、タイトル)が入力された場合に、入力されたテキストに対応するテキストであって生成条件を満たすテキスト(例えば、見出し)を出力するように係数が設定される。モデルMは、テキスト及び当該テキストの属性情報が入力された場合に、入力されたテキストに対応するテキストであって生成条件を満たすテキストを出力するように係数が設定されてもよい。情報処理装置10は、このようなモデルMを用いて、生成条件を満たすテキスト(例えば、見出し)を生成する。   The information processing apparatus 10 calculates the output text using a model having an arbitrary structure such as the above-described regression model or neural network. Specifically, when a text (for example, a title) is input, the model M has a coefficient so as to output a text (for example, a heading) that corresponds to the input text and satisfies the generation conditions. Is set. In the model M, when a text and attribute information of the text are input, a coefficient may be set so as to output text corresponding to the input text and satisfying a generation condition. The information processing apparatus 10 generates text (for example, a headline) that satisfies the generation condition using such a model M.

なお、上記例では、モデルMが、テキスト(及び当該テキストの属性情報)が入力された場合に、入力されたテキストに対応するテキストであって生成条件を満たすテキスト(例えば、見出し)を出力するモデル(以下、モデルVという。)である例を示した。しかし、実施形態に係るモデルMは、モデルVにデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルVは、「テキスト(及び当該テキストの属性情報)」を入力とし、モデルVが出力する「入力されたテキストに対応するテキストであって生成条件を満たすテキスト」を出力とするよう学習されたモデルであってもよい。   In the above example, when a text (and attribute information of the text) is input, the model M outputs a text (for example, a headline) that corresponds to the input text and satisfies the generation conditions. An example of a model (hereinafter referred to as model V) is shown. However, the model M according to the embodiment may be a model generated based on a result obtained by repeatedly inputting / outputting data to / from the model V. For example, the model V learns to receive “text (and attribute information of the text)” as input and output “text corresponding to the input text and satisfying the generation condition” output from the model V. It may be a model.

また、情報処理装置10がGAN(Generative Adversarial Networks)を用いた学習処理或いは生成処理を行う場合、モデルMは、GANの一部を構成するモデルであってもよい。   When the information processing apparatus 10 performs a learning process or a generation process using GAN (Generative Adversarial Networks), the model M may be a model that constitutes a part of the GAN.

図7に戻り、コンテンツ情報データベース123には、ユーザに配信されるコンテンツの情報が登録される。例えば、コンテンツ情報データベース123には、コンテンツパートナーから取得した記事等が登録される。図10は、コンテンツ情報データベース123に登録される情報の一例を示す図である。コンテンツ情報データベース123には、「コンテンツID」、「本文」、及び「タイトル」といった項目を有する情報が登録される。なお、「コンテンツID」とは、コンテンツのデータを識別するための識別子である。「本文」及び「タイトル」は、図8に示す「本文」及び「タイトル」と同様である。   Returning to FIG. 7, content information distributed to the user is registered in the content information database 123. For example, articles acquired from content partners are registered in the content information database 123. FIG. 10 is a diagram illustrating an example of information registered in the content information database 123. In the content information database 123, information having items such as “content ID”, “text”, and “title” is registered. The “content ID” is an identifier for identifying content data. “Text” and “Title” are the same as “Text” and “Title” shown in FIG.

図7に戻り、制御部13は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部13は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。   Returning to FIG. 7, the control unit 13 is a controller and is stored in a storage device inside the information processing apparatus 10 by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Various programs are implemented by executing the RAM or the like as a work area. The control unit 13 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

また、制御部13は、記憶部12に記憶されるモデルM(モデルM1、M2、M3等)に従った情報処理により、モデルMの入力層に入力された入力テキスト(例えば、タイトル)に対し、モデルMが有する係数(すなわち、モデルMが学習した各種の特徴に対応する係数)に基づく演算を行い、モデルMの出力層から出力テキスト(例えば、見出し)を出力する。入力層には、入力テキスト以外に、当該入力テキストの属性情報が入力されてもよい。   In addition, the control unit 13 performs processing on the input text (for example, a title) input to the input layer of the model M by information processing according to the model M (models M1, M2, M3, etc.) stored in the storage unit 12. The calculation based on the coefficients of the model M (that is, the coefficients corresponding to the various features learned by the model M) is performed, and output text (for example, headings) is output from the output layer of the model M. In addition to the input text, attribute information of the input text may be input to the input layer.

制御部13は、図7に示すように、学習データ取得部131と、学習部132と、学習データ生成部133と、生成部134と、出力制御部135と、を備える。制御部13を構成するブロック(学習データ取得部131〜出力制御部135)はそれぞれ制御部13の機能を示す機能ブロックである。これら機能ブロックはソフトウェアブロックであってもよいし、ハードウェアブロックであってもよい。例えば、上述の機能ブロックが、それぞれ、ソフトウェア(マイクロプログラムを含む。)で実現される1つのソフトウェアモジュールであってもよいし、半導体チップ(ダイ)上の1つの回路ブロックであってもよい。勿論、各機能ブロックがそれぞれ1つのプロセッサ或いは1つの集積回路であってもよい。機能ブロックの構成方法は任意である。なお、制御部13は上述の機能ブロックとは異なる機能単位で構成されていてもよい。   As illustrated in FIG. 7, the control unit 13 includes a learning data acquisition unit 131, a learning unit 132, a learning data generation unit 133, a generation unit 134, and an output control unit 135. Blocks constituting the control unit 13 (learning data acquisition unit 131 to output control unit 135) are functional blocks that indicate functions of the control unit 13, respectively. These functional blocks may be software blocks or hardware blocks. For example, each functional block described above may be one software module realized by software (including a microprogram), or may be one circuit block on a semiconductor chip (die). Of course, each functional block may be one processor or one integrated circuit. The method of configuring the functional block is arbitrary. In addition, the control part 13 may be comprised by the functional unit different from the above-mentioned functional block.

学習データ取得部131は、学習データとして、第1のテキストと、第1のテキストに対応する第2のテキストと、を取得する。例えば、学習データ取得部131は、学習データとして、所定のコンテンツパートナーが作成した記事(本文及び/又はタイトル)をデータサーバ20から取得する。さらに、学習データ取得部131は、学習データとして、当該記事に付された見出しを取得する。見出しは、当該記事を過去ユーザに配信したポータルサイトの運営者が作成したものであってもよい。そして、学習データ取得部131は、取得した各データを対応付けて学習データデータベース121に登録する。   The learning data acquisition unit 131 acquires a first text and a second text corresponding to the first text as learning data. For example, the learning data acquisition unit 131 acquires, as learning data, an article (text and / or title) created by a predetermined content partner from the data server 20. Furthermore, the learning data acquisition unit 131 acquires a headline attached to the article as learning data. The headline may be created by an operator of a portal site that has distributed the article to past users. The learning data acquisition unit 131 registers the acquired data in the learning data database 121 in association with each other.

また、学習データ取得部131は、学習データとして、第3のテキストと、第3のテキストに対応する第4のテキストと、を取得する。例えば、学習データ取得部131は、学習データとして、所定のコンテンツパートナーが作成した記事(本文及び/又はタイトル)をデータサーバ20から取得する。さらに、学習データ取得部131は、学習データとして、生成部134が、記事(本文及び/又はタイトル)をモデルM1(第1のモデル)に入力することにより生成されたテキスト(例えば、見出し)を取得する。そして、学習データ取得部131は、取得した各データを対応付けて学習データデータベース121に登録する。   In addition, the learning data acquisition unit 131 acquires a third text and a fourth text corresponding to the third text as learning data. For example, the learning data acquisition unit 131 acquires, as learning data, an article (text and / or title) created by a predetermined content partner from the data server 20. Furthermore, the learning data acquisition unit 131 uses, as learning data, a text (for example, a headline) generated by the generation unit 134 by inputting an article (body and / or title) to the model M1 (first model). get. The learning data acquisition unit 131 registers the acquired data in the learning data database 121 in association with each other.

なお、学習データ取得部131は、学習データとして、第3のテキストと、第3のテキストに対応する第5のテキストと、を取得してもよい。第5のテキストは、例えば、生成部134が、記事(本文及び/又はタイトル)をモデルM2(第2のモデル)に入力することにより生成されたテキスト(例えば、見出し)である。   Note that the learning data acquisition unit 131 may acquire the third text and the fifth text corresponding to the third text as the learning data. The fifth text is, for example, text (for example, a headline) generated by the generation unit 134 inputting an article (body and / or title) to the model M2 (second model).

学習部132は、モデルMの学習を行い、学習したモデルMをモデルデータベース122に格納する。モデルMはモデルM1であってもよいしモデルM2であってもよい。勿論、モデルMは、モデルM1、M2以外のモデル(例えば、後述するモデルM3)であってもよい。学習部132は、学習データに含まれる第1のテキスト(例えば、タイトル)をモデルMに入力した際に、モデルMが学習データに含まれる第2のテキスト(例えば、入力したタイトルに対応する見出し)を出力するように、モデルMの接続係数の設定を行う。すなわち、学習部132は、入力テキストを入力した際に、モデルMが、入力テキストに対応する出力テキストを出力するように、モデルMの学習を行う。   The learning unit 132 learns the model M and stores the learned model M in the model database 122. Model M may be model M1 or model M2. Of course, the model M may be a model other than the models M1 and M2 (for example, a model M3 described later). When the learning unit 132 inputs the first text (for example, a title) included in the learning data to the model M, the learning unit 132 inputs the second text (for example, the heading corresponding to the input title) included in the learning data. ) Is set so that the connection coefficient of the model M is output. That is, the learning unit 132 learns the model M so that when the input text is input, the model M outputs the output text corresponding to the input text.

例えば、学習部132は、モデルMが有する入力層のノードであって、入力層に入力される情報と対応する特徴を学習したエンコーダE1の入力層と対応するノードに所定のテキスト(例えば、タイトル)を入力し、各中間層を辿ってモデルMの出力層までデータを伝播させることで、上記所定のテキストに対応するテキスト(例えば、見出し)を出力させる。そして、学習部132は、モデルMが実際に出力したテキストと、学習データに含まれる第2のテキスト(例えば、見出し)との差に基づいて、モデルMの接続係数を修正する。或いは、学習部132は、モデルMが実際に出力したテキストと、学習データに含まれる第4のテキスト(例えば、擬似見出し)若しくは第5のテキスト(例えば、後述する第2の擬似見出し)との差に基づいて、モデルMの接続係数を修正する。例えば、学習部132は、バックプロパゲーション等の手法を用いて、接続係数の修正を行ってもよい。また、学習部132は、第2のテキストの分散表現となるベクトルと、モデルMが実際に出力したテキストの分散表現となるベクトルとのコサイン類似度に基づいて、接続係数の修正を行ってもよい。また、学習部132は、第4のテキスト若しくは第5のテキストの分散表現となるベクトルと、モデルMが実際に出力したテキストの分散表現となるベクトルとのコサイン類似度に基づいて、接続係数の修正を行ってもよい。   For example, the learning unit 132 is a node in the input layer of the model M, and a predetermined text (for example, a title) ) And the data is propagated to the output layer of the model M through each intermediate layer, thereby outputting a text (for example, a headline) corresponding to the predetermined text. Then, the learning unit 132 corrects the connection coefficient of the model M based on the difference between the text actually output by the model M and the second text (for example, heading) included in the learning data. Alternatively, the learning unit 132 includes the text actually output by the model M and the fourth text (for example, pseudo heading) or the fifth text (for example, second pseudo heading described later) included in the learning data. Based on the difference, the connection coefficient of the model M is corrected. For example, the learning unit 132 may correct the connection coefficient using a technique such as backpropagation. In addition, the learning unit 132 may correct the connection coefficient based on the cosine similarity between the vector that is the distributed representation of the second text and the vector that is the distributed representation of the text that is actually output by the model M. Good. Further, the learning unit 132 determines the connection coefficient based on the cosine similarity between the vector that is the distributed representation of the fourth text or the fifth text and the vector that is the distributed representation of the text actually output by the model M. Corrections may be made.

なお、学習部132は、いかなる学習アルゴリズムを用いてモデルMを学習してもよい。例えば、学習部132は、ニューラルネットワーク、サポートベクターマシン(support vector machine)、クラスタリング、強化学習等の学習アルゴリズムを用いて、モデルMを学習してよい。   Note that the learning unit 132 may learn the model M using any learning algorithm. For example, the learning unit 132 may learn the model M using a learning algorithm such as a neural network, a support vector machine, clustering, or reinforcement learning.

ここで、学習部132は、第3のテキストと第4のテキストとに基づいて、入力テキストから出力テキストを生成するモデルM2(第2のモデル)の学習を行う。このとき、モデルM2は、出力テキストとして、所定の文字数以下のテキストを生成するモデルであってもよい。なお、第3のテキストは、未だ見出しが対応付けられていないタイトルであってもよい。また、第4のテキストは、第1のテキスト(例えば、タイトル)と第1のテキストに対応する第2のテキスト(例えば、見出し)とに基づいて学習したモデルM1(第1のモデル)に第3のテキストを入力することにより生成されるテキスト(例えば、擬似見出し)であってもよい。例えば、生成部134が、モデルM1に第3のテキストを入力することにより、第3のテキストに対応する第4のテキストを生成してもよい。   Here, the learning unit 132 learns a model M2 (second model) that generates output text from input text based on the third text and the fourth text. At this time, the model M2 may be a model that generates text of a predetermined number of characters or less as output text. The third text may be a title that is not yet associated with a headline. The fourth text is the same as the model M1 (first model) learned based on the first text (for example, title) and the second text (for example, headline) corresponding to the first text. 3 (for example, a pseudo heading) may be generated by inputting the third text. For example, the generation unit 134 may generate a fourth text corresponding to the third text by inputting the third text to the model M1.

このとき、学習部132は、第1のテキストと第2のテキストと第3のテキストと第4のテキストとに基づいて、モデルM2の学習を行ってもよい。   At this time, the learning unit 132 may learn the model M2 based on the first text, the second text, the third text, and the fourth text.

なお、生成部134は、モデルM(第1のモデル)に複数の第3のテキストを入力することにより、複数の第4のテキストを生成してもよい。この場合、学習部132は、生成部134で生成された複数の第4のテキストの中から所定の基準に従い選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとに基づいて、モデルM2の学習を行ってもよい。   The generation unit 134 may generate a plurality of fourth texts by inputting a plurality of third texts into the model M (first model). In this case, the learning unit 132 selects the fourth text selected from the plurality of fourth texts generated by the generation unit 134 according to a predetermined criterion and the third text corresponding to the selected fourth text. Based on the above, the model M2 may be learned.

例えば、学習部132は、第1のモデルの学習結果に基づき算出されるスコアであって第4のテキストの尤もらしさを示す第1のスコアに基づいて、生成部134で生成された複数の第4のテキストの中からモデルM2の学習に使用する第4のテキストを選択する。そして、学習部132は、選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとに基づいて、モデルM2の学習を行う。   For example, the learning unit 132 calculates a plurality of second values generated by the generation unit 134 based on a first score that is calculated based on the learning result of the first model and indicates the likelihood of the fourth text. The fourth text used for learning the model M2 is selected from the four texts. Then, the learning unit 132 learns the model M2 based on the selected fourth text and the third text corresponding to the selected fourth text.

また、学習部132は、第3のテキストと第5のテキストとに基づいて、入力テキストから出力テキストを生成するモデルM3(第3のモデル)の学習を行う。このとき、第5のテキストは、第3のテキストに対応するテキストであってもよい。より具体的には、第5のテキストは、生成部134が、モデルM2に第3のテキストを入力することにより生成したテキストであってもよい。   The learning unit 132 learns a model M3 (third model) that generates output text from input text based on the third text and the fifth text. At this time, the fifth text may be a text corresponding to the third text. More specifically, the fifth text may be a text generated by the generation unit 134 inputting the third text into the model M2.

このとき、学習部132は、第1のテキストと第2のテキストと第3のテキストと第5のテキストとに基づいてモデルM3の学習を行ってもよい。   At this time, the learning unit 132 may learn the model M3 based on the first text, the second text, the third text, and the fifth text.

なお、生成部134は、モデルM2(第2のモデル)に複数の第3のテキストを入力することにより、複数の第5のテキストを生成してもよい。この場合、学習部132は、複数の第5のテキストの中から所定の基準に従い選択された第5のテキストと選択された第5のテキストに対応する第3のテキストとに基づいて、モデルM3(第3のモデル)の学習を行ってもよい。   The generation unit 134 may generate a plurality of fifth texts by inputting a plurality of third texts into the model M2 (second model). In this case, the learning unit 132 uses the model M3 based on the fifth text selected from the plurality of fifth texts according to a predetermined criterion and the third text corresponding to the selected fifth text. (Third model) may be learned.

例えば、学習部132は、第1のモデル或いは第2のモデルの学習結果に基づき算出されるスコアであって第5のテキストの尤もらしさを示す第2のスコアに基づいて、生成部134で生成された複数の第4のテキストの中からモデルM3の学習に使用する第5のテキストを選択する。そして、学習部132は、選択された第5のテキストと選択された第5のテキストに対応する第3のテキストとに基づいて、モデルM3の学習を行う。   For example, the learning unit 132 generates a score based on the second score indicating the likelihood of the fifth text, which is calculated based on the learning result of the first model or the second model. A fifth text to be used for learning the model M3 is selected from the plurality of fourth texts. Then, the learning unit 132 learns the model M3 based on the selected fifth text and the third text corresponding to the selected fifth text.

また、学習部132は、入力テキストから入力テキストが有する特徴を示す特徴情報を生成するエンコーダと、特徴情報から出力テキストを生成するデコーダと、を含むモデルMの学習を行う。なお、モデルMは、モデルM1〜M3(第1〜第3のモデル)のいずれであってもよい。   The learning unit 132 also learns a model M including an encoder that generates feature information indicating features of the input text from the input text, and a decoder that generates output text from the feature information. The model M may be any of the models M1 to M3 (first to third models).

また、学習データ生成部133は、モデルMから出力されたテキストに基づいて学習に使用するテキストを生成する。   Further, the learning data generation unit 133 generates a text to be used for learning based on the text output from the model M.

また、学習部132は、第3のテキストと第4のテキストとの関係性に基づいて学習を行う。   The learning unit 132 performs learning based on the relationship between the third text and the fourth text.

また、学習部132は、第3のテキストと第4のテキストとの関係性に基づいて再帰的に学習を行う。   Further, the learning unit 132 performs recursive learning based on the relationship between the third text and the fourth text.

また、学習部132は、第3のテキストと第4のテキストとの関係性を学習することによりモデルとは異なる第2のモデルを生成する。   In addition, the learning unit 132 generates a second model different from the model by learning the relationship between the third text and the fourth text.

なお、第3のテキストと第4のテキストとの関係性に基づき生成される第2のモデルのパーセプトロンの構造は、第1のテキストと第2のテキストとの関係性に基づいて生成されるモデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが多い構造であってもよい。   Note that the structure of the second model perceptron generated based on the relationship between the third text and the fourth text is a model generated based on the relationship between the first text and the second text. It may be a structure in which at least one of the number of intermediate layers and the number of neurons is larger than the structure of the perceptron.

また、第3のテキストと第4のテキストとの関係性に基づき生成される第2のモデルのパーセプトロンの構造は、第1のテキストと第2のテキストとの関係性に基づいて生成されるモデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが少ない構造であってもよい。   In addition, the structure of the second model perceptron generated based on the relationship between the third text and the fourth text is a model generated based on the relationship between the first text and the second text. It may be a structure in which at least one of the number of intermediate layers and the number of neurons is smaller than the structure of the perceptron.

また、学習部132は、第1のテキストと第2のテキストとの関係性と、第3のテキストと第4のテキストとの関係性と、に基づく学習により第2のモデルを生成する。   In addition, the learning unit 132 generates the second model by learning based on the relationship between the first text and the second text and the relationship between the third text and the fourth text.

また、学習部132は、複数の第4のテキストの中から所定の基準に従い選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとの関係性に基づく学習により第2のモデルを生成する。   Further, the learning unit 132 performs learning based on the relationship between the fourth text selected from the plurality of fourth texts according to a predetermined criterion and the third text corresponding to the selected fourth text. A second model is generated.

また、学習部132は、上記モデルの学習結果に基づき算出されるスコアであって第4のテキストの尤もらしさを示すスコアに基づいて、生成部で生成された複数の第4のテキストの中から学習に使用する第4のテキストを選択する。そして、学習部132は、選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとに基づいて学習を行う。   In addition, the learning unit 132 calculates a score calculated based on the learning result of the model and indicates the likelihood of the fourth text from among the plurality of fourth texts generated by the generation unit. Select the fourth text to be used for learning. Then, the learning unit 132 performs learning based on the selected fourth text and the third text corresponding to the selected fourth text.

また、学習部132は、第3のテキストと第5のテキストとに基づいて、入力テキストから出力テキストを生成する第3のモデルの学習を行う。   The learning unit 132 also learns a third model that generates output text from input text based on the third text and the fifth text.

学習部132は、第1のテキストと第2のテキストとの関係性と、第3のテキストと第5のテキストとの関係性と、に基づく学習により第3のモデルを生成する。   The learning unit 132 generates a third model by learning based on the relationship between the first text and the second text and the relationship between the third text and the fifth text.

また、学習部132は、複数の第5のテキストの中から所定の基準に従い選択された第5のテキストと選択された第5のテキストに対応する第3のテキストとの関係性に基づく学習により第3のモデルを生成する、   Further, the learning unit 132 performs learning based on the relationship between the fifth text selected from the plurality of fifth texts according to a predetermined criterion and the third text corresponding to the selected fifth text. Generate a third model,

なお、上記モデルは、入力テキストから入力テキストが有する特徴を示す特徴情報を生成するエンコーダと、特徴情報から出力テキストを生成するデコーダと、を含んでいてもよい。   Note that the model may include an encoder that generates feature information indicating features of the input text from the input text, and a decoder that generates output text from the feature information.

また、学習部132は、第3のテキストと第3のテキストに対応する擬似見出しとの関係性に基づいて学習を行う。   In addition, the learning unit 132 performs learning based on the relationship between the third text and the pseudo headline corresponding to the third text.

生成部134は、モデルMに入力テキストを入力することにより、入力テキストに対応する出力テキストを生成する。このとき、モデルMは、モデルM1〜M3(第1〜第3のモデル)のいずれであってもよい。また、生成部134は、出力テキストとして、生成条件を満たすテキストを生成してもよい。例えば、生成部134は、出力テキストとして、所定の文字数以下のテキストを生成してもよい。   The generation unit 134 generates an output text corresponding to the input text by inputting the input text to the model M. At this time, the model M may be any of models M1 to M3 (first to third models). Further, the generation unit 134 may generate a text that satisfies the generation conditions as the output text. For example, the generation unit 134 may generate a text having a predetermined number of characters or less as the output text.

また、生成部134は、第1のテキストと第1のテキストに対応する第2のテキストとに基づいて学習したモデルM1(第1のモデル)に第3のテキストを入力することにより、第3のテキストに対応する第4のテキストを生成する。このとき、生成部134は、モデルM1に複数の第3のテキストを入力することにより、複数の第4のテキストを取得してもよい。   In addition, the generation unit 134 inputs the third text into the model M1 (first model) learned based on the first text and the second text corresponding to the first text, thereby generating the third text. A fourth text corresponding to the text is generated. At this time, the generation unit 134 may acquire a plurality of fourth texts by inputting the plurality of third texts into the model M1.

また、生成部134は、モデルM2(第2のモデル)に第3のテキストを入力することにより、第3のテキストに対応する第5のテキストを生成する。このとき、生成部134は、モデルM2に複数の第3のテキストを入力することにより、複数の第5のテキストを取得してもよい。   Further, the generation unit 134 generates the fifth text corresponding to the third text by inputting the third text to the model M2 (second model). At this time, the generation unit 134 may acquire a plurality of fifth texts by inputting a plurality of third texts into the model M2.

また、生成部134は、モデルM3(第3のモデル)に第3のテキストを入力することにより、第3のテキストに対応する第6のテキスト(例えば、見出し)を生成する。このとき、生成部134は、生成部134は、モデルM3に複数の第3のテキストを入力することにより、複数の第6のテキストを取得してもよい。   In addition, the generation unit 134 generates the sixth text (for example, a headline) corresponding to the third text by inputting the third text to the model M3 (third model). At this time, the generation unit 134 may acquire the plurality of sixth texts by inputting the plurality of third texts to the model M3.

また、生成部134は、第1のテキストと第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて、第3のテキストから第3のテキストに対応する第4のテキストを生成する。このとき、生成部134は、第1のモデルに複数の第3のテキストを入力することにより、複数の第4のテキストを生成してもよい。   Further, the generation unit 134 corresponds to the third text to the third text using a model generated by learning based on the relationship between the first text and the second text corresponding to the first text. The fourth text to be generated is generated. At this time, the generation unit 134 may generate a plurality of fourth texts by inputting a plurality of third texts to the first model.

また、生成部134は、第1のテキストと第1のテキストに対応する見出しとに基づく学習により生成されたモデルを用いて、第3のテキストから第3のテキストに対応する擬似見出しを生成する。   Further, the generation unit 134 generates a pseudo heading corresponding to the third text from the third text using a model generated by learning based on the first text and the heading corresponding to the first text. .

また、生成部134は、第3のテキストと、第1のテキストと第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて第3のテキストから生成された第4のテキストと、の関係性に基づく学習により生成された所定のモデルを用いて、入力テキストから入力テキストに対応する出力テキストを生成する。   The generation unit 134 generates the third text from the third text by using a model generated by learning based on the relationship between the first text and the second text corresponding to the first text. An output text corresponding to the input text is generated from the input text using a predetermined model generated by learning based on the relationship between the fourth text and the fourth text.

例えば、生成部134は、第3のテキストと、第1のテキストと第1のテキストに対応する見出しとの関係性に基づく学習により生成されたモデルを用いて第3のテキストから生成された擬似見出しと、の関係性に基づく学習により生成された所定のモデルを用いて、入力テキストから入力テキストに対応する見出しを生成する。   For example, the generation unit 134 uses the model generated by learning based on the relationship between the third text, the first text, and the heading corresponding to the first text, and the pseudo generated from the third text. A headline corresponding to the input text is generated from the input text using a predetermined model generated by learning based on the relationship between the headline and the headline.

出力制御部135は、生成部134が生成したテキストを利用者に対して出力する。例えば、出力制御部135は、端末装置30からの要求に応じて、生成部134が生成したテキストが含まれるコンテンツを配信する。なお、出力制御部135は、生成部134が生成したテキストが含まれるコンテンツをデータサーバ20に提供し、データサーバ20から配信させてもよい。   The output control unit 135 outputs the text generated by the generation unit 134 to the user. For example, the output control unit 135 distributes content including the text generated by the generation unit 134 in response to a request from the terminal device 30. Note that the output control unit 135 may provide content including the text generated by the generation unit 134 to the data server 20 and distribute the content from the data server 20.

〔3.情報処理装置の処理フロー〕
次に、情報処理装置10が実行する処理の手順について説明する。情報処理装置10は学習処理と生成処理とを実行する。情報処理装置10は例えばマルチタスクOSを備え、これらの処理を並行して実行可能である。
[3. Processing flow of information processing apparatus]
Next, a procedure of processing executed by the information processing apparatus 10 will be described. The information processing apparatus 10 performs learning processing and generation processing. The information processing apparatus 10 includes a multitask OS, for example, and can execute these processes in parallel.

〔3−1.学習処理〕
最初に学習処理を説明する。図11は、学習処理の一例を示すフローチャートである。学習処理は、入力テキストから出力テキストを生成するモデルMを学習する処理である。情報処理装置10は、ユーザから処理開始命令を受信すると、学習処理を実行する。
[3-1. Learning process)
First, the learning process will be described. FIG. 11 is a flowchart illustrating an example of the learning process. The learning process is a process of learning a model M that generates output text from input text. When the information processing apparatus 10 receives a process start command from the user, the information processing apparatus 10 executes a learning process.

まず、情報処理装置10は、学習データを取得する(ステップS11)。例えば、情報処理装置10は、データサーバ20から配信コンテンツ(本文及びタイトル)の情報を取得する。また、情報処理装置10は、配信コンテンツに対応する見出しが存在するのであれば、その見出しを取得する。そして、情報処理装置10は、学習データデータベース121に取得したデータを登録する。   First, the information processing apparatus 10 acquires learning data (step S11). For example, the information processing apparatus 10 acquires information on distribution contents (text and title) from the data server 20. In addition, if there is a heading corresponding to the distribution content, the information processing apparatus 10 acquires the heading. Then, the information processing apparatus 10 registers the acquired data in the learning data database 121.

続いて、情報処理装置10は、ステップS11で取得した学習データの中から、タイトル(第1のテキスト)と見出し(第2のテキスト)の組を取得する(ステップS12)。そして、情報処理装置10は、第1のテキストを入力データ、第2のテキストを正解データ(教師ラベル)とした学習に基づいて第1のモデル(モデルM1)を生成する(ステップS13)。   Subsequently, the information processing apparatus 10 acquires a combination of a title (first text) and a heading (second text) from the learning data acquired in step S11 (step S12). The information processing apparatus 10 generates a first model (model M1) based on learning using the first text as input data and the second text as correct data (teacher label) (step S13).

続いて、情報処理装置10は、第1のモデルにタイトル(第3のテキスト)を入力して擬似見出し(第4のテキスト)を生成する(ステップS14)。このとき、第1のモデルにタイトルは、見出しが未だ生成されていないタイトルである。そして、情報処理装置10は、学習データデータベース121に生成した擬似見出しを登録する。   Subsequently, the information processing apparatus 10 inputs a title (third text) to the first model and generates a pseudo heading (fourth text) (step S14). At this time, the title in the first model is a title for which a heading has not yet been generated. Then, the information processing apparatus 10 registers the generated pseudo heading in the learning data database 121.

続いて、情報処理装置10は、学習データデータベース121に登録されている学習データからタイトル(第3のテキスト)と擬似見出し(第4のテキスト)の組を取得する(ステップS15)。そして、情報処理装置10は、第3のテキストを入力データ、第4のテキストを正解データ(教師ラベル)とした学習により所定のモデルを生成する(ステップS16)。所定のモデルは、第1のモデル(モデルM1)そのものであってもよいし、第1のモデルとは異なる第2のモデル(モデルM2)であってもよい。   Subsequently, the information processing apparatus 10 acquires a combination of a title (third text) and a pseudo heading (fourth text) from learning data registered in the learning data database 121 (step S15). Then, the information processing apparatus 10 generates a predetermined model by learning using the third text as input data and the fourth text as correct data (teacher label) (step S16). The predetermined model may be the first model (model M1) itself, or may be a second model (model M2) different from the first model.

学習の実行が終了したら、情報処理装置10は、学習処理を終了する。   When the execution of learning ends, the information processing apparatus 10 ends the learning process.

〔3−2.生成処理〕
次に生成処理を説明する。図12は、生成処理の一例を示すフローチャートである。生成処理は、入力テキストから出力テキスト(入力テキストの短縮テキスト)を生成する処理である。情報処理装置10は、ユーザから処理開始命令を受信すると、生成処理を実行する。
[3-2. Generation process)
Next, the generation process will be described. FIG. 12 is a flowchart illustrating an example of the generation process. The generation process is a process for generating output text (short text of input text) from input text. When the information processing apparatus 10 receives a process start command from the user, the information processing apparatus 10 executes a generation process.

まず、情報処理装置10は、コンテンツ情報を取得する(ステップS21)。例えば、情報処理装置10は、データサーバ20から配信コンテンツ(本文及びタイトル)の情報を取得する。   First, the information processing apparatus 10 acquires content information (step S21). For example, the information processing apparatus 10 acquires information on distribution contents (text and title) from the data server 20.

続いて、情報処理装置10は、ステップS21で取得したデータの中から、第2のモデル(モデルM2)に入力する入力テキストを選択する(ステップS22)。例えば、情報処理装置10は、タイトルを入力テキストとして選択する。   Subsequently, the information processing apparatus 10 selects an input text to be input to the second model (model M2) from the data acquired in step S21 (step S22). For example, the information processing apparatus 10 selects a title as input text.

そして、情報処理装置10は、入力テキストを第2のモデルに入力して出力テキストを生成する(ステップS23)。出力テキストの生成が終了したら、情報処理装置10は、生成処理を終了する。   Then, the information processing apparatus 10 generates the output text by inputting the input text to the second model (step S23). When the generation of the output text is completed, the information processing apparatus 10 ends the generation process.

〔4.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
[4. (Modification)
The above-described embodiment shows an example, and various changes and applications are possible.

例えば、上述の実施形態では、情報処理装置10は、第1のテキストをタイトル、第2のテキストを見出し(タイトルの短縮テキスト)としてモデルM1の学習を行った。しかし、情報処理装置10は、第1のテキストを本文、第2のテキストを見出し(本文或いはタイトルの短縮テキスト)としてモデルM1の学習を行ってもよい。また、上述の実施形態では、情報処理装置10は、第3のテキストをタイトル、第4のテキストを見出し(タイトルの短縮テキスト)としてモデルM2の学習を行った。しかし、情報処理装置10は、第3のテキストを本文、第4のテキストを見出し(本文或いはタイトルの短縮テキスト)としてモデルM2の学習を行ってもよい。このとき、情報処理装置10は、本文をモデルM2に入力する入力テキストとして出力テキストの生成を行ってもよい。   For example, in the above-described embodiment, the information processing apparatus 10 learns the model M1 using the first text as the title and the second text as the heading (short text of the title). However, the information processing apparatus 10 may learn the model M1 using the first text as a body and the second text as a heading (short text of the body or title). Further, in the above-described embodiment, the information processing apparatus 10 learns the model M2 using the third text as a title and the fourth text as a heading (short text of the title). However, the information processing apparatus 10 may learn the model M2 using the third text as the body and the fourth text as the heading (short text of the body or title). At this time, the information processing apparatus 10 may generate output text as input text that is input to the model M2.

その他、第1のテキスト、第2のテキスト、第3のテキスト、第4のテキストとするテキストは任意に変更可能である。この場合、第3のテキストに対応する第4のテキストは擬似テキストと言い換えることができる。例えば、所定のモデルが本文からタイトルを生成するモデルであるとする。そして、第3のテキストが本文であるとする。この場合、第3のテキストを所定のモデルに入力して生成される第4のテキストは擬似タイトルである。   In addition, the text used as the first text, the second text, the third text, and the fourth text can be arbitrarily changed. In this case, the fourth text corresponding to the third text can be paraphrased as pseudo text. For example, it is assumed that the predetermined model is a model that generates a title from the text. It is assumed that the third text is a body text. In this case, the fourth text generated by inputting the third text into the predetermined model is a pseudo title.

また、上述の実施形態では、情報処理装置10は、モデルM1(第1のモデル)に第3のテキスト(例えば、タイトル)を入力することにより、第3のテキストに対応する第4のテキスト(例えば、擬似見出し)を生成した。そして、情報処理装置10は、第3のテキストと第4のテキストとに基づいて、入力テキストから出力テキストを生成するモデルM2(第2のモデル)の学習を行った。しかし、情報処理装置10は、さらに、第2のモデルに第3のテキストを入力することにより、第3のテキストに対応する第5のテキストを生成してもよい。そして、情報処理装置10は、第3のテキストと第5のテキストとに基づいて、入力テキストから出力テキストを生成するモデルM3(第3のモデル)の学習を行ってもよい。   Further, in the above-described embodiment, the information processing apparatus 10 inputs the third text (for example, a title) to the model M1 (first model), whereby the fourth text (corresponding to the third text ( For example, a pseudo heading) was generated. Then, the information processing apparatus 10 learns a model M2 (second model) that generates output text from input text based on the third text and the fourth text. However, the information processing apparatus 10 may generate the fifth text corresponding to the third text by inputting the third text into the second model. Then, the information processing apparatus 10 may learn a model M3 (third model) that generates output text from input text based on the third text and the fifth text.

以下、図13を使ってモデルM3の学習について説明する。図13は、実施形態に係る情報処理装置10が実行する処理の他の例を示す図である。なお、図13に示すステップS102〜ステップS104は、図6に示すステップS102〜ステップS104と同じである。情報処理装置10は、モデルM2の学習が終了すると(ステップS104)、グループG2に属するコンテンツのタイトル(第3のテキスト)をモデルM2に入力することにより、入力したタイトルに対応する擬似見出し(第5のテキスト)を生成する。なお、取得したタイトルが複数あるのであれば、情報処理装置10は、複数の擬似見出しをそれぞれモデルM2に入力し、複数の擬似見出しを生成する(ステップS201)。   Hereinafter, learning of the model M3 will be described with reference to FIG. FIG. 13 is a diagram illustrating another example of processing executed by the information processing apparatus 10 according to the embodiment. Note that steps S102 to S104 shown in FIG. 13 are the same as steps S102 to S104 shown in FIG. When the learning of the model M2 is completed (step S104), the information processing apparatus 10 inputs the title (third text) of the content belonging to the group G2 to the model M2, thereby obtaining a pseudo heading (first item) corresponding to the input title. 5 text). Note that if there are a plurality of acquired titles, the information processing apparatus 10 inputs a plurality of pseudo headings to the model M2 and generates a plurality of pseudo headings (step S201).

そして、情報処理装置10は、グループG2に属するコンテンツのタイトル(第3のテキスト)と擬似見出し(第5のテキスト)とに基づいてモデルM3の学習を行う(ステップS202)。ここで、モデルM3は、モデルM1、M2と同様に、入力テキストから出力テキストを生成するモデルである。なお、モデルM2は、モデルM1、M2と同じ構成であってもよいし、異なる構成であってもよい。   Then, the information processing apparatus 10 learns the model M3 based on the title (third text) and pseudo heading (fifth text) of the content belonging to the group G2 (step S202). Here, the model M3 is a model that generates output text from input text, similarly to the models M1 and M2. The model M2 may have the same configuration as the models M1 and M2, or may have a different configuration.

なお、情報処理装置10は、グループG2に属するコンテンツのタイトル(第3のテキスト)と擬似見出し(第5のテキスト)のみならず、グループG1に属するコンテンツのタイトル(第1のテキスト)と見出し(第2のテキスト)をモデルM3の学習用のテキストとしてもよい。   Note that the information processing apparatus 10 not only includes the title (third text) and pseudo heading (fifth text) of content belonging to the group G2, but also the title (first text) and heading (first text) of the content belonging to the group G1. The second text) may be a text for learning the model M3.

なお、ステップS201において、情報処理装置10は、複数の擬似見出しを生成したが、必ずしも、生成した擬似見出し全てを学習用のデータとして使用する必要はない。情報処理装置10は、ステップS201で生成した複数の擬似見出し(複数の第5のテキスト)の中から所定の基準に従い選択された擬似見出し(第5のテキスト)を学習用のデータとして選択してもよい。このとき、情報処理装置10は、モデルM2の学習結果に基づき算出されるスコアであって擬似見出しの尤もらしさを示すスコア(尤度)に基づいて、モデルM3の学習に使用する擬似見出しを選択してもよい。   In step S201, the information processing apparatus 10 generates a plurality of pseudo headings, but it is not always necessary to use all of the generated pseudo headings as learning data. The information processing apparatus 10 selects, as learning data, a pseudo heading (fifth text) selected according to a predetermined criterion from the plurality of pseudo headings (a plurality of fifth texts) generated in step S201. Also good. At this time, the information processing apparatus 10 selects a pseudo heading used for learning of the model M3 based on a score (likelihood) that is calculated based on the learning result of the model M2 and indicates the likelihood of the pseudo heading. May be.

その後、情報処理装置10は、モデルM3に入力テキスト(例えば、タイトル)を入力することにより、入力テキストに対応する出力テキスト(例えば、見出し)を生成する(ステップS203)。   Thereafter, the information processing apparatus 10 generates an output text (for example, a heading) corresponding to the input text by inputting the input text (for example, a title) to the model M3 (step S203).

なお、情報処理装置10は、ステップS201とステップS202を繰り返し実行することで、第4、第5、・・・、第Nのモデルを生成してもよい。このときNは整数である。なお、ステップS201とステップS202を繰り返す際、ステップS201のモデルM2はステップS202のモデルM3に置き換える。そして、ステップS202のモデルM3は新たなモデルに置き換える。   The information processing apparatus 10 may generate the fourth, fifth,..., Nth models by repeatedly executing Step S201 and Step S202. At this time, N is an integer. When step S201 and step S202 are repeated, the model M2 in step S201 is replaced with the model M3 in step S202. Then, the model M3 in step S202 is replaced with a new model.

例えば、今回の周回でステップS201のモデルM2が第2のモデル、ステップS202のモデルM3が第3のモデルであったとする。このとき、情報処理装置10は、新たな周回では、ステップS201のモデルM2を第3のモデル、ステップS202のモデルM3を第4のモデルに置き換える。これにより、情報処理装置10は、モデルの生成を繰り返すたびにモデルの精度を高くすることができる。   For example, it is assumed that the model M2 in step S201 is the second model and the model M3 in step S202 is the third model in this round. At this time, the information processing apparatus 10 replaces the model M2 in step S201 with the third model and the model M3 in step S202 with the fourth model in a new lap. Thereby, the information processing apparatus 10 can increase the accuracy of the model every time the model generation is repeated.

なお、上述の実施形態では、生成部134は、第1のモデルに第3テキストを入力することにより、第3テキストに対応する第4テキストを生成した。その後、学習部132は、第3のテキストと第4のテキストとに基づいて、入力テキストから出力テキストを生成する第2のモデルの学習を行った。このとき、生成部134が使用する“第1のモデル”は、第(N−1)のモデルに置き換えることがきる。また、学習部132が使用する“第2のモデル”は、第Nのモデルに置き換えることがきる。このとき、Nは整数である。一例を挙げると、生成部134は、第3のモデルに第3テキストを入力することにより、第3テキストに対応する第4テキストを生成する。その後、学習部132は、第3のテキストと第4のテキストとに基づいて、入力テキストから出力テキストを生成する第4のモデルの学習を行う。   In the above-described embodiment, the generation unit 134 generates the fourth text corresponding to the third text by inputting the third text to the first model. After that, the learning unit 132 learned the second model that generates the output text from the input text based on the third text and the fourth text. At this time, the “first model” used by the generation unit 134 can be replaced with the (N−1) th model. In addition, the “second model” used by the learning unit 132 can be replaced with the Nth model. At this time, N is an integer. For example, the generation unit 134 generates the fourth text corresponding to the third text by inputting the third text to the third model. Thereafter, the learning unit 132 learns the fourth model that generates the output text from the input text based on the third text and the fourth text.

なお、第(N−1)のモデルを第1のモデル、第Nのモデルを第2のモデルとみなすことも可能である。例えば、モデルM2を第1のモデル、モデルM3を第2のモデルとみなすことも可能である。第1のモデル、第2のモデルとみなすモデルは任意に変更可能である。   It is also possible to regard the (N-1) th model as the first model and the Nth model as the second model. For example, the model M2 can be regarded as a first model, and the model M3 can be regarded as a second model. The models regarded as the first model and the second model can be arbitrarily changed.

なお、第2のモデルは、第1のモデルをデータが増えた分だけ複雑なモデルにしたものであってもよい。具体的には、第2のモデルのパーセプトロンの構造は、第1のモデルのパーセプトロンの構造よりも複雑であってもよい。例えば、第2のモデルのパーセプトロンの構造は、第1のモデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが多い構造であってもよい。   Note that the second model may be a model in which the first model is made as complex as data increases. Specifically, the structure of the second model perceptron may be more complex than the structure of the first model perceptron. For example, the structure of the second model perceptron may be a structure in which at least one of the number of intermediate layers and the number of neurons is larger than that of the first model perceptron.

第2のモデルは、第1のモデルの圧縮や蒸留(distillation)により、第1のモデルより小さなモデルとしてもよい。具体的には、第2のモデルのパーセプトロンの構造は、第1のモデルのパーセプトロンの構造よりも小さなモデルであってもよい。例えば、第2のモデルのパーセプトロンの構造は、第1のモデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが少ない構造であってもよい。   The second model may be a smaller model than the first model by compression or distillation of the first model. Specifically, the structure of the second model perceptron may be smaller than the structure of the first model perceptron. For example, the structure of the second model perceptron may be a structure in which at least one of the number of intermediate layers and the number of neurons is smaller than the structure of the first model perceptron.

また、上述の実施形態では、モデルMを構成するエンコーダおよびデコーダは、LSTMにより構成されるものとしたが、LSTM以外のRNNにより構成されていてもよい。モデルMを構成するエンコーダおよびデコーダは、CNN(Convolution Neural Network)等、RNN以外のニューラルネットワークであってもよい。その他、モデルMを構成するエンコーダおよびデコーダは、単純に入力された情報量の次元数を変化させるニューラルネットワークであってもよい。このとき、モデルMを構成するエンコーダは、入力された情報の次元量を圧縮することで入力された情報が有する特徴を抽出するよう構成されていてもよい。また、モデルMを構成するデコーダは、エンコーダによって抽出された特徴の次元量を増大させ、エンコーダに入力された情報よりも次元数が少ない情報を出力するよう構成されていてもよい。   Further, in the above-described embodiment, the encoder and the decoder configuring the model M are configured by LSTM, but may be configured by RNN other than LSTM. The encoder and decoder that constitute the model M may be a neural network other than the RNN, such as a CNN (Convolution Neural Network). In addition, the encoder and decoder constituting the model M may be a neural network that simply changes the number of dimensions of the input information amount. At this time, the encoders constituting the model M may be configured to extract features of the input information by compressing the dimensionality of the input information. In addition, the decoder constituting the model M may be configured to increase the dimension amount of the feature extracted by the encoder and output information having a smaller number of dimensions than the information input to the encoder.

本実施形態の情報処理装置10を制御する制御装置は、専用のコンピュータシステムによって実現してもよいし、通常のコンピュータシステムにより実現してもよい。例えば、上述の動作を実行するためのプログラムまたはデータ(例えば、モデルM)を、光ディスク、半導体メモリ、磁気テープ、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に格納して配布し、該プログラムをコンピュータにインストールし、上述の処理を実行することによって制御装置を構成してもよい。制御装置は、情報処理装置10の外部の装置(例えば、パーソナルコンピュータ)であってもよいし、内部の装置(例えば、制御部13)であってもよい。また、上記プログラムをインターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OS(Operating System)とアプリケーションソフトとの協働により実現してもよい。この場合には、OS以外の部分を媒体に格納して配布してもよいし、OS以外の部分をサーバ装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。   The control device that controls the information processing apparatus 10 according to the present embodiment may be realized by a dedicated computer system or an ordinary computer system. For example, a program or data (for example, model M) for executing the above-described operation is stored and distributed in a computer-readable recording medium such as an optical disk, a semiconductor memory, a magnetic tape, or a flexible disk, and the program is distributed to the computer. The control device may be configured by installing the software and executing the above-described processing. The control device may be an external device (for example, a personal computer) of the information processing device 10 or an internal device (for example, the control unit 13). Further, the program may be stored in a disk device provided in a server device on a network such as the Internet so that it can be downloaded to a computer. Further, the above-described functions may be realized by cooperation between an OS (Operating System) and application software. In this case, a part other than the OS may be stored and distributed in a medium, or a part other than the OS may be stored in a server device and downloaded to a computer.

また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。   In addition, among the processes described in the above embodiments, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed All or a part of the above can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Moreover, each embodiment mentioned above can be combined suitably in the range which does not contradict a process content.

〔5.ハードウェア構成〕
実施形態及び変形例に係る情報処理装置10は、例えば図14に示すような構成のコンピュータ1000によっても実現可能である。図14は、情報処理装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU(Central Processing Unit)1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インタフェース(I/F)1500、入出力インタフェース(I/F)1600、及びメディアインタフェース(I/F)1700を有する。
[5. Hardware configuration)
The information processing apparatus 10 according to the embodiment and the modification may be realized by a computer 1000 having a configuration as illustrated in FIG. FIG. 14 is a hardware configuration diagram illustrating an example of a computer that implements the functions of the information processing apparatus 10. The computer 1000 includes a CPU (Central Processing Unit) 1100, a RAM 1200, a ROM 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インタフェース1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the network N and sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to other devices via the network N.

CPU1100は、入出力インタフェース1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インタフェース1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インタフェース1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via an input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインタフェース1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインタフェース1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM)を実行することにより、制御部13を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM)を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムまたはデータ(例えば、モデルM)を取得してもよい。   For example, when the computer 1000 functions as the information processing apparatus 10 according to the embodiment, the CPU 1100 of the computer 1000 implements the control unit 13 by executing a program or data (for example, model M) loaded on the RAM 1200. To do. The CPU 1100 of the computer 1000 reads these programs or data (for example, model M) from the recording medium 1800 and executes them, but as another example, these programs or data (for example, for example, from other devices via the network N). Model M) may be obtained.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications based on the knowledge of those skilled in the art, including the aspects described in the disclosure line of the invention. It is possible to implement the present invention in other forms with improvements.

〔6.効果〕
本実施形態によれば、情報処理装置10は、第1のテキストと第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて、第3のテキストから第3のテキストに対応する第4のテキストを生成する。そして、情報処理装置10は、第3のテキストと第4のテキストとの関係性に基づいて学習を行う。これにより、情報処理装置10は、第3のテキスト(例えば、タイトル)と第4のテキスト(例えば、擬似見出し)の組も学習用のデータとするので、精度の高いモデルを取得できる。取得したモデルを使用することで、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。
[6. effect〕
According to the present embodiment, the information processing apparatus 10 uses the model generated by learning based on the relationship between the first text and the second text corresponding to the first text, from the third text. A fourth text corresponding to the third text is generated. Then, the information processing apparatus 10 performs learning based on the relationship between the third text and the fourth text. Accordingly, the information processing apparatus 10 can acquire a highly accurate model because the set of the third text (for example, title) and the fourth text (for example, pseudo heading) is also used as learning data. By using the acquired model, the information processing apparatus 10 can generate a highly accurate output text.

情報処理装置10は、第3のテキストと第4のテキストとの関係性に基づいて再帰的に学習を行う。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 learns recursively based on the relationship between the third text and the fourth text. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、第3のテキストと第4のテキストとの関係性を学習することによりモデルとは異なる第2のモデルを生成する。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates a second model different from the model by learning the relationship between the third text and the fourth text. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

第3のテキストと第4のテキストとの関係性に基づき生成される第2のモデルのパーセプトロンの構造は、第1のテキストと第2のテキストとの関係性に基づいて生成されるモデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが多い構造である。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The structure of the second model perceptron generated based on the relationship between the third text and the fourth text is the model perceptron generated based on the relationship between the first text and the second text. It is a structure in which at least one of the number of intermediate layers and the number of neurons is larger than the structure of Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

第3のテキストと第4のテキストとの関係性に基づき生成される第2のモデルのパーセプトロンの構造は、第1のテキストと第2のテキストとの関係性に基づいて生成されるモデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが少ない構造である。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The structure of the second model perceptron generated based on the relationship between the third text and the fourth text is the model perceptron generated based on the relationship between the first text and the second text. It is a structure in which at least one of the number of intermediate layers and the number of neurons is smaller than that of the structure. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、第1のテキストと第2のテキストとの関係性と、第3のテキストと第4のテキストとの関係性と、に基づく学習により第2のモデルを生成する。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates the second model by learning based on the relationship between the first text and the second text and the relationship between the third text and the fourth text. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、上記モデルに複数の第3のテキストを入力することにより、複数の第4のテキストを生成する。そして、情報処理装置10は、複数の第4のテキストの中から所定の基準に従い選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとの関係性に基づく学習により第2のモデルを生成する。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates a plurality of fourth texts by inputting a plurality of third texts into the model. The information processing apparatus 10 learns based on the relationship between the fourth text selected from the plurality of fourth texts according to a predetermined criterion and the third text corresponding to the selected fourth text. To generate a second model. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、上記モデルの学習結果に基づき算出されるスコアであって第4のテキストの尤もらしさを示すスコアに基づいて、生成部で生成された複数の第4のテキストの中から学習に使用する第4のテキストを選択する。そして、選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとに基づいて学習を行う。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 learns from a plurality of fourth texts generated by the generation unit based on a score calculated based on the learning result of the model and indicating the likelihood of the fourth text. Select the fourth text to use for. Then, learning is performed based on the selected fourth text and the third text corresponding to the selected fourth text. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、第2のモデルに第3のテキストを入力することにより、第3のテキストに対応する第5のテキストを生成する。そして、情報処理装置10は、第3のテキストと第5のテキストとに基づいて、入力テキストから出力テキストを生成する第3のモデルの学習を行う。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates the fifth text corresponding to the third text by inputting the third text to the second model. Then, the information processing apparatus 10 learns a third model that generates output text from input text based on the third text and the fifth text. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、第1のテキストと第2のテキストとの関係性と、第3のテキストと第5のテキストとの関係性と、に基づく学習により第3のモデルを生成する。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates the third model by learning based on the relationship between the first text and the second text and the relationship between the third text and the fifth text. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、第2のモデルに複数の第3のテキストを入力することにより、複数の第5のテキストを生成する。そして、情報処理装置10は、複数の第5のテキストの中から所定の基準に従い選択された第5のテキストと選択された第5のテキストに対応する第3のテキストとの関係性に基づく学習により第3のモデルを生成する。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates a plurality of fifth texts by inputting a plurality of third texts to the second model. Then, the information processing apparatus 10 learns based on the relationship between the fifth text selected from the plurality of fifth texts according to a predetermined criterion and the third text corresponding to the selected fifth text. To generate a third model. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

上記モデルは、入力テキストから入力テキストが有する特徴を示す特徴情報を生成するエンコーダと、特徴情報から出力テキストを生成するデコーダと、を含む。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The model includes an encoder that generates feature information indicating features of the input text from the input text, and a decoder that generates output text from the feature information. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、第1のテキストと第1のテキストに対応する見出しとに基づく学習により生成されたモデルを用いて、第3のテキストから第3のテキストに対応する擬似見出しを生成する。そして、情報処理装置10は、第3のテキストと第3のテキストに対応する擬似見出しとの関係性に基づいて学習を行う。これにより、情報処理装置10は、精度の高いモデルを取得できるので、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates a pseudo heading corresponding to the third text from the third text using a model generated by learning based on the first text and the heading corresponding to the first text. Then, the information processing apparatus 10 performs learning based on the relationship between the third text and the pseudo headline corresponding to the third text. Thereby, since the information processing apparatus 10 can acquire a highly accurate model, it is possible to generate an output text with high accuracy.

情報処理装置10は、入力テキストを取得する。そして、情報処理装置10は、第3のテキストと、第1のテキストと第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて第3のテキストから生成された第4のテキストと、の関係性に基づく学習により生成された所定のモデルを用いて、入力テキストから入力テキストに対応する出力テキストを生成する。これにより、情報処理装置10は、精度の高い出力テキストを取得できる。   The information processing apparatus 10 acquires an input text. Then, the information processing apparatus 10 uses the model generated by learning based on the relationship between the third text and the first text and the second text corresponding to the first text from the third text. An output text corresponding to the input text is generated from the input text by using a predetermined model generated by learning based on the relationship with the generated fourth text. Thereby, the information processing apparatus 10 can acquire a highly accurate output text.

情報処理装置10は、第3のテキストと、第1のテキストと第1のテキストに対応する見出しとの関係性に基づく学習により生成されたモデルを用いて第3のテキストから生成された擬似見出しと、の関係性に基づく学習により生成された所定のモデルを用いて、入力テキストから入力テキストに対応する見出しを生成する。これにより、情報処理装置10は、精度の高い見出しを取得できる。   The information processing apparatus 10 uses the model generated by learning based on the relationship between the third text and the first text and the heading corresponding to the first text, and the pseudo heading generated from the third text. The headline corresponding to the input text is generated from the input text using a predetermined model generated by learning based on the relationship between Thereby, the information processing apparatus 10 can acquire a headline with high accuracy.

情報処理装置10は、第1のテキストと第1のテキストに対応する第2のテキストとに基づいて学習した第1のモデルに第3のテキストを入力することにより、第3のテキストに対応する第4のテキストを生成する。そして、情報処理装置10は、第3のテキストと第4のテキストとに基づいて、入力テキストから出力テキストを生成する第2のモデルの学習を行う。これにより、情報処理装置10は、第3のテキスト(例えば、タイトル)と第4のテキスト(例えば、擬似見出し)の組も学習用のデータとするので、精度の高いモデルを取得できる。取得した第2のモデルを使用することで、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 corresponds to the third text by inputting the third text to the first model learned based on the first text and the second text corresponding to the first text. Generate fourth text. Then, the information processing apparatus 10 learns the second model that generates the output text from the input text based on the third text and the fourth text. Accordingly, the information processing apparatus 10 can acquire a highly accurate model because the set of the third text (for example, title) and the fourth text (for example, pseudo heading) is also used as learning data. By using the acquired second model, the information processing apparatus 10 can generate an output text with high accuracy.

情報処理装置10は、第1のテキストと第2のテキストと第3のテキストと第4のテキストとに基づいて、第2のモデルの学習を行う。これにより、情報処理装置10は、第3のテキストと第4のテキストとの組のみならず、第1のテキストと第2のテキストとの組も学習用のデータとするので、精度の高いモデルを取得できる。結果として、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 learns the second model based on the first text, the second text, the third text, and the fourth text. As a result, the information processing apparatus 10 uses not only the set of the third text and the fourth text but also the set of the first text and the second text as learning data. Can be obtained. As a result, the information processing apparatus 10 can generate highly accurate output text.

情報処理装置10は、第1のモデルに複数の第3のテキストを入力することにより、複数の第4のテキストを生成する。そして、情報処理装置10は、複数の第4のテキストの中から所定の基準に従い選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとに基づいて、第2のモデルの学習を行う。これにより、情報処理装置10は、生成された複数の第4のテキストを単純に学習用のデータとするのではなく、複数の第4のテキストの中から選択したテキストを学習用のデータとするので、精度の高いモデルを取得できる。結果として、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates a plurality of fourth texts by inputting a plurality of third texts to the first model. The information processing apparatus 10 then selects the second text based on the fourth text selected from the plurality of fourth texts according to the predetermined criterion and the third text corresponding to the selected fourth text. The model is learned. As a result, the information processing apparatus 10 does not simply use the plurality of generated fourth texts as learning data, but uses text selected from the plurality of fourth texts as learning data. Therefore, a highly accurate model can be acquired. As a result, the information processing apparatus 10 can generate highly accurate output text.

情報処理装置10は、第1のモデルの学習結果に基づき算出されるスコアであって第4のテキストの尤もらしさを示す第1のスコアに基づいて、生成された複数の第4のテキストの中から第2のモデルの学習に使用する第4のテキストを選択する。そして、情報処理装置10は、選択された第4のテキストと選択された第4のテキストに対応する第3のテキストとに基づいて、第2のモデルの学習を行う。これにより、情報処理装置10は、複数の擬似テキストの中でも尤度の高い擬似テキストを学習用のデータとするので、精度の高いモデルを取得できる。結果として、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 calculates a score calculated based on the learning result of the first model, and is based on the first score indicating the likelihood of the fourth text. To select a fourth text to be used for learning the second model. Then, the information processing apparatus 10 learns the second model based on the selected fourth text and the third text corresponding to the selected fourth text. Thereby, since the information processing apparatus 10 uses the pseudo text having the highest likelihood among the plurality of pseudo texts as the learning data, the information processing apparatus 10 can acquire a highly accurate model. As a result, the information processing apparatus 10 can generate highly accurate output text.

情報処理装置10は、第2のモデルに第3のテキストを入力することにより、第3のテキストに対応する第5のテキストを生成する。そして、情報処理装置10は、第3のテキストと第5のテキストとに基づいて、入力テキストから出力テキストを生成する第3のモデルの学習を行う。これにより、情報処理装置10は、第1のモデルから精度がよくなった第2のモデルを使って生成した擬似テキストを学習用のデータとするので、さらに精度の高いモデルを取得できる。結果として、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates the fifth text corresponding to the third text by inputting the third text to the second model. Then, the information processing apparatus 10 learns a third model that generates output text from input text based on the third text and the fifth text. As a result, the information processing apparatus 10 uses the pseudo-text generated by using the second model whose accuracy is improved from the first model as learning data, so that a model with higher accuracy can be acquired. As a result, the information processing apparatus 10 can generate highly accurate output text.

情報処理装置10は、第1のテキストと第2のテキストと第3のテキストと第5のテキストとに基づいて第3のモデルの学習を行う。これにより、情報処理装置10は、第3のテキストと第5のテキストとの組のみならず、第1のテキストと第2のテキストとの組も学習用のデータとするので、精度の高いモデルを取得できる。結果として、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 learns the third model based on the first text, the second text, the third text, and the fifth text. As a result, the information processing apparatus 10 uses not only the set of the third text and the fifth text but also the set of the first text and the second text as learning data. Can be obtained. As a result, the information processing apparatus 10 can generate highly accurate output text.

情報処理装置10は、第2のモデルに複数の第3のテキストを入力することにより、複数の第5のテキストを生成する。情報処理装置10は、複数の第5のテキストの中から所定の基準に従い選択された第5のテキストと選択された第5のテキストに対応する第3のテキストとに基づいて、第3のモデルの学習を行う。これにより、情報処理装置10は、複数の擬似テキストの中でも尤度の高い擬似テキストを学習用のデータとするので、精度の高いモデルを取得できる。結果として、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 generates a plurality of fifth texts by inputting a plurality of third texts to the second model. The information processing apparatus 10 uses the third model based on the fifth text selected according to a predetermined criterion from the plurality of fifth texts and the third text corresponding to the selected fifth text. To learn. Thereby, since the information processing apparatus 10 uses the pseudo text having the highest likelihood among the plurality of pseudo texts as the learning data, the information processing apparatus 10 can acquire a highly accurate model. As a result, the information processing apparatus 10 can generate highly accurate output text.

情報処理装置10は、入力テキストから入力テキストが有する特徴を示す特徴情報を生成するエンコーダと、特徴情報から出力テキストを生成するデコーダと、を含むモデルの学習を行う。これにより、情報処理装置10は、精度の高いモデルを取得できる。結果として、情報処理装置10は、精度の高い出力テキストを生成するようにすることができる。   The information processing apparatus 10 learns a model including an encoder that generates feature information indicating features of the input text from the input text, and a decoder that generates output text from the feature information. Thereby, the information processing apparatus 10 can acquire a highly accurate model. As a result, the information processing apparatus 10 can generate highly accurate output text.

情報処理装置10は、第1のテキストと第1のテキストに対応する見出しとに基づいて学習した第1のモデルに第3のテキストを入力することにより、第3のテキストに対応する擬似見出しを生成する。そして、情報処理装置10は、第3のテキストと第3のテキストに対応する擬似見出しとに基づいて、入力テキストから入力テキストに対応する見出しを生成する第2のモデルの学習を行う。これにより、情報処理装置10は、見出しを生成するための精度の高いモデルを取得できる。取得したモデルを使用することで、情報処理装置10は、精度の高い見出しを生成するようにすることができる。   The information processing apparatus 10 inputs the third text into the first model learned based on the first text and the heading corresponding to the first text, so that a pseudo heading corresponding to the third text is obtained. Generate. Then, the information processing apparatus 10 learns the second model that generates the heading corresponding to the input text from the input text based on the third text and the pseudo heading corresponding to the third text. Thereby, the information processing apparatus 10 can acquire a highly accurate model for generating a headline. By using the acquired model, the information processing apparatus 10 can generate a headline with high accuracy.

情報処理装置10は、第3のテキストと、第1のテキストと第1のテキストに対応する第2のテキストとに基づいて学習した第1のモデルに第3のテキストを入力することにより生成された第4のテキストと、に基づいて学習した第2のモデルに入力される入力テキストを取得する。そして、情報処理装置10は、第2のモデルに入力テキストを入力することにより、入力テキストに対応する出力テキストを生成する。これにより、情報処理装置10は、精度の高い出力テキストを取得できる。   The information processing apparatus 10 is generated by inputting the third text into the first model learned based on the third text and the first text and the second text corresponding to the first text. The input text input to the second model learned based on the fourth text is acquired. Then, the information processing apparatus 10 generates an output text corresponding to the input text by inputting the input text to the second model. Thereby, the information processing apparatus 10 can acquire a highly accurate output text.

情報処理装置10は、第3のテキストと、第1のテキストと第1のテキストに対応する見出しとに基づいて学習した第1のモデルに第3のテキストを入力することにより生成された擬似見出しと、に基づいて学習した第2のモデルに入力される入力テキストを取得する。そして、情報処理装置10は、第2のモデルに入力テキストを入力することにより、入力テキストに対応する見出しを生成する。これにより、情報処理装置10は、精度の高い見出しを取得できる。   The information processing apparatus 10 generates a pseudo heading generated by inputting the third text into the first model learned based on the third text and the first text and the heading corresponding to the first text. And the input text input into the 2nd model learned based on these is acquired. Then, the information processing apparatus 10 generates a headline corresponding to the input text by inputting the input text to the second model. Thereby, the information processing apparatus 10 can acquire a headline with high accuracy.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、学習部は、学習手段や学習回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the learning unit can be read as learning means or a learning circuit.

10…情報処理装置
11…通信部
12…記憶部
121…学習データデータベース
122…モデルデータベース
123…コンテンツ情報データベース
13…制御部
131…学習データ取得部
132…学習部
133…学習データ生成部
134…生成部
135…出力制御部
20…データサーバ
30…端末装置
M1、M2、M3…モデル
E1…エンコーダ
D1…デコーダ
F…特徴情報
P…分類情報
DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus 11 ... Communication part 12 ... Storage part 121 ... Learning data database 122 ... Model database 123 ... Content information database 13 ... Control part 131 ... Learning data acquisition part 132 ... Learning part 133 ... Learning data generation part 134 ... Generation Unit 135 ... Output control unit 20 ... Data server 30 ... Terminal device M1, M2, M3 ... Model E1 ... Encoder D1 ... Decoder F ... Feature information P ... Classification information

Claims (20)

第1のテキストと前記第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて、第3のテキストから前記第3のテキストに対応する第4のテキストを生成する生成部と、
前記第3のテキストと前記第4のテキストとの関係性に基づいて学習を行う学習部と、
を備えることを特徴とする学習装置。
The fourth text corresponding to the third text from the third text using the model generated by learning based on the relationship between the first text and the second text corresponding to the first text A generating unit for generating
A learning unit that learns based on the relationship between the third text and the fourth text;
A learning apparatus comprising:
前記学習部は、前記第3のテキストと前記第4のテキストとの関係性に基づいて再帰的に学習を行うことを特徴とする請求項1に記載の学習装置。   The learning device according to claim 1, wherein the learning unit learns recursively based on a relationship between the third text and the fourth text. 前記学習部は、前記第3のテキストと前記第4のテキストとの関係性を学習することにより前記モデルとは異なる第2のモデルを生成することを特徴とする請求項1に記載の学習装置。   The learning device according to claim 1, wherein the learning unit generates a second model different from the model by learning a relationship between the third text and the fourth text. . 前記第3のテキストと前記第4のテキストとの関係性に基づき生成される前記第2のモデルのパーセプトロンの構造は、前記第1のテキストと前記第2のテキストとの関係性に基づいて生成される前記モデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが多い構造であることを特徴とする請求項3に記載の学習装置。   The structure of the second model perceptron generated based on the relationship between the third text and the fourth text is generated based on the relationship between the first text and the second text. The learning device according to claim 3, wherein the learning device has a structure in which at least one of the number of intermediate layers and the number of neurons is larger than the structure of the perceptron of the model to be used. 前記第3のテキストと前記第4のテキストとの関係性に基づき生成される前記第2のモデルのパーセプトロンの構造は、前記第1のテキストと前記第2のテキストとの関係性に基づいて生成される前記モデルのパーセプトロンの構造よりも、中間層数及びニューロン数の少なくとも1つが少ない構造であることを特徴とする請求項3に記載の学習装置。   The structure of the second model perceptron generated based on the relationship between the third text and the fourth text is generated based on the relationship between the first text and the second text. The learning apparatus according to claim 3, wherein at least one of the number of intermediate layers and the number of neurons is smaller than the structure of the perceptron of the model to be used. 前記学習部は、前記第1のテキストと前記第2のテキストとの関係性と、前記第3のテキストと前記第4のテキストとの関係性と、に基づく学習により第2のモデルを生成する、
ことを特徴とする請求項1〜5のいずれか1項に記載の学習装置。
The learning unit generates a second model by learning based on a relationship between the first text and the second text and a relationship between the third text and the fourth text. ,
The learning apparatus according to claim 1, wherein the learning apparatus is a learning apparatus.
前記生成部は、前記モデルに複数の前記第3のテキストを入力することにより、複数の前記第4のテキストを生成し、
前記学習部は、複数の前記第4のテキストの中から所定の基準に従い選択された前記第4のテキストと選択された前記第4のテキストに対応する前記第3のテキストとの関係性に基づく学習により第2のモデルを生成する、
ことを特徴とする請求項1〜6のいずれか1項に記載の学習装置。
The generation unit generates a plurality of the fourth texts by inputting a plurality of the third texts into the model,
The learning unit is based on a relationship between the fourth text selected from a plurality of the fourth texts according to a predetermined criterion and the third text corresponding to the selected fourth texts. Generating a second model by learning;
The learning device according to claim 1, wherein the learning device is a learning device.
前記学習部は、
前記モデルの学習結果に基づき算出されるスコアであって前記第4のテキストの尤もらしさを示すスコアに基づいて、前記生成部で生成された複数の前記第4のテキストの中から学習に使用する前記第4のテキストを選択し、
選択された前記第4のテキストと選択された前記第4のテキストに対応する前記第3のテキストとに基づいて学習を行う、
ことを特徴とする請求項7に記載の学習装置。
The learning unit
Based on the score calculated based on the learning result of the model and indicating the likelihood of the fourth text, it is used for learning from among the plurality of fourth texts generated by the generation unit. Select the fourth text;
Learning based on the selected fourth text and the third text corresponding to the selected fourth text;
The learning device according to claim 7.
前記生成部は、前記第2のモデルに前記第3のテキストを入力することにより、前記第3のテキストに対応する第5のテキストを生成し、
前記学習部は、前記第3のテキストと前記第5のテキストとに基づいて、入力テキストから出力テキストを生成する第3のモデルの学習を行う、
ことを特徴とする請求項3〜6のいずれか1項に記載の学習装置。
The generation unit generates a fifth text corresponding to the third text by inputting the third text to the second model,
The learning unit learns a third model that generates output text from input text based on the third text and the fifth text.
The learning apparatus according to claim 3, wherein
前記学習部は、前記第1のテキストと前記第2のテキストとの関係性と、前記第3のテキストと前記第5のテキストとの関係性と、に基づく学習により第3のモデルを生成する、
ことを特徴とする請求項9に記載の学習装置。
The learning unit generates a third model by learning based on the relationship between the first text and the second text and the relationship between the third text and the fifth text. ,
The learning apparatus according to claim 9.
前記生成部は、前記第2のモデルに複数の前記第3のテキストを入力することにより、複数の前記第5のテキストを生成し、
前記学習部は、複数の前記第5のテキストの中から所定の基準に従い選択された前記第5のテキストと選択された前記第5のテキストに対応する前記第3のテキストとの関係性に基づく学習により前記第3のモデルを生成する、
ことを特徴とする請求項9又は10に記載の学習装置。
The generation unit generates a plurality of the fifth texts by inputting a plurality of the third texts into the second model,
The learning unit is based on a relationship between the fifth text selected from a plurality of the fifth texts according to a predetermined criterion and the third text corresponding to the selected fifth texts. Generating the third model by learning;
The learning device according to claim 9 or 10, characterized in that:
前記モデルは、入力テキストから入力テキストが有する特徴を示す特徴情報を生成するエンコーダと、前記特徴情報から出力テキストを生成するデコーダと、を含む、
ことを特徴とする請求項1〜11のいずれか1項に記載の学習装置。
The model includes an encoder that generates feature information indicating features of the input text from the input text, and a decoder that generates output text from the feature information.
The learning apparatus according to claim 1, wherein the learning apparatus is a learning apparatus.
前記生成部は、前記第1のテキストと前記第1のテキストに対応する見出しとに基づく学習により生成された前記モデルを用いて、前記第3のテキストから前記第3のテキストに対応する擬似見出しを生成し、
前記学習部は、前記第3のテキストと前記第3のテキストに対応する前記擬似見出しとの関係性に基づいて学習を行う、
ことを特徴とする請求項1〜12のいずれか1項に記載の学習装置。
The generation unit uses the model generated by learning based on the first text and a heading corresponding to the first text, to generate a pseudo heading corresponding to the third text from the third text. Produces
The learning unit learns based on a relationship between the third text and the pseudo headline corresponding to the third text;
The learning device according to claim 1, wherein the learning device is a learning device.
入力テキストを取得する取得部と、
第3のテキストと、第1のテキストと前記第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて前記第3のテキストから生成された第4のテキストと、の関係性に基づく学習により生成された所定のモデルを用いて、前記入力テキストから前記入力テキストに対応する出力テキストを生成する生成部と、
を備えることを特徴とする生成装置。
An acquisition unit for acquiring the input text;
A fourth text generated from the third text using a model generated by learning based on the relationship between the third text, the first text, and the second text corresponding to the first text. A generation unit that generates an output text corresponding to the input text from the input text using a predetermined model generated by learning based on the relationship between the text and the text;
A generating apparatus comprising:
前記生成部は、第3のテキストと、第1のテキストと前記第1のテキストに対応する見出しとの関係性に基づく学習により生成された前記モデルを用いて前記第3のテキストから生成された擬似見出しと、の関係性に基づく学習により生成された前記所定のモデルを用いて、前記入力テキストから前記入力テキストに対応する見出しを生成する、
ことを特徴とする請求項14に記載の生成装置。
The generation unit is generated from the third text using the model generated by learning based on the relationship between the third text and the relationship between the first text and the heading corresponding to the first text. Generating a heading corresponding to the input text from the input text using the predetermined model generated by learning based on the relationship between the pseudo heading and
The generating apparatus according to claim 14.
学習装置が実行する学習方法であって、
第1のテキストと前記第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて、第3のテキストから前記第3のテキストに対応する第4のテキストを生成する生成工程と、
前記第3のテキストと前記第4のテキストとの関係性に基づいて学習を行う学習工程と、 を含むことを特徴とする学習方法。
A learning method executed by a learning device,
The fourth text corresponding to the third text from the third text using the model generated by learning based on the relationship between the first text and the second text corresponding to the first text A generating step for generating
And a learning step of performing learning based on the relationship between the third text and the fourth text.
生成装置が実行する生成方法であって、
入力テキストを取得する取得工程と、
第3のテキストと、第1のテキストと前記第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて前記第3のテキストから生成された第4のテキストと、の関係性に基づく学習により生成された所定のモデルを用いて、前記入力テキストから前記入力テキストに対応する出力テキストを生成する生成工程と、
を含むことを特徴とする生成方法。
A generation method executed by a generation device,
An acquisition process for acquiring the input text;
A fourth text generated from the third text using a model generated by learning based on the relationship between the third text, the first text, and the second text corresponding to the first text. A generation step of generating an output text corresponding to the input text from the input text using a predetermined model generated by learning based on the relationship between the text and the text;
A generation method comprising:
第1のテキストと前記第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて、第3のテキストから前記第3のテキストに対応する第4のテキストを生成する生成手順と、
前記第3のテキストと前記第4のテキストとの関係性に基づいて学習を行う学習手順と、
をコンピュータに実行させるための学習プログラム。
The fourth text corresponding to the third text from the third text using the model generated by learning based on the relationship between the first text and the second text corresponding to the first text A generation procedure for generating
A learning procedure for performing learning based on the relationship between the third text and the fourth text;
A learning program to make a computer execute.
入力テキストを取得する取得手順と、
第3のテキストと、第1のテキストと前記第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成されたモデルを用いて前記第3のテキストから生成された第4のテキストと、の関係性に基づく学習により生成された所定のモデルを用いて、前記入力テキストから前記入力テキストに対応する出力テキストを生成する生成手順と、
をコンピュータに実行させるための生成プログラム。
An acquisition procedure for acquiring the input text;
A fourth text generated from the third text using a model generated by learning based on the relationship between the third text, the first text, and the second text corresponding to the first text. A generation procedure for generating an output text corresponding to the input text from the input text using a predetermined model generated by learning based on the relationship between the text and the text;
A generation program that causes a computer to execute.
第3のテキストと、第1のテキストと前記第1のテキストに対応する第2のテキストとの関係性に基づく学習により生成された所定のモデルを用いて前記第3のテキストから生成された第4のテキストと、に基づく学習により生成されるモデルであって、
テキストが入力される入力層と、
前記入力層に入力されたテキストに対応するテキストを出力する出力層と、
前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、
前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、を含み、
前記入力層に入力されたテキストに応じて、前記入力層に入力されたテキストに対応するテキストを出力層から出力するよう、
コンピュータを機能させるためのモデル。
The third text is generated from the third text using a predetermined model generated by learning based on the relationship between the third text, the first text, and the second text corresponding to the first text. A model generated by learning based on 4 texts,
An input layer where the text is entered,
An output layer for outputting text corresponding to the text input to the input layer;
A first element belonging to any layer from the input layer to the output layer other than the output layer;
A second element whose value is calculated based on the first element and a weight of the first element;
According to the text input to the input layer, the text corresponding to the text input to the input layer is output from the output layer.
A model for making a computer function.
JP2018016776A 2018-02-01 2018-02-01 Learning devices, learning methods, and learning programs Active JP6906456B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018016776A JP6906456B2 (en) 2018-02-01 2018-02-01 Learning devices, learning methods, and learning programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018016776A JP6906456B2 (en) 2018-02-01 2018-02-01 Learning devices, learning methods, and learning programs

Publications (2)

Publication Number Publication Date
JP2019133529A true JP2019133529A (en) 2019-08-08
JP6906456B2 JP6906456B2 (en) 2021-07-21

Family

ID=67547512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018016776A Active JP6906456B2 (en) 2018-02-01 2018-02-01 Learning devices, learning methods, and learning programs

Country Status (1)

Country Link
JP (1) JP6906456B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022122273A (en) * 2020-02-14 2022-08-22 株式会社ロボマインド artificial intelligence system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059205A (en) * 2015-09-17 2017-03-23 パナソニックIpマネジメント株式会社 Subject estimation system, subject estimation method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059205A (en) * 2015-09-17 2017-03-23 パナソニックIpマネジメント株式会社 Subject estimation system, subject estimation method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
國井慎也、外3名: "素性に重みを付けるSelf-training手法を用いた文書分類の領域適応", 言語処理学会第21回年次大会 発表論文集, JPN6021007639, March 2015 (2015-03-01), JP, pages 32 - 35, ISSN: 0004458584 *
石垣達也、外2名: ""長文質問"のための抽出型及び生成型要約", 情報処理学会研究報告 自然言語処理(NL), vol. Vol.2017-NL-232 No.3, JPN6021007640, 12 July 2017 (2017-07-12), JP, pages 1 - 8, ISSN: 0004458585 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022122273A (en) * 2020-02-14 2022-08-22 株式会社ロボマインド artificial intelligence system

Also Published As

Publication number Publication date
JP6906456B2 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
US20240078386A1 (en) Methods and systems for language-agnostic machine learning in natural language processing using feature extraction
JP6355800B1 (en) Learning device, generating device, learning method, generating method, learning program, and generating program
US20190243886A1 (en) Methods and systems for improving machine learning performance
CN102782681B (en) Mechanism for supporting user content feeds
US9015657B2 (en) Systems and methods for developing and delivering platform adaptive web and native application content
US20160292591A1 (en) Streamlined analytic model training and scoring system
JP2010519624A (en) REST for entities
JP6884722B2 (en) Information processing equipment, information processing methods, and programs
AU2022204687B2 (en) Methods, apparatuses, and systems for data mapping
US9300712B2 (en) Stream processing with context data affinity
JP7088646B2 (en) Generator, learning device, generation method, learning method, generation program, and learning program
JP6906456B2 (en) Learning devices, learning methods, and learning programs
JP6529559B2 (en) Learning apparatus, generating apparatus, learning method, generating method, learning program, generating program, and model
JP2018077671A (en) Information processing apparatus, information processing method, apparatus for generating prediction models, method for generating prediction models and program
JP6979899B2 (en) Generator, learning device, generation method, learning method, generation program, and learning program
US9075670B1 (en) Stream processing with context data affinity
JP2019021218A (en) Learning device, program parameter, learning method and model
JP6982444B2 (en) Learning device, generator, learning method, generation method, learning program, and generation program
JP2018045656A (en) Learning device, program parameter, and learning method
JP6310532B1 (en) Generating device, generating method, and generating program
JP2019053645A (en) Search system and search method
JP2020190798A (en) Generating device, generating method, generating program, and extractor
JP2016004550A (en) Generation device, generation method and generation program
JP7244449B2 (en) Information processing device, information processing method and information processing program
US20230105885A1 (en) System and Method for Learning User Preferences

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210629

R150 Certificate of patent or registration of utility model

Ref document number: 6906456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250