JP7152437B2 - Summary generation program, summary generation device and summary generation method - Google Patents
Summary generation program, summary generation device and summary generation method Download PDFInfo
- Publication number
- JP7152437B2 JP7152437B2 JP2020027354A JP2020027354A JP7152437B2 JP 7152437 B2 JP7152437 B2 JP 7152437B2 JP 2020027354 A JP2020027354 A JP 2020027354A JP 2020027354 A JP2020027354 A JP 2020027354A JP 7152437 B2 JP7152437 B2 JP 7152437B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- content
- user
- processed
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Description
本発明は、要約生成プログラム、要約生成装置および要約生成方法に関する。 The present invention relates to a summary generation program, a summary generation device, and a summary generation method.
近年、インターネットの飛躍的な普及に伴い、ネットワークを介して様々なコンテンツの提供が盛んに行われている。また、ユーザにより適したコンテンツを提供する技術が知られている。 2. Description of the Related Art In recent years, with the rapid spread of the Internet, various contents are being actively provided via networks. Techniques for providing content more suitable for users are also known.
例えば、特許文献1では、サーバから提供される任意のコンテンツの表示スタイルをユーザの嗜好に合わせてパーソナライズ化する技術が提案されている。 For example, Patent Literature 1 proposes a technique for personalizing the display style of arbitrary content provided from a server according to user preferences.
しかしながら、上記の従来技術では、必ずしもユーザの趣向が反映された要約文を生成することができるとは限らない。例えば、上記の従来技術では、端末から要求があったコンテンツをサーバから取得し、取得したコンテンツに対して嗜好データに対応する部分をパーソナライズ化し、パーソナライズ化されたコンテンツと取得したコンテンツを切り替えて端末に送信する。 However, with the conventional technology described above, it is not always possible to generate a summary that reflects the user's preferences. For example, in the above conventional technology, the content requested by the terminal is acquired from the server, the portion corresponding to the preference data is personalized for the acquired content, and the personalized content and the acquired content are switched to switch between the personalized content and the acquired content. Send to
このように、上記の従来技術は、ユーザの嗜好に合わせてコンテンツをパーソナライズ化するものに過ぎず、文字情報から要約文を生成するものではない。したがって、上記の従来技術では、必ずしもユーザの趣向が反映された要約文を生成することができるとは限らない。 As described above, the above-described conventional technology merely personalizes content according to the user's taste, and does not generate a summary sentence from character information. Therefore, with the conventional technology described above, it is not always possible to generate a summary that reflects the user's preferences.
本願は、上記に鑑みてなされたものであって、ユーザの趣向が反映された要約文を生成することを目的とする。 The present application has been made in view of the above, and an object thereof is to generate a summary that reflects the user's taste.
本願に係る要約生成プログラムは、ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得手順と、前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順とをコンピュータに実行させる。 A summary generating program according to the present application includes an acquisition procedure for acquiring user information indicating a user's interest and a content to be processed, A computer is caused to execute an extraction procedure for extracting a target sentence, which is a topical sentence, and a generation procedure for generating a summary sentence in which the contents of the content to be processed are summarized based on the target sentence.
実施形態の一態様によれば、ユーザの趣向が反映された要約文を生成することができる。 According to one aspect of the embodiment, it is possible to generate a summary that reflects the user's taste.
以下に、本願に係る要約生成プログラム、要約生成装置および要約生成方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る要約生成プログラム、要約生成装置および要約生成方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments (hereinafter referred to as "embodiments") for implementing the abstract generating program, abstract generating apparatus, and abstract generating method according to the present application will be described in detail below with reference to the drawings. Note that the abstract generating program, abstract generating apparatus, and abstract generating method according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
〔1.実施形態に係る要約生成処理の概要〕
現在、ロボットをはじめ様々な機器などにAI(実行知能)が搭載されるようになってきており、ユーザ個々により適応した対話やリコメンデーションおよび文章要約を実現することが期待されている。
[1. Overview of summary generation processing according to the embodiment]
At present, AI (executive intelligence) is being installed in various devices such as robots, and it is expected to realize dialogs, recommendations, and sentence summaries that are adapted to individual users.
また、例えば、所定期間分のコンテンツ(例えば、記事コンテンツやメール)を個人の趣向に合わせて要約することが出来れば、ユーザは自身が興味のあるコンテンツだけを容易に見つけだすことができるようになり便利である。 Also, for example, if it is possible to summarize contents (for example, article contents and emails) for a predetermined period according to individual tastes, the user can easily find out only the contents that interest him/herself. Convenient.
また、例えば、配信候補のコンテンツ(例えば、記事コンテンツ)を配信先のユーザ個々の趣向に合わせて要約することができれば、例えば、コンテンツが表示される配信面をよりパーソナライズ化することがでこるため、ユーザに対する興味を効果的に高めることができる配信面を実現することができるようになると考えられる。 In addition, for example, if it is possible to summarize distribution candidate content (for example, article content) according to the tastes of individual users to whom it is distributed, for example, it is possible to further personalize the distribution surface on which the content is displayed. , it will be possible to realize a delivery aspect that can effectively increase the interest of users.
したがって、実施形態に係る要約生成処理は、上記のような前提を踏まえて、文章群のうち、ユーザによる興味の対象が話題となっている文章を特定することで、特定した文章を用いて、このユーザの趣向が反映された要約文を生成するものである。 Therefore, based on the above premise, the summary generation process according to the embodiment identifies, from among the sentences, sentences in which the subject of interest of the user is a topic, and using the specified sentences, A summary sentence reflecting this user's preference is generated.
具体的には、実施形態に係る要約生成処理は、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得し、取得した処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。そして、抽出した対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。 Specifically, the summary generating process according to the embodiment acquires user information indicating the user's interest and content to be processed, and extracts sentences included in the acquired content to be processed from the interest indicated by the user information. extracts a target sentence, which is a topical sentence. Then, based on the extracted target sentence, a summary sentence that summarizes the contents of the content to be processed is generated.
また、図1および図2で詳細に説明するが、実施形態に係る要約生成処理では、次のようにして対象文を抽出する。実施形態に係る要約生成処理では、ユーザの興味の対象として、処理対象のコンテンツに含まれる固有名詞が指し示す対象であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。より詳細には、実施形態に係る要約生成処理では、表現の異なる複数の固有名詞のうち同義の固有名詞を1つの正式な固有名詞に統一(例えば、名寄せ)し、この正式な固有名詞が示す対象(例えば、チームや人物など)であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。 Also, as will be described in detail with reference to FIGS. 1 and 2, in the summary generation process according to the embodiment, target sentences are extracted as follows. In the summary generation process according to the embodiment, as a target of interest of the user, a target indicated by a proper noun included in the content to be processed and a target in which the user is interested is extracted as a target sentence. do. More specifically, in the summary generation process according to the embodiment, among a plurality of proper nouns with different expressions, synonymous proper nouns are unified into one formal proper noun (for example, name identification), and this formal proper noun indicates A target (for example, a team, a person, etc.) and a target that the user is interested in is extracted as a target sentence.
また、実施形態に係る要約生成処理では、処理対象のコンテンツに含まれる文章のうち、主語が含まれない文章について主語を推定する。そして、主語を推定した文章のうち、その主語が、上記同義の固有名詞(1つの正式な固有名詞)が指し示す対象となっている文章を対象文として抽出する。 In addition, in the summary generation process according to the embodiment, the subject is estimated for sentences that do not contain a subject among the sentences included in the content to be processed. Then, among the sentences whose subjects have been estimated, sentences whose subject is the object indicated by the synonymous proper noun (one formal proper noun) are extracted as target sentences.
〔2.要約生成プログラムおよび要約生成装置について〕
実施形態に係る要約生成プログラムは、上述した実施形態に係る要約生成処理をコンピュータに実行させるためのプログラムである。具体的には、実施形態に係る要約生成プログラムは、ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得手順と、処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順とをコンピュータに実行させるためのプログラムである。
[2. Summary generating program and summary generating device]
The abstract generating program according to the embodiment is a program for causing a computer to execute the abstract generating process according to the embodiment described above. Specifically, the summary generation program according to the embodiment includes an acquisition procedure for acquiring user information indicating the user's interest and content to be processed; A computer is caused to execute an extraction procedure for extracting a target sentence, which is a sentence in which an object of interest is a topic, and a generation procedure for generating a summary sentence in which the contents of the content to be processed are summarized based on the target sentence. It is a program for
また、本実施形態では、このようなコンピュータの一例として、要約生成装置100を例に挙げる。すなわち要約生成装置100は、実施形態に係る要約生成プログラムの制御に従って、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得し、取得した処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。そして、要約生成装置100は、抽出した対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。
Also, in the present embodiment, the
また、本実施形態では、要約生成装置100は、サーバ装置やクラウドシステム等により実現されるものとする。一方で、要約生成プログラムが実行されるコンピュータは、例えば、エンドユーザによって利用される情報処理端末であってもよく、このような情報処理端末としては、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等が挙げられる。
Also, in the present embodiment, the
〔3.要約生成処理の全体像〕
ここからは、図1を用いて、実施形態に係る要約生成装置100によって行われる要約生成処理の全体像について説明する。図1は、実施形態に係る要約生成処理の全体像を示す図である。また、本実施形態では、処理対象のコンテンツを「スポーツ記事による記事コンテンツ」とする。そして、本実施形態では、ユーザを特定のスポーツ(例えば、野球)におけるチームのファン(あるいは、特定のスポーツ選手のファン)であるものとして、このユーザの興味や趣向が反映された要約を生成する場面を一例に挙げる。
[3. Overview of summary generation processing]
From now on, an overview of the summary generation process performed by the
一方で、実施形態に係る要約生成処理は、スポーツ記事に限定されず、例えば、ニュース記事、ブログなど如何なる記事にも適用可能である。また、実施形態に係る要約生成処理は、記事に限定されず、例えば、メールコンテンツ(メール本文の要約)や書籍(書籍本文の要約)にも適用可能である。 On the other hand, the summary generation process according to the embodiment is not limited to sports articles, and can be applied to any articles such as news articles and blogs. Further, the summary generating process according to the embodiment is not limited to articles, and can be applied to e-mail contents (summaries of e-mail texts) and books (summaries of book texts), for example.
まず、要約生成装置100は、ユーザの興味を示すユーザ情報を取得する。例えば、要約生成装置100は、どのようなこと(人、もの、イベント、仕事など)に興味があるか、自身にとってどのようなことが重要であるか、どのようなものが好きであるか、といった、興味に関する情報を示すユーザ情報の登録を受け付けることにより、ユーザの興味を示すユーザ情報を取得する。図1の例では、要約生成装置100は、ユーザU1からユーザ情報の登録を受け付けたことにより、ユーザU1からユーザU1の興味を示すユーザ情報を取得している。
First, the
具体的には、図1の例では、要約生成装置100は、「チームTa」のファン(「チームTa」に興味がある、あるいは、「チームTa」が好き)といったユーザ情報をユーザU1から取得している。また、図1の例では、要約生成装置100は、「PY1選手」のファン(「PY1選手」に興味がある、あるいは、「PY1選手」が好き)といったユーザ情報をユーザU1から取得している。
Specifically, in the example of FIG. 1, the
なお、要約生成装置100は、ユーザ登録によりユーザ情報を取得するのではなく、ユーザの行動を示す行動情報(例えば、ユーザの位置情報、ユーザの購買履歴、ユーザの閲覧履歴)などから、ユーザの興味を推定し、推定した情報をユーザの興味を示すユーザ情報として取得してもよい。また、このような推定ができるよう、要約生成装置100は、ユーザの行動情報(行動履歴)が記憶される記憶部(不図示)を有してもよいし、所定の外部サーバから行動情報を取得してもよい。
Note that the
次に、要約生成装置100は、処理対象のコンテンツを取得する。例えば、要約生成装置100は、処理対象のコンテンツとして、所定期間(例えば、過去1ヶ月分)の記事コンテンツ群を取得する。例えば、「チームTa」が野球チームであり、「PY1選手」が野球選手であるとすると、要約生成装置100は、野球に関する記事が掲載されたスポーツ記事コンテンツのコンテンツ群を取得する。また、要約生成装置100は、所定期間の新聞記事を取得してもよいし、インターネット配信された所定期間分のウェブコンテンツを取得してもよい。図1の例では、要約生成装置100は、このような処理対象のコンテンツを、外部サーバSVから取得している。
Next, the
なお、要約生成装置100が、どこから処理対象のコンテンツを取得するかは任意であってよい。例えば、ユーザが所定期間分のメール本文(処理対象のコンテンツの一例)の要約を希望する場合、要約生成装置100は、この所定期間分のメール本文を示す文章情報を登録をユーザから受け付けてもよい。また、ユーザが所定期間分のメール本文(処理対象のコンテンツの一例)の要約を希望する場合、要約生成装置100は、この所定期間分のメール本文を示す文章情報を所定のメールサーバから取得してもよい。
Note that it may be arbitrary where the
このようにして、要約生成装置100は、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得すると、実施形態に係る要約生成処理を開始する。まず、要約生成装置100は、ユーザU1のユーザ情報に基づいて、取得した記事コンテンツ群の中から、ユーザU1の興味に関する記事コンテンツを取得することにより、処理対象のコンテンツの絞り込みを行う(ステップS1)。例えば、要約生成装置100は、記事コンテンツ群の中から、ユーザU1の興味の対象に関する記事コンテンツを取得する。図1の例によると、ユーザU1の興味の対象は、「チームTa」および「PY1選手」である。また、「チームTa」および「PY1選手」は、ともに固有名詞である。
In this way, the
したがって、要約生成装置100は、記事コンテンツ群の中から、「チームTa」および「PY1選手」に関する記事コンテンツを取得する。例えば、要約生成装置100は、記事コンテンツ群の中から、ヘッドライン(見出し)あるいは本文に、「チームTa」および「PY1選手」を含む記事コンテンツを取得する。図1では簡単な例として、要約生成装置100は、1つの記事コンテンツである記事コンテンツC1を取得したものとする。よってこの時点で、処理対象のコンテンツは、記事コンテンツC1に絞り込まれることになる。なお、興味の対象が固有名詞ではなく例えば一般用語であると判定される場合、要約生成装置100は、判定した一般用語に最も近しい固有名詞を推定してもよいし、固有名詞を登録するようユーザに警告してもよい。
Therefore, the
また、後に示すが、記事コンテンツC1には、本文を形成する複数の文章が含まれているが、要約するうえで不必要な情報も含まれる(例えば、写真など)。このため、次に、要約生成装置100は、記事コンテンツC1に対してクレンジング処理(データクレンジング)を行うことにより、記事コンテンツC1から不必要な情報を除去する(ステップS2)。要約生成装置100は、このようなクレンジング処理として、任意の従来技術を採用することができる。
Also, as will be described later, the article content C1 includes a plurality of sentences forming the text, but also includes information unnecessary for summarizing (for example, photographs). Therefore, next, the
次に、要約生成装置100は、記事コンテンツC1に含まれる文章に対して、固有名詞のマージを行う(ステップS3)。ここで、人物「PY1」を例に挙げると、記事コンテンツC1中では、「PY1」という人物が様々な表現で表記される場合がある。例えば、記事コンテンツC1中のある文章の主語では「チームTaのPY1選手」と表記される一方で、記事コンテンツC1中の別の文章の主語では「PY1選手」と表記される場合がある。また、「PY1選手」は、ファンからは特定のあだ名で呼ばれている場合、記事コンテンツC1中のある文章の主語では、このあだ名が用いられる場合がある。
Next, the
このように、「PY1」という人物は、複数の異なる表現で表記される場合があるが、全て一人の人物に名寄せすることができる。例えば、「チームTaのPY1選手」、および、「PY1選手」は、一人の人物「PY1」に名寄せすることができる。すなわち、「チームTaのPY1選手」、および、「PY1選手」は、ともに一人の人物「PY1」を指すという点で表現は異なるが同義である。 In this way, the person "PY1" may be described by a plurality of different expressions, but all of them can be grouped into one person. For example, "PY1 player of team Ta" and "PY1 player" can be merged into one person "PY1". In other words, "PY1 player of team Ta" and "PY1 player" are synonymous, although the expressions are different in that they both refer to one person "PY1".
このようなことから、要約生成装置100は、ユーザU1の興味の対象を示す固有名詞が、異なる複数の固有名詞で表記される場合があるような固有名詞であるか否かを判定する。そして、要約生成装置100は、異なる複数の固有名詞で表記される場合があると判定した場合、記事コンテンツC1に含まれる文章のうち、これら複数の固有名詞それぞれを主語とする文章を特定する。そして、要約生成装置100は、特定した文章の主語に対して、異なる複数の固有名詞に対する最も正式な固有名詞(例えば、本名)をマージする。図1の例では、要約生成装置100は、「チームTaのPY1選手」を主語とする文章において、この主語に対して「PY1」をマージする。また、図1の例では、要約生成装置100は、「PY1選手」を主語とする文章において、この主語に対して「PY1」をマージする。
For this reason, the
なお、ユーザの興味の対象を示す固有名詞は他にどのような表現で表記されることがあるか、また、ユーザの興味の対象を示す固有名詞を含め表現の異なる複数の固有名詞であって、同義の固有名詞は、どのような固有名詞に統一することができるかという情報は、専用の固有名詞辞書に示される。このため、要約生成装置100は、この固有名詞辞書と、ユーザの興味の対象を示す固有名詞とを比較することで、正式な固有名詞のマージを行うことができる。また、要約生成装置100は、このような固有名詞のマージを行うことで、本来であれば、ユーザの興味の対象が話題となっている文章であるにも拘らず、この文章が要約対象から除外されてしまうことを防止することができる。この結果、要約生成装置100は、ユーザの趣向が効果的に反映された要約文を生成することができる。
In addition, what other expressions may be used for proper nouns that indicate the object of interest of the user? Information about what kind of proper nouns can be unified from synonymous proper nouns is shown in a dedicated proper noun dictionary. Therefore, the
次に、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章に対して、主語を推定する(ステップS4)。日本語の文章では、文脈から明らかに主語を見分けることが可能な場合、あえて主語を省略した文章が用いられることがある。この場合、省略されている主語は「暗黙の主語」などと呼ばれる。ステップS4では、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章に対して、この暗黙の主語を推定する。
Next, the
例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章が存在するか否かを判定し、主語が含まれない文章を判定できた場合には、この文章について暗黙の主語を推定する。例えば、要約生成装置100は、主語が含まれない文章を判定できた場合には、この文章よりも前の文章の主語(固有名詞マージ後の主語)に基づいて、暗黙の主語を推定する。そして、このような暗黙の主語の推定により、ユーザの興味の対象が話題となっている文章であるにも拘らず、この文章が要約対象から除外されてしまうことを防止することができる。
For example, the
次に、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ユーザU1の興味の対象が話題となっている文章である対象文を抽出する(ステップS5)。例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ユーザU1の興味の対象を主語とする文章を対象文として抽出する。例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ステップS3で固有名詞のマージを行った文章を対象文として抽出する。また、例えば、要約生成装置100は、ステップS4で暗黙の主語が推定された文章のうち、ステップS3でマージされた固有名詞が暗黙の主語として推定された文章を対象文として抽出する。
Next, the
次に、要約生成装置100は、任意のアルゴリズムに従って、対象文に対して構文解析を行うことで、対象文の木構造を得る(ステップS6)。係る木構造は、構文解析による解析結果である。また、係る木構造は、対象文を構成する文節をノードとする木構造である。木構造の一例については図3で説明する。
Next, the
また、要約生成装置100は、木構造に含まれる文節(ノード)に基づいて、記事コンテンツC1の内容が要約された要約文を生成する(ステップS7)。例えば、要約生成装置100は、木構造に沿って、文節から分岐する分岐数が所定数以下となるように、文節をつなぐことで、記事コンテンツC1の内容が要約された要約文を生成する。
The
ここで、話題や記事が、個人にとってポジティブな印象を与えるか(すなわち、肯定的な感情に変化させるか)、ネガティブな印象を与えるか(すなわち、否定的な感情に変化させるか)は、各個人の興味や嗜好性(好み)に大きく依存する。例えば、あるチームが勝利した記事は、そのチームのファンに対してはポジティブ感情にさせる記事であるが、相手チームのファンに対してはネガティブ感情にさせる記事となる。 Here, whether a topic or article gives a positive impression (that is, changes to positive emotions) or a negative impression (that is, changes to negative emotions) to an individual depends on each individual. Much depends on individual interests and tastes (preferences). For example, an article about a team winning is an article that makes the fans of that team feel positive, but it makes the fans of the opposing team feel negative.
より詳細な一例を挙げる。例えば、「チームTa」が勝利した記事は、「チームTa」のファンに対してポジティブ感情にさせ、また、「チームTa」が敗北した記事は、アンチ「チームTa」に対してポジティブ感情にさせる。一方、「チームTa」が敗北した記事は、「チームTa」のファンに対してネガティブ感情にさせ、また、「チームTa」が勝利した記事は、アンチ「チームTa」に対してネガティブ感情にさせる。 A more detailed example is given. For example, an article about "Team Ta" winning causes positive feelings toward fans of "Team Ta", and an article about "Team Ta" losing causes positive feelings toward anti-"Team Ta". . On the other hand, an article about "team Ta" being defeated makes fans of "team Ta" feel negative feelings, and an article about "team Ta" winning makes people feel negative feelings about anti-"team Ta". .
このようなことから、ユーザに提供される情報が、そのユーザに対してポジティブな感情を与えるか、あるいは、ネガティブな感情を与えるかを効果的に判定することができれば、将来的に次のようなことが可能となると考えられる。例えば、ユーザに提供される情報を、ポジティブ感情になる情報、ネガティブ感情になる情報とに分類することができるようになり、これによりユーザは、ポジティブ感情になる情報、すなわち自身にとってより重要度の高い情報のみを容易に見分けることができるようになる。また、個人適応型対話型パーソナルエージェントシステムにおいて、より個人に適応した対話を実現することが可能となる。 For this reason, if it is possible to effectively determine whether the information provided to the user gives the user a positive or negative feeling, the following will be possible in the future. is considered possible. For example, the information provided to the user can be classified into information that causes positive emotions and information that causes negative emotions. It becomes possible to easily distinguish only high-level information. In addition, in an individual-adaptive interactive personal agent system, it becomes possible to realize a dialogue that is more individualized.
このような前提のもと、要約生成装置100は、ユーザU1の興味の対象に対するユーザU1の嗜好性に基づいて、感情の種別(ポジティブ感情、ネガティブ感情)ごとに、ステップS7で生成した要約文の内容に対する感情の度合いを示す感情値を推定する(ステップS8)。例えば、要約生成装置100は、ユーザU1の嗜好性に基づいて、ステップS7で生成した要約文の内容に対する、ポジティブ感情を示す感情値、および、ネガティブ感情を示す感情値をそれぞれ推定する。以下、ポジティブ感情を示す感情値、および、ネガティブ感情を示す感情値を「PN値」と略表記する場合がある。
Based on this premise, the
また、要約生成装置100は、どのような表現の文章がユーザに対してどれほどポジティブにさせるか、どれほどネガティブにさせるかといった、文章とPN値との関係性が学習されたモデルを用いて、今回の要約文の内容に対するPN値を推定するが、この詳細については後述する。
In addition, the
そして、要約生成装置100は、ユーザU1に対して、PN値付きの要約文を出力する(ステップS9)。例えば、要約生成装置100は、PN値付きの要約文がユーザU1の端末装置に表示されるよう、PN値付きの要約文を係る端末装置に送信する。
Then, the
さて、これまで図1を用いて説明してきたように、要約生成装置100は、実施形態に係る要約生成プログラムに従って、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得し、取得した処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。そして、要約生成装置100は、抽出した対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。
Now, as has been described with reference to FIG. 1, the
これにより、実施形態に係る要約生成プログラムは、ユーザの趣向が反映された要約文を生成することができる。この結果、実施形態に係る要約生成プログラムは、ユーザに対する興味を効果的に高めることができる要約文を生成することができるようになる。 As a result, the summary generation program according to the embodiment can generate a summary that reflects the user's preferences. As a result, the summary generation program according to the embodiment can generate summary sentences that can effectively increase the user's interest.
〔4.要約生成処理の一例〕
ここからは、図2を用いて、実施形態に係る要約生成装置100によって行われる要約生成処理の一例について説明する。具体的には、図2では、記事コンテンツC1に含まれる文章の具体例を用いて、図1で示した流れに応じた要約生成処理の一例を示す。なお、図1と重複する説明については、簡略化または省略する。また、図2に示すステップ番号(S1など)は、図1に示すステップ番号に対応する。
[4. Example of summary generation processing]
From here, an example of a summary generation process performed by the
まず、図2(a)には、記事コンテンツC1に含まれる文章であって、処理が加えられてない文章である原文が示されている。図2(a)に示すように、記事コンテンツC1は、原文の状態では、文章CSN11、文章CSN12、文章CSN13、文章CSN14および文章CSN15を含む。 First, FIG. 2(a) shows the original text, which is the text included in the article content C1 and has not been processed. As shown in FIG. 2(a), article content C1 includes text CSN11, text CSN12, text CSN13, text CSN14 and text CSN15 in the original state.
このような状態において、要約生成装置100は、原文に対してクレンジング処理を行う(ステップS2)。クレンジング処理により文章CSN15が除外され、この結果、クレンジング後の記事コンテンツC1は、図2(b)のようになる。
In such a state, the
次に、要約生成装置100は、図2(b)の状態において、固有名詞のマージを行う(ステップS3)。ここで、ユーザU1の興味の対象は、例えば、「PY1」という人物であるが、文章CSN11では、主語に「チームTaのPY1選手」が用いられ、また、文章CSN13では、主語に「PY1選手」が用いられている。そして、「チームTaのPY1選手」、および、「PY1選手」は、ともに一人の人物「PY1」を指すという点で表現は異なるが同義である。このようなことから、「チームTaのPY1選手」、および、「PY1選手」は、ユーザU1の興味の対象である人物「PY1」に統一させることができる。
Next, the
したがって、要約生成装置100は、「チームTaのPY1選手」、および、「PY1選手」それぞれに対して、固有名詞「PY1」をマージする。この結果、マージ後の記事コンテンツC1は、図2(c)のようになる。
Therefore, the
次に、要約生成装置100は、図2(c)の状態において、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章が存在するか否かを判定し、主語が含まれない文章を判定できた場合には、この文章について暗黙の主語を推定する。図2(c)の状態では、要約生成装置100は、主語が含まれない文章として、文章CSN12を判定し、文章CSN12について暗黙の主語を推定する。係る例では、要約生成装置100は、文章CSN12よりも前の文章の主語(固有名詞マージ後の主語)に基づいて、暗黙の主語「PY1」を推定する。また、要約生成装置100は、推定した暗黙の主語を文章CSN12に挿入する。この結果、暗黙の主語推定後の記事コンテンツC1は、図2(d)のようになる。このように、文章CSN12の主語(暗黙の主語)は、ユーザU1の興味の対象を示す固有名詞であり、ステップS4でマージされた固有名詞に対応する。
Next, in the state of FIG. 2(c), the
また、要約生成装置100は、図2(d)の状態において、記事コンテンツC1に含まれる文章のうち、ユーザU1の興味の対象を主語とする文章を対象文として抽出する(ステップS5)。例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ステップS3で固有名詞のマージを行った文章を対象文として抽出する。また、例えば、要約生成装置100は、ステップS4で暗黙の主語が推定された文章のうち、ステップS3でマージされた固有名詞が暗黙の主語として推定された文章を対象文として抽出する。
In addition, in the state of FIG. 2D, the
要約生成装置100は、文章CSN11、文章CSM12、文章CSN13の全てを抽出してもよいし、いずれかを抽出してもよい。例えば、暗黙の主語が推定された文章を抽出するよう予めルール設定されているとすると、要約生成装置100は、図2(e)に示されるように、文章CSN11、文章CSM12、文章CSN13のうち、文章CSM12を対象文として抽出する。
The
次に、要約生成装置100は、任意のアルゴリズムに従って、対象文である文章CSN12に対して構文解析を行うことで、文章CSN12の木構造を得る(ステップS6)。文章CSN12に対応する木構造の一例、および、この木構造を用いた要約生成処理の一例については図3で説明する。
Next, the
図3は、木構造を用いた要約生成処理の一例を示す図である。図3の例によると、要約生成装置100は、対象文である文章CSN12に対する構文解析により、ch00~ch14といった15の文節(チャンク)をノードする木構造を得る。図3の例では、文節ch00は「同点の」に対応し、文節ch01は「6回には」に対応し、文節ch02は「勝ち越しの」に対応し、文節ch03は「左翼線適時二塁打を」に対応し、文節ch04は「放ったが」に対応し、文節ch14は「交代した」に対応する。その他の文節についても図3に示す通りであるため説明を省略する。
FIG. 3 is a diagram showing an example of summary generation processing using a tree structure. According to the example of FIG. 3, the
また、本実施形態では、文節から分岐する分岐数に応じて、木構造に対応する文章を分類することができる。例えば、分岐のないシンプルな文章を1型、分岐数が2つの文章を2型、分岐数が3つの文章を3型、分岐数が3より多く複雑な分岐を有する文章をnxm型と定義することができる。このようなルールに従うと、図3に示す木構造に対応する文章(文章CSN12)について、2-3-3-3型と定義することができる。具体的には、図3に示す木構造は、文節ch04で「2」つに分岐し、文節ch08で「3」つに分岐し、文節ch12で「3」つに分岐し、文節ch14で「3」つに分岐している。このため、木構造に対応する文章(文章CSN12)について、2-3-3-3型と定義することができる。 In addition, in this embodiment, sentences corresponding to a tree structure can be classified according to the number of branches branching from clauses. For example, a simple sentence without branches is defined as type 1, a sentence with two branches is type 2, a sentence with three branches is type 3, and a sentence with more than three branches and a complex branch is defined as nxm type. be able to. According to such rules, the text corresponding to the tree structure shown in FIG. 3 (text CSN12) can be defined as 2-3-3-3 type. Specifically, the tree structure shown in FIG. 3 branches into "2" at clause ch04, "3" at clause ch08, "3" at clause ch12, and " 3" branched. Therefore, the text corresponding to the tree structure (text CSN12) can be defined as 2-3-3-3 type.
このような状態において、要約生成装置100は、ユーザU1の興味の対象や、この興味の対象に対するユーザU1の嗜好性に応じた単語を含む文節を選定する。そして、要約生成装置100は、木構造に沿って、文節から分岐する分岐数が所定数以下となるように、選定した文節をつなぐことで、記事コンテンツC1の内容が要約された要約文を生成する。
In such a state, the
文節の選定手法について説明する。例えば、要約生成装置100は、木構造に含まれる文節のうち、ユーザU1の興味の対象に対するユーザU1の嗜好性に応じてユーザU1の感情の変動に影響すると推測される単語を含む文節を選定する。これまでの例によると、ユーザU1の興味の対象は「チームTa」および「PY1」である。また、ユーザU1はこれらのファンであるため、「チームTa」および「PY1」を好んでいる(重要視している、興味がある)。このようなことから、「チームTa」の勝敗、「チームTa」や「PY1」に関する各種成績(ヒット数、本塁打数、決勝リーグへの進出可否など)は、ユーザU1の感情をポジティブ感情、あるいは、ネガティブ感情に変えさせる大きな要因となり得る。したがって、要約生成装置100は、「チームTa」の勝敗、「チームTa」や「PY1」に関する各種成績を示す単語を含む文節を選定する。
A method for selecting clauses will be explained. For example, the
なお、「チームTa」が野球チームであり、「PY1選手」が野球選手であるとすると、ユーザU1は野球自体を好むともいえる。そして、野球を好むユーザ全般にとっては、試合結果や選手成績を示す数情報などは、重要な情報であり、これによりポジティブ感情になることもあれば、ネガティブ感情になることもある。したがって、このような観点から、要約生成装置100は、試合結果や各種成績を示す単語を含む文節を選定してもよい。
Note that if "team Ta" is a baseball team and "PY1 player" is a baseball player, it can be said that user U1 likes baseball itself. For users who like baseball in general, numerical information indicating match results and player performance is important information, and this may cause positive emotions or negative emotions. Therefore, from this point of view, the
また、要約生成装置100は、カテゴリ(例えば、スポーツカテゴリなど)ごとに、当該カテゴリで重要視される情報(スポーツカテゴリであれば結果や成績など)が定義されたルール一覧を有しておき、この一覧を参照してルールベースで文節を選定してもよい。
In addition, the
また、要約生成装置100は、木構造に含まれる文節のうち、興味の対象に対するユーザU1の嗜好性に応じてユーザの感情の度合いを示す感情値を変動させると推測される単語を含む文節を選定してもよい。ここでいう感情値とは、ポジティブ感情を示す感情値、および、ネガティブ感情を示す感情値、すなわち「PN値」である。例えば、分岐のないシンプルな文章すなわち1型の文章となるように文節を組み合わせてできる各要約文を、PN値を出力するモデル(文章とPN値との関係性が学習されたモデル)に入力する。そして、要約生成装置100は、出力されたPN値が所定値より大きくなる要約文を構成する文節を選定する。例えば、要約生成装置100は、ポジティブ感情を示す感情値、または、ネガティブ感情を示す感情値の少なくともいずれか一方が所定値より大きくなる要約文を構成する文節を選定する。
In addition, the
また、要約生成装置100は、ユーザU1の感情の変動に影響すると推測される単語、あるいは、ユーザU1の感情の度合いを示す感情値を変動させると推測される単語のうち、現在時期に関連する単語を含む文節を優先的に選定してもよい。例えば、野球であればリーグ優勝が決まりだす時期(月)には、野球に関するこの時期特有のワード(例えば、優勝争いするチーム名や、本塁打争いする選手名、首位打者候補の選手名など)が検索ランキングの上位に出現することがある。したがって、要約生成装置100は、このような時期の習性(季節性)を有する単語を含む文節を優先的に抽出してもよい。なお、要約生成装置100は、カテゴリ(例えば、野球カテゴリ)ごとに、当該カテゴリではどの時期にどのワードが頻出するかが学習された辞書を有しておき、係る辞書を参照することで、時期の習性(季節性)を有する単語を特定してもよい。
In addition, the
また、要約生成装置100は、ユーザU1の興味の対象に関連する単語(固有名詞)であって、ユーザU1の嗜好性とより関連性の高いの高い単語を含む文節を選定してもよい。これまでの例によると、ユーザU1の興味の対象は「チームTa」および「PY1」である。また、ユーザU1はこれらのファンであるため、「チームTa」および「PY1」を好んでいる。
In addition, the
ここで、「チームTa」を例に挙げると、要約生成装置100は、「チームTa」を好むユーザ(「チームTa」のファン)に対して、ポジティブな印象を与える単語、および、ネガティブな印象を与える単語が単語間距離に基づき分布されたポジネガマップを用いて、「チームTa」に対しての関連性が高いと推定される単語を特定する。具体的には、要約生成装置100は、ポジネガマップを参照し、「チームTa」との単語間距離が所定値以下の単語を特定することで、特定した単語を含む文節を選定する。なお、単語間距離に基づくポジネガマップの生成については図5で説明する。
Here, taking “team Ta” as an example, the
ここまで文節の選定手法について説明してきた。要約生成装置100は、上記のように木構造から文節を選定すると、文節から分岐する分岐数が所定数以下となるように、この木構造に沿って、選定した文節をつなぐことで記事コンテンツC1の内容が要約された要約文を生成する。例えば、要約生成装置100は、文節から分岐する分岐数が「2」以下となるように、選定した文節をつなぐことで記事コンテンツC1の内容が要約された要約文を生成する。分岐数が「2」以下となる文章とは、分岐のないシンプルな1型の文章、あるいは、分岐数が2つである2型の文章である。ここでは、要約生成装置100は、選定した文節をつなぐことで1型の文章を生成し、生成した1型の文章を組み合わせて要約文とするものとする。
So far, we have explained the method of selecting phrases. After selecting clauses from the tree structure as described above, the
ここで、例えば、「勝ち越し」や「二塁打」という単語は、「チームTa」を興味の対象とするユーザU1に対して感情の変化を与える大きな要因となり得る単語である。また、「PY1」が「途中交代」したことを示す単語、すなわち「途中」および「交代」は、「PY1」を興味の対象とするユーザに対して感情の変化を与える大きな要因となり得る単語である。このようなことから、図3の例では、要約生成装置100は、「勝ち越し」を含む文節ch02、「二塁打」を含む文節ch03を選定したものとする。また、図3の例では、要約生成装置100は、「途中」を含む文節ch13、「交代」を含む文節ch14を選定したものとする。
Here, for example, words such as "going ahead" and "double" are words that can be a major factor in changing the emotions of user U1 who is interested in "team Ta". In addition, the words indicating that "PY1" has "changed in the middle", that is, "midway" and "change" are words that can be a major factor in changing the emotions of the user who is interested in "PY1". be. For this reason, in the example of FIG. 3, the
係る例では、要約生成装置100は、文節ch02および文節ch03を選定したことにより、1型の文章となるようにさらに文節ch04を選定する。そして、要約生成装置100は、木構造に沿って、文節ch02、文節ch03、文節ch04、文節ch13、文節ch14をつなげることにより、1型の文章CSN121を生成する。具体的には、要約生成装置100は、対象文である文章CSN12から「勝ち越しの左翼線適時二塁打を放ったが、途中交代した。」という1型の文章CSN121を生成する。
In this example, the
また、図3の例では、要約生成装置100は、同様の手法により、対象文である文章CSN11からは「チームTaのPY1選手が30号2ラン。」という1型の文章CSN111を生成している。また、要約生成装置100は、対象文である文章CSN13からは「PY1は「様子を見ながらです」と判断。」という1型の文章CSN131を生成している。
In addition, in the example of FIG. 3, the
また、これまでの例によると、文章CSN14は対象文として抽出されていない。しかし、文章CSN14には、ユーザU1に対して感情の変化を与え得る試合結果に関する情報が含まれている。このようなことから、要約生成装置100は、文章CSN14からも1型の文章CSN141を生成している。このように、要約生成装置100は、対象文でなくともその内容によっては要約文を構成させる文章として採用してもよい。
Also, according to the examples so far, the sentence CSN14 is not extracted as a target sentence. However, the sentence CSN14 contains information about the game result that may change the user U1's emotions. For this reason, the
そして、要約生成装置100は、各1型の文章CSN111、CSN121、CSN131およびCSN141を組み合わせて、最終的に、図3に示すような要約文SM1を生成する。図3に示すように、要約文SM1は、ユーザU1の興味の対象に基づく趣向が反映された文章となっている。例えば、従来の要約技術であれば、主語を有しない文章CSN13に基づく、1型の文章CSN131を含まないような要約文が生成されてしまったり、1型の文章への変換処理がないことで要約が不十分な要約文が生成されてしまう可能性がある。しかし、実施形態に係る要約生成プログラムによれば、ユーザの趣向が反映され、かつ、まとまりのある要約文を生成させることができる。
Then, the
〔5.要約生成装置の構成〕
次に、図4を用いて、実施形態に係る要約生成装置100について説明する。図4は、実施形態に係る要約生成装置100の構成例を示す図である。図4に示すように、要約生成装置100は、通信部110と、記憶部120と、制御部130とを有する。
[5. Configuration of summary generation device]
Next, the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、ユーザが有する端末装置との間で情報の送受信を行う。
(Regarding communication unit 110)
The
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、辞書データベース121と、ユーザ情報記憶部122と、コンテンツ記憶部123と、要約情報記憶部124とを有する。
(Regarding storage unit 120)
The storage unit 120 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 has a
(辞書データベース121について)
辞書データベース121は、例えば、一般用語辞書、シソーラス辞書、固有名詞辞書に対応する。また、例えば、固有名詞辞書では、正式な固有名詞に対して、異なる表現の固有名詞が紐付けられている。また、要約生成装置100は、ユーザの動向に基づいて、時期に影響される用語を学習し、学習した用語とその時期とを紐付けておいてもよい。
(Regarding dictionary database 121)
The
(ユーザ情報記憶部122について)
ユーザ情報記憶部122は、ユーザの興味を示すユーザ情報を記憶する。例えば、後述する受付部131は、このようなユーザ情報の登録をユーザから受け付けた場合には、このユーザを識別する識別情報(ユーザID)に対して、受け付けたユーザ情報を対応付けてユーザ情報記憶部122に格納する。
(Regarding the user information storage unit 122)
The user information storage unit 122 stores user information indicating user interests. For example, when receiving registration of such user information from a user, the receiving unit 131, which will be described later, associates the received user information with identification information (user ID) that identifies this user, and registers the user information. Stored in the storage unit 122 .
(コンテンツ記憶部123について)
コンテンツ記憶部123は、処理対象のコンテンツを記憶する。例えば、後述する取得部132は、処理対象のコンテンツを取得すると、取得した処理対象のコンテンツをコンテンツ記憶部123に格納する。例えば、後述する取得部132は、受付部131により処理対象のコンテンツの登録が受け付けられた場合には、登録元のユーザを識別する識別情報(ユーザID)に対して、受け付られたコンテンツを対応付けてコンテンツ記憶部123に格納する。
(Regarding the content storage unit 123)
The content storage unit 123 stores content to be processed. For example, when the
(要約情報記憶部124について)
要約情報記憶部124は、処理対象のコンテンツの内容が要約された要約文を示す文章情報を記憶する。例えば、後述する生成部134は、ユーザによるユーザ情報の登録に応じて、このユーザに対して要約文を生成した場合には、このユーザを識別する識別情報(ユーザID)に対して、生成した要約文を対応付けて要約情報記憶部124に格納する。
(Regarding summary information storage unit 124)
The summary information storage unit 124 stores text information indicating a summary of the content to be processed. For example, when generating a summary sentence for a user in response to registration of user information by the user, the
なお、図4では付図示であるが、要約生成装置100は、モデルやポジネガマップを記憶する記憶部をさらに有してもよい。
Although not shown in FIG. 4, the
(制御部130について)
制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、要約生成装置100内部の記憶装置に記憶されている各種プログラム(例えば、実施形態に係る要約生成プログラム)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
The control unit 130 executes various programs (for example, a summary generation program according to the embodiment) stored in a storage device inside the
図4に示すように、制御部130は、受付部131と、取得部132と、抽出部133と、生成部134と、推定部135と、出力部136と、第1制御部137と、第2制御部138とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 4, the control unit 130 includes a reception unit 131, an
(受付部131について)
受付部131は、ユーザの興味を示すユーザ情報の登録を受け付ける。例えば、受付部131は、ユーザ操作に応じてこのユーザの端末装置から送信されたユーザ情報を受け付け、ユーザ情報を受け付けた場合には、ユーザ情報の登録を受け付けを完了させる。また、受付部131は、ユーザから処理対象のコンテンツの登録も受け付けることができる。
(Regarding the reception unit 131)
The accepting unit 131 accepts registration of user information indicating the user's interest. For example, the reception unit 131 receives user information transmitted from the user's terminal device in response to a user operation, and completes reception of user information registration when the user information is received. The reception unit 131 can also receive registration of content to be processed from the user.
(取得部132について)
取得部132は、ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する。図1の例では、取得部132は、ユーザU1に対応するユーザ情報として、「チームTa」のファン(「チームTa」に興味がある、あるいは、「チームTa」が好き)といったことを示すユーザ情報を取得している。また、図1の例では、取得部132は、ユーザU1に対応するユーザ情報として、「PY1選手」のファン(「PY1選手」に興味がある、あるいは、「PY1選手」が好き)といったことを示すユーザ情報を取得している。また、図1の例では、取得部132は、処理対象のコンテンツとして、1ヶ月分の記事コンテンツ群を取得している。また、図1の例では、取得部132は、1ヶ月分の記事コンテンツ群に対して絞り込みが行われた後では、記事コンテンツC1を処理対象のコンテンツとして取得している。
(Regarding the acquisition unit 132)
The
(抽出部133について)
抽出部133は、処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。例えば、抽出部133は、興味の対象として、処理対象のコンテンツに含まれる文章中の固有名詞が指し示す対象であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。
(Regarding the extraction unit 133)
The extraction unit 133 extracts a target sentence, which is a sentence in which the object of interest indicated by the user information is a topic, from sentences included in the content to be processed. For example, the extracting unit 133 extracts, as a target sentence, a sentence in which a target of interest to the user is a topic indicated by a proper noun in sentences included in the content to be processed, as a target of interest. .
より詳細には、抽出部133は、処理対象のコンテンツに含まれる文章中の異なる複数の固有名詞のうち同義の固有名詞が指し示す対象であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。また、抽出部133は、処理対象のコンテンツに含まれる文章のうち、主語が含まれない文章について主語を推定し、推定した主語が、上記同義の固有名詞が指し示す対象となっている文章を対象文として抽出する。 More specifically, the extracting unit 133 selects a target indicated by a synonymous proper noun among a plurality of different proper nouns in a sentence included in the content to be processed, and a target in which the user is interested. Sentences are extracted as target sentences. In addition, the extraction unit 133 estimates the subject of sentences that do not contain a subject among the sentences included in the content to be processed, and targets the sentences that the estimated subject is the object indicated by the above-mentioned synonymous proper noun. Extract as sentences.
また、このようなことから、抽出部133は、図1および図2のステップS1~ステップS5で説明したような一連の抽出処理を行う。 In addition, for this reason, the extraction unit 133 performs a series of extraction processes as described in steps S1 to S5 in FIGS. 1 and 2. FIG.
(生成部134について)
生成部134は、抽出部133により抽出された対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。例えば、生成部134は、対象文が構文解析された解析結果である木構造に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。例えば、生成部134は、対象文が構文解析された解析結果である木構造を構成するノードである文節に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。
(Regarding the generation unit 134)
Based on the target sentence extracted by the extracting unit 133, the generating
一例としては、生成部134は、木構造を構成する文節のうち、ユーザによる興味の対象に対するユーザの嗜好性に応じてユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。より詳細胃は、生成部134は、このような単語として、ユーザによる興味の対象に対するユーザの嗜好性に応じてユーザの感情の度合いを示す感情値を変動させると推測される単語を含む文節に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。
As an example, the
また、生成部134は、現在時期に関連する単語を含む文節を優先的に用いて、処理対象のコンテンツの内容が要約された要約文を生成してもよい。
In addition, the
また、生成部134は、ユーザによる興味の対象に関連する単語であって、ユーザの嗜好性とより関連性の高いの高い単語を含む文節を優先的に用いて、処理対象のコンテンツの内容が要約された要約文を生成してもよい。
In addition, the
また、生成部134は、対象文が構文解析された解析結果である木構造に沿って、文節から分岐する分岐数が所定数以下となるように、選定した文節をつなぐことで、処理対象のコンテンツの内容が要約された要約文を生成する。
In addition, the
また、このようなことから、生成部134は、図1のステップS6~ステップS7、そして、図3で説明したような一連の生成処理を行う。
In addition, for this reason, the
(推定部135について)
推定部135は、ユーザによる興味の対象に対するユーザの嗜好性に基づいて、感情の種別ごとに、要約文の内容に対するそれぞれの感情の度合いを示す感情値(PN値)を推定する。例えば、推定部135は、ユーザの感情の種別として、肯定的な感情(ポジティブな感情)および否定的な感情(ネガティブな感情)それぞれについて、要約文の内容に対する感情の度合いを示す感情値を推定する。
(Regarding the estimation unit 135)
The
また、例えば、推定部135は、固有名詞が除外された任意の文章と、当該任意の文章に対してユーザが評価した値であって、当該任意の文章の内容に対する感情の度合いを示す感情値との関係性が学習されたモデルに基づいて、要約文の内容に対する感情の度合いを示す感情値を推定する。例えば、推定部135は、このようなモデルとして、肯定的な感情および否定的な感情うち、ユーザの嗜好性と要約文の内容との関係性に応じた感情ほど高い感情値を出力するように学習されたモデルに基づいて、要約文の内容に対する感情の度合いを示す感情値を推定する。
In addition, for example, the
(出力部136について)
出力部136は、ユーザに対して、処理対象のコンテンツの内容が要約された要約文を出力する。例えば、出力部136は、処理対象のコンテンツの内容が要約された要約文として、推定部135により推定されたPN値が付与された要約文を出力する。例えば、出力部136は、PN値付きの要約文がユーザの端末装置に表示されるよう、PN値付きの要約文を係る端末装置に送信する。
(Regarding the output unit 136)
The output unit 136 outputs a summary sentence summarizing the content to be processed to the user. For example, the output unit 136 outputs a summary sentence to which the PN value estimated by the
(第1制御部137について)
第1制御部137は、任意の文章と、当該任意の文章に対してユーザが評価した値であって、当該任意の文章の内容に対する感情の度合いを示す感情値との関係性が学習されたモデルを学習する。具体的には、第1制御部137は、固有名詞が除外された任意の文章と、当該任意の文章に対してユーザが評価した値であって、当該任意の文章の内容に対する感情の度合いを示す感情値との関係性が学習されたモデルを生成する。また、ここでいう感情とは肯定的な感情(ポジティブ)感情、および、否定的な感情(ネガティブ感情)である。
(Regarding the first control unit 137)
The
また、例えば、第1制御部137は、モデルとして、肯定的な感情および否定的な感情うち、ユーザの嗜好性と要約文の内容との関係性に応じた感情ほど高い感情値を出力するようにモデルを学習する。
Further, for example, the
より詳細な一例を挙げる。例えば、「チームTa」が勝利した記事は、「チームTa」のファンに対してポジティブ感情にさせ、また、「チームTa」が敗北した記事は、アンチ「チームTa」に対してポジティブ感情にさせる。一方、「チームTa」が敗北した記事は、「チームTa」のファンに対してネガティブ感情にさせ、また、「チームTa」が勝利した記事は、アンチ「チームTa」に対してネガティブ感情にさせる。このように、ユーザの嗜好性と要約文の内容との関係性に応じて、ポジティブ感情およびネガティブ感情のうち、どちらの感情がより強くなるかが決まってくる。 A more detailed example is given. For example, an article about "Team Ta" winning causes positive feelings toward fans of "Team Ta", and an article about "Team Ta" losing causes positive feelings toward anti-"Team Ta". . On the other hand, an article about "team Ta" being defeated makes fans of "team Ta" feel negative feelings, and an article about "team Ta" winning makes people feel negative feelings about anti-"team Ta". . In this manner, which of the positive emotion and the negative emotion is stronger is determined according to the relationship between the user's preference and the content of the abstract.
したがって、係る例を用いると、第1制御部137は、「チームTa」のファンユーザに対しては「チームTa」が勝利した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ポジティブ感情の度合いを示す感情値をより高めるようモデルを学習する。また、第1制御部137は、アンチ「チームTa」ユーザに対しては「チームTa」が敗北した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ポジティブ感情の度合いを示す感情値をより高めるようモデルを学習する。
Therefore, when using such an example, the
一方、第1制御部137は、「チームTa」のファンユーザに対しては「チームTa」が敗北した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ネガティブ感情の度合いを示す感情値をより高めるようモデルを学習する。また、第1制御部137は、アンチ「チームTa」のユーザに対しては「チームTa」が勝利した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ネガティブ感情の度合いを示す感情値をより高めるようモデルを学習する。
On the other hand, for the fan user of "team Ta", the
ここからはモデル学習の一例についてより詳細に説明する。例えば、第1制御部137は、図3で明した1型の文章または2型の文章のサンプル文章であって、固有名詞を含まないサンプル文章(すなわち一般用語で構成されたサンプル文章)と、当該サンプル文章に対してユーザがポジティブ感情の感情値またはネガティブ感情の感情値を評価した値との組を学習データセットとして、文章の内容と感情値との関係性を学習する。
An example of model learning will now be described in more detail. For example, the
例えば、「私は、勝ち越しの左翼線適時二塁打を放ったが、途中交代した。」というサンプル文章(1型の文章)に対して、任意のユーザは各一般用語(例えば、「勝ち越し」、「二塁打」、「途中交代」など)それぞれに対して感情値を評価するとともに、この文章全体としての感情値も評価する。よって、係る例では、第1制御部137は、このサンプル文章と、各一般用語に対する感情値と、文章全体としての感情値との組み合わせを学習データセットとして学習を行う。試行回数が多いほど学習精度は高まるため、多くのサンプル文章を用いることが望ましい。
For example, for a sample sentence (Type 1 sentence) that says, "I hit a double on the left wing line of the winning team, but I was replaced halfway through." Emotion value is evaluated for each of the sentences, such as "double hit", "change in the middle", etc., and the emotion value of the sentence as a whole is also evaluated. Therefore, in this example, the
そして、このような状態において、第1制御部137は、サンプル文章に対応する木構造に含まれる分岐数、サンプル文章に対応する木構造に含まれる文節数、サンプル文章に対応する木構造に含まれる字句(形態素)数、一般用語で構成される文章全体としての感情値、ユーザ評価による感情値、これらに基づいて、モデルを生成する。また、固有名詞を含まない文章であれば、ユーザ評価にユーザ個人の主観が反映され難いため、要約生成装置100は、固有名詞を含まない文章を用いることで、より高精度なモデルを生成することができる。
In such a state, the
ここで、ユーザ評価による感情値は、一般用語に対してユーザ評価された感情値ではなく、固有名詞に対してユーザ評価された感情値であってもよい。しかし、固有名詞は、数が多いうえに経時的にその数が変化するという性質があるため、ユーザに対して全ての固有名詞を評価させることは困難である。以下で説明する第2制御部138は、このような状況に対応する。
Here, the user-evaluated emotion values may be user-evaluated emotion values for proper nouns instead of user-evaluated emotion values for general terms. However, since there are many proper nouns and the number of proper nouns changes over time, it is difficult for the user to evaluate all proper nouns. The
(第2制御部138について)
第2制御部138は、単語と単語の関連性(類似性)を示す単語間距離を算出する。例えば、第2制御部138は、固有名詞と一般的用語との単語間距離を算出する。また、第2制御部138は、記事などの一般知識に基づいて、固有名詞と一般用語とをクラスタリングする。そして、第2制御部138は、同一クラスタ内の単語が、自動的に同じ意味的指向を持つように制御する。このような制御によれば、ユーザがクラスタ内の単語に対してだけ感情値を評価しさえすれば、ユーザ評価が行われておらず感情値が未知の固有名詞も動的に感情値が算出されることになる。この結果、第1制御部137は、数が多いうえに経時的にその数が変化するという性質を有するがゆえにユーザ評価が行われていない固有名詞に対する感情値を得ることができるようになるため、この感情値を用いることでより高精度なモデルを生成することができるようになる。
(Regarding the second control unit 138)
The
例えば、第2制御部138は、以下のルールに従って、経時的かつ現イベントにおける個人の嗜好の変化に応じて各単語が意味的指向をもつように制御する。例えば、単語間距離には、サイズ、視野、動き、といったパラメータが存在し、また、サイズおよび視野には、単語の出現頻度が必要となるため、第2制御部138は、このパラメータおよび出現頻度に基づいて、単語間距離を算出するとともに、経時的かつ現イベントにおける個人の嗜好の変化に応じて各単語が意味的指向をもつように制御する。そして、このような制御の結果は、3次元トーラス形式のポジネガマップとして表現させることができる。
For example, the
図5には、実施形態に係るポジネガマップPN-MPの一例が示される。図5の左に示されるテーブルTBでは、「チーム」(チーム名)ごとに、当該チームに所属する「選手」(選手名)がクラスタリングされた状態で、クラスタごとに当該クラスタにおける「チーム」と各「選手」との間で算出された「単語間距離」が一覧表示されている。 FIG. 5 shows an example of the positive/negative map PN-MP according to the embodiment. In the table TB shown on the left side of FIG. 5, for each "team" (team name), "players" (player names) belonging to the team are clustered. A list of "interword distances" calculated between each "athlete" is displayed.
図5に示すテーブルTBの例では、チーム「Ta」には、選手「PY1a」、選手「PY2a」、選手「PY3a」が、1つのチーム「Ta」としてクラスタリングされている。また、図5に示すテーブルTBの例では、チーム名を示す単語「Ta」と、選手名を示す単語「PY1a」との単語間距離として「74」が算出されている。また、図5に示すテーブルTBの例では、チーム名を示す単語「Ta」と、選手名を示す単語「PY2a」との単語間距離として「64」が算出されている。また、図5に示すテーブルTBの例では、チーム名を示す単語「Ta」と、選手名を示す単語「PY3a」との単語間距離として「157」が算出されている。 In the example of the table TB shown in FIG. 5, in the team "Ta", the player "PY1a", the player "PY2a", and the player "PY3a" are clustered as one team "Ta". In the example of the table TB shown in FIG. 5, "74" is calculated as the inter-word distance between the word "Ta" indicating the team name and the word "PY1a" indicating the player name. Further, in the example of the table TB shown in FIG. 5, "64" is calculated as the inter-word distance between the word "Ta" indicating the team name and the word "PY2a" indicating the player name. In the example of the table TB shown in FIG. 5, "157" is calculated as the inter-word distance between the word "Ta" indicating the team name and the word "PY3a" indicating the player name.
チーム「Tb」、チーム「Tc」、チーム「Td」、チーム「Te」、チーム「Tg」、チーム「Tf」については説明を省略する。 Description of team “Tb”, team “Tc”, team “Td”, team “Te”, team “Tg”, and team “Tf” is omitted.
そして、図5の右に示されるポジネガマップPN-MPでは、テーブルTBの「単語間距離」に基づき、各単語の関係性が3次元トーラス形式で示されている。例えば、ポジネガマップPN-MPでは、図5に示されるように、チーム名を示す単語「Ta」に対応する円球CTaに対して、選手名を示す単語「PY1a」が単語間距離「74」に基づき配置されている。また、チーム名を示す単語「Ta」に対応する円球CTaに対して、選手名を示す単語「PY2a」が単語間距離「64」に基づき配置されている。また、チーム名を示す単語「Ta」に対応する円球CTaに対して、選手名を示す単語「PY3a」が単語間距離「157」に基づき配置されている。なお、ポジネガマップPN-MPに示される円球の大きさ(直径)は、この円球に対応する単語の出現頻度に対応する。 In the positive/negative map PN-MP shown on the right side of FIG. 5, the relationship of each word is shown in a three-dimensional torus format based on the "distance between words" in the table TB. For example, in the positive/negative map PN-MP, as shown in FIG. 5, the word "PY1a" indicating the player name is separated from the sphere CTa corresponding to the word "Ta" indicating the team name by an inter-word distance of "74". are arranged based on Also, the word “PY2a” indicating the player name is arranged based on the inter-word distance “64” with respect to the sphere CTa corresponding to the word “Ta” indicating the team name. Also, the word "PY3a" indicating the player name is arranged based on the inter-word distance "157" with respect to the sphere CTa corresponding to the word "Ta" indicating the team name. The size (diameter) of the sphere shown in the positive/negative map PN-MP corresponds to the appearance frequency of the word corresponding to this sphere.
そして、ポジネガマップPN-MPでは、個人の嗜好の変化に応じて各単語が意味的指向をもつように制御される。このため、「チームTa」のファンユーザに対しては、チーム名を示す単語「Ta」に対応する円球CTaの色が例えば特定の色(例えば、赤色)に制御されるとともに、選手名を示す単語「PY1a」、「PY2a」、「PY3a」それぞれに対応する円球の色も同系色(例えば、赤系統の色)に制御される。すなわち、ポジネガマップPN-MPの態様は、個人の嗜好の応じて意味的指向をもつように変化させられる。 In the positive/negative map PN-MP, each word is controlled to have a semantic orientation in accordance with changes in individual tastes. Therefore, for fan users of "team Ta", the color of the sphere CTa corresponding to the word "Ta" indicating the team name is controlled to a specific color (for example, red), and the player names are displayed. The colors of the spheres corresponding to the indicated words "PY1a", "PY2a", and "PY3a" are also controlled to similar colors (for example, red colors). That is, the aspect of the positive/negative map PN-MP is changed so as to have a semantic orientation according to individual preferences.
一方、アンチ「チームTa」に対しては、チーム名を示す単語「Ta」に対応する円球CTaの色が例えば別の特定の色(例えば、青色)に制御されるとともに、選手名を示す単語「PY1a」、「PY2a」、「PY3a」それぞれに対応する円球の色も同系色(例えば、青系統の色)に制御される。 On the other hand, for the anti-"team Ta", the color of the sphere CTa corresponding to the word "Ta" indicating the team name is controlled to another specific color (for example, blue), and also indicates the player name. The colors of the spheres corresponding to the words "PY1a", "PY2a", and "PY3a" are also controlled to similar colors (for example, blue colors).
このように、ポジネガマップPN-MPの態様は、個人の嗜好の応じて意味的指向をもつように変化させられる。このため、図3で説明したように、要約生成装置100は、係るポジネガマップPN-MPを参照することで、「チームTa」との単語間距離が所定値以下の単語を特定することができるようになる。
In this way, the aspect of the positive-negative map PN-MP can be changed to be semantically oriented according to individual preferences. Therefore, as described with reference to FIG. 3, the
〔6.処理手順〕
次に、図6を用いて、実施形態に係る要約生成処理の手順について説明する。図6は、実施形態に係る要約生成処理手順を示すフローチャートである。
[6. Processing procedure]
Next, the procedure of summary generation processing according to the embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing a summary generation processing procedure according to the embodiment.
まず、受付部131は、ユーザからユーザ情報の登録を受け付けたか否かを判定する(ステップS101)。受付部131は、ユーザ情報の登録を受け付けていないと判定している間は(ステップS101;No)、ユーザ情報の登録を受け付けたと判定できるまで待機する。 First, the reception unit 131 determines whether or not registration of user information has been received from a user (step S101). While the receiving unit 131 determines that registration of user information has not been received (step S101; No), it waits until it can be determined that registration of user information has been received.
一方、取得部132は、受付部131によりユーザ情報の登録を受け付けたと判定された場合には(ステップS101;Yes)、登録に応じて受け付けられたユーザ情報を取得する(ステップS102)。例えば、取得部132は、ユーザ情報記憶部122からユーザ情報を取得する。また、取得部132は、処理対象のコンテンツも取得する。例えば、取得部132は、コンテンツ記憶部123から処理対象のコンテンツを取得する。なお、ユーザによる処理対象のコンテンツの登録により、受付部131により処理対象のコンテンツも受け付けられた場合には、取得部132は、受付部131からこの処理対象のコンテンツを取得する。
On the other hand, when the receiving unit 131 determines that registration of user information has been received (step S101; Yes), the obtaining
次に、抽出部133は、ユーザ情報に基づいて、処理対象のコンテンツを絞り込みを行う(ステップS103)。例えば、抽出部133は、処理対象のコンテンツの中から、ユーザの興味に関するコンテンツの絞り込みを行う。絞り込まれたコンテンツも処理対象のコンテンツである。また、抽出部133は、絞り込み後の処理対象のコンテンツに対してクレンジング処理を行うことで、不必要なデータを除去する(ステップS104)。 Next, the extraction unit 133 narrows down the content to be processed based on the user information (step S103). For example, the extraction unit 133 narrows down the content related to the user's interest from the content to be processed. The narrowed down content is also content to be processed. In addition, the extraction unit 133 removes unnecessary data by performing a cleansing process on the content to be processed after narrowing down (step S104).
次に、抽出部133は、ユーザ情報が示すユーザの興味の対象に基づいて、クレンジング後の処理対象のコンテンツに含まれる文章に対して、固有名詞のマージを行う(ステップS105)。また、抽出部133は、クレンジング後の処理対象のコンテンツに含まれる文章のうち、主語が含まれない文章について暗黙の主語を推定し、推定した主語を挿入する(ステップS106)。 Next, the extraction unit 133 merges proper nouns with respect to sentences included in the content to be processed after cleansing, based on the target of interest of the user indicated by the user information (step S105). Further, the extraction unit 133 estimates an implicit subject for sentences that do not contain a subject among sentences included in the content to be processed after cleansing, and inserts the estimated subject (step S106).
次に、抽出部133は、固有名詞のマージが行われた文章、および、暗黙の主語が推定された文章それぞれのうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する(ステップS107)。例えば、抽出部133は、ユーザ情報が示す興味の対象に対応する固有名詞(正式な固有名詞)を主語とする文章を対象文として抽出する。 Next, the extraction unit 133 extracts a target sentence, which is a sentence in which the target of interest indicated by the user information is a hot topic, among the sentences in which the proper nouns have been merged and the sentences in which the implicit subject has been estimated. is extracted (step S107). For example, the extraction unit 133 extracts, as a target sentence, a sentence whose subject is a proper noun (formal proper noun) corresponding to the target of interest indicated by the user information.
次に、生成部134は、抽出された対象文に対して構文解析を実行することで、解析結果である木構造であって、対象文に対応する木構造を得る(ステップS108)。そして、生成部134は、木構造に基づいて、要約文を生成する(ステップS109)。例えば、生成部134は、木構造に含まれる文節のうち、ユーザによる興味の対象に対するユーザの嗜好性に応じた単語を含む文節を選定し、1型の文章となるように、この選定した文章をつなぐという処理を文章ごとに行う。そして、生成部134は、1型の文章を組み合わせることにより要約文を生成する。
Next, the
次に、推定部135は、ユーザの嗜好性に基づいて、感情の種別ごとに、生成された要約文の内容に対する感情の度合いを示す感情値(PN値)を推定する(ステップS110)。そして、出力部136は、ユーザに対して、感情値が付与された要約文を出力する(ステップS111)。
Next, the
〔7.ハードウェア構成〕
また、上記実施形態に係る要約生成装置100は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、要約生成装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. Hardware configuration]
Also, the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、および、係るプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、係るプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る要約生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
For example, when the
〔8.その他〕
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
[8. others〕
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, the embodiments of the present application have been described in detail based on several drawings, but these are examples, and various modifications and It is possible to carry out the invention in other forms with modifications.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
100 要約生成装置
120 記憶部
121 辞書データベース
122 ユーザ情報記憶部
123 コンテンツ記憶部
124 要約情報記憶部
130 制御部
131 受付部
132 取得部
133 抽出部
134 生成部
135 推定部
136 出力部
137 第1制御部
138 第2制御部
100 summary generation device 120
Claims (20)
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順と
をコンピュータに実行させ、
前記生成手順は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に対する前記ユーザの嗜好性に応じて前記ユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする要約生成プログラム。 an acquisition procedure for acquiring user information indicating a user's interest and content to be processed;
an extracting procedure for extracting target sentences, which are sentences in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
causing a computer to execute a generating procedure for generating a summary sentence summarizing the contents of the content to be processed based on the target sentence ;
The generation procedure influences a change in the user's emotion according to the user's preference for the target of interest among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence. generate a summary sentence summarizing the contents of the content to be processed, based on the clause containing the word that is inferred to be
A summary generator characterized by :
ことを特徴とする請求項1に記載の要約生成プログラム。 The generating procedure performs the processing based on the phrase including, as the word, a word that is presumed to change an emotion value indicating the degree of emotion of the user according to the user's preference for the object of interest. 2. The program for generating a summary according to claim 1 , which generates a summary that summarizes the content of the target content.
ことを特徴とする請求項1または2に記載の要約生成プログラム。 The generating step generates a summary sentence that summarizes the contents of the content to be processed, by preferentially using the clause containing words related to the current time among the words. 3. The abstract generation program according to 1 or 2 .
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、an extracting procedure for extracting target sentences, which are sentences in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順とa generation procedure for generating a summary sentence summarizing the contents of the content to be processed based on the target sentence;
をコンピュータに実行させ、on the computer, and
前記生成手順は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に関連する単語であって、前記ユーザの嗜好性とより関連性の高い単語を含む文節を優先的に用いて、前記処理対象のコンテンツの内容が要約された要約文を生成するThe generation procedure generates words related to the object of interest among clauses that are nodes constituting a tree structure that is a result of syntactic analysis of the target sentence, and is more relevant to the user's preference. generate a summary sentence that summarizes the contents of the content to be processed by preferentially using phrases containing words with a high
ことを特徴とする要約生成プログラム。A summary generator characterized by:
ことを特徴とする請求項1~4のいずれか1つに記載の要約生成プログラム。 The generation procedure generates a summary sentence summarizing the contents of the content to be processed by connecting the clauses along the tree structure so that the number of branches branching from the clause is equal to or less than a predetermined number. 5. The program for generating a summary according to any one of claims 1 to 4 , characterized by:
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、an extracting procedure for extracting target sentences, which are sentences in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順と、a generation procedure for generating a summary sentence that summarizes the contents of the content to be processed based on the target sentence;
前記興味の対象に対する前記ユーザの嗜好性に基づいて、感情の種別ごとに、前記要約文の内容に対する感情の度合いを示す感情値を推定する推定手順とan estimation step for estimating, for each type of emotion, an emotion value indicating the degree of emotion with respect to the content of the summary based on the user's preference for the object of interest;
をコンピュータに実行させるための要約生成プログラム。A program for generating summaries on a computer.
ことを特徴とする請求項6に記載の要約生成プログラム。 7. The method according to claim 6 , wherein the estimation procedure estimates an emotion value indicating a degree of emotion with respect to the content of the summary sentence for each of positive emotion and negative emotion as the type of emotion of the user. The described abstract generator.
ことを特徴とする請求項6または7に記載の要約生成プログラム。 The estimation procedure is a relationship between an arbitrary sentence from which proper nouns are excluded and an emotion value, which is a value evaluated by the user for the arbitrary sentence and indicates the degree of emotion with respect to the content of the arbitrary sentence. 8. The program for generating a summary according to claim 6 or 7 , wherein an emotion value indicating the degree of emotion for the content of the summary is estimated based on the model learned by the program.
ことを特徴とする請求項8に記載の要約生成プログラム。 In the estimation procedure, the model is a model that has been learned to output a higher emotion value for the emotion corresponding to the relationship between the user's preference and the content of the summary sentence, out of the positive emotion and the negative emotion. 9. The program for generating a summary according to claim 8 , wherein an emotion value indicating a degree of emotion for the contents of the summary is estimated based on the above.
ことを特徴とする請求項6~9のいずれか1つに記載の要約生成プログラム。 10. The method according to any one of claims 6 to 9 , wherein said generating step generates a summary sentence that summarizes the content of said content to be processed based on a tree structure that is a result of syntactic analysis of said target sentence. A summary generator according to any one of the preceding claims.
ことを特徴とする請求項10に記載の要約生成プログラム。 11. The program for generating a summary according to claim 10 , wherein the generation step generates a summary sentence summarizing the contents of the content to be processed based on clauses that are nodes constituting the tree structure.
ことを特徴とする請求項1~11のいずれか1つに記載の要約生成プログラム。 The extraction procedure is characterized in that, as the object of interest, a sentence, which is a target indicated by a proper noun included in the sentence and in which the target of interest indicated by the user information is a topic, is extracted as the target sentence. 12. The program for generating a summary according to any one of claims 1 to 11 .
ことを特徴とする請求項12に記載の要約生成プログラム。 The extraction procedure extracts, as the target sentence, a sentence that is pointed to by synonymous proper nouns among a plurality of different proper nouns included in the sentence and that the target of interest indicated by the user information is a topic. 13. The program for generating a summary according to claim 12 , characterized by:
ことを特徴とする請求項13に記載の要約生成プログラム。 The extraction procedure estimates a subject for sentences that do not contain a subject among sentences included in the content to be processed, and extracts sentences that have the estimated subject as a target indicated by the synonymous proper noun. 14. The program for generating a summary according to claim 13 , extracting as a sentence.
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出部と、
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成部と
を有し、
前記生成部は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に対する前記ユーザの嗜好性に応じて前記ユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする要約生成装置。 an acquisition unit that acquires user information indicating a user's interest and content to be processed;
an extraction unit that extracts a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
a generation unit that generates a summary sentence that summarizes the contents of the content to be processed based on the target sentence ;
The generation unit influences a change in the user's emotion according to the user's preference for the target of interest among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence. generate a summary sentence summarizing the contents of the content to be processed, based on the clause containing the word that is inferred to be
A summary generation device characterized by:
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出部と、an extraction unit that extracts a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成部とa generation unit that generates a summary sentence that summarizes the contents of the content to be processed based on the target sentence;
を有し、has
前記生成部は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に関連する単語であって、前記ユーザの嗜好性とより関連性の高い単語を含む文節を優先的に用いて、前記処理対象のコンテンツの内容が要約された要約文を生成するThe generating unit selects words related to the object of interest among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence, and is more relevant to the user's preference. generate a summary sentence that summarizes the contents of the content to be processed by preferentially using phrases containing words with a high
ことを特徴とする要約生成装置。A summary generation device characterized by:
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出部と、an extraction unit that extracts a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成部と、a generation unit that generates a summary sentence that summarizes the contents of the content to be processed based on the target sentence;
前記興味の対象に対する前記ユーザの嗜好性に基づいて、感情の種別ごとに、前記要約文の内容に対する感情の度合いを示す感情値を推定する推定部とan estimation unit for estimating, for each type of emotion, an emotion value indicating the degree of emotion with respect to the content of the summary based on the user's preference for the object of interest;
を有することを特徴とする要約生成装置。A summary generation device characterized by comprising:
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得工程と、
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出工程と、
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成工程と
を含み、
前記生成工程は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に対する前記ユーザの嗜好性に応じて前記ユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする要約生成方法。 A summary generation method executed by a summary generation device,
an acquisition step of acquiring user information indicating the user's interest and content to be processed;
an extracting step of extracting a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
a generation step of generating a summary sentence that summarizes the contents of the content to be processed, based on the target sentence ;
In the generation step, among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence, the user's preference for the target of interest influences fluctuations in the user's emotion. generate a summary sentence summarizing the contents of the content to be processed, based on the clause containing the word that is inferred to be
A summary generation method characterized by:
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得工程と、an acquisition step of acquiring user information indicating the user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出工程と、an extracting step of extracting a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成工程とa generation step of generating a summary sentence summarizing the contents of the content to be processed based on the target sentence;
を含み、including
前記生成工程は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に関連する単語であって、前記ユーザの嗜好性とより関連性の高い単語を含む文節を優先的に用いて、前記処理対象のコンテンツの内容が要約された要約文を生成するThe generating step generates words related to the target of interest among clauses that are nodes constituting a tree structure that is the result of syntactic analysis of the target sentence, and is more relevant to the user's preference. generate a summary sentence that summarizes the contents of the content to be processed by preferentially using phrases containing words with a high
ことを特徴とする要約生成方法。A summary generation method characterized by:
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得工程と、an acquisition step of acquiring user information indicating the user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出工程と、an extracting step of extracting a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成工程と、a generation step of generating a summary sentence summarizing the contents of the content to be processed based on the target sentence;
前記興味の対象に対する前記ユーザの嗜好性に基づいて、感情の種別ごとに、前記要約文の内容に対する感情の度合いを示す感情値を推定する推定手順とan estimation step for estimating, for each type of emotion, an emotion value indicating the degree of emotion with respect to the content of the summary based on the user's preference for the object of interest;
を含むことを特徴とする要約生成方法。A method for generating a summary, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027354A JP7152437B2 (en) | 2020-02-20 | 2020-02-20 | Summary generation program, summary generation device and summary generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027354A JP7152437B2 (en) | 2020-02-20 | 2020-02-20 | Summary generation program, summary generation device and summary generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021131769A JP2021131769A (en) | 2021-09-09 |
JP7152437B2 true JP7152437B2 (en) | 2022-10-12 |
Family
ID=77551089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020027354A Active JP7152437B2 (en) | 2020-02-20 | 2020-02-20 | Summary generation program, summary generation device and summary generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7152437B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7258092B2 (en) * | 2021-09-10 | 2023-04-14 | 株式会社ミンカブ・ジ・インフォノイド | Match description generation device, match description generation method, and computer program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128677A (en) | 2008-11-26 | 2010-06-10 | Nippon Telegr & Teleph Corp <Ntt> | Text summarization apparatus, method therefor, and program |
JP2016118813A (en) | 2014-12-18 | 2016-06-30 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Content reproduction device |
JP2016164700A (en) | 2015-03-06 | 2016-09-08 | 富士通株式会社 | Information processing device, summary sentence editing method, and program |
JP2017037601A (en) | 2015-08-14 | 2017-02-16 | Psソリューションズ株式会社 | Dialog interface |
JP2017054509A (en) | 2015-09-09 | 2017-03-16 | ウバープル カンパニー リミテッド | Method and system for extracting sentence |
-
2020
- 2020-02-20 JP JP2020027354A patent/JP7152437B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128677A (en) | 2008-11-26 | 2010-06-10 | Nippon Telegr & Teleph Corp <Ntt> | Text summarization apparatus, method therefor, and program |
JP2016118813A (en) | 2014-12-18 | 2016-06-30 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Content reproduction device |
JP2016164700A (en) | 2015-03-06 | 2016-09-08 | 富士通株式会社 | Information processing device, summary sentence editing method, and program |
JP2017037601A (en) | 2015-08-14 | 2017-02-16 | Psソリューションズ株式会社 | Dialog interface |
JP2017054509A (en) | 2015-09-09 | 2017-03-16 | ウバープル カンパニー リミテッド | Method and system for extracting sentence |
Also Published As
Publication number | Publication date |
---|---|
JP2021131769A (en) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3607470B1 (en) | Conversation bot discovery and response fusion | |
CN110121706B (en) | Providing responses in a conversation | |
Lin et al. | Design and application of augmented reality query-answering system in mobile phone information navigation | |
JP2019504413A (en) | System and method for proposing emoji | |
JP6076425B1 (en) | Interactive interface | |
EP3977685A1 (en) | Providing responses in an event-related session | |
Bowden et al. | Slugbot: Developing a computational model andframework of a novel dialogue genre | |
CN106951433B (en) | Retrieval method and device | |
Scolari | The sense of the interface: Applying semiotics to HCI research | |
JP7152437B2 (en) | Summary generation program, summary generation device and summary generation method | |
Bednarek | Language and Characterisation in Television Series | |
Matsuyama et al. | Automatic expressive opinion sentence generation for enjoyable conversational systems | |
JP2001249945A (en) | Feeling generation method and feeling generator | |
US8930351B1 (en) | Grouping of users | |
EP4231172A1 (en) | Aspect-aware autocomplete query | |
Pérez-Hernández | Building brand narratives with hashtags<? br?> on Twitter: A cognitive-pragmatic analysis on the emergence of a new advertising subgenre | |
Papenmeier et al. | 'A Modern Up-To-Date Laptop'-Vagueness in Natural Language Queries for Product Search | |
JP6034459B1 (en) | Interactive interface | |
Shibata et al. | Utilizing core-query for context-sensitive Ad generation based on dialogue | |
Liu et al. | Personalized Recommender System for Children's Book Recommendation with A Realtime Interactive Robot | |
JP4712221B2 (en) | Subjective feature element generation apparatus, subjective feature element generation method, and subjective feature element generation program | |
Choi et al. | Social font search by multimodal feature embedding | |
JP6852520B2 (en) | Information processing equipment, information processing methods and programs | |
Kumon | How Qoheleth Thought: A Natural Semantic Metalanguage Analysis of Ecclesiastes | |
Beller et al. | Predicting fine-grained social roles with selectional preferences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7152437 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |