JP7152437B2 - Summary generation program, summary generation device and summary generation method - Google Patents

Summary generation program, summary generation device and summary generation method Download PDF

Info

Publication number
JP7152437B2
JP7152437B2 JP2020027354A JP2020027354A JP7152437B2 JP 7152437 B2 JP7152437 B2 JP 7152437B2 JP 2020027354 A JP2020027354 A JP 2020027354A JP 2020027354 A JP2020027354 A JP 2020027354A JP 7152437 B2 JP7152437 B2 JP 7152437B2
Authority
JP
Japan
Prior art keywords
sentence
content
user
processed
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020027354A
Other languages
Japanese (ja)
Other versions
JP2021131769A (en
Inventor
裕子 石若
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020027354A priority Critical patent/JP7152437B2/en
Publication of JP2021131769A publication Critical patent/JP2021131769A/en
Application granted granted Critical
Publication of JP7152437B2 publication Critical patent/JP7152437B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、要約生成プログラム、要約生成装置および要約生成方法に関する。 The present invention relates to a summary generation program, a summary generation device, and a summary generation method.

近年、インターネットの飛躍的な普及に伴い、ネットワークを介して様々なコンテンツの提供が盛んに行われている。また、ユーザにより適したコンテンツを提供する技術が知られている。 2. Description of the Related Art In recent years, with the rapid spread of the Internet, various contents are being actively provided via networks. Techniques for providing content more suitable for users are also known.

例えば、特許文献1では、サーバから提供される任意のコンテンツの表示スタイルをユーザの嗜好に合わせてパーソナライズ化する技術が提案されている。 For example, Patent Literature 1 proposes a technique for personalizing the display style of arbitrary content provided from a server according to user preferences.

特開2013-77240号公報JP 2013-77240 A

しかしながら、上記の従来技術では、必ずしもユーザの趣向が反映された要約文を生成することができるとは限らない。例えば、上記の従来技術では、端末から要求があったコンテンツをサーバから取得し、取得したコンテンツに対して嗜好データに対応する部分をパーソナライズ化し、パーソナライズ化されたコンテンツと取得したコンテンツを切り替えて端末に送信する。 However, with the conventional technology described above, it is not always possible to generate a summary that reflects the user's preferences. For example, in the above conventional technology, the content requested by the terminal is acquired from the server, the portion corresponding to the preference data is personalized for the acquired content, and the personalized content and the acquired content are switched to switch between the personalized content and the acquired content. Send to

このように、上記の従来技術は、ユーザの嗜好に合わせてコンテンツをパーソナライズ化するものに過ぎず、文字情報から要約文を生成するものではない。したがって、上記の従来技術では、必ずしもユーザの趣向が反映された要約文を生成することができるとは限らない。 As described above, the above-described conventional technology merely personalizes content according to the user's taste, and does not generate a summary sentence from character information. Therefore, with the conventional technology described above, it is not always possible to generate a summary that reflects the user's preferences.

本願は、上記に鑑みてなされたものであって、ユーザの趣向が反映された要約文を生成することを目的とする。 The present application has been made in view of the above, and an object thereof is to generate a summary that reflects the user's taste.

本願に係る要約生成プログラムは、ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得手順と、前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順とをコンピュータに実行させる。 A summary generating program according to the present application includes an acquisition procedure for acquiring user information indicating a user's interest and a content to be processed, A computer is caused to execute an extraction procedure for extracting a target sentence, which is a topical sentence, and a generation procedure for generating a summary sentence in which the contents of the content to be processed are summarized based on the target sentence.

実施形態の一態様によれば、ユーザの趣向が反映された要約文を生成することができる。 According to one aspect of the embodiment, it is possible to generate a summary that reflects the user's taste.

図1は、実施形態に係る要約生成処理の全体像を示す図である。FIG. 1 is a diagram showing an overview of summary generation processing according to the embodiment. 図2は、実施形態に係る要約生成装置によって行われる要約生成処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of a summary generation process performed by the summary generation device according to the embodiment; 図3は、木構造を用いた要約生成処理の一例を示す図である。FIG. 3 is a diagram showing an example of summary generation processing using a tree structure. 図4は、実施形態に係る要約生成装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of a summary generating device according to the embodiment; 図5は、実施形態に係るポジネガマップの一例を示す図である。FIG. 5 is a diagram showing an example of a positive/negative map according to the embodiment. 図6は、実施形態に係る要約生成処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a summary generation processing procedure according to the embodiment. 図7は、要約生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 7 is a hardware configuration diagram showing an example of a computer that implements the functions of the abstract generation device.

以下に、本願に係る要約生成プログラム、要約生成装置および要約生成方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る要約生成プログラム、要約生成装置および要約生成方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments (hereinafter referred to as "embodiments") for implementing the abstract generating program, abstract generating apparatus, and abstract generating method according to the present application will be described in detail below with reference to the drawings. Note that the abstract generating program, abstract generating apparatus, and abstract generating method according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔1.実施形態に係る要約生成処理の概要〕
現在、ロボットをはじめ様々な機器などにAI(実行知能)が搭載されるようになってきており、ユーザ個々により適応した対話やリコメンデーションおよび文章要約を実現することが期待されている。
[1. Overview of summary generation processing according to the embodiment]
At present, AI (executive intelligence) is being installed in various devices such as robots, and it is expected to realize dialogs, recommendations, and sentence summaries that are adapted to individual users.

また、例えば、所定期間分のコンテンツ(例えば、記事コンテンツやメール)を個人の趣向に合わせて要約することが出来れば、ユーザは自身が興味のあるコンテンツだけを容易に見つけだすことができるようになり便利である。 Also, for example, if it is possible to summarize contents (for example, article contents and emails) for a predetermined period according to individual tastes, the user can easily find out only the contents that interest him/herself. Convenient.

また、例えば、配信候補のコンテンツ(例えば、記事コンテンツ)を配信先のユーザ個々の趣向に合わせて要約することができれば、例えば、コンテンツが表示される配信面をよりパーソナライズ化することがでこるため、ユーザに対する興味を効果的に高めることができる配信面を実現することができるようになると考えられる。 In addition, for example, if it is possible to summarize distribution candidate content (for example, article content) according to the tastes of individual users to whom it is distributed, for example, it is possible to further personalize the distribution surface on which the content is displayed. , it will be possible to realize a delivery aspect that can effectively increase the interest of users.

したがって、実施形態に係る要約生成処理は、上記のような前提を踏まえて、文章群のうち、ユーザによる興味の対象が話題となっている文章を特定することで、特定した文章を用いて、このユーザの趣向が反映された要約文を生成するものである。 Therefore, based on the above premise, the summary generation process according to the embodiment identifies, from among the sentences, sentences in which the subject of interest of the user is a topic, and using the specified sentences, A summary sentence reflecting this user's preference is generated.

具体的には、実施形態に係る要約生成処理は、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得し、取得した処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。そして、抽出した対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。 Specifically, the summary generating process according to the embodiment acquires user information indicating the user's interest and content to be processed, and extracts sentences included in the acquired content to be processed from the interest indicated by the user information. extracts a target sentence, which is a topical sentence. Then, based on the extracted target sentence, a summary sentence that summarizes the contents of the content to be processed is generated.

また、図1および図2で詳細に説明するが、実施形態に係る要約生成処理では、次のようにして対象文を抽出する。実施形態に係る要約生成処理では、ユーザの興味の対象として、処理対象のコンテンツに含まれる固有名詞が指し示す対象であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。より詳細には、実施形態に係る要約生成処理では、表現の異なる複数の固有名詞のうち同義の固有名詞を1つの正式な固有名詞に統一(例えば、名寄せ)し、この正式な固有名詞が示す対象(例えば、チームや人物など)であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。 Also, as will be described in detail with reference to FIGS. 1 and 2, in the summary generation process according to the embodiment, target sentences are extracted as follows. In the summary generation process according to the embodiment, as a target of interest of the user, a target indicated by a proper noun included in the content to be processed and a target in which the user is interested is extracted as a target sentence. do. More specifically, in the summary generation process according to the embodiment, among a plurality of proper nouns with different expressions, synonymous proper nouns are unified into one formal proper noun (for example, name identification), and this formal proper noun indicates A target (for example, a team, a person, etc.) and a target that the user is interested in is extracted as a target sentence.

また、実施形態に係る要約生成処理では、処理対象のコンテンツに含まれる文章のうち、主語が含まれない文章について主語を推定する。そして、主語を推定した文章のうち、その主語が、上記同義の固有名詞(1つの正式な固有名詞)が指し示す対象となっている文章を対象文として抽出する。 In addition, in the summary generation process according to the embodiment, the subject is estimated for sentences that do not contain a subject among the sentences included in the content to be processed. Then, among the sentences whose subjects have been estimated, sentences whose subject is the object indicated by the synonymous proper noun (one formal proper noun) are extracted as target sentences.

〔2.要約生成プログラムおよび要約生成装置について〕
実施形態に係る要約生成プログラムは、上述した実施形態に係る要約生成処理をコンピュータに実行させるためのプログラムである。具体的には、実施形態に係る要約生成プログラムは、ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得手順と、処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順とをコンピュータに実行させるためのプログラムである。
[2. Summary generating program and summary generating device]
The abstract generating program according to the embodiment is a program for causing a computer to execute the abstract generating process according to the embodiment described above. Specifically, the summary generation program according to the embodiment includes an acquisition procedure for acquiring user information indicating the user's interest and content to be processed; A computer is caused to execute an extraction procedure for extracting a target sentence, which is a sentence in which an object of interest is a topic, and a generation procedure for generating a summary sentence in which the contents of the content to be processed are summarized based on the target sentence. It is a program for

また、本実施形態では、このようなコンピュータの一例として、要約生成装置100を例に挙げる。すなわち要約生成装置100は、実施形態に係る要約生成プログラムの制御に従って、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得し、取得した処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。そして、要約生成装置100は、抽出した対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。 Also, in the present embodiment, the summary generation device 100 is taken as an example of such a computer. That is, the summary generating apparatus 100 acquires user information indicating the user's interest and content to be processed, under the control of the summary generating program according to the embodiment, and extracts sentences included in the acquired content to be processed by the user. An object of interest indicated by information is extracted as a sentence that is a topic. Then, based on the extracted target sentence, the summary generating apparatus 100 generates a summary sentence that summarizes the contents of the content to be processed.

また、本実施形態では、要約生成装置100は、サーバ装置やクラウドシステム等により実現されるものとする。一方で、要約生成プログラムが実行されるコンピュータは、例えば、エンドユーザによって利用される情報処理端末であってもよく、このような情報処理端末としては、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等が挙げられる。 Also, in the present embodiment, the abstract generation device 100 is assumed to be realized by a server device, a cloud system, or the like. On the other hand, the computer on which the abstract generation program is executed may be, for example, an information processing terminal used by the end user. (Personal Computer), desktop PC, mobile phone, PDA (Personal Digital Assistant), and the like.

〔3.要約生成処理の全体像〕
ここからは、図1を用いて、実施形態に係る要約生成装置100によって行われる要約生成処理の全体像について説明する。図1は、実施形態に係る要約生成処理の全体像を示す図である。また、本実施形態では、処理対象のコンテンツを「スポーツ記事による記事コンテンツ」とする。そして、本実施形態では、ユーザを特定のスポーツ(例えば、野球)におけるチームのファン(あるいは、特定のスポーツ選手のファン)であるものとして、このユーザの興味や趣向が反映された要約を生成する場面を一例に挙げる。
[3. Overview of summary generation processing]
From now on, an overview of the summary generation process performed by the summary generation device 100 according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an overview of summary generation processing according to the embodiment. Also, in the present embodiment, the content to be processed is assumed to be "article content based on sports articles". Then, in this embodiment, the user is assumed to be a fan of a team (or a fan of a specific athlete) in a specific sport (for example, baseball), and a summary reflecting the interests and tastes of the user is generated. Take the scene as an example.

一方で、実施形態に係る要約生成処理は、スポーツ記事に限定されず、例えば、ニュース記事、ブログなど如何なる記事にも適用可能である。また、実施形態に係る要約生成処理は、記事に限定されず、例えば、メールコンテンツ(メール本文の要約)や書籍(書籍本文の要約)にも適用可能である。 On the other hand, the summary generation process according to the embodiment is not limited to sports articles, and can be applied to any articles such as news articles and blogs. Further, the summary generating process according to the embodiment is not limited to articles, and can be applied to e-mail contents (summaries of e-mail texts) and books (summaries of book texts), for example.

まず、要約生成装置100は、ユーザの興味を示すユーザ情報を取得する。例えば、要約生成装置100は、どのようなこと(人、もの、イベント、仕事など)に興味があるか、自身にとってどのようなことが重要であるか、どのようなものが好きであるか、といった、興味に関する情報を示すユーザ情報の登録を受け付けることにより、ユーザの興味を示すユーザ情報を取得する。図1の例では、要約生成装置100は、ユーザU1からユーザ情報の登録を受け付けたことにより、ユーザU1からユーザU1の興味を示すユーザ情報を取得している。 First, the summary generation device 100 acquires user information indicating the user's interest. For example, the summary generation device 100 can determine what kind of things (people, things, events, jobs, etc.) it is interested in, what things are important to it, what things it likes, User information indicating the user's interest is acquired by receiving registration of user information indicating information about the interest. In the example of FIG. 1, the summary generating apparatus 100 acquires user information indicating the interest of the user U1 from the user U1 by accepting registration of user information from the user U1.

具体的には、図1の例では、要約生成装置100は、「チームTa」のファン(「チームTa」に興味がある、あるいは、「チームTa」が好き)といったユーザ情報をユーザU1から取得している。また、図1の例では、要約生成装置100は、「PY1選手」のファン(「PY1選手」に興味がある、あるいは、「PY1選手」が好き)といったユーザ情報をユーザU1から取得している。 Specifically, in the example of FIG. 1, the summary generation device 100 acquires user information such as fans of "team Ta" (interested in "team Ta" or likes "team Ta") from user U1. is doing. In addition, in the example of FIG. 1, the summary generation device 100 acquires user information such as fans of "PY1 player" (interested in "PY1 player" or likes "PY1 player") from user U1. .

なお、要約生成装置100は、ユーザ登録によりユーザ情報を取得するのではなく、ユーザの行動を示す行動情報(例えば、ユーザの位置情報、ユーザの購買履歴、ユーザの閲覧履歴)などから、ユーザの興味を推定し、推定した情報をユーザの興味を示すユーザ情報として取得してもよい。また、このような推定ができるよう、要約生成装置100は、ユーザの行動情報(行動履歴)が記憶される記憶部(不図示)を有してもよいし、所定の外部サーバから行動情報を取得してもよい。 Note that the summary generating apparatus 100 does not acquire user information through user registration, but rather uses behavior information indicating user behavior (for example, user location information, user purchase history, user browsing history), etc. to obtain user information. An interest may be estimated and the estimated information may be acquired as user information indicating the user's interest. Further, in order to make such an estimation, the summary generating apparatus 100 may have a storage unit (not shown) in which user behavior information (behavior history) is stored. may be obtained.

次に、要約生成装置100は、処理対象のコンテンツを取得する。例えば、要約生成装置100は、処理対象のコンテンツとして、所定期間(例えば、過去1ヶ月分)の記事コンテンツ群を取得する。例えば、「チームTa」が野球チームであり、「PY1選手」が野球選手であるとすると、要約生成装置100は、野球に関する記事が掲載されたスポーツ記事コンテンツのコンテンツ群を取得する。また、要約生成装置100は、所定期間の新聞記事を取得してもよいし、インターネット配信された所定期間分のウェブコンテンツを取得してもよい。図1の例では、要約生成装置100は、このような処理対象のコンテンツを、外部サーバSVから取得している。 Next, the summary generation device 100 acquires the content to be processed. For example, the summary generating apparatus 100 acquires an article content group for a predetermined period (for example, past one month) as content to be processed. For example, if “team Ta” is a baseball team and “PY1 player” is a baseball player, the summary generation device 100 acquires a content group of sports article content in which articles about baseball are published. Further, the summary generating apparatus 100 may acquire newspaper articles for a predetermined period of time, or may acquire web content distributed over the Internet for a predetermined period of time. In the example of FIG. 1, the summary generation device 100 acquires such content to be processed from the external server SV.

なお、要約生成装置100が、どこから処理対象のコンテンツを取得するかは任意であってよい。例えば、ユーザが所定期間分のメール本文(処理対象のコンテンツの一例)の要約を希望する場合、要約生成装置100は、この所定期間分のメール本文を示す文章情報を登録をユーザから受け付けてもよい。また、ユーザが所定期間分のメール本文(処理対象のコンテンツの一例)の要約を希望する場合、要約生成装置100は、この所定期間分のメール本文を示す文章情報を所定のメールサーバから取得してもよい。 Note that it may be arbitrary where the summary generation device 100 acquires the content to be processed. For example, when the user desires a summary of mail texts (an example of content to be processed) for a predetermined period, the summary generating apparatus 100 may accept registration of text information indicating the mail texts for the predetermined period from the user. good. Further, when the user desires a summary of the mail text for a predetermined period (an example of the content to be processed), the summary generating apparatus 100 acquires text information indicating the mail text for the predetermined period from a predetermined mail server. may

このようにして、要約生成装置100は、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得すると、実施形態に係る要約生成処理を開始する。まず、要約生成装置100は、ユーザU1のユーザ情報に基づいて、取得した記事コンテンツ群の中から、ユーザU1の興味に関する記事コンテンツを取得することにより、処理対象のコンテンツの絞り込みを行う(ステップS1)。例えば、要約生成装置100は、記事コンテンツ群の中から、ユーザU1の興味の対象に関する記事コンテンツを取得する。図1の例によると、ユーザU1の興味の対象は、「チームTa」および「PY1選手」である。また、「チームTa」および「PY1選手」は、ともに固有名詞である。 In this way, the summary generation device 100 starts the summary generation process according to the embodiment after acquiring the user information indicating the user's interest and the content to be processed. First, based on the user information of user U1, summary generating apparatus 100 acquires article content related to user U1's interest from among the acquired article content group, thereby narrowing down the content to be processed (step S1). ). For example, the summary generation device 100 acquires article content related to user U1's interest from the article content group. According to the example of FIG. 1, user U1's interests are "team Ta" and "player PY1". Also, "team Ta" and "PY1 players" are both proper nouns.

したがって、要約生成装置100は、記事コンテンツ群の中から、「チームTa」および「PY1選手」に関する記事コンテンツを取得する。例えば、要約生成装置100は、記事コンテンツ群の中から、ヘッドライン(見出し)あるいは本文に、「チームTa」および「PY1選手」を含む記事コンテンツを取得する。図1では簡単な例として、要約生成装置100は、1つの記事コンテンツである記事コンテンツC1を取得したものとする。よってこの時点で、処理対象のコンテンツは、記事コンテンツC1に絞り込まれることになる。なお、興味の対象が固有名詞ではなく例えば一般用語であると判定される場合、要約生成装置100は、判定した一般用語に最も近しい固有名詞を推定してもよいし、固有名詞を登録するようユーザに警告してもよい。 Therefore, the summary generating device 100 acquires the article content regarding "team Ta" and "PY1 player" from the article content group. For example, the summary generation device 100 acquires article content including "team Ta" and "PY1 player" in the headline (heading) or text from the article content group. As a simple example in FIG. 1, it is assumed that the summary generating apparatus 100 acquires article content C1, which is one piece of article content. Therefore, at this point, the content to be processed is narrowed down to the article content C1. Note that when it is determined that the target of interest is not a proper noun but a general term, for example, the summary generating apparatus 100 may estimate a proper noun closest to the determined general term, or register the proper noun. User may be warned.

また、後に示すが、記事コンテンツC1には、本文を形成する複数の文章が含まれているが、要約するうえで不必要な情報も含まれる(例えば、写真など)。このため、次に、要約生成装置100は、記事コンテンツC1に対してクレンジング処理(データクレンジング)を行うことにより、記事コンテンツC1から不必要な情報を除去する(ステップS2)。要約生成装置100は、このようなクレンジング処理として、任意の従来技術を採用することができる。 Also, as will be described later, the article content C1 includes a plurality of sentences forming the text, but also includes information unnecessary for summarizing (for example, photographs). Therefore, next, the summary generating apparatus 100 removes unnecessary information from the article content C1 by performing cleansing processing (data cleansing) on the article content C1 (step S2). The summary generator 100 can employ any conventional technique for such cleansing processing.

次に、要約生成装置100は、記事コンテンツC1に含まれる文章に対して、固有名詞のマージを行う(ステップS3)。ここで、人物「PY1」を例に挙げると、記事コンテンツC1中では、「PY1」という人物が様々な表現で表記される場合がある。例えば、記事コンテンツC1中のある文章の主語では「チームTaのPY1選手」と表記される一方で、記事コンテンツC1中の別の文章の主語では「PY1選手」と表記される場合がある。また、「PY1選手」は、ファンからは特定のあだ名で呼ばれている場合、記事コンテンツC1中のある文章の主語では、このあだ名が用いられる場合がある。 Next, the summary generation device 100 merges proper nouns for sentences included in the article content C1 (step S3). Here, taking the person “PY1” as an example, the person “PY1” may be described in various expressions in the article content C1. For example, the subject of one sentence in the article content C1 may be written as "PY1 player of team Ta", while the subject of another sentence in the article content C1 may be written as "PY1 player". In addition, when "PY1 player" is called by a specific nickname by fans, this nickname may be used in the subject of a certain sentence in the article content C1.

このように、「PY1」という人物は、複数の異なる表現で表記される場合があるが、全て一人の人物に名寄せすることができる。例えば、「チームTaのPY1選手」、および、「PY1選手」は、一人の人物「PY1」に名寄せすることができる。すなわち、「チームTaのPY1選手」、および、「PY1選手」は、ともに一人の人物「PY1」を指すという点で表現は異なるが同義である。 In this way, the person "PY1" may be described by a plurality of different expressions, but all of them can be grouped into one person. For example, "PY1 player of team Ta" and "PY1 player" can be merged into one person "PY1". In other words, "PY1 player of team Ta" and "PY1 player" are synonymous, although the expressions are different in that they both refer to one person "PY1".

このようなことから、要約生成装置100は、ユーザU1の興味の対象を示す固有名詞が、異なる複数の固有名詞で表記される場合があるような固有名詞であるか否かを判定する。そして、要約生成装置100は、異なる複数の固有名詞で表記される場合があると判定した場合、記事コンテンツC1に含まれる文章のうち、これら複数の固有名詞それぞれを主語とする文章を特定する。そして、要約生成装置100は、特定した文章の主語に対して、異なる複数の固有名詞に対する最も正式な固有名詞(例えば、本名)をマージする。図1の例では、要約生成装置100は、「チームTaのPY1選手」を主語とする文章において、この主語に対して「PY1」をマージする。また、図1の例では、要約生成装置100は、「PY1選手」を主語とする文章において、この主語に対して「PY1」をマージする。 For this reason, the summary generating apparatus 100 determines whether or not the proper noun indicating the target of user U1's interest is a proper noun that may be written with a plurality of different proper nouns. Then, when determining that there is a case where the summary generating device 100 is described by a plurality of different proper nouns, the summary generating device 100 identifies sentences having each of the plurality of proper nouns as a subject among the sentences included in the article content C1. Then, the summary generation device 100 merges the most formal proper nouns (for example, real names) with respect to a plurality of different proper nouns for the specified subject of the sentence. In the example of FIG. 1, the summary generation device 100 merges "PY1" into the subject of a sentence having "PY1 player of team Ta" as the subject. In addition, in the example of FIG. 1, the summary generation device 100 merges "PY1" into the subject of a sentence having "PY1 player" as the subject.

なお、ユーザの興味の対象を示す固有名詞は他にどのような表現で表記されることがあるか、また、ユーザの興味の対象を示す固有名詞を含め表現の異なる複数の固有名詞であって、同義の固有名詞は、どのような固有名詞に統一することができるかという情報は、専用の固有名詞辞書に示される。このため、要約生成装置100は、この固有名詞辞書と、ユーザの興味の対象を示す固有名詞とを比較することで、正式な固有名詞のマージを行うことができる。また、要約生成装置100は、このような固有名詞のマージを行うことで、本来であれば、ユーザの興味の対象が話題となっている文章であるにも拘らず、この文章が要約対象から除外されてしまうことを防止することができる。この結果、要約生成装置100は、ユーザの趣向が効果的に反映された要約文を生成することができる。 In addition, what other expressions may be used for proper nouns that indicate the object of interest of the user? Information about what kind of proper nouns can be unified from synonymous proper nouns is shown in a dedicated proper noun dictionary. Therefore, the summary generating apparatus 100 can formally merge proper nouns by comparing this proper noun dictionary with proper nouns that indicate objects of interest to the user. In addition, by performing such merging of proper nouns, the summary generating apparatus 100 makes it possible for the user's interest in the sentence to be a topic. You can prevent being excluded. As a result, the summary generating apparatus 100 can generate a summary that effectively reflects the user's preferences.

次に、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章に対して、主語を推定する(ステップS4)。日本語の文章では、文脈から明らかに主語を見分けることが可能な場合、あえて主語を省略した文章が用いられることがある。この場合、省略されている主語は「暗黙の主語」などと呼ばれる。ステップS4では、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章に対して、この暗黙の主語を推定する。 Next, the summary generation device 100 estimates the subject of sentences that do not contain the subject among the sentences included in the article content C1 (step S4). In Japanese sentences, sentences that omit the subject are sometimes used when the subject can be clearly identified from the context. In this case, the omitted subject is called the ``implicit subject''. In step S4, the summary generation device 100 estimates this implicit subject for sentences that do not contain a subject among the sentences included in the article content C1.

例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章が存在するか否かを判定し、主語が含まれない文章を判定できた場合には、この文章について暗黙の主語を推定する。例えば、要約生成装置100は、主語が含まれない文章を判定できた場合には、この文章よりも前の文章の主語(固有名詞マージ後の主語)に基づいて、暗黙の主語を推定する。そして、このような暗黙の主語の推定により、ユーザの興味の対象が話題となっている文章であるにも拘らず、この文章が要約対象から除外されてしまうことを防止することができる。 For example, the summary generating apparatus 100 determines whether or not there is a sentence that does not contain a subject among the sentences included in the article content C1. Infer the implicit subject of For example, when the summary generating apparatus 100 can determine a sentence that does not contain a subject, it estimates the implicit subject based on the subject of the sentence preceding this sentence (the subject after proper noun merging). Such tacit estimation of the subject makes it possible to prevent the text from being excluded from the summary target even though the target of the user's interest is the topical text.

次に、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ユーザU1の興味の対象が話題となっている文章である対象文を抽出する(ステップS5)。例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ユーザU1の興味の対象を主語とする文章を対象文として抽出する。例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ステップS3で固有名詞のマージを行った文章を対象文として抽出する。また、例えば、要約生成装置100は、ステップS4で暗黙の主語が推定された文章のうち、ステップS3でマージされた固有名詞が暗黙の主語として推定された文章を対象文として抽出する。 Next, the summary generation device 100 extracts, from among the sentences included in the article content C1, a target sentence, which is a sentence in which the target of user U1's interest is a topic (step S5). For example, the summary generation device 100 extracts sentences whose subject is the object of interest of the user U1 as target sentences from sentences included in the article content C1. For example, the summary generation device 100 extracts, as target sentences, sentences in which proper nouns have been merged in step S3 from sentences included in the article content C1. Further, for example, the summary generation device 100 extracts, as target sentences, sentences in which the merged proper noun is estimated as the implicit subject in step S3 from the sentences in which the implicit subject was estimated in step S4.

次に、要約生成装置100は、任意のアルゴリズムに従って、対象文に対して構文解析を行うことで、対象文の木構造を得る(ステップS6)。係る木構造は、構文解析による解析結果である。また、係る木構造は、対象文を構成する文節をノードとする木構造である。木構造の一例については図3で説明する。 Next, the summary generation device 100 obtains the tree structure of the target sentence by parsing the target sentence according to an arbitrary algorithm (step S6). Such a tree structure is the result of syntactic analysis. Moreover, such a tree structure is a tree structure whose nodes are clauses that form the target sentence. An example of the tree structure will be described with reference to FIG.

また、要約生成装置100は、木構造に含まれる文節(ノード)に基づいて、記事コンテンツC1の内容が要約された要約文を生成する(ステップS7)。例えば、要約生成装置100は、木構造に沿って、文節から分岐する分岐数が所定数以下となるように、文節をつなぐことで、記事コンテンツC1の内容が要約された要約文を生成する。 The summary generation device 100 also generates a summary sentence summarizing the content of the article content C1 based on the clauses (nodes) included in the tree structure (step S7). For example, the summary generation device 100 generates a summary sentence summarizing the content of the article content C1 by connecting clauses along the tree structure so that the number of branches from the clause is equal to or less than a predetermined number.

ここで、話題や記事が、個人にとってポジティブな印象を与えるか(すなわち、肯定的な感情に変化させるか)、ネガティブな印象を与えるか(すなわち、否定的な感情に変化させるか)は、各個人の興味や嗜好性(好み)に大きく依存する。例えば、あるチームが勝利した記事は、そのチームのファンに対してはポジティブ感情にさせる記事であるが、相手チームのファンに対してはネガティブ感情にさせる記事となる。 Here, whether a topic or article gives a positive impression (that is, changes to positive emotions) or a negative impression (that is, changes to negative emotions) to an individual depends on each individual. Much depends on individual interests and tastes (preferences). For example, an article about a team winning is an article that makes the fans of that team feel positive, but it makes the fans of the opposing team feel negative.

より詳細な一例を挙げる。例えば、「チームTa」が勝利した記事は、「チームTa」のファンに対してポジティブ感情にさせ、また、「チームTa」が敗北した記事は、アンチ「チームTa」に対してポジティブ感情にさせる。一方、「チームTa」が敗北した記事は、「チームTa」のファンに対してネガティブ感情にさせ、また、「チームTa」が勝利した記事は、アンチ「チームTa」に対してネガティブ感情にさせる。 A more detailed example is given. For example, an article about "Team Ta" winning causes positive feelings toward fans of "Team Ta", and an article about "Team Ta" losing causes positive feelings toward anti-"Team Ta". . On the other hand, an article about "team Ta" being defeated makes fans of "team Ta" feel negative feelings, and an article about "team Ta" winning makes people feel negative feelings about anti-"team Ta". .

このようなことから、ユーザに提供される情報が、そのユーザに対してポジティブな感情を与えるか、あるいは、ネガティブな感情を与えるかを効果的に判定することができれば、将来的に次のようなことが可能となると考えられる。例えば、ユーザに提供される情報を、ポジティブ感情になる情報、ネガティブ感情になる情報とに分類することができるようになり、これによりユーザは、ポジティブ感情になる情報、すなわち自身にとってより重要度の高い情報のみを容易に見分けることができるようになる。また、個人適応型対話型パーソナルエージェントシステムにおいて、より個人に適応した対話を実現することが可能となる。 For this reason, if it is possible to effectively determine whether the information provided to the user gives the user a positive or negative feeling, the following will be possible in the future. is considered possible. For example, the information provided to the user can be classified into information that causes positive emotions and information that causes negative emotions. It becomes possible to easily distinguish only high-level information. In addition, in an individual-adaptive interactive personal agent system, it becomes possible to realize a dialogue that is more individualized.

このような前提のもと、要約生成装置100は、ユーザU1の興味の対象に対するユーザU1の嗜好性に基づいて、感情の種別(ポジティブ感情、ネガティブ感情)ごとに、ステップS7で生成した要約文の内容に対する感情の度合いを示す感情値を推定する(ステップS8)。例えば、要約生成装置100は、ユーザU1の嗜好性に基づいて、ステップS7で生成した要約文の内容に対する、ポジティブ感情を示す感情値、および、ネガティブ感情を示す感情値をそれぞれ推定する。以下、ポジティブ感情を示す感情値、および、ネガティブ感情を示す感情値を「PN値」と略表記する場合がある。 Based on this premise, the summary generating apparatus 100 generates the summary sentence generated in step S7 for each type of emotion (positive emotion, negative emotion) based on user U1's preference for the object of interest of user U1. An emotion value indicating the degree of emotion for the content of is estimated (step S8). For example, based on user U1's preferences, summary generating apparatus 100 estimates an emotion value indicating positive emotion and an emotion value indicating negative emotion for the content of the abstract generated in step S7. Hereinafter, an emotion value indicating a positive emotion and an emotion value indicating a negative emotion may be abbreviated as "PN value".

また、要約生成装置100は、どのような表現の文章がユーザに対してどれほどポジティブにさせるか、どれほどネガティブにさせるかといった、文章とPN値との関係性が学習されたモデルを用いて、今回の要約文の内容に対するPN値を推定するが、この詳細については後述する。 In addition, the summary generating apparatus 100 uses a model that has learned the relationship between the sentence and the PN value, such as what kind of expression the sentence makes the user feel positive or negative. The PN value for the content of the abstract is estimated, the details of which will be described later.

そして、要約生成装置100は、ユーザU1に対して、PN値付きの要約文を出力する(ステップS9)。例えば、要約生成装置100は、PN値付きの要約文がユーザU1の端末装置に表示されるよう、PN値付きの要約文を係る端末装置に送信する。 Then, the summary generation device 100 outputs a summary sentence with a PN value to the user U1 (step S9). For example, the summary generating apparatus 100 transmits the PN-added summary to the terminal device of the user U1 so that the PN-added summary is displayed on the terminal device.

さて、これまで図1を用いて説明してきたように、要約生成装置100は、実施形態に係る要約生成プログラムに従って、ユーザの興味を示すユーザ情報、および、処理対象のコンテンツを取得し、取得した処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。そして、要約生成装置100は、抽出した対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。 Now, as has been described with reference to FIG. 1, the summary generation device 100 acquires user information indicating the user's interest and content to be processed according to the summary generation program according to the embodiment. Among the sentences included in the content to be processed, a target sentence that is a topic of interest indicated by the user information is extracted. Then, based on the extracted target sentence, the summary generating apparatus 100 generates a summary sentence that summarizes the contents of the content to be processed.

これにより、実施形態に係る要約生成プログラムは、ユーザの趣向が反映された要約文を生成することができる。この結果、実施形態に係る要約生成プログラムは、ユーザに対する興味を効果的に高めることができる要約文を生成することができるようになる。 As a result, the summary generation program according to the embodiment can generate a summary that reflects the user's preferences. As a result, the summary generation program according to the embodiment can generate summary sentences that can effectively increase the user's interest.

〔4.要約生成処理の一例〕
ここからは、図2を用いて、実施形態に係る要約生成装置100によって行われる要約生成処理の一例について説明する。具体的には、図2では、記事コンテンツC1に含まれる文章の具体例を用いて、図1で示した流れに応じた要約生成処理の一例を示す。なお、図1と重複する説明については、簡略化または省略する。また、図2に示すステップ番号(S1など)は、図1に示すステップ番号に対応する。
[4. Example of summary generation processing]
From here, an example of a summary generation process performed by the summary generation device 100 according to the embodiment will be described with reference to FIG. 2 . Specifically, FIG. 2 shows an example of a summary generation process according to the flow shown in FIG. 1 using a specific example of sentences included in article content C1. Note that explanations overlapping those in FIG. 1 are simplified or omitted. Also, the step numbers (such as S1) shown in FIG. 2 correspond to the step numbers shown in FIG.

まず、図2(a)には、記事コンテンツC1に含まれる文章であって、処理が加えられてない文章である原文が示されている。図2(a)に示すように、記事コンテンツC1は、原文の状態では、文章CSN11、文章CSN12、文章CSN13、文章CSN14および文章CSN15を含む。 First, FIG. 2(a) shows the original text, which is the text included in the article content C1 and has not been processed. As shown in FIG. 2(a), article content C1 includes text CSN11, text CSN12, text CSN13, text CSN14 and text CSN15 in the original state.

このような状態において、要約生成装置100は、原文に対してクレンジング処理を行う(ステップS2)。クレンジング処理により文章CSN15が除外され、この結果、クレンジング後の記事コンテンツC1は、図2(b)のようになる。 In such a state, the summary generation device 100 performs cleansing processing on the original text (step S2). The text CSN15 is excluded by the cleansing process, and as a result, the article content C1 after cleansing becomes as shown in FIG. 2(b).

次に、要約生成装置100は、図2(b)の状態において、固有名詞のマージを行う(ステップS3)。ここで、ユーザU1の興味の対象は、例えば、「PY1」という人物であるが、文章CSN11では、主語に「チームTaのPY1選手」が用いられ、また、文章CSN13では、主語に「PY1選手」が用いられている。そして、「チームTaのPY1選手」、および、「PY1選手」は、ともに一人の人物「PY1」を指すという点で表現は異なるが同義である。このようなことから、「チームTaのPY1選手」、および、「PY1選手」は、ユーザU1の興味の対象である人物「PY1」に統一させることができる。 Next, the summary generator 100 merges proper nouns in the state of FIG. 2(b) (step S3). Here, the target of user U1's interest is, for example, the person "PY1". ” is used. In addition, "PY1 player of team Ta" and "PY1 player" are synonymous, although the expressions are different in that both refer to one person "PY1". For this reason, "PY1 player of team Ta" and "PY1 player" can be unified into the person "PY1" who is the target of user U1's interest.

したがって、要約生成装置100は、「チームTaのPY1選手」、および、「PY1選手」それぞれに対して、固有名詞「PY1」をマージする。この結果、マージ後の記事コンテンツC1は、図2(c)のようになる。 Therefore, the summary generation device 100 merges the proper noun "PY1" with respect to each of "PY1 player of team Ta" and "PY1 player". As a result, the merged article content C1 becomes as shown in FIG. 2(c).

次に、要約生成装置100は、図2(c)の状態において、記事コンテンツC1に含まれる文章のうち、主語が含まれない文章が存在するか否かを判定し、主語が含まれない文章を判定できた場合には、この文章について暗黙の主語を推定する。図2(c)の状態では、要約生成装置100は、主語が含まれない文章として、文章CSN12を判定し、文章CSN12について暗黙の主語を推定する。係る例では、要約生成装置100は、文章CSN12よりも前の文章の主語(固有名詞マージ後の主語)に基づいて、暗黙の主語「PY1」を推定する。また、要約生成装置100は、推定した暗黙の主語を文章CSN12に挿入する。この結果、暗黙の主語推定後の記事コンテンツC1は、図2(d)のようになる。このように、文章CSN12の主語(暗黙の主語)は、ユーザU1の興味の対象を示す固有名詞であり、ステップS4でマージされた固有名詞に対応する。 Next, in the state of FIG. 2(c), the summary generation device 100 determines whether or not there is a sentence that does not contain a subject among the sentences included in the article content C1, and can be determined, the implicit subject of this sentence is inferred. In the state of FIG. 2(c), the summary generation device 100 determines the sentence CSN12 as a sentence containing no subject, and estimates the implicit subject of the sentence CSN12. In such an example, the summary generation device 100 estimates the implicit subject "PY1" based on the subject of the sentence before the sentence CSN12 (the subject after proper noun merging). Also, the summary generator 100 inserts the estimated implicit subject into the sentence CSN12. As a result, the article content C1 after implicit subject estimation is as shown in FIG. 2(d). Thus, the subject (implicit subject) of sentence CSN12 is a proper noun indicating the object of interest of user U1, and corresponds to the proper noun merged in step S4.

また、要約生成装置100は、図2(d)の状態において、記事コンテンツC1に含まれる文章のうち、ユーザU1の興味の対象を主語とする文章を対象文として抽出する(ステップS5)。例えば、要約生成装置100は、記事コンテンツC1に含まれる文章のうち、ステップS3で固有名詞のマージを行った文章を対象文として抽出する。また、例えば、要約生成装置100は、ステップS4で暗黙の主語が推定された文章のうち、ステップS3でマージされた固有名詞が暗黙の主語として推定された文章を対象文として抽出する。 In addition, in the state of FIG. 2D, the summary generating device 100 extracts, as target sentences, sentences whose subject is the target of user U1's interest, among the sentences included in the article content C1 (step S5). For example, the summary generation device 100 extracts, as target sentences, sentences in which proper nouns have been merged in step S3 from sentences included in the article content C1. Further, for example, the summary generation device 100 extracts, as target sentences, sentences in which the merged proper noun is estimated as the implicit subject in step S3 from the sentences in which the implicit subject was estimated in step S4.

要約生成装置100は、文章CSN11、文章CSM12、文章CSN13の全てを抽出してもよいし、いずれかを抽出してもよい。例えば、暗黙の主語が推定された文章を抽出するよう予めルール設定されているとすると、要約生成装置100は、図2(e)に示されるように、文章CSN11、文章CSM12、文章CSN13のうち、文章CSM12を対象文として抽出する。 The summary generation device 100 may extract all of the text CSN11, the text CSM12, and the text CSN13, or may extract any one of them. For example, assuming that a rule has been set in advance to extract sentences in which an implicit subject is estimated, the summary generation device 100 extracts sentences CSN11, CSM12, and CSN13, as shown in FIG. 2(e). , the sentence CSM12 is extracted as a target sentence.

次に、要約生成装置100は、任意のアルゴリズムに従って、対象文である文章CSN12に対して構文解析を行うことで、文章CSN12の木構造を得る(ステップS6)。文章CSN12に対応する木構造の一例、および、この木構造を用いた要約生成処理の一例については図3で説明する。 Next, the summary generation device 100 obtains the tree structure of the sentence CSN12 by parsing the sentence CSN12, which is the target sentence, according to an arbitrary algorithm (step S6). An example of a tree structure corresponding to the text CSN12 and an example of summary generation processing using this tree structure will be described with reference to FIG.

図3は、木構造を用いた要約生成処理の一例を示す図である。図3の例によると、要約生成装置100は、対象文である文章CSN12に対する構文解析により、ch00~ch14といった15の文節(チャンク)をノードする木構造を得る。図3の例では、文節ch00は「同点の」に対応し、文節ch01は「6回には」に対応し、文節ch02は「勝ち越しの」に対応し、文節ch03は「左翼線適時二塁打を」に対応し、文節ch04は「放ったが」に対応し、文節ch14は「交代した」に対応する。その他の文節についても図3に示す通りであるため説明を省略する。 FIG. 3 is a diagram showing an example of summary generation processing using a tree structure. According to the example of FIG. 3, the summary generating apparatus 100 obtains a tree structure in which 15 clauses (chunks) such as ch00 to ch14 are nodes by parsing the target sentence CSN12. In the example of FIG. 3, the clause ch00 corresponds to "tying", the clause ch01 corresponds to "in the sixth inning", the clause ch02 corresponds to "going ahead", and the clause ch03 corresponds to "double on the left wing line." , the clause ch04 corresponds to ``hattaga'', and the clause ch14 corresponds to ``changed''. Since the other clauses are also as shown in FIG. 3, description thereof will be omitted.

また、本実施形態では、文節から分岐する分岐数に応じて、木構造に対応する文章を分類することができる。例えば、分岐のないシンプルな文章を1型、分岐数が2つの文章を2型、分岐数が3つの文章を3型、分岐数が3より多く複雑な分岐を有する文章をnxm型と定義することができる。このようなルールに従うと、図3に示す木構造に対応する文章(文章CSN12)について、2-3-3-3型と定義することができる。具体的には、図3に示す木構造は、文節ch04で「2」つに分岐し、文節ch08で「3」つに分岐し、文節ch12で「3」つに分岐し、文節ch14で「3」つに分岐している。このため、木構造に対応する文章(文章CSN12)について、2-3-3-3型と定義することができる。 In addition, in this embodiment, sentences corresponding to a tree structure can be classified according to the number of branches branching from clauses. For example, a simple sentence without branches is defined as type 1, a sentence with two branches is type 2, a sentence with three branches is type 3, and a sentence with more than three branches and a complex branch is defined as nxm type. be able to. According to such rules, the text corresponding to the tree structure shown in FIG. 3 (text CSN12) can be defined as 2-3-3-3 type. Specifically, the tree structure shown in FIG. 3 branches into "2" at clause ch04, "3" at clause ch08, "3" at clause ch12, and " 3" branched. Therefore, the text corresponding to the tree structure (text CSN12) can be defined as 2-3-3-3 type.

このような状態において、要約生成装置100は、ユーザU1の興味の対象や、この興味の対象に対するユーザU1の嗜好性に応じた単語を含む文節を選定する。そして、要約生成装置100は、木構造に沿って、文節から分岐する分岐数が所定数以下となるように、選定した文節をつなぐことで、記事コンテンツC1の内容が要約された要約文を生成する。 In such a state, the summary generating apparatus 100 selects phrases that include words that match the interest of the user U1 and the user U1's preference for the interest. Then, the summary generation device 100 connects the selected clauses along the tree structure so that the number of branches branching from the clause is equal to or less than a predetermined number, thereby generating a summary sentence summarizing the contents of the article content C1. do.

文節の選定手法について説明する。例えば、要約生成装置100は、木構造に含まれる文節のうち、ユーザU1の興味の対象に対するユーザU1の嗜好性に応じてユーザU1の感情の変動に影響すると推測される単語を含む文節を選定する。これまでの例によると、ユーザU1の興味の対象は「チームTa」および「PY1」である。また、ユーザU1はこれらのファンであるため、「チームTa」および「PY1」を好んでいる(重要視している、興味がある)。このようなことから、「チームTa」の勝敗、「チームTa」や「PY1」に関する各種成績(ヒット数、本塁打数、決勝リーグへの進出可否など)は、ユーザU1の感情をポジティブ感情、あるいは、ネガティブ感情に変えさせる大きな要因となり得る。したがって、要約生成装置100は、「チームTa」の勝敗、「チームTa」や「PY1」に関する各種成績を示す単語を含む文節を選定する。 A method for selecting clauses will be explained. For example, the summary generation device 100 selects, from among the clauses included in the tree structure, clauses containing words that are presumed to affect changes in user U1's emotions according to user U1's preference for an object of user U1's interest. do. According to the example so far, user U1's interests are "Team Ta" and "PY1". In addition, since user U1 is a fan of these, he likes (emphasizes, is interested in) "Team Ta" and "PY1". For this reason, the win or loss of "team Ta", various results (number of hits, number of home runs, progress to the final league, etc.) regarding "team Ta" and "PY1" can be expressed as positive emotions, or , can be a major factor in changing to negative emotions. Therefore, the summary generating apparatus 100 selects phrases containing words indicating the win or loss of "team Ta" and various results regarding "team Ta" and "PY1".

なお、「チームTa」が野球チームであり、「PY1選手」が野球選手であるとすると、ユーザU1は野球自体を好むともいえる。そして、野球を好むユーザ全般にとっては、試合結果や選手成績を示す数情報などは、重要な情報であり、これによりポジティブ感情になることもあれば、ネガティブ感情になることもある。したがって、このような観点から、要約生成装置100は、試合結果や各種成績を示す単語を含む文節を選定してもよい。 Note that if "team Ta" is a baseball team and "PY1 player" is a baseball player, it can be said that user U1 likes baseball itself. For users who like baseball in general, numerical information indicating match results and player performance is important information, and this may cause positive emotions or negative emotions. Therefore, from this point of view, the summary generating apparatus 100 may select phrases containing words indicating match results and various achievements.

また、要約生成装置100は、カテゴリ(例えば、スポーツカテゴリなど)ごとに、当該カテゴリで重要視される情報(スポーツカテゴリであれば結果や成績など)が定義されたルール一覧を有しておき、この一覧を参照してルールベースで文節を選定してもよい。 In addition, the summary generation device 100 has a rule list in which information considered important in the category (for example, results and achievements in the case of sports category) is defined for each category (for example, sports category), The clause may be selected on a rule basis by referring to this list.

また、要約生成装置100は、木構造に含まれる文節のうち、興味の対象に対するユーザU1の嗜好性に応じてユーザの感情の度合いを示す感情値を変動させると推測される単語を含む文節を選定してもよい。ここでいう感情値とは、ポジティブ感情を示す感情値、および、ネガティブ感情を示す感情値、すなわち「PN値」である。例えば、分岐のないシンプルな文章すなわち1型の文章となるように文節を組み合わせてできる各要約文を、PN値を出力するモデル(文章とPN値との関係性が学習されたモデル)に入力する。そして、要約生成装置100は、出力されたPN値が所定値より大きくなる要約文を構成する文節を選定する。例えば、要約生成装置100は、ポジティブ感情を示す感情値、または、ネガティブ感情を示す感情値の少なくともいずれか一方が所定値より大きくなる要約文を構成する文節を選定する。 In addition, the summary generation device 100 selects clauses that are presumed to change the emotion value indicating the degree of the user's emotion according to the user U1's preference for the object of interest from among the clauses included in the tree structure. You may choose. The emotional value referred to here is an emotional value indicating a positive emotion and an emotional value indicating a negative emotion, that is, a "PN value". For example, each summary sentence that combines clauses to form a simple sentence without branching, that is, a sentence of type 1, is input to a model that outputs a PN value (a model that has learned the relationship between sentences and PN values). do. Then, the summary generation device 100 selects clauses forming a summary sentence whose output PN value is greater than a predetermined value. For example, the summary generating apparatus 100 selects phrases forming a summary sentence in which at least one of the emotion value indicating positive emotion and the emotion value indicating negative emotion is greater than a predetermined value.

また、要約生成装置100は、ユーザU1の感情の変動に影響すると推測される単語、あるいは、ユーザU1の感情の度合いを示す感情値を変動させると推測される単語のうち、現在時期に関連する単語を含む文節を優先的に選定してもよい。例えば、野球であればリーグ優勝が決まりだす時期(月)には、野球に関するこの時期特有のワード(例えば、優勝争いするチーム名や、本塁打争いする選手名、首位打者候補の選手名など)が検索ランキングの上位に出現することがある。したがって、要約生成装置100は、このような時期の習性(季節性)を有する単語を含む文節を優先的に抽出してもよい。なお、要約生成装置100は、カテゴリ(例えば、野球カテゴリ)ごとに、当該カテゴリではどの時期にどのワードが頻出するかが学習された辞書を有しておき、係る辞書を参照することで、時期の習性(季節性)を有する単語を特定してもよい。 In addition, the summary generating apparatus 100 selects words that are presumed to affect changes in user U1's emotion, or words that are presumed to change an emotion value indicating the degree of user U1's emotion, which are related to the current time. Clauses containing words may be preferentially selected. For example, in the case of baseball, during the month (month) when the league championship is decided, there are words specific to this period related to baseball (for example, the name of the team competing for the championship, the name of the player competing for the home run, the name of the leading hitter candidate, etc.) Appear at the top of search rankings. Therefore, the summary generating apparatus 100 may preferentially extract clauses containing words having such a seasonality (seasonality). Note that the summary generating apparatus 100 has a dictionary in which words that appear frequently in each category (for example, the baseball category) at what time period has been learned. You may identify words that have a habit (seasonality) of

また、要約生成装置100は、ユーザU1の興味の対象に関連する単語(固有名詞)であって、ユーザU1の嗜好性とより関連性の高いの高い単語を含む文節を選定してもよい。これまでの例によると、ユーザU1の興味の対象は「チームTa」および「PY1」である。また、ユーザU1はこれらのファンであるため、「チームTa」および「PY1」を好んでいる。 In addition, the summary generating apparatus 100 may select a clause containing words (proper nouns) related to the object of user U1's interest and highly related to user U1's preferences. According to the example so far, user U1's interests are "Team Ta" and "PY1". User U1 also likes "team Ta" and "PY1" because he is a fan of them.

ここで、「チームTa」を例に挙げると、要約生成装置100は、「チームTa」を好むユーザ(「チームTa」のファン)に対して、ポジティブな印象を与える単語、および、ネガティブな印象を与える単語が単語間距離に基づき分布されたポジネガマップを用いて、「チームTa」に対しての関連性が高いと推定される単語を特定する。具体的には、要約生成装置100は、ポジネガマップを参照し、「チームTa」との単語間距離が所定値以下の単語を特定することで、特定した単語を含む文節を選定する。なお、単語間距離に基づくポジネガマップの生成については図5で説明する。 Here, taking “team Ta” as an example, the summary generation device 100 generates words that give a positive impression and words that give a negative impression to users who like “team Ta” (fans of “team Ta”). Using a positive-negative map in which the words that give .theta. Specifically, the summary generating apparatus 100 refers to the positive-negative map and identifies words whose inter-word distance from "team Ta" is equal to or less than a predetermined value, thereby selecting clauses containing the identified words. The generation of the positive/negative map based on the distance between words will be described with reference to FIG.

ここまで文節の選定手法について説明してきた。要約生成装置100は、上記のように木構造から文節を選定すると、文節から分岐する分岐数が所定数以下となるように、この木構造に沿って、選定した文節をつなぐことで記事コンテンツC1の内容が要約された要約文を生成する。例えば、要約生成装置100は、文節から分岐する分岐数が「2」以下となるように、選定した文節をつなぐことで記事コンテンツC1の内容が要約された要約文を生成する。分岐数が「2」以下となる文章とは、分岐のないシンプルな1型の文章、あるいは、分岐数が2つである2型の文章である。ここでは、要約生成装置100は、選定した文節をつなぐことで1型の文章を生成し、生成した1型の文章を組み合わせて要約文とするものとする。 So far, we have explained the method of selecting phrases. After selecting clauses from the tree structure as described above, the summary generation device 100 connects the selected clauses along the tree structure so that the number of branches branching from the clauses is equal to or less than a predetermined number, thereby generating the article content C1. generates a summary sentence that summarizes the contents of For example, the summary generation device 100 generates a summary sentence summarizing the content of the article content C1 by connecting selected phrases so that the number of branches from the phrase is "2" or less. A sentence with a branch number of "2" or less is a simple type 1 sentence with no branch or a simple type 2 sentence with two branches. Here, the summary generating apparatus 100 generates a type 1 sentence by connecting selected phrases, and combines the generated type 1 sentences to form a summary sentence.

ここで、例えば、「勝ち越し」や「二塁打」という単語は、「チームTa」を興味の対象とするユーザU1に対して感情の変化を与える大きな要因となり得る単語である。また、「PY1」が「途中交代」したことを示す単語、すなわち「途中」および「交代」は、「PY1」を興味の対象とするユーザに対して感情の変化を与える大きな要因となり得る単語である。このようなことから、図3の例では、要約生成装置100は、「勝ち越し」を含む文節ch02、「二塁打」を含む文節ch03を選定したものとする。また、図3の例では、要約生成装置100は、「途中」を含む文節ch13、「交代」を含む文節ch14を選定したものとする。 Here, for example, words such as "going ahead" and "double" are words that can be a major factor in changing the emotions of user U1 who is interested in "team Ta". In addition, the words indicating that "PY1" has "changed in the middle", that is, "midway" and "change" are words that can be a major factor in changing the emotions of the user who is interested in "PY1". be. For this reason, in the example of FIG. 3, the summary generation device 100 selects the phrase ch02 including "win" and the phrase ch03 including "double hit". Also, in the example of FIG. 3, the summary generation device 100 selects the phrase ch13 including "on the way" and the phrase ch14 including "change".

係る例では、要約生成装置100は、文節ch02および文節ch03を選定したことにより、1型の文章となるようにさらに文節ch04を選定する。そして、要約生成装置100は、木構造に沿って、文節ch02、文節ch03、文節ch04、文節ch13、文節ch14をつなげることにより、1型の文章CSN121を生成する。具体的には、要約生成装置100は、対象文である文章CSN12から「勝ち越しの左翼線適時二塁打を放ったが、途中交代した。」という1型の文章CSN121を生成する。 In this example, the summary generation device 100 selects the phrase ch02 and the phrase ch03, and further selects the phrase ch04 so as to form a type 1 sentence. Then, the summary generating apparatus 100 generates a type 1 sentence CSN121 by connecting clause ch02, clause ch03, clause ch04, clause ch13, and clause ch14 along the tree structure. Specifically, the summary generating apparatus 100 generates a type 1 sentence CSN121 from sentence CSN12, which is the object sentence, "I hit a double on the winning line in a timely manner, but I was replaced midway through."

また、図3の例では、要約生成装置100は、同様の手法により、対象文である文章CSN11からは「チームTaのPY1選手が30号2ラン。」という1型の文章CSN111を生成している。また、要約生成装置100は、対象文である文章CSN13からは「PY1は「様子を見ながらです」と判断。」という1型の文章CSN131を生成している。 In addition, in the example of FIG. 3, the summary generating apparatus 100 uses the same method to generate a type 1 sentence CSN111, "Team Ta's PY1 player is No. 30 with 2 runs." there is Further, the summary generating apparatus 100 determines that "PY1 is 'waiting and seeing'" from the sentence CSN13, which is the target sentence. ' is generated as a type 1 sentence CSN131.

また、これまでの例によると、文章CSN14は対象文として抽出されていない。しかし、文章CSN14には、ユーザU1に対して感情の変化を与え得る試合結果に関する情報が含まれている。このようなことから、要約生成装置100は、文章CSN14からも1型の文章CSN141を生成している。このように、要約生成装置100は、対象文でなくともその内容によっては要約文を構成させる文章として採用してもよい。 Also, according to the examples so far, the sentence CSN14 is not extracted as a target sentence. However, the sentence CSN14 contains information about the game result that may change the user U1's emotions. For this reason, the summary generating apparatus 100 generates a type 1 text CSN141 also from the text CSN14. In this manner, the summary generation apparatus 100 may employ a sentence that is not the target sentence but is used as a sentence that constitutes a summary sentence, depending on the content of the sentence.

そして、要約生成装置100は、各1型の文章CSN111、CSN121、CSN131およびCSN141を組み合わせて、最終的に、図3に示すような要約文SM1を生成する。図3に示すように、要約文SM1は、ユーザU1の興味の対象に基づく趣向が反映された文章となっている。例えば、従来の要約技術であれば、主語を有しない文章CSN13に基づく、1型の文章CSN131を含まないような要約文が生成されてしまったり、1型の文章への変換処理がないことで要約が不十分な要約文が生成されてしまう可能性がある。しかし、実施形態に係る要約生成プログラムによれば、ユーザの趣向が反映され、かつ、まとまりのある要約文を生成させることができる。 Then, the summary generating apparatus 100 combines the sentences CSN111, CSN121, CSN131 and CSN141 of each type 1 to finally generate a summary sentence SM1 as shown in FIG. As shown in FIG. 3, the summary sentence SM1 is a sentence that reflects the preferences based on the object of interest of the user U1. For example, with the conventional summarization technique, a summary sentence that does not include the type 1 sentence CSN131 is generated based on the sentence CSN13 that does not have a subject, or there is no conversion process to a type 1 sentence. There is a possibility that an insufficiently summarized summary sentence will be generated. However, according to the summary generation program according to the embodiment, it is possible to generate a coherent summary sentence that reflects the user's taste.

〔5.要約生成装置の構成〕
次に、図4を用いて、実施形態に係る要約生成装置100について説明する。図4は、実施形態に係る要約生成装置100の構成例を示す図である。図4に示すように、要約生成装置100は、通信部110と、記憶部120と、制御部130とを有する。
[5. Configuration of summary generation device]
Next, the summary generation device 100 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram showing a configuration example of the summary generation device 100 according to the embodiment. As shown in FIG. 4, the summary generation device 100 has a communication section 110, a storage section 120, and a control section .

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、ユーザが有する端末装置との間で情報の送受信を行う。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits/receives information to/from a terminal device owned by a user, for example.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、辞書データベース121と、ユーザ情報記憶部122と、コンテンツ記憶部123と、要約情報記憶部124とを有する。
(Regarding storage unit 120)
The storage unit 120 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 has a dictionary database 121 , a user information storage unit 122 , a content storage unit 123 and a summary information storage unit 124 .

(辞書データベース121について)
辞書データベース121は、例えば、一般用語辞書、シソーラス辞書、固有名詞辞書に対応する。また、例えば、固有名詞辞書では、正式な固有名詞に対して、異なる表現の固有名詞が紐付けられている。また、要約生成装置100は、ユーザの動向に基づいて、時期に影響される用語を学習し、学習した用語とその時期とを紐付けておいてもよい。
(Regarding dictionary database 121)
The dictionary database 121 corresponds to, for example, a general term dictionary, a thesaurus dictionary, and a proper noun dictionary. Further, for example, in a proper noun dictionary, proper nouns with different expressions are associated with formal proper nouns. Further, the summary generation device 100 may learn terms that are influenced by the time period based on the user's behavior, and associate the learned terms with the time period.

(ユーザ情報記憶部122について)
ユーザ情報記憶部122は、ユーザの興味を示すユーザ情報を記憶する。例えば、後述する受付部131は、このようなユーザ情報の登録をユーザから受け付けた場合には、このユーザを識別する識別情報(ユーザID)に対して、受け付けたユーザ情報を対応付けてユーザ情報記憶部122に格納する。
(Regarding the user information storage unit 122)
The user information storage unit 122 stores user information indicating user interests. For example, when receiving registration of such user information from a user, the receiving unit 131, which will be described later, associates the received user information with identification information (user ID) that identifies this user, and registers the user information. Stored in the storage unit 122 .

(コンテンツ記憶部123について)
コンテンツ記憶部123は、処理対象のコンテンツを記憶する。例えば、後述する取得部132は、処理対象のコンテンツを取得すると、取得した処理対象のコンテンツをコンテンツ記憶部123に格納する。例えば、後述する取得部132は、受付部131により処理対象のコンテンツの登録が受け付けられた場合には、登録元のユーザを識別する識別情報(ユーザID)に対して、受け付られたコンテンツを対応付けてコンテンツ記憶部123に格納する。
(Regarding the content storage unit 123)
The content storage unit 123 stores content to be processed. For example, when the acquisition unit 132 to be described later acquires the content to be processed, it stores the acquired content to be processed in the content storage unit 123 . For example, when the reception unit 131 receives registration of content to be processed, the acquisition unit 132, which will be described later, registers the received content with respect to identification information (user ID) that identifies the user of the registration source. They are stored in the content storage unit 123 in association with each other.

(要約情報記憶部124について)
要約情報記憶部124は、処理対象のコンテンツの内容が要約された要約文を示す文章情報を記憶する。例えば、後述する生成部134は、ユーザによるユーザ情報の登録に応じて、このユーザに対して要約文を生成した場合には、このユーザを識別する識別情報(ユーザID)に対して、生成した要約文を対応付けて要約情報記憶部124に格納する。
(Regarding summary information storage unit 124)
The summary information storage unit 124 stores text information indicating a summary of the content to be processed. For example, when generating a summary sentence for a user in response to registration of user information by the user, the generation unit 134, which will be described later, generates A summary sentence is associated and stored in the summary information storage unit 124 .

なお、図4では付図示であるが、要約生成装置100は、モデルやポジネガマップを記憶する記憶部をさらに有してもよい。 Although not shown in FIG. 4, the summary generating apparatus 100 may further include a storage unit for storing models and positive/negative maps.

(制御部130について)
制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、要約生成装置100内部の記憶装置に記憶されている各種プログラム(例えば、実施形態に係る要約生成プログラム)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
The control unit 130 executes various programs (for example, a summary generation program according to the embodiment) stored in a storage device inside the summary generation device 100 by a CPU (Central Processing Unit), MPU (Micro Processing Unit), or the like. It is realized by being executed as a work area. Also, the control unit 130 is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図4に示すように、制御部130は、受付部131と、取得部132と、抽出部133と、生成部134と、推定部135と、出力部136と、第1制御部137と、第2制御部138とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 4, the control unit 130 includes a reception unit 131, an acquisition unit 132, an extraction unit 133, a generation unit 134, an estimation unit 135, an output unit 136, a first control unit 137, a 2 control unit 138, and implements or executes the information processing functions and actions described below. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 4, and may be another configuration as long as it performs information processing to be described later. Moreover, the connection relationship of each processing unit of the control unit 130 is not limited to the connection relationship shown in FIG. 4, and may be another connection relationship.

(受付部131について)
受付部131は、ユーザの興味を示すユーザ情報の登録を受け付ける。例えば、受付部131は、ユーザ操作に応じてこのユーザの端末装置から送信されたユーザ情報を受け付け、ユーザ情報を受け付けた場合には、ユーザ情報の登録を受け付けを完了させる。また、受付部131は、ユーザから処理対象のコンテンツの登録も受け付けることができる。
(Regarding the reception unit 131)
The accepting unit 131 accepts registration of user information indicating the user's interest. For example, the reception unit 131 receives user information transmitted from the user's terminal device in response to a user operation, and completes reception of user information registration when the user information is received. The reception unit 131 can also receive registration of content to be processed from the user.

(取得部132について)
取得部132は、ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する。図1の例では、取得部132は、ユーザU1に対応するユーザ情報として、「チームTa」のファン(「チームTa」に興味がある、あるいは、「チームTa」が好き)といったことを示すユーザ情報を取得している。また、図1の例では、取得部132は、ユーザU1に対応するユーザ情報として、「PY1選手」のファン(「PY1選手」に興味がある、あるいは、「PY1選手」が好き)といったことを示すユーザ情報を取得している。また、図1の例では、取得部132は、処理対象のコンテンツとして、1ヶ月分の記事コンテンツ群を取得している。また、図1の例では、取得部132は、1ヶ月分の記事コンテンツ群に対して絞り込みが行われた後では、記事コンテンツC1を処理対象のコンテンツとして取得している。
(Regarding the acquisition unit 132)
The acquisition unit 132 acquires user information indicating the user's interest and content to be processed. In the example of FIG. 1, the acquiring unit 132 obtains user information indicating that the user information corresponding to the user U1 is a fan of "team Ta" (interested in "team Ta" or likes "team Ta"). getting information. Further, in the example of FIG. 1, the acquiring unit 132 obtains, as user information corresponding to user U1, a fan of "PY1 player" (interested in "PY1 player" or likes "PY1 player"). The user information shown is acquired. Further, in the example of FIG. 1, the acquisition unit 132 acquires a group of article contents for one month as content to be processed. Further, in the example of FIG. 1, the acquiring unit 132 acquires the article content C1 as the content to be processed after narrowing down the article content group for one month.

(抽出部133について)
抽出部133は、処理対象のコンテンツに含まれる文章のうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する。例えば、抽出部133は、興味の対象として、処理対象のコンテンツに含まれる文章中の固有名詞が指し示す対象であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。
(Regarding the extraction unit 133)
The extraction unit 133 extracts a target sentence, which is a sentence in which the object of interest indicated by the user information is a topic, from sentences included in the content to be processed. For example, the extracting unit 133 extracts, as a target sentence, a sentence in which a target of interest to the user is a topic indicated by a proper noun in sentences included in the content to be processed, as a target of interest. .

より詳細には、抽出部133は、処理対象のコンテンツに含まれる文章中の異なる複数の固有名詞のうち同義の固有名詞が指し示す対象であって、ユーザが興味を有する対象が話題となっている文章を対象文として抽出する。また、抽出部133は、処理対象のコンテンツに含まれる文章のうち、主語が含まれない文章について主語を推定し、推定した主語が、上記同義の固有名詞が指し示す対象となっている文章を対象文として抽出する。 More specifically, the extracting unit 133 selects a target indicated by a synonymous proper noun among a plurality of different proper nouns in a sentence included in the content to be processed, and a target in which the user is interested. Sentences are extracted as target sentences. In addition, the extraction unit 133 estimates the subject of sentences that do not contain a subject among the sentences included in the content to be processed, and targets the sentences that the estimated subject is the object indicated by the above-mentioned synonymous proper noun. Extract as sentences.

また、このようなことから、抽出部133は、図1および図2のステップS1~ステップS5で説明したような一連の抽出処理を行う。 In addition, for this reason, the extraction unit 133 performs a series of extraction processes as described in steps S1 to S5 in FIGS. 1 and 2. FIG.

(生成部134について)
生成部134は、抽出部133により抽出された対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。例えば、生成部134は、対象文が構文解析された解析結果である木構造に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。例えば、生成部134は、対象文が構文解析された解析結果である木構造を構成するノードである文節に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。
(Regarding the generation unit 134)
Based on the target sentence extracted by the extracting unit 133, the generating unit 134 generates a summary sentence that summarizes the contents of the content to be processed. For example, the generating unit 134 generates a summary sentence that summarizes the contents of the content to be processed based on the tree structure that is the result of parsing the target sentence. For example, the generating unit 134 generates a summary sentence that summarizes the contents of the content to be processed based on clauses that are nodes constituting a tree structure that is the result of parsing the target sentence.

一例としては、生成部134は、木構造を構成する文節のうち、ユーザによる興味の対象に対するユーザの嗜好性に応じてユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。より詳細胃は、生成部134は、このような単語として、ユーザによる興味の対象に対するユーザの嗜好性に応じてユーザの感情の度合いを示す感情値を変動させると推測される単語を含む文節に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する。 As an example, the generation unit 134 may generate a tree structure based on a clause that includes a word that is presumed to affect changes in the user's emotion according to the user's preference for the target of interest of the user, among the clauses that make up the tree structure. Generate a summary sentence that summarizes the contents of the content to be processed. For more detailed information, the generation unit 134 generates clauses containing words that are presumed to change the emotional value indicating the degree of the user's emotion according to the user's preference for the object of interest of the user. Based on this, a summary sentence that summarizes the contents of the content to be processed is generated.

また、生成部134は、現在時期に関連する単語を含む文節を優先的に用いて、処理対象のコンテンツの内容が要約された要約文を生成してもよい。 In addition, the generation unit 134 may generate a summary sentence that summarizes the contents of the content to be processed, preferentially using phrases containing words related to the current time.

また、生成部134は、ユーザによる興味の対象に関連する単語であって、ユーザの嗜好性とより関連性の高いの高い単語を含む文節を優先的に用いて、処理対象のコンテンツの内容が要約された要約文を生成してもよい。 In addition, the generation unit 134 preferentially uses phrases that include words that are related to the target of interest of the user and that are highly related to the user's preference, so that the contents of the processing target content are A condensed summary sentence may be generated.

また、生成部134は、対象文が構文解析された解析結果である木構造に沿って、文節から分岐する分岐数が所定数以下となるように、選定した文節をつなぐことで、処理対象のコンテンツの内容が要約された要約文を生成する。 In addition, the generation unit 134 connects the selected clauses so that the number of branches branching from the clause is equal to or less than a predetermined number along the tree structure that is the result of syntactic analysis of the target sentence. Generate a summary sentence that summarizes the contents of the content.

また、このようなことから、生成部134は、図1のステップS6~ステップS7、そして、図3で説明したような一連の生成処理を行う。 In addition, for this reason, the generation unit 134 performs a series of generation processes as described with reference to steps S6 and S7 in FIG. 1 and FIG.

(推定部135について)
推定部135は、ユーザによる興味の対象に対するユーザの嗜好性に基づいて、感情の種別ごとに、要約文の内容に対するそれぞれの感情の度合いを示す感情値(PN値)を推定する。例えば、推定部135は、ユーザの感情の種別として、肯定的な感情(ポジティブな感情)および否定的な感情(ネガティブな感情)それぞれについて、要約文の内容に対する感情の度合いを示す感情値を推定する。
(Regarding the estimation unit 135)
The estimation unit 135 estimates an emotion value (PN value) indicating the degree of each emotion with respect to the contents of the abstract for each emotion type, based on the user's preference for the user's interest target. For example, the estimation unit 135 estimates an emotion value indicating the degree of emotion with respect to the content of the summary for each of positive emotion (positive emotion) and negative emotion (negative emotion) as the type of user's emotion. do.

また、例えば、推定部135は、固有名詞が除外された任意の文章と、当該任意の文章に対してユーザが評価した値であって、当該任意の文章の内容に対する感情の度合いを示す感情値との関係性が学習されたモデルに基づいて、要約文の内容に対する感情の度合いを示す感情値を推定する。例えば、推定部135は、このようなモデルとして、肯定的な感情および否定的な感情うち、ユーザの嗜好性と要約文の内容との関係性に応じた感情ほど高い感情値を出力するように学習されたモデルに基づいて、要約文の内容に対する感情の度合いを示す感情値を推定する。 In addition, for example, the estimation unit 135 may obtain an arbitrary sentence from which proper nouns are excluded and an emotion value indicating the degree of emotion with respect to the content of the arbitrary sentence, which is a value evaluated by the user for the arbitrary sentence. Based on the model that has learned the relationship between and, an emotion value that indicates the degree of emotion toward the content of the summary is estimated. For example, the estimating unit 135, as such a model, outputs a higher emotion value for an emotion that corresponds to the relationship between the user's preference and the content of the abstract, out of the positive emotions and the negative emotions. Based on the learned model, an emotion value indicating the degree of emotion towards the content of the summary is estimated.

(出力部136について)
出力部136は、ユーザに対して、処理対象のコンテンツの内容が要約された要約文を出力する。例えば、出力部136は、処理対象のコンテンツの内容が要約された要約文として、推定部135により推定されたPN値が付与された要約文を出力する。例えば、出力部136は、PN値付きの要約文がユーザの端末装置に表示されるよう、PN値付きの要約文を係る端末装置に送信する。
(Regarding the output unit 136)
The output unit 136 outputs a summary sentence summarizing the content to be processed to the user. For example, the output unit 136 outputs a summary sentence to which the PN value estimated by the estimation unit 135 is added as a summary sentence that summarizes the details of the content to be processed. For example, the output unit 136 transmits the PN-added summary to the terminal device of the user so that the PN-added summary is displayed on the user's terminal device.

(第1制御部137について)
第1制御部137は、任意の文章と、当該任意の文章に対してユーザが評価した値であって、当該任意の文章の内容に対する感情の度合いを示す感情値との関係性が学習されたモデルを学習する。具体的には、第1制御部137は、固有名詞が除外された任意の文章と、当該任意の文章に対してユーザが評価した値であって、当該任意の文章の内容に対する感情の度合いを示す感情値との関係性が学習されたモデルを生成する。また、ここでいう感情とは肯定的な感情(ポジティブ)感情、および、否定的な感情(ネガティブ感情)である。
(Regarding the first control unit 137)
The first control unit 137 learns the relationship between an arbitrary sentence and an emotion value, which is a value evaluated by the user for the arbitrary sentence and indicates the degree of emotion with respect to the contents of the arbitrary sentence. learn the model. Specifically, the first control unit 137 determines an arbitrary sentence from which proper nouns are excluded and a value evaluated by the user for the arbitrary sentence, and determines the degree of emotion with respect to the contents of the arbitrary sentence. Generate a model that has learned the relationship with the indicated emotional value. In addition, the emotion referred to here is a positive emotion (positive) emotion and a negative emotion (negative emotion).

また、例えば、第1制御部137は、モデルとして、肯定的な感情および否定的な感情うち、ユーザの嗜好性と要約文の内容との関係性に応じた感情ほど高い感情値を出力するようにモデルを学習する。 Further, for example, the first control unit 137, as a model, outputs a higher emotion value for the emotion corresponding to the relationship between the user's preference and the content of the summary sentence, out of the positive emotion and the negative emotion. to learn the model.

より詳細な一例を挙げる。例えば、「チームTa」が勝利した記事は、「チームTa」のファンに対してポジティブ感情にさせ、また、「チームTa」が敗北した記事は、アンチ「チームTa」に対してポジティブ感情にさせる。一方、「チームTa」が敗北した記事は、「チームTa」のファンに対してネガティブ感情にさせ、また、「チームTa」が勝利した記事は、アンチ「チームTa」に対してネガティブ感情にさせる。このように、ユーザの嗜好性と要約文の内容との関係性に応じて、ポジティブ感情およびネガティブ感情のうち、どちらの感情がより強くなるかが決まってくる。 A more detailed example is given. For example, an article about "Team Ta" winning causes positive feelings toward fans of "Team Ta", and an article about "Team Ta" losing causes positive feelings toward anti-"Team Ta". . On the other hand, an article about "team Ta" being defeated makes fans of "team Ta" feel negative feelings, and an article about "team Ta" winning makes people feel negative feelings about anti-"team Ta". . In this manner, which of the positive emotion and the negative emotion is stronger is determined according to the relationship between the user's preference and the content of the abstract.

したがって、係る例を用いると、第1制御部137は、「チームTa」のファンユーザに対しては「チームTa」が勝利した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ポジティブ感情の度合いを示す感情値をより高めるようモデルを学習する。また、第1制御部137は、アンチ「チームTa」ユーザに対しては「チームTa」が敗北した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ポジティブ感情の度合いを示す感情値をより高めるようモデルを学習する。 Therefore, when using such an example, the first control unit 137 determines whether the summary sentence of the victory of "team Ta" for the fan user of "team Ta" is positive emotion, out of positive emotion and negative emotion. Train the model to increase the emotional value that indicates the degree. In addition, for the anti-“team Ta” user, the first control unit 137 increases the emotion value indicating the degree of the positive emotion, out of the positive emotion and the negative emotion, for the summary of the content of the defeat of “team Ta”. Train the model to improve.

一方、第1制御部137は、「チームTa」のファンユーザに対しては「チームTa」が敗北した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ネガティブ感情の度合いを示す感情値をより高めるようモデルを学習する。また、第1制御部137は、アンチ「チームTa」のユーザに対しては「チームTa」が勝利した内容の要約文について、ポジティブ感情およびネガティブ感情のうち、ネガティブ感情の度合いを示す感情値をより高めるようモデルを学習する。 On the other hand, for the fan user of "team Ta", the first control unit 137 sets an emotion value indicating the degree of negative emotion among the positive emotion and the negative emotion for the summary of the content of the defeat of "team Ta". Train the model to do better. For the anti-“team Ta” user, the first control unit 137 sets an emotion value indicating the degree of the negative emotion, out of the positive emotion and the negative emotion, for the summary of the content of the victory of “team Ta”. Train the model to do better.

ここからはモデル学習の一例についてより詳細に説明する。例えば、第1制御部137は、図3で明した1型の文章または2型の文章のサンプル文章であって、固有名詞を含まないサンプル文章(すなわち一般用語で構成されたサンプル文章)と、当該サンプル文章に対してユーザがポジティブ感情の感情値またはネガティブ感情の感情値を評価した値との組を学習データセットとして、文章の内容と感情値との関係性を学習する。 An example of model learning will now be described in more detail. For example, the first control unit 137 is a sample sentence of type 1 sentences or type 2 sentences clarified in FIG. The relationship between the content of the sentence and the emotion value is learned by using a set of values obtained by the user evaluating the emotion value of the positive emotion or the emotion value of the negative emotion for the sample sentence as a learning data set.

例えば、「私は、勝ち越しの左翼線適時二塁打を放ったが、途中交代した。」というサンプル文章(1型の文章)に対して、任意のユーザは各一般用語(例えば、「勝ち越し」、「二塁打」、「途中交代」など)それぞれに対して感情値を評価するとともに、この文章全体としての感情値も評価する。よって、係る例では、第1制御部137は、このサンプル文章と、各一般用語に対する感情値と、文章全体としての感情値との組み合わせを学習データセットとして学習を行う。試行回数が多いほど学習精度は高まるため、多くのサンプル文章を用いることが望ましい。 For example, for a sample sentence (Type 1 sentence) that says, "I hit a double on the left wing line of the winning team, but I was replaced halfway through." Emotion value is evaluated for each of the sentences, such as "double hit", "change in the middle", etc., and the emotion value of the sentence as a whole is also evaluated. Therefore, in this example, the first control unit 137 performs learning using combinations of this sample sentence, the emotion value for each general term, and the emotion value of the sentence as a whole as a learning data set. Since the learning accuracy increases as the number of trials increases, it is desirable to use a large number of sample sentences.

そして、このような状態において、第1制御部137は、サンプル文章に対応する木構造に含まれる分岐数、サンプル文章に対応する木構造に含まれる文節数、サンプル文章に対応する木構造に含まれる字句(形態素)数、一般用語で構成される文章全体としての感情値、ユーザ評価による感情値、これらに基づいて、モデルを生成する。また、固有名詞を含まない文章であれば、ユーザ評価にユーザ個人の主観が反映され難いため、要約生成装置100は、固有名詞を含まない文章を用いることで、より高精度なモデルを生成することができる。 In such a state, the first control unit 137 controls the number of branches included in the tree structure corresponding to the sample sentence, the number of clauses included in the tree structure corresponding to the sample sentence, and the number of clauses included in the tree structure corresponding to the sample sentence. A model is generated based on the number of lexical phrases (morphemes) used, the emotional value of a sentence as a whole composed of general terms, and the emotional value based on user evaluation. In addition, if the sentence does not contain proper nouns, it is difficult for the user's individual subjectivity to be reflected in the user evaluation. be able to.

ここで、ユーザ評価による感情値は、一般用語に対してユーザ評価された感情値ではなく、固有名詞に対してユーザ評価された感情値であってもよい。しかし、固有名詞は、数が多いうえに経時的にその数が変化するという性質があるため、ユーザに対して全ての固有名詞を評価させることは困難である。以下で説明する第2制御部138は、このような状況に対応する。 Here, the user-evaluated emotion values may be user-evaluated emotion values for proper nouns instead of user-evaluated emotion values for general terms. However, since there are many proper nouns and the number of proper nouns changes over time, it is difficult for the user to evaluate all proper nouns. The second control unit 138, which will be described below, handles such situations.

(第2制御部138について)
第2制御部138は、単語と単語の関連性(類似性)を示す単語間距離を算出する。例えば、第2制御部138は、固有名詞と一般的用語との単語間距離を算出する。また、第2制御部138は、記事などの一般知識に基づいて、固有名詞と一般用語とをクラスタリングする。そして、第2制御部138は、同一クラスタ内の単語が、自動的に同じ意味的指向を持つように制御する。このような制御によれば、ユーザがクラスタ内の単語に対してだけ感情値を評価しさえすれば、ユーザ評価が行われておらず感情値が未知の固有名詞も動的に感情値が算出されることになる。この結果、第1制御部137は、数が多いうえに経時的にその数が変化するという性質を有するがゆえにユーザ評価が行われていない固有名詞に対する感情値を得ることができるようになるため、この感情値を用いることでより高精度なモデルを生成することができるようになる。
(Regarding the second control unit 138)
The second control unit 138 calculates an inter-word distance indicating the relationship (similarity) between words. For example, the second control unit 138 calculates the inter-word distance between proper nouns and general terms. The second control unit 138 also clusters proper nouns and general terms based on general knowledge such as articles. The second control unit 138 then controls such that words within the same cluster automatically have the same semantic orientation. According to such control, as long as the user evaluates the emotion value only for the words in the cluster, the emotion value is dynamically calculated even for proper nouns whose emotion values are unknown because user evaluation has not been performed. will be As a result, the first control unit 137 can obtain an emotion value for a proper noun that has not been evaluated by the user because of its large number and the property that the number changes over time. , a more accurate model can be generated by using this emotion value.

例えば、第2制御部138は、以下のルールに従って、経時的かつ現イベントにおける個人の嗜好の変化に応じて各単語が意味的指向をもつように制御する。例えば、単語間距離には、サイズ、視野、動き、といったパラメータが存在し、また、サイズおよび視野には、単語の出現頻度が必要となるため、第2制御部138は、このパラメータおよび出現頻度に基づいて、単語間距離を算出するとともに、経時的かつ現イベントにおける個人の嗜好の変化に応じて各単語が意味的指向をもつように制御する。そして、このような制御の結果は、3次元トーラス形式のポジネガマップとして表現させることができる。 For example, the second control unit 138 controls each word to have a semantic orientation in accordance with changes in individual preferences over time and in the current event according to the following rules. For example, the distance between words includes parameters such as size, field of view, and movement, and the size and field of view require the appearance frequency of words. Based on , the distance between words is calculated, and each word is controlled so that it has a semantic orientation according to changes in individual preferences over time and in the current event. The result of such control can be expressed as a positive-negative map in the form of a three-dimensional torus.

図5には、実施形態に係るポジネガマップPN-MPの一例が示される。図5の左に示されるテーブルTBでは、「チーム」(チーム名)ごとに、当該チームに所属する「選手」(選手名)がクラスタリングされた状態で、クラスタごとに当該クラスタにおける「チーム」と各「選手」との間で算出された「単語間距離」が一覧表示されている。 FIG. 5 shows an example of the positive/negative map PN-MP according to the embodiment. In the table TB shown on the left side of FIG. 5, for each "team" (team name), "players" (player names) belonging to the team are clustered. A list of "interword distances" calculated between each "athlete" is displayed.

図5に示すテーブルTBの例では、チーム「Ta」には、選手「PY1a」、選手「PY2a」、選手「PY3a」が、1つのチーム「Ta」としてクラスタリングされている。また、図5に示すテーブルTBの例では、チーム名を示す単語「Ta」と、選手名を示す単語「PY1a」との単語間距離として「74」が算出されている。また、図5に示すテーブルTBの例では、チーム名を示す単語「Ta」と、選手名を示す単語「PY2a」との単語間距離として「64」が算出されている。また、図5に示すテーブルTBの例では、チーム名を示す単語「Ta」と、選手名を示す単語「PY3a」との単語間距離として「157」が算出されている。 In the example of the table TB shown in FIG. 5, in the team "Ta", the player "PY1a", the player "PY2a", and the player "PY3a" are clustered as one team "Ta". In the example of the table TB shown in FIG. 5, "74" is calculated as the inter-word distance between the word "Ta" indicating the team name and the word "PY1a" indicating the player name. Further, in the example of the table TB shown in FIG. 5, "64" is calculated as the inter-word distance between the word "Ta" indicating the team name and the word "PY2a" indicating the player name. In the example of the table TB shown in FIG. 5, "157" is calculated as the inter-word distance between the word "Ta" indicating the team name and the word "PY3a" indicating the player name.

チーム「Tb」、チーム「Tc」、チーム「Td」、チーム「Te」、チーム「Tg」、チーム「Tf」については説明を省略する。 Description of team “Tb”, team “Tc”, team “Td”, team “Te”, team “Tg”, and team “Tf” is omitted.

そして、図5の右に示されるポジネガマップPN-MPでは、テーブルTBの「単語間距離」に基づき、各単語の関係性が3次元トーラス形式で示されている。例えば、ポジネガマップPN-MPでは、図5に示されるように、チーム名を示す単語「Ta」に対応する円球CTaに対して、選手名を示す単語「PY1a」が単語間距離「74」に基づき配置されている。また、チーム名を示す単語「Ta」に対応する円球CTaに対して、選手名を示す単語「PY2a」が単語間距離「64」に基づき配置されている。また、チーム名を示す単語「Ta」に対応する円球CTaに対して、選手名を示す単語「PY3a」が単語間距離「157」に基づき配置されている。なお、ポジネガマップPN-MPに示される円球の大きさ(直径)は、この円球に対応する単語の出現頻度に対応する。 In the positive/negative map PN-MP shown on the right side of FIG. 5, the relationship of each word is shown in a three-dimensional torus format based on the "distance between words" in the table TB. For example, in the positive/negative map PN-MP, as shown in FIG. 5, the word "PY1a" indicating the player name is separated from the sphere CTa corresponding to the word "Ta" indicating the team name by an inter-word distance of "74". are arranged based on Also, the word “PY2a” indicating the player name is arranged based on the inter-word distance “64” with respect to the sphere CTa corresponding to the word “Ta” indicating the team name. Also, the word "PY3a" indicating the player name is arranged based on the inter-word distance "157" with respect to the sphere CTa corresponding to the word "Ta" indicating the team name. The size (diameter) of the sphere shown in the positive/negative map PN-MP corresponds to the appearance frequency of the word corresponding to this sphere.

そして、ポジネガマップPN-MPでは、個人の嗜好の変化に応じて各単語が意味的指向をもつように制御される。このため、「チームTa」のファンユーザに対しては、チーム名を示す単語「Ta」に対応する円球CTaの色が例えば特定の色(例えば、赤色)に制御されるとともに、選手名を示す単語「PY1a」、「PY2a」、「PY3a」それぞれに対応する円球の色も同系色(例えば、赤系統の色)に制御される。すなわち、ポジネガマップPN-MPの態様は、個人の嗜好の応じて意味的指向をもつように変化させられる。 In the positive/negative map PN-MP, each word is controlled to have a semantic orientation in accordance with changes in individual tastes. Therefore, for fan users of "team Ta", the color of the sphere CTa corresponding to the word "Ta" indicating the team name is controlled to a specific color (for example, red), and the player names are displayed. The colors of the spheres corresponding to the indicated words "PY1a", "PY2a", and "PY3a" are also controlled to similar colors (for example, red colors). That is, the aspect of the positive/negative map PN-MP is changed so as to have a semantic orientation according to individual preferences.

一方、アンチ「チームTa」に対しては、チーム名を示す単語「Ta」に対応する円球CTaの色が例えば別の特定の色(例えば、青色)に制御されるとともに、選手名を示す単語「PY1a」、「PY2a」、「PY3a」それぞれに対応する円球の色も同系色(例えば、青系統の色)に制御される。 On the other hand, for the anti-"team Ta", the color of the sphere CTa corresponding to the word "Ta" indicating the team name is controlled to another specific color (for example, blue), and also indicates the player name. The colors of the spheres corresponding to the words "PY1a", "PY2a", and "PY3a" are also controlled to similar colors (for example, blue colors).

このように、ポジネガマップPN-MPの態様は、個人の嗜好の応じて意味的指向をもつように変化させられる。このため、図3で説明したように、要約生成装置100は、係るポジネガマップPN-MPを参照することで、「チームTa」との単語間距離が所定値以下の単語を特定することができるようになる。 In this way, the aspect of the positive-negative map PN-MP can be changed to be semantically oriented according to individual preferences. Therefore, as described with reference to FIG. 3, the summary generating apparatus 100 can identify words whose word-to-word distance from "team Ta" is equal to or less than a predetermined value by referring to the positive/negative map PN-MP. become.

〔6.処理手順〕
次に、図6を用いて、実施形態に係る要約生成処理の手順について説明する。図6は、実施形態に係る要約生成処理手順を示すフローチャートである。
[6. Processing procedure]
Next, the procedure of summary generation processing according to the embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing a summary generation processing procedure according to the embodiment.

まず、受付部131は、ユーザからユーザ情報の登録を受け付けたか否かを判定する(ステップS101)。受付部131は、ユーザ情報の登録を受け付けていないと判定している間は(ステップS101;No)、ユーザ情報の登録を受け付けたと判定できるまで待機する。 First, the reception unit 131 determines whether or not registration of user information has been received from a user (step S101). While the receiving unit 131 determines that registration of user information has not been received (step S101; No), it waits until it can be determined that registration of user information has been received.

一方、取得部132は、受付部131によりユーザ情報の登録を受け付けたと判定された場合には(ステップS101;Yes)、登録に応じて受け付けられたユーザ情報を取得する(ステップS102)。例えば、取得部132は、ユーザ情報記憶部122からユーザ情報を取得する。また、取得部132は、処理対象のコンテンツも取得する。例えば、取得部132は、コンテンツ記憶部123から処理対象のコンテンツを取得する。なお、ユーザによる処理対象のコンテンツの登録により、受付部131により処理対象のコンテンツも受け付けられた場合には、取得部132は、受付部131からこの処理対象のコンテンツを取得する。 On the other hand, when the receiving unit 131 determines that registration of user information has been received (step S101; Yes), the obtaining unit 132 obtains the user information received according to the registration (step S102). For example, the acquisition unit 132 acquires user information from the user information storage unit 122 . The acquisition unit 132 also acquires content to be processed. For example, the acquisition unit 132 acquires content to be processed from the content storage unit 123 . It should be noted that when the content to be processed is also received by the receiving unit 131 due to the registration of the content to be processed by the user, the acquisition unit 132 acquires the content to be processed from the receiving unit 131 .

次に、抽出部133は、ユーザ情報に基づいて、処理対象のコンテンツを絞り込みを行う(ステップS103)。例えば、抽出部133は、処理対象のコンテンツの中から、ユーザの興味に関するコンテンツの絞り込みを行う。絞り込まれたコンテンツも処理対象のコンテンツである。また、抽出部133は、絞り込み後の処理対象のコンテンツに対してクレンジング処理を行うことで、不必要なデータを除去する(ステップS104)。 Next, the extraction unit 133 narrows down the content to be processed based on the user information (step S103). For example, the extraction unit 133 narrows down the content related to the user's interest from the content to be processed. The narrowed down content is also content to be processed. In addition, the extraction unit 133 removes unnecessary data by performing a cleansing process on the content to be processed after narrowing down (step S104).

次に、抽出部133は、ユーザ情報が示すユーザの興味の対象に基づいて、クレンジング後の処理対象のコンテンツに含まれる文章に対して、固有名詞のマージを行う(ステップS105)。また、抽出部133は、クレンジング後の処理対象のコンテンツに含まれる文章のうち、主語が含まれない文章について暗黙の主語を推定し、推定した主語を挿入する(ステップS106)。 Next, the extraction unit 133 merges proper nouns with respect to sentences included in the content to be processed after cleansing, based on the target of interest of the user indicated by the user information (step S105). Further, the extraction unit 133 estimates an implicit subject for sentences that do not contain a subject among sentences included in the content to be processed after cleansing, and inserts the estimated subject (step S106).

次に、抽出部133は、固有名詞のマージが行われた文章、および、暗黙の主語が推定された文章それぞれのうち、ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する(ステップS107)。例えば、抽出部133は、ユーザ情報が示す興味の対象に対応する固有名詞(正式な固有名詞)を主語とする文章を対象文として抽出する。 Next, the extraction unit 133 extracts a target sentence, which is a sentence in which the target of interest indicated by the user information is a hot topic, among the sentences in which the proper nouns have been merged and the sentences in which the implicit subject has been estimated. is extracted (step S107). For example, the extraction unit 133 extracts, as a target sentence, a sentence whose subject is a proper noun (formal proper noun) corresponding to the target of interest indicated by the user information.

次に、生成部134は、抽出された対象文に対して構文解析を実行することで、解析結果である木構造であって、対象文に対応する木構造を得る(ステップS108)。そして、生成部134は、木構造に基づいて、要約文を生成する(ステップS109)。例えば、生成部134は、木構造に含まれる文節のうち、ユーザによる興味の対象に対するユーザの嗜好性に応じた単語を含む文節を選定し、1型の文章となるように、この選定した文章をつなぐという処理を文章ごとに行う。そして、生成部134は、1型の文章を組み合わせることにより要約文を生成する。 Next, the generation unit 134 obtains a tree structure corresponding to the target sentence, which is the analysis result, by performing syntactic analysis on the extracted target sentence (step S108). Then, the generation unit 134 generates a summary based on the tree structure (step S109). For example, the generating unit 134 selects, from among the clauses included in the tree structure, clauses that include words that correspond to the user's preference for the object of interest of the user, and converts the selected sentences into Type 1 sentences. The process of connecting is performed for each sentence. Then, the generation unit 134 generates a summary sentence by combining Type 1 sentences.

次に、推定部135は、ユーザの嗜好性に基づいて、感情の種別ごとに、生成された要約文の内容に対する感情の度合いを示す感情値(PN値)を推定する(ステップS110)。そして、出力部136は、ユーザに対して、感情値が付与された要約文を出力する(ステップS111)。 Next, the estimation unit 135 estimates an emotion value (PN value) indicating the degree of emotion with respect to the content of the generated summary for each emotion type based on the user's preference (step S110). Then, the output unit 136 outputs the summary sentence to which the emotion value is assigned to the user (step S111).

〔7.ハードウェア構成〕
また、上記実施形態に係る要約生成装置100は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、要約生成装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. Hardware configuration]
Also, the summary generating apparatus 100 according to the above embodiment is implemented by a computer 1000 configured as shown in FIG. 7, for example. FIG. 7 is a hardware configuration diagram showing an example of a computer 1000 that implements the functions of the summary generating apparatus 100. As shown in FIG. Computer 1000 has CPU 1100 , RAM 1200 , ROM 1300 , HDD 1400 , communication interface (I/F) 1500 , input/output interface (I/F) 1600 and media interface (I/F) 1700 .

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、および、係るプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。 HDD 1400 stores programs executed by CPU 1100 and data used by such programs. Communication interface 1500 receives data from other devices via communication network 50 and sends the data to CPU 1100 , and transmits data generated by CPU 1100 to other devices via communication network 50 .

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、係るプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る要約生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the abstract generation device 100 according to the embodiment, the CPU 1100 of the computer 1000 implements the functions of the control unit 130 by executing the program loaded on the RAM 1200 . In addition, data in storage unit 120 is stored in HDD 1400 . CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be obtained from another device via communication network 50 .

〔8.その他〕
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
[8. others〕
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, the embodiments of the present application have been described in detail based on several drawings, but these are examples, and various modifications and It is possible to carry out the invention in other forms with modifications.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

100 要約生成装置
120 記憶部
121 辞書データベース
122 ユーザ情報記憶部
123 コンテンツ記憶部
124 要約情報記憶部
130 制御部
131 受付部
132 取得部
133 抽出部
134 生成部
135 推定部
136 出力部
137 第1制御部
138 第2制御部
100 summary generation device 120 storage unit 121 dictionary database 122 user information storage unit 123 content storage unit 124 summary information storage unit 130 control unit 131 reception unit 132 acquisition unit 133 extraction unit 134 generation unit 135 estimation unit 136 output unit 137 first control unit 138 second control unit

Claims (20)

ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得手順と、
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順と
をコンピュータに実行させ
前記生成手順は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に対する前記ユーザの嗜好性に応じて前記ユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする要約生成プログラム。
an acquisition procedure for acquiring user information indicating a user's interest and content to be processed;
an extracting procedure for extracting target sentences, which are sentences in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
causing a computer to execute a generating procedure for generating a summary sentence summarizing the contents of the content to be processed based on the target sentence ;
The generation procedure influences a change in the user's emotion according to the user's preference for the target of interest among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence. generate a summary sentence summarizing the contents of the content to be processed, based on the clause containing the word that is inferred to be
A summary generator characterized by :
前記生成手順は、前記単語として、前記興味の対象に対する前記ユーザの嗜好性に応じて前記ユーザの感情の度合いを示す感情値を変動させると推測される単語を含む前記文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする請求項に記載の要約生成プログラム。
The generating procedure performs the processing based on the phrase including, as the word, a word that is presumed to change an emotion value indicating the degree of emotion of the user according to the user's preference for the object of interest. 2. The program for generating a summary according to claim 1 , which generates a summary that summarizes the content of the target content.
前記生成手順は、前記単語のうち、現在時期に関連する単語を含む前記文節を優先的に用いて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする請求項またはに記載の要約生成プログラム。
The generating step generates a summary sentence that summarizes the contents of the content to be processed, by preferentially using the clause containing words related to the current time among the words. 3. The abstract generation program according to 1 or 2 .
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得手順と、an acquisition procedure for acquiring user information indicating a user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、an extracting procedure for extracting target sentences, which are sentences in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順とa generation procedure for generating a summary sentence summarizing the contents of the content to be processed based on the target sentence;
をコンピュータに実行させ、on the computer, and
前記生成手順は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に関連する単語であって、前記ユーザの嗜好性とより関連性の高い単語を含む文節を優先的に用いて、前記処理対象のコンテンツの内容が要約された要約文を生成するThe generation procedure generates words related to the object of interest among clauses that are nodes constituting a tree structure that is a result of syntactic analysis of the target sentence, and is more relevant to the user's preference. generate a summary sentence that summarizes the contents of the content to be processed by preferentially using phrases containing words with a high
ことを特徴とする要約生成プログラム。A summary generator characterized by:
前記生成手順は、前記木構造に沿って、前記文節から分岐する分岐数が所定数以下となるように、前記文節をつなぐことで、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする請求項のいずれか1つに記載の要約生成プログラム。
The generation procedure generates a summary sentence summarizing the contents of the content to be processed by connecting the clauses along the tree structure so that the number of branches branching from the clause is equal to or less than a predetermined number. 5. The program for generating a summary according to any one of claims 1 to 4 , characterized by:
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得手順と、an acquisition procedure for acquiring user information indicating a user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出手順と、an extracting procedure for extracting target sentences, which are sentences in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成手順と、a generation procedure for generating a summary sentence that summarizes the contents of the content to be processed based on the target sentence;
前記興味の対象に対する前記ユーザの嗜好性に基づいて、感情の種別ごとに、前記要約文の内容に対する感情の度合いを示す感情値を推定する推定手順とan estimation step for estimating, for each type of emotion, an emotion value indicating the degree of emotion with respect to the content of the summary based on the user's preference for the object of interest;
をコンピュータに実行させるための要約生成プログラム。A program for generating summaries on a computer.
前記推定手順は、前記ユーザの感情の種別として、肯定的な感情および否定的な感情それぞれについて、前記要約文の内容に対する感情の度合いを示す感情値を推定する
ことを特徴とする請求項に記載の要約生成プログラム。
7. The method according to claim 6 , wherein the estimation procedure estimates an emotion value indicating a degree of emotion with respect to the content of the summary sentence for each of positive emotion and negative emotion as the type of emotion of the user. The described abstract generator.
前記推定手順は、固有名詞が除外された任意の文章と、当該任意の文章に対してユーザが評価した値であって、当該任意の文章の内容に対する感情の度合いを示す感情値との関係性が学習されたモデルに基づいて、前記要約文の内容に対する感情の度合いを示す感情値を推定する
ことを特徴とする請求項またはに記載の要約生成プログラム。
The estimation procedure is a relationship between an arbitrary sentence from which proper nouns are excluded and an emotion value, which is a value evaluated by the user for the arbitrary sentence and indicates the degree of emotion with respect to the content of the arbitrary sentence. 8. The program for generating a summary according to claim 6 or 7 , wherein an emotion value indicating the degree of emotion for the content of the summary is estimated based on the model learned by the program.
前記推定手順は、前記モデルとして、肯定的な感情および否定的な感情うち、ユーザの嗜好性と要約文の内容との関係性に応じた感情ほど高い感情値を出力するように学習されたモデルに基づいて、前記要約文の内容に対する感情の度合いを示す感情値を推定する
ことを特徴とする請求項に記載の要約生成プログラム。
In the estimation procedure, the model is a model that has been learned to output a higher emotion value for the emotion corresponding to the relationship between the user's preference and the content of the summary sentence, out of the positive emotion and the negative emotion. 9. The program for generating a summary according to claim 8 , wherein an emotion value indicating a degree of emotion for the contents of the summary is estimated based on the above.
前記生成手順は、前記対象文が構文解析された解析結果である木構造に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする請求項のいずれか1つに記載の要約生成プログラム。
10. The method according to any one of claims 6 to 9 , wherein said generating step generates a summary sentence that summarizes the content of said content to be processed based on a tree structure that is a result of syntactic analysis of said target sentence. A summary generator according to any one of the preceding claims.
前記生成手順は、前記木構造を構成するノードである文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする請求項10に記載の要約生成プログラム。
11. The program for generating a summary according to claim 10 , wherein the generation step generates a summary sentence summarizing the contents of the content to be processed based on clauses that are nodes constituting the tree structure.
前記抽出手順は、前記興味の対象として、前記文章に含まれる固有名詞が指し示す対象であって、前記ユーザ情報が示す興味の対象が話題となっている文章を前記対象文として抽出する
ことを特徴とする請求項1~11のいずれか1つに記載の要約生成プログラム。
The extraction procedure is characterized in that, as the object of interest, a sentence, which is a target indicated by a proper noun included in the sentence and in which the target of interest indicated by the user information is a topic, is extracted as the target sentence. 12. The program for generating a summary according to any one of claims 1 to 11 .
前記抽出手順は、前記文章に含まれる異なる複数の固有名詞のうち同義の固有名詞が指し示す対象であって、前記ユーザ情報が示す興味の対象が話題となっている文章を前記対象文として抽出する
ことを特徴とする請求項12に記載の要約生成プログラム。
The extraction procedure extracts, as the target sentence, a sentence that is pointed to by synonymous proper nouns among a plurality of different proper nouns included in the sentence and that the target of interest indicated by the user information is a topic. 13. The program for generating a summary according to claim 12 , characterized by:
前記抽出手順は、前記処理対象のコンテンツに含まれる文章のうち、主語が含まれない文章について主語を推定し、推定した主語が、前記同義の固有名詞が指し示す対象となっている文章を前記対象文として抽出する
ことを特徴とする請求項13に記載の要約生成プログラム。
The extraction procedure estimates a subject for sentences that do not contain a subject among sentences included in the content to be processed, and extracts sentences that have the estimated subject as a target indicated by the synonymous proper noun. 14. The program for generating a summary according to claim 13 , extracting as a sentence.
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得部と、
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出部と、
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成部と
を有し、
前記生成部は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に対する前記ユーザの嗜好性に応じて前記ユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする要約生成装置。
an acquisition unit that acquires user information indicating a user's interest and content to be processed;
an extraction unit that extracts a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
a generation unit that generates a summary sentence that summarizes the contents of the content to be processed based on the target sentence ;
The generation unit influences a change in the user's emotion according to the user's preference for the target of interest among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence. generate a summary sentence summarizing the contents of the content to be processed, based on the clause containing the word that is inferred to be
A summary generation device characterized by:
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得部と、an acquisition unit that acquires user information indicating a user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出部と、an extraction unit that extracts a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成部とa generation unit that generates a summary sentence that summarizes the contents of the content to be processed based on the target sentence;
を有し、has
前記生成部は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に関連する単語であって、前記ユーザの嗜好性とより関連性の高い単語を含む文節を優先的に用いて、前記処理対象のコンテンツの内容が要約された要約文を生成するThe generating unit selects words related to the object of interest among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence, and is more relevant to the user's preference. generate a summary sentence that summarizes the contents of the content to be processed by preferentially using phrases containing words with a high
ことを特徴とする要約生成装置。A summary generation device characterized by:
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得部と、an acquisition unit that acquires user information indicating a user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出部と、an extraction unit that extracts a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成部と、a generation unit that generates a summary sentence that summarizes the contents of the content to be processed based on the target sentence;
前記興味の対象に対する前記ユーザの嗜好性に基づいて、感情の種別ごとに、前記要約文の内容に対する感情の度合いを示す感情値を推定する推定部とan estimation unit for estimating, for each type of emotion, an emotion value indicating the degree of emotion with respect to the content of the summary based on the user's preference for the object of interest;
を有することを特徴とする要約生成装置。A summary generation device characterized by comprising:
要約生成装置が実行する要約生成方法であって、
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得工程と、
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出工程と、
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成工程と
を含み、
前記生成工程は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に対する前記ユーザの嗜好性に応じて前記ユーザの感情の変動に影響すると推測される単語を含む文節に基づいて、前記処理対象のコンテンツの内容が要約された要約文を生成する
ことを特徴とする要約生成方法。
A summary generation method executed by a summary generation device,
an acquisition step of acquiring user information indicating the user's interest and content to be processed;
an extracting step of extracting a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from among the sentences included in the content to be processed;
a generation step of generating a summary sentence that summarizes the contents of the content to be processed, based on the target sentence ;
In the generation step, among clauses that are nodes constituting a tree structure that is an analysis result of parsing the target sentence, the user's preference for the target of interest influences fluctuations in the user's emotion. generate a summary sentence summarizing the contents of the content to be processed, based on the clause containing the word that is inferred to be
A summary generation method characterized by:
要約生成装置が実行する要約生成方法であって、A summary generation method executed by a summary generation device,
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得工程と、an acquisition step of acquiring user information indicating the user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出工程と、an extracting step of extracting a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成工程とa generation step of generating a summary sentence summarizing the contents of the content to be processed based on the target sentence;
を含み、including
前記生成工程は、前記対象文が構文解析された解析結果である木構造を構成するノードである文節のうち、前記興味の対象に関連する単語であって、前記ユーザの嗜好性とより関連性の高い単語を含む文節を優先的に用いて、前記処理対象のコンテンツの内容が要約された要約文を生成するThe generating step generates words related to the target of interest among clauses that are nodes constituting a tree structure that is the result of syntactic analysis of the target sentence, and is more relevant to the user's preference. generate a summary sentence that summarizes the contents of the content to be processed by preferentially using phrases containing words with a high
ことを特徴とする要約生成方法。A summary generation method characterized by:
要約生成装置が実行する要約生成方法であって、A summary generation method executed by a summary generation device,
ユーザの興味を示すユーザ情報と、処理対象のコンテンツとを取得する取得工程と、an acquisition step of acquiring user information indicating the user's interest and content to be processed;
前記処理対象のコンテンツに含まれる文章のうち、前記ユーザ情報が示す興味の対象が話題となっている文章である対象文を抽出する抽出工程と、an extracting step of extracting a target sentence, which is a sentence in which an object of interest indicated by the user information is a topic, from sentences included in the content to be processed;
前記対象文に基づいて、処理対象のコンテンツの内容が要約された要約文を生成する生成工程と、a generation step of generating a summary sentence summarizing the contents of the content to be processed based on the target sentence;
前記興味の対象に対する前記ユーザの嗜好性に基づいて、感情の種別ごとに、前記要約文の内容に対する感情の度合いを示す感情値を推定する推定手順とan estimation step for estimating, for each type of emotion, an emotion value indicating the degree of emotion with respect to the content of the summary based on the user's preference for the object of interest;
を含むことを特徴とする要約生成方法。A method for generating a summary, comprising:
JP2020027354A 2020-02-20 2020-02-20 Summary generation program, summary generation device and summary generation method Active JP7152437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027354A JP7152437B2 (en) 2020-02-20 2020-02-20 Summary generation program, summary generation device and summary generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027354A JP7152437B2 (en) 2020-02-20 2020-02-20 Summary generation program, summary generation device and summary generation method

Publications (2)

Publication Number Publication Date
JP2021131769A JP2021131769A (en) 2021-09-09
JP7152437B2 true JP7152437B2 (en) 2022-10-12

Family

ID=77551089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027354A Active JP7152437B2 (en) 2020-02-20 2020-02-20 Summary generation program, summary generation device and summary generation method

Country Status (1)

Country Link
JP (1) JP7152437B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7258092B2 (en) * 2021-09-10 2023-04-14 株式会社ミンカブ・ジ・インフォノイド Match description generation device, match description generation method, and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128677A (en) 2008-11-26 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> Text summarization apparatus, method therefor, and program
JP2016118813A (en) 2014-12-18 2016-06-30 三星電子株式会社Samsung Electronics Co.,Ltd. Content reproduction device
JP2016164700A (en) 2015-03-06 2016-09-08 富士通株式会社 Information processing device, summary sentence editing method, and program
JP2017037601A (en) 2015-08-14 2017-02-16 Psソリューションズ株式会社 Dialog interface
JP2017054509A (en) 2015-09-09 2017-03-16 ウバープル カンパニー リミテッド Method and system for extracting sentence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128677A (en) 2008-11-26 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> Text summarization apparatus, method therefor, and program
JP2016118813A (en) 2014-12-18 2016-06-30 三星電子株式会社Samsung Electronics Co.,Ltd. Content reproduction device
JP2016164700A (en) 2015-03-06 2016-09-08 富士通株式会社 Information processing device, summary sentence editing method, and program
JP2017037601A (en) 2015-08-14 2017-02-16 Psソリューションズ株式会社 Dialog interface
JP2017054509A (en) 2015-09-09 2017-03-16 ウバープル カンパニー リミテッド Method and system for extracting sentence

Also Published As

Publication number Publication date
JP2021131769A (en) 2021-09-09

Similar Documents

Publication Publication Date Title
EP3607470B1 (en) Conversation bot discovery and response fusion
CN110121706B (en) Providing responses in a conversation
Lin et al. Design and application of augmented reality query-answering system in mobile phone information navigation
JP2019504413A (en) System and method for proposing emoji
JP6076425B1 (en) Interactive interface
EP3977685A1 (en) Providing responses in an event-related session
Bowden et al. Slugbot: Developing a computational model andframework of a novel dialogue genre
CN106951433B (en) Retrieval method and device
Scolari The sense of the interface: Applying semiotics to HCI research
JP7152437B2 (en) Summary generation program, summary generation device and summary generation method
Bednarek Language and Characterisation in Television Series
Matsuyama et al. Automatic expressive opinion sentence generation for enjoyable conversational systems
JP2001249945A (en) Feeling generation method and feeling generator
US8930351B1 (en) Grouping of users
EP4231172A1 (en) Aspect-aware autocomplete query
Pérez-Hernández Building brand narratives with hashtags<? br?> on Twitter: A cognitive-pragmatic analysis on the emergence of a new advertising subgenre
Papenmeier et al. 'A Modern Up-To-Date Laptop'-Vagueness in Natural Language Queries for Product Search
JP6034459B1 (en) Interactive interface
Shibata et al. Utilizing core-query for context-sensitive Ad generation based on dialogue
Liu et al. Personalized Recommender System for Children's Book Recommendation with A Realtime Interactive Robot
JP4712221B2 (en) Subjective feature element generation apparatus, subjective feature element generation method, and subjective feature element generation program
Choi et al. Social font search by multimodal feature embedding
JP6852520B2 (en) Information processing equipment, information processing methods and programs
Kumon How Qoheleth Thought: A Natural Semantic Metalanguage Analysis of Ecclesiastes
Beller et al. Predicting fine-grained social roles with selectional preferences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220929

R150 Certificate of patent or registration of utility model

Ref document number: 7152437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150