JP2018005324A - Generation apparatus, generation method, and generation program - Google Patents
Generation apparatus, generation method, and generation program Download PDFInfo
- Publication number
- JP2018005324A JP2018005324A JP2016127570A JP2016127570A JP2018005324A JP 2018005324 A JP2018005324 A JP 2018005324A JP 2016127570 A JP2016127570 A JP 2016127570A JP 2016127570 A JP2016127570 A JP 2016127570A JP 2018005324 A JP2018005324 A JP 2018005324A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- generation
- title
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000003860 storage Methods 0.000 description 64
- 101100135609 Arabidopsis thaliana PAP10 gene Proteins 0.000 description 31
- 230000006870 function Effects 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000009826 distribution Methods 0.000 description 17
- 238000004519 manufacturing process Methods 0.000 description 13
- 101000821981 Homo sapiens Sarcoma antigen 1 Proteins 0.000 description 11
- 102100021466 Sarcoma antigen 1 Human genes 0.000 description 11
- 230000010365 information processing Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 101100195396 Human cytomegalovirus (strain Merlin) RL11 gene Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 101710114762 50S ribosomal protein L11, chloroplastic Proteins 0.000 description 1
- 101100444028 Drosophila melanogaster Dso2 gene Proteins 0.000 description 1
- 101000874141 Homo sapiens Probable ATP-dependent RNA helicase DDX43 Proteins 0.000 description 1
- 102100035724 Probable ATP-dependent RNA helicase DDX43 Human genes 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、生成装置、生成方法、及び生成プログラムに関する。 The present invention relates to a generation device, a generation method, and a generation program.
従来、文章の要約を自動で生成する要約生成に関する技術が提供されている。例えば、記事や見出し等からタイトルを生成する技術が提供されている。 2. Description of the Related Art Conventionally, a technique relating to summary generation that automatically generates a summary of a sentence has been provided. For example, a technique for generating a title from an article or a headline is provided.
しかしながら、上記の従来技術では、ユーザに応じて適切な要約を生成することができるとは限らない。例えば、各ユーザが利用する端末装置のサイズやフォント等が異なる複数のユーザに同じ要約を配信した場合、各ユーザの端末装置に最適な要約になっているとは限らず、ユーザにとって適切な要約が生成されるとは限らない。 However, in the above-described conventional technology, it is not always possible to generate an appropriate summary according to the user. For example, when the same summary is distributed to a plurality of users whose terminal devices used by each user have different sizes, fonts, etc., the summary is not necessarily the best for each user's terminal device, and is appropriate for the user. Is not necessarily generated.
本願は、上記に鑑みてなされたものであって、ユーザに応じて適切な要約を生成することができる生成装置、生成方法、及び生成プログラムを提供することを目的とする。 This application is made in view of the above, Comprising: It aims at providing the production | generation apparatus, the production | generation method, and production | generation program which can produce | generate an appropriate summary according to a user.
本願に係る生成装置は、文字情報と、提供先となるユーザに関する情報であるユーザ関連情報とを取得する取得部と、前記取得部により取得したユーザ関連情報に基づいて、前記取得部により取得した文字情報から要約情報を生成する生成部と、を備えたことを特徴とする。 The generation device according to the present application is acquired by the acquisition unit based on the acquisition unit that acquires character information and user-related information that is information related to a user who is a providing destination, and the user-related information acquired by the acquisition unit. And a generation unit that generates summary information from character information.
実施形態の一態様によれば、ユーザに応じて適切な要約を生成することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that an appropriate summary can be generated according to the user.
以下に、本願に係る生成装置、生成方法、及び生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、及び生成プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a generation apparatus, a generation method, and a mode for executing a generation program (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the generation device, the generation method, and the generation program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
(実施形態)
〔1.生成処理〕
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。なお、本実施形態における生成処理には、生成した短縮タイトルを含むコンテンツを配信する処理を含む。図1に示す生成装置100は、端末装置10からの配信要求に基づいて短縮タイトルを含むコンテンツを配信する配信サービスを提供する。
(Embodiment)
[1. Generation process)
First, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a generation process according to the embodiment. Note that the generation processing in the present embodiment includes processing for distributing content including the generated shortened title. The
図1に示すように、生成システム1には、端末装置10と、生成装置100とが含まれる。端末装置10と、生成装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。また、図1に示した生成システム1には、複数台の端末装置10や、複数台の生成装置100が含まれてもよい。
As illustrated in FIG. 1, the generation system 1 includes a
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1に示す例においては、端末装置10がタッチパネル機能を有するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
The
また、端末装置10は、生成装置100へコンテンツの配信を要求する。また、端末装置10は、生成装置100から配信されたコンテンツを所定のアプリにより表示する。なお、所定のアプリはブラウザであってもよい。
Further, the
生成装置100は、端末装置10に短縮タイトルを含むコンテンツを配信するサービスを提供する情報処理装置である。また、生成装置100は、ユーザ関連情報に基づいて、文字情報から要約情報を生成する。例えば、生成装置100は、ユーザ関連情報に基づいて、所定のコンテンツのタイトルをさらに短縮した短縮タイトルを生成する。
The
なお、生成システム1には、提供元装置(図示省略)や編集者端末(図示省略)が含まれてもよい。例えば、提供元装置は、コンテンツの提供元、いわゆるコンテンツプロバイダ等によって利用される情報処理装置である。例えば、提供元装置は、提供元により作成されたコンテンツを生成装置100に入稿する。また、例えば、編集者端末は、所定の編集者によって利用される情報処理装置である。例えば、編集者端末は、例えば、コンテンツの本文やタイトルから短縮タイトルを作成する編集者が利用する端末装置である。
The generation system 1 may include a provider device (not shown) and an editor terminal (not shown). For example, the provider device is an information processing device used by a content provider, a so-called content provider or the like. For example, the providing device submits content created by the providing device to the generating
以下、図1を用いて生成装置100による短縮タイトルの生成及び配信について説明する。図1の例では、生成装置100は、所定の編集者が利用する編集者端末から短縮タイトルと元となるタイトルとが対応付けられた要約一覧EL11を取得済みであるものとする。図1に示す要約一覧EL11は、図3に示す編集情報記憶部121に記憶される編集情報に対応し、各コンテンツについて、所定の編集者が作成した短縮タイトルと、そのコンテンツの元のタイトルとが対応付けられた情報である。具体的には、要約一覧EL11は、所定のコンテンツのタイトルAから短縮タイトルAが作成され、所定のコンテンツのタイトルBから短縮タイトルBが作成され、所定のコンテンツのタイトルCから短縮タイトルCが作成されたことを示す。なお、図1の例では、説明を簡単にするために要約一覧EL11には、短縮タイトルに対応付けられたコンテンツの記事自体が含まれてもよい。
Hereinafter, generation and distribution of a shortened title by the
まず、生成装置100は、要約一覧EL11を用いた学習により、要約一覧EL11から要約生成モデルM11(以下、単に「モデルM11」ともいう)を生成する(ステップS11)。例えば、生成装置100は、要約一覧EL11に示す情報を編集情報記憶部121(図3参照)から取得し、要約生成モデルM11を学習する。このように、図1の例では、生成装置100は、要約一覧EL11に含まれる所定の編集者が作成した短縮タイトルとその元となるタイトルの組み合わせを用いて、要約生成モデルM11を学習する。例えば、生成装置100は、要約一覧EL11に含まれる所定の編集者が作成した短縮タイトルとその元となるタイトルの組み合わせを正例として、所定のタイトル等の文字情報が入力された場合に短縮タイトルを出力する要約生成モデルM11を学習する。
First, the
また、生成装置100は、学習により生成した要約生成モデルM11をモデル情報記憶部122(図4参照)に記憶する。例えば、生成装置100は、要約一覧EL11に含まれる元タイトルや短縮タイトルに基づいて、カレントニューラルネットワーク等のニューラルネットワークや係り受け解析等の種々の従来技術を適宜用いて、要約生成モデルM11を学習する。なお、要約生成モデルM11は、例えばコンテンツのタイトルや記事の入力に対して、所定の文字数以内の短縮タイトルを生成するためのモデルであるが、要約生成モデルM11の詳細については後述する。
Further, the
そして、生成装置100は、端末装置10からコンテンツの配信要求を取得する(ステップS12)。また、図1の例では、生成装置100は、ステップS12において、端末装置10から端末装置10を利用するユーザU1に関するユーザ関連情報を取得する。例えば、生成装置100は、端末装置10からユーザU1の属性情報や端末装置10に関する端末情報やユーザU1のコンテキスト情報等の種々の情報を取得する。図1の例では、生成装置100は、ユーザ関連情報記憶部123に示すようなユーザ関連情報を取得するものとする。
Then, the
例えば、生成装置100は、ユーザ関連情報として、ユーザU1が30代男性であり、居住地が「地域A」であることを示す属性情報を取得する。また、例えば、生成装置100は、ユーザ関連情報として、ユーザU1が利用する端末装置10の型番が「TM11」であり、画面サイズが「SZ11」であり、設定されたフォントが「FT11」であることを示す端末情報を取得する。なお、フォント「FT11」には、フォントの種類やフォントサイズ等の種々の情報が含まれるものとする。また、例えば、生成装置100は、ユーザ関連情報として、ユーザU1が利用する端末装置10の現在位置が「LC11」であり、加速度が「AC11」であり、コンテキストが「CN11」であることを示すコンテキスト情報を取得する。なお、ユーザ関連情報は、ユーザに関連する情報であればどのような情報であってもよい。例えば、ユーザ関連情報は、ユーザの脳波や心拍数や、推定された感情の情報などであってもよい。また、コンテキストは、長期休暇中や旅行中や電車内など、粒度によって複数に分けても良い。また、ここでいうユーザ関連情報は、ユーザを取り巻く環境等の種々の情報が含まれてもよく、天気、気温、湿度、イベント、株価、当日のニュースなど、種々の情報が含まれてもよい。
For example, the
ここでいうコンテキストは、ユーザU1や端末装置10の状況やユーザU1や端末装置10の環境(背景)を意味する。例えば、コンテキストは、ユーザU1によって端末装置10が使われている状況や、端末装置10を所持するユーザU1が置かれている状態に対応する情報である。すなわち、図1におけるコンテキストは、ユーザU1の状況、例えばユーザU1がいる場所の環境に対応する。具体的には、図1におけるコンテキストは、各ユーザ関連情報が取得された時点におけるユーザU1の状況に対応する。
The context here means the situation of the user U1 and the
また、ユーザU1のコンテキストが「CN11」であることは、ユーザU1が利用する端末装置10の現在位置が「LC11」であることを示す情報や、加速度が「AC11」であることを示す情報や、種々の情報に基づいて推定されてもよい。
Further, the fact that the context of the user U1 is “CN11” means that information indicating that the current position of the
また、図1の例では、説明を簡単にするために、生成装置100がステップS12において、各種のユーザ関連情報を取得する場合を示すが、生成装置100は、各種のユーザ関連情報を各々所定のタイミングで取得してもよい。例えば、生成装置100は、所定のタイミングでユーザU1のコンテキスト情報を取得し、取得したコンテキスト情報に基づいてユーザU1のコンテキストを推定してもよい。また、生成装置100は、ユーザU1の属性情報をステップS12よりも前に取得済みである場合、ステップS12においては、ユーザU1の属性情報を取得しなくてもよい。この場合、生成装置100は、端末装置10を利用するユーザがユーザU1であることを識別するための情報を取得してもよい。
Further, in the example of FIG. 1, in order to simplify the description, a case where the
以下では、ステップS12における配信要求に対して、生成装置100がコンテンツCT11〜CT14を配信するものとして説明する。なお、ここでいうコンテンツCT11とは、コンテンツID「CT11」により識別されるコンテンツを意味する。また、コンテンツCT12とは、コンテンツID「CT12」により識別されるコンテンツを意味する。図1に示すコンテンツ一覧CL11は、図6に示すコンテンツ情報記憶部124に記憶されるコンテンツ情報に対応する。例えば、コンテンツCT11は、タイトル「X月Y日○○県でバス横転、直前のスピード、時速95km超」や画像IM11等を含む。なお、コンテンツCT11には、記事が含まれるが図1では図示を省略する。
Below, it demonstrates as what the production |
生成装置100は、コンテンツCT11〜CT14を配信するために、コンテンツCT11〜CT14の各々に対応する短縮タイトルAT11〜AT14を生成する(ステップS13)。例えば、生成装置100は、コンテンツCT11〜CT14の各々に対応するタイトルに基づいて、タイトルリストAL11に示すような短縮タイトルAT11〜AT14を生成する。
The generating
図1では、生成装置100がコンテンツCT11〜CT14を配信するために、コンテンツCT11〜CT14の各々に対応する短縮タイトルAT11〜AT14を生成するが、以下では、コンテンツCT11に対応する短縮タイトルAT11の生成を例に説明する。
In FIG. 1, in order for the
ここで、生成装置100は、短縮タイトルを生成するために要約生成モデルM11を用いる。例えば、生成装置100は、要約生成モデルM11を用いて各単語の各位置におけるスコアを算出する。例えば、生成装置100は、以下の式(1)により各位置における各単語のスコアを算出する。
Here, the
W_xのスコア = P(W_x|W_{1}^{x−1},INPUT) ・・・ (1) W_x score = P (W_x | W_ {1} ^ {x−1}, INPUT) (1)
上記式(1)では、「W_x」は、任意の単語を示す。また、上記式(1)では、「W_{1}^{x−1}」は、単語「W_x」よりも前の1〜x−1番目までの単語を示す。このように、上記式(1)では、推定しようとする文字(単語「W_x」)より前に出力した単語すべてを条件とする。また、「W_x」の「x」と、「W_{1}^{x−1}」の「x−1」とは、対応する単語の位置関係を示し、「W_{x−1}」は「W_x」の直前に位置する単語となる。すなわち、「W_x」は「W_{x−1}」に続く単語を意味する。 In the above formula (1), “W_x” indicates an arbitrary word. In the above formula (1), “W_ {1} ^ {x−1}” indicates the first to x−1th words before the word “W_x”. Thus, in the above formula (1), all words output before the character to be estimated (word “W_x”) are used as conditions. Also, “x” in “W_x” and “x−1” in “W_ {1} ^ {x−1}” indicate the positional relationship of the corresponding words, and “W_ {x−1}” is The word is located immediately before “W_x”. That is, “W_x” means a word following “W_ {x−1}”.
上記式(1)の右辺中の「INPUT」は、例えばモデルM11の入力となる文字列を示す。例えば、図1の例では、コンテンツCT11のタイトル等が入力となる。なお、「W_x」に対応する単語と、「W_{x−1}」に対応する単語とは異なる単語であってもよいし、同じ単語であってもよい。また、単語は、入力「INPUT」に含まれる単語に限らず、種々の単語であってもよい。例えば、単語「W」は、入力に含まれる単語の省略形や略語やニックネーム等であってもよい。また、ここでいう単語には、形態素、文字(ひらがな、カタカナ、漢字1文字)等も含まれてもよい。 “INPUT” in the right side of the above equation (1) indicates a character string to be input to the model M11, for example. For example, in the example of FIG. 1, the title of the content CT11 is input. Note that the word corresponding to “W_x” and the word corresponding to “W_ {x−1}” may be different words or the same word. Further, the word is not limited to the word included in the input “INPUT” but may be various words. For example, the word “W” may be an abbreviation, abbreviation or nickname of the word included in the input. In addition, the word here may include a morpheme, a character (Hiragana, Katakana, one Kanji character) and the like.
例えば、W_xのスコアは、任意の文字列「INPUT」を入力として要約(短縮タイトル)を生成する場合において、任意の単語「W_{x−1}」の次に「W_x」に遷移する確率に対応するスコアとなる。例えば、W_xのスコアは、事後確率に基づくスコアであってもよい。このように、上記式(1)の右辺中の「P」は、任意の文字列「INPUT」に応じて所定のスコアを返す関数である。 For example, the score of W_x is the probability of transitioning to “W_x” next to an arbitrary word “W_ {x−1}” when generating a summary (short title) using an arbitrary character string “INPUT” as an input. The corresponding score. For example, the score of W_x may be a score based on the posterior probability. Thus, “P” in the right side of the above formula (1) is a function that returns a predetermined score according to an arbitrary character string “INPUT”.
例えば、1文字目に位置する任意の単語「W1」のスコアは、以下のような式(2)により算出される。 For example, the score of an arbitrary word “W1” positioned at the first character is calculated by the following equation (2).
W1のスコア = P(W1|<S>,INPUT) ・・・ (2) W1 score = P (W1 | <S>, INPUT) (2)
上記式(2)において、右辺中の「<S>」は、先頭を示す記号である。すなわち、上記式(2)の右辺中の「P」は、任意の文字列「INPUT」を入力として要約(短縮タイトル)を生成する場合において、任意の単語「W1」が先頭に出現する確率に対応するスコアを返す関数である。 In the above formula (2), “<S>” in the right side is a symbol indicating the head. That is, “P” in the right side of the above formula (2) is the probability that an arbitrary word “W1” will appear at the beginning when an abstract (short title) is generated by inputting an arbitrary character string “INPUT”. This function returns the corresponding score.
例えば、下記の式(3)は、任意の文字列「INPUT」を入力として要約(短縮タイトル)を生成する場合において、単語「バス」が先頭に出現する確率に対応するスコアを示す。この場合、任意の文字列「INPUT」は、コンテンツCT11のタイトル「X月Y日○○県でバス横転、直前のスピード、時速95km超」であるものとする。 For example, the following formula (3) indicates a score corresponding to the probability that the word “bus” appears at the head when generating a summary (short title) using an arbitrary character string “INPUT” as an input. In this case, it is assumed that the arbitrary character string “INPUT” is the title of the content CT11 “X month Y day XX prefecture bus rollover, immediately preceding speed, over 95 km / h”.
W1(“バス”)のスコア = P(バス|<S>,INPUT) ・・・ (3) W1 (“Bus”) score = P (Bus | <S>, INPUT) (3)
また、例えば、下記の式(4)は、任意の文字列「INPUT」を入力として要約(短縮タイトル)を生成する場合において、単語「横転」へ単語「バス」の次に遷移する確率に対応するスコアを示す。この場合、任意の文字列「INPUT」は、コンテンツCT11のタイトル「X月Y日○○県でバス横転、直前のスピード、時速95km超」であるものとする。 Also, for example, the following equation (4) corresponds to the probability of transition to the word “overturn” next to the word “bus” when generating a summary (short title) with an arbitrary character string “INPUT” as input. The score to be shown. In this case, it is assumed that the arbitrary character string “INPUT” is the title of the content CT11 “X month Y day XX prefecture bus rollover, immediately preceding speed, over 95 km / h”.
W2(“横転”)のスコア = P(横転|バス,INPUT) ・・・ (4) W2 ("rollover") score = P (rollover | bus, INPUT) (4)
なお、上記式(4)では、説明を簡単にするために、W2のスコアの算出にW1のスコアを用いない場合を示すが、W1のスコアを加算したり、乗算したりしたW2のスコアを算出してもよい。すなわち、W2のスコアは、W1のスコアの影響を加味したスコアであってもよい。 In order to simplify the explanation, the above formula (4) shows a case where the W1 score is not used for calculating the W2 score. However, the W2 score obtained by adding or multiplying the W1 score is used. It may be calculated. That is, the score of W2 may be a score that takes into account the influence of the score of W1.
上述したような、例えば、任意の文字列「INPUT」中のすべての単語で展開した木構造は、各単語をノードとする木構造(図9中の「木構造ST11」参照。以下同じ)により示される。このように、生成装置100は、上記式(3)や(4)等の例に示すように、各単語の条件付き確率に基づくスコアを算出し、そのスコアに基づいて単語をつなげることにより、短縮タイトルを生成する。例えば、図9に示すような木構造ST11の所定の系列(経路)に対応するノード(単語)のスコアの合計が最大の経路の単語をつなげて短縮タイトルを生成してもよい。
As described above, for example, a tree structure expanded with all words in an arbitrary character string “INPUT” is based on a tree structure having each word as a node (see “Tree Structure ST11” in FIG. 9; the same applies hereinafter). Indicated. As described above, the
また、図1の例では、端末装置10の画面サイズ「SZ11」及びフォント「FT11」により、短縮タイトルの文字数の上限値が決定されているものとする。例えば、短縮タイトルの文字数の上限値は、「全角13」文字とする。例えば、フォントが「FT11」である場合において、端末装置10の表示領域AR11に表示可能な文字数が全角13文字であるものとする。
In the example of FIG. 1, it is assumed that the upper limit value of the number of characters of the shortened title is determined by the screen size “SZ11” and the font “FT11” of the
例えば、生成装置100は、文字数の上限値「全角13」を満たす木構造中の経路のうち、スコアが最大の経路を短縮タイトルとする。例えば、生成装置100は、木構造の所定の経路に対応する単語をつなげた文字列にあるノードを加えることにより、文字数が上限値を超えた場合、そのノードへの探索を行なわず、そのノードより先の経路の探索を終了してもよい。また、生成装置100は、ビーム探索等の種々の従来技術を適宜用いて、探索範囲の増大を抑制するが詳細は後述する。
For example, the
ここで、図1に示す例では、生成装置100は、ユーザ関連情報を加味したスコアを算出する。例えば、生成装置100は、ステップS12において取得したユーザU1のユーザ関連情報を加味したスコアを算出する。例えば、生成装置100は、以下の式(5)を用いてユーザ関連情報を加味したスコアを算出する。
Here, in the example illustrated in FIG. 1, the
W_xのスコア = P(W_x|W_{1}^{x−1},INPUT)*U(Wx|W_{1}^{x−1},USER) ・・・ (5) Score of W_x = P (W_x | W_ {1} ^ {x-1}, INPUT) * U (Wx | W_ {1} ^ {x-1}, USER) (5)
上記式(5)の右辺中の「U」は、任意のユーザのユーザ関連情報「USER」に対して短縮タイトルを生成する場合において、任意の単語「W_{x−1}」の次に「W_x」へ遷移する確率に対応するスコアを返す関数となる。例えば、上記式(5)の右辺中の「U」は、事後確率に基づくスコアを返す関数であってもよい。このように、上記式(5)の右辺中の「U」は、任意のユーザのユーザ関連情報「USER」に応じて所定のスコアを返す関数である。ユーザ関連情報「USER」は、ユーザの属性情報や端末情報やコンテキスト情報が含まれる。なお、上記式(5)は、W_xのスコアを算出する一例であり、生成装置100は、加算する等、種々の方法によりW_xのスコアを算出してもよい。例えば、生成装置100は、下記の式(6)を用いて、W_xのスコアを算出してもよい。例えば、下記の式(6)中の関数「f」は、関数「P」の値や関数「U」の値を合算したりする等、関数「P」の値や関数「U」の値を用いて所定のスコアを算出する関数である。
In the right side of the above formula (5), “U” is a word “W_ {x−1}” next to an arbitrary word “W_ {x−1}” when a short title is generated for the user related information “USER” of an arbitrary user. The function returns a score corresponding to the probability of transition to “W_x”. For example, “U” in the right side of the equation (5) may be a function that returns a score based on the posterior probability. Thus, “U” in the right side of the above formula (5) is a function that returns a predetermined score according to user-related information “USER” of an arbitrary user. The user related information “USER” includes user attribute information, terminal information, and context information. The above equation (5) is an example of calculating the score of W_x, and the
W_xのスコア = f(P(W_x|W_{1}^{x−1}Wx−1,INPUT),U(Wx|W_{1}^{x−1}Wx−1,USER)) ・・・ (6) Score of W_x = f (P (W_x | W_ {1} ^ {x-1} Wx-1, INPUT), U (Wx | W_ {1} ^ {x-1} Wx-1, USER)) (6)
例えば、関数「U」は、所定のユーザモデルにより実現されてもよい。例えば、各ユーザに対して所定の短縮タイトルを配信した場合において、その短縮タイトルをユーザが選択した場合に、その短縮タイトルとそのユーザのユーザ関連情報を正例として学習することにより、ユーザモデルを生成してもよい。この場合、例えば、ユーザモデルの各素性には、ユーザ属性情報や端末情報やコンテキスト情報などのユーザ関連情報に関する素性が含まれる。なお、上記は一例であり、関数「U」は、どのように生成されてもよい。例えば、関数「U」は、端末情報の画面サイズが小さい場合、文字数が小さい単語のスコアが高くなるようにスコアを算出してもよい。また、例えば、生成装置100は、ユーザのニュース閲覧履歴におけるニュース中の単語のスコアを上げるようにしてもよい。例えば、生成装置100は、上記式(5)のようにユーザが閲覧しているニュースの言語モデルとしてもよいし、単に関数「U」を「U(W_x|USER)」などとし、ユーザがよく知っている(自然に感じる)単語の確率を上げるようにしてもよい。また、生成装置100は、関数「U」を「U()=U1()*U2()*…」などとして、関数「U1」はある年齢のユーザ層のスコア、関数「U2」はある地域のユーザ層のスコア等のように、ユーザ関連情報の内容ごとに算出したスコアを用いて、関数「U」のスコアを算出してもよい。
For example, the function “U” may be realized by a predetermined user model. For example, when a predetermined shortened title is distributed to each user, when the user selects the shortened title, the user model is obtained by learning the shortened title and the user related information of the user as positive examples. It may be generated. In this case, for example, each feature of the user model includes features related to user-related information such as user attribute information, terminal information, and context information. Note that the above is an example, and the function “U” may be generated in any manner. For example, when the screen size of the terminal information is small, the function “U” may calculate the score so that the score of a word with a small number of characters is high. Further, for example, the
例えば、下記の式(7)は、ユーザがU1である場合のユーザ関連情報「U1」に対して短縮タイトルを生成する場合において、単語「バス」が先頭に出現する確率に対応するスコアを示す。この場合、任意の文字列「INPUT」は、コンテンツCT11のタイトル「X月Y日○○県でバス横転、直前のスピード、時速95km超」であるものとする。 For example, the following formula (7) indicates a score corresponding to the probability that the word “bus” appears at the head in the case of generating a shortened title for the user related information “U1” when the user is U1. . In this case, it is assumed that the arbitrary character string “INPUT” is the title of the content CT11 “X month Y day XX prefecture bus rollover, immediately preceding speed, over 95 km / h”.
W1(“バス”)のスコア = P(バス|<S>,INPUT)*U(バス|<S>,U1) ・・・ (7) Score of W1 (“bus”) = P (bus | <S>, INPUT) * U (bus | <S>, U1) (7)
上記式(7)により、ユーザがU1であり、任意の文字列「INPUT」を入力として要約(短縮タイトル)を生成する場合において、単語「バス」が先頭に出現する確率に対応するスコアを示す。例えば、図9中に示す例では、単語「バス」が先頭に出現する確率に対応するスコアは「0.6」となる。また、例えば、図9中に示す例では、単語「○○」が先頭に出現する確率に対応するスコアは「0.62」となる。 The above equation (7) indicates a score corresponding to the probability that the word “bus” appears at the head when the user is U1 and an abstract (short title) is generated by inputting an arbitrary character string “INPUT”. . For example, in the example shown in FIG. 9, the score corresponding to the probability that the word “bus” appears at the head is “0.6”. For example, in the example illustrated in FIG. 9, the score corresponding to the probability that the word “◯◯” appears at the top is “0.62”.
上述したように、図1の例では、短縮タイトルの文字数の上限値は「全角13」文字であり、生成装置100は、文字数の上限値「全角13」を満たす木構造ST11(図9参照)中の経路のうち、スコアが最大の経路を短縮タイトルとする。例えば、生成装置100は、コンテンツCT11のタイトルに対応する木構造ST11(図9参照)を探索することにより、全角13文字以内で最大のスコアとなる経路に対応する単語をつなげた文字列を短縮タイトルとして生成する。
As described above, in the example of FIG. 1, the upper limit value of the number of characters of the abbreviated title is “full-
例えば、図1のタイトルリストAL11に示すように、生成装置100は、コンテンツCT11のタイトルに対応する短縮タイトルAT11を生成する。具体的には、生成装置100は、コンテンツCT11のタイトルに対応する「バス横転 直前時速95km超」とする短縮タイトルAT11を生成する。なお、短縮タイトルAT11中の「横転」と「直前」との間のスペース(空白)は半角スペースとなる。このように、生成装置100は、半角や全角等の種々の記号や文字等を適宜用いて短縮タイトル等の要約を生成する。また、図9に示すように、単語「バス」が先頭に出現する確率に対応するスコアは「0.6」よりも、単語「○○」が先頭に出現する確率に対応するスコアは「0.62」の方が大きいが、「○○」が先頭となる短縮タイトルの経路のスコアよりも「バス」が先頭になる短縮タイトルAT11の経路のスコアの方が高いため、生成装置100は、短縮タイトルAT11を生成する。
For example, as illustrated in the title list AL11 of FIG. 1, the
このように、生成装置100は、短縮タイトルAT11として、全角9文字、半角5文字を含む文字列を生成する。例えば、半角を全角の「0.5」文字分とした場合、短縮タイトルAT11の文字数は、「11.5」となる。このように、生成装置100は、全角13文字以内を満たす短縮タイトルAT11を生成する。上記例では、半角2文字が全角1文字に対応し各文字の横幅が変動しないフォントである場合を例示したが、生成装置100は、各文字に応じて横幅が変動するフォントである場合、各文字に応じて数値を変動させてもよい。
As described above, the
また、図1の例では、生成装置100は、コンテンツCT12のタイトルに対応する「東証時価総額 バブル期超す」とする短縮タイトルAT12を生成する。また、生成装置100は、コンテンツCT13のタイトルに対応する「A社サーチャージ7月も継続」とする短縮タイトルAT13を生成する。また、生成装置100は、コンテンツCT14のタイトルに対応する「20XX年の五輪開催国決定」とする短縮タイトルAT14を生成する。
Further, in the example of FIG. 1, the
その後、生成装置100は、短縮タイトルを含むコンテンツを端末装置10に配信する(ステップS14)。具体的には、生成装置100は、短縮タイトルAT11〜AT14の各々を含むコンテンツCT11〜CT14を端末装置10へ配信する。
Thereafter, the
そして、コンテンツCT11〜CT14を受信した端末装置10は、コンテンツCT11〜CT14を表示する(ステップS15)。図1では、端末装置10は、所定のウェブページW11にコンテンツCT11〜CT14の各々に含まれる短縮タイトルAT11〜AT14や画像IM11〜IM14を表示する。
And the
上述したように、生成装置100は、要約生成モデルM11やユーザ関連情報に基づいて所定の入力から短縮タイトルを生成する。上記の例では、生成装置100は、要約生成モデルM11とユーザモデルとに基づいて、コンテンツのタイトルから短縮タイトルを生成する。これにより、生成装置100は、ユーザのユーザ属性情報やユーザが利用する端末装置10の端末情報やユーザのコンテキスト情報等の種々のユーザ関連情報に基づいて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
As described above, the
なお、生成装置100は、上記に限らず種々の情報を適宜用いて短縮タイトルを生成してもよい。また、上記例では、1行になるように生成装置100が短縮タイトルを生成する例を示したが、生成装置100は、複数行に亘る短縮タイトル(要約)を生成してもよい。また、生成装置100は、1文字の横幅スコアも加味して、短縮タイトルを生成してもよい。例えば、生成装置100は、半角アルファベットの「m」や「w」は1文字とし、それ以外の半角アルファベットは0.5文字とする横幅スコアも加味して、短縮タイトルを生成してもよい。例えば、生成装置100は、0.6文字となる半角アルファベットのスコアの方が0.8文字となる半角アルファベットのスコアよりも高くなるように、スコアを算出してもよい。
Note that the
また、生成装置100は、端末装置10を利用するユーザの操作履歴に応じて、生成する短縮タイトルを変動させてもよい。例えば、生成装置100は、ユーザの操作履歴として配信したコンテンツ等へのユーザの操作に関する情報を用いてもよい。例えば、生成装置100は、ユーザの操作履歴中にスクロールが早い等の情報が含まれる場合、そのユーザの性格をせっかちと推定し、通常よりも短い要約を生成してもよい。また、例えば、生成装置100は、ユーザの操作履歴中にスクロールが遅い等の情報が含まれる場合、そのユーザの性格をのんびりと推定し、通常よりも長い要約を生成してもよい。
In addition, the
また、例えば、生成装置100は、ユーザの操作履歴として音声対話の履歴を用いてもよい。例えば、生成装置100は、音声対話において最後まで聞くユーザには、情報量が通常よりも多くなるように、要約を生成してもよい。また、生成装置100は、音声対話において途中で聞くのと止めるユーザには情報量が通常よりも情報量が通常よりも多くなるように、要約を生成してもよい。また、生成装置100は、上記の処理を音声対話でユーザによって長さを変動させるために用いてもよい。例えば、生成装置100は、上記の要約を音声対話の出力情報として用いてもよいし、音声対話要のモデルを用いて、音声対話の出力情報を生成してもよい。
Further, for example, the
また、生成装置100は、端末装置10を利用するユーザの属性に応じて、生成する短縮タイトルを変動させてもよい。例えば、生成装置100は、端末装置10を利用するユーザの年代が60代や70代である場合、通常よりも短い要約を生成してもよい。また、例えば、生成装置100は、端末装置10を利用するユーザが10代や20代である場合、通常よりも長い要約を生成してもよい。
In addition, the
また、生成装置100は、上述のような要約を生成するモデルを用いて、生成処理を行ってもよい。例えば、生成装置100は、端末装置10を利用するユーザが専門職である場合、通常よりも専門用語を含む確率が高くなるモデルを用いて要約を生成してもよい。また、例えば、生成装置100は、端末装置10を利用するユーザが主婦である場合、通常よりも専門用語を含む確率が低くなるモデルを用いて要約を生成してもよい。また、例えば、生成装置100は、端末装置10を利用するユーザの職種が短縮タイトルを生成する対象のコンテンツの内容に関する専門職である場合、通常より生成される短縮タイトルよりも専門用語のスコアが高くなるようなモデルを用いて、短縮タイトルを生成してもよい。例えば、生成装置100は、端末装置10を利用するユーザの職種が主婦である場合、専門用語のスコアが低くなるようなモデルを用いて、短縮タイトルを生成してもよい。
The
また、生成装置100は、端末装置10を利用するユーザのコンテキストに応じて、生成する短縮タイトルを変動させてもよい。例えば、生成装置100は、端末装置10を利用するユーザのコンテキストが走っている等の忙しい状態に対応するコンテキストである場合、通常よりも短い要約を生成してもよい。また、例えば、生成装置100は、端末装置10を利用するユーザのコンテキストが仕事中に対応するコンテキストである場合、通常よりも短い要約を生成してもよい。また、例えば、生成装置100は、端末装置10を利用するユーザのコンテキストが家にいる等の十分に時間がある状態に対応するコンテキストである場合、通常よりも長い要約を生成してもよい。また、生成装置100は、上述のような要約を生成するモデルを用いて、生成処理を行ってもよい。
In addition, the
また、生成装置100は、上記に限らず、目的に応じて種々のモデルを学習してもよい。例えば、生成装置100は、文書から文書、文書から最初の段落、文書から最初の文、文書からタイトル、文書から既存の短縮タイトル、最初の段落から最初の段落、最初の段落から最初の文等の対応関係に基づいてモデルを事前学習してもよい。また、生成装置100は、一般文書を用いて事前学習してもよい。例えば、生成装置100は、決定システム1における配信サービスの対象となるコンテンツに限らず、Web上の一般文書等の種々のコンテンツ(情報)を用いて学習してもよい。例えば、生成装置100は、一般文書から一般文書、一般文書からタイトル等の対応関係に基づいて、要約生成モデルを事前学習(プリトレーニング)してもよい。
The
また、生成装置100は、上述したユーザ関連情報に限らず、目的に応じて種々の情報を用いてもよい。例えば、生成装置100は、ユーザ関連情報として、生成処理時の時間に関する情報や、気温に関する情報や、天気に関する情報等を用いてもよい。生成装置100は、ユーザが利用する端末装置10のCPU(Central Processing Unit)やメモリ使用率などの情報を用いてもよい。また、例えば、生成装置100は、ユーザ関連情報等の各情報をクラスタリングしておき、事前に要約(短縮タイトル)を生成してコンテンツ記憶部124に格納し、配信要求時に要求元のユーザに対応する短縮タイトルを配信してもよい。
The
〔2.生成装置の構成〕
次に、図2を用いて、実施形態に係る生成装置100の構成について説明する。図2は、実施形態に係る生成装置100の構成例を示す図である。図2に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、生成装置100は、生成装置100の管理者等から各種操作を取得する入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of the generator
Next, the configuration of the
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10や提供元装置や編集者端末との間で情報の送受信を行う。
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、編集情報記憶部121と、モデル情報記憶部122と、ユーザ関連情報記憶部123と、コンテンツ情報記憶部124とを有する。
(Storage unit 120)
The
(編集情報記憶部121)
実施形態に係る編集情報記憶部121は、編集に関する各種情報(以下、「編集情報」ともいう)を記憶する。例えば、編集情報記憶部121は、所定の編集者により作成された短縮タイトルとその元となるタイトルに関する各種情報を記憶する。図3に、実施形態に係る編集情報記憶部121の一例を示す。図3に示す編集情報記憶部121は、「編集ID」、「元タイトル」、「短縮タイトル」といった項目を有する。
(Edit information storage unit 121)
The editing
「編集ID」は、元タイトルと短縮タイトルとの組み合わせを識別するための識別情報を示す。また、「元タイトル」は、所定の編集者が短縮タイトルを作成する際に元となったコンテンツのタイトルを示す。また、「短縮タイトル」は、対応する元タイトルから作成された短縮タイトルを示す。 “Edit ID” indicates identification information for identifying a combination of an original title and a shortened title. The “original title” indicates the title of the content that was used when a predetermined editor created a shortened title. “Abbreviated title” indicates a shortened title created from the corresponding original title.
例えば、図3に示す例において、編集ID「ED11」により識別される編集情報は、元タイトルが「タイトルA」であり、短縮タイトルが「短縮タイトルA」であることを示す。また、例えば、図3に示す例において、編集ID「ED12」により識別される編集情報は、元タイトルが「タイトルB」であり、短縮タイトルが「短縮タイトルB」であることを示す。 For example, in the example shown in FIG. 3, the edit information identified by the edit ID “ED11” indicates that the original title is “title A” and the shortened title is “shortened title A”. For example, in the example illustrated in FIG. 3, the editing information identified by the editing ID “ED12” indicates that the original title is “title B” and the shortened title is “shortened title B”.
なお、編集情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、編集情報記憶部121は、所定の編集者が短縮タイトルを作成する際に元となったコンテンツの記事に関する情報を記憶してもよい。また、編集情報記憶部121は、所定の編集者が作成した短縮タイトルとその元となったコンテンツに関する情報に限らず、生成装置100が生成した短縮タイトルとその元となったコンテンツに関する情報を記憶してもよい。例えば、編集情報記憶部121は、正例とする短縮タイトルと負例とする短縮タイトルとを識別する情報を、各短縮タイトルに関連付けて記憶してもよい。すなわち、編集情報記憶部121は、配信先のユーザにより選択された短縮タイトルを正例とし、配信先のユーザにより選択されなかった短縮タイトルを負例として記憶してもよい。生成装置100は、正例となる短縮タイトル、及び負例となる短縮タイトルを含む編集情報を用いて学習することにより、より精度よく要約(短縮タイトル)を生成するモデルを学習することができる。
Note that the editing
(モデル情報記憶部122)
実施形態に係るモデル情報記憶部122は、学習に関する情報を記憶する。例えば、モデル情報記憶部122は、生成処理により生成されたモデル情報を記憶する。図4は、実施形態に係るモデル情報記憶部の一例を示す図である。図4に示すモデル情報記憶部122は、モデル情報として、各モデルM11等に対応させて「素性1」〜「素性3」等といった項目を有する。
(Model information storage unit 122)
The model
例えば、図4に示す例において、モデルM11に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。例えば、モデルの素性(特徴量)がm次元のベクトルで表現される場合、素性数はm個になり、素性1〜素性mの重みが記憶される。 For example, in the example illustrated in FIG. 4, the model information regarding the model M11 includes feature 1 weight “0.5”, feature 2 weight “−0.4”, feature 3 weight “0.2”, and the like. Indicates that For example, when the feature (feature value) of the model is expressed by an m-dimensional vector, the number of features is m, and the weights of the features 1 to m are stored.
なお、モデル情報記憶部122は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。例えば、モデル情報記憶部122は、所定のユーザ分類ごとに生成されたモデルを記憶してもよい。例えば、モデル情報記憶部122は、ユーザの性別や年代等のユーザ分類ごとに生成されたモデルを記憶してもよい。また、例えば、モデル情報記憶部122は、ユーザが利用する端末装置に関する分類ごとに生成されたモデルを記憶してもよい。例えば、モデル情報記憶部122は、端末装置の型番や画面サイズ等の分類ごとに生成されたモデルを記憶してもよい。
The model
(ユーザ関連情報記憶部123)
実施形態に係るユーザ関連情報記憶部123は、ユーザに関連する各種情報を記憶する。図5に、実施形態に係るユーザ関連情報記憶部123の一例を示す。図5に示すユーザ関連情報記憶部123は、「ユーザID」、「属性情報」、「端末情報」、「コンテキスト情報」といった項目が含まれる。「属性情報」には、「年齢」、「性別」、「居住地」といった項目が含まれる。「端末情報」には、「型番」、「画面サイズ」、「フォント」といった項目が含まれる。「コンテキスト情報」には、「現在位置」、「加速度」、「コンテキスト」といった項目が含まれる。
(User related information storage unit 123)
The user related
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザに対応する。「属性情報」は、ユーザの属性に関する各種項目を含む。「端末情報」は、ユーザが利用する端末装置10に関する各種項目を含む。「コンテキスト情報」は、ユーザのコンテキストに関する各種項目を含む。
“User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user illustrated in the example of FIG. The “attribute information” includes various items related to user attributes. The “terminal information” includes various items related to the
また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。また、「居住地」は、ユーザIDにより識別されるユーザの居住地を示す。 “Age” indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35 years old. “Gender” indicates the gender of the user identified by the user ID. “Residence” indicates the residence of the user identified by the user ID.
また、「型番」は、ユーザIDにより識別されるユーザが利用する端末装置10の型番を示す。また、「画面サイズ」は、ユーザIDにより識別されるユーザが利用する端末装置10の画面サイズを示す。また、「フォント」は、ユーザIDにより識別されるユーザが利用する端末装置10において設定されたフォントに関する情報を示す。
The “model number” indicates the model number of the
また、「現在位置」は、ユーザIDにより識別されるユーザの現在位置を示す。また、「加速度」は、ユーザIDにより識別されるユーザの加速度を示す。また、「コンテキスト」は、ユーザIDにより識別されるユーザのコンテキストを示す。 “Current position” indicates the current position of the user identified by the user ID. “Acceleration” indicates the acceleration of the user identified by the user ID. “Context” indicates the context of the user identified by the user ID.
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「30代」であり、性別は、「男性」であり、居住地は、「地域A」であることを示す。 For example, in the example shown in FIG. 5, the age of the user identified by the user ID “U1” is “30s”, the gender is “male”, and the residence is “region A”. Indicates.
なお、ユーザ関連情報記憶部123は、上記に限らず、目的に応じて種々の情報、例えば上記以外のデモグラフィック属性情報やサイコグラフィック属性情報等を記憶してもよい。また、生成装置100は、端末装置10から取得したユーザ情報に基づいて推定されるユーザに関する各種情報を、ユーザ関連情報記憶部123に記憶させてもよい。
Note that the user-related
(コンテンツ情報記憶部124)
実施形態に係るコンテンツ情報記憶部124は、コンテンツ(記事)に関する各種情報を記憶する。図6に、実施形態に係るコンテンツ情報記憶部124の一例を示す。図6に示すコンテンツ情報記憶部124は、「コンテンツID」、「記事」、「タイトル」、「短縮タイトル」、「画像」といった項目を有する。
(Content information storage unit 124)
The content
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「記事」は、コンテンツの記事を示す。「タイトル」は、コンテンツのタイトルを示す。「短縮タイトル」は、生成装置100により生成されたコンテンツの短縮タイトルを示す。「画像」は、コンテンツの画像を示す。図6では「画像」に「IM11」といった概念的な情報が格納される例を示したが、実際には、画像情報、または、その格納場所を示すファイルパス名などが格納される。
“Content ID” indicates identification information for identifying the content. “Article” indicates an article of content. “Title” indicates the title of the content. “Abbreviated title” indicates the abbreviated title of the content generated by the
例えば、図6に示す例において、コンテンツID「CT11」により識別される記事は、「X月Y日未明、○○県××市県道でZ社のバスが横転・・・直前のスピードは時速95kmを超え・・・」といった内容であることを示す。また、コンテンツID「CT11」により識別されるタイトルは、「X月Y日○○県でバス横転、直前のスピード、時速95km超」といった内容であることを示す。また、コンテンツID「CT11」により識別される短縮タイトル(図1中の短縮タイトルAT11)は、「バス横転 直前時速95km超」といった内容であることを示す。 For example, in the example shown in FIG. 6, the article identified by the content ID “CT11” is “X month Y day dawn, XX prefecture XX city prefectural road overturned. Indicates that the content exceeds 95km. The title identified by the content ID “CT11” indicates that the content is “X month Y day XX prefecture, bus rollover, immediately preceding speed, over 95 km / h”. Further, the abbreviated title (abbreviated title AT11 in FIG. 1) identified by the content ID “CT11” indicates that the content is “over 95 km / h just before the bus rollover”.
なお、コンテンツ情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、コンテンツ情報記憶部124は、コンテンツを取得した日時やコンテンツが作成された日時に関する情報を記憶してもよい。コンテンツ情報記憶部124は、各提供元に関する情報やコンテンツのカテゴリに関する情報を記憶してもよい。
The content
(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPUやMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 2, the
図2に示すように、制御部130は、取得部131と、学習部132と、算出部133と、生成部134と、配信部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 2, the
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、外部の情報処理装置から情報を取得する。また、例えば、取得部131は、記憶部120から情報を取得する。また、取得部131は、端末装置10からコンテンツの配信要求を取得する。例えば、取得部131は、提供元装置からコンテンツの入稿を取得する。例えば、取得部131は、記事やタイトルを含むコンテンツの入稿を取得する。例えば、取得部131は、多数の提供元装置からコンテンツの入稿を取得してもよい。例えば、取得部131は、提供元装置から入稿されたコンテンツをコンテンツ情報記憶部124に記憶する。
(Acquisition part 131)
The
また、取得部131は、要約とその元となる情報とを対応付けた情報を取得する。図1では、取得部131は、所定の編集者が利用する編集者端末から短縮タイトルと元となるタイトルとが対応付けられた要約一覧EL11を取得する。
In addition, the
また、取得部131は、文字情報と、提供先となるユーザに関する情報であるユーザ関連情報とを取得する。例えば、取得部131は、所定のコンテンツに含まれるタイトルを文字情報として取得する。例えば、取得部131は、所定のコンテンツに含まれる記事を文字情報として取得する。
In addition, the
例えば、取得部131は、ユーザが利用する端末装置10に関する端末情報をユーザ関連情報として取得する。例えば、取得部131は、ユーザの端末装置10における操作履歴に関する情報をユーザ関連情報として取得する。例えば、取得部131は、ユーザの属性情報をユーザ関連情報として取得する。例えば、取得部131は、ユーザのコンテキストに関する情報をユーザ関連情報として取得する。
For example, the
また、取得部131は、外部の情報処理装置から各種モデルを取得してもよい。例えば、取得部131は、外部の情報処理装置から要約生成モデルM11やユーザモデル等の種々のモデルを取得してもよい。なお、外部の情報処理装置から取得部131により要約生成に用いるモデルを取得する場合、生成装置100は、学習部132を有しなくてもよい。
The
(学習部132)
学習部132は、各素性の重みを学習する。例えば、学習部132は、各種情報に基づいて学習によりモデルを生成する。例えば、学習部132は、第1文字情報と、第1文字情報の要約情報である第2文字情報とが対応付けられた情報によりモデルを学習する。図1では、学習部132は、要約一覧EL11を用いた学習により、要約一覧EL11から要約生成モデルM11を生成する。
(Learning unit 132)
The
例えば、学習部132は、要約一覧EL11に示す情報を編集情報記憶部121から取得し、要約生成モデルM11を学習する。例えば、学習部132は、要約一覧EL11に含まれる所定の編集者が作成した短縮タイトルとその元となるタイトルの組み合わせを用いて、要約生成モデルM11を学習する。例えば、学習部132は、要約一覧EL11に含まれる元タイトルや短縮タイトルに基づいて、リカレントニューラルネットワークや係り受け解析等の種々の従来技術を適宜用いて、要約生成モデルM11を学習する。例えば、学習部132は、学習により生成した要約生成モデルM11をモデル情報記憶部122に記憶する。例えば、学習部132は、以下のような疑似学習データを用いてモデルを学習してもよい。例えば、「A駅の人身事故でB線が遅延」を係り受け解析して、他の要素は「B線が遅延」にかかるので、統計情報などを加味して、係り受け木から必要なさそうな部分木をカットして「人身事故で山手線が遅延」などに要約した疑似学習データを用いる。例えば、このような疑似学習データは、種々の従来手法により生成することができる。そして、学習部132は、疑似学習データを用いて(ニューラルネットワーク)モデルを学習(プリトレーニング)した後、要約一覧EL11等を用いて学習することにより、精度の高いモデルを生成することができる。
For example, the
また、学習部132は、ユーザ関連情報に基づくモデル(ユーザモデル)を学習してもよい。例えば、学習部132は、上記式(5)の右辺中の関数「U」に対応するモデルを学習してもよい。例えば、学習部132は、各ユーザに対して所定の短縮タイトルを配信した場合において、その短縮タイトルをユーザが選択した場合に、その短縮タイトルとそのユーザのユーザ関連情報を正例として学習することにより、ユーザモデルを生成してもよい。
The
例えば、学習部132は、ユーザが利用する端末装置10の端末情報に基づいて学習することにより、ユーザが利用する端末装置10に応じたユーザモデルを生成してもよい。例えば、学習部132は、ユーザの属性情報に基づいて学習することにより、ユーザのコンテキストに関する情報に応じたユーザモデルを生成してもよい。例えば、学習部132は、ユーザのコンテキストに関する情報に基づいて学習することにより、ユーザのコンテキストに関する情報に応じたユーザモデルを生成してもよい。
For example, the
(算出部133)
算出部133は、文字情報から要約を生成するために用いるスコアを算出する。例えば、算出部133は、要約生成モデルM11を用いて各単語の各位置におけるスコアを算出する。例えば、算出部133は、学習部132により生成されたユーザモデルを用いて各単語の各位置におけるスコアを算出する。
(Calculation unit 133)
The calculation unit 133 calculates a score used for generating a summary from character information. For example, the calculation unit 133 calculates the score at each position of each word using the summary generation model M11. For example, the calculation unit 133 calculates a score at each position of each word using the user model generated by the
例えば、算出部133は、上記式(5)により各位置における各単語のスコアを算出する。図1に示す例では、算出部133は、ユーザ関連情報を加味したスコアを算出する。例えば、算出部133は、取得したユーザU1のユーザ関連情報を加味したスコアを算出する。例えば、算出部133は、上記式(5)を用いてユーザU1のユーザ関連情報を加味したスコアを算出する。 For example, the calculation unit 133 calculates the score of each word at each position using the above equation (5). In the example illustrated in FIG. 1, the calculation unit 133 calculates a score that considers user-related information. For example, the calculation unit 133 calculates a score in consideration of the acquired user related information of the user U1. For example, the calculation unit 133 calculates a score in consideration of the user related information of the user U1 using the above formula (5).
(生成部134)
生成部134は、文字情報から要約を生成する。例えば、生成部134は、算出部133により算出されるスコアに基づいて、文字情報から要約を生成する。例えば、生成部134は、取得部131により取得したユーザ関連情報に基づいて、取得部131により取得した文字情報から要約情報を生成する。
(Generator 134)
The generation unit 134 generates a summary from the character information. For example, the generation unit 134 generates a summary from the character information based on the score calculated by the calculation unit 133. For example, the generation unit 134 generates summary information from the character information acquired by the
生成部134は、第1文字情報と、第1文字情報の要約情報である第2文字情報とが対応付けられた情報により学習されたモデルに基づいて、文字情報から要約情報を生成する。例えば、生成部134は、ユーザ関連情報とモデルとに基づいて算出されるスコアに基づいて、文字情報から要約情報を生成する。例えば、生成部134は、ユーザ関連情報により学習されたモデルに基づいて、文字情報から要約情報を生成する。例えば、生成部134は、端末情報に基づいて、文字情報から要約情報を生成する。例えば、生成部134は、操作履歴に基づいて、文字情報から要約情報を生成する。例えば、生成部134は、属性情報に基づいて、文字情報から要約情報を生成する。例えば、生成部134は、コンテキストに関する情報に基づいて、文字情報から要約情報を生成する。図1の例では、生成部134は、コンテンツCT11のタイトルに対応する短縮タイトルAT11を生成する。また、生成部134は、コンテンツCT12〜CT14のタイトルの各々に対応する短縮タイトルAT12〜AT14を生成する。 The generation unit 134 generates summary information from character information based on a model learned from information in which first character information and second character information that is summary information of the first character information are associated with each other. For example, the generation unit 134 generates summary information from character information based on a score calculated based on user-related information and a model. For example, the generation unit 134 generates summary information from character information based on a model learned from user-related information. For example, the generation unit 134 generates summary information from character information based on terminal information. For example, the generation unit 134 generates summary information from character information based on the operation history. For example, the generation unit 134 generates summary information from character information based on the attribute information. For example, the generation unit 134 generates summary information from character information based on information about the context. In the example of FIG. 1, the generation unit 134 generates a shortened title AT11 corresponding to the title of the content CT11. Further, the generation unit 134 generates shortened titles AT12 to AT14 corresponding to the titles of the contents CT12 to CT14.
生成部134は、生成した要約情報をさらに要約した多重要約情報を生成する。例えば、生成部134は、記事から要約情報として記事のタイトルを生成し、タイトルから多重要約情報として短縮タイトルを生成する。なお、これらの点ついての詳細は後述する。 The generation unit 134 generates multiple summary information that further summarizes the generated summary information. For example, the generation unit 134 generates a title of an article as summary information from the article, and generates a shortened title as multiple summary information from the title. Details of these points will be described later.
(配信部135)
配信部135は、生成部134により生成された短縮タイトルを配信する。配信部135は、短縮タイトルを含むコンテンツを端末装置10に配信する。図1の例では、配信部135は、短縮タイトルAT11〜AT14の各々を含むコンテンツCT11〜CT14を端末装置10へ配信する。
(Distributor 135)
The
〔3.モデルの学習〕
次に、図7を用いて、実施形態に係る生成システム1におけるモデルの学習について説明する。図7は、実施形態に係るモデルの学習の一例を示すフローチャートである。なお、図7に示すフローチャートにより学習されるモデルは、どのようなモデルであってもよい。
[3. Model learning)
Next, model learning in the generation system 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of model learning according to the embodiment. Note that the model learned by the flowchart shown in FIG. 7 may be any model.
図7に示すように、生成装置100の取得部131は、学習に用いる情報を取得する(ステップS101)。例えば、取得部131は、所定の編集者が利用する編集者端末から短縮タイトルと元となるタイトルとが対応付けられた要約一覧EL11を取得する。その後、生成装置100の学習部132は、取得した情報に基づいて学習を行う(ステップS102)。例えば、学習部132は、要約一覧EL11を用いた学習により、要約一覧EL11から要約生成モデルM11を生成する。
As illustrated in FIG. 7, the
〔4.短縮タイトルの生成〕
次に、図8を用いて、実施形態に係る生成システム1における要約の生成について説明する。図8は、実施形態に係る短縮タイトルの生成の一例を示すフローチャートである。
[4. (Generate abbreviated title)
Next, generation of a summary in the generation system 1 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of generation of a shortened title according to the embodiment.
図8に示すように、生成装置100の取得部131は、コンテンツの配信要求を取得する(ステップS201)。例えば、取得部131は、端末装置10からコンテンツの配信要求を取得する。また、取得部131は、要求元のユーザ関連情報を取得する(ステップS202)。例えば、取得部131は、端末装置10からユーザ関連情報を取得する。
As illustrated in FIG. 8, the
その後、生成装置100の生成部134は、ユーザ関連情報に基づいて短縮タイトルの文字数の上限値を決定する(ステップS203)。生成部134は、端末装置10の画面サイズ「SZ11」及びフォント「FT11」に基づいて、短縮タイトルの文字数の上限値を決定する。例えば、生成部134は、短縮タイトルの文字数の上限値を「全角13」文字とする。また、取得部131は、短縮タイトルの生成に用いるモデルを取得する(ステップS205)。例えば、取得部131は、モデル情報記憶部132から要約生成モデルM11を取得する。
Thereafter, the generation unit 134 of the
その後、生成部134は、モデルと文字数の上限値とに基づいて短縮タイトルを生成する(ステップS204)。例えば、生成部134は、コンテンツCT11のタイトルに対応する短縮タイトルAT11を生成する。図1の例では、生成部134は、コンテンツCT11のタイトルに対応する「バス横転 直前時速95km超」とする短縮タイトルAT11を生成する。 Thereafter, the generation unit 134 generates a shortened title based on the model and the upper limit value of the number of characters (step S204). For example, the generation unit 134 generates a shortened title AT11 corresponding to the title of the content CT11. In the example of FIG. 1, the generation unit 134 generates a shortened title AT11 corresponding to the title of the content CT11, which is “over 95 km / hour immediately before the bus rollover”.
〔5.短縮タイトルの生成〕
次に、図9を用いて、実施形態に係る生成システム1における短縮タイトルの生成について説明する。図9は、実施形態に係る短縮タイトルの生成の一例を示す図である。例えば、生成装置100は、ビーム探索の手法を用いる。なお、生成装置100は、木構造を用いる種々の手法を用いてもよい。例えば、生成装置100は、他の近似手法を用いてもよいし、ビタビ、A*などの厳密探索手法を用いてもよい。
[5. (Generate abbreviated title)
Next, generation of a shortened title in the generation system 1 according to the embodiment will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of generation of a shortened title according to the embodiment. For example, the
図9に示す例においては、入力情報IP11に示すように入力「INPUT」は、コンテンツCT11のタイトル「X月Y日○○県でバス横転、直前のスピード、時速95km超」である。また、図9に示す例においては、文字数上限MX11に示すように上限値「MAX」は、「13」である。例えば、上限値「MAX」は、「全角13」文字とする。図9中の木構造ST11は、「W1」の範囲に位置するノードは、先頭記号Sの次に遷移する単語、すなわち最初の単語に対応するノードを示す。また、「W2」の範囲に位置するノードは、「W1」の範囲に位置するノードに対応する単語から次に遷移する単語、すなわち2つめの単語に対応するノードを示す。また、「W3」の範囲に位置するノードは、「W3」の範囲に位置するノードに対応する単語から次に遷移する単語、すなわち3つめの単語に対応するノードを示す。 In the example shown in FIG. 9, as shown in the input information IP11, the input “INPUT” is the title of the content CT11 “X month Y day XX prefecture bus rollover, immediately preceding speed, over 95 km / h”. In the example shown in FIG. 9, the upper limit “MAX” is “13” as indicated by the character number upper limit MX11. For example, the upper limit value “MAX” is “13 full-width characters”. In the tree structure ST11 in FIG. 9, a node located in the range of “W1” indicates a word that transitions after the first symbol S, that is, a node corresponding to the first word. The node located in the range of “W2” indicates a word that transitions next from the word corresponding to the node located in the range of “W1”, that is, the node corresponding to the second word. A node located in the range of “W3” indicates a word that transitions next from a word corresponding to the node located in the range of “W3”, that is, a node corresponding to the third word.
図9に示す例では、生成装置100は、ユーザ関連情報を加味したスコアを算出する。例えば、生成装置100は、図9中の算出式MF11に示す式により、ユーザU1のユーザ関連情報を加味したスコアを算出する。なお、図9中の算出式MF11に示す式は、上記式(5)に対応する。
In the example illustrated in FIG. 9, the
例えば、生成装置100は、図9中の算出式SC11に示す式により、ユーザがU1である場合のユーザ関連情報「U1」に対して短縮タイトルを生成する場合において、単語「バス」が先頭に出現する確率に対応するスコアを算出する。なお、図9中の算出式SC11は上記式(7)に対応する。図9の例では、生成装置100は、算出式SC11を用いて単語「○○」のスコアを最も高い「0.62」と算出する。また、図9の例では、生成装置100は、算出式SC11を用いて単語「バス」のスコアを単語「○○」のスコアの次に高い「0.6」と算出する。また、図9の例では、生成装置100は、算出式SC11を用いて単語「横転」のスコアを単語「バス」のスコアの次に高い「0.58」と算出する。また、図9の例では、生成装置100は、算出式SC11を用いて単語「の」のスコアを「0.02」と算出する。
For example, when the
また、生成装置100は、木構造ST11と、上記式(5)を用いて各単語の各々に対して算出されたスコア(確率)でソートし、ビーム幅(n=3)だけ残す(ステップS205−1)。具体的には、生成装置100は、スコアが上位である「○○」、「バス」、及び「横転」3つの単語に対応するノードのみを残し、その先のノードを探索する。そして、生成装置100は、合計の文字数がMAX「13」を超えるまで探索を繰り返す(ステップS205−2)。例えば、生成装置100は、図9中の算出式MF12を用いて、親ノードの単語(「○○」、「バス」、及び「横転」)の次に各単語に遷移する確率に対応するスコアを算出する。これにより、生成装置100は、コンテンツCT11のタイトルに対応する「バス横転 直前時速95km超」とする短縮タイトルAT11を生成する。
Further, the generating
〔6.要約生成モデルの学習に用いる情報〕
上記例においては、要約生成モデルM11を生成する際に、所定の編集者が利用する編集者端末から短縮タイトルと元となるタイトルとが対応付けられた要約一覧EL11を用いる場合を示したが、要約生成モデルの学習には種々の情報が用いられてもよい。例えば、生成装置100は、要約生成モデルの学習にユーザ関連情報を用いてもよい。この点について、図10を用いて説明する。図10は、実施形態に係るユーザ関連情報を用いたモデルの生成の一例を示す図である。図10中に示す端末装置10は、図1のステップS15により生成装置100から配信されたコンテンツCT11〜CT14が表示された状態を示す。
[6. Information used for learning the summary generation model)
In the above example, when the summary generation model M11 is generated, the summary list EL11 in which the shortened title is associated with the original title is used from the editor terminal used by the predetermined editor. Various information may be used for learning the summary generation model. For example, the
図10の例では、ユーザU1は、短縮タイトルAT11を含むコンテンツCT11を選択する(ステップS21)。例えば、ユーザU1は、指F1により短縮タイトルAT11が表示された部分をタッチすることにより、コンテンツCT11を選択する。また、例えば、端末装置10には、ユーザU1が短縮タイトルAT11を選択することにより、端末装置10の表示が遷移し、コンテンツCT11のタイトルや記事が表示される。
In the example of FIG. 10, the user U1 selects the content CT11 including the shortened title AT11 (step S21). For example, the user U1 selects the content CT11 by touching the portion where the shortened title AT11 is displayed with the finger F1. Further, for example, when the user U1 selects the shortened title AT11 on the
その後、端末装置10は、生成装置100にユーザU1の行動情報を送信する(ステップS22)。例えば、端末装置10は、生成装置100にユーザU1の操作履歴に関する情報を送信する。図10の例では、端末装置10は、生成装置100にユーザU1が短縮タイトルAT11を含むコンテンツCT11を選択したことを示す情報を送信する。
Thereafter, the
ユーザU1の行動情報を取得した生成装置100は、コンテンツCT11の短縮タイトルAT11とその元となるタイトルの組み合わせを正例RL11として用いて学習を行う。例えば、生成装置100は、正例RL11やユーザU1のユーザ関連情報を用いて要約生成モデルM11を更新することにより、要約生成モデルM111を生成する(ステップS23)。なお、生成装置100は、正例RL11やユーザU1のユーザ関連情報を用いて新たに要約生成モデルを生成してもよい。このように、生成装置100は、ユーザ関連情報を用いて要約生成モデルの学習を行ってもよい。
The generating
〔7.多重要約〕
上記例においては、文字情報から要約を生成する場合を示したが、生成した要約を用いてさらに要約を生成してもよい。例えば、生成装置100は、生成した要約をさらに要約した多重要約を生成してもよい。すなわち、生成装置100は、1つの文字情報から多重要約を行って、所望の要約を生成してもよい。この点について、図11を用いて説明する。図11は、実施形態に係る2段階の要約の生成の一例を示す図である。
[7. (Multiple summary)
In the above example, the case where the summary is generated from the character information is shown, but the summary may be further generated using the generated summary. For example, the generating
図11の例では、記事CR11は、「X月Y日未明、○○県××市県道でZ社のバスが横転・・・直前のスピードは時速95kmを超え・・・」といった内容を含む。生成装置100は、記事からタイトルを生成する要約生成モデルM31に記事CR11を入力することにより、記事CR11のタイトルを生成する(ステップS31)。例えば、生成装置100は、要約生成モデルM31により記事CR11からタイトルTL11を生成する。
In the example of FIG. 11, the article CR11 includes contents such as “Decimal day of X month Y, XX prefecture XX city prefectural road overturned Z ... the speed just before exceeds 95 km / h ..." . The
図11の例では、タイトルTL11は、「X月Y日○○県でバス横転、直前のスピード、時速95km超」という内容のタイトルである。生成装置100は、タイトルから短縮タイトルを生成する要約生成モデルM11にタイトルTL11を入力することにより、タイトルTL11の短縮タイトルを生成する(ステップS32)。例えば、生成装置100は、要約生成モデルM11によりタイトルTL11から短縮タイトルAT11を生成する。このように、生成装置100は、1つの文字情報を複数回要約生成モデルにより要約することにより、所望の要約を生成することができる。なお、上記の例では、生成装置100が複数の要約生成モデルを用いて複数回要約を生成する場合を示したが、生成装置100は、1つの要約生成モデルを用いて複数回要約を生成してもよい。例えば、生成装置100は、本文とそのタイトルとの組み合わせの第1データを用いて、モデルMを学習(プリトレーニング)し、その重みを初期値として、タイトルとその短縮タイトルとの組み合わせの第2データを用いて学習(ファインチューニング)させてもよい。この場合、生成装置100は、タイトルとその短縮タイトルとの組み合わせの第2データが少なく、本文とそのタイトルとの組み合わせの第1データが多い(例えば10倍以上多い)場合、第2データにはない組み合わせを含むが第データ1に基づいて、学習を行うことができる。また、生成装置100は、記事から短縮タイトルを生成する要約生成モデルを用いることにより、直接記事から短縮タイトルを生成してもよい。
In the example of FIG. 11, the title TL11 is a title with the content “X month Y day XX prefecture, bus rollover, previous speed, over 95 km / h”. The
〔8.ユーザ関連情報に応じた短縮タイトルの変動〕
なお、生成装置100が生成する要約は、配信先となるユーザのユーザ関連情報に基づいて変動する。例えば、生成装置100はユーザが利用する端末装置10に応じて生成する要約を変動させてもよい。この点について、図12を用いて説明する。図12は、実施形態に係る端末装置に応じた短縮タイトルの生成の一例を示す図である。なお、図12の例では、各端末装置10、11におけるフォントの設定は同様であるものとする。
[8. Variations in shortened titles according to user-related information)
In addition, the summary which the production |
図12に示す例においては、生成装置100が、各端末装置10、11に対してコンテンツCT11に対応する短縮タイトルAT11を生成する場合を説明する。図12の例では、生成装置100は、端末装置10に対して短縮タイトルAT11を生成する(ステップS41)。具体的には、生成装置100は、表示領域AR11に表示可能なように、コンテンツCT11のタイトルに対応する「バス横転 直前時速95km超」とする短縮タイトルAT11を生成する。なお、図12中の端末装置10は、図1中の端末装置10に対応しており、端末装置10の横幅をWD11とする。
In the example illustrated in FIG. 12, a case will be described in which the
また、図12の例では、生成装置100は、端末装置11に対して短縮タイトルAT41を生成する(ステップS42)。ここで、図12の例では、端末装置11の横幅WD41は、端末装置10の横幅WD11よりも長いものとする。そのため、端末装置11においてコンテンツCT11の短縮タイトルが表示される表示領域AR41は、端末装置10においてコンテンツCT11の短縮タイトルが表示される表示領域AR11よりも横に長くなる。具体的には、端末装置11における表示領域AR41の横方向の長さL41は、端末装置10における表示領域AR11の横方向の長さL11よりも長くなる。つまり、表示領域AR41には表示領域AR11よりもより多くの文字を表示することができる。そのため、生成装置100は、短縮タイトルAT11よりも文字数の多い短縮タイトルAT41を生成する。
In the example of FIG. 12, the
具体的には、生成装置100は、表示領域AR41に表示可能なように、コンテンツCT11のタイトルに対応する「○○でバス横転 直前時速95km超」とする短縮タイトルAT41を生成する。この場合、生成装置100は、端末装置11に配信する短縮タイトルAT41には、短縮タイトルAT11に比べて「○○」という具体的な場所を示す単語を追加することができる。このように、生成装置100は、ユーザ関連情報に応じて、適切な要約を生成することができる。なお、生成装置100は、ユーザ関連情報記憶部123に記憶されたユーザ関連情報に限らず、種々のユーザ関連情報を用いて、要約を生成してもよい。例えば、生成装置100はユーザが一時的に変更した拡大率やフォントをリアルタイムに取得して要約を動的に変化させてもよい。
Specifically, the
〔9.効果〕
上述してきたように、実施形態に係る生成装置100は、取得部131と、生成部134と、を有する。取得部131は、文字情報と、提供先となるユーザに関する情報であるユーザ関連情報とを取得する。生成部134は、取得部131により取得したユーザ関連情報に基づいて、取得部131により取得した文字情報から要約情報を生成する。
[9. effect〕
As described above, the
これにより、実施形態に係る生成装置100は、提供先となるユーザのユーザ関連情報を加味して文字情報から要約を生成することにより、ユーザに応じて適切な要約を生成することができる。このように、生成装置100は、ユーザのユーザ属性情報やユーザが利用する端末装置10の端末情報やユーザのコンテキスト情報等の種々のユーザ関連情報に基づいて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100において、生成部134は、第1文字情報(実施形態においては「タイトル」。以下同じ)と、第1文字情報の要約情報である第2文字情報(実施形態においては「短縮タイトル」。以下同じ)とが対応付けられた情報により学習されたモデルに基づいて、文字情報から要約情報を生成する。
Further, in the
これにより、実施形態に係る生成装置100は、第1文字情報と、第1文字情報の要約情報である第2文字情報とが対応付けられた情報により学習されたモデルを用いて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the generating
また、実施形態に係る生成装置100において、生成部134は、ユーザ関連情報とモデルとに基づいて算出されるスコアに基づいて、文字情報から要約情報を生成する。
In the
これにより、実施形態に係る生成装置100は、ユーザ関連情報とモデルとに基づいて算出されるスコアに基づいて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100において、生成部134は、ユーザ関連情報により学習されたモデルに基づいて、文字情報から要約情報を生成する。
Further, in the
これにより、実施形態に係る生成装置100は、ユーザ関連情報により学習されたモデルに基づいて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100において、取得部131は、ユーザが利用する端末装置10に関する端末情報をユーザ関連情報として取得する。生成部134は、端末情報に基づいて、文字情報から要約情報を生成する。
In the
これにより、実施形態に係る生成装置100は、ユーザが利用する端末装置10に関する端末情報を用いて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100において、取得部131は、ユーザの端末装置10における操作履歴に関する情報をユーザ関連情報として取得する。生成部134は、操作履歴に基づいて、文字情報から要約情報を生成する。
Further, in the
これにより、実施形態に係る生成装置100は、ユーザの端末装置10における操作履歴に関する情報を用いて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100において、取得部131は、ユーザの属性情報をユーザ関連情報として取得する。生成部134は、属性情報に基づいて、文字情報から要約情報を生成する。
In the
これにより、実施形態に係る生成装置100は、ユーザの属性情報を用いて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100において、取得部131は、ユーザのコンテキストに関する情報をユーザ関連情報として取得する。生成部134は、コンテキストに関する情報に基づいて、文字情報から要約情報を生成する。
In the
これにより、実施形態に係る生成装置100は、ユーザのコンテキストに関する情報を用いて要約を生成することにより、ユーザに応じて適切な要約を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100において、生成部134は、生成した要約情報をさらに要約した多重要約情報を生成する。
In the
これにより、実施形態に係る生成装置100は、生成した要約情報をさらに要約した多重要約情報を生成することにより、ユーザに応じて所望の要約を生成することができる。
Thus, the
また、実施形態に係る生成装置100において、取得部131は、所定のコンテンツに含まれる記事を文字情報として取得する。生成部134は、記事から要約情報として記事のタイトルを生成し、タイトルから多重要約情報として短縮タイトルを生成する。
In the
これにより、実施形態に係る生成装置100は、記事から要約情報として記事のタイトルを生成し、タイトルから多重要約情報として短縮タイトルを生成することにより、ユーザに応じて適切な短縮タイトルを生成することができる。
Thus, the
〔10.ハードウェア構成〕
上述してきた実施形態に係る生成装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。図13は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[10. Hardware configuration)
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が決定したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、決定したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. It is possible to implement the present invention in other forms with improvements.
〔11.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[11. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments can be appropriately combined within a range in which processing contents are not contradictory.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 生成システム
100 生成装置
121 編集情報記憶部
122 モデル情報記憶部
123 ユーザ関連情報記憶部
124 コンテンツ情報記憶部
130 制御部
131 取得部
132 学習部
133 算出部
134 生成部
135 配信部
DESCRIPTION OF SYMBOLS 1
また、生成装置100は、端末装置10を利用するユーザの操作履歴に応じて、生成する短縮タイトルを変動させてもよい。例えば、生成装置100は、ユーザの操作履歴として配信したコンテンツ等へのユーザの操作に関する情報を用いてもよい。例えば、生成装置100は、ユーザの操作履歴中にスクロールが速い等の情報が含まれる場合、そのユーザの性格をせっかちと推定し、通常よりも短い要約を生成してもよい。また、例えば、生成装置100は、ユーザの操作履歴中にスクロールが遅い等の情報が含まれる場合、そのユーザの性格をのんびりと推定し、通常よりも長い要約を生成してもよい。
In addition, the
Claims (12)
前記取得部により取得したユーザ関連情報に基づいて、前記取得部により取得した文字情報から要約情報を生成する生成部と、
を備えることを特徴とする生成装置。 An acquisition unit that acquires character information and user-related information that is information about a user who is a providing destination;
Based on the user related information acquired by the acquisition unit, a generation unit that generates summary information from the character information acquired by the acquisition unit;
A generating apparatus comprising:
第1文字情報と、前記第1文字情報の要約情報である第2文字情報とが対応付けられた情報により学習されたモデルに基づいて、前記文字情報から要約情報を生成する
ことを特徴とする請求項1に記載の生成装置。 The generator is
Summarization information is generated from the character information based on a model learned from information in which first character information and second character information that is summary information of the first character information are associated with each other. The generation device according to claim 1.
前記ユーザ関連情報と前記モデルとに基づいて算出されるスコアに基づいて、前記文字情報から前記要約情報を生成する
ことを特徴とする請求項2に記載の生成装置。 The generator is
The generating apparatus according to claim 2, wherein the summary information is generated from the character information based on a score calculated based on the user-related information and the model.
前記ユーザ関連情報により学習された前記モデルに基づいて、前記文字情報から要約情報を生成する
ことを特徴とする請求項2または請求項3に記載の生成装置。 The generator is
4. The generation apparatus according to claim 2, wherein summary information is generated from the character information based on the model learned from the user-related information. 5.
前記ユーザが利用する端末装置に関する端末情報を前記ユーザ関連情報として取得し、
前記生成部は、
前記端末情報に基づいて、前記文字情報から前記要約情報を生成する
ことを特徴とする請求項1〜4のいずれか1項に記載の生成装置。 The acquisition unit
Obtaining terminal information related to the terminal device used by the user as the user-related information;
The generator is
The generation apparatus according to claim 1, wherein the summary information is generated from the character information based on the terminal information.
前記ユーザの端末装置における操作履歴に関する情報を前記ユーザ関連情報として取得し、
前記生成部は、
前記操作履歴に基づいて、前記文字情報から前記要約情報を生成する
ことを特徴とする請求項1〜5のいずれか1項に記載の生成装置。 The acquisition unit
Obtaining information related to operation history in the terminal device of the user as the user-related information;
The generator is
The generation apparatus according to claim 1, wherein the summary information is generated from the character information based on the operation history.
前記ユーザの属性情報を前記ユーザ関連情報として取得し、
前記生成部は、
前記属性情報に基づいて、前記文字情報から前記要約情報を生成する
ことを特徴とする請求項1〜6のいずれか1項に記載の生成装置。 The acquisition unit
Obtaining the user attribute information as the user-related information;
The generator is
The generation apparatus according to any one of claims 1 to 6, wherein the summary information is generated from the character information based on the attribute information.
前記ユーザのコンテキストに関する情報を前記ユーザ関連情報として取得し、
前記生成部は、
前記コンテキストに関する情報に基づいて、前記文字情報から前記要約情報を生成する
ことを特徴とする請求項1〜7のいずれか1項に記載の生成装置。 The acquisition unit
Obtaining information about the user's context as the user-related information;
The generator is
The generation apparatus according to claim 1, wherein the summary information is generated from the character information based on information related to the context.
生成した前記要約情報をさらに要約した多重要約情報を生成する
ことを特徴とする請求項1〜8のいずれか1項に記載の生成装置。 The generator is
The generation apparatus according to claim 1, wherein multiple summary information is generated by further summarizing the generated summary information.
所定のコンテンツに含まれる記事を前記文字情報として取得し、
前記生成部は、
前記記事から前記要約情報として前記記事のタイトルを生成し、前記タイトルから前記多重要約情報として短縮タイトルを生成する
ことを特徴とする請求項9に記載の生成装置。 The acquisition unit
An article included in predetermined content is acquired as the character information,
The generator is
The generation apparatus according to claim 9, wherein a title of the article is generated as the summary information from the article, and a shortened title is generated as the multiple summary information from the title.
文字情報と、提供先となるユーザに関する情報であるユーザ関連情報とを取得する取得工程と、
前記取得工程により取得したユーザ関連情報に基づいて、前記取得工程により取得した文字情報から要約情報を生成する生成工程と、
を含むことを特徴とする生成方法。 A generation method executed by a computer,
An acquisition step of acquiring character information and user-related information that is information about a user who is a providing destination;
Based on the user-related information acquired by the acquisition step, a generation step of generating summary information from the character information acquired by the acquisition step;
A generation method comprising:
前記取得手順により取得したユーザ関連情報に基づいて、前記取得手順により取得した文字情報から要約情報を生成する生成手順と、
をコンピュータに実行させることを特徴とする生成プログラム。 An acquisition procedure for acquiring character information and user-related information that is information about a user who is a providing destination;
Based on the user related information acquired by the acquisition procedure, a generation procedure for generating summary information from the character information acquired by the acquisition procedure;
A program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127570A JP6152199B1 (en) | 2016-06-28 | 2016-06-28 | Generating device, generating method, and generating program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127570A JP6152199B1 (en) | 2016-06-28 | 2016-06-28 | Generating device, generating method, and generating program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6152199B1 JP6152199B1 (en) | 2017-06-21 |
JP2018005324A true JP2018005324A (en) | 2018-01-11 |
Family
ID=59081941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016127570A Active JP6152199B1 (en) | 2016-06-28 | 2016-06-28 | Generating device, generating method, and generating program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6152199B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018537759A (en) * | 2015-10-16 | 2018-12-20 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Title display method and apparatus |
JP2020071677A (en) * | 2018-10-31 | 2020-05-07 | 富士通株式会社 | Learning method, learning program and generating method |
JP2020181270A (en) * | 2019-04-23 | 2020-11-05 | ヤフー株式会社 | Conversion device, conversion method, and conversion program |
WO2023199523A1 (en) * | 2022-04-15 | 2023-10-19 | 三菱電機株式会社 | Asset management program, asset management device, learning device, asset management system, and asset management method |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6205466B1 (en) * | 2016-07-19 | 2017-09-27 | ヤフー株式会社 | Generating device, generating method, and generating program |
JP6982444B2 (en) * | 2017-09-20 | 2021-12-17 | ヤフー株式会社 | Learning device, generator, learning method, generation method, learning program, and generation program |
JP7088646B2 (en) * | 2017-09-20 | 2022-06-21 | ヤフー株式会社 | Generator, learning device, generation method, learning method, generation program, and learning program |
JP6979899B2 (en) * | 2017-09-20 | 2021-12-15 | ヤフー株式会社 | Generator, learning device, generation method, learning method, generation program, and learning program |
CN111723295B (en) * | 2020-06-30 | 2023-10-17 | 腾讯科技(深圳)有限公司 | Content distribution method, device and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282640A (en) * | 2000-03-30 | 2001-10-12 | Oki Electric Ind Co Ltd | Electronic mail transfer method |
JP2005301584A (en) * | 2004-04-09 | 2005-10-27 | Mitsubishi Electric Corp | Server, method and program for distributing summary article |
JP2012008971A (en) * | 2010-06-28 | 2012-01-12 | Rakuten Inc | Retrieval information display device, retrieval information display method, retrieval information display program, information retrieval device, information retrieval program, and recording medium |
JP2013097723A (en) * | 2011-11-04 | 2013-05-20 | Nippon Telegr & Teleph Corp <Ntt> | Text summarization apparatus, method and program |
JP2014508999A (en) * | 2011-01-28 | 2014-04-10 | インテル コーポレイション | Method and system for summarizing source text as a function of contextual information |
JP2016085672A (en) * | 2014-10-28 | 2016-05-19 | Necパーソナルコンピュータ株式会社 | Information processing device, method, and program |
-
2016
- 2016-06-28 JP JP2016127570A patent/JP6152199B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282640A (en) * | 2000-03-30 | 2001-10-12 | Oki Electric Ind Co Ltd | Electronic mail transfer method |
JP2005301584A (en) * | 2004-04-09 | 2005-10-27 | Mitsubishi Electric Corp | Server, method and program for distributing summary article |
JP2012008971A (en) * | 2010-06-28 | 2012-01-12 | Rakuten Inc | Retrieval information display device, retrieval information display method, retrieval information display program, information retrieval device, information retrieval program, and recording medium |
JP2014508999A (en) * | 2011-01-28 | 2014-04-10 | インテル コーポレイション | Method and system for summarizing source text as a function of contextual information |
JP2013097723A (en) * | 2011-11-04 | 2013-05-20 | Nippon Telegr & Teleph Corp <Ntt> | Text summarization apparatus, method and program |
JP2016085672A (en) * | 2014-10-28 | 2016-05-19 | Necパーソナルコンピュータ株式会社 | Information processing device, method, and program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018537759A (en) * | 2015-10-16 | 2018-12-20 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Title display method and apparatus |
JP2020071677A (en) * | 2018-10-31 | 2020-05-07 | 富士通株式会社 | Learning method, learning program and generating method |
US11386272B2 (en) | 2018-10-31 | 2022-07-12 | Fujitsu Limited | Learning method and generating apparatus |
JP7211011B2 (en) | 2018-10-31 | 2023-01-24 | 富士通株式会社 | LEARNING METHOD, LEARNING PROGRAM AND GENERATION METHOD |
JP2020181270A (en) * | 2019-04-23 | 2020-11-05 | ヤフー株式会社 | Conversion device, conversion method, and conversion program |
JP7191763B2 (en) | 2019-04-23 | 2022-12-19 | ヤフー株式会社 | Conversion device, conversion method and conversion program |
WO2023199523A1 (en) * | 2022-04-15 | 2023-10-19 | 三菱電機株式会社 | Asset management program, asset management device, learning device, asset management system, and asset management method |
JP7374347B1 (en) * | 2022-04-15 | 2023-11-06 | 三菱電機株式会社 | Asset management program, asset management device, learning device, asset management system and asset management method |
Also Published As
Publication number | Publication date |
---|---|
JP6152199B1 (en) | 2017-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6152199B1 (en) | Generating device, generating method, and generating program | |
US20220382990A1 (en) | System for minimizing repetition in intelligent virtual assistant conversations | |
US20190121850A1 (en) | Computerized system and method for automatically transforming and providing domain specific chatbot responses | |
US11132349B2 (en) | Update basis for updating digital content in a digital medium environment | |
US10628474B2 (en) | Probabalistic generation of diverse summaries | |
US20190108288A1 (en) | Attribute Control for Updating Digital Content in a Digital Medium Environment | |
US9984045B2 (en) | Dynamic adjustment of rendering parameters to optimize reading speed | |
JP6205466B1 (en) | Generating device, generating method, and generating program | |
US20140335483A1 (en) | Language proficiency detection in social applications | |
WO2014089524A1 (en) | Communication context based predictive-text suggestion | |
CN110709852A (en) | Automatic upselling in customer conversations | |
US10038757B2 (en) | Providing personalized greetings on a digital assistant | |
CN105929979B (en) | Long sentence input method and device | |
CN115039064A (en) | Dynamic typesetting | |
US20170075862A1 (en) | Content search using visual styles | |
JP2019125317A (en) | Device, method, and program for processing information | |
JP2019053558A (en) | Learning device, learning method, learning program, first model, and second model | |
CN109976508B (en) | Information providing device | |
KR101861828B1 (en) | Method of providing personalized content and computer program for the same | |
CN107665442A (en) | Obtain the method and device of targeted customer | |
JP2018077671A (en) | Information processing apparatus, information processing method, apparatus for generating prediction models, method for generating prediction models and program | |
US20220129781A1 (en) | Method, apparatus and computer program product for improving interpretability of software black-box machine learning model outputs | |
WO2016176375A1 (en) | Providing personalized greetings on a digital assistant | |
JP2020181270A (en) | Conversion device, conversion method, and conversion program | |
JP2020135566A (en) | Information processing device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6152199 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |