JP2018028925A - Next utterance candidate ranking device, method and program - Google Patents

Next utterance candidate ranking device, method and program Download PDF

Info

Publication number
JP2018028925A
JP2018028925A JP2017194166A JP2017194166A JP2018028925A JP 2018028925 A JP2018028925 A JP 2018028925A JP 2017194166 A JP2017194166 A JP 2017194166A JP 2017194166 A JP2017194166 A JP 2017194166A JP 2018028925 A JP2018028925 A JP 2018028925A
Authority
JP
Japan
Prior art keywords
utterance
concept
next utterance
utterance candidate
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017194166A
Other languages
Japanese (ja)
Other versions
JP6574469B2 (en
Inventor
克人 別所
Katsuto Bessho
克人 別所
東中 竜一郎
Ryuichiro Higashinaka
竜一郎 東中
牧野 俊朗
Toshiaki Makino
俊朗 牧野
松尾 義博
Yoshihiro Matsuo
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017194166A priority Critical patent/JP6574469B2/en
Publication of JP2018028925A publication Critical patent/JP2018028925A/en
Application granted granted Critical
Publication of JP6574469B2 publication Critical patent/JP6574469B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate interaction between a system and a user by appropriate utterance being returned from the system as a next utterance.SOLUTION: In a next utterance candidate ranking device, concept score calculation means 21 inputs a speech string A to be a context and a next utterance candidate set, refers to a concept base 22, generates a concept vector of the speech string A and a concept vector of respective next utterance candidates B in the next utterance candidate set, calculates a score indicating closeness between the concept vector of the speech string A and the concept vector of the next utterance candidate B for each of the next utterance candidate B, and ranks the next utterance candidate sets based on the score.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザとの間で対話を行う対話システムにおいて、ユーザとの間で、ある発話列がやり取りされた後、システムが生成した次発話候補集合の中で、システム側が発する次発話として相応しい次発話候補を決定するための次発話候補ランキング装置、方法、及びプログラムに関する。   The present invention is suitable as a next utterance to be uttered by the system side in a next utterance candidate set generated by the system after a certain utterance sequence is exchanged with the user in an interactive system that performs a dialogue with the user. The present invention relates to a next utterance candidate ranking apparatus, method, and program for determining a next utterance candidate.

非タスク指向型対話システムでは、対話の内容は雑談であり、非特許文献1では、ウェブやツイッター(登録商標)などの文章をデータベース化しておき、ユーザ発話に類似するものを選択することでシステム発話を生成する。   In the non-task-oriented dialog system, the content of the dialog is chat, and in Non-Patent Document 1, the system is prepared by creating a database of texts such as the web and Twitter (registered trademark) and selecting those similar to user utterances. Generate an utterance.

これまでやり取りされてきた発話列における焦点(トピック)を求め、当該焦点について言及した文をデータベースから次発話候補として複数取り、この次発話候補をランキングする手法がある。ランキングをした後、ランキング結果における上位1位の次発話候補、あるいは、上位何位かまでからランダムに選択した次発話候補をシステムがユーザに返す。   There is a technique for obtaining a focus (topic) in an utterance sequence exchanged so far, taking a plurality of sentences referring to the focus as a next utterance candidate from a database, and ranking the next utterance candidate. After ranking, the system returns the top first utterance candidate in the ranking result or the next utterance candidate randomly selected from the top number to the user.

このような手法として、直前のN(≧1)個の発話の列を文脈とし、文脈発話列及び次発話候補における単語や品詞、単語の意味カテゴリ等の特徴量と、事前に教師あり学習で得たモデルとから、該次発話候補が次発話として相応しい度合いを表すスコアを算出し、該スコアに基づき次発話候補集合をランキングする、結束性に基づく手法がある。   As such a method, a sequence of N (≧ 1) utterances immediately before is used as a context, and feature quantities such as words and parts of speech and word semantic categories in the context utterance sequence and the next utterance candidate, and supervised learning in advance. There is a method based on cohesiveness, in which a score representing a degree that the next utterance candidate is appropriate as the next utterance is calculated from the obtained model, and the next utterance candidate set is ranked based on the score.

Bessho, F., Harada, T., and Kuniyoshi, Y.“Dialog System Using Real-Time Crowdsourcing and Twitter Large-Scale Corpus.”InProc. SIGDIAL, pp. 227-231, 2012.Bessho, F., Harada, T., and Kuniyoshi, Y. “Dialog System Using Real-Time Crowdsourcing and Twitter Large-Scale Corpus.” InProc. SIGDIAL, pp. 227-231, 2012.

上述した結束性に基づく手法では、単語の意味カテゴリ等の特徴量を用いて、シソーラス上の同一ノードに属する単語の間の意味的類似性を考慮できるが、ノードを超えた単語間の意味的類似性を考慮できないという課題がある。このため、文脈発話列と次発話候補との間で、文字列は異なるが、意味的には類似している単語が存在する場合、該文脈発話列と該次発話候補の類似性が不当に低くなり、該次発話候補が次発話として相応しいにも関わらず、そのスコアが不当に低くなるという課題がある。   In the method based on cohesiveness described above, it is possible to consider semantic similarity between words belonging to the same node on the thesaurus using feature quantities such as semantic categories of words. There is a problem that similarity cannot be considered. For this reason, if there is a word that is different in character string between the context utterance sequence and the next utterance candidate but is semantically similar, the similarity between the context utterance sequence and the next utterance candidate is unreasonable. There is a problem that the score becomes unreasonably low even though the next utterance candidate is suitable as the next utterance.

本発明の第1の目的は、この課題を解決するため、任意の単語間の意味的類似性を考慮できる次発話候補ランキング装置、方法、及びプログラムを提供することにある。具体的には、単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースを利用することにより、この課題を解決する。   In order to solve this problem, the first object of the present invention is to provide a next utterance candidate ranking apparatus, method, and program capable of considering semantic similarity between arbitrary words. Specifically, this problem is solved by using a concept base that is a set of pairs of a word and a concept vector representing the meaning of the word.

上記概念ベースに基づく手法により、任意の単語間の意味的類似性を考慮した次発話候補ランキングができるようになるが、一般に概念ベースでは、名詞・動詞・形容詞等の内容語にのみ概念ベクトルが振られている。次発話として相応しいかは、文脈発話列と次発話候補に含まれる文末表現等の付属語も手掛かりとなり、概念ベースを利用した手法ではそれが考慮されない。また、文脈発話列または次発話候補に内容語が無い等の理由で概念ベクトルが生成されない場合、該次発話候補のスコアを算出できない。   The above-mentioned method based on the concept base makes it possible to rank the next utterance candidate in consideration of the semantic similarity between arbitrary words. Generally, on the concept base, only concept words are used for content words such as nouns, verbs, and adjectives. It is shaken. Whether it is appropriate for the next utterance is a context utterance string and an attached word such as a sentence ending expression included in the next utterance candidate, which is not considered in the method using the concept base. Further, when a concept vector is not generated because there is no content word in the context utterance sequence or the next utterance candidate, the score of the next utterance candidate cannot be calculated.

本発明の第2の目的は、この課題を解決するため、結束性に基づく手法と概念ベースに基づく手法それぞれの長所を活かし、短所を他方で補うことにより高精度な次発話候補ランキング装置、方法、及びプログラムを提供することにある。   In order to solve this problem, the second object of the present invention is to utilize the advantages of both the cohesiveness-based method and the concept-based method, and to compensate for the shortcomings on the other side, thereby providing a highly accurate next utterance candidate ranking device and method. And providing a program.

上記第1の目的を達成するため、本発明に係る次発話候補ランキング装置は、単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、文脈となる発話列Aと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Aの概念ベクトルを生成し、前記次発話候補集合における各次発話候補Bの概念ベクトルを生成し、各次発話候補Bに対し、前記発話列Aの概念ベクトルと前記次発話候補Bの概念ベクトルとの近さを表すスコアを算出し、該スコアに基づき前記次発話候補集合をランキングする概念スコア算出手段と、を含んで構成されている。   In order to achieve the first object, the next utterance candidate ranking device according to the present invention includes a concept base that is a set of a pair of a word and a concept vector representing the meaning of the word, an utterance string A that is a context, and the next The utterance candidate set is input, the concept base is referred to, a concept vector of the utterance sequence A is generated, a concept vector of each next utterance candidate B in the next utterance candidate set is generated, On the other hand, it includes a score calculation means for calculating a score representing the proximity between the concept vector of the utterance string A and the concept vector of the next utterance candidate B, and ranking the next utterance candidate set based on the score. It is configured.

また、本発明に係る次発話候補ランキング方法は、単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、概念スコア算出手段とを含む次発話候補ランキング装置における次発話候補ランキング方法であって、前記概念スコア算出手段が、文脈となる発話列Aと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Aの概念ベクトルを生成し、前記次発話候補集合における各次発話候補Bの概念ベクトルを生成し、各次発話候補Bに対し、前記発話列Aの概念ベクトルと前記次発話候補Bの概念ベクトルとの近さを表すスコアを算出し、該スコアに基づき前記次発話候補集合をランキングする。   Further, the next utterance candidate ranking method according to the present invention provides a next utterance candidate in a next utterance candidate ranking device including a concept base that is a set of a pair of a word and a concept vector representing the meaning of the word, and a concept score calculating means. In the ranking method, the concept score calculating means receives the utterance string A as a context and a next utterance candidate set as input, generates a concept vector of the utterance string A by referring to the concept base, and generates the next utterance. A concept vector of each next utterance candidate B in the candidate set is generated, and a score representing the proximity between the concept vector of the utterance string A and the concept vector of the next utterance candidate B is calculated for each next utterance candidate B; The next utterance candidate set is ranked based on the score.

また、本発明のプログラムは、コンピュータを、上記の次発話候補ランキング装置を構成する各手段として機能させるためのプログラムである。   Moreover, the program of this invention is a program for functioning a computer as each means which comprises said next utterance candidate ranking apparatus.

また、上記第2の目的を達成するため、上記の次発話候補ランキング装置は、教師あり学習で得たモデルと、前記発話列A及び前記次発話候補集合における各次発話候補Bに関する特徴量とから、各次発話候補Bに対し、前記次発話候補Bが前記発話列Aの次発話として相応しい度合いを表すスコアを算出し、該スコアに基づき前記次発話候補集合をランキングする結束スコア算出手段と、前記次発話候補集合における各次発話候補Bに対し、前記概念スコア算出手段によるランキング結果における順位をCとし、前記結束スコア算出手段によるランキング結果における順位をDとしたとき、前記概念スコア算出手段で前記発話列A及び前記次発話候補Bの概念ベクトルが生成される場合は、順位Cと順位Dとを重みづけして足し合わせた値を、前記次発話候補Bの結合順位とし、前記概念スコア算出手段で前記発話列Aまたは前記次発話候補Bの概念ベクトルが生成されない場合は、順位Dを前記次発話候補Bの結合順位とし、前記結合順位の昇順に前記次発話候補集合をランキングする統合手段と、を更に含むようにすることができる。   In order to achieve the second object, the next utterance candidate ranking device includes a model obtained by supervised learning, and a feature amount regarding each utterance candidate B in the utterance string A and the next utterance candidate set. From each of the next utterance candidates B, a unity score calculating means for calculating a score indicating a degree to which the next utterance candidate B is suitable as the next utterance of the utterance string A and ranking the next utterance candidate set based on the score; For each next utterance candidate B in the next utterance candidate set, when the ranking in the ranking result by the concept score calculating means is C and the ranking in the ranking result by the cohesion score calculating means is D, the concept score calculating means In the case where the concept vectors of the utterance string A and the next utterance candidate B are generated, the value obtained by weighting and adding the rank C and the rank D , The combination order of the next utterance candidate B, and if the concept score calculation means does not generate the utterance string A or the concept vector of the next utterance candidate B, the rank D is the combination rank of the next utterance candidate B, and Integration means for ranking the next utterance candidate set in ascending order of the combination order.

本発明に係る次発話候補ランキング装置、方法、及びプログラムによれば、概念ベースを参照し、発話列Aの概念ベクトルを生成し、次発話候補集合における各次発話候補Bの概念ベクトルを生成し、各次発話候補Bに対し、発話列Aの概念ベクトルと次発話候補Bの概念ベクトルとの近さを表すスコアを算出し、該スコアに基づき次発話候補集合をランキングして、次発話として相応しい発話をシステムが返すことにより、システムとユーザとのインタラクションが円滑になる、という効果を有する。   According to the next utterance candidate ranking apparatus, method, and program according to the present invention, the concept base is referred to, the concept vector of the utterance string A is generated, and the concept vector of each next utterance candidate B in the next utterance candidate set is generated. For each next utterance candidate B, a score representing the closeness between the concept vector of the utterance sequence A and the concept vector of the next utterance candidate B is calculated, and the next utterance candidate set is ranked based on the score to obtain the next utterance. Since the system returns a suitable utterance, there is an effect that the interaction between the system and the user becomes smooth.

本発明の実施の形態に係る次発話候補ランキング装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the next utterance candidate ranking apparatus which concerns on embodiment of this invention. 概念ベースの例を示す図である。It is a figure which shows the example of a concept base. 本発明の実施の形態に係る次発話候補ランキング装置における処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the process routine in the next utterance candidate ranking apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る次発話候補ランキング装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the next utterance candidate ranking apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る次発話候補ランキング装置における処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the process routine in the next utterance candidate ranking apparatus which concerns on embodiment of this invention. 評価の結果を示した図である。It is the figure which showed the result of evaluation. 重みα毎の評価の結果を示した図である。It is the figure which showed the result of evaluation for every weight (alpha).

以下、図面とともに本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<次発話候補ランキング装置の構成>
次に、本発明の実施の形態に係る次発話候補ランキング装置の構成について説明する。図1は、本発明の請求項1の次発話候補ランキング装置の構成例である。図1に示すように、本発明の実施の形態に係る次発話候補ランキング装置100は、CPUと、RAMと、後述する処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この次発話候補ランキング装置100は、機能的には図1に示すように入力手段10と、演算手段20と、出力手段30とを備えている。
<Configuration of next utterance candidate ranking device>
Next, the configuration of the next utterance candidate ranking apparatus according to the embodiment of the present invention will be described. FIG. 1 is a configuration example of a next utterance candidate ranking apparatus according to claim 1 of the present invention. As shown in FIG. 1, a next utterance candidate ranking apparatus 100 according to an embodiment of the present invention includes a CPU, a RAM, and a ROM that stores a program and various data for executing a processing routine described later. Can be configured with a computer. The next utterance candidate ranking apparatus 100 functionally includes an input unit 10, a calculation unit 20, and an output unit 30 as shown in FIG.

入力手段10は、入力された文脈となる発話列Aと、次発話候補集合とを受け付ける。   The input unit 10 receives the utterance string A that is the input context and the next utterance candidate set.

システムとユーザとの間でこれまでやり取りされてきた発話を時系列順に並べて、x1,x2,・・・,xmとする。N(≧1)を定め、当該発話列において、直前のN個の発話の列(x(m-N+1),x(m-N+2),・・・,xm)を、文脈となる発話列Aとして入力する。発話列Aとして、直前までの全発話(x1,x2,・・・,xm)を入力してもよい。   The utterances exchanged so far between the system and the user are arranged in chronological order, and are set as x1, x2,..., Xm. N (≧ 1) is determined, and the sequence of the last N utterances (x (m−N + 1), x (m−N + 2),..., Xm) As an utterance string A. As the utterance string A, all utterances (x1, x2,..., Xm) up to immediately before may be input.

別途、これまでの発話列から抽出した焦点(トピック)について言及した文を、データベースから次発話候補として複数取るものとし、次発話候補集合として入力する。   Separately, a plurality of sentences referring to the focus (topic) extracted from the utterance sequence so far are taken as the next utterance candidates from the database, and are input as the next utterance candidate set.

演算手段20は、概念スコア算出手段21と、概念ベース22とを含んで構成されている。   The calculation means 20 includes a concept score calculation means 21 and a concept base 22.

概念ベース22は、単語(名詞、動詞、形容詞等の内容語)と該単語の意味を表す概念ベクトルとの対の集合を記憶している。図2は、概念ベース22の例である。概念ベース22は、例えば、非特許文献2の手法によって生成する(非特許文献2:別所克人, 内山俊郎, 内山匡, 片岡良治, 奥雅博,“単語・意味属性間共起に基づくコーパス概念ベースの生成方式,”情報処理学会論文誌, Dec. 2008, Vol.49, No.12, pp.3997-4006.)。   The concept base 22 stores a set of pairs of words (content words such as nouns, verbs, and adjectives) and concept vectors representing the meaning of the words. FIG. 2 is an example of the concept base 22. The concept base 22 is generated by, for example, the method of Non-Patent Document 2 (Non-Patent Document 2: Katsuto Bessho, Toshiro Uchiyama, Jun Uchiyama, Ryoji Kataoka, Masahiro Oku, “Corpus Concept Based on Co-occurrence between Words and Meaning Attributes” Generating method of the base, “Journal of Information Processing Society of Japan, Dec. 2008, Vol.49, No.12, pp.3997-4006.).

内容語は、該内容語の終止形で登録されており、概念ベース22を検索する際は、内容語の終止形で検索する。各内容語の概念ベクトルは長さ1に正規化されたk次元ベクトルであり、意味的に近い内容語の概念ベクトルは、近くに配置されている。内容語同士の類似度は、例えば、対応する概念ベクトル間の内積によって算出する。   The content word is registered with the final form of the content word, and when searching the concept base 22, the content word is searched with the final form of the content word. The concept vector of each content word is a k-dimensional vector normalized to a length of 1, and the concept vectors of content words that are semantically close are arranged nearby. The similarity between content words is calculated by, for example, an inner product between corresponding concept vectors.

もっとも、概念ベース22に内容語以外の単語を登録してもよく、また、与えられたテキストの概念ベクトルを生成する際に、該テキスト中の内容語以外の単語で概念ベース22を検索して取得した単語概念ベクトルも使用してもよい。以下では、概念ベース22には内容語のみが登録されており、与えられたテキストの概念ベクトルを生成する際は、該テキスト中の内容語で概念ベース22を検索して取得した単語概念ベクトルのみを使用するものとして記述する。   Of course, words other than the content words may be registered in the concept base 22, and when the concept vector of the given text is generated, the concept base 22 is searched for words other than the content words in the text. The acquired word concept vector may also be used. In the following, only content words are registered in the concept base 22, and when generating a concept vector of a given text, only the word concept vector obtained by searching the concept base 22 with the content words in the text is used. Describe as using.

図3は、概念スコア算出手段21の処理フローの一例である。図3に沿って、概念スコア算出手段21の処理内容を説明する。   FIG. 3 is an example of the processing flow of the concept score calculation means 21. The processing content of the concept score calculation means 21 is demonstrated along FIG.

まず、ステップS1において、発話列Aの全発話を単語分割して得られた各内容語で概念ベース22を検索し、取得した概念ベクトルを加算し、その結果得られた概念ベクトルを長さ1に正規化したものを、発話列Aの概念ベクトルVAとして生成する。   First, in step S1, the concept base 22 is searched for each content word obtained by dividing all the utterances in the utterance string A into words, the acquired concept vectors are added, and the resulting concept vector has a length of 1 Is normalized as a concept vector VA of the utterance string A.

そして、ステップS2において、次発話候補集合における各次発話候補Bに対し、次発話候補Bを単語分割して得られた各内容語で概念ベース22を検索し、取得した概念ベクトルを加算し、その結果得られた概念ベクトルを長さ1に正規化したものを、次発話候補Bの概念ベクトルVBとして生成する。   In step S2, the concept base 22 is searched for each content word obtained by dividing the next utterance candidate B into words for each next utterance candidate B in the next utterance candidate set, and the acquired concept vector is added. The concept vector obtained as a result of normalization to the length 1 is generated as the concept vector VB of the next utterance candidate B.

次のステップS3において、次発話候補集合における各次発話候補Bに対し、上記ステップS1で生成された発話列Aの概念ベクトルVA、及び上記ステップS2で生成された次発話候補Bの概念ベクトルVBに基づいて、次発話候補Bのスコアを、以下の式1に従って算出する。   In the next step S3, for each next utterance candidate B in the next utterance candidate set, the concept vector VA of the utterance string A generated in step S1 and the concept vector VB of the next utterance candidate B generated in step S2. Based on the above, the score of the next utterance candidate B is calculated according to the following equation 1.

(VA・VB+1)/2 (式1)   (VA · VB + 1) / 2 (Formula 1)

ここで、VA・VBは、VAとVBの内積である。スコア値は0以上1以下となり、値が大きい程、発話列Aと次発話候補Bとの意味的な類似度が高い。   Here, VA · VB is an inner product of VA and VB. The score value is from 0 to 1, and the greater the value, the higher the semantic similarity between the utterance string A and the next utterance candidate B.

ステップS4において、スコアの降順に次発話候補集合をランキングし、処理ルーチンを終了する。これにより、発話列Aとの意味的な類似度の高い順に次発話候補集合がランキングされる。   In step S4, the next utterance candidate set is ranked in descending order of the score, and the processing routine is terminated. As a result, the next utterance candidate set is ranked in descending order of the semantic similarity with the utterance string A.

ランキング結果における上位1位の次発話候補、あるいは、上位何位かまでからランダムに選択した次発話候補を、出力手段30によりシステムがユーザに返す。   The system returns the next utterance candidate in the top rank in the ranking result or the next utterance candidate randomly selected from the top to the top by the output means 30 to the user.

発話列Aと次発話候補Bとの間で、文字列は異なるが、意味的には類似している単語が存在する場合でも、算出するスコアが高くなるので、本発明により、次発話として相応しい次発話候補が選択されやすくなる。   Although the character string is different between the utterance string A and the next utterance candidate B, even if there are words that are semantically similar, the calculated score is high. The next utterance candidate is easily selected.

上記処理では、発話列Aの概念ベクトルを求めた。発話列A中の各発話ごとに概念ベクトルを求めると、ある発話で十分な内容語が無い等の場合に、該発話の概念ベクトルの品質が低いものとなる可能性がある。各発話に十分な内容語が無い場合でも、発話列A全体では、内容語が十分揃うことがあり、そのような場合、発話列Aの概念ベクトルは品質が高いものとなる。上記処理により、より高品質な概念ベクトルを生成できる。   In the above process, the concept vector of the utterance string A was obtained. If a concept vector is obtained for each utterance in the utterance string A, the quality of the concept vector of the utterance may be low when there are not enough content words in a certain utterance. Even if there are not enough content words for each utterance, the entire utterance string A may have sufficient content words, and in such a case, the concept vector of the utterance string A has high quality. By the above process, a higher quality concept vector can be generated.

もっともあえて、発話列Aの各発話ごとに概念ベクトルを求め、取得した概念ベクトルの和を長さ1に正規化したものを、発話列Aの概念ベクトルとするというようにしてもよい。   Needless to say, a concept vector may be obtained for each utterance of the utterance string A, and the sum of the acquired concept vectors normalized to length 1 may be used as the concept vector of the utterance string A.

スコア算出の別の手法として、以下の手法もある。例えば、発話列Aの各発話ごとに概念ベクトルを求め、次発話候補Bの概念ベクトルを求める。発話列Aの少なくとも一つの発話の概念ベクトル、及び、次発話候補Bの概念ベクトルが取得できた場合に、取得した全概念ベクトルの重心と、取得した各概念ベクトルとの距離の自乗の平均の平方根を、次発話候補Bのスコアとする。スコア値は0以上となり、値が小さい程、発話列Aと次発話候補Bとの意味的な類似度が高い。スコアの昇順に次発話候補集合をランキングする。   Another method for calculating the score is as follows. For example, a concept vector is obtained for each utterance in the utterance string A, and a concept vector of the next utterance candidate B is obtained. When the concept vector of at least one utterance in the utterance string A and the concept vector of the next utterance candidate B can be acquired, the average of the squares of the distances between the acquired centroids of all concept vectors and the acquired concept vectors Let the square root be the score of the next utterance candidate B. The score value is 0 or more, and the smaller the value, the higher the semantic similarity between the utterance string A and the next utterance candidate B. The next utterance candidate set is ranked in ascending order of scores.

これまで述べたスコア算出の各手法では、発話列Aまたは次発話候補Bから概念ベクトルが生成されない場合は、次発話候補Bのスコアは算出されない。この場合には、スコアが算出されない次発話候補は、スコアが算出された次発話候補よりも順位は低いものとし、スコアが算出されない次発話候補同士はランダムに順序付けすればよい。   In each of the score calculation methods described so far, when a concept vector is not generated from the utterance string A or the next utterance candidate B, the score of the next utterance candidate B is not calculated. In this case, the next utterance candidate whose score is not calculated may be lower in rank than the next utterance candidate whose score is calculated, and the next utterance candidate whose score is not calculated may be randomly ordered.

図4は、本発明の請求項2の次発話候補ランキング装置の構成例である。なお、上記の構成例と同様の構成については、同一符号を付して説明を省略する。   FIG. 4 is a configuration example of the next utterance candidate ranking apparatus according to claim 2 of the present invention. In addition, about the structure similar to said structural example, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図4に示すように、本発明の実施の形態に係る次発話候補ランキング装置200は、機能的には図4に示すように入力手段10と、演算手段220と、出力手段30とを備えている。   As shown in FIG. 4, the next utterance candidate ranking apparatus 200 according to the embodiment of the present invention functionally includes an input means 10, a calculation means 220, and an output means 30 as shown in FIG. Yes.

演算手段220は、概念スコア算出手段21と、概念ベース22と、結束スコア算出手段223と、統合手段224とを含んで構成されている。   The calculation means 220 includes a concept score calculation means 21, a concept base 22, a unity score calculation means 223, and an integration means 224.

概念スコア算出手段21では、請求項1の次発話候補ランキング装置の構成例と同様の処理を行い、次発話候補集合のランキング結果を出力する。   The concept score calculation means 21 performs the same processing as the configuration example of the next utterance candidate ranking apparatus according to claim 1 and outputs the ranking result of the next utterance candidate set.

結束スコア算出手段223では、教師あり学習で得た、次発話候補が次発話として相応しい度合いを判定するためのモデルと、発話列A及び次発話候補集合における各次発話候補Bに含まれる単語や品詞等に関する特徴量とから、各次発話候補Bに対し、次発話候補Bが発話列Aの次発話として相応しい度合いを表すスコアを算出し、該スコアに基づき次発話候補集合をランキングし、次発話候補集合のランキング結果を出力する。本処理は、例えば、以下の第1の手法、又は第2の手法により行われる。   In the unity score calculation means 223, a model for determining the degree to which the next utterance candidate is suitable as the next utterance obtained by supervised learning, the word included in each utterance candidate B in the utterance string A and the next utterance candidate set, A score representing the degree of appropriateness of the next utterance candidate B as the next utterance of the utterance string A is calculated for each next utterance candidate B from the feature quantities related to the part of speech, etc., and the next utterance candidate set is ranked based on the score. The ranking result of the utterance candidate set is output. This processing is performed by, for example, the following first method or second method.

第1の手法では、教師あり学習として、結束性のラベルが付与された発話列について、さまざまな特徴量を抽出し、これらの特徴量が、どのような条件で発話列に含まれているときに結束性が高くなるか、低くなるかを、パターンマイニングの手法で発見する。特徴量としては、対話行為、質問タイプ、述語項構造、固有表現に関する情報、依存構造に関する情報を用いる。発話列におけるこれらの特徴量を、木構造として表す。パターンマイニングによって発見されたパターン(部分木)は、次発話候補Bが発話列Aの次発話として相応しい度合いを表すスコアを算出する処理に用いられる。具体的には、結束性の高さに寄与する部分木を多く含むものを結束性が高いとして、スコアが算出される。   In the first method, as supervised learning, various feature quantities are extracted from an utterance string to which a cohesiveness label is assigned, and when these feature quantities are included in the utterance string under any condition The pattern mining technique is used to discover whether the cohesiveness is high or low. As the feature quantity, dialogue action, question type, predicate term structure, information on specific expression, information on dependency structure are used. These feature quantities in the utterance string are expressed as a tree structure. The pattern (partial tree) discovered by pattern mining is used in a process of calculating a score representing a degree suitable for the next utterance candidate B as the next utterance of the utterance string A. Specifically, the score is calculated on the assumption that the one that includes many subtrees that contribute to the high cohesiveness has high cohesiveness.

第2の手法では、教師あり学習として、例えば、結束性が高い発話列と結束性が低い発話列をそれぞれ準備し、これらから結束性が高いか低いかを二値分類する分類器を学習する。また、第2の手法においては、雑多な話題を持った対話のような学習事例を、疑似負例を用いて作成する。   In the second method, as supervised learning, for example, an utterance sequence having high cohesiveness and an utterance sequence having low cohesiveness are prepared, and a classifier that performs binary classification of whether the cohesiveness is high or low is learned from these. . In the second method, a learning example such as a dialogue with various topics is created using a pseudo negative example.

具体的には、まず大量の対話データを用意する。人間同士が話した自然な対話であれば何でもよい。そして、これらの対話データから一定の長さの発話列をサンプリングする。この発話列をEとする。同時に、発話列Eの最後の発話を他の発話とランダムに入れ替えた発話列(発話列F)も作成する。発話列Eを正例とし、発話列Fを負例(疑似負例)とすることで、教師あり学習の手法を適用する。   Specifically, a large amount of dialogue data is prepared first. Any natural dialogue spoken by humans can be used. Then, an utterance string of a certain length is sampled from these dialogue data. Let this utterance string be E. At the same time, an utterance string (utterance string F) in which the last utterance in the utterance string E is randomly replaced with another utterance is also created. The supervised learning method is applied by setting the utterance string E as a positive example and the utterance string F as a negative example (pseudo negative example).

なお、学習手法としてはランキング学習を用いる。具体的には、発話列Fよりも発話列Eが上位にランキングされるようにランキング規則を学習する。   Note that ranking learning is used as a learning method. Specifically, the ranking rule is learned so that the utterance string E is ranked higher than the utterance string F.

また、第2の手法においては、発話列を表す特徴量として、最後の発話に含まれる単語、品詞、及び意味属性と、それ以前の発話のそれぞれに含まれる単語、品詞、及び意味属性とのすべての組み合わせを特徴量として用いる。   In the second method, as a feature amount representing an utterance string, a word, a part of speech, and a semantic attribute included in the last utterance, and a word, a part of speech, and a semantic attribute included in each of the previous utterances are included. All combinations are used as feature quantities.

第2の手法では、上述したように教師あり学習で得られたモデルと、発話列A及び次発話候補集合における各次発話候補Bの特徴量とから、次発話候補Bが発話列Aの次発話として相応しい度合いを表すスコアを算出する。   In the second method, the next utterance candidate B follows the utterance string A from the model obtained by supervised learning as described above and the feature amount of each utterance candidate B in the utterance string A and the next utterance candidate set. A score representing a degree suitable for utterance is calculated.

統合手段224は、概念スコア算出手段21が出力した次発話候補集合のランキング結果と、結束スコア算出手段223が出力した次発話候補集合のランキング結果とを入力とする。   The integration unit 224 receives the ranking result of the next utterance candidate set output by the concept score calculation unit 21 and the ranking result of the next utterance candidate set output by the cohesion score calculation unit 223 as inputs.

次発話候補集合における各次発話候補Bの、概念スコア算出手段21によるランキング結果における順位をCとし、結束スコア算出手段223によるランキング結果における順位をDとする。   The rank in the ranking result by the conceptual score calculation means 21 of each next utterance candidate B in the next utterance candidate set is C, and the rank in the ranking result by the cohesion score calculation means 223 is D.

次発話候補Bの結合順位Uを以下のようにして算出する。重みαを0以上1以下の定数とする。   The joining rank U of the next utterance candidate B is calculated as follows. The weight α is a constant between 0 and 1.

概念スコア算出手段21で、発話列A及び次発話候補Bの概念ベクトルが生成される場合、すなわち、次発話候補Bのスコアが算出される場合は、以下の式に従って、結合順位Uを算出する。   When the concept score calculation unit 21 generates the concept vectors of the utterance string A and the next utterance candidate B, that is, when the score of the next utterance candidate B is calculated, the combination rank U is calculated according to the following equation. .

U:=α・C+(1-α)・D     U: = α · C + (1-α) · D

概念スコア算出手段21で、発話列Aまたは次発話候補Bの概念ベクトルが生成されない場合、すなわち、次発話候補Bのスコアが算出されない場合は、以下の式に従って、結合順位Uを算出する。   When the concept score calculation unit 21 does not generate the concept vector of the utterance string A or the next utterance candidate B, that is, when the score of the next utterance candidate B is not calculated, the combination rank U is calculated according to the following equation.

U:=D     U: = D

統合手段224は、結合順位Uの昇順に次発話候補集合をランキングする。   The integration unit 224 ranks the next utterance candidate set in ascending order of the combination rank U.

ランキング結果における上位1位の次発話候補、あるいは、上位何位かまでからランダムに選択した次発話候補を、出力手段30によりシステムがユーザに返す。   The system returns the next utterance candidate in the top rank in the ranking result or the next utterance candidate randomly selected from the top to the top by the output means 30 to the user.

概念スコア算出手段21でスコアが算出された次発話候補に対しては、概念スコア算出手段21による文脈発話列と次発話候補との意味的類似性を考慮した順位と、結束スコア算出手段223による文脈発話列と次発話候補における内容語以外の言語表現を考慮した順位とを重みづけで足し合わせることにより、両方の長所を加味した結合順位が得られる。   For the next utterance candidate whose score is calculated by the concept score calculating means 21, the ranking considering the semantic similarity between the context utterance sequence and the next utterance candidate by the concept score calculating means 21, and the cohesion score calculating means 223. By combining the context utterance sequence and the rank in consideration of language expressions other than the content words in the next utterance candidate by weighting, a combined rank taking into account the advantages of both can be obtained.

概念スコア算出手段21でスコアが算出されなかった次発話候補に対しては、結束スコア算出手段223による順位を結合順位とすることにより、文脈発話列と次発話候補における内容語以外の言語表現を考慮した順位を反映できる。   For the next utterance candidate whose score has not been calculated by the concept score calculation means 21, the rank by the cohesion score calculation means 223 is used as a combination rank, so that a language expression other than the content words in the context utterance string and the next utterance candidate can be obtained. The order considered can be reflected.

図5は、概念スコア算出手段21、結束スコア算出手段223、及び統合手段224による処理フローの一例である。なお、図3の処理フローと同様の処理については、同一符号を付して、詳細な説明を省略する。   FIG. 5 is an example of a processing flow by the concept score calculation unit 21, the unity score calculation unit 223, and the integration unit 224. In addition, about the process similar to the process flow of FIG. 3, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップS1において、発話列Aの概念ベクトルVAを生成する。ステップS2において、次発話候補集合における各次発話候補Bに対し、次発話候補Bの概念ベクトルVBを生成する。   First, in step S1, a concept vector VA of the utterance string A is generated. In step S2, a concept vector VB of the next utterance candidate B is generated for each next utterance candidate B in the next utterance candidate set.

次のステップS3において、次発話候補集合における各次発話候補Bに対し、上記ステップS1で生成された発話列Aの概念ベクトルVA、及び上記ステップS2で生成された次発話候補Bの概念ベクトルVBに基づいて、次発話候補Bのスコアを、上記の式1に従って算出する。   In the next step S3, for each next utterance candidate B in the next utterance candidate set, the concept vector VA of the utterance string A generated in step S1 and the concept vector VB of the next utterance candidate B generated in step S2. Based on the above, the score of the next utterance candidate B is calculated according to Equation 1 above.

ステップS4において、スコアの降順に次発話候補集合をランキングする。   In step S4, the next utterance candidate set is ranked in descending order of the score.

次のステップS21において、発話列A及び各次発話候補Bに対し、特徴量を抽出する。ステップS22において、各次発話候補Bに対し、教師あり学習で得られたモデルと、上記ステップS21で抽出された発話列A及び次発話候補Bの特徴量とに基づいて、次発話候補Bが発話列Aの次発話として相応しい度合いを表すスコアを算出する。   In the next step S21, feature quantities are extracted for the utterance string A and each utterance candidate B. In step S22, for each next utterance candidate B, the next utterance candidate B is determined based on the model obtained by supervised learning and the feature amount of the utterance string A and the next utterance candidate B extracted in step S21. A score representing a degree suitable for the next utterance of the utterance string A is calculated.

そして、ステップS23において、上記ステップS22で算出されたスコアの降順に次発話候補集合をランキングする。   In step S23, the next utterance candidate set is ranked in descending order of the score calculated in step S22.

ステップS24において、上記ステップS1、S2で概念ベクトルが生成されたか否かと、上記ステップS4で得られたランキング結果と、上記ステップS23で得られたランキング結果とに基づいて、各次発話候補Bに対し、結合順位Uを算出し、結合順位Uの昇順に次発話候補集合をランキングし、処理ルーチンを終了する。   In step S24, each next utterance candidate B is determined based on whether the concept vector is generated in steps S1 and S2, the ranking result obtained in step S4, and the ranking result obtained in step S23. On the other hand, the combination rank U is calculated, the next utterance candidate set is ranked in ascending order of the combination rank U, and the processing routine is terminated.

本発明の手法の評価を以下のようにして行った。   The method of the present invention was evaluated as follows.

本発明において次発話は、システムがこれまでの文脈に沿って発話するものである。そこで、二人の人間同士の対話ログ(各発話には、話者と話題のタグがつけられている)において、次の条件(1)、(2)を満たす発話境界Eを対象とし、Eの直前発話までの文脈から、Eの直後発話を導出する問題ととらえた。   In the present invention, the next utterance is one in which the system speaks in accordance with the previous context. Therefore, in a dialogue log between two humans (each utterance is tagged with a speaker and a topic), an utterance boundary E that satisfies the following conditions (1) and (2) is targeted: From the context up to the utterance immediately before, it was taken as a problem of deriving the utterance immediately after E.

条件(1) [Eの直前発話の話者]≠[Eの直後発話の話者]
条件(2) [Eの直前発話の話題]=[Eの直後発話の話題]
Condition (1) [Speaker just before E] ≠ [Speaker just after E]
Condition (2) [Topic of utterance immediately before E] = [Topic of utterance immediately after E]

Eの直前2発話を文脈発話列とし、Eの直後発話を正解とする。対話ログ中で、Eの直後発話からの全発話を次発話候補とし、正解発話を次発話候補ランキング結果において上位にもってこられるかを評価することとした。   The two utterances immediately before E are set as a context utterance string, and the utterance immediately after E is set as a correct answer. In the dialogue log, all utterances from the utterance immediately after E are set as the next utterance candidates, and it is evaluated whether the correct utterance can be ranked higher in the next utterance candidate ranking result.

評価指標は、MRR(Mean Reciprocal Rank:正解発話の順位の逆数の平均)を用いることとした。この値が高い程、精度が高い。   As an evaluation index, MRR (Mean Reciprocal Rank: average of the reciprocal of the rank of correct utterances) was used. The higher this value, the higher the accuracy.

対話ログは1746個あり、1対話ログ中の発話の数の平均が約39であったため、各対話ログにおいて、発話候補数が約半分の約20となる上記条件を満たす発話境界Eを一つ定めた。これにより対象発話境界は1746個となり、概念スコア算出手段による手法(次発話候補のスコアは、上記式1で算出)と、結束スコア算出手段による手法(次発話候補のスコアは、上記第2の手法で算出)のMRRは図6のようになった。   Since there are 1746 dialogue logs and the average number of utterances in one dialogue log is about 39, in each dialogue log, there is one utterance boundary E that satisfies the above condition that the number of utterance candidates is about half, which is about 20. Determined. As a result, the number of target utterance boundaries is 1746, and the method by the concept score calculation means (the score of the next utterance candidate is calculated by the above equation 1) and the technique by the cohesion score calculation means (the score of the next utterance candidate is the second utterance The MRR calculated by the method is as shown in FIG.

統合手段において、重みαを0から1まで0.1刻みに変化させた場合のMRRは、図7のようになった。   In the integration unit, the MRR when the weight α is changed from 0 to 1 in increments of 0.1 is as shown in FIG.

αを増加させていくにしたがい、MRRは大きくなっていき、最大値に達すると小さくなっていく。上記では、αが0.7のときMRRは最大値0.424をとった。統合手段により、概念スコア算出手段単独のときと比べ、MRRが0.362→0.424のように向上した。   As α increases, the MRR increases and decreases as the maximum value is reached. In the above, when α is 0.7, MRR has a maximum value of 0.424. The integration means improved the MRR from 0.362 to 0.424 as compared to the concept score calculation means alone.

1746個の対象発話境界の中で、概念スコア算出手段で、文脈発話列または正解発話の概念ベクトルが生成されず、正解発話のスコアが算出されなかった境界は、433個(全体の24.8%)であった。このような、概念スコア算出手段でスコアが算出されなかった正解発話に対しては、統合手段で、結束スコア算出手段による順位が採用されており、上位の順位が付与されていると考えられる。   Among the 1746 target utterance boundaries, the concept score calculation means does not generate a context utterance sequence or a concept vector of correct utterances, and 433 boundaries (total 24.8) have not been calculated. %)Met. For correct utterances for which the score has not been calculated by the concept score calculation means, the order by the unity score calculation means is adopted by the integration means, and it is considered that a higher rank is given.

本発明の統合手段における重みαは、事前に、ある評価データにおいて、αを変化させて精度を算出し、最高精度を出したαを採用するというようにしてもよい。   As the weight α in the integrating means of the present invention, in some evaluation data, α may be calculated in advance by changing α, and α having the highest accuracy may be adopted.

これまで述べた処理をプログラムとして構築し、当該プログラムを通信回線または記録媒体からインストールし、CPU等の手段で実施することが可能である。   It is possible to construct the processing described so far as a program, install the program from a communication line or a recording medium, and implement it by means such as a CPU.

なお、本発明は、上記の実施例に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。   The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims.

本発明は、システムとユーザとの円滑なインタラクションを実現する対話処理技術に適用可能である。   The present invention can be applied to a dialogue processing technique that realizes a smooth interaction between a system and a user.

10 入力手段
20、220 演算手段
21 概念スコア算出手段
22 概念ベース
30 出力手段
100、200 次発話候補ランキング装置
223 結束スコア算出手段
224 統合手段
DESCRIPTION OF SYMBOLS 10 Input means 20, 220 Calculation means 21 Concept score calculation means 22 Concept base 30 Output means 100, 200 Next utterance candidate ranking apparatus 223 Unity score calculation means 224 Integration means

Claims (7)

単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、
文脈となる発話列Aと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Aの概念ベクトルを生成し、前記次発話候補集合における各次発話候補Bの概念ベクトルを生成し、各次発話候補Bに対し、前記発話列Aの概念ベクトルと前記次発話候補Bの概念ベクトルとの近さを表すスコアを算出し、該スコアに基づき前記次発話候補集合をランキングする概念スコア算出手段と、
を含み、
前記概念ベクトルは単語の意味を表すための概念を各次元に持ち、前記単語と各概念との関連の高さを前記概念ベクトルの前記各次元の値としたことを特徴とする次発話候補ランキング装置。
A concept base that is a set of pairs of a word and a concept vector representing the meaning of the word;
The context utterance sequence A and the next utterance candidate set are input, the concept base is referred to, a concept vector of the utterance sequence A is generated, and a concept vector of each next utterance candidate B in the next utterance candidate set is generated Then, for each next utterance candidate B, a score representing the closeness between the concept vector of the utterance string A and the concept vector of the next utterance candidate B is calculated, and the next utterance candidate set is ranked based on the score A score calculation means;
Including
The next utterance candidate ranking, wherein the concept vector has a concept for expressing the meaning of a word in each dimension, and the height of the relationship between the word and each concept is the value of each dimension of the concept vector. apparatus.
前記発話列Aは、複数主体間の発話からなることを特徴とする請求項1記載の次発話候補ランキング装置。   The next utterance candidate ranking device according to claim 1, wherein the utterance string A includes utterances between a plurality of subjects. 前記概念スコア算出手段は、前記発話列Aの概念ベクトルを生成する際に、前記発話列Aの各発話ごとに概念ベクトルを生成し、生成した各発話ごとの概念ベクトルから前記発話列Aの概念ベクトルを生成することを特徴とする請求項1又は2記載の次発話候補ランキング装置。   The concept score calculating means generates a concept vector for each utterance of the utterance sequence A when generating the concept vector of the utterance sequence A, and the concept of the utterance sequence A from the generated concept vector for each utterance. The next utterance candidate ranking device according to claim 1 or 2, wherein a vector is generated. 前記概念スコア算出手段は、前記発話列Aの概念ベクトルを生成する際に、前記発話列Aの複数の発話に対し、前記発話に対応する概念ベクトルを複数生成し、
前記発話列Aの概念ベクトルと前記次発話候補Bの概念ベクトルとの近さを表すスコアを算出する際に、前記発話列Aの複数の発話に対する複数の概念ベクトルと、前記次発話候補Bの概念ベクトルとの近さを表すスコアを算出することを特徴とする請求項1又は2記載の次発話候補ランキング装置。
The concept score calculating means generates a plurality of concept vectors corresponding to the utterances for a plurality of utterances of the utterance sequence A when generating the concept vectors of the utterance sequence A,
When calculating a score representing the proximity of the concept vector of the utterance string A and the concept vector of the next utterance candidate B, a plurality of concept vectors for a plurality of utterances of the utterance string A, and the next utterance candidate B The next utterance candidate ranking device according to claim 1, wherein a score representing the proximity to the concept vector is calculated.
単語と該単語の意味を表す概念ベクトルとの対の集合である概念ベースと、概念スコア算出手段とを含む次発話候補ランキング装置における次発話候補ランキング方法であって
前記概念スコア算出手段が、文脈となる発話列Aと次発話候補集合とを入力とし、前記概念ベースを参照し、前記発話列Aの概念ベクトルを生成し、前記次発話候補集合における各次発話候補Bの概念ベクトルを生成し、各次発話候補Bに対し、前記発話列Aの概念ベクトルと前記次発話候補Bの概念ベクトルとの近さを表すスコアを算出し、該スコアに基づき前記次発話候補集合をランキングする
ことを含み、
前記概念ベクトルは単語の意味を表すための概念を各次元に持ち、前記単語と各概念との関連の高さを前記概念ベクトルの前記各次元の値としたことを特徴とする次発話候補ランキング方法。
A next utterance candidate ranking method in a next utterance candidate ranking device including a concept base, which is a set of a pair of a word and a concept vector representing the meaning of the word, and a concept score calculation means, wherein the concept score calculation means includes a context Utterance sequence A and next utterance candidate set to be input, refer to the concept base, generate a concept vector of the utterance sequence A, and generate a concept vector of each next utterance candidate B in the next utterance candidate set Calculating a score representing the proximity between the concept vector of the utterance string A and the concept vector of the next utterance candidate B for each next utterance candidate B, and ranking the next utterance candidate set based on the score. Including
The next utterance candidate ranking, wherein the concept vector has a concept for expressing the meaning of a word in each dimension, and the height of the relationship between the word and each concept is the value of each dimension of the concept vector. Method.
前記発話列Aは、複数主体間の発話からなることを特徴とする請求項5記載の次発話候補ランキング方法。   The next utterance candidate ranking method according to claim 5, wherein the utterance string A includes utterances between a plurality of subjects. コンピュータを、請求項1〜請求項4の何れか1項記載の次発話候補ランキング装置を構成する各手段として機能させるためのプログラム。   The program for functioning a computer as each means which comprises the next utterance candidate ranking apparatus of any one of Claims 1-4.
JP2017194166A 2017-10-04 2017-10-04 Next utterance candidate ranking apparatus, method, and program Active JP6574469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017194166A JP6574469B2 (en) 2017-10-04 2017-10-04 Next utterance candidate ranking apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017194166A JP6574469B2 (en) 2017-10-04 2017-10-04 Next utterance candidate ranking apparatus, method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014173122A Division JP6232358B2 (en) 2014-08-27 2014-08-27 Next utterance candidate ranking apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2018028925A true JP2018028925A (en) 2018-02-22
JP6574469B2 JP6574469B2 (en) 2019-09-11

Family

ID=61248470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017194166A Active JP6574469B2 (en) 2017-10-04 2017-10-04 Next utterance candidate ranking apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6574469B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11711469B2 (en) 2021-05-10 2023-07-25 International Business Machines Corporation Contextualized speech to text conversion

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306090A (en) * 2000-04-25 2001-11-02 Sharp Corp Device and method for interaction, device and method for voice control, and computer-readable recording medium with program for making computer function as interaction device and voice control device recorded thereon
JP2002358304A (en) * 2001-05-31 2002-12-13 P To Pa:Kk System for conversation control
JP2006172280A (en) * 2004-12-17 2006-06-29 Keywalker Inc Creation method and device for automatic response output such as automatic interaction
JP2006244262A (en) * 2005-03-04 2006-09-14 Nec Corp Retrieval system, method and program for answer to question
JP2012141713A (en) * 2010-12-28 2012-07-26 Osaka Prefecture Univ Pseudo conversation device and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306090A (en) * 2000-04-25 2001-11-02 Sharp Corp Device and method for interaction, device and method for voice control, and computer-readable recording medium with program for making computer function as interaction device and voice control device recorded thereon
JP2002358304A (en) * 2001-05-31 2002-12-13 P To Pa:Kk System for conversation control
JP2006172280A (en) * 2004-12-17 2006-06-29 Keywalker Inc Creation method and device for automatic response output such as automatic interaction
JP2006244262A (en) * 2005-03-04 2006-09-14 Nec Corp Retrieval system, method and program for answer to question
JP2012141713A (en) * 2010-12-28 2012-07-26 Osaka Prefecture Univ Pseudo conversation device and computer program

Also Published As

Publication number Publication date
JP6574469B2 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
US10936664B2 (en) Dialogue system and computer program therefor
JP5710581B2 (en) Question answering apparatus, method, and program
Agrawal et al. Affective representations for sarcasm detection
US20220114340A1 (en) System and method for an automatic search and comparison tool
US20200073890A1 (en) Intelligent search platforms
JP2019082931A (en) Retrieval device, similarity calculation method, and program
CN110909116B (en) Entity set expansion method and system for social media
Palogiannidi et al. Tweester at SemEval-2016 Task 4: Sentiment analysis in Twitter using semantic-affective model adaptation
Nyaung et al. Feature Based Summarizing and Ranking from Customer Reviews
JP2020027548A (en) Program, device and method for creating dialog scenario corresponding to character attribute
JP6232358B2 (en) Next utterance candidate ranking apparatus, method, and program
JP2017027233A (en) Query generating device, method, and program
JP2007102104A (en) Device and method for answer sentence generation, and program and storage medium thereof
JP6220762B2 (en) Next utterance candidate scoring device, method, and program
JP6574469B2 (en) Next utterance candidate ranking apparatus, method, and program
Aliyanto et al. Supervised probabilistic latent semantic analysis (sPLSA) for estimating technology readiness level
Agrawal et al. Comparative analysis of NLP models for Google Meet Transcript summarization
Juncal-Martínez et al. GTI at SemEval-2016 Task 4: Training a naive Bayes classifier using features of an unsupervised system
JP2015075952A (en) Speech generation device, method, and program
Sun et al. Query expansion and entity weighting for query reformulation retrieval in voice assistant systems
JP5506482B2 (en) Named entity extraction apparatus, string-named expression class pair database creation apparatus, numbered entity extraction method, string-named expression class pair database creation method, program
KR102341563B1 (en) Method for extracting professional text data using mediating text data topics
JP2017129994A (en) Sentence rewriting device, method, and program
CN112182159B (en) Personalized search type dialogue method and system based on semantic representation
JP2016110440A (en) Term meaning learning device, term meaning determining device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190816

R150 Certificate of patent or registration of utility model

Ref document number: 6574469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150