JP2013190991A - Voice interactive summarization device, voice interactive summarization method and program - Google Patents

Voice interactive summarization device, voice interactive summarization method and program Download PDF

Info

Publication number
JP2013190991A
JP2013190991A JP2012056645A JP2012056645A JP2013190991A JP 2013190991 A JP2013190991 A JP 2013190991A JP 2012056645 A JP2012056645 A JP 2012056645A JP 2012056645 A JP2012056645 A JP 2012056645A JP 2013190991 A JP2013190991 A JP 2013190991A
Authority
JP
Japan
Prior art keywords
utterance
extracted
dialogue
partial
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012056645A
Other languages
Japanese (ja)
Other versions
JP5910194B2 (en
Inventor
Hiraki Ishikawa
開 石川
Takashi Onishi
貴士 大西
Masaaki Tsuchida
正明 土田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012056645A priority Critical patent/JP5910194B2/en
Publication of JP2013190991A publication Critical patent/JP2013190991A/en
Application granted granted Critical
Publication of JP5910194B2 publication Critical patent/JP5910194B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a voice interactive summarization device in which in a support method of increasing efficiency of response monitoring (hearing a voice and evaluation thereof) in a call center, even to a set of responses which are out of an interactive flow of a talk script, efficiency of a monitoring work can be increased.SOLUTION: A voice interactive summarization device extracts a plurality of speeches out of an interactive text set, and extracts, as a speech cluster, speeches which are connected with each other in an implication relation out of the extracted plurality of speeches.

Description

本発明は音声対話要約装置、音声対話要約方法およびプログラムに関する。   The present invention relates to a voice dialogue summarizing apparatus, a voice dialogue summarizing method, and a program.

コールセンターには、顧客を自社につなぎ止め、収益を拡大させる「企業の顔」としての役割がある。応対品質が顧客のロイヤリティに大な影響を与えるため、経営者は、コールセンターの運営効率化(応答率、稼働率、処理時間)のみならず、応対の品質の向上や均質化という必要性に迫られている。   The call center has a role as a “corporate face” that connects customers to the company and expands their profits. As response quality has a major impact on customer loyalty, managers not only need to improve call center operational efficiency (response rate, availability, processing time), but also the need to improve and homogenize response quality. It has been.

コールセンター運営の現場では、コミュニケ―タの応対の基本的な応対スキルや、スクリプトに沿った対話が行えているかどうか、顧客に不適切な発言を行ったり、不快感を与えていないか、といった応対上の問題の確認や応対品質の評価を、各コミュニケ―タの実際の応対の通話録音を聞いて確認、評価を行う必要がある。   At the call center operation site, the basic response skills of the communicator's response, whether or not the dialogue can be performed according to the script, whether or not the customer speaks inappropriately or feels uncomfortable. It is necessary to confirm and evaluate the above problems and the quality of reception by listening to the actual call recording of each communicator.

しかし、通話録音を再生して内容を確認、評価する方法は、時間を要するため、コールセンターでは、応対モニタリング(音声を聞いて評価)を効率化する支援方式に対する要求がある。   However, since the method of confirming and evaluating the content by playing back the call recording requires time, the call center has a demand for a support method that improves the efficiency of response monitoring (evaluation by listening to voice).

非特許文献1において、要約システムの例が記載されている。非特許文献1に記載された「TRUE TELLER VOICEダイジェスト」は、応対品質評価レポート生成機能を提供する。図11は、非特許文献1に記載された要約システムの構成を示すブロック図である。図11を参照すると、要約システムは、音声認識手段101、トピック遷移グラフ生成手段102およびスクリプト一致度計算手段103を備える。音声認識手段101は、コールセンターにおける電話応対に対する音声認識を行い、認識結果として対話テキスト集合を抽出する。トピック遷移グラフ生成手段102は、コールセンターで運用されているトークスクリプト(すなわち、トピックごとに収集された表現集)に対して、電話応対の対話テキスト集合を照合し、トピックの遷移グラフを生成する。図12は、トピックの遷移グラフを一例として示す図である。スクリプト一致度計算手段103は、トークスクリプト中の表現との一致率に基づいた応対品質の評価を実施し、評価レポートを生成する。   Non-Patent Document 1 describes an example of a summary system. “TRUE TELLER VOICE digest” described in Non-Patent Document 1 provides a response quality evaluation report generation function. FIG. 11 is a block diagram showing the configuration of the summarization system described in Non-Patent Document 1. Referring to FIG. 11, the summarizing system includes voice recognition means 101, topic transition graph generation means 102, and script matching degree calculation means 103. The speech recognition means 101 performs speech recognition for telephone reception at a call center, and extracts a dialogue text set as a recognition result. The topic transition graph generation means 102 matches the conversation text set of telephone reception against a talk script (that is, a collection of expressions collected for each topic) operated in the call center, and generates a topic transition graph. FIG. 12 is a diagram illustrating a topic transition graph as an example. The script matching degree calculation means 103 performs an evaluation of the reception quality based on the matching rate with the expression in the talk script, and generates an evaluation report.

堀 宣男、竹原一彰、「対話要約で実現する"顧客の声"活用―電話応対の自動要約と全件モニタリングの実現―」、NRI ITソリューションフロンティア、2010年9月号、pp.10−13.Hori Nobuo and Takehara Kazuaki, “Utilization of“ Voice of Voice ”Realized by Dialogue Summarization—Realization of Automatic Summarization of Telephone Response and Monitoring of All Items” ”, NRI IT Solution Frontier, September 2010, pp. 10-13.

以下の分析は、本発明者によってなされたものである。   The following analysis was made by the present inventors.

非特許文献1に記載された要約システムによると、トークスクリプトの対話フローと一致しない応対事例に対して、分類整理をすることができない。したがって、かかる要約システムによると、トークスクリプトの対話フローと一致しない応対事例に対しては、モニタリング業務を効率化する効果が得られないという問題がある。   According to the summarization system described in Non-Patent Document 1, it is not possible to sort and arrange response cases that do not match the conversation flow of the talk script. Therefore, according to such a summarization system, there is a problem in that it is not possible to obtain an effect of improving the efficiency of the monitoring work for a response case that does not match the conversation flow of the talk script.

そこで、コールセンターにおける応対モニタリング(音声を聞いて評価)を効率化する支援方式において、トークスクリプトの対話フローから外れた応対集合に対しても、モニタリング業務を効率化できるようにすることが課題となる。本発明の目的は、かかる課題を解決する音声対話要約装置、音声対話要約方法およびプログラムを提供することにある。   Therefore, in the support method to improve the response monitoring (evaluation by listening to voice) in the call center, it becomes an issue to make the monitoring work more efficient even for the response set that is out of the conversation flow of the talk script. . An object of the present invention is to provide a voice dialogue summarizing apparatus, a voice dialogue summarizing method and a program for solving such a problem.

本発明の第1の視点に係る音声対話要約装置は、対話テキストの集合から複数の発話を抽出し、抽出した複数の発話のうちの互いに含意関係で結ばれたものを発話クラスタとして抽出する。   The spoken dialogue summarizing apparatus according to the first aspect of the present invention extracts a plurality of utterances from a set of dialogue texts, and extracts a plurality of extracted utterances connected in an implication relationship as an utterance cluster.

本発明の第2の視点に係る音声対話要約方法は、コンピュータが、対話テキストの集合から複数の発話を抽出する工程と、抽出した複数の発話のうちの互いに含意関係で結ばれたものを発話クラスタとして抽出する工程と、を含む。   In the speech dialogue summarizing method according to the second aspect of the present invention, a computer extracts a plurality of utterances from a set of dialogue texts, and utterances of the extracted plurality of utterances connected in implication relation with each other. Extracting as a cluster.

本発明の第3の視点に係るプログラムは、対話テキストの集合から複数の発話を抽出する処理と、抽出した複数の発話のうちの互いに含意関係で結ばれたものを発話クラスタとして抽出する処理と、をコンピュータに実行させる。なお、プログラムは、非トランジエントなコンピュータ読み取り可能な記録媒体(non-transient computer-readable storage medium)に記録されたプログラム製品として提供することができる。   The program according to the third aspect of the present invention includes a process of extracting a plurality of utterances from a set of dialogue texts, a process of extracting a plurality of extracted utterances connected to each other by an implication relationship as an utterance cluster, , Execute on the computer. The program can be provided as a program product recorded on a non-transient computer-readable storage medium.

本発明に係る音声対話要約装置、音声対話要約方法およびプログラムによると、コールセンターにおける応対モニタリング(音声を聞いて評価)を効率化する支援方式において、トークスクリプトの対話フローから外れた応対集合に対しても、モニタリング業務を効率化することができる。   According to the voice dialog summarizing apparatus, the voice dialog summarizing method and the program according to the present invention, in the support method for improving the response monitoring (evaluation by listening to voice) in the call center, the response set deviating from the dialog flow of the talk script. Can also improve the efficiency of monitoring work.

実施形態に係る音声対話要約システムの構成を一例として示すブロック図である。It is a block diagram which shows the structure of the speech dialogue summary system which concerns on embodiment as an example. 実施形態に係る音声対話要約システムの動作を一例として示すフロー図である。It is a flowchart which shows operation | movement of the speech dialogue summary system which concerns on embodiment as an example. 実施例における対話テキスト集合を一例として示す図である。It is a figure which shows the dialogue text set in an Example as an example. 実施例における形態素間の係り受け関係を示す図である。It is a figure which shows the dependency relationship between the morphemes in an Example. 実施例における発話の部分表現と、それらが発話に含意されているかどうかの関係を示す図である。It is a figure which shows the relationship between the partial expression of the utterance in an Example, and whether they are implied by the utterance. 実施例における第2文の発話部分表現を一例として示す図である。It is a figure which shows the utterance partial expression of the 2nd sentence in an Example as an example. 実施例における第1文と第2文の各発話部分表現間の含意関係を示す図である。It is a figure which shows the implication relationship between each utterance partial expression of the 1st sentence in an Example, and a 2nd sentence. 実施例における発話部分表現を頂点とし、その間を含意する側に向かう有向辺で結んだ有向グラフを一例として示す図である。It is a figure which shows the directed graph which made the utterance partial expression in an Example a vertex, and connected with the directed edge which goes to the side which implied between it as an example. 実施例における有向グラフにおいて、起点となる頂点を含まない部分グラフを抽出する一例を示す図である。It is a figure which shows an example which extracts the partial graph which does not contain the vertex used as the starting point in the directed graph in an Example. 実施例における発話クラスタを一例として示す図である。It is a figure which shows the speech cluster in an Example as an example. 非特許文献1に記載された音声対話要約(トピック遷移グラフの生成)システムの構成を示すブロック図である。It is a block diagram which shows the structure of the voice dialog summary (generation | generation of a topic transition graph) system described in the nonpatent literature 1. 非特許文献1に記載された音声対話要約システムの出力(トピック遷移グラフ)を一例として示す図である。It is a figure which shows the output (topic transition graph) of the speech dialogue summary system described in the nonpatent literature 1 as an example.

はじめに、一実施形態の概要について説明する。なお、この概要に付記する図面参照符号は、専ら理解を助けるための例示であり、本発明を図示の態様に限定することを意図するものではない。   First, an outline of one embodiment will be described. Note that the reference numerals of the drawings attached to this summary are merely examples for facilitating understanding, and are not intended to limit the present invention to the illustrated embodiment.

図1は、本開示に係る音声対話要約装置の構成を一例として示すブロック図である。図1を参照すると、音声対話要約装置は、発話部分表現抽出部(11)と、含意判定部(12)と、有向グラフ生成部(13)と、発話クラスタ生成部(14)と、を備える。発話部分表現抽出部(11)は、対話テキスト集合中の各発話から、該発話が含意している部分表現を発話部分表現として抽出する。有向グラフ生成部(13)は、異なる発話から抽出された発話部分表現の間に含意関係が成り立つ場合、それらの発話部分表現を頂点とし、その間を含意する側に向かう有向辺で結んだ有向グラフを生成する。発話クラスタ生成部(14)は、有向グラフ中のある頂点から順方向で有向辺を辿れる部分グラフを抽出し、該部分グラフ中の各頂点である発話部分表現の抽出元である発話集合を、発話クラスタとして出力する。   FIG. 1 is a block diagram illustrating, as an example, a configuration of a voice dialogue summarizing apparatus according to the present disclosure. Referring to FIG. 1, the speech dialogue summarizing apparatus includes an utterance partial expression extraction unit (11), an implication determination unit (12), a directed graph generation unit (13), and an utterance cluster generation unit (14). The utterance partial expression extraction unit (11) extracts a partial expression implied by the utterance as an utterance partial expression from each utterance in the conversation text set. When an implication relationship is established between utterance partial representations extracted from different utterances, the directed graph generation unit (13) uses the utterance partial representations as vertices and connects the directed graphs connected by directed edges toward the implication side. Generate. The utterance cluster generation unit (14) extracts a subgraph that can follow a directed edge in a forward direction from a certain vertex in the directed graph, and an utterance set that is an extraction source of the utterance partial expression that is each vertex in the subgraph, Output as utterance cluster.

かかる音声対話要約装置によると、コールセンターにおける応対モニタリング(音声を聞いて評価)を効率化する支援方式において、トークスクリプトの対話フローと一致しない応対事例であっても、モニタリング業務を効率化することが可能となる。その理由は、トークスクリプトの対話フローと一致しない応対事例であっても、発話クラスタを生成・提示することで、同じ発話内容に関する発話の集合を一括で閲覧、音声を確認可能とするからである。   According to such a voice dialogue summarization apparatus, in a support method that improves the efficiency of response monitoring (evaluation by listening to voice) in a call center, it is possible to improve the efficiency of monitoring work even if the response case does not match the conversation flow of the talk script. It becomes possible. The reason is that even if the response case does not match the conversation flow of the talk script, by generating and presenting an utterance cluster, it is possible to view a set of utterances related to the same utterance content in a batch and confirm the voice. .

なお、本発明において、下記の形態が可能である。
[形態1]
上記第1の視点に係る音声対話要約装置のとおりである。
[形態2]
前記音声対話要約装置は、前記対話テキスト集合から抽出された各発話から、該発話が含意する部分表現を発話部分表現として抽出する発話部分表現抽出部を備えていてもよい。
[形態3]
前記音声対話要約装置は、前記対話テキスト集合から抽出された第1の発話から抽出された第1の発話部分表現と、前記対話テキスト集合から抽出された第2の発話から抽出された第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話部分表現を第1の頂点とし、前記第2の発話部分表現を第2の頂点とし、前記第1の頂点および前記第2の頂点を辺で結んだグラフを生成する有向グラフ生成部を備えていてもよい。
[形態4]
前記音声対話要約装置は、前記第1の発話部分表現と前記第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話および前記第2の発話を含む発話集合を、前記発話クラスタとして抽出する発話クラスタ生成部を備えていてもよい。
[形態5]
前記有向グラフ生成部は、前記第1の発話部分表現が前記第2の発話部分表現を含意する場合、前記第1の頂点から前記第2の頂点に向かう有向辺で結んだ有向グラフを、前記グラフとして生成してもよい。
[形態6]
前記発話クラスタ生成部は、前記有向グラフを順方向に辿って得られる部分グラフを抽出し、該部分グラフに含まれる頂点に相当する発話部分表現の抽出元の発話の集合を、前記発話クラスタとして抽出してもよい。
[形態7]
前記発話クラスタ生成部は、前記部分グラフに含まれる頂点のうちの他の部分グラフと共有される頂点を除外し、前記部分グラフに含まれる頂点に相当する発話部分表現の抽出元の発話の集合を、前記発話クラスタとして抽出してもよい。
[形態8]
上記第2の視点に係る音声対話要約方法のとおりである。
[形態9]
前記音声対話要約方法において、コンピュータが、前記対話テキスト集合から抽出された各発話から、該発話が含意する部分表現を発話部分表現として抽出する工程を含んでいてもよい。
[形態10]
前記音声対話要約方法において、コンピュータが、前記対話テキスト集合から抽出された第1の発話から抽出された第1の発話部分表現と、前記対話テキスト集合から抽出された第2の発話から抽出された第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話部分表現を第1の頂点とし、前記第2の発話部分表現を第2の頂点とし、前記第1の頂点および前記第2の頂点を辺で結んだグラフを生成する工程を含んでいてもよい。
[形態11]
前記音声対話要約方法において、コンピュータが、前記第1の発話部分表現と前記第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話および前記第2の発話を含む発話集合を、前記発話クラスタとして抽出してもよい。
[形態12]
前記音声対話要約方法において、前記第1の発話部分表現が前記第2の発話部分表現を含意する場合、コンピュータが、前記第1の頂点から前記第2の頂点に向かう有向辺で結んだ有向グラフを、前記グラフとして生成してもよい。
[形態13]
前記音声対話要約方法において、コンピュータが、前記有向グラフを順方向に辿って得られる部分グラフを抽出する工程を含み、
前記部分グラフに含まれる頂点に相当する発話部分表現の抽出元の発話の集合を、前記発話クラスタとして抽出してもよい。
[形態14]
上記第3の視点に係るプログラムのとおりである。
[形態15]
前記プログラムは、前記対話テキスト集合から抽出された各発話から、該発話が含意する部分表現を発話部分表現として抽出する処理を、コンピュータに実行させるようにしてもよい。
[形態16]
前記プログラムは、前記対話テキスト集合から抽出された第1の発話から抽出された第1の発話部分表現と、前記対話テキスト集合から抽出された第2の発話から抽出された第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話部分表現を第1の頂点とし、前記第2の発話部分表現を第2の頂点とし、前記第1の頂点および前記第2の頂点を辺で結んだグラフを生成する処理を、コンピュータに実行させるようにしてもよい。
[形態17]
前記プログラムは、前記第1の発話部分表現と前記第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話および前記第2の発話を含む発話集合を、前記発話クラスタとして抽出する処理を、コンピュータに実行させるようにしてもよい。
[形態18]
前記プログラムは、前記第1の発話部分表現が前記第2の発話部分表現を含意する場合、前記第1の頂点から前記第2の頂点に向かう有向辺で結んだ有向グラフを、前記グラフとして生成する処理を、コンピュータに実行させるようにしてもよい。
[形態19]
前記プログラムは、前記有向グラフを順方向に辿って得られる部分グラフを抽出する処理と、
前記部分グラフに含まれる頂点に相当する発話部分表現の抽出元の発話の集合を、前記発話クラスタとして抽出する処理と、をコンピュータに実行させるようにしてもよい。
In the present invention, the following modes are possible.
[Form 1]
This is the same as the speech dialogue summarizing apparatus according to the first viewpoint.
[Form 2]
The speech dialog summarizing apparatus may include an utterance partial expression extraction unit that extracts a partial expression implied by the utterance as an utterance partial expression from each utterance extracted from the conversation text set.
[Form 3]
The speech dialogue summarization apparatus includes a first utterance partial expression extracted from a first utterance extracted from the dialogue text set, and a second utterance extracted from the second utterance extracted from the dialogue text set. When an implication relationship is established with the utterance partial representation, the first utterance partial representation is the first vertex, the second utterance partial representation is the second vertex, the first vertex and the second There may be provided a directed graph generation unit that generates a graph in which the vertices are connected by edges.
[Form 4]
The speech dialogue summarization apparatus, when an implication relationship is established between the first utterance partial representation and the second utterance partial representation, the speech set including the first utterance and the second utterance, You may provide the utterance cluster production | generation part extracted as an utterance cluster.
[Form 5]
When the first utterance partial expression implies the second utterance partial expression, the directed graph generation unit generates a directed graph connected by directed edges from the first vertex to the second vertex. May be generated as
[Form 6]
The utterance cluster generation unit extracts a subgraph obtained by tracing the directed graph in a forward direction, and extracts a set of utterances from which an utterance partial expression corresponding to a vertex included in the subgraph is extracted as the utterance cluster. May be.
[Form 7]
The utterance cluster generation unit excludes vertices shared with other subgraphs among the vertices included in the subgraph, and a set of utterances from which utterance partial expressions corresponding to the vertices included in the subgraph are extracted May be extracted as the utterance cluster.
[Form 8]
It is as the voice dialogue summarizing method according to the second viewpoint.
[Form 9]
In the spoken dialogue summarizing method, the computer may include a step of extracting, from each utterance extracted from the dialogue text set, a partial expression implied by the utterance as an utterance partial expression.
[Mode 10]
In the spoken dialogue summarizing method, a computer is extracted from a first utterance partial expression extracted from a first utterance extracted from the dialogue text set and a second utterance extracted from the dialogue text set. When an implication relationship holds with the second utterance partial representation, the first utterance partial representation is the first vertex, the second utterance partial representation is the second vertex, and the first vertex and A step of generating a graph connecting the second vertexes with edges may be included.
[Form 11]
In the spoken dialogue summarizing method, if the computer has an implication relationship between the first utterance partial representation and the second utterance partial representation, an utterance set including the first utterance and the second utterance May be extracted as the utterance cluster.
[Form 12]
In the spoken dialogue summarizing method, when the first utterance partial expression implies the second utterance partial expression, a directed graph connected by a computer at a directed edge from the first vertex to the second vertex May be generated as the graph.
[Form 13]
In the spoken dialogue summarizing method, the computer includes a step of extracting a subgraph obtained by tracing the directed graph in a forward direction,
A set of utterances from which utterance partial expressions corresponding to vertices included in the subgraph are extracted may be extracted as the utterance cluster.
[Form 14]
The program is related to the third viewpoint.
[Form 15]
The program may cause the computer to execute a process of extracting a partial expression implied by the utterance as an utterance partial expression from each utterance extracted from the conversation text set.
[Form 16]
The program includes: a first utterance partial expression extracted from a first utterance extracted from the conversation text set; and a second utterance partial expression extracted from a second utterance extracted from the conversation text set. The first utterance partial representation is a first vertex, the second utterance partial representation is a second vertex, and the first vertex and the second vertex are You may make it make a computer perform the process which produces | generates the graph connected with the edge.
[Form 17]
When the implication relationship is established between the first utterance partial expression and the second utterance partial expression, the program sets the utterance set including the first utterance and the second utterance as the utterance cluster. You may make it make a computer perform the process to extract.
[Form 18]
When the first utterance partial representation implies the second utterance partial representation, the program generates, as the graph, a directed graph connected by directed edges from the first vertex to the second vertex. You may make it make a computer perform the process to perform.
[Form 19]
The program extracts a partial graph obtained by tracing the directed graph in a forward direction;
You may make it make a computer perform the process which extracts the collection of utterances of the extraction part of the utterance partial expression corresponding to the vertex contained in the said partial graph as said utterance cluster.

(実施形態)
次に、実施形態に係る音声対話要約装置について、図面を参照して詳細に説明する。図1は、本実施形態に係る音声対話要約装置の構成を一例として示すブロック図である。図1を参照すると、音声対話要約装置は、プログラム制御により動作するコンピュータ(中央処理装置;プロセッサ;データ処理装置)10と、記憶部20とを備える。
(Embodiment)
Next, the speech dialogue summarizing apparatus according to the embodiment will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing, as an example, the configuration of the voice dialogue summarizing apparatus according to the present embodiment. Referring to FIG. 1, the speech dialogue summarizing apparatus includes a computer (central processing unit; processor; data processing unit) 10 that operates by program control, and a storage unit 20.

記憶部20は、対話テキスト集合記憶部21および発話クラスタ記憶部22を備える。対話テキスト集合記憶部21は、対話テキストの集合を記憶する。一方、発話クラスタ記憶部22は、発話クラスタを記憶する。   The storage unit 20 includes a dialogue text set storage unit 21 and an utterance cluster storage unit 22. The dialog text set storage unit 21 stores a set of dialog texts. On the other hand, the utterance cluster storage unit 22 stores utterance clusters.

コンピュータ(中央処理装置;プロセッサ;データ処理装置)10は、発話部分表現抽出部11、含意判定部12、有向グラフ生成部13、および、発話クラスタ生成部14を備える。
発話部分表現抽出部11は、対話テキスト集合記憶部21に記憶された対話テキスト集合中の各発話から、該発話が含意している部分表現を発話部分表現として抽出する。
A computer (central processing unit; processor; data processing unit) 10 includes an utterance partial expression extraction unit 11, an implication determination unit 12, a directed graph generation unit 13, and an utterance cluster generation unit 14.
The utterance partial expression extraction unit 11 extracts, from each utterance in the dialog text set stored in the dialog text set storage unit 21, a partial expression implied by the utterance as an utterance partial expression.

含意判定部12は、2つの発話部分表現の間に含意関係が存在するかどうかを判定する。また、含意判定部12は、2つの発話部分表現の間に含意関係が存在する場合には、2つの発話部分表現のうちのどちらが含意する側であるかを判定する。   The implication determining unit 12 determines whether an implication relationship exists between the two utterance partial expressions. Further, when there is an implication relationship between the two utterance partial expressions, the implication determination unit 12 determines which of the two utterance partial expressions is on the side of implication.

有向グラフ生成部13は、異なる発話から抽出された発話部分表現の間に含意関係が成り立つ場合、それらの発話部分表現を頂点とし、その間を含意する側に向かう有向辺で結んだ有向グラフを生成する。   When the implication relationship is established between the utterance partial expressions extracted from different utterances, the directed graph generation unit 13 generates a directional graph in which the utterance partial expressions are used as vertices and connected between the directional edges toward the implication side. .

発話クラスタ生成部14は、有向グラフ中のある頂点から有向辺を順方向に辿ることで得られる部分グラフを抽出し、該部分グラフ中の各頂点である発話部分表現の抽出元である発話集合を、発話クラスタとして出力する。   The utterance cluster generation unit 14 extracts a subgraph obtained by tracing a directional edge in a forward direction from a certain vertex in the directed graph, and an utterance set from which the utterance partial expression that is each vertex in the subgraph is extracted Are output as utterance clusters.

図2は、本実施形態の音声対話要約装置の動作を一例として示すフロー図である。図1のブロック図と図2のフロー図を参照して、本実施形態の音声対話要約装置の動作について詳細に説明する。   FIG. 2 is a flowchart showing an example of the operation of the voice dialogue summarizing apparatus of this embodiment. With reference to the block diagram of FIG. 1 and the flowchart of FIG. 2, the operation of the speech dialogue summarizing apparatus of this embodiment will be described in detail.

まず、発話部分表現抽出部11は、対話テキスト集合記憶部21に記憶された対話テキスト集合中の各発話から部分表現を発話部分表現の候補として複数抽出し、各部分表現の内容を発話が含意するかどうかを含意判定部12によって判定する。発話部分表現抽出部11は、発話が含意していると判定された部分表現を、該発話に対する発話部分表現として抽出する(ステップA1)。   First, the utterance partial expression extraction unit 11 extracts a plurality of partial expressions as utterance partial expression candidates from each utterance in the conversation text set stored in the dialog text set storage unit 21, and the utterance implies the contents of each partial expression. The implication determining unit 12 determines whether or not to do so. The utterance partial expression extraction unit 11 extracts the partial expression determined to imply the utterance as the utterance partial expression for the utterance (step A1).

次に、有向グラフ生成部13は、異なる発話から抽出された発話部分表現の間に含意関係が成り立つかどうかを含意判定部12によって判定する。ここで発話が含意していると判定された場合、有向グラフ生成部13は、それらの発話部分表現を頂点とし、その間を含意する側に向かう有向辺で結んだ有向グラフを生成する(ステップA2)。   Next, the directed graph generation unit 13 determines whether or not an implication relationship is established between utterance partial expressions extracted from different utterances. When it is determined that the utterance is implied, the directed graph generation unit 13 generates a directional graph in which the utterance partial expressions are used as vertices and connected between the directional edges toward the side that implies the utterance (step A2). .

次に、発話クラスタ生成部14は、有向グラフ中のある頂点から有向辺を順方向に辿ることで得られる部分グラフを抽出し、該部分グラフ中の各頂点である発話部分表現の抽出元である発話集合を、発話クラスタとして発話クラスタ記憶部22に記憶する(ステップA3)。   Next, the utterance cluster generation unit 14 extracts a subgraph obtained by tracing a directional edge in a forward direction from a certain vertex in the directed graph, and extracts the utterance partial expression that is each vertex in the subgraph. A certain utterance set is stored in the utterance cluster storage unit 22 as an utterance cluster (step A3).

本実施形態の音声対話要約装置は、トークスクリプトの対話フローと一致しない応対事例であっても、発話クラスタを生成・提示することで、同じ発話内容に関する発話の集合を一括で閲覧、音声を確認可能とするように構成されている。かかる音声対話要約装置によると、トークスクリプトの対話フローと一致しない応対事例であっても、モニタリング業務を効率化することができる。   The voice dialog summarization apparatus of this embodiment can browse and collect a set of utterances related to the same utterance content at once by generating and presenting an utterance cluster even if the response case does not match the conversation flow of the talk script. It is configured to be possible. According to such a voice dialogue summarizing apparatus, it is possible to improve the efficiency of the monitoring work even in the case of a response that does not match the dialogue flow of the talk script.

次に、図1のブロック図および図2のフロー図を参照し、本実施形態の音声対話要約装置の動作を具体的な実施例に基づいて説明する。   Next, with reference to the block diagram of FIG. 1 and the flowchart of FIG. 2, the operation of the speech dialogue summarizing apparatus of this embodiment will be described based on a specific example.

まず、発話部分表現抽出部11は、対話テキスト集合記憶部21に記憶された図3に示すような対話テキスト集合中の各発話から部分表現を発話部分表現の候補として複数抽出する。   First, the utterance partial expression extraction unit 11 extracts a plurality of partial expressions as utterance partial expression candidates from each utterance in the conversation text set as shown in FIG. 3 stored in the dialog text set storage unit 21.

例えば、発話が「詰まるのはいつも同じところなんでしょうか。」であった場合、発話部分表現抽出部11は、形態素解析および係り受け(構文)構造解析を行うことにより、図4に示すような形態素間の係り受け関係を生成し、その係り受け関係の部分集合から、図5の右列に示すような部分表現を複数抽出する。   For example, when the utterance is “Is it always the same place that is clogged?”, The utterance partial expression extraction unit 11 performs morphological analysis and dependency (syntax) structure analysis, as shown in FIG. A dependency relationship between morphemes is generated, and a plurality of partial expressions as shown in the right column of FIG. 5 are extracted from a subset of the dependency relationship.

次に、発話部分表現抽出部11は、これらの各部分表現の内容を、発話「詰まるのはいつも同じところなんでしょうか。」が含意するかどうかを含意判定部12によって判定し、図5の左列に示すような発話の含意の関係を得る。   Next, the utterance partial expression extraction unit 11 determines whether or not the utterance “Is it always the same place that is clogged” with the content of each of these partial expressions is determined by the implication determination unit 12, and FIG. Obtain the implications of utterances as shown in the left column.

したがって、発話部分表現抽出部11は、発話が含意していると判定された部分表現「詰まるのは同じところなんでしょうか。」および「詰まるのはいつも同じところなんでしょうか。」を、該発話に対する発話部分表現として抽出する(図2のステップA1)。   Therefore, the utterance partial expression extraction unit 11 determines that the partial expressions determined to imply the utterance “Is it the same place that is clogged?” And “Is it always the same place that is clogged?” Is extracted as an utterance partial expression for (step A1 in FIG. 2).

次に、有向グラフ生成部13は、異なる発話から抽出された発話部分表現の間に含意関係が成り立つかどうかを含意判定部12によって判定する。   Next, the directed graph generation unit 13 determines whether or not an implication relationship is established between utterance partial expressions extracted from different utterances.

ここでは、異なる発話が、第1文「詰まるのはいつも同じところなんでしょうか。」と、第2文「毎回紙詰まりの場所は一緒でしょうか。」の2文であるものとする。なお、説明の便宜ために2文としているが、3文以上でも同様である。発話部分表現抽出部11は、第2文についても同様に、図6に示すような発話部分表現を求める。   Here, it is assumed that different utterances are the first sentence “Is it always the same place that is jammed?” And the second sentence “Is the location of the paper jam every time together?”. Although two sentences are used for convenience of explanation, the same applies to three or more sentences. Similarly, the utterance partial expression extraction unit 11 obtains an utterance partial expression as shown in FIG. 6 for the second sentence.

有向グラフ生成部13は、第1文と第2文の各発話部分表現間の含意関係を、図7に示すように求める。また、有向グラフ生成部13は、発話部分表現の間に含意関係が成り立つと判定された場合、それらの発話部分表現を頂点とし、その間を含意する側に向かう有向辺で結んだ有向グラフを生成する(ステップA2)。図8は、有向グラフ生成部13によって生成された有向グラフを一例として示す。   The directed graph generation unit 13 obtains an implication relationship between the utterance partial expressions of the first sentence and the second sentence as shown in FIG. Further, when it is determined that an implication relationship is established between the utterance partial representations, the directed graph generation unit 13 generates a directed graph in which the utterance partial representations are vertices and connected between the directional edges toward the implication side. (Step A2). FIG. 8 shows a directed graph generated by the directed graph generation unit 13 as an example.

次に、発話クラスタ生成部14は、有向グラフ中のある頂点から順方向で有向辺を辿れる部分グラフを抽出する。有向グラフが図8に示す構造を有する場合、発話クラスタ生成部14は、「場所は一緒でしょうか。」という発話部分表現に対応する頂点から順方向で有向辺を辿れる、破線で囲った部分グラフを抽出する。ここで、部分グラフの抽出の際、順方向で有向辺を辿る際の起点となる頂点は、別の部分グラフと共有される可能性があるため、発話クラスタ生成部14は、図9に示すように、起点を含まない部分グラフを抽出してもよい。   Next, the utterance cluster generation unit 14 extracts a subgraph that can follow a directed edge in a forward direction from a certain vertex in the directed graph. When the directed graph has the structure shown in FIG. 8, the utterance cluster generation unit 14 can trace the directed edge in the forward direction from the vertex corresponding to the utterance partial expression “Is the place together?” To extract. Here, at the time of subgraph extraction, since the vertex that is the starting point when following a directed edge in the forward direction may be shared with another subgraph, the utterance cluster generation unit 14 As shown, a subgraph that does not include a starting point may be extracted.

抽出された部分グラフ中の各頂点である発話部分表現の抽出元である発話集合は、第1文「詰まるのはいつも同じところなんでしょうか。」と、第2文「毎回紙詰まりの場所は一緒でしょうか。」の2文である。したがって、発話クラスタ生成部14は、これらの発話を、図10に示すように、発話クラスタとして発話クラスタ記憶部22に記憶する(ステップA3)。   The utterance set that is the source of the utterance subexpression that is each vertex in the extracted subgraph is the first sentence “Is it always the same place that is jammed?” And the second sentence “The location of the paper jam every time is "Is it together?" Therefore, the utterance cluster generation unit 14 stores these utterances in the utterance cluster storage unit 22 as utterance clusters as shown in FIG. 10 (step A3).

本実施形態に係る音声対話要約装置は、トークスクリプトの対話フローと一致しない応対事例であっても、発話クラスタを生成・提示することで、同じ発話内容に関する発話の集合を一括で閲覧、音声を確認可能とするように構成されている。したがって、本実施形態の音声対話要約装置によると、トークスクリプトの対話フローと一致しない応対事例であっても、モニタリング業務を効率化することができる。   The speech dialogue summarization apparatus according to the present embodiment generates and presents an utterance cluster even when the response case does not match the dialogue flow of the talk script, thereby collectively browsing a set of utterances related to the same utterance content and It is configured so that it can be confirmed. Therefore, according to the speech dialogue summarizing apparatus of the present embodiment, it is possible to improve the efficiency of the monitoring work even in the case of a response that does not match the dialogue flow of the talk script.

本実施形態に係る音声対話要約装置は、コンタクトセンターにおける通話音声からの応対品質評価や、テキストマイニング、検索、FAQ(Frequently Asked Questions)作成支援といった用途に適用することができる。   The voice dialogue summarizing apparatus according to the present embodiment can be applied to uses such as response quality evaluation from call voice in a contact center, text mining, search, and FAQ (Frequently Asked Questions) creation support.

なお、上記の非特許文献の開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。   It should be noted that the disclosure of the above non-patent document is incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiment can be changed and adjusted based on the basic technical concept. Further, various combinations or selections of various disclosed elements (including each element of each claim, each element of each embodiment, each element of each drawing, etc.) are possible within the scope of the claims of the present invention. It is. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea.

10 コンピュータ
11 発話部分表現抽出部
12 含意判定部
13 有向グラフ生成部
14 発話クラスタ生成部
20 記憶部
21 対話テキスト集合記憶部
22 発話クラスタ記憶部
101 音声認識手段
102 トピック遷移グラフ生成手段
103 スクリプト一致度計算手段
DESCRIPTION OF SYMBOLS 10 Computer 11 Utterance partial expression extraction part 12 Implication determination part 13 Directed graph generation part 14 Utterance cluster generation part 20 Storage part 21 Dialogue text set storage part 22 Utterance cluster storage part 101 Speech recognition means 102 Topic transition graph generation means 103 Script coincidence calculation means

Claims (10)

対話テキストの集合から複数の発話を抽出し、抽出した複数の発話のうちの互いに含意関係で結ばれたものを発話クラスタとして抽出する音声対話要約装置。   A speech dialogue summarization apparatus that extracts a plurality of utterances from a set of dialogue texts and extracts a plurality of extracted utterances connected in an implication relationship as an utterance cluster. 前記対話テキスト集合から抽出された各発話から、該発話が含意する部分表現を発話部分表現として抽出する発話部分表現抽出部を備える、請求項1に記載の音声対話要約装置。   The speech dialogue summarization apparatus according to claim 1, further comprising: an utterance partial expression extraction unit that extracts a partial expression implied by the utterance as an utterance partial expression from each utterance extracted from the dialogue text set. 前記対話テキスト集合から抽出された第1の発話から抽出された第1の発話部分表現と、前記対話テキスト集合から抽出された第2の発話から抽出された第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話部分表現を第1の頂点とし、前記第2の発話部分表現を第2の頂点とし、前記第1の頂点および前記第2の頂点を辺で結んだグラフを生成する有向グラフ生成部を備える、請求項2に記載の音声対話要約装置。   Between the first utterance partial expression extracted from the first utterance extracted from the conversation text set and the second utterance partial expression extracted from the second utterance extracted from the conversation text set. When an implication relationship holds, the first utterance partial representation is a first vertex, the second utterance partial representation is a second vertex, and the first vertex and the second vertex are connected by an edge. The spoken dialogue summarization apparatus according to claim 2, further comprising a directed graph generation unit configured to generate a graph. 前記第1の発話部分表現と前記第2の発話部分表現との間に含意関係が成り立つ場合、前記第1の発話および前記第2の発話を含む発話集合を、前記発話クラスタとして抽出する発話クラスタ生成部を備える、請求項3に記載の音声対話要約装置。   An utterance cluster that extracts an utterance set including the first utterance and the second utterance as the utterance cluster when an implication relationship is established between the first utterance partial expression and the second utterance partial expression The speech dialogue summarization apparatus according to claim 3, further comprising a generation unit. 前記有向グラフ生成部は、前記第1の発話部分表現が前記第2の発話部分表現を含意する場合、前記第1の頂点から前記第2の頂点に向かう有向辺で結んだ有向グラフを、前記グラフとして生成する、請求項4に記載の音声対話要約装置。   When the first utterance partial expression implies the second utterance partial expression, the directed graph generation unit generates a directed graph connected by directed edges from the first vertex to the second vertex. The speech dialogue summarization apparatus according to claim 4, wherein 前記発話クラスタ生成部は、前記有向グラフを順方向に辿って得られる部分グラフを抽出し、該部分グラフに含まれる頂点に相当する発話部分表現の抽出元の発話の集合を、前記発話クラスタとして抽出する、請求項5に記載の音声対話要約装置。   The utterance cluster generation unit extracts a subgraph obtained by tracing the directed graph in a forward direction, and extracts a set of utterances from which an utterance partial expression corresponding to a vertex included in the subgraph is extracted as the utterance cluster. The voice dialogue summarizing apparatus according to claim 5. 前記発話クラスタ生成部は、前記部分グラフに含まれる頂点のうちの他の部分グラフと共有される頂点を除外し、前記部分グラフに含まれる頂点に相当する発話部分表現の抽出元の発話の集合を、前記発話クラスタとして抽出する、請求項6に記載の音声対話要約装置。   The utterance cluster generation unit excludes vertices shared with other subgraphs among the vertices included in the subgraph, and a set of utterances from which utterance partial expressions corresponding to the vertices included in the subgraph are extracted Is extracted as the utterance cluster. The spoken dialogue summarization apparatus according to claim 6. コンピュータが、対話テキストの集合から複数の発話を抽出する工程と、
抽出した複数の発話のうちの互いに含意関係で結ばれたものを発話クラスタとして抽出する工程と、を含む音声対話要約方法。
A computer extracting a plurality of utterances from a set of dialogue text;
Extracting a plurality of extracted utterances connected in an implication relationship as an utterance cluster.
コンピュータが、前記対話テキスト集合から抽出された各発話から、該発話が含意する部分表現を発話部分表現として抽出する工程を含む、請求項8に記載の音声対話要約方法。   The speech dialogue summarizing method according to claim 8, further comprising: extracting, from each utterance extracted from the dialogue text set, a partial expression implied by the utterance as an utterance partial expression. 対話テキストの集合から複数の発話を抽出する処理と、
抽出した複数の発話のうちの互いに含意関係で結ばれたものを発話クラスタとして抽出する処理と、をコンピュータに実行させるプログラム。
Processing to extract multiple utterances from a set of dialogue texts;
A program that causes a computer to execute processing for extracting, as an utterance cluster, a plurality of extracted utterances connected in an implication relationship with each other.
JP2012056645A 2012-03-14 2012-03-14 Voice dialogue summarization apparatus, voice dialogue summarization method and program Active JP5910194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012056645A JP5910194B2 (en) 2012-03-14 2012-03-14 Voice dialogue summarization apparatus, voice dialogue summarization method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012056645A JP5910194B2 (en) 2012-03-14 2012-03-14 Voice dialogue summarization apparatus, voice dialogue summarization method and program

Publications (2)

Publication Number Publication Date
JP2013190991A true JP2013190991A (en) 2013-09-26
JP5910194B2 JP5910194B2 (en) 2016-04-27

Family

ID=49391170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012056645A Active JP5910194B2 (en) 2012-03-14 2012-03-14 Voice dialogue summarization apparatus, voice dialogue summarization method and program

Country Status (1)

Country Link
JP (1) JP5910194B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016013175A1 (en) * 2014-07-22 2016-01-28 日本電気株式会社 Text processing system, text processing method, and text processing program
JP2016139299A (en) * 2015-01-28 2016-08-04 日本電気株式会社 Information processing system, information processing method, and program
WO2016147218A1 (en) * 2015-03-18 2016-09-22 日本電気株式会社 Text monitoring system, text monitoring method, and recording medium
WO2016147220A1 (en) * 2015-03-18 2016-09-22 日本電気株式会社 Text visualization system, text visualization method, and recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069292A (en) * 1996-08-29 1998-03-10 Atr Onsei Honyaku Tsushin Kenkyusho:Kk Utterance relation recognizing device
JP2008146150A (en) * 2006-12-06 2008-06-26 Honda Motor Co Ltd Language understanding device, language understanding method, and computer program
US20110238409A1 (en) * 2010-03-26 2011-09-29 Jean-Marie Henri Daniel Larcheveque Semantic Clustering and Conversational Agents

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069292A (en) * 1996-08-29 1998-03-10 Atr Onsei Honyaku Tsushin Kenkyusho:Kk Utterance relation recognizing device
JP2008146150A (en) * 2006-12-06 2008-06-26 Honda Motor Co Ltd Language understanding device, language understanding method, and computer program
US20110238409A1 (en) * 2010-03-26 2011-09-29 Jean-Marie Henri Daniel Larcheveque Semantic Clustering and Conversational Agents

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
バード スティーブン、外2名, 入門 自然言語処理, vol. 第1版, JPN6015048972, 8 November 2010 (2010-11-08), pages 34 - 36, ISSN: 0003263470 *
加藤 真吾、外3名: "発話意図タグに基づく対話構造の記述", 言語処理学会第11回年次大会発表論文集, JPN6015048974, 15 March 2005 (2005-03-15), JP, pages 129 - 132, ISSN: 0003263471 *
西澤 信一郎、外1名: "日本語の自由会話における談話構造の推定〜因果関係を表す接続詞の場合〜", 自然言語処理, vol. 第4巻,第4号, JPN6015048968, 10 October 1997 (1997-10-10), JP, pages 61 - 72, ISSN: 0003209117 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016013175A1 (en) * 2014-07-22 2016-01-28 日本電気株式会社 Text processing system, text processing method, and text processing program
JP6008067B2 (en) * 2014-07-22 2016-10-19 日本電気株式会社 Text processing system, text processing method, and text processing program
US9916302B2 (en) 2014-07-22 2018-03-13 Nec Corporation Text processing using entailment recognition, group generation, and group integration
JP2016139299A (en) * 2015-01-28 2016-08-04 日本電気株式会社 Information processing system, information processing method, and program
WO2016147218A1 (en) * 2015-03-18 2016-09-22 日本電気株式会社 Text monitoring system, text monitoring method, and recording medium
WO2016147220A1 (en) * 2015-03-18 2016-09-22 日本電気株式会社 Text visualization system, text visualization method, and recording medium
JPWO2016147220A1 (en) * 2015-03-18 2017-12-07 日本電気株式会社 Text visualization system, text visualization method, and program
JPWO2016147218A1 (en) * 2015-03-18 2017-12-14 日本電気株式会社 Text monitoring system, text monitoring method, and program

Also Published As

Publication number Publication date
JP5910194B2 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
US10679134B2 (en) Automated ontology development
CN108962282B (en) Voice detection analysis method and device, computer equipment and storage medium
KR102151681B1 (en) Determining conversation states for the language model
US8756064B2 (en) Method and system for creating frugal speech corpus using internet resources and conventional speech corpus
US10068570B2 (en) Method of voice recognition and electronic apparatus
US11841890B2 (en) Call summary
JP2017534941A (en) Orphan utterance detection system and method
US10255346B2 (en) Tagging relations with N-best
JP5910194B2 (en) Voice dialogue summarization apparatus, voice dialogue summarization method and program
KR101534413B1 (en) Method and apparatus for providing counseling dialogue using counseling information
JP2013167985A (en) Conversation summary generation system and conversation summary generation program
US20140207451A1 (en) Method and Apparatus of Adaptive Textual Prediction of Voice Data
Ciobanu et al. Speech recognition and synthesis technologies in the translation workflow
US10522135B2 (en) System and method for segmenting audio files for transcription
Tsiakoulis et al. Dialogue context sensitive HMM-based speech synthesis
Dutrey et al. A CRF-based approach to automatic disfluency detection in a French call-centre corpus.
JP5882183B2 (en) Talk script extraction apparatus, method, and program
CN115831125A (en) Speech recognition method, device, equipment, storage medium and product
JP5457284B2 (en) Discourse breakdown calculation system and discourse breakdown calculation program
US20220020365A1 (en) Automated assistant with audio presentation interaction
JP2016139299A (en) Information processing system, information processing method, and program
JP2016024378A (en) Information processor, control method and program thereof
JP2018128577A (en) Summary sentence display device, summary sentence display method, and program
JP6743108B2 (en) PATTERN RECOGNITION MODEL AND PATTERN LEARNING DEVICE, GENERATION METHOD THEREOF, FAQ EXTRACTION METHOD USING THE SAME, PATTERN RECOGNITION DEVICE, AND PROGRAM
Kulkarni et al. Project Vāc: Can a Text-to-Speech Engine Generate Human Sentiments?

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5910194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150