JP2018031851A - Discourse function estimation device and computer program for the same - Google Patents

Discourse function estimation device and computer program for the same Download PDF

Info

Publication number
JP2018031851A
JP2018031851A JP2016162927A JP2016162927A JP2018031851A JP 2018031851 A JP2018031851 A JP 2018031851A JP 2016162927 A JP2016162927 A JP 2016162927A JP 2016162927 A JP2016162927 A JP 2016162927A JP 2018031851 A JP2018031851 A JP 2018031851A
Authority
JP
Japan
Prior art keywords
vector
phrase
fundamental frequency
discourse
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016162927A
Other languages
Japanese (ja)
Other versions
JP6712754B2 (en
Inventor
カルロス トシノリ イシイ
Toshinori Ishi Carlos
カルロス トシノリ イシイ
超然 劉
Chaoran Liu
超然 劉
石黒 浩
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2016162927A priority Critical patent/JP6712754B2/en
Publication of JP2018031851A publication Critical patent/JP2018031851A/en
Application granted granted Critical
Publication of JP6712754B2 publication Critical patent/JP6712754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a discourse function detection device for determining a discourse function with high accuracy.SOLUTION: A discourse function estimation device 44 includes: a morpheme analysis part 72 and a time series part-of-speech information storage part 74 for receiving text data of speech production 42, performing morpheme analysis and generating a first feature vector; an F0 extraction part 76, an F0 average storage part 78 and a speaker normalization part 80 for extracting F0 from the inside of a voice signal of 150 milliseconds just before a phase end of a voice signal corresponding to the speech production, and generating a second vector representing a change of F0 by normalizing F0; and a classifier 82 composed of learned SVM or DNN by previous machine learning to receive a feature vector composed of a first vector and the second vector as an input such that a discourse function of the speech production at a phase end is classified into any of a plurality of predetermined discourse functions.SELECTED DRAWING: Figure 2

Description

この発明はヒューマン・マシン対話システムに関し、特に、人間とロボットとの間の自然なインタラクションを可能にするために、発話のターン終了ポイントを検出する技術に関する。   The present invention relates to a human-machine interaction system, and more particularly to a technique for detecting a turn end point of an utterance in order to enable natural interaction between a human and a robot.

音声認識タスクでは、ユーザの発話終了ポイントを適切に検出することが重要である。また、ヒューマン・マシン対話システムに対しては、発話終了とともに発話のターン終了ポイントを適切に検出することが要求される。一文一答形式の会話、又は単一音声コマンドと違い、自然なコミュニケーションである自由対話(談話)では、話者の1ターンに複数の発話文が含まれることが多々ある。したがって、自由対話音声における発話のターン終了ポイントの推定は困難である。   In the speech recognition task, it is important to appropriately detect the user's utterance end point. Further, it is required for the human-machine dialogue system to appropriately detect the utterance turn end point at the same time as the utterance end. Unlike a single-sentence one-answer conversation or a single voice command, a free conversation (discourse), which is a natural communication, often includes a plurality of spoken sentences in one turn of the speaker. Therefore, it is difficult to estimate the turn end point of utterance in free dialogue speech.

我々が他の人と会話するとき、その目的は話者の意図を理解し、適切に話者の発話に対して応答することである。発話により何が意図されているかを理解することは、発話内の全ての単語を理解することと同程度に重要であり、円滑な会話に多大な影響を与える。   When we talk to other people, the purpose is to understand the speaker's intention and respond appropriately to the speaker's utterance. Understanding what is intended by an utterance is as important as understanding all the words in the utterance and has a significant impact on smooth conversation.

発話ターン終了ポイントの正確な推定は発話文の切り分けに利用でき、また、発話内容の理解に役立つため、より自然なインタラクション制御に繋がる。さらに、日本語話者が発話する際の頭部動作と発話権交代の関連性が報告されている(非特許文献1)。以上から、発話終了タイミングの推定結果に合わせ、コミュニケーションロボットの動作を制御することで、ロボットの人間らしさを向上させることができる。   Accurate estimation of the utterance turn end point can be used to segment the utterance sentence, and also helps to understand the utterance content, leading to more natural interaction control. Furthermore, the relationship between the head movement and the utterance right change when a Japanese speaker speaks has been reported (Non-Patent Document 1). From the above, it is possible to improve the humanity of the robot by controlling the operation of the communication robot in accordance with the estimation result of the utterance end timing.

C. Liu, C. T. Ishi, H. Ishiguro, Proc. of HRI 2012, pp. 285-292, 2012.C. Liu, C. T. Ishi, H. Ishiguro, Proc. Of HRI 2012, pp. 285-292, 2012. R. Hariharan, J. H akkinen, and K. Laurila, ICASSP 2001, vol. 1, pp. 249-252, May 2001.R. Hariharan, J. Hakkinen, and K. Laurila, ICASSP 2001, vol. 1, pp. 249-252, May 2001. Q. Li, J. Zheng, Q. R. Zhou, and C. Lee, ICASSP 2001, vol. 1, pp. 233-236, May 2001.Q. Li, J. Zheng, Q. R. Zhou, and C. Lee, ICASSP 2001, vol. 1, pp. 233-236, May 2001. L. Huang and C. Yang, Proc. ICASSP 2000, vol. 3, pp. 1751-1754, 2000.L. Huang and C. Yang, Proc. ICASSP 2000, vol. 3, pp. 1751-1754, 2000.

従来の研究では、発話のターン終了ポイントの検出には、無音区間(非特許文献2)、ゼロクロス及びエントロピー(非特許文献3、4)が用いられている。しかし、これらの手法による文末検出の精度は環境に左右されやすく、したがってターン終了ポイントの検出の精度も低いという問題がある。また、自然対話にはオーバーラップ及び同時発話も多く含まれているため、無音区間、ゼロクロス、又はエントロピーを用いる従来技術ではターン終了ポイントの正確な検出は困難である。   In the conventional research, silence intervals (Non-Patent Document 2), zero-cross and entropy (Non-Patent Documents 3 and 4) are used to detect the turn end point of an utterance. However, the accuracy of sentence ending detection by these methods is easily influenced by the environment, and therefore there is a problem that the accuracy of detecting the turn end point is low. In addition, since natural conversation includes many overlaps and simultaneous utterances, it is difficult to accurately detect the turn end point with the conventional technique using a silent section, zero cross, or entropy.

また、発話の終了は単に発話ターンを他者に譲渡することを意味しない。引き続きそれまでの話者が発話権を保持する場合もあるし、相手に対して質問又は応答を要求している場合もある。すなわち、発話は単に何かを述べるだけではなく、話者間の会話をある方向に進める機能を持つ。このような機能をここでは談話機能と呼ぶ。   Moreover, the end of the utterance does not simply mean transferring the utterance turn to another person. In some cases, the previous speaker may hold the right to speak, or may request a question or response from the other party. That is, utterances have a function to advance conversations between speakers in a certain direction, not just to describe something. Such a function is called a discourse function here.

ヒューマン・マシン対話システムでは、このような、発話の句末の談話機能を精度高く検出しないと、自然な対話ができないという問題がある。従来の技術では、そのような談話機能の判定を高精度で行うことは難しい。   In the human-machine dialogue system, there is a problem that a natural dialogue cannot be made unless the discourse function at the end of the utterance is detected with high accuracy. In the prior art, it is difficult to determine such a discourse function with high accuracy.

それ故に本発明は、談話機能を高精度で判定する談話機能検出装置を提供することである。   Therefore, the present invention is to provide a discourse function detection device that determines a discourse function with high accuracy.

本発明の第1の局面に係る談話機能推定装置は、発話のテキストデータを受け、当該テキストデータを形態素解析して発話における談話機能推定のための第1の素性ベクトルを生成する第1のベクトル生成手段と、発話に対応する音声信号において、発話中に検出された句末の直前の所定区間の音声信号中から基本周波数成分を抽出し、基本周波数成分の変化を表す第2のベクトルを生成する第2のベクトル生成手段と、第1のベクトル及び第2のベクトルからなる素性ベクトルを入力として受け、句末における発話の談話機能を、予め定める複数通りの談話機能のいずれかに分類するよう、予め機械学習により学習済の分類手段とを含む。   The discourse function estimation apparatus according to the first aspect of the present invention receives a text data of an utterance, and generates a first feature vector for estimating a discourse function in the utterance by analyzing the text data. And generating a second vector representing a change in the fundamental frequency component by extracting the fundamental frequency component from the speech signal in a predetermined section immediately before the end of the phrase detected during the speech in the speech signal corresponding to the speech. A second vector generation unit that receives the feature vector composed of the first vector and the second vector as an input, and classifies the discourse function of the utterance at the end of the phrase as one of a plurality of predetermined discourse functions And classifying means that have been learned in advance by machine learning.

好ましくは、第2のベクトル生成手段は、発話中に検出された句末の直前の所定区間を複数個の分割区間に分割する分割手段と、分割手段により分割された各分割区間の基本周波数を要素として第2のベクトルを生成するための手段を含む。   Preferably, the second vector generating means divides the predetermined section immediately before the end of the phrase detected during speech into a plurality of divided sections, and the fundamental frequency of each divided section divided by the dividing means. Means for generating a second vector as an element.

より好ましくは、第1のベクトル生成手段は、発話のテキストデータを受け、当該テキストデータを形態素解析し、形態素列を出力するための形態素解析手段と、形態素解析手段により出力された形態素列を時系列的に記憶するための形態素列記憶手段と、少なくとも、形態素列記憶手段に記憶された最新の所定個数の形態素の各々から得られる品詞情報を要素として、第1のベクトルを生成し分類器に出力するための手段とを含む。   More preferably, the first vector generation unit receives the text data of the utterance, performs morphological analysis on the text data, and outputs the morpheme sequence output by the morpheme analysis unit. Using the morpheme sequence storage means for storing in series and at least the part of speech information obtained from each of the latest predetermined number of morphemes stored in the morpheme sequence storage means, a first vector is generated and used as a classifier Means for outputting.

さらに好ましくは、第1のベクトル生成手段は、発話のテキストデータを受け、当該テキストデータを形態素解析し、形態素列を出力するための形態素解析手段と、形態素列に出現する単語の集合(BOW)を表すBOWベクトルを生成するBOWベクトル生成手段と、BOWベクトル生成手段の要素を、所定のデータセット中における各単語の出現頻度と、発話中における各単語の出現頻度とにより正規化し、正規化後BOWベクトルを出力するためのBOWベクトル正規化手段と、BOWベクトル正規化手段の出力する正規化後BOWベクトルの次元を削減して第1のベクトルとして出力するための次元削減手段とを含む。   More preferably, the first vector generation means receives utterance text data, morphologically analyzes the text data, and outputs a morpheme string, and a set of words appearing in the morpheme string (BOW) BOW vector generating means for generating a BOW vector representing the element, and elements of the BOW vector generating means are normalized by the appearance frequency of each word in a predetermined data set and the appearance frequency of each word during utterance, and after normalization BOW vector normalizing means for outputting a BOW vector, and dimension reducing means for reducing the dimension of the normalized BOW vector output from the BOW vector normalizing means and outputting it as a first vector.

次元削減手段は、BOWベクトル正規化手段の出力する正規化後BOWベクトルの次元を、潜在的ディリクレ配分法(LDA)により削減して第1のベクトルを生成するための手段を含んでもよい。   The dimension reduction means may include means for reducing the dimension of the normalized BOW vector output from the BOW vector normalization means by a latent Dirichlet allocation method (LDA) to generate the first vector.

次元削減手段は、BOWベクトル正規化手段の出力する正規化後BOWベクトルを受けるように接続された、入力と出力とが等しくなるように予め学習済のボトルネックニューラルネットワークと、正規化後BOWベクトルが与えられたことに応答してボトルネックニューラルネットワークのボトルネック層の各ノードから出力される値を要素として第1のベクトルを生成するための手段とを含んでもよい。   The dimension reduction means is connected to receive the normalized BOW vector output from the BOW vector normalizing means, and has been learned in advance so that the input and the output are equal, and the normalized BOW vector. And a means for generating a first vector using the value output from each node of the bottleneck layer of the bottleneck neural network as an element.

好ましくは、分類手段は、素性ベクトルを入力として受け、句末における発話の談話機能を、予め定める複数通りの談話機能のいずれかに分類するよう学習済のサポートベクトルマシンを含む。   Preferably, the classification means includes a support vector machine that has received a feature vector as input and has learned to classify the discourse function of the utterance at the end of the phrase into one of a plurality of predetermined discourse functions.

より好ましくは、分類手段は、発話の談話機能に対応する隠れ状態の遷移経路と、各状態における特徴ベクトルの各要素の出力確率とを表現する隠れマルコフモデルと、素性ベクトルを入力として受け、当該素性ベクトルを出力した状態の後に、状態の各々に隠れマルコフモデルの状態が遷移する確率を出力するように予め機械学習により学習済のディープニューラルネットワークと、素性ベクトル、隠れマルコフモデル、及びディープニューラルネットワークの出力に基づき、発話の不可視の状態の遷移経路として最尤の経路を推定する最尤推定手段と、最尤推定手段により推定された経路に基づいて発話の談話機能を推定するための手段とを含む。   More preferably, the classification means receives as input a hidden Markov model that expresses a hidden state transition path corresponding to the speech discourse function, an output probability of each element of the feature vector in each state, and a feature vector. Deep neural network trained by machine learning in advance to output the probability that the state of the hidden Markov model transitions to each of the states after outputting the feature vector, and the feature vector, hidden Markov model, and deep neural network A maximum likelihood estimation means for estimating a maximum likelihood path as a transition path of an invisible state of speech, and a means for estimating a speech discourse function based on the path estimated by the maximum likelihood estimation means; including.

さらに好ましくは、2のベクトル生成手段は、発話に対応する音声信号において、発話中に検出された句末の直前の所定区間の音声信号中から基本周波数成分を抽出し対数基本周波数成分として記憶するための基本周波数抽出手段と、予め抽出した、発話の話者の音声の基本周波数の対数の平均値を記憶する基本周波数平均記憶手段と、基本周波数抽出手段により抽出された対数基本周波数成分から基本周波数平均記憶手段に記憶された平均値を減ずることにより対数基本周波数成分を正規化し、当該正規化された対数基本周波数成分を要素として第2のベクトルを生成するための手段とを含む。   More preferably, the second vector generation means extracts a fundamental frequency component from a speech signal in a predetermined section immediately before the end of a phrase detected during speech in a speech signal corresponding to speech, and stores it as a logarithmic fundamental frequency component. Fundamental frequency extraction means for storing, fundamental frequency average storage means for storing the logarithm average value of the fundamental frequency of the speech of the speaker who has been extracted in advance, and the fundamental from the logarithmic fundamental frequency component extracted by the fundamental frequency extraction means Means for normalizing the logarithmic fundamental frequency component by subtracting the average value stored in the frequency mean storage means, and generating a second vector using the normalized logarithmic fundamental frequency component as an element.

好ましくは、談話機能推定装置は、発話における話者の音声の基本周波数の対数を所定時間ごとに算出するための基本周波数算出手段と、基本周波数算出手段により所定時間ごとに算出された基本周波数の対数の平均値を算出し、基本周波数平均記憶手段に格納するための手段とをさらに含む。   Preferably, the discourse function estimation device includes a fundamental frequency calculation means for calculating a logarithm of a fundamental frequency of a speaker's voice in an utterance every predetermined time, and a fundamental frequency calculated by the fundamental frequency calculation means every predetermined time. Means for calculating an average value of the logarithm and storing it in the fundamental frequency average storage means.

より好ましくは、談話機能推定装置は、発話の句末を検出して句末信号を出力するための句末検出手段をさらに含む。第1のベクトル生成手段及び第2のベクトル生成手段は、それぞれ、句末検出手段により検出された句末の直前のテキストデータ及び音声信号から第1のベクトル及び第2のベクトルを生成し出力する。   More preferably, the discourse function estimating device further includes a phrase end detection means for detecting a phrase end of the utterance and outputting a phrase end signal. The first vector generation means and the second vector generation means respectively generate and output the first vector and the second vector from the text data and the speech signal immediately before the phrase end detected by the phrase end detection means. .

さらに好ましくは、句末検出手段は、発話に対する音声認識を行ってテキストデータを出力する音声認識装置と、音声認識装置の出力するテキストデータの、句末直前の音素情報から、句末として取り扱うべき句末区間を特定する句末特定手段を含む。第2のベクトル生成手段は、句末区間をそれぞれ所定長さの部分区間に区切って各部分区間の基本周波数の対数を抽出するための手段と、抽出するための手段により抽出された各部分区間の基本周波数の対数の間の関係に基づいて、固定長の第2のベクトルを生成するための手段とを含む。   More preferably, the phrase end detection means should be treated as a phrase end from the speech recognition device that performs speech recognition on an utterance and outputs text data, and the phoneme information of the text data output by the speech recognition device immediately before the end of the phrase. A phrase end specifying means for specifying the phrase end section is included. The second vector generating means includes means for dividing the phrase end section into partial sections each having a predetermined length and extracting the logarithm of the fundamental frequency of each partial section; and each partial section extracted by the means for extracting And means for generating a second vector of fixed length based on the relationship between the logarithm of the fundamental frequencies.

本発明の第2の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの談話機能推定装置として機能させる。   A computer program according to the second aspect of the present invention causes a computer to function as any one of the above-described discourse function estimation devices.

本発明の第1の実施の形態に係る談話機能推定装置を含むヒューマン・マシン対話システムの構成を示す図である。It is a figure which shows the structure of the human-machine dialogue system containing the discourse function estimation apparatus which concerns on the 1st Embodiment of this invention. 図1に示す談話機能推定装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the discourse function estimation apparatus shown in FIG. 本発明の第2の実施の形態に係る談話機能推定装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the discourse function estimation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る談話機能推定装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the discourse function estimation apparatus which concerns on the 3rd Embodiment of this invention. 第3の実施の形態で使用されるボトルネットネットワークの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the bottle net network used by 3rd Embodiment. 第3の実施の形態の分類器で使用されるディープニューラルネットワークの構成を示す模式図である。It is a schematic diagram which shows the structure of the deep neural network used with the classifier of 3rd Embodiment. 第3の実施の形態の分類器による、談話機能の最尤系列の推定過程を説明するための模式図である。It is a schematic diagram for demonstrating the estimation process of the maximum likelihood series of a discourse function by the classifier of 3rd Embodiment. 本発明の第4の実施の形態に係る談話機能推定装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the discourse function estimation apparatus which concerns on the 4th Embodiment of this invention. 本発明の実施の形態において、分類器としてLDAを用いた場合の効果を説明するためのグラフである。In embodiment of this invention, it is a graph for demonstrating the effect at the time of using LDA as a classifier. 本発明の実施の形態において、分類器としてDNNを用いた場合の効果を説明するためのグラフである。In embodiment of this invention, it is a graph for demonstrating the effect at the time of using DNN as a classifier. 本発明の各実施の形態に係る談話機能推定装置を実現するためのコンピュータシステムの外観図である。It is an external view of the computer system for implement | achieving the discourse function estimation apparatus which concerns on each embodiment of this invention. 図11に外観を示すコンピュータシステムの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the computer system which shows an external appearance in FIG.

以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。   In the following description and drawings, the same parts are denoted by the same reference numerals. Therefore, detailed description thereof will not be repeated.

[第1の実施の形態]
〈概略〉
図1を参照して、本発明の第1の実施の形態に係る談話機能推定装置44は、操作者40が発する音声42から得られる言語情報だけではなく、その韻律情報も含めて談話機能を検出する。検出された談話機能により、ロボット48の頭部動作46を制御したり、ロボット48の応答を制御したりすることで、操作者40とロボット48との間の自然な対話を実現する。
[First Embodiment]
<Outline>
With reference to FIG. 1, the discourse function estimation apparatus 44 according to the first embodiment of the present invention has a discourse function including not only language information obtained from the speech 42 uttered by the operator 40 but also its prosodic information. To detect. A natural dialogue between the operator 40 and the robot 48 is realized by controlling the head movement 46 of the robot 48 or controlling the response of the robot 48 by the detected discourse function.

〈構成〉
図2を参照して、本実施の形態に係る談話機能推定装置44は、発話者の音声42を受けて音声認識し、音声認識結果のテキストデータを出力する音声認識装置70、このテキストデータに対して形態素解析を行い、品詞情報などが付された形態素列を出力する形態素解析部72、及び、形態素解析部72が出力した形態素列の品詞情報の時系列を記憶し、それら品詞を要素とするベクトルを出力する時系列品詞情報記憶部74を含む。
<Constitution>
Referring to FIG. 2, the discourse function estimating device 44 according to the present embodiment receives the speech 42 of the speaker, recognizes the speech, and outputs the speech recognition result text data. The morpheme analysis is performed on the morpheme analysis unit 72 that outputs a morpheme sequence to which part-of-speech information is attached, and the time series of the morpheme information of the morpheme sequence output by the morpheme analysis unit 72 is stored. A time-sequential part-of-speech information storage unit 74 for outputting a vector to be output.

この実施の形態が扱う言語は日本語であり、品詞としては11通りである。これらに「その他」を含めて、品詞情報としては12種類を用いる。品詞を要素とするベクトルは、品詞の種類数(12個)の要素を持つ固定長ベクトルであり、該当する品詞に対応する要素の値が1、それ以外の要素の値は0としたものである。   The language handled in this embodiment is Japanese, and there are 11 parts of speech. Twelve types of part-of-speech information are used including “others”. A vector whose part of speech is an element is a fixed-length vector having the number of types of parts of speech (12). The value of the element corresponding to the corresponding part of speech is 1, and the values of the other elements are 0. is there.

談話機能推定装置44はさらに、音声42からログスケールの基本周波数(F0)を10ミリ秒ごとに抽出するためのF0抽出部76、音声42とは別にあらかじめ準備された、音声42の話者の発話データのF0の平均値をあらかじめ記憶するためのF0平均記憶部78、及び、F0抽出部76が抽出したF0を、10ミリ秒ごとに所定時間分(本実施の形態では150ミリ秒)だけ記憶し、句境界情報84に応答して、F0平均記憶部78に記憶された話者のF0の平均値を減ずることにより話者の音声42のF0を正規化した値を要素とするベクトルを出力するための話者正規化部80と、時系列品詞情報記憶部74の出力するベクトルと話者正規化部80の出力するベクトルとを連結したベクトルを素性ベクトルとして受け、談話機能50を推定して出力するための分類器82とを含む。句境界情報84を生成するための句境界は本実施の形態及び後述する第2及び第3の実施の形態では既知であるものとする。なお、F0の情報を150ミリ秒分だけ用いることとしたのは、日本語の1モーラに相当するのが150ミリ秒程度であることに基づく。なお、この長さは適宜変更してもよい。   The discourse function estimation device 44 further includes the F0 extraction unit 76 for extracting the log scale fundamental frequency (F0) from the voice 42 every 10 milliseconds, and the voice 42 prepared in advance separately from the voice 42. The F0 average storage unit 78 for storing the average value of the F0 of the speech data in advance and the F0 extracted by the F0 extraction unit 76 for a predetermined time every 10 milliseconds (150 milliseconds in this embodiment). In response to the phrase boundary information 84, a vector whose elements are normalized values of F0 of the speaker's voice 42 by subtracting the average value of the speaker's F0 stored in the F0 average storage unit 78 is stored. A speaker normalizing unit 80 for outputting, a vector obtained by concatenating a vector output from the time-series part-of-speech information storage unit 74 and a vector output from the speaker normalizing unit 80 is received as a feature vector. 50 estimated by the containing and classifier 82 for outputting. The phrase boundaries for generating the phrase boundary information 84 are assumed to be known in the present embodiment and second and third embodiments described later. The reason that the information of F0 is used for 150 milliseconds is based on the fact that it corresponds to one Japanese mora is about 150 milliseconds. In addition, you may change this length suitably.

分類器82は、本実施の形態ではSVMであり、あらかじめ学習データを用いて、素性ベクトルに対して談話機能50を推定するように機械学習を行っている。また、本実施の形態では、談話機能50は、k(ターンの保持)、g(ターンの譲渡)、及びo(その他)を識別するようにあらかじめ学習済みである。   The classifier 82 is an SVM in the present embodiment, and performs machine learning so as to estimate the discourse function 50 with respect to a feature vector in advance using learning data. Further, in the present embodiment, the discourse function 50 has been learned in advance to identify k (holding of turns), g (turning of turns), and o (others).

〈動作〉
話者の音声42が入力されると、音声認識装置70は音声42に対する音声認識を行い、発話の内容に対応するテキストデータを出力する。形態素解析部72はこの出力を受け、付属の形態素解析用辞書(図示せず)を参照して形態素解析を行い、品詞情報が付された形態素列を出力する。時系列品詞情報記憶部74は、この形態素列のうち、品詞情報の時系列を所定個数だけ記憶する。
<Operation>
When the voice 42 of the speaker is input, the voice recognition device 70 performs voice recognition on the voice 42 and outputs text data corresponding to the content of the utterance. The morpheme analysis unit 72 receives this output, performs morpheme analysis with reference to an attached dictionary for morpheme analysis (not shown), and outputs a morpheme string with part-of-speech information. The time-series part-of-speech information storage unit 74 stores a predetermined number of part-of-speech information time series in the morpheme string.

F0抽出部76は、音声42から10ミリ秒ごとにF0を抽出し話者正規化部80に与える。話者正規化部80は、F0抽出部76から与えられるF0からF0平均記憶部78に記憶されているF0平均値を減算して正規化し、最新の150ミリ秒分を記憶しておき、句境界情報84を受けたことに応答して、記憶されていた150ミリ秒分のF0の値を要素とするベクトルを生成し、分類器82に与える。   The F0 extraction unit 76 extracts F0 from the voice 42 every 10 milliseconds and gives it to the speaker normalization unit 80. The speaker normalization unit 80 subtracts and normalizes the F0 average value stored in the F0 average storage unit 78 from F0 given from the F0 extraction unit 76, stores the latest 150 milliseconds, In response to receiving the boundary information 84, a vector having the stored value of F0 for 150 milliseconds as an element is generated and given to the classifier 82.

分類器82の入力には、時系列品詞情報記憶部74からのベクトルと話者正規化部80からのベクトルとが連結されたものが素性ベクトルとして与えられる。分類器82は、この素性ベクトルに基づいて、音声42により表される発話の句末の談話機能の推定値(k、g、oのいずれか)を推定し出力する。図1に示す頭部動作46を、この談話機能に基づいて制御できる。   An input of the classifier 82 is a feature vector obtained by concatenating a vector from the time-series part-of-speech information storage unit 74 and a vector from the speaker normalization unit 80. The classifier 82 estimates and outputs an estimated value (one of k, g, or o) of the discourse function at the end of the utterance expressed by the speech 42 based on the feature vector. The head movement 46 shown in FIG. 1 can be controlled based on this discourse function.

実験によれば、この実施の形態による談話機能推定装置44では、談話機能の認識結果の精度として69%という結果を得た。   According to the experiment, the discourse function estimation device 44 according to this embodiment obtained a result of 69% as the accuracy of the discourse function recognition result.

[第2の実施の形態]
〈構成〉
図3に、本発明の第2の実施の形態に係る談話機能推定装置100のブロック図を示す。この談話機能推定装置100が第1の実施の形態に係る談話機能推定装置44と異なるのは、時系列品詞情報記憶部74に代えて、形態素解析部72の出力する形態素列に基づいて、時系列の品詞情報ではなく、最新の形態素のnグラムをバッグ・オブ・ワーズ(BOWベクトル)表現により表すベクトルを生成するためのベクトル生成部110を含む点と、ベクトル生成部110の出力するBOWベクトルを正規化するためのベクトル正規化部111を含む点と、ベクトル正規化部111により正規化されたBOWベクトルの次元をLDA(Latent Dirichlet Association)により削減する処理を行い、次元が削減されたベクトルを出力するためのベクトル次元削減処理部112を含む点と、図2の分類器82に代えて、ベクトル次元削減処理部112からのベクトルと話者正規化部80の出力するベクトルとを連結したものを素性ベクトルとして受け、音声42の表す発話の談話機能をk、g、q(質問・応答要求)、bc(相槌)のいずれかに分類する、SVMからなる分類器114を含む点とである。分類器114は、あらかじめ上記した4つのタグによりラベル付けされた学習データと、当該学習データに対して話者正規化部80の出力する正規化されたF0とにより学習を行っている。
[Second Embodiment]
<Constitution>
FIG. 3 shows a block diagram of the discourse function estimation apparatus 100 according to the second embodiment of the present invention. The discourse function estimation device 100 is different from the discourse function estimation device 44 according to the first embodiment in that it is based on the morpheme sequence output by the morpheme analysis unit 72 instead of the time-series part-of-speech information storage unit 74. A point including a vector generation unit 110 for generating a vector representing n-grams of the latest morpheme in a bag-of-words (BOW vector) expression, not a part-of-speech information, and a BOW vector output from the vector generation unit 110 The vector including the vector normalization unit 111 for normalizing the vector and the dimension of the BOW vector normalized by the vector normalization unit 111 is reduced by an LDA (Latent Dirichlet Association), thereby reducing the dimension. And a vector dimension reduction processing unit 11 instead of the classifier 82 of FIG. 2 obtained by connecting the vectors from 2 and the vectors output from the speaker normalization unit 80 as feature vectors, and the discourse function of the utterance represented by the speech 42 is k, g, q (question / response request), bc (interference) And a point including a classifier 114 made of SVM. The classifier 114 performs learning using learning data labeled in advance with the four tags described above and the normalized F0 output from the speaker normalization unit 80 with respect to the learning data.

BOWベクトルは、学習に用いたデータ全体に出現する単語の数だけの要素を持つ。各要素の値は、処理対象の発話データを音声認識した結果の最後のフレーズにおいて、各単語が出現した頻度である。したがってこのベクトルの大部分の要素は0である。   The BOW vector has as many elements as the number of words appearing in the entire data used for learning. The value of each element is the frequency at which each word appears in the last phrase as a result of speech recognition of the utterance data to be processed. Therefore, most elements of this vector are zero.

ベクトル正規化部111は、以下のようにしてこのBOWベクトルを正規化する。この正規化では、いわゆるtf-idfを用いる。すなわち、あらかじめ学習に用いたデータ全体での各単語の出現頻度を算出しておく。そして、BOWベクトルの各要素を、その要素に対応する単語の、データ全体での出現頻度で除算した後、ベクトルの大きさが1となるように正規化する。   The vector normalization unit 111 normalizes the BOW vector as follows. In this normalization, so-called tf-idf is used. That is, the appearance frequency of each word in the entire data used for learning is calculated in advance. Then, after dividing each element of the BOW vector by the appearance frequency of the word corresponding to the element in the entire data, normalization is performed so that the magnitude of the vector becomes 1.

この正規化されたベクトルをベクトル次元削減処理部112でLDAを用いて処理することによりベクトルの次元を削減する。LDAは、多数の離散的データのための確率的生成モデルである。このモデルは階層的ベイズモデルであって、各句が、あるトピックの集合の有限な混合物であると考える。したがって、各句はトピックの確率の集合として表現できる。一般的に、LDAが扱うトピックの範囲は100〜300程度である。このLDAを用いることによって、ベクトルのサイズを語彙の数からトピックの数にまで削減できる。後述する実験では、トピックの数を512、1024、1536、及び2048に設定した。   The normalized vector is processed by the vector dimension reduction processing unit 112 using LDA, thereby reducing the dimension of the vector. LDA is a probabilistic generation model for a large number of discrete data. This model is a hierarchical Bayesian model where each phrase is considered a finite mixture of a set of topics. Thus, each phrase can be expressed as a set of topic probabilities. Generally, the range of topics handled by LDA is about 100 to 300. By using this LDA, the vector size can be reduced from the number of vocabularies to the number of topics. In the experiment described later, the number of topics was set to 512, 1024, 1536, and 2048.

〈動作〉
この第2の実施の形態に係る談話機能推定装置100は以下のように動作する。音声認識装置70、形態素解析部72、F0抽出部76、F0平均記憶部78及び話者正規化部80の動作は、第1の実施の形態と同じである。ベクトル生成部110は、形態素解析部72の出力する形態素列に基づいて、最後の句のBOWベクトルを生成し、ベクトル正規化部111に与える。ベクトル正規化部111は、前述した手順にしたがってBOWベクトルを正規化し、ベクトル次元削減処理部112に与える。ベクトル次元削減処理部112は、このように正規化されたBOWベクトルに対してLDA処理を行うことにより、次元が削減されたベクトルを生成する。
<Operation>
The discourse function estimation apparatus 100 according to the second embodiment operates as follows. The operations of the speech recognition device 70, the morphological analysis unit 72, the F0 extraction unit 76, the F0 average storage unit 78, and the speaker normalization unit 80 are the same as those in the first embodiment. The vector generation unit 110 generates a BOW vector of the last phrase based on the morpheme sequence output from the morpheme analysis unit 72 and supplies the BOW vector to the vector normalization unit 111. The vector normalization unit 111 normalizes the BOW vector according to the above-described procedure, and gives the vector to the vector dimension reduction processing unit 112. The vector dimension reduction processing unit 112 generates a vector with reduced dimensions by performing LDA processing on the normalized BOW vector.

分類器114は、ベクトル次元削減処理部112の出力したベクトルと話者正規化部80の出力したベクトルとを連結したものを素性ベクトルとして受け、あらかじめ学習していたパラメータにしたがって談話機能102を推定し出力する。   The classifier 114 receives a concatenation of the vector output from the vector dimension reduction processing unit 112 and the vector output from the speaker normalization unit 80 as a feature vector, and estimates the discourse function 102 according to parameters learned in advance. Then output.

なお、この実施の形態では分類器114としてSVMを用いている。しかし本発明はそうした実施の形態には限定されず、識別機能を備えた分類器であればどのようなものでも適用できる。例えば、SVMに代えてDNNを用いることもできる。   In this embodiment, SVM is used as the classifier 114. However, the present invention is not limited to such an embodiment, and any classifier having an identification function can be applied. For example, DNN can be used instead of SVM.

[第3の実施の形態]
〈構成〉
図4に、第3の実施の形態に係る談話機能推定装置130の概略構成を示す。図4を参照して、この談話機能推定装置130が図3に示す談話機能推定装置100と異なるのは、図2に示すベクトル次元削減処理部112に代えてボトルネックニューラルネットワーク140を含む点、及び、図2のSVMを用いた分類器114に代えて、ディープニューラルネットワーク(DNN)と隱れマルコフモデル(HMM)を組み合わせた分類器142を含む点である。その他の点において、談話機能推定装置130は談話機能推定装置100と同一である。ただし、この実施の形態では、音声のF0を用いる区間の長さは、150ミリ秒〜200ミリ秒であって、事前の実験により適切な値を選択するものとする。
[Third Embodiment]
<Constitution>
FIG. 4 shows a schematic configuration of the discourse function estimation apparatus 130 according to the third embodiment. Referring to FIG. 4, the discourse function estimation device 130 is different from the discourse function estimation device 100 shown in FIG. 3 in that it includes a bottleneck neural network 140 instead of the vector dimension reduction processing unit 112 shown in FIG. In addition, in place of the classifier 114 using the SVM of FIG. 2, a classifier 142 that combines a deep neural network (DNN) and a drown Markov model (HMM) is included. In other respects, the discourse function estimation device 130 is the same as the discourse function estimation device 100. However, in this embodiment, the length of the section using the voice F0 is 150 milliseconds to 200 milliseconds, and an appropriate value is selected by a prior experiment.

この実施の形態に係る分類器142は、sil(silence)、listening、k、g、i及びqの談話機能を判別する機能を持つ。   The classifier 142 according to this embodiment has a function of discriminating discourse functions of sil (silence), listening, k, g, i, and q.

ボトルネックニューラルネットワーク140は、図2に示すベクトル次元削減処理部112と同様、ベクトルの次元を削減するためのものである。ボトルネックニューラルネットワーク140は、例えば図5に示すような構成を持つ。この例はあくまで例示である。   Similar to the vector dimension reduction processing unit 112 shown in FIG. 2, the bottleneck neural network 140 is for reducing vector dimensions. The bottleneck neural network 140 has a configuration as shown in FIG. 5, for example. This example is merely illustrative.

図5を参照して、ボトルネックニューラルネットワーク140は、入力ベクトル150を受ける入力層152、入力層152と同じ数のノードを持つ出力層160、及び、入力層152と出力層160との間に設けられた複数の隱れ層154、156及び158を含む。隠れ層154、156及び158のうち、隱れ層156のノード数は他の層と比較して少なくなっている。したがってこの隱れ層156はボトルネック層と呼ばれる。ボトルネックニューラルネットワーク140の学習は、入力層152に入力ベクトル150が与えられたときに、出力層160から出力される出力ベクトル162が入力ベクトル150と等しくなるように、多数の学習データを用いて行われる。学習した後のボトルネックニューラルネットワーク140によれば、入力層152に与えられたベクトルの要素数を一旦ボトルネック層156のノード数まで削減した後、再び入力ベクトルと同じベクトルを再現出来る。つまり、ボトルネック層156の出力は、少ない数で入力ベクトル150の内容を再現するに十分な情報を持っていると考えられる。そこで、ボトルネック層156の出力をボトルネック特徴量164として取り出すことにより、入力ベクトルの次元を削減できる。   Referring to FIG. 5, the bottleneck neural network 140 includes an input layer 152 that receives an input vector 150, an output layer 160 that has the same number of nodes as the input layer 152, and between the input layer 152 and the output layer 160. It includes a plurality of blister layers 154, 156 and 158 provided. Among the hidden layers 154, 156, and 158, the number of nodes of the drown layer 156 is smaller than that of the other layers. Therefore, the drown layer 156 is called a bottleneck layer. The learning of the bottleneck neural network 140 is performed by using a lot of learning data so that the output vector 162 output from the output layer 160 becomes equal to the input vector 150 when the input vector 150 is given to the input layer 152. Done. According to the bottleneck neural network 140 after learning, after the number of elements of the vector given to the input layer 152 is once reduced to the number of nodes in the bottleneck layer 156, the same vector as the input vector can be reproduced again. That is, the output of the bottleneck layer 156 is considered to have sufficient information to reproduce the contents of the input vector 150 with a small number. Therefore, by extracting the output of the bottleneck layer 156 as the bottleneck feature quantity 164, the dimension of the input vector can be reduced.

図6に、図4の分類器142のうち、隱れマルコフモデルの状態遷移確率を定めるためのDNN180の構成の概略を示す。図6を参照して、DNN180は、素性ベクトル182を受けるように接続された複数のノードを持つ入力層190と、silence、listening、k、g、i、及びqに対応して設けられ、素性ベクトル182が与えられたときに、その直後に隱れマルコフモデルが遷移する状態がこれらである確率を出力する6つのノードを持つ出力層194と、入力層190と出力層194との間に設けられた複数の隠れ層192とを含む。   FIG. 6 shows an outline of the configuration of the DNN 180 for determining the state transition probability of the drown Markov model in the classifier 142 of FIG. Referring to FIG. 6, DNN 180 is provided corresponding to silence, listening, k, g, i, and q, and input layer 190 having a plurality of nodes connected to receive feature vector 182. Provided between the input layer 190 and the output layer 194, and an output layer 194 having six nodes for outputting the probability that the state in which the Markov model is drowned immediately after the vector 182 is given is the transition state. A plurality of hidden layers 192 formed.

図7の上段に、隠れマルコフモデルによる状態遷移とそのときの出力(素性)との関係を例示する。この例は、silenceから状態s1及びs2を経てsilenceに状態が遷移することを示す。状態がsilenceのときには、出力からは素性silが得られる。同様に状態がs1のときには素性f1が得られ、状態がs2のときには素性f2が得られる。この素性f1及びf2は、それぞれ状態s1及びs2についてあらかじめ学習により得られた確率密度関数にしたがって出力されるベクトルである。   The upper part of FIG. 7 illustrates the relationship between the state transition by the hidden Markov model and the output (feature) at that time. This example shows a state transition from silence to silence via states s1 and s2. When the state is silence, the feature sil is obtained from the output. Similarly, the feature f1 is obtained when the state is s1, and the feature f2 is obtained when the state is s2. The features f1 and f2 are vectors that are output according to the probability density function obtained by learning in advance for the states s1 and s2, respectively.

このDNN180の入力層190に素性ベクトル182が与えられると、DNN180は、隱れマルコフモデルが次にどの様な確率でどの状態に遷移するか示す確率ベクトルを出力する。   When the feature vector 182 is given to the input layer 190 of the DNN 180, the DNN 180 outputs a probability vector indicating what state the drowning Markov model will next transition to.

図7の下段に示すように、分類器142は、状態210から状態212の間で遷移する確率が最も高い(最尤の)最尤系列218を尤度計算により選択する。図7に示す例では、状態210、214、216及び212の経路が他の経路よりも確率が高く、したがって最尤の経路として選択されている。この場合、状態212が句末を示すとすれば、状態216に対応する談話機能が句末の談話機能であると推定される。   As shown in the lower part of FIG. 7, the classifier 142 selects the maximum likelihood sequence 218 having the highest probability of transition from the state 210 to the state 212 (maximum likelihood) by likelihood calculation. In the example shown in FIG. 7, the routes in the states 210, 214, 216, and 212 have a higher probability than the other routes, and are therefore selected as the most likely routes. In this case, if state 212 indicates the end of a phrase, it is estimated that the discourse function corresponding to state 216 is the discourse function at the end of the phrase.

〈動作〉
第3の実施の形態に係る談話機能推定装置130は以下のように動作する。音声認識装置70、形態素解析部72、ベクトル生成部110、ベクトル正規化部111、F0抽出部76、F0平均記憶部78、及び音声認識装置70は第2の実施の形態と同様に動作する。ボトルネックニューラルネットワーク140は、ベクトル正規化部111の出力するベクトルを受けて、ボトルネック特徴量を出力する。話者正規化部80は、直前の所定時間の音声の10ミリ秒ごとのF0を正規化したもののうち、最新の所定個数を要素として持つベクトルを分類器142に与える。
<Operation>
The discourse function estimation apparatus 130 according to the third embodiment operates as follows. The speech recognition device 70, the morphological analysis unit 72, the vector generation unit 110, the vector normalization unit 111, the F0 extraction unit 76, the F0 average storage unit 78, and the speech recognition device 70 operate in the same manner as in the second embodiment. The bottleneck neural network 140 receives a vector output from the vector normalization unit 111 and outputs a bottleneck feature amount. The speaker normalizing unit 80 gives the vector having the latest predetermined number as an element to the classifier 142 out of the normalized F0 for every 10 milliseconds of the voice of the immediately preceding predetermined time.

分類器142は、ボトルネックニューラルネットワーク140からのベクトルと話者正規化部80からのベクトルとを連結した素性ベクトルを受け取り、句境界の直前の談話機能の状態のシーケンスを推定し、最後の談話機能132を出力する。   The classifier 142 receives a feature vector obtained by connecting the vector from the bottleneck neural network 140 and the vector from the speaker normalization unit 80, estimates the sequence of the state of the discourse function immediately before the phrase boundary, and determines the last discourse. The function 132 is output.

[第4の実施の形態]
〈構成〉
図8に、本発明の第4の実施の形態に係る談話機能推定装置250の概略構成を示す。図8を参照して、談話機能推定装置250が第3の実施の形態に係る談話機能推定装置130と異なるのは、音声認識装置70に代えて、音声認識を行ってテキストデータを出力するのに加えて、発話の句末を検出して句末区間を特定する信号を出力する機能を持つ音声認識装置260を含む点、話者正規化部80に代えて、F0抽出部76の出力するF0を、10ミリ秒ごとに、F0平均記憶部78に記憶されたF0平均値を減算して正規化して複数記憶し、音声認識装置260が出力する信号に応答して、その信号により表される期間に相当するF0の系列をベクトルとして出力する話者正規化部262と、話者正規化部262の出力するF0を用いて、句末の韻律を表す固定長のベクトルを出力する句末区間正規化部264を含む点、及び第3の実施の形態の分類器142に代えて、ボトルネックニューラルネットワーク140の出力するボトルネック特徴量からなるベクトルと、句末区間正規化部264が出力する、句末区間の韻律を示す固定長のベクトルとを連結したベクトルを素性ベクトルとして受け、素性ベクトルに対応する談話機能252を推定し出力する分類器266を含む点である。
[Fourth Embodiment]
<Constitution>
FIG. 8 shows a schematic configuration of a discourse function estimation apparatus 250 according to the fourth embodiment of the present invention. Referring to FIG. 8, discourse function estimation apparatus 250 is different from discourse function estimation apparatus 130 according to the third embodiment in that instead of speech recognition apparatus 70, speech recognition is performed and text data is output. In addition to the above, a speech recognition device 260 having a function of detecting a phrase end of an utterance and outputting a signal specifying a phrase end section is included, and instead of the speaker normalizing unit 80, an output of the F0 extracting unit 76 is provided. The F0 is normalized every 10 milliseconds by subtracting the F0 average value stored in the F0 average storage unit 78, normalized, and stored in response to the signal output from the speech recognition device 260. A speaker normalization unit 262 that outputs a sequence of F0 corresponding to a period of time as a vector, and F0 output from the speaker normalization unit 262, and a phrase end that outputs a fixed-length vector representing the prosody of the phrase end A point including an interval normalization unit 264, Instead of the classifier 142 according to the third embodiment, the vector composed of the bottleneck features output from the bottleneck neural network 140 and the prosody of the phrase end interval output from the phrase end interval normalization unit 264 are shown. This is a point including a classifier 266 that receives a vector obtained by concatenating a fixed-length vector as a feature vector, and estimates and outputs a discourse function 252 corresponding to the feature vector.

話者正規化部262の出力するベクトルの要素数は、句末区間の長さが変動するのに伴って変動する。句末区間正規化部264は、この可変長のベクトルを固定長に正規化する。例えば句末区間正規化部264は、入力される可変長ベクトルにより表される音声の調子を、第1のカテゴリ(上昇調、下降調、平坦調、下降・上昇調等)と、第2のカテゴリ(短い、長い、とても長い)によりそれぞれ分類し、それらのカテゴリを表す情報の組み合わせを表す固定長のベクトルを出力する。または、句末区間正規化部264は、可変数のF0を一定数にダウンサンプリングすることで固定長のベクトルを出力するようにしてもよい。   The number of elements of the vector output from the speaker normalization unit 262 varies as the length of the phrase end section varies. The phrase end interval normalization unit 264 normalizes this variable length vector to a fixed length. For example, the phrase end interval normalization unit 264 sets the tone of the speech represented by the input variable length vector to the first category (up tone, down tone, flat tone, down / up tone, etc.) and the second category. Each is classified according to category (short, long, very long), and a fixed-length vector representing a combination of information representing these categories is output. Alternatively, the phrase end interval normalization unit 264 may output a fixed-length vector by down-sampling a variable number of F0s to a fixed number.

句末区間正規化部264の出力するベクトルの次元が第3の実施の形態の場合と同じであれば、分類器266は分類器142と同じ構成でもよい。ただし、学習データを変更すべきことはいうまでもない。   The classifier 266 may have the same configuration as the classifier 142 if the dimension of the vector output by the phrase end interval normalization unit 264 is the same as that in the third embodiment. However, it goes without saying that the learning data should be changed.

〈動作〉
談話機能推定装置250の音声認識装置260は、音声42を音声認識してテキストデータを出力するとともに、句末を検出して句末の区間を特定する信号を話者正規化部262に与える。形態素解析部72、ベクトル生成部110、ベクトル正規化部111及びボトルネックニューラルネットワーク140は第3の実施の形態と同様に動作し、言語情報に基づいて得られた素性のベクトルを分類器266に与える。F0抽出部76は、音声42のF0を10ミリ秒ごとに算出して話者正規化部262に与える。話者正規化部262はこの値からF0平均記憶部78に記憶されていたF0の平均値を減算することにより正規化し、時系列として記憶する。音声認識装置260から句末の期間を特定する信号が与えられると、話者正規化部262は、その期間の正規化後のF0系列を句末区間正規化部264に与える。句末区間正規化部264は、このF0系列を上記した2種類のカテゴリにしたがって分類し、分類されたカテゴリを示すデータをベクトル形式で分類器266に与える。分類器266は、ボトルネックニューラルネットワーク140
からの言語情報に基づく素性のベクトルと、句末区間正規化部264からの、韻律情報に基づく素性のベクトルとを連結したものを素性ベクトルとして受け、学習パラメータにしたがって句末の談話機能を推定し談話機能252を出力する。
<Operation>
The speech recognition device 260 of the discourse function estimation device 250 recognizes the speech 42 and outputs text data, and provides a signal to the speaker normalization unit 262 to detect the end of the phrase and identify the end of the phrase. The morphological analysis unit 72, the vector generation unit 110, the vector normalization unit 111, and the bottleneck neural network 140 operate in the same manner as in the third embodiment, and the feature vector obtained based on the language information is input to the classifier 266. give. The F0 extraction unit 76 calculates F0 of the voice 42 every 10 milliseconds and gives it to the speaker normalization unit 262. The speaker normalizing unit 262 normalizes the value by subtracting the average value of F0 stored in the F0 average storage unit 78 from this value, and stores it as a time series. When a signal specifying the phrase end period is given from the speech recognizer 260, the speaker normalizing unit 262 gives the normalized F0 sequence for the period to the phrase end period normalizing unit 264. The phrase end interval normalization unit 264 classifies the F0 series according to the above-described two types of categories, and provides the classifier 266 with data indicating the classified categories in a vector format. The classifier 266 includes the bottleneck neural network 140.
The feature vector based on the linguistic information from and the feature vector based on the prosodic information from the phrase end interval normalization unit 264 are received as a feature vector, and the discourse function at the end of the phrase is estimated according to the learning parameters The discourse function 252 is output.

[実験結果]
上記した第2の実施の形態の談話機能推定装置100の構成を用いて以下の様な実験を行った。韻律情報(F0)を用いず、言語情報のみによる談話機能を推定する予備実験を行ったところ、ベクトル次元削減処理部112にLDAを用いた場合には、BOW、POSのユニグラム、バイグラム及びトライグラムのいずれを用いた場合よりも高い精度が得られた。そこで、言語情報のみを用いてベクトル次元削減処理部112としてLDAを用いた結果と、言語情報に加えて韻律情報を加えてベクトル次元削減処理部112にLDAを用いた場合の精度を比較した。結果を図9に示す。
[Experimental result]
The following experiment was performed using the configuration of the discourse function estimation apparatus 100 of the second embodiment described above. A preliminary experiment was performed to estimate the discourse function based only on linguistic information without using prosodic information (F0). When LDA was used for the vector dimension reduction processing unit 112, BOW, POS unigrams, bigrams and trigrams were used. Higher accuracy was obtained than when either of these was used. Therefore, the accuracy of using LDA as the vector dimension reduction processing unit 112 using only language information was compared with the accuracy when LDA was used for the vector dimension reduction processing unit 112 by adding prosodic information in addition to language information. The results are shown in FIG.

図9を参照して、横軸はLDAのトピック数、縦軸は予測精度である。グラフ300は言語情報のみを用いた場合の予測精度を示し、グラフ302は言語情報に加えて韻律情報を加えた場合の予測精度を示す。このグラフから明らかなように、韻律情報を加えることにより、予測精度は大幅に高くなった。また、トピック数100の場合とそれ以外の場合とで精度に明らかな相違があることから、トピック数を100まで減少させると、情報の一部が失われる結果、精度が低くなることが分かる。   Referring to FIG. 9, the horizontal axis represents the number of LDA topics, and the vertical axis represents the prediction accuracy. A graph 300 shows prediction accuracy when only language information is used, and a graph 302 shows prediction accuracy when prosodic information is added in addition to language information. As is clear from this graph, the accuracy of prediction was significantly increased by adding prosodic information. Further, since there is a clear difference in accuracy between the case of 100 topics and the other cases, it can be seen that when the number of topics is reduced to 100, a part of information is lost, resulting in a decrease in accuracy.

図10に、ベクトル次元削減処理部112としてLDAを用い、さらに図3の分類器114としてSVMに代えてDNNを用いた実験結果を示す。実験では、DNNの各隠れ層のノード数を512から2048まで512ずつ変化させ、その予測精度の変化を調べた。このグラフから分かるように、DNNを用いた場合には隠れ層のノード数を増加させると精度も向上する。また、隠れ層のノード数が512のときを除き、分類器114にSVMを用いた場合よりも高い精度が得られることが分かる。   FIG. 10 shows an experimental result using LDA as the vector dimension reduction processing unit 112 and using DNN as the classifier 114 in FIG. 3 instead of SVM. In the experiment, the number of nodes in each hidden layer of the DNN was changed 512 by 512 from 512 to 2048, and the change in the prediction accuracy was examined. As can be seen from this graph, when DNN is used, the accuracy is improved by increasing the number of nodes in the hidden layer. Further, it can be seen that higher accuracy is obtained than when the SVM is used for the classifier 114 except when the number of nodes in the hidden layer is 512.

[実施の形態の効果]
以上のように本発明の実施の形態によると、言語情報だけではなく、句末の韻律情報を考慮して句末の談話機能を推定する。したがって、言語情報のみを用いる場合と比較してより高い精度で談話機能を推定できる。さらに、分類器としてSVM、DNN、または隱れマルコフモデルとDNNの組み合わせを用いることにより、学習結果を反映した安定した高精度で句末の談話機能を推定できる。したがって、この談話機能を用いてヒューマン・マシンインターフェイスを構築することにより、より自然なインタラクションを実現できる。
[Effect of the embodiment]
As described above, according to the embodiment of the present invention, the discourse function at the end of a phrase is estimated in consideration of not only language information but also prosodic information at the end of the phrase. Therefore, it is possible to estimate the discourse function with higher accuracy than in the case of using only language information. Further, by using SVM, DNN, or a combination of a Markov model and DNN as a classifier, it is possible to estimate the discourse function at the end of a phrase with stable and high accuracy reflecting the learning result. Therefore, more natural interaction can be realized by constructing a human-machine interface using this discourse function.

[コンピュータによる実現]
本発明の各実施の形態に係る談話機能推定装置は、コンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。図11はこのコンピュータシステム530の外観を示し、図12はコンピュータシステム530の内部構成を示す。
[Realization by computer]
The discourse function estimation apparatus according to each embodiment of the present invention can be realized by computer hardware and a computer program executed on the computer hardware. FIG. 11 shows the external appearance of the computer system 530, and FIG. 12 shows the internal configuration of the computer system 530.

図11を参照して、このコンピュータシステム530は、メモリポート552及びDVD(Digital Versatile Disc)ドライブ550を有するコンピュータ540と、キーボード546と、マウス548と、モニタ542とを含む。   Referring to FIG. 11, the computer system 530 includes a computer 540 having a memory port 552 and a DVD (Digital Versatile Disc) drive 550, a keyboard 546, a mouse 548, and a monitor 542.

図12を参照して、コンピュータ540は、メモリポート552及びDVDドライブ550に加えて、CPU(中央処理装置)556と、CPU556、メモリポート552及びDVDドライブ550に接続されたバス566と、ブートプログラム等を記憶する読出専用メモリ(ROM)558と、バス566に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するランダムアクセスメモリ(RAM)560と、ハードディスク554を含む。コンピュータシステム530はさらに、バス566に接続され、音声信号をデジタル化してコンピュータにおいて処理可能な形式に変換するためのサウンドボード568と、他端末との通信を可能とするネットワーク568への接続を提供するネットワークインターフェイスカード(NIC)574を含む。サウンドボード568にはマイクロフォン570が接続される。   12, in addition to the memory port 552 and the DVD drive 550, the computer 540 includes a CPU (Central Processing Unit) 556, a bus 566 connected to the CPU 556, the memory port 552, and the DVD drive 550, and a boot program. And the like, a read only memory (ROM) 558 for storing etc., a random access memory (RAM) 560 connected to the bus 566 for storing program instructions, system programs, work data and the like, and a hard disk 554. The computer system 530 is further connected to the bus 566 and provides a connection to a sound board 568 for digitizing and converting the audio signal into a form that can be processed by the computer, and a network 568 that allows communication with other terminals. Network interface card (NIC) 574. A microphone 570 is connected to the sound board 568.

コンピュータシステム530を上記した各実施の形態に係る談話機能推定装置の各機能部として機能させるためのコンピュータプログラムは、DVDドライブ550又はメモリポート552に装着されるDVD562又はリムーバブルメモリ564に記憶され、さらにハードディスク554に転送される。又は、プログラムはネットワーク568を通じてコンピュータ540に送信されハードディスク554に記憶されてもよい。プログラムは実行の際にRAM560にロードされる。DVD562から、リムーバブルメモリ564から又はネットワーク568を介して、直接にRAM560にプログラムをロードしてもよい。   A computer program for causing the computer system 530 to function as each function unit of the discourse function estimation apparatus according to each of the above-described embodiments is stored in the DVD 562 or the removable memory 564 installed in the DVD drive 550 or the memory port 552, and Transferred to the hard disk 554. Alternatively, the program may be transmitted to the computer 540 through the network 568 and stored in the hard disk 554. The program is loaded into the RAM 560 when executed. The program may be loaded directly into the RAM 560 from the DVD 562, from the removable memory 564, or via the network 568.

このプログラムは、コンピュータ540を、上記各実施の形態に係る談話機能推定装置44、100、130、及び250の各機能部として機能させるための複数の命令からなる命令列を含む。コンピュータ540にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ540上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ540にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態のシステム、装置及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、プログラムのみで必要な機能を全て提供してもよい。   This program includes an instruction sequence including a plurality of instructions for causing the computer 540 to function as each functional unit of the discourse function estimation apparatuses 44, 100, 130, and 250 according to the above embodiments. Some of the basic functions necessary to cause the computer 540 to perform this operation are an operating system or third party program running on the computer 540 or various dynamically linkable programming toolkits or programs installed on the computer 540. Provided by the library. Therefore, this program itself does not necessarily include all the functions necessary for realizing the system, apparatus, and method of this embodiment. The program is a system as described above by dynamically calling an appropriate program in an appropriate function or programming toolkit or program library in a controlled manner to obtain a desired result among instructions, It is only necessary to include an instruction for realizing a function as an apparatus or a method. Of course, all necessary functions may be provided only by the program.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are included. Including.

40 操作者
42 音声
44、100、130、250 談話機能推定装置
46 頭部動作
48 ロボット
50、102、132、252 談話機能
70、260 音声認識装置
72 形態素解析部
74 時系列品詞情報記憶部
76 F0抽出部
78 F0平均記憶部
80、262 話者正規化部
82、114、142、266 分類器
84 句境界情報
110 ベクトル生成部
111 ベクトル正規化部
112 ベクトル次元削減処理部
140 ボトルネックニューラルネットワーク
150 入力ベクトル
152 入力層
154、158、192 隠れ層
156 ボトルネック層
160、194 出力層
162 出力ベクトル
164 ボトルネック特徴量
180 DNN
182 素性ベクトル
190 入力層
210、212、214、216 談話機能の状態
218 最尤系列
264 句末区間正規化部
40 operator 42 speech 44, 100, 130, 250 discourse function estimation device 46 head movement 48 robot 50, 102, 132, 252 discourse function 70, 260 speech recognition device 72 morpheme analysis unit 74 time-series part-of-speech information storage unit 76 F0 Extraction unit 78 F0 average storage unit 80, 262 Speaker normalization unit 82, 114, 142, 266 Classifier 84 Phrase boundary information 110 Vector generation unit 111 Vector normalization unit 112 Vector dimension reduction processing unit 140 Bottleneck neural network 150 Input Vector 152 Input layer 154, 158, 192 Hidden layer 156 Bottleneck layer 160, 194 Output layer 162 Output vector 164 Bottleneck feature 180 DNN
182 feature vector 190 input layer 210, 212, 214, 216 state of discourse function 218 maximum likelihood sequence 264 phrase end interval normalization unit

Claims (13)

発話のテキストデータを受け、当該テキストデータを形態素解析して前記発話における談話機能推定のための第1の素性ベクトルを生成する第1のベクトル生成手段と、
前記発話に対応する音声信号において、発話中に検出された句末の直前の所定区間の前記音声信号中から基本周波数成分を抽出し、基本周波数成分の変化を表す第2のベクトルを生成する第2のベクトル生成手段と、
前記第1のベクトル及び前記第2のベクトルからなる素性ベクトルを入力として受け、前記句末における前記発話の談話機能を、予め定める複数通りの談話機能のいずれかに分類するよう、予め機械学習により学習済の分類手段とを含む、談話機能推定装置。
First vector generating means for receiving text data of utterance, and generating morphological analysis of the text data to generate a first feature vector for estimating a discourse function in the utterance;
In the speech signal corresponding to the speech, a fundamental frequency component is extracted from the speech signal in a predetermined section immediately before the end of a phrase detected during speech, and a second vector representing a change in the fundamental frequency component is generated. Two vector generation means;
The machine receives a feature vector composed of the first vector and the second vector as an input, and classifies the discourse function of the utterance at the end of the phrase into one of a plurality of predetermined discourse functions. A discourse function estimation device including a learned classification means.
前記第2のベクトル生成手段は、
発話中に検出された句末の直前の前記所定区間を複数個の分割区間に分割する分割手段と、
前記分割手段により分割された各分割区間の基本周波数を要素として前記第2のベクトルを生成するための手段を含む、請求項1に記載の談話機能推定装置。
The second vector generation means includes
Dividing means for dividing the predetermined section immediately before the end of the phrase detected during utterance into a plurality of divided sections;
The discourse function estimation apparatus according to claim 1, further comprising means for generating the second vector using the fundamental frequency of each divided section divided by the dividing means as an element.
前記第1のベクトル生成手段は、
発話のテキストデータを受け、当該テキストデータを形態素解析し、形態素列を出力するための形態素解析手段と、
前記形態素解析手段により出力された前記形態素列を時系列的に記憶するための形態素列記憶手段と、
少なくとも、前記形態素列記憶手段に記憶された最新の所定個数の形態素の各々から得られる品詞情報を要素として、前記第1のベクトルを生成し前記分類器に出力するための手段とを含む、請求項1又は請求項2に記載の談話機能推定装置。
The first vector generation means includes:
Morphological analysis means for receiving text data of speech, performing morphological analysis on the text data, and outputting a morpheme string;
A morpheme sequence storage unit for storing the morpheme sequence output by the morpheme analysis unit in time series;
Means for generating and outputting the first vector to the classifier using at least part-of-speech information obtained from each of the latest predetermined number of morphemes stored in the morpheme string storage means as an element. The discourse function estimation apparatus according to claim 1 or 2.
前記第1のベクトル生成手段は、
発話のテキストデータを受け、当該テキストデータを形態素解析し、形態素列を出力するための形態素解析手段と、
前記形態素列に出現する単語の集合(BOW)を表すBOWベクトルを生成するBOWベクトル生成手段と、
前記BOWベクトル生成手段の要素を、所定のデータセット中における各単語の出現頻度と、前記発話中における各単語の出現頻度とにより正規化し、正規化後BOWベクトルを出力するためのBOWベクトル正規化手段と、
前記BOWベクトル正規化手段の出力する前記正規化後BOWベクトルの次元を削減して前記第1のベクトルとして出力するための次元削減手段とを含む、請求項1又は請求項2に記載の談話機能推定装置。
The first vector generation means includes:
Morphological analysis means for receiving text data of speech, performing morphological analysis on the text data, and outputting a morpheme string;
BOW vector generation means for generating a BOW vector representing a set of words (BOW) appearing in the morpheme sequence;
BOW vector normalization for normalizing the elements of the BOW vector generation means by the appearance frequency of each word in a predetermined data set and the appearance frequency of each word in the utterance, and outputting a normalized BOW vector Means,
The discourse function according to claim 1, further comprising dimension reduction means for reducing a dimension of the normalized BOW vector output from the BOW vector normalizing means and outputting the reduced vector as the first vector. Estimating device.
前記次元削減手段は、前記BOWベクトル正規化手段の出力する前記正規化後BOWベクトルの次元を、潜在的ディリクレ配分法(LDA)により削減して前記第1のベクトルを生成するための手段を含む、請求項4に記載の談話機能推定装置。 The dimension reduction means includes means for reducing the dimension of the normalized BOW vector output from the BOW vector normalization means by a latent Dirichlet allocation method (LDA) to generate the first vector. The discourse function estimation apparatus according to claim 4. 前記次元削減手段は、
前記BOWベクトル正規化手段の出力する前記正規化後BOWベクトルを受けるように接続された、入力と出力とが等しくなるように予め学習済のボトルネックニューラルネットワークと、
前記正規化後BOWベクトルが与えられたことに応答して前記ボトルネックニューラルネットワークのボトルネック層の各ノードから出力される値を要素として前記第1のベクトルを生成するための手段とを含む、請求項4に記載の談話機能推定装置。
The dimension reduction means includes
A bottleneck neural network trained in advance so that the input and the output are equal, connected to receive the normalized BOW vector output from the BOW vector normalizing means;
Means for generating the first vector using as an element the value output from each node of the bottleneck layer of the bottleneck neural network in response to the provision of the normalized BOW vector. The discourse function estimation apparatus according to claim 4.
前記分類手段は、前記素性ベクトルを入力として受け、前記句末における前記発話の談話機能を、予め定める複数通りの談話機能のいずれかに分類するよう学習済のサポートベクトルマシンを含む、請求項1〜請求項6の何れかに記載の談話機能推定装置。 The classification means includes a support vector machine that has received the feature vector as an input and has been learned to classify the discourse function of the utterance at the end of the phrase into one of a plurality of predetermined discourse functions. The discourse function estimation apparatus according to claim 6. 前記分類手段は、
発話の談話機能に対応する隠れ状態の遷移経路と、各隠れ状態における前記特徴ベクトルの各要素の出力確率とを表現する隠れマルコフモデルと、
前記素性ベクトルを入力として受け、当該素性ベクトルを出力した隠れ状態の後に、前記隠れ状態の各々に前記隠れマルコフモデルの状態が遷移する確率を出力するように予め機械学習により学習済のディープニューラルネットワークと、
前記素性ベクトル、前記隠れマルコフモデル、及び前記ディープニューラルネットワークの出力に基づき、発話の隠れ状態の遷移経路として最尤の経路を推定する最尤推定手段と、
前記最尤推定手段により推定された経路に基づいて前記発話の談話機能を推定するための手段とを含む、請求項1〜請求項6のいずれかに記載の談話機能推定装置。
The classification means includes
A hidden Markov model expressing the transition path of the hidden state corresponding to the discourse function of the utterance and the output probability of each element of the feature vector in each hidden state;
Deep neural network that has been trained by machine learning in advance to output the probability that the state of the hidden Markov model transitions to each of the hidden states after the hidden state that has received the feature vector as input and output the feature vector When,
Maximum likelihood estimation means for estimating a maximum likelihood path as a transition path of a hidden state of an utterance based on the feature vector, the hidden Markov model, and the output of the deep neural network;
The discourse function estimation apparatus according to any one of claims 1 to 6, further comprising means for estimating a discourse function of the utterance based on the route estimated by the maximum likelihood estimation means.
前記第2のベクトル生成手段は、
前記発話に対応する音声信号において、発話中に検出された句末の直前の所定区間の前記音声信号中から基本周波数成分を抽出し対数基本周波数成分として記憶するための基本周波数抽出手段と、
予め抽出した、前記発話の話者の音声の基本周波数の対数の平均値を記憶する基本周波数平均記憶手段と、
前記基本周波数抽出手段により抽出された前記対数基本周波数成分から前記基本周波数平均記憶手段に記憶された前記平均値を減ずることにより前記対数基本周波数成分を正規化し、当該正規化された前記対数基本周波数成分を要素として前記第2のベクトルを生成するための手段とを含む、請求項1〜請求項8のいずれかに記載の談話機能推定装置。
The second vector generation means includes
A fundamental frequency extracting means for extracting a fundamental frequency component from the speech signal in a predetermined section immediately before the end of a phrase detected during the speech and storing it as a logarithmic fundamental frequency component in the speech signal corresponding to the utterance;
Basic frequency average storage means for storing an average value of logarithm of the fundamental frequency of the voice of the speaker of the utterance extracted in advance;
The logarithmic fundamental frequency component is normalized by subtracting the average value stored in the fundamental frequency average storage means from the logarithmic fundamental frequency component extracted by the fundamental frequency extracting means, and the normalized logarithmic fundamental frequency The discourse function estimation apparatus according to any one of claims 1 to 8, further comprising: means for generating the second vector using a component as an element.
前記発話における前記話者の音声の基本周波数の対数を所定時間ごとに算出するための基本周波数算出手段と、
前記基本周波数算出手段により所定時間ごとに算出された前記基本周波数の対数の平均値を算出し、前記基本周波数平均記憶手段に格納するための手段とをさらに含む、請求項9に記載の談話機能推定装置。
Fundamental frequency calculation means for calculating a logarithm of the fundamental frequency of the voice of the speaker in the utterance every predetermined time;
The discourse function according to claim 9, further comprising means for calculating an average value of logarithm of the fundamental frequency calculated every predetermined time by the fundamental frequency calculating means and storing the average value in the fundamental frequency average storage means. Estimating device.
前記発話の句末を検出して句末信号を出力するための句末検出手段をさらに含み、
前記第1のベクトル生成手段及び前記第2のベクトル生成手段は、それぞれ、前記句末検出手段により検出された句末の直前の前記テキストデータ及び前記音声信号から前記第1のベクトル及び前記第2のベクトルを生成し出力する、請求項1に記載の談話機能推定装置。
Further comprising a phrase end detection means for detecting the phrase end of the utterance and outputting a phrase end signal;
The first vector generation unit and the second vector generation unit respectively include the first vector and the second vector from the text data and the speech signal immediately before the end of the phrase detected by the end of phrase detection unit. The discourse function estimation apparatus according to claim 1, wherein the vector is generated and output.
前記句末検出手段は、前記発話に対する音声認識を行って前記テキストデータを出力する音声認識装置と、
前記音声認識装置の出力する前記テキストデータの、前記句末直前の音素情報から、前記句末として取り扱うべき句末区間を特定する句末特定手段を含み、
前記第2のベクトル生成手段は、
前記句末区間をそれぞれ所定長さの部分区間に区切って各部分区間の基本周波数の対数を抽出するための手段と、
前記抽出するための手段により抽出された各部分区間の基本周波数の対数の間の関係に基づいて、固定長の前記第2のベクトルを生成するための手段とを含む、請求項11に記載の談話機能推定装置。
The phrase ending detection means performs speech recognition on the utterance and outputs the text data;
A phrase end specifying means for specifying a phrase end section to be treated as the phrase end from the phoneme information immediately before the end of the phrase of the text data output by the speech recognition device;
The second vector generation means includes
Means for dividing the phrase end section into partial sections each having a predetermined length and extracting the logarithm of the fundamental frequency of each partial section;
And means for generating the second vector of fixed length based on the relationship between the logarithm of the fundamental frequency of each subsection extracted by the means for extracting. Discourse function estimation device.
コンピュータを、請求項1〜請求項12のいずれかに記載の談話機能推定装置として機能させる、コンピュータプログラム。 A computer program that causes a computer to function as the discourse function estimation device according to any one of claims 1 to 12.
JP2016162927A 2016-08-23 2016-08-23 Discourse function estimating device and computer program therefor Active JP6712754B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016162927A JP6712754B2 (en) 2016-08-23 2016-08-23 Discourse function estimating device and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016162927A JP6712754B2 (en) 2016-08-23 2016-08-23 Discourse function estimating device and computer program therefor

Publications (2)

Publication Number Publication Date
JP2018031851A true JP2018031851A (en) 2018-03-01
JP6712754B2 JP6712754B2 (en) 2020-06-24

Family

ID=61303977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016162927A Active JP6712754B2 (en) 2016-08-23 2016-08-23 Discourse function estimating device and computer program therefor

Country Status (1)

Country Link
JP (1) JP6712754B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108563119A (en) * 2018-03-26 2018-09-21 哈尔滨工程大学 A kind of unmanned boat motion control method based on fuzzy support vector machine algorithm
CN109461441A (en) * 2018-09-30 2019-03-12 汕头大学 A kind of Activities for Teaching Intellisense method of adaptive, unsupervised formula
WO2020036195A1 (en) * 2018-08-15 2020-02-20 日本電信電話株式会社 End-of-speech determination device, end-of-speech determination method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126091A (en) * 1997-10-22 1999-05-11 Atr Onsei Honyaku Tsushin Kenkyusho:Kk Voice language processing unit conversion device
US6496799B1 (en) * 1999-12-22 2002-12-17 International Business Machines Corporation End-of-utterance determination for voice processing
JP2005196134A (en) * 2003-12-12 2005-07-21 Toyota Central Res & Dev Lab Inc System, method, and program for voice interaction
JP2008134475A (en) * 2006-11-28 2008-06-12 Internatl Business Mach Corp <Ibm> Technique for recognizing accent of input voice

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126091A (en) * 1997-10-22 1999-05-11 Atr Onsei Honyaku Tsushin Kenkyusho:Kk Voice language processing unit conversion device
US6496799B1 (en) * 1999-12-22 2002-12-17 International Business Machines Corporation End-of-utterance determination for voice processing
JP2005196134A (en) * 2003-12-12 2005-07-21 Toyota Central Res & Dev Lab Inc System, method, and program for voice interaction
JP2008134475A (en) * 2006-11-28 2008-06-12 Internatl Business Mach Corp <Ibm> Technique for recognizing accent of input voice

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
花沢利行他: "ピッチパタンの統計モデルに基づく句境界情報を利用した文節スポッティング", 日本音響学会誌, vol. 第55巻,第1号, JPN6020003448, January 1999 (1999-01-01), pages 23 - 31, ISSN: 0004205483 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108563119A (en) * 2018-03-26 2018-09-21 哈尔滨工程大学 A kind of unmanned boat motion control method based on fuzzy support vector machine algorithm
CN108563119B (en) * 2018-03-26 2021-06-15 哈尔滨工程大学 Unmanned ship motion control method based on fuzzy support vector machine algorithm
WO2020036195A1 (en) * 2018-08-15 2020-02-20 日本電信電話株式会社 End-of-speech determination device, end-of-speech determination method, and program
JPWO2020036195A1 (en) * 2018-08-15 2021-08-10 日本電信電話株式会社 End-of-speech determination device, end-of-speech determination method and program
CN109461441A (en) * 2018-09-30 2019-03-12 汕头大学 A kind of Activities for Teaching Intellisense method of adaptive, unsupervised formula
CN109461441B (en) * 2018-09-30 2021-05-11 汕头大学 Self-adaptive unsupervised intelligent sensing method for classroom teaching activities

Also Published As

Publication number Publication date
JP6712754B2 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
US11496582B2 (en) Generation of automated message responses
US11062694B2 (en) Text-to-speech processing with emphasized output audio
US10140973B1 (en) Text-to-speech processing using previously speech processed data
US11514886B2 (en) Emotion classification information-based text-to-speech (TTS) method and apparatus
US10074369B2 (en) Voice-based communications
US11881210B2 (en) Speech synthesis prosody using a BERT model
EP3370230B1 (en) Voice interaction apparatus, its processing method, and program
US10929754B2 (en) Unified endpointer using multitask and multidomain learning
KR20230034423A (en) 2-level speech rhyme transmission
US11270691B2 (en) Voice interaction system, its processing method, and program therefor
KR20230056741A (en) Synthetic Data Augmentation Using Voice Transformation and Speech Recognition Models
Kumar et al. Machine learning based speech emotions recognition system
JP6712754B2 (en) Discourse function estimating device and computer program therefor
WO2022271435A1 (en) Interactive content output
Këpuska Wake-up-word speech recognition
US20040006469A1 (en) Apparatus and method for updating lexicon
US20190088258A1 (en) Voice recognition device, voice recognition method, and computer program product
US11741945B1 (en) Adaptive virtual assistant attributes
Rashmi et al. Hidden Markov Model for speech recognition system—a pilot study and a naive approach for speech-to-text model
US20230186902A1 (en) Multiple wakeword detection
KR20210081166A (en) Spoken language identification apparatus and method in multilingual environment
Thakur et al. NLP & AI speech recognition: an analytical review
US11961514B1 (en) Streaming self-attention in a neural network
KR102458830B1 (en) User-oriented voice dialogue system
US20230018384A1 (en) Two-Level Text-To-Speech Systems Using Synthetic Training Data

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200512

R150 Certificate of patent or registration of utility model

Ref document number: 6712754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250