JP2010169924A - Speech classification device, speech classification method, and program - Google Patents
Speech classification device, speech classification method, and program Download PDFInfo
- Publication number
- JP2010169924A JP2010169924A JP2009012746A JP2009012746A JP2010169924A JP 2010169924 A JP2010169924 A JP 2010169924A JP 2009012746 A JP2009012746 A JP 2009012746A JP 2009012746 A JP2009012746 A JP 2009012746A JP 2010169924 A JP2010169924 A JP 2010169924A
- Authority
- JP
- Japan
- Prior art keywords
- clustering
- distance
- clusters
- segments
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
本発明は、音声分類装置及び音声分類方法、特には、会議等のように話者の発話順や発話頻度に偏りが存在する場合の音声データを対象とする、音声分類装置及び音声分類方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to a voice classification device and a voice classification method, and more particularly to a voice classification device and a voice classification method for voice data when there is a bias in the utterance order or utterance frequency of speakers as in a conference or the like. Further, the present invention relates to a program for realizing these.
従来から、会議音声データ等を対象として、無音区間等を元に発話を分割し、類似する発話毎にクラスにまとめて、話者毎の分類が行われている。このような音声分類技術(話者分類技術)は、会議録等の作成や、音声認識において有用である。 Conventionally, utterances are divided based on silence sections and the like for conference audio data and the like, and are grouped for each similar utterance and classified for each speaker. Such a voice classification technique (speaker classification technique) is useful in the creation of conference minutes and the like and voice recognition.
また、発話毎にまとめられたクラス毎にラベリングが行われ、音声データ中の同一話者による発話に対しては、同一の話者ラベルが付与されることから、音声分類技術は、話者ラベリング技術とも呼ばれている。このような従来からの音声分類技術(話者ラベリング技術)を用いたシステムの一例が、非特許文献1に記載されている。 In addition, since labeling is performed for each class grouped for each utterance, and the same speaker label is assigned to the utterances by the same speaker in the speech data, the speech classification technology uses speaker labeling. It is also called technology. An example of a system using such a conventional speech classification technique (speaker labeling technique) is described in Non-Patent Document 1.
具体的には、非特許文献1に開示されたシステムは、入力された音声データに含まれる各発話に対して、その音響的類似度に基づく距離を計算し、この距離を元にクラスタリングを行う。その際、非特許文献1に開示されたシステムは、音響的類似度を用いるだけでなく、「時間的に連続する発話セグメントは同一話者による発声である可能性が高い」というヒューリスティックを導入することで発話セグメントのクラスタリング精度を高めている。 Specifically, the system disclosed in Non-Patent Document 1 calculates a distance based on the acoustic similarity for each utterance included in input speech data, and performs clustering based on this distance. . At that time, the system disclosed in Non-Patent Document 1 not only uses acoustic similarity, but also introduces a heuristic that “a temporally continuous speech segment is likely to be uttered by the same speaker”. This improves the clustering accuracy of the utterance segment.
即ち、非特許文献1に開示されたシステムは、2つの発話セグメント間の距離を計算する際に、音響的類似度に基づき算出される距離を、対象とする発話セグメント同士が時間的に隣接しているかどうかに基づいて補正する。例えば発話セグメント同士が隣接する場合は、距離がより小さくなるように補正が行われ、クラスタリング精度が向上すると考えられる。 That is, in the system disclosed in Non-Patent Document 1, when calculating the distance between two utterance segments, the distance calculated based on the acoustic similarity is set so that the target utterance segments are adjacent in time. Correct based on whether or not. For example, when the utterance segments are adjacent to each other, correction is performed so that the distance becomes smaller, and it is considered that the clustering accuracy is improved.
しかしながら、上記非特許文献に開示されたシステムには、例えば会議等でよく見られる、一定時間一人の話者が質問者として発言し、その合間に別の一又は複数の話者が答弁者として回答するスタイルの音声データに対して、適切に動作しないという問題がある。その理由は以下の通りである。 However, in the system disclosed in the above-mentioned non-patent document, for example, one speaker who is often seen at a conference or the like speaks as a questioner, and another speaker or speakers as answerers in the meantime. There is a problem that it does not work properly for voice data in the answer style. The reason is as follows.
つまり、上記非特許文献に開示されたシステムでは、音響的類似度に基づいた距離の算出は、発話セグメント同士の時間的な隣接関係のみを考慮して行われ、発話セグメントをまとめて得られた話者クラスタ同士の関係は考慮されていない。このため、上述の同じ質問者の発話が別の異なる答弁者の発話を挟んだ状態にある音声データの場合、同じ話者に属する発話セグメントが時間的に離れているため、それらに適切な距離を与えることができなくなり、適切な話者クラスタの構成が困難となる。この結果、話者ラベリングが正しく付与されず、上記非特許文献に開示されたシステムは、適切に動作しない状態となる。 In other words, in the system disclosed in the above non-patent document, the distance calculation based on the acoustic similarity is performed considering only temporal adjacency relationships between the utterance segments, and the utterance segments are collectively obtained. The relationship between speaker clusters is not considered. For this reason, in the case of voice data in which the utterances of the same questioner are in between the utterances of different answerers, the utterance segments belonging to the same speaker are separated in time. Thus, it is difficult to construct an appropriate speaker cluster. As a result, the speaker labeling is not correctly given, and the system disclosed in the non-patent document becomes in a state of not operating properly.
本発明の目的は、上記問題を解消し、一定時間、一人の話者が主要な話者となる音声データが対象となる場合であっても、精度良く話者の分類を行い得る、音声分類装置、音声分類方法、及びこれらを実現するためのプログラムを提供することにある。 An object of the present invention is to solve the above-mentioned problem and to perform speech classification with high accuracy even when speech data whose main speaker is a single speaker is targeted for a certain period of time. An apparatus, a voice classification method, and a program for realizing the same are provided.
上記目的を達成するため、本発明における音声分類装置は、二以上の話者が発話を行っている音声データに含まれる複数の発話セグメントに対してクラスタリングを行い、クラスタリング結果に基づいて、音声分類を行う音声分類装置であって、
前記複数の発話セグメントが時間軸に沿って配置されたときに、二つの発話セグメント間に存在するクラスタの数を計測するクラスタ数計測部と、
計測された前記クラスタの数を用いて、前記二つの発話セグメント間の音響的類似度に基づく距離を算出する距離算出部と、
算出された前記距離を用いて、前記複数の発話セグメントのクラスタリングを実行するクラスタリング部とを、備えることを特徴とする。
In order to achieve the above object, the speech classification apparatus according to the present invention performs clustering on a plurality of speech segments included in speech data in which two or more speakers are speaking, and based on the clustering result, the speech classification is performed. A voice classification device for performing
A cluster number measuring unit that measures the number of clusters existing between two utterance segments when the plurality of utterance segments are arranged along a time axis;
A distance calculation unit that calculates a distance based on acoustic similarity between the two utterance segments using the measured number of clusters;
And a clustering unit that performs clustering of the plurality of utterance segments using the calculated distance.
また、上記目的を達成するため、本発明における音声分類方法は、二以上の話者が発話を行っている音声データに含まれる複数の発話セグメントに対してクラスタリングを行い、クラスタリング結果に基づいて、音声分類を行うための音声分類方法であって、
(a)前記複数の発話セグメントが時間軸に沿って配置されたときに、二つの発話セグメント間に存在するクラスタの数を計測するステップと、
(b)前記(a)のステップで計測された前記クラスタの数を用いて、前記二つの発話セグメント間の音響的類似度に基づく距離を算出するステップと、
(c)前記(b)のステップで算出された前記距離を用いて、前記複数の発話セグメントのクラスタリングを実行するステップとを、有することを特徴とする。
In order to achieve the above object, the speech classification method according to the present invention performs clustering on a plurality of speech segments included in speech data in which two or more speakers are speaking, and based on the clustering result, A speech classification method for performing speech classification,
(A) measuring the number of clusters existing between two utterance segments when the plurality of utterance segments are arranged along a time axis;
(B) calculating a distance based on an acoustic similarity between the two utterance segments using the number of clusters measured in the step (a);
(C) using the distance calculated in the step (b) to perform clustering of the plurality of utterance segments.
更に、上記目的を達成するため、本発明におけるプログラムは、コンピュータに、二以上の話者が発話を行っている音声データに含まれる複数の発話セグメントに対するクラスタリングを行わせ、クラスタリング結果に基づいた音声分類を行わせるためのプログラムであって、
前記コンピュータに、
(a)前記複数の発話セグメントが時間軸に沿って配置されたときに、二つの発話セグメント間に存在するクラスタの数を計測するステップと、
(b)前記(a)のステップで計測された前記クラスタの数を用いて、前記二つの発話セグメント間の音響的類似度に基づく距離を算出するステップと、
(c)前記(b)のステップで算出された前記距離を用いて、前記複数の発話セグメントのクラスタリングを実行するステップとを、実行させることを特徴とする。
Furthermore, in order to achieve the above object, the program according to the present invention causes a computer to perform clustering on a plurality of speech segments included in speech data in which two or more speakers are speaking, and based on the clustering result. A program for performing classification,
In the computer,
(A) measuring the number of clusters existing between two utterance segments when the plurality of utterance segments are arranged along a time axis;
(B) calculating a distance based on an acoustic similarity between the two utterance segments using the number of clusters measured in the step (a);
(C) performing clustering of the plurality of utterance segments using the distance calculated in the step (b).
以上の特徴により、本発明における音声分類装置、音声分類方法、及びプログラムによれば、一定時間、一人の話者が主要な話者となる音声データが対象となる場合であっても、精度良く話者の分類を行うことができる。 With the above features, according to the speech classification apparatus, speech classification method, and program of the present invention, even when speech data whose main speaker is a single speaker is targeted for a certain period of time, the accuracy is high. Speaker classification can be performed.
(実施の形態)
以下、本発明の実施の形態における音声分類装置、音声分類方法及びプログラムについて、図1〜図4を参照しながら説明する。最初に、本実施の形態における音声分類装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態における音声分類装置の概略構成を示すブロック図である。
(Embodiment)
Hereinafter, a voice classification device, a voice classification method, and a program according to an embodiment of the present invention will be described with reference to FIGS. First, a schematic configuration of the speech classification apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of a speech classification apparatus according to an embodiment of the present invention.
図1に示す本実施の形態における音声分類装置10は、二以上の話者が発話を行っている音声データ(図2参照)を対象とし、それに含まれる複数の発話セグメントに対してクラスタリングを行い、クラスタリング結果に基づいて、音声分類を行う装置である。 The speech classification apparatus 10 according to the present embodiment shown in FIG. 1 targets speech data (see FIG. 2) in which two or more speakers are speaking, and performs clustering on a plurality of speech segments included in the speech data. This is a device for performing speech classification based on the clustering result.
図1に示すように、音声分類装置10は、クラスタ数計測部2と、距離算出部3と、クラスタリング部4とを備えている。クラスタ数計測部2は、複数の発話セグメントが時間軸に沿って配置されたときに、二つの発話セグメント間に存在するクラスタの数を計測する。距離算出部3は、計測されたクラスタの数を用いて、二つの発話セグメント間の音響的類似度に基づく距離を算出する。クラスタリング部4は、算出された距離を用いて、複数の発話セグメントのクラスタリングを実行する(図3参照)。 As shown in FIG. 1, the speech classification device 10 includes a cluster number measurement unit 2, a distance calculation unit 3, and a clustering unit 4. The cluster number measuring unit 2 measures the number of clusters existing between two utterance segments when a plurality of utterance segments are arranged along the time axis. The distance calculation unit 3 calculates the distance based on the acoustic similarity between the two utterance segments using the measured number of clusters. The clustering unit 4 performs clustering of a plurality of utterance segments using the calculated distance (see FIG. 3).
このように、音声分類装置10では、上記非特許文献に開示されたシステムと異なり、音響的類似度に基づく距離の算出に際して、発話セグメントをまとめて得られるクラスタ同士の関係が考慮される。よって、同じ話者に属する発話セグメントが時間的に離れていても、それらに適切な距離を与えることができる。 Thus, unlike the system disclosed in the above non-patent document, the speech classification device 10 takes into account the relationship between clusters obtained by collecting utterance segments when calculating the distance based on the acoustic similarity. Therefore, even if speech segments belonging to the same speaker are separated in time, an appropriate distance can be given to them.
これにより、音声分類装置10は、一定時間、一人の話者が主要な話者となる音声データが対象となる場合において、主要な話者のクラスタは、他の話者のクラスタと交互に出現することが多いという性質を加味して、音声分類を実施できる。この結果、音声分類装置10によれば、一定時間、一人の話者がアンカーパーソンとなる音声データが対象となる場合であっても、精度良く話者の分類を行うことができる。 As a result, the speech classifier 10 causes the cluster of the main speaker to appear alternately with the clusters of the other speakers when speech data in which one speaker is the main speaker is targeted for a certain period of time. The voice classification can be carried out in consideration of the property that it is often performed. As a result, according to the speech classification device 10, it is possible to classify speakers with high accuracy even when speech data in which a single speaker is an anchor person is targeted for a certain period of time.
ここで、本実施の形態における音声分類装置10の構成及び動作について、図2及び図3を用いて、更に具体的に説明する。図2は、本発明の実施の形態において分類対象となる音声データの一例を示す図である。図3は、図1に示す音声分類装置によるクラスタリングによって得られた木構造の一例を示す図である。 Here, the configuration and operation of the speech classification apparatus 10 according to the present embodiment will be described more specifically with reference to FIGS. FIG. 2 is a diagram showing an example of audio data to be classified in the embodiment of the present invention. FIG. 3 is a diagram illustrating an example of a tree structure obtained by clustering by the speech classification apparatus illustrated in FIG.
図2に示す音声データは、話者Aによる質問が行われ、それに対して話者B又はCによる答弁が行われた会議を録音して得られている。また、図2に示す音声データには、複数の発話セグメントS1〜S11が含まれている。このうち、発話セグメントS1、S2、S3、S6、S7、S10、及びS11は、話者Aの発話セグメントである。また、発話セグメントS4及びS5は話者Bの発話セグメントであり、発話セグメントS8及びS9は話者Cの発話セグメントである。 The voice data shown in FIG. 2 is obtained by recording a conference in which a question is made by the speaker A and an answer is given by the speaker B or C. The voice data shown in FIG. 2 includes a plurality of utterance segments S1 to S11. Among these, the utterance segments S1, S2, S3, S6, S7, S10, and S11 are the utterance segments of the speaker A. The utterance segments S4 and S5 are the utterance segments of the speaker B, and the utterance segments S8 and S9 are the utterance segments of the speaker C.
図1に示すように、本実施の形態では、音声分類装置10は、更に、外部からの音声データの入力を受け付ける入力受付部1と、クラスタリング部4によるクラスタリングの結果を用いて、話者の分類(音声分類)を行う話者分類部5とを備えている。入力受付部1は、外部からのデータの入力を受け付けるインターフェイスとしての機能の他に、音声データに含まれる話者セグメントを抽出し、抽出した話者セグメントをクラスタ数計測部2に出力する機能も備えている。具体的には、入力受付部1は、例えば、無音区間で区切ら
れた音声データを特定し、この無音区間で区切られた音声データを一つの発話セグメントとして抽出する。
As shown in FIG. 1, in the present embodiment, the speech classification device 10 further uses an input reception unit 1 that receives input of speech data from the outside and a clustering result by the clustering unit 4 to And a speaker classification unit 5 for performing classification (voice classification). The input receiving unit 1 has a function of extracting a speaker segment included in the voice data and outputting the extracted speaker segment to the cluster number measuring unit 2 in addition to a function as an interface for receiving external data input. I have. Specifically, for example, the input receiving unit 1 specifies voice data divided by a silent section, and extracts the voice data divided by the silent section as one utterance segment.
更に、本実施の形態では、クラスタ数計測部2による計測、距離算出部3による算出、及びクラスタリング部4によるクラスタリングは、複数回実行される。具体的には、クラスタ数計測部2は、クラスタリング部4によるクラスタリングの実行後、それによって形成されたクラスタを対象として、二つの発話セグメントの間に存在するクラスタの数を新たに計測する。また、距離算出部3は、新たに計測されたクラスタの数を用いて、二つの発話セグメントの間の音響的類似度に基づく距離を新たに算出する。そして、クラスタリング部は、新たに算出された距離を用いて、再度、クラスタリングを実行する。なお、図4を用いて後述するように、距離算出部3による算出は、二回目以降においては、補正のみであっても良い。 Further, in the present embodiment, the measurement by the cluster number measurement unit 2, the calculation by the distance calculation unit 3, and the clustering by the clustering unit 4 are executed a plurality of times. Specifically, after the clustering unit 4 executes clustering, the cluster number measuring unit 2 newly measures the number of clusters existing between two utterance segments for the cluster formed thereby. Further, the distance calculation unit 3 newly calculates a distance based on the acoustic similarity between the two utterance segments using the newly measured number of clusters. Then, the clustering unit performs clustering again using the newly calculated distance. As will be described later with reference to FIG. 4, the calculation by the distance calculation unit 3 may be only correction after the second time.
また、クラスタ数計測部2による計測、距離算出部3による算出、及びクラスタリング部4によるクラスタリングは、クラスタリング部4によるクラスタリングによって、図3に示す、複数のセグメントの木構造が完成するまで行われる。そして、最後のクラスタリングが終了すると、話者分類部5は、図3に示す木構造を適切な位置(例えば、図3において破線で示す位置)で切断し、そのときのクラスタの状態に基づいて、話者を分類する。なお、図3中の破線で木構造を切断した場合は、話者の分類結果は、図2に示された分類と一致することとなる。 Further, the measurement by the cluster number measuring unit 2, the calculation by the distance calculating unit 3, and the clustering by the clustering unit 4 are performed until the tree structure of a plurality of segments shown in FIG. When the final clustering is completed, the speaker classification unit 5 cuts the tree structure shown in FIG. 3 at an appropriate position (for example, the position indicated by a broken line in FIG. 3), and based on the cluster state at that time Categorize the speakers. When the tree structure is cut along the broken line in FIG. 3, the speaker classification results coincide with the classification shown in FIG.
また、クラスタ数計測部2は、クラスタ数を計測するため、二つの発話セグメントを選択する。本実施の形態では、最初、音声データに含まれる全ての発話セグメントによる全ての組み合わせが選択される。具体的には、図2及び図3の例では、発話セグメントS1〜S11から選択可能な全てのペアが選択される。 The cluster number measuring unit 2 selects two utterance segments in order to measure the number of clusters. In the present embodiment, first, all combinations of all utterance segments included in the audio data are selected. Specifically, in the example of FIGS. 2 and 3, all selectable pairs are selected from the utterance segments S1 to S11.
ここで、二つの発話セグメントの間に存在するクラスタとは、開始時刻が早い方の発話セグメントの終了時から、他方の発話セグメントの開始時までの間に存在するクラスタをいう。また、本実施の形態では、クラスタ数計測部2は、クラスタの数として、クラスタの時間フラグメントの数や、クラスタの種類の数を計測することもできる。 Here, a cluster that exists between two utterance segments refers to a cluster that exists between the end of the utterance segment with the earlier start time and the start of the other utterance segment. In the present embodiment, the cluster number measuring unit 2 can also measure the number of cluster time fragments and the number of types of clusters as the number of clusters.
クラスタリング部4によるクラスタリングが未だ一度も実行されていない場合は、クラスタが未だ形成されていない状態である。この場合、本実施の形態では、クラスタ数計測部2は、複数の発話セグメントそれぞれを一つのクラスタとみなして、二つの発話セグメント間に存在するクラスタの数を計測する。 If clustering by the clustering unit 4 has not been executed yet, the cluster has not yet been formed. In this case, in the present embodiment, the cluster number measuring unit 2 regards each of the plurality of utterance segments as one cluster and measures the number of clusters existing between the two utterance segments.
一方、クラスタリング部4によるクラスタリングが一度以上実行され、ニ以上の発話セグメントを含むクラスタが形成された場合は、クラスタ数計測部2は、同一のクラスタに属すると判断された発話セグメント同士については計測対象外とすることもできる。具体的には、図3に示すように、例えば、一回目のクラスタリングが終了した後では、発話セグメントS2とS3との間についてクラスタ数の計測は行われない。 On the other hand, when clustering by the clustering unit 4 is executed once or more and a cluster including two or more utterance segments is formed, the cluster number measuring unit 2 measures the utterance segments determined to belong to the same cluster. It can also be excluded. Specifically, as shown in FIG. 3, for example, after the first clustering is completed, the number of clusters is not measured between the utterance segments S2 and S3.
また、発話セグメントとクラスタとの間、更にはクラスタ間についてクラスタ数の計測が行われるが、この場合は、クラスタに属する、最も開始時が早い発話セグメントの開始時、又は最も終了時の遅い発話セグメントの終了時が、計測の終点又は起点となる。具体的には、クラスタ数計測部2は、発話セグメントS1〜S3が一つのクラスタとなった時点では、発話セグメントS3の終了時と発話セグメントS6の開始時の間に存在するクラスタの数を計測する。このとき、図2及び図3に示すように、クラスタの数は「1」となる。 In addition, the number of clusters is measured between utterance segments and clusters, and also between clusters. In this case, the utterance at the start of the utterance segment with the earliest start time or the latest utterance at the end. The end of the segment is the end point or starting point of the measurement. Specifically, the cluster number measuring unit 2 measures the number of clusters existing between the end of the utterance segment S3 and the start of the utterance segment S6 when the utterance segments S1 to S3 become one cluster. At this time, as shown in FIGS. 2 and 3, the number of clusters is “1”.
距離算出部3は、上述したように、計測されたクラスタの数を用いて、二つの発話セグメント間の音響的類似度に基づく距離(以下、「距離」とする。)を算出する。本実施の形態では、距離の算出は、二つの発話セグメントそれぞれの特徴ベクトルを求め、求めたそれぞれの特徴ベクトルを用いて行われる。つまり、距離算出部3は、例えば、上述した非特許文献1に開示のシステムと同様に、ケプストラムから得られるガウス分布によって距離を算出することができる。 As described above, the distance calculation unit 3 uses the measured number of clusters to calculate a distance (hereinafter referred to as “distance”) based on the acoustic similarity between two utterance segments. In the present embodiment, the distance is calculated by obtaining the feature vectors of the two utterance segments, and using the obtained feature vectors. That is, the distance calculation unit 3 can calculate the distance by a Gaussian distribution obtained from the cepstrum, for example, as in the system disclosed in Non-Patent Document 1 described above.
また、本実施の形態では、距離は、特徴ベクトルから算出された後、クラスタの数に応じて補正される。本実施の形態において、「クラスタの数を用いて、距離を算出する」とは、距離を算出した後に補正(補正計数の乗算等)を行うことを意味し、更に、補正のみを行うことも意味する。 In this embodiment, the distance is calculated from the feature vector and then corrected according to the number of clusters. In the present embodiment, “calculating the distance using the number of clusters” means performing correction (such as multiplication of a correction coefficient) after calculating the distance, and may also perform only correction. means.
具体的には、距離の算出は、以下の(例1)又は(例2)に従って行うことができる。以下の(例1)及び(例2)はクラスタAとクラスタBとの間の距離を算出する場合について説明しているが、クラスタの要素が、一つの発話セグメントのみである場合も同様に算出できる。 Specifically, the distance can be calculated according to the following (Example 1) or (Example 2). The following (Example 1) and (Example 2) describe the case where the distance between the cluster A and the cluster B is calculated, but the same calculation is performed when the cluster element is only one utterance segment. it can.
また、(例1)及び(例2)において、クラスタAに属する発話セグメントの特徴ベクトルをXn(n=1、2,3・・N1)とし、クラスタBに属する発話セグメントの特徴ベクトルをYn(n=1、2,3・・N2)とする。但し、N1はクラスタAの要素数であり、N2はクラスタBの要素数であるとする。 In (Example 1) and (Example 2), the feature vector of an utterance segment belonging to cluster A is X n (n = 1, 2, 3,... N 1 ), and the feature vector of an utterance segment belonging to cluster B is Let Y n (n = 1, 2, 3,... N 2 ). Here, N 1 is the number of elements in cluster A, and N 2 is the number of elements in cluster B.
(例1)
例1において、クラスタAとクラスタBとの距離をdcovとすると、距離dcovは下記の(数1)〜(数5)から求めることができる。なお、下記の(数2)において、S1及びS2は、クラスタA及びクラスタBに含まれる発話セグメントの標本共分散行列を表している。
(Example 1)
In Example 1, when the distance between the cluster A and the cluster B is d cov , the distance d cov can be obtained from the following ( Expression 1) to ( Expression 5). In the following (Equation 2), S 1 and S 2 represent sample covariance matrices of speech segments included in cluster A and cluster B.
(例2)
例2において、クラスタAとクラスタBとの距離をdMEANとすると、距離dMEANは下記の(数6)及び(数7)から求めることができる。なお、下記の(数7)において、ベクトルX1及びベクトルX2は、クラスタA及びクラスタBに含まれる発話セグメントの平均ベクトルを表している。
(Example 2)
In Example 2, when the distance between the cluster A and the cluster B is d MEAN , the distance d MEAN can be obtained from the following ( Expression 6) and (Expression 7). In the following (Equation 7), vector X 1 and vector X 2 represent the average vectors of speech segments included in cluster A and cluster B.
また、距離算出部3は、上述したように、距離の算出において、計測されたクラスタの数を用いて、算出された距離の補正を行う。例えば、距離算出部3は、二つの発話セグメント間に存在するクラスタの数が小さいほど、距離が短くなるように、距離を補正することができる。 Further, as described above, the distance calculation unit 3 corrects the calculated distance using the number of measured clusters in the calculation of the distance. For example, the distance calculation unit 3 can correct the distance so that the smaller the number of clusters existing between two utterance segments, the shorter the distance.
具体的には、計測されたクラスタの数が「0(ゼロ)」又は「1」の場合は、下記の(数8)を用いて補正が行われ、クラスタの数が「0」及び「1」以外の場合は、補正が行われない態様が挙げられる。なお、下記の(数8)において、dは補正前の算出された距離を示し、d´は補正後の距離を示している。また、aは任意の1より小さい正の数であり、その大きさは適宜設定される。また、補正が行われない場合は、d=d´となる。 Specifically, when the number of measured clusters is “0 (zero)” or “1”, correction is performed using the following (Equation 8), and the number of clusters is “0” and “1”. In the case other than “,” there is a mode in which no correction is performed. In the following (Equation 8), d represents the calculated distance before correction, and d ′ represents the distance after correction. Moreover, a is a positive number smaller than an arbitrary 1, and its size is set as appropriate. If no correction is performed, d = d ′.
例えば、図3において、発話セグメントS1〜S3が一つのクラスタとなった時点で、発話セグメントS3と発話セグメントS6との間におけるクラスの数は「1」となる。この場合、発話セグメントS3とS6との距離は、算出された値よりも小さくなるように補正される。 For example, in FIG. 3, when the utterance segments S1 to S3 become one cluster, the number of classes between the utterance segment S3 and the utterance segment S6 is “1”. In this case, the distance between the utterance segments S3 and S6 is corrected to be smaller than the calculated value.
また、反対に、距離算出部3は、クラスタの数に正比例して距離が長くなるように、距離を補正することもできる。具体的には、下記の(数9)を用いて補正が行われる態様が挙げられる。なお、下記の(数9)においても、dは補正前の算出された距離を示し、d´は補正後の距離を示している。kは、計測されたクラスタの数を示している。 On the other hand, the distance calculation unit 3 can also correct the distance so that the distance becomes longer in direct proportion to the number of clusters. Specifically, a mode in which correction is performed using the following (Equation 9) can be given. In the following (Equation 9), d indicates the calculated distance before correction, and d ′ indicates the distance after correction. k indicates the number of measured clusters.
また、本実施の形態では、距離算出部3は、クラスタリング処理の初期においてはクラスタの数が多いことから、クラスタの数が一定値以下になるまで、二つの発話セグメント間のクラスタの数を用いた補正を実行しない態様であっても良い。 In the present embodiment, the distance calculation unit 3 uses the number of clusters between two utterance segments until the number of clusters falls below a certain value because the number of clusters is large at the initial stage of the clustering process. The correction may not be performed.
具体的には、距離算出部3は、距離の算出時において、クラスタリング部4によるクラスタリングが実行されていない場合は、複数の発話セグメントの全数と閾値とを対比する。更に、距離算出部3は、距離の算出時において、クラスタリング部によるクラスタリングが実行された場合は、それによって形成されたクラスタの全数と閾値とを対比する。そして、対比の結果、複数の発話セグメントの全数またはクラスタの全数が閾値より小さい場合にのみ、距離算出部3は、距離の算出にクラスタの数を用いる(クラスタの数による補正を行う)ことができる。 Specifically, the distance calculation unit 3 compares the total number of a plurality of utterance segments with a threshold value when clustering by the clustering unit 4 is not executed when calculating the distance. Further, when the clustering unit executes clustering when calculating the distance, the distance calculation unit 3 compares the total number of clusters formed thereby with a threshold value. Then, as a result of the comparison, the distance calculation unit 3 may use the number of clusters for the calculation of the distance (correction based on the number of clusters) only when the total number of the plurality of utterance segments or the total number of clusters is smaller than the threshold value. it can.
更に、本実施の形態では、距離算出部3は、計測されたクラスタの数による補正に加え、上述の非特許文献1に開示されている、隣接関係を用いた補正を実行することもできる。この場合は、よりいっそう話者分類の精度の向上が期待できる。また、距離算出部3は、基本的には、全てのセグメント同士の組み合わせを対象として、距離の算出を行うが、例えば、予め、話者が同一であることが特定されている話者セグメント同士間等については、処理速度の向上の点から、距離の算出を省略することもできる。 Furthermore, in the present embodiment, the distance calculation unit 3 can also perform correction using the adjacency relationship disclosed in Non-Patent Document 1 described above, in addition to correction based on the number of measured clusters. In this case, further improvement in speaker classification accuracy can be expected. In addition, the distance calculation unit 3 basically calculates the distance for all combinations of segments. For example, the speaker segments that have been identified as having the same speaker in advance. For the interval, the calculation of the distance can be omitted from the viewpoint of improving the processing speed.
クラスタリング部4は、上述したように、距離算出部3によって得られた発話セグメント間の距離に従って、クラスタリングを行う。本実施の形態において、クラスタリング部4で行われるクラスタリング処理は、特に限定されるものではなく、上述した非特許文献1に開示されている方式を用いたクラスタリング処理であっても良い。 As described above, the clustering unit 4 performs clustering according to the distance between utterance segments obtained by the distance calculation unit 3. In the present embodiment, the clustering process performed by the clustering unit 4 is not particularly limited, and may be a clustering process using the method disclosed in Non-Patent Document 1 described above.
具体的には、クラスタリング部4は、先ず、ある着目した発話セグメントについて、それと二つ以上の発話セグメント(又は着目した発話セグメントが属していないクラスタ)
との距離を比較する。そして、クラスタリング部4は、着目した発話セグメントとの距離が最も小さい発話セグメントを特定し、それと着目した発話セグメントとでクラスタを構成する。また、着目した発話セグメントが既にクラスタに含まれている場合は、クラスタリング部4は、距離が最も小さい発話セグメントもこのクラスタに含まれるものとする。
Specifically, the clustering unit 4 first, for a focused utterance segment, and two or more utterance segments (or a cluster to which the focused utterance segment does not belong)
Compare the distance with. Then, the clustering unit 4 identifies an utterance segment having the shortest distance from the focused utterance segment, and forms a cluster with the focused utterance segment. When the focused utterance segment is already included in the cluster, the clustering unit 4 also includes the utterance segment with the shortest distance in the cluster.
反対に、距離が最も小さい発話セグメントが既にクラスタに含まれている場合は、クラスタリング4は、着目した発話セグメントがこのクラスタに含まれるものとする。更に、着目した発話セグメントと、距離が最も小さい発話セグメントとが、共に、別々のクラスタに含まれている場合は、クラスタリング4は、両者のクラスタを一つに統一する。 On the contrary, when the utterance segment with the shortest distance is already included in the cluster, the clustering 4 assumes that the focused utterance segment is included in this cluster. Further, when the focused utterance segment and the utterance segment with the shortest distance are both included in different clusters, the clustering 4 unifies both the clusters into one.
また、本実施の形態において、クラスタリング部4による距離の比較は、例えば、従来から既知の最近隣法、最遠隣法、又は群平均法等を用いて行うことができる。なお、上記における「着目した発話セグメントとクラスタとの距離」は、着目した発話セグメントと、クラスタに含まれる発話セグメントとの距離を意味している。 In the present embodiment, the comparison of distances by the clustering unit 4 can be performed using, for example, a conventionally known nearest neighbor method, farthest neighbor method, group average method, or the like. The “distance between the focused utterance segment and the cluster” in the above means the distance between the focused utterance segment and the utterance segment included in the cluster.
クラスタリング4によるクラスタリングが繰り返し行われると、図3に示すように、発話セグメントS1〜S11による木構造が形成される。その後、話者分類部5は、木構造を適切な位置で切断し、話者の分類を行う。この切断位置は、例えば、予め、各発話セグメントの話者が明らかなテストデータを用いた実験によって得ることができる。話者分類部5による分類の結果、2つの発話セグメントを時間順にみた場合に、その間に何人の話者が存在したかが明確となる。 When the clustering by the clustering 4 is repeatedly performed, a tree structure is formed by the utterance segments S1 to S11 as shown in FIG. Thereafter, the speaker classifying unit 5 cuts the tree structure at an appropriate position and classifies the speakers. This cutting position can be obtained, for example, in advance by an experiment using test data that is clear to the speaker of each utterance segment. As a result of the classification by the speaker classification unit 5, when the two utterance segments are viewed in time order, it becomes clear how many speakers existed between them.
次に、本発明の実施の形態における音声分類方法について図4を用いて説明する。図4は、本発明の実施の形態における音声分類方法で行われる処理を示すフロー図である。本実施の形態における音声分類方法、図1に示した本実施の形態における音声分類装置を動作させることによって実施される。このため、本実施の形態における音声分類方法の説明は、適宜図1〜図3を参酌しながら、音声分類装置10の動作を説明しながら行う。 Next, the speech classification method according to the embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing processing performed by the speech classification method according to the embodiment of the present invention. The speech classification method according to the present embodiment is implemented by operating the speech classification apparatus according to the present embodiment shown in FIG. For this reason, the description of the speech classification method in the present embodiment will be made while explaining the operation of the speech classification device 10 with appropriate reference to FIGS.
最初に、図4に示すように、先ず、初期化処理として、距離算出部3は、音声データ(図2参照)が入力されると、全ての発話セグメント同士の組み合わせ(ペア)を対象として、二つの発話セグメント間の音響的類似度に基づく距離を算出する(ステップA1)。 First, as shown in FIG. 4, as an initialization process, the distance calculation unit 3 first receives a combination of speech segments (see FIG. 2), and targets all combinations (pairs) of utterance segments. A distance based on the acoustic similarity between the two utterance segments is calculated (step A1).
なお、ステップA1は、次に説明するステップA2の後に実行しても良い。但し、その場合は、二回目以降のステップA2が実行されたときは、ステップA1はスキップされる。また、ステップA1では、予め、話者が同一であることが特定されている話者セグメント同士間等については、処理速度の向上の点から、距離の算出の省略が可能である。 Note that step A1 may be executed after step A2 described below. However, in this case, when the second and subsequent steps A2 are executed, step A1 is skipped. Further, in step A1, it is possible to omit the calculation of the distance between speaker segments in which the same speaker is specified in advance from the viewpoint of improving the processing speed.
次に、クラスタ数計測部2は、二つの発話セグメント間に存在するクラスタの数を計測する(ステップA2)。なお、クラスタリングが未だ一度も実行されていない場合は、クラスタが未だ形成されていない状態である。この場合、本実施の形態では、クラスタ数計測部2は、複数の発話セグメントそれぞれを一つのクラスタとみなして、二つの発話セグメント間に存在するクラスタの数を計測する。 Next, the cluster number measuring unit 2 measures the number of clusters existing between two utterance segments (step A2). When clustering has not been executed yet, the cluster has not yet been formed. In this case, in the present embodiment, the cluster number measuring unit 2 regards each of the plurality of utterance segments as one cluster and measures the number of clusters existing between the two utterance segments.
次に、距離算出部3は、ステップA1で算出された距離に対して、ステップA2で計測されたクラスタの数を用いて補正を実行し、補正による距離の算出を実行する(ステップA3)。これにより、セグメント間の距離の値は、クラスタ同士の関係が考慮された値となる。 Next, the distance calculation unit 3 corrects the distance calculated in step A1 using the number of clusters measured in step A2, and calculates the distance by correction (step A3). Thereby, the value of the distance between segments becomes a value in which the relationship between clusters is considered.
次いで、クラスタリング部4は、着目した各発話セグメントについて、それとの距離が最も小さい発話セグメント(又はクラスタ)を特定し(ステップA4)、クラスタの形成
を行う(ステップA5)。ステップA5におけるクラスタの形成は、例えば、着目した発話セグメントと距離が最も小さい発話セグメントとでクラスタを構成したり、着目した発話セグメントを含むクラスタに、距離が最も小さい発話セグメントを含ませたりすること等によって行われる。
Next, the clustering unit 4 identifies an utterance segment (or cluster) having the smallest distance from each utterance segment of interest (step A4), and forms a cluster (step A5). The cluster is formed in step A5 by, for example, forming a cluster with the focused utterance segment and the utterance segment with the smallest distance, or including the utterance segment with the smallest distance in the cluster including the focused utterance segment. Etc.
次に、ステップA5の終了後、クラスタリング部4は、クラスタリング処理によって木構造(図3参照)が完成し、クラスタが一つになったかどうかを判定する(ステップA6)。判定の結果、クラスタが未だ一つになっていない場合は、再度、ステップA2〜A5が実行される。一方、クラスタが一つになっている場合は、話者分類部5は、木構造を適切な位置で切断し、話者の分類を行う(ステップA7)。その後、全ての処理が終了する。 Next, after the end of step A5, the clustering unit 4 determines whether or not the tree structure (see FIG. 3) is completed by clustering processing and the number of clusters becomes one (step A6). As a result of the determination, if the number of clusters is not yet one, steps A2 to A5 are executed again. On the other hand, if there is only one cluster, the speaker classification unit 5 cuts the tree structure at an appropriate position and classifies the speakers (step A7). Thereafter, all processing is completed.
このように、本実施の形態における音声分類方法では、音響的類似度に基づく距離の算出に際して、発話セグメントをまとめて得られるクラスタ同士の関係が考慮されている。よって、同じ話者に属する発話セグメントが時間的に離れていても、それらに適切な距離が与えられ、一定時間、一人の話者がアンカーパーソンとなる音声データが対象となる場合であっても、精度の高い話者分類が可能となる。 As described above, in the speech classification method according to the present embodiment, when calculating the distance based on the acoustic similarity, the relationship between clusters obtained by collecting the speech segments is considered. Therefore, even if utterance segments belonging to the same speaker are separated in time, an appropriate distance is given to them, and even if voice data for which one speaker is an anchor person is targeted for a certain period of time Therefore, speaker classification with high accuracy is possible.
また、本実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1〜A7を実行させるプログラムであれば良い。そして、本実施の形態におけるプログラムをコンピュータにインストールし、これを実行させれば、本実施の形態における音声分類装置10及び音声分類方法を具現化できる。この場合、コンピュータのCPU(central processing unit)は、入力受付部1、クラスタ数計測部2、距離算出部3、クラスタリング部4、話者分類部5としてとして機能し、処理を行なう。 Moreover, the program in this Embodiment should just be a program which makes a computer perform step A1-A7 shown in FIG. And if the program in this Embodiment is installed in a computer and this is run, the speech classification apparatus 10 and the speech classification method in this Embodiment can be embodied. In this case, a central processing unit (CPU) of the computer functions as an input receiving unit 1, a cluster number measuring unit 2, a distance calculating unit 3, a clustering unit 4, and a speaker classifying unit 5 to perform processing.
以上のように、本発明によれば、精度の高い話者分類を提供することができる。よって、本発明は、発言者のラベリングを支援するための会議録作成装置や、音声認識装置等に有効であり、産業上の利用可能性を有している。 As described above, according to the present invention, it is possible to provide speaker classification with high accuracy. Therefore, the present invention is effective for a conference record creation device and a speech recognition device for supporting speaker labeling, and has industrial applicability.
1 入力受付部
2 クラスタ数計測部
3 距離算出部
4 クラスタリング部
5 話者分類部
10 音声分類装置
DESCRIPTION OF SYMBOLS 1 Input reception part 2 Cluster number measurement part 3 Distance calculation part 4 Clustering part 5 Speaker classification part 10 Voice classification apparatus
Claims (18)
前記複数の発話セグメントが時間軸に沿って配置されたときに、二つの発話セグメント間に存在するクラスタの数を計測するクラスタ数計測部と、
計測された前記クラスタの数を用いて、前記二つの発話セグメント間の音響的類似度に基づく距離を算出する距離算出部と、
算出された前記距離を用いて、前記複数の発話セグメントのクラスタリングを実行するクラスタリング部とを、備えることを特徴とする音声分類装置。 A speech classification device that performs clustering on a plurality of speech segments included in speech data in which two or more speakers are speaking, and performs speech classification based on the clustering result,
A cluster number measuring unit that measures the number of clusters existing between two utterance segments when the plurality of utterance segments are arranged along a time axis;
A distance calculation unit that calculates a distance based on acoustic similarity between the two utterance segments using the measured number of clusters;
A speech classification apparatus comprising: a clustering unit that performs clustering of the plurality of utterance segments using the calculated distance.
前記距離算出部が、新たに計測された前記クラスタの数を用いて、前記二つの発話セグメントの間の音響的類似度に基づく距離を新たに算出し、
前記クラスタリング部が、新たに算出された前記距離を用いて、再度、前記クラスタリングを実行する、請求項1に記載の音声分類装置。 The cluster number measuring unit newly measures the number of clusters existing between the two utterance segments for the clusters formed by the clustering unit after the clustering is executed,
The distance calculation unit newly calculates the distance based on the acoustic similarity between the two utterance segments using the newly measured number of clusters,
The speech classification apparatus according to claim 1, wherein the clustering unit performs the clustering again using the newly calculated distance.
前記クラスタリング部によるクラスタリングによって、前記複数のセグメントの木構造が完成するまで、前記クラスタ数計測部による計測、前記距離算出部による算出、及び前記クラスタリング部によるクラスタリングが、複数回実行される、請求項2に記載の音声分類装置。 When the cluster number measuring unit is not clustered by the clustering unit, each of the plurality of utterance segments is regarded as one cluster, and the number of clusters existing between the two utterance segments is measured,
The clustering by the clustering unit performs the measurement by the cluster number measuring unit, the calculation by the distance calculating unit, and the clustering by the clustering unit a plurality of times until the tree structure of the plurality of segments is completed. The speech classification apparatus according to 2.
前記クラスタリング部によるクラスタリングが実行されていない場合は、前記複数の発話セグメントの全数と閾値とを対比し、前記クラスタリング部によるクラスタリングが実行されている場合は、それによって形成されたクラスタの全数と前記閾値とを対比し、
対比の結果、前記複数の発話セグメントの全数または前記クラスタの全数が前記閾値より小さい場合にのみ、前記距離の算出に前記クラスタの数を用いる、請求項1〜4のいずれかに記載の音声分類装置。 When the distance calculation unit calculates the distance,
When clustering by the clustering unit is not executed, the total number of the plurality of utterance segments is compared with a threshold value, and when clustering by the clustering unit is executed, the total number of clusters formed thereby and the Contrast with threshold,
The speech classification according to any one of claims 1 to 4, wherein the number of clusters is used to calculate the distance only when the total number of the plurality of utterance segments or the total number of the clusters is smaller than the threshold as a result of comparison. apparatus.
(a)前記複数の発話セグメントが時間軸に沿って配置されたときに、二つの発話セグメント間に存在するクラスタの数を計測するステップと、
(b)前記(a)のステップで計測された前記クラスタの数を用いて、前記二つの発話セ
グメント間の音響的類似度に基づく距離を算出するステップと、
(c)前記(b)のステップで算出された前記距離を用いて、前記複数の発話セグメントのクラスタリングを実行するステップとを、有することを特徴とする音声分類方法。 A speech classification method for performing clustering on a plurality of speech segments included in speech data in which two or more speakers are speaking, and performing speech classification based on the clustering result,
(A) measuring the number of clusters existing between two utterance segments when the plurality of utterance segments are arranged along a time axis;
(B) calculating a distance based on an acoustic similarity between the two utterance segments using the number of clusters measured in the step (a);
(C) using the distance calculated in the step (b) to perform clustering of the plurality of utterance segments.
新たな前記(a)のステップが実行された後、前記(b)のステップを新たに実行し、新たに計測した前記クラスタの数を用いて、前記二つの発話セグメントの間の音響的類似度に基づく距離を新たに算出し、
新たな前記(b)のステップを実行し後、新たに算出した前記距離を用いて、再度、前記(c)のステップにおける前記クラスタリングを実行する、請求項7に記載の音声分類方法。 After executing the clustering in the step (c), the step (a) is newly executed on the cluster formed by the clustering, and in the new step (a), the two utterance segments are Measure the number of clusters in between,
After the new step (a) is executed, the step (b) is newly executed, and the acoustic similarity between the two utterance segments is calculated using the newly measured number of clusters. A new distance based on
The speech classification method according to claim 7, wherein after the new step (b) is performed, the clustering in the step (c) is performed again using the newly calculated distance.
前記(c)のステップによるクラスタリングによって、前記複数のセグメントの木構造が完成するまで、前記(a)のステップによる計測、前記(b)のステップによる算出、及び前記(c)のステップによるクラスタリングを、複数回実行する、請求項8に記載の音声分類方法。 When clustering by the step (c) is not executed, the number of clusters existing between the two utterance segments in the step (a), considering each of the plurality of utterance segments as one cluster. Measure
Until the tree structure of the plurality of segments is completed by the clustering in the step (c), the measurement in the step (a), the calculation in the step (b), and the clustering in the step (c) The voice classification method according to claim 8, which is executed a plurality of times.
前記(c)のステップによるクラスタリングを実行していない場合は、前記複数の発話セグメントの全数と閾値とを対比し、前記(c)のステップによるクラスタリングを実行している場合は、それによって形成されたクラスタの全数と前記閾値とを対比し、
対比の結果、前記複数の発話セグメントの全数または前記クラスタの全数が前記閾値より小さい場合にのみ、前記距離の算出に前記クラスタの数を用いる、請求項7〜10のいずれかに記載の音声分類方法。 When calculating the distance in the step (b),
When the clustering by the step (c) is not executed, the total number of the plurality of utterance segments is compared with the threshold value, and when the clustering by the step (c) is executed, it is formed thereby. Contrast the total number of clusters and the threshold value,
The speech classification according to any one of claims 7 to 10, wherein the number of clusters is used for calculating the distance only when the total number of the plurality of utterance segments or the total number of the clusters is smaller than the threshold as a result of the comparison. Method.
前記コンピュータに、
(a)前記複数の発話セグメントが時間軸に沿って配置されたときに、二つの発話セグメント間に存在するクラスタの数を計測するステップと、
(b)前記(a)のステップで計測された前記クラスタの数を用いて、前記二つの発話セグメント間の音響的類似度に基づく距離を算出するステップと、
(c)前記(b)のステップで算出された前記距離を用いて、前記複数の発話セグメントのクラスタリングを実行するステップとを、実行させることを特徴とするプログラム。 A program for causing a computer to perform clustering on a plurality of utterance segments included in speech data in which two or more speakers are speaking, and to perform speech classification based on the clustering result,
In the computer,
(A) measuring the number of clusters existing between two utterance segments when the plurality of utterance segments are arranged along a time axis;
(B) calculating a distance based on an acoustic similarity between the two utterance segments using the number of clusters measured in the step (a);
(C) executing the clustering of the plurality of utterance segments using the distance calculated in the step (b).
タを対象として、前記(a)のステップを新たに実行し、新たな前記(a)のステップで、前記二つの発話セグメントの間に存在するクラスタの数を新たに計測し、
新たな前記(a)のステップが実行された後、前記(b)のステップを新たに実行し、新たに計測した前記クラスタの数を用いて、前記二つの発話セグメントの間の音響的類似度に基づく距離を新たに算出し、
新たな前記(b)のステップを実行し後、新たに算出した前記距離を用いて、再度、前記(c)のステップにおける前記クラスタリングを実行する、請求項13に記載のプログラム。 After executing the clustering in the step (c), the step (a) is newly executed on the cluster formed by the clustering, and in the new step (a), the two utterance segments are Measure the number of clusters in between,
After the new step (a) is executed, the step (b) is newly executed, and the acoustic similarity between the two utterance segments is calculated using the newly measured number of clusters. A new distance based on
The program according to claim 13, wherein after the new step (b) is executed, the clustering in the step (c) is executed again using the newly calculated distance.
前記(c)のステップによるクラスタリングによって、前記複数のセグメントの木構造が完成するまで、前記(a)のステップによる計測、前記(b)のステップによる算出、及び前記(c)のステップによるクラスタリングを、複数回実行する、請求項14に記載のプログラム。 When clustering by the step (c) is not executed, the number of clusters existing between the two utterance segments in the step (a), considering each of the plurality of utterance segments as one cluster. Measure
Until the tree structure of the plurality of segments is completed by the clustering in the step (c), the measurement in the step (a), the calculation in the step (b), and the clustering in the step (c) The program according to claim 14, which is executed a plurality of times.
前記(c)のステップによるクラスタリングを実行していない場合は、前記複数の発話セグメントの全数と閾値とを対比し、前記(c)のステップによるクラスタリングを実行している場合は、それによって形成されたクラスタの全数と前記閾値とを対比し、
対比の結果、前記複数の発話セグメントの全数または前記クラスタの全数が前記閾値より小さい場合にのみ、前記距離の算出に前記クラスタの数を用いる、請求項13〜16のいずれかに記載のプログラム。 When calculating the distance in the step (b),
When the clustering by the step (c) is not executed, the total number of the plurality of utterance segments is compared with the threshold value, and when the clustering by the step (c) is executed, it is formed thereby. Contrast the total number of clusters and the threshold value,
The program according to any one of claims 13 to 16, wherein the number of clusters is used for calculating the distance only when the total number of the plurality of utterance segments or the total number of the clusters is smaller than the threshold as a result of the comparison.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009012746A JP5105097B2 (en) | 2009-01-23 | 2009-01-23 | Speech classification apparatus, speech classification method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009012746A JP5105097B2 (en) | 2009-01-23 | 2009-01-23 | Speech classification apparatus, speech classification method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010169924A true JP2010169924A (en) | 2010-08-05 |
JP5105097B2 JP5105097B2 (en) | 2012-12-19 |
Family
ID=42702142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009012746A Active JP5105097B2 (en) | 2009-01-23 | 2009-01-23 | Speech classification apparatus, speech classification method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5105097B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013037108A (en) * | 2011-08-05 | 2013-02-21 | Nippon Telegr & Teleph Corp <Ntt> | Speaker clustering method, speaker clustering device, and program |
CN106504780A (en) * | 2016-10-09 | 2017-03-15 | 努比亚技术有限公司 | A kind of method and device for realizing that audio-frequency information is processed |
CN108881652A (en) * | 2018-07-11 | 2018-11-23 | 北京大米科技有限公司 | Echo detection method, storage medium and electronic equipment |
JP2020095210A (en) * | 2018-12-14 | 2020-06-18 | コニカミノルタ株式会社 | Minutes output device and control program for minutes output device |
CN116493282A (en) * | 2023-04-12 | 2023-07-28 | 曲靖阳光新能源股份有限公司 | Rapid single-product silicon wafer sorting system and method based on machine vision |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109361995B (en) * | 2018-09-25 | 2021-07-30 | 深圳创维-Rgb电子有限公司 | Volume adjusting method and device for electrical equipment, electrical equipment and medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854891A (en) * | 1994-08-11 | 1996-02-27 | Torendei:Kk | Device and method for acoustic classification process and speaker classification process |
-
2009
- 2009-01-23 JP JP2009012746A patent/JP5105097B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854891A (en) * | 1994-08-11 | 1996-02-27 | Torendei:Kk | Device and method for acoustic classification process and speaker classification process |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013037108A (en) * | 2011-08-05 | 2013-02-21 | Nippon Telegr & Teleph Corp <Ntt> | Speaker clustering method, speaker clustering device, and program |
CN106504780A (en) * | 2016-10-09 | 2017-03-15 | 努比亚技术有限公司 | A kind of method and device for realizing that audio-frequency information is processed |
CN108881652A (en) * | 2018-07-11 | 2018-11-23 | 北京大米科技有限公司 | Echo detection method, storage medium and electronic equipment |
JP2020095210A (en) * | 2018-12-14 | 2020-06-18 | コニカミノルタ株式会社 | Minutes output device and control program for minutes output device |
JP7259307B2 (en) | 2018-12-14 | 2023-04-18 | コニカミノルタ株式会社 | Minutes output device and control program for the minutes output device |
CN116493282A (en) * | 2023-04-12 | 2023-07-28 | 曲靖阳光新能源股份有限公司 | Rapid single-product silicon wafer sorting system and method based on machine vision |
Also Published As
Publication number | Publication date |
---|---|
JP5105097B2 (en) | 2012-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536547B2 (en) | Speaker change detection device and speaker change detection method | |
CN108122552B (en) | Voice emotion recognition method and device | |
JP6350148B2 (en) | SPEAKER INDEXING DEVICE, SPEAKER INDEXING METHOD, AND SPEAKER INDEXING COMPUTER PROGRAM | |
JP5105097B2 (en) | Speech classification apparatus, speech classification method and program | |
US9043207B2 (en) | Speaker recognition from telephone calls | |
JP2016006504A (en) | Voice data processor, voice data processing method and voice data processing program | |
JP6464005B2 (en) | Noise suppression speech recognition apparatus and program thereof | |
JP5692493B2 (en) | Hidden Markov Model Creation Program, Information Storage Medium, Hidden Markov Model Creation System, Speech Recognition System, and Speech Recognition Method | |
JP5050698B2 (en) | Voice processing apparatus and program | |
EP3979240A1 (en) | Signal extraction system, signal extraction learning method, and signal extraction learning program | |
JP2011053569A (en) | Audio processing device and program | |
JP2020067566A (en) | Information processing method, information processing device, and program | |
JP2010286702A (en) | Speaker verification device, speaker verification method, and program | |
US9330662B2 (en) | Pattern classifier device, pattern classifying method, computer program product, learning device, and learning method | |
JP6148150B2 (en) | Acoustic analysis frame reliability calculation device, acoustic model adaptation device, speech recognition device, their program, and acoustic analysis frame reliability calculation method | |
CN112053686A (en) | Audio interruption method and device and computer readable storage medium | |
JP2011191542A (en) | Voice classification device, voice classification method, and program for voice classification | |
JP5936378B2 (en) | Voice segment detection device | |
Chen et al. | System and keyword dependent fusion for spoken term detection | |
JP2013235050A (en) | Information processing apparatus and method, and program | |
JP7159655B2 (en) | Emotion estimation system and program | |
Bharathi et al. | GMM and i-vector based speaker verification using speaker-specific-text for short utterances | |
Anguera et al. | Frame purification for cluster comparison in speaker diarization | |
CN114678040B (en) | Voice consistency detection method, device, equipment and storage medium | |
JP5272141B2 (en) | Voice processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120905 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5105097 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |