JP5028599B2 - Audio processing apparatus and program - Google Patents

Audio processing apparatus and program Download PDF

Info

Publication number
JP5028599B2
JP5028599B2 JP2006161918A JP2006161918A JP5028599B2 JP 5028599 B2 JP5028599 B2 JP 5028599B2 JP 2006161918 A JP2006161918 A JP 2006161918A JP 2006161918 A JP2006161918 A JP 2006161918A JP 5028599 B2 JP5028599 B2 JP 5028599B2
Authority
JP
Japan
Prior art keywords
cepstrum
unit
voice
vocal tract
tract length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006161918A
Other languages
Japanese (ja)
Other versions
JP2007199654A (en
Inventor
秀行 渡辺
玲子 山田
博章 田川
隆弘 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006161918A priority Critical patent/JP5028599B2/en
Publication of JP2007199654A publication Critical patent/JP2007199654A/en
Application granted granted Critical
Publication of JP5028599B2 publication Critical patent/JP5028599B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To solve problems with a conventional speech processing device that the speech processing (singing voice evaluation and the like) meeting the speaker characteristics of an evaluation target object which is a speaker cannot be performed, and as a result thereof, the speech processing of high accuracy is not possible. <P>SOLUTION: The speech processing meeting the speaker characteristics can be performed by the speech processing device including a speech accepting section which accepts a speech, a first sampling frequency storage section which stores a first sampling frequwncy, a vocal tube length normalizing parameter storage section which stores the vocal tube length normalizing parameter being the information relating to the conversion rate of the sampling frequency, a vocal tube length normalization processing section which obtains second speech data by subjecting the speech accepted by the speech acceptance section to sampling processing at the second sampling frequency calculated with the vocal tube length normalizing parameter and the first sampling frequency as parameters, and a speech processing section which processes the second speech data. <P>COPYRIGHT: (C)2007,JPO&amp;INPIT

Description

本発明は、入力された音声を評価したり、入力された音声を認識したりする音声処理装置等に関するものである。   The present invention relates to a speech processing apparatus that evaluates input speech and recognizes input speech.

従来の技術として、以下の音声処理装置がある(特許文献1参照)。本音声処理装置は、語学学習装置であり、当該語学学習装置は、学習者が選択した役割の発音をレファランスデータと比較して一致度によって点数化して表示し、点数によって適当な次の画面を自動に表示することにより、学習能率を向上させる装置である。本従来の音声処理装置は、入力された音声信号は音声認識技術により分析された後、学習者発音のスペクトルと抑揚とが学習者発音表示ボックスに表れるという構成になっている。そして、従来の技術においては、標準音データと学習者の発音のスペクトル、および抑揚が比較されて点数が表示される。   As a conventional technique, there is the following voice processing apparatus (see Patent Document 1). This speech processing device is a language learning device, and the language learning device displays the pronunciation of the role selected by the learner by comparing it with the reference data, scoring it according to the degree of coincidence, and displaying an appropriate next screen depending on the score. It is a device that improves learning efficiency by displaying automatically. The conventional speech processing apparatus is configured such that the input speech signal is analyzed by speech recognition technology, and then the learner's pronunciation spectrum and inflection appear in the learner pronunciation display box. In the conventional technique, the standard sound data is compared with the learner's pronunciation spectrum and intonation, and the score is displayed.

また、従来の技術として、以下の音声処理装置がある(特許文献2参照)。本音声処理装置は歌唱音声評価装置であり、本歌唱音声評価装置は、歌唱音声の周波数成分を抽出する抽出手段と、当該抽出された周波数成分から基本周波数成分と倍音周波数成分とをそれぞれ抽出する特定周波数成分抽出手段と、特定周波数成分抽出手段によって抽出された基本周波数成分に対する倍音周波数成分の比率に応じて、歌唱音声の評価を示す評価値を算出する評価手段とを備える。そして、本歌唱音声評価装置は、歌唱音声の周波数成分に基づいてその声質の良否を適正に評価し、これを歌唱音声の採点結果に反映させることにより、歌唱音声の採点をより人間の感性に近づけることを狙いとしている。   Further, as a conventional technique, there is the following voice processing apparatus (see Patent Document 2). The voice processing device is a singing voice evaluation device, and the singing voice evaluation device extracts a frequency component of the singing voice and a fundamental frequency component and a harmonic frequency component from the extracted frequency component, respectively. Specific frequency component extraction means, and evaluation means for calculating an evaluation value indicating evaluation of the singing voice according to the ratio of the harmonic frequency component to the fundamental frequency component extracted by the specific frequency component extraction means. And this singing voice evaluation apparatus evaluates the quality of the voice quality appropriately based on the frequency component of the singing voice, and reflects this in the singing voice scoring result, thereby making the singing voice scoring more human sensitive. The aim is to get closer.

さらに、従来の技術として、以下の音声処理装置がある(特許文献3参照)。本音声処理装置は音声認識装置であり、入力音声パターンと標準パターンを、DP法を用いて照合し、最も照合距離の小さい標準パターンを認識結果とする音声認識装置であり、照合結果を用いて入力パターンを音素に分割し、各音素の継続時間と標準継続時間とのずれの分散を計算し、これを照合距離に付加することで距離を補正することを特徴とする。そして、分割部で照合結果を用いて音素に分割し、時間長ずれ計算部で標準継続時間とのずれの分散を計算し、距離補正部で照合距離を補正するように構成する。また、本音声認識装置は、時間長のずれを計算する対象音素を選択する音素選択部、距離補正する対象単語を選択する単語選択部を有し、単語の認識性能を高できる、というものである。
特開2003−228279(第1頁、第1図等) 特開2005−107088(第1頁、第1図等) 特開平6−4096(第1頁、第1図等)
Further, as a conventional technique, there is the following voice processing apparatus (see Patent Document 3). This speech processing device is a speech recognition device, which is a speech recognition device that collates an input speech pattern with a standard pattern using the DP method, and uses a standard pattern with the smallest collation distance as a recognition result. The input pattern is divided into phonemes, the variance of the deviation between the duration of each phoneme and the standard duration is calculated, and this is added to the verification distance to correct the distance. Then, the dividing unit divides into phonemes using the collation result, the time length deviation calculating unit calculates the variance of the deviation from the standard duration, and the distance correcting unit corrects the collation distance. In addition, the speech recognition apparatus includes a phoneme selection unit that selects a target phoneme for calculating a time length shift and a word selection unit that selects a target word for distance correction, so that the word recognition performance can be improved. is there.
JP 2003-228279 A (first page, FIG. 1 etc.) JP-A-2005-107088 (first page, FIG. 1 etc.) JP-A-6-4096 (first page, FIG. 1 etc.)

しかしながら、特許文献1や特許文献2の従来の技術においては、音声(歌声も含む)の話者である評価対象者の話者特性に応じた音声処理が行えず、その結果、精度の高い音声処理ができなかった。具体的には、従来の技術においては、例えば、評価対象者の声道長の違いにより、スペクトル包絡が高周波数域または低周波数域に伸縮するが、従来の発音評定装置や歌唱音声評価装置などの音声処理装置において、かかるスペクトル包絡の伸縮により、評価結果が異なる。つまり、従来の技術においては、同様の上手さの発音や歌唱でも、評価対象者の声道長の違いにより、発音や歌唱の評価結果が異なり、精度の高い評価ができなかった。   However, in the conventional techniques of Patent Document 1 and Patent Document 2, speech processing according to the speaker characteristics of the evaluation target person who is a speaker of speech (including singing voice) cannot be performed, and as a result, highly accurate speech Could not process. Specifically, in the conventional technology, for example, the spectral envelope expands or contracts to a high frequency range or a low frequency range due to a difference in the vocal tract length of the evaluation subject, but a conventional pronunciation rating device, singing voice evaluation device, etc. In the speech processing apparatus, the evaluation result varies depending on the expansion and contraction of the spectrum envelope. In other words, in the conventional technology, even with the same skillful pronunciation and singing, the evaluation results of pronunciation and singing differ depending on the vocal tract length of the person to be evaluated, and high-accuracy evaluation cannot be performed.

また、特許文献1の音声処理装置において、標準音データと学習者の発音のスペクトル、および抑揚が比較されて点数が表示される構成であるので、両者の類似度の評定の精度が低く、また、リアルタイムに高速に点数を表示するためには、処理能力が極めて高いCPU、多量のメモリが必要であった。   In addition, since the voice processing device of Patent Document 1 is configured to display the score by comparing the standard sound data with the learner's pronunciation spectrum and intonation, the accuracy of the similarity between the two is low, and In order to display the score at high speed in real time, a CPU having a very high processing capability and a large amount of memory are required.

また、特許文献1の音声処理装置において、無音区間があれば、類似度が低く評価されると考えられ、評価の精度が低かった。また、音素の置換や挿入や欠落など、特殊な事象が発生していることを検知できなかった。   Further, in the speech processing apparatus of Patent Document 1, if there is a silent section, it is considered that the similarity is evaluated low, and the accuracy of the evaluation is low. In addition, it was not possible to detect the occurrence of special events such as phoneme substitution, insertion, or omission.

さらに、例えば、特許文献3に示すような音声認識処理を行う音声処理装置において、評価対象者の声道長の違いにより、スペクトル包絡の伸縮が生じるが、かかる評価対象者の話者特性に応じた音声認識処理を行っておらず、精度の高い音声認識ができなかった。   Further, for example, in a speech processing apparatus that performs speech recognition processing as shown in Patent Document 3, the spectral envelope expands or contracts due to the difference in the vocal tract length of the evaluation target person, but depending on the speaker characteristics of the evaluation target person Voice recognition processing was not performed, and high-accuracy voice recognition was not possible.

本第一の発明の音声処理装置は、音声を受け付ける音声受付部と、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、前記第二音声データを処理する音声処理部を具備する音声処理装置である。   The voice processing device according to the first aspect of the invention includes a voice receiving unit that receives voice, a first sampling frequency storage unit that stores a first sampling frequency, and vocal tract length normalization that is information relating to a conversion rate of the sampling frequency. A vocal tract length normalization parameter storage unit storing parameters; a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters; On the other hand, the voice processing apparatus includes a vocal tract length normalization processing unit that performs sampling processing to obtain second voice data, and a voice processing unit that processes the second voice data.

かかる構成により、評価対象者の話者特性に応じた音声処理ができる。   With this configuration, voice processing according to the speaker characteristics of the evaluation target person can be performed.

また、本第二の発明の音声処理装置は、第一の発明に対して、比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納している教師データ格納部と、前記教師データのフォルマント周波数である教師データフォルマント周波数を格納している教師データフォルマント周波数格納部と、前記音声受付部が受け付けた音声の話者である評価対象者のフォルマント周波数である評価対象者フォルマント周波数を格納している評価対象者フォルマント周波数格納部とをさらに具備し、前記声道長正規化パラメータは、「評価対象者フォルマント周波数/教師データフォルマント周波数」により算出される値であり、前記声道長正規化処理部は、「前記第一サンプリング周波数×声道長正規化パラメータ」の演算式により、第二サンプリング周波数を算出し、当該第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る音声処理装置である。   The speech processing apparatus according to the second aspect of the present invention stores one or more teacher data, which is data related to the speech to be compared with the first aspect, and is data for one or more phonemes. A teacher data storage unit, a teacher data formant frequency storage unit that stores a teacher data formant frequency that is a formant frequency of the teacher data, and a formant frequency of an evaluation target person who is a voice speaker received by the voice receiving unit And an evaluation subject formant frequency storage unit storing the evaluation subject formant frequency, wherein the vocal tract length normalization parameter is calculated by “evaluation subject formant frequency / teacher data formant frequency”. The vocal tract length normalization processing unit is "the first sampling frequency x vocal tract length normalization parameter" The arithmetic expression to calculate a second sampling frequency, in the second sampling frequency, the audio of the voice accepting unit accepts, performs sampling processing, a voice processing apparatus for obtaining a second audio data.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声処理ができる。   With this configuration, it is possible to perform highly accurate speech processing according to the speaker characteristics of the evaluation target person.

また、本第三の発明の音声処理装置は、第二の発明に対して、前記第一サンプリング周波数で、前記音声受付部が受け付けた音声をサンプリングし、第一音声データを取得するサンプリング部をさらに具備し、前記声道長正規化処理部は、「前記第一サンプリング周波数×声道長正規化パラメータ」の演算式により、第二サンプリング周波数を算出し、当該第二サンプリング周波数で、前記第一音声データに対して、サンプリング処理を行い、第二音声データを得る音声処理装置である。   The voice processing device according to the third aspect of the invention further includes a sampling unit that samples the voice received by the voice receiving unit at the first sampling frequency and obtains first voice data with respect to the second invention. Further, the vocal tract length normalization processing unit calculates a second sampling frequency by an arithmetic expression of "the first sampling frequency x vocal tract length normalization parameter", and the second sampling frequency is used to calculate the second sampling frequency. The audio processing apparatus performs sampling processing on one audio data to obtain second audio data.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声処理ができる。   With this configuration, it is possible to perform highly accurate speech processing according to the speaker characteristics of the evaluation target person.

また、本第四の発明の音声処理装置は、第一の発明に対して、比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納している教師データ格納部と、前記教師データおよび前記音声受付部が受け付けた音声に基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出部とをさらに具備し、前記声道長正規化パラメータ格納部の声道長正規化パラメータは、前記声道長正規化パラメータ算出部が算出した声道長正規化パラメータである音声処理装置である。   The speech processing apparatus according to the fourth aspect of the present invention stores one or more teacher data, which is data related to the speech to be compared with the first invention, and is data for one or more phonemes. A vocal tract length normalization parameter calculating unit that calculates the vocal tract length normalization parameter based on the teacher data and the voice received by the voice reception unit; The vocal tract length normalization parameter of the normalization parameter storage unit is a voice processing device that is a vocal tract length normalization parameter calculated by the vocal tract length normalization parameter calculation unit.

かかる構成により、動的に評価対象者ごとの声道長正規化パラメータでき、かつ、話者特性に応じた精度の高い音声処理ができる。   With this configuration, it is possible to dynamically perform vocal tract length normalization parameters for each evaluation target person and perform high-accuracy voice processing according to speaker characteristics.

また、本第五の発明の音声処理装置は、第四の発明に対して、前記声道長正規化パラメータ算出部は、音素HMMを指定された発話内容に従って連結した連結HMMである学習音響データを格納している学習音響データ格納手段と、前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、指定された発話内容に従って受け付けた音声の事後確率である占有度数を算出する占有度算出手段と、前記学習音響データおよび前記第三のケプストラムベクトル系列および前記占有度数に基づいて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記占有度算出手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段を具備する音声処理装置である。   Further, the speech processing apparatus according to the fifth aspect of the invention is the learning acoustic data according to the fourth aspect, wherein the vocal tract length normalization parameter calculation unit is a connected HMM in which phoneme HMMs are connected according to the specified utterance content. Learning acoustic data storage means for storing the second cepstrum vector series calculating means for calculating a second cepstrum vector series by short section analysis from the voice received by the voice receiving unit, and the second cepstrum vector Cepstrum transformation means for transforming a sequence using a matrix having cepstrum transformation parameters as elements and calculating a frequency-warped third cepstrum vector sequence, and an occupation that is a posterior probability of speech accepted according to the specified utterance content Occupancy calculation means for calculating frequency, the learning acoustic data and the third cepstrum vector system And a cepstrum conversion parameter calculation unit that calculates a cepstrum conversion parameter based on the occupancy degree, a process in the cepstrum conversion unit, a process in the occupancy calculation unit, and the cepstrum conversion parameter calculation based on a predetermined rule. A final cepstrum conversion parameter acquisition unit that obtains a cepstrum conversion parameter, and a voice for calculating the vocal tract length normalization parameter based on the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit. A speech processing apparatus including a road length normalization parameter calculation unit.

かかる構成により、動的に評価対象者ごとの声道長正規化パラメータでき、かつ、話者特性に応じた精度の高い音声処理ができる。   With this configuration, it is possible to dynamically perform vocal tract length normalization parameters for each evaluation target person and perform high-accuracy voice processing according to speaker characteristics.

また、本第六の発明の音声処理装置は、第四の発明に対して、前記声道長正規化パラメータ算出部は、音素平均ケプストラムベクトルを指定された発話内容に従って並べた音素平均ケプストラムベクトル列である学習音響データを格納している学習音響データ格納手段と、前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、ユーザが発声した発話音声を構成する各フレームに対応する音素を識別する情報の列である音素系列を取得する最適音素系列取得手段と、前記学習音響データおよび前記第三のケプストラムベクトル系列および前記音素系列を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記最適音素系列取得手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段を具備する音声処理装置である。   The speech processing apparatus according to the sixth aspect of the invention provides a phoneme average cepstrum vector sequence in which the vocal tract length normalization parameter calculation unit arranges the phoneme average cepstrum vectors according to the designated utterance content. Learning acoustic data storage means for storing learning acoustic data, second cepstrum vector series calculation means for calculating a second cepstrum vector series by short section analysis from the voice received by the voice receiving unit, The second cepstrum vector sequence is converted by using a matrix having cepstrum conversion parameters as elements, and the cepstrum conversion means for calculating the frequency-warped third cepstrum vector sequence, and each of the speech voices uttered by the user Optimal phoneme sequence to obtain phoneme sequence that is a sequence of information identifying phonemes corresponding to frames Obtaining means, cepstrum conversion parameter calculation means for calculating a cepstrum conversion parameter using the learning acoustic data, the third cepstrum vector series, and the phoneme series, and processing in the cepstrum conversion means based on a predetermined rule And the cepstrum obtained by the final cepstrum conversion parameter acquisition unit and the cepstrum obtained by the final cepstrum conversion parameter acquisition unit by repeating the process in the optimum phoneme sequence acquisition unit and the process in the cepstrum conversion parameter calculation unit. A speech processing apparatus comprising vocal tract length normalization parameter calculation means for calculating the vocal tract length normalization parameter based on a conversion parameter.

かかる構成により、動的に評価対象者ごとの声道長正規化パラメータでき、かつ、話者特性に応じた精度の高い音声処理ができる。   With this configuration, it is possible to dynamically perform vocal tract length normalization parameters for each evaluation target person and perform high-accuracy voice processing according to speaker characteristics.

また、本第七の発明の音声処理装置は、第五、第六の発明に対して、前記声道長正規化パラメータ算出手段は、前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータから線形周波数伸縮比を算出し、当該線形周波数伸縮比から前記声道長正規化パラメータを算出する音声処理装置である。   Further, the speech processing apparatus according to the seventh aspect of the invention is the fifth and sixth aspects of the invention, wherein the vocal tract length normalization parameter calculating means linearly calculates from the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition means. The speech processing apparatus calculates a frequency expansion ratio and calculates the vocal tract length normalization parameter from the linear frequency expansion ratio.

かかる構成により、動的に評価対象者ごとの声道長正規化パラメータでき、かつ、話者特性に応じた、精度の高い音声処理ができる。   With this configuration, the vocal tract length normalization parameter can be dynamically set for each person to be evaluated, and high-accuracy voice processing according to speaker characteristics can be performed.

また、本第八の発明の音声処理装置は、第五、第六の発明に対して、前記声道長正規化パラメータ算出部は、周波数範囲を指定する情報である周波数範囲指定情報を格納している周波数範囲指定情報格納手段をさらに具備し、前記ケプストラム変換パラメータ算出手段は、前記周波数範囲指定情報を用いて、ケプストラム変換パラメータを算出する音声処理装置である。   Further, in the voice processing device of the eighth invention, in contrast to the fifth and sixth inventions, the vocal tract length normalization parameter calculation unit stores frequency range designation information which is information for designating a frequency range. The cepstrum conversion parameter calculation unit is a voice processing device that calculates a cepstrum conversion parameter using the frequency range specification information.

かかる構成により、動的に評価対象者ごとの声道長正規化パラメータでき、かつ、話者特性に応じた、さらに精度の高い音声処理ができる。   With this configuration, the vocal tract length normalization parameter can be dynamically set for each person to be evaluated, and more accurate voice processing can be performed according to speaker characteristics.

また、本第九の発明の音声処理装置は、第一から第八いずれかの発明に対して、前記音声処理部は、前記第二音声データを、フレームに区分するフレーム区分手段と、前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得手段と、前記教師データと前記1以上のフレーム音声データに基づいて、前記音声受付部が受け付けた音声の評定を行う評定手段と、前記評定手段における評定結果を出力する出力手段を具備する音声処理装置である。   Further, according to the ninth aspect of the present invention, in any one of the first to eighth aspects, the sound processing unit includes a frame dividing means for dividing the second audio data into frames, and the classification Frame audio data acquisition means for obtaining one or more frame audio data, which is audio data for each frame, and evaluation of the audio received by the audio reception unit based on the teacher data and the one or more frame audio data A speech processing apparatus comprising a rating means and an output means for outputting a rating result in the rating means.

かかる構成により、話者特性に応じた、さらに精度の高い音声の評定ができる。   With this configuration, it is possible to evaluate speech with higher accuracy according to speaker characteristics.

また、本第十の発明の音声処理装置は、第九の発明に対して、前記評定手段は、前記1以上のフレーム音声データのうちの少なくとも一のフレーム音声データに対する最適状態を決定する最適状態決定手段と、前記最適状態決定手段が決定した最適状態における確率値を取得する最適状態確率値取得手段と、前記最適状態確率値取得手段が取得した確率値をパラメータとして音声の評定値を算出する評定値算出手段を具備する音声処理装置である。   The speech processing apparatus according to the tenth aspect of the present invention is the optimum state for the ninth aspect, wherein the rating means determines an optimum state for at least one frame sound data of the one or more frame sound data. A voice evaluation value is calculated using the determination means, the optimum state probability value acquisition means for acquiring the probability value in the optimum state determined by the optimum state determination means, and the probability value acquired by the optimum state probability value acquisition means as parameters. It is a voice processing device comprising rating value calculation means.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声の評定ができる。   With this configuration, it is possible to evaluate speech with high accuracy according to the speaker characteristics of the evaluation target person.

また、本第十一の発明の音声処理装置は、第九の発明に対して、前記評定手段は、前記1以上のフレーム音声データの最適状態を決定する最適状態決定手段と、前記最適状態決定手段が決定した各フレームの最適状態を有する音韻全体の状態における1以上の確率値を、発音区間毎に取得する発音区間フレーム音韻確率値取得手段と、前記発音区間フレーム音韻確率値取得手段が取得した1以上の発音区間毎の1以上の確率値をパラメータとして音声の評定値を算出する評定値算出手段を具備する音声処理装置である。   The speech processing apparatus according to the eleventh aspect of the present invention is the speech processing apparatus according to the ninth aspect, wherein the rating means includes an optimum state determining means for determining an optimum state of the one or more frame sound data, and the optimum state determination. The pronunciation interval frame phoneme probability value acquisition means for acquiring, for each pronunciation interval, one or more probability values in the overall state of the phoneme having the optimum state of each frame determined by the means, and the pronunciation interval frame phoneme probability value acquisition means The speech processing apparatus includes a rating value calculation unit that calculates a rating value of speech using one or more probability values for each of the one or more pronunciation intervals as a parameter.

かかる構成により、評価対象者の話者特性に応じた、さらに精度の高い音声の評定ができる。   With this configuration, it is possible to evaluate speech with higher accuracy according to the speaker characteristics of the evaluation target person.

また、本第十二の発明の音声処理装置は、第九の発明に対して、前記音声処理部は、前記フレーム毎の入力音声データに基づいて、特殊な音声が入力されたことを検知する特殊音声検知手段をさらに具備し、前記評定手段は、前記教師データと前記入力音声データと前記特殊音声検知手段における検知結果に基づいて、前記音声受付部が受け付けた音声の評定を行う音声処理装置である。   Further, in the speech processing apparatus according to the twelfth aspect of the invention, in contrast to the ninth aspect of the invention, the speech processing unit detects that special speech has been input based on the input speech data for each frame. The voice processing device further comprising special voice detecting means, wherein the rating means evaluates the voice received by the voice receiving unit based on the teacher data, the input voice data, and the detection result in the special voice detecting means. It is.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声の評定ができ、かつ特殊音声を検知し、かかる特殊音声に対応した音声の評定ができる。   With this configuration, it is possible to evaluate speech with high accuracy according to the speaker characteristics of the evaluation subject, detect special speech, and evaluate speech corresponding to the special speech.

また、本第十三の発明の音声処理装置は、第十二の発明に対して、前記特殊音声検知手段は、無音を示すHMMに基づくデータである無音データを格納している無音データ格納手段と、前記入力音声データおよび前記無音データに基づいて、無音の区間を検出する無音区間検出手段を具備する音声処理装置である。   The sound processing apparatus according to the thirteenth aspect of the present invention is directed to the twelfth aspect of the invention, wherein the special sound detection means is a silence data storage means for storing silence data which is data based on HMM indicating silence. And a silent processing unit comprising a silent section detecting means for detecting a silent section based on the input voice data and the silent data.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声の評定ができ、かつ無音区間を検知し、かかる無音区間に対応した音声の評定ができる。   With such a configuration, it is possible to evaluate speech with high accuracy according to the speaker characteristics of the evaluation target person, detect a silent section, and evaluate speech corresponding to the silent section.

また、本第十四の発明の音声処理装置は、第十二の発明に対して、前記特殊音声検知手段は、一の音素の後半部および当該音素の次の音素の前半部の評定値が所定の条件を満たすことを検知し、前記評定手段は、前記特殊音声検知手段が前記所定の条件を満たすことを検知した場合に、少なくとも音素の挿入があった旨を示す評定結果を構成する音声処理装置である。   The speech processing apparatus according to the fourteenth aspect of the invention relates to the twelfth aspect of the invention, wherein the special speech detecting means has a rating value of the second half of one phoneme and the first half of the next phoneme. A voice that constitutes a rating result indicating that at least a phoneme has been inserted when the special voice detecting means detects that the predetermined voice condition has been detected. It is a processing device.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声の評定ができ、かつ音素の挿入を検知し、かかる音素の挿入に対応した音声の評定ができる。   With this configuration, it is possible to evaluate speech with high accuracy according to the speaker characteristics of the evaluation target person, detect insertion of phonemes, and evaluate speech corresponding to insertion of such phonemes.

また、本第十五の発明の音声処理装置は、第十二の発明に対して、前記特殊音声検知手段は、一の音素の評定値が所定の条件を満たすことを検知し、前記評定手段は、前記特殊音声検知手段が前記所定の条件を満たすことを検知した場合に、少なくとも音素の置換または欠落があった旨を示す評定結果を構成する音声処理装置である。   Further, in the voice processing apparatus of the fifteenth aspect of the invention, in contrast to the twelfth aspect of the invention, the special voice detecting means detects that a rating value of one phoneme satisfies a predetermined condition, and the rating means Is a speech processing device that constitutes an evaluation result indicating that at least a phoneme has been replaced or missing when the special speech detection means detects that the predetermined condition is satisfied.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声の評定ができ、かつ音素の置換または欠落を検知し、かかる音素の置換または欠落に対応した音声の評定ができる。   With this configuration, it is possible to evaluate speech with high accuracy according to the speaker characteristics of the evaluation subject, detect phoneme replacement or omission, and evaluate speech corresponding to such phoneme substitution or omission.

また、本第十六の発明の音声処理装置は、第一から第十五いずれかの発明に対して、前記音声処理装置は、カラオケ評価装置であって、前記音声受付部は、評価対象者の歌声の入力を受け付け、前記音声処理部は、前記歌声を評価する音声処理装置である。   Further, in the sixteenth aspect of the present invention, in contrast to any one of the first to fifteenth aspects, the voice processing device is a karaoke evaluation device, and the voice reception unit is an evaluation subject. The voice processing unit is a voice processing device that evaluates the singing voice.

かかる構成により、優れたカラオケ評価装置として利用できる。   With this configuration, it can be used as an excellent karaoke evaluation apparatus.

また、本第十七の発明の音声処理装置は、第十六の発明に対して、前記音声受付部は、所定の母音の音声を受け付けた後、評価対象者の歌声の入力を受け付け、前記サンプリング部は、前記第一サンプリング周波数で、前記母音の音声をもサンプリングし、前記サンプリングした母音の音声に基づいて、評価対象者のフォルマント周波数である評価対象者フォルマント周波数を取得する評価対象者フォルマント周波数取得部をさらに具備し、前記評価対象者フォルマント周波数格納部の評価対象者フォルマント周波数は、前記評価対象者フォルマント周波数取得部が取得した評価対象者フォルマント周波数である音声処理装置である。   Further, in the seventeenth aspect of the present invention, in the sixteenth aspect of the invention, the sound receiving unit receives the input of the singing voice of the evaluation subject after receiving the sound of a predetermined vowel, The sampling unit also samples the voice of the vowel at the first sampling frequency, and obtains an evaluation target formant frequency that is an evaluation target formant frequency based on the sampled vowel voice. The speech processing apparatus further includes a frequency acquisition unit, and the evaluation subject formant frequency of the evaluation subject formant frequency storage unit is the evaluation subject formant frequency acquired by the evaluation subject formant frequency acquisition unit.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声の評定ができる。   With this configuration, it is possible to evaluate speech with high accuracy according to the speaker characteristics of the evaluation target person.

また、本第十八の発明の音声処理装置は、第一から第八いずれかの発明に対して、前記音声処理部は、前記第二音声データに基づいて、音声認識処理を行う音声処理装置である。   In the eighteenth aspect of the present invention, the voice processing device according to any of the first to eighth aspects, wherein the voice processing unit performs a voice recognition process based on the second voice data. It is.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声認識ができる。   With this configuration, it is possible to perform highly accurate speech recognition according to the speaker characteristics of the evaluation target person.

また、本第十九の発明は、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部を具備するデジタルシグナルプロセッサである。   In addition, the nineteenth aspect of the present invention provides a first sampling frequency storage unit that stores a first sampling frequency, and a vocal tract length that stores a vocal tract length normalization parameter that is information related to a conversion rate of the sampling frequency. A normalization parameter storage unit, and a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters, perform a sampling process on the voice received by the voice reception unit, It is a digital signal processor including a vocal tract length normalization processing unit that obtains two voice data.

かかる構成により、評価対象者の話者特性に応じた精度の高い音声処理ができるDSPを提供できる。   With this configuration, it is possible to provide a DSP that can perform highly accurate voice processing according to the speaker characteristics of the evaluation target person.

本発明による音声処理装置によれば、評価対象者の話者特性に応じた精度の高い音声処理ができる。   According to the speech processing device of the present invention, speech processing with high accuracy according to the speaker characteristics of the evaluation subject can be performed.

以下、音声処理装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
(実施の形態1)
Hereinafter, embodiments of a speech processing apparatus and the like will be described with reference to the drawings. In addition, since the component which attached | subjected the same code | symbol in embodiment performs the same operation | movement, description may be abbreviate | omitted again.
(Embodiment 1)

本実施の形態において、比較対象の音声と入力音声の類似度の評定を精度高く、かつ高速にできる音声処理装置について説明する。本音声処理装置は、音声(歌唱を含む)を評価する発音評定装置である。特に、本音声処理装置は、入力音声のフレームに対する最適状態の事後確率を、動的計画法を用いて算出することから、当該事後確率をDAP(Dynamic A Posteriori Probability)と呼び、DAPに基づく類似度計算法および発音評定装置をDAPSと呼ぶ。   In the present embodiment, a description will be given of a speech processing apparatus that can evaluate the similarity between the comparison target speech and the input speech with high accuracy and high speed. This speech processing device is a pronunciation rating device that evaluates speech (including singing). In particular, since the speech processing apparatus calculates the posterior probability of the optimum state with respect to the frame of the input speech using dynamic programming, the posterior probability is called DAP (Dynamic A Positive Probability) and is based on DAP. The degree calculation method and pronunciation rating device are called DAPS.

また、本実施の形態における音声処理装置は、例えば、語学学習や物真似練習やカラオケ評定などに利用できる。図1は、本実施の形態における音声処理装置のブロック図である。本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、教師データフォルマント周波数格納部104、第一サンプリング周波数格納部105、サンプリング部106、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108、声道長正規化処理部109、音声処理部110を具備する。   In addition, the speech processing apparatus according to the present embodiment can be used for language learning, imitation practice, karaoke evaluation, and the like. FIG. 1 is a block diagram of a speech processing apparatus according to this embodiment. The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a teacher data formant frequency storage unit 104, a first sampling frequency storage unit 105, a sampling unit 106, and an evaluation target person formant frequency acquisition unit 107. , An evaluation subject formant frequency storage unit 108, a vocal tract length normalization processing unit 109, and a speech processing unit 110.

音声処理部110は、フレーム区分手段1101、フレーム音声データ取得手段1102、評定手段1103、出力手段1104を具備する。   The audio processing unit 110 includes a frame classification unit 1101, a frame audio data acquisition unit 1102, a rating unit 1103, and an output unit 1104.

評定手段1103は、最適状態決定手段11031、最適状態確率値取得手段11032、評定値算出手段11033を具備する。   The rating unit 1103 includes an optimum state determination unit 11031, an optimum state probability value acquisition unit 11032, and a rating value calculation unit 11033.

なお、音声処理装置は、キーボード342、マウス343などの入力手段からの入力を受け付ける。また、音声処理装置は、マイク345などの音声入力手段から音声入力を受け付ける。さらに、音声処理装置は、ディスプレイ344などの出力デバイスに情報を出力する。   Note that the voice processing apparatus accepts input from input means such as a keyboard 342 and a mouse 343. The voice processing apparatus accepts voice input from voice input means such as a microphone 345. Further, the sound processing apparatus outputs information to an output device such as the display 344.

入力受付部101は、音声処理装置の動作開始を指示する動作開始指示や、入力した音声の評定結果の出力態様の変更を指示する出力態様変更指示や、処理を終了する終了指示などの入力を受け付ける。かかる指示等の入力手段は、テンキーやキーボードやマウスやメニュー画面によるもの等、何でも良い。入力受付部101は、テンキーやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。   The input receiving unit 101 inputs an operation start instruction for instructing an operation start of the speech processing apparatus, an output mode change instruction for instructing an output mode change of the input speech evaluation result, an end instruction for ending the process, and the like. Accept. The input means for such an instruction may be anything such as a numeric keypad, keyboard, mouse or menu screen. The input receiving unit 101 can be realized by a device driver for input means such as a numeric keypad and a keyboard, control software for a menu screen, and the like.

教師データ格納部102は、教師データとして比較される対象の音声に関するデータであり、音韻毎の隠れマルコフモデル(HMM)に基づくデータを1以上格納している。教師データは、音韻毎の隠れマルコフモデル(HMM)を連結したHMMに基づくデータであることが好適である。また、教師データは、入力される音声を構成する音素に対応するHMMを、入力順序に従って連結されているHMMに基づくデータであることが好適である。ただし、教師データは、必ずしも、音韻毎のHMMを連結したHMMに基づくデータである必要はない。教師データは、全音素のHMMの、単なる集合であっても良い。また、教師データは、必ずしもHMMに基づくデータである必要はない。教師データは、単一ガウス分布モデルや、確率モデル(GMM:ガウシャンミクスチャモデル)や、統計モデルなど、他のモデルに基づくデータでも良い。HMMに基づくデータは、例えば、フレーム毎に、状態識別子と遷移確率の情報を有する。また、HMMに基づくデータは、例えば、複数の学習対象言語を母国語として話す外国人が発声した2以上のデータから学習した(推定した)モデルでも良い。教師データ格納部102は、ハードディスクやROMなどの不揮発性の記録媒体が好適であるが、RAMなどの揮発性の記録媒体でも実現可能である。   The teacher data storage unit 102 is data relating to a target voice to be compared as teacher data, and stores one or more data based on a hidden Markov model (HMM) for each phoneme. The teacher data is preferably HMM-based data obtained by connecting hidden Markov models (HMM) for each phoneme. In addition, the teacher data is preferably data based on an HMM in which HMMs corresponding to phonemes constituting input speech are linked in accordance with the input order. However, the teacher data does not necessarily need to be data based on the HMM obtained by connecting the HMMs for each phoneme. The teacher data may be a simple set of all phoneme HMMs. The teacher data does not necessarily need to be data based on the HMM. The teacher data may be data based on other models such as a single Gaussian distribution model, a probability model (GMM: Gaussian mixture model), and a statistical model. The data based on the HMM has, for example, a state identifier and transition probability information for each frame. The data based on the HMM may be, for example, a model learned (estimated) from two or more data uttered by a foreigner who speaks a plurality of learning target languages as a native language. The teacher data storage unit 102 is preferably a non-volatile recording medium such as a hard disk or a ROM, but can also be realized by a volatile recording medium such as a RAM.

音声受付部103は、音声を受け付ける。音声受付部103は、例えば、マイク345のドライバーソフトで実現され得る。また、なお、音声受付部103は、マイク345とそのドライバーから実現されると考えても良い。音声は、マイク345から入力されても良いし、磁気テープやCD−ROMなどの記録媒体から読み出すことにより入力されても良い。   The voice reception unit 103 receives voice. The voice reception unit 103 can be realized by, for example, driver software for the microphone 345. In addition, it may be considered that the voice reception unit 103 is realized by the microphone 345 and its driver. The sound may be input from the microphone 345 or may be input by reading from a recording medium such as a magnetic tape or a CD-ROM.

教師データフォルマント周波数格納部104は、教師データのフォルマント周波数である教師データフォルマント周波数を格納している。教師データフォルマント周波数は、第一フォルマント周波数(F1)でも、第二フォルマント周波数(F2)でも、第三フォルマント周波数(F3)等でも良い。教師データフォルマント周波数格納部104の教師データフォルマント周波数は、予め格納されていても良いし、評価時に、動的に、教師データから取得しても良い。音声データからフォルマント周波数を取得する技術は、公知技術であるので説明を省略する。教師データフォルマント周波数格納部104は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   The teacher data formant frequency storage unit 104 stores a teacher data formant frequency that is a formant frequency of teacher data. The teacher data formant frequency may be the first formant frequency (F1), the second formant frequency (F2), the third formant frequency (F3), or the like. The teacher data formant frequency in the teacher data formant frequency storage unit 104 may be stored in advance, or may be dynamically acquired from the teacher data at the time of evaluation. Since a technique for obtaining a formant frequency from audio data is a known technique, a description thereof will be omitted. The teacher data formant frequency storage unit 104 is preferably a nonvolatile recording medium, but can also be realized by a volatile recording medium.

第一サンプリング周波数格納部105は、第一のサンプリング周波数である第一サンプリング周波数を格納している。第一サンプリング周波数は、評価対象者の音声を、最初にサンプリングする場合のサンプリング周波数である。第一サンプリング周波数格納部105は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   The first sampling frequency storage unit 105 stores a first sampling frequency that is a first sampling frequency. The first sampling frequency is a sampling frequency when the voice of the evaluation subject is first sampled. The first sampling frequency storage unit 105 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

サンプリング部106は、第一サンプリング周波数格納部105の第一サンプリング周波数で、音声受付部103が受け付けた音声をサンプリングし、第一音声データを取得する。なお、受け付けた音声をサンプリングする技術は公知技術であるので、詳細な説明を省略する。サンプリング部106は、通常、MPUやメモリ等から実現され得る。サンプリング部106の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The sampling unit 106 samples the sound received by the sound receiving unit 103 at the first sampling frequency of the first sampling frequency storage unit 105 and acquires first sound data. Since the technique for sampling the received voice is a known technique, detailed description thereof is omitted. The sampling unit 106 can be usually realized by an MPU, a memory, or the like. The processing procedure of the sampling unit 106 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評価対象者フォルマント周波数取得部107は、サンプリング部106が取得した第一音声データから、評価対象者のフォルマント周波数である評価対象者フォルマント周波数を取得する。評価対象者フォルマント周波数も、第一フォルマント周波数(F1)でも、第二フォルマント周波数(F2)でも、第三フォルマント周波数(F3)でも良い。ただし、評価対象者フォルマント周波数と教師データフォルマント周波数は同一種のフォルマント周波数である。サンプリングして取得した第一音声データから、フォルマント周波数を取得する技術は公知技術であるので、詳細な説明を省略する。評価対象者フォルマント周波数取得部107は、通常、MPUやメモリ等から実現され得る。評価対象者フォルマント周波数取得部107の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The evaluation target person formant frequency acquisition unit 107 acquires the evaluation target person formant frequency, which is the formant frequency of the evaluation target person, from the first sound data acquired by the sampling unit 106. The formant frequency to be evaluated may also be the first formant frequency (F1), the second formant frequency (F2), or the third formant frequency (F3). However, the evaluation subject formant frequency and the teacher data formant frequency are the same type of formant frequency. Since the technique for acquiring the formant frequency from the first audio data obtained by sampling is a known technique, detailed description thereof is omitted. The evaluation subject formant frequency acquisition unit 107 can be usually realized by an MPU, a memory, or the like. The processing procedure of the evaluation subject formant frequency acquisition unit 107 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評価対象者フォルマント周波数格納部108は、音声受付部103が受け付けた音声の話者である評価対象者のフォルマント周波数である評価対象者フォルマント周波数を、少なくとも一時的に格納している。評価対象者フォルマント周波数格納部108の評価対象者フォルマント周波数は、通常、評価対象者フォルマント周波数取得部107が取得したフォルマント周波数であるが、予め評価対象者フォルマント周波数を格納していても良い。評価対象者フォルマント周波数格納部108に、予め評価対象者フォルマント周波数が格納されている場合、本音声処理装置において、評価対象者フォルマント周波数取得部107は不要である。評価対象者フォルマント周波数格納部108は、不揮発性の記録媒体でも、揮発性の記録媒体でも良い。   The evaluation subject formant frequency storage unit 108 stores at least temporarily the evaluation subject formant frequency, which is the formant frequency of the evaluation subject who is the speaker of the voice received by the voice receiving unit 103. The evaluation subject formant frequency in the evaluation subject formant frequency storage unit 108 is usually the formant frequency acquired by the evaluation subject formant frequency acquisition unit 107, but the evaluation subject formant frequency may be stored in advance. When the evaluation subject formant frequency is stored in advance in the evaluation subject formant frequency storage unit 108, the evaluation subject formant frequency acquisition unit 107 is not required in the speech processing apparatus. The evaluation subject formant frequency storage unit 108 may be a non-volatile recording medium or a volatile recording medium.

声道長正規化処理部109は、第二サンプリング周波数で、音声受付部103が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る。第二サンプリング周波数は、「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で算出されるサンプリング周波数である。声道長正規化処理部109は、音声受付部103が受け付けた音声をサンプリング処理して得られた第一音声データを、リサンプリング処理して第二音声データを得ることが好適であるが、音声受付部103が受け付けた音声をサンプリング処理し、直接的に第二音声データを得ても良い。直接的に第二音声データを得る場合、例えば、サンプリング処理を行うハードウェアが可変のサンプリング周波数でサンプリング処理を行えることが必要である。声道長正規化処理部109は、通常、演算「教師データフォルマント周波数/評価対象者フォルマント周波数」を行い、周波数軸変換率(「r」とする)を得る。そして、声道長正規化処理部109は、第一サンプリング周波数格納部105の第一サンプリング周波数(Fs)と「r」に基づいて、演算「Fs/r」を行い、新しいサンプリング周波数(Fs/r)を得る。この新しいサンプリング周波数(Fs/r)が第二サンプリング周波数である。次に、声道長正規化処理部109は、第一音声データに対して、第二サンプリング周波数(Fs/r)で、リサンプリング処理を行い、第二音声データを得る。声道長正規化処理部109は、通常、MPUやメモリ等から実現され得る。声道長正規化処理部109の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、周波数軸変換率「r」の逆数「1/r」は、後述する声道長パラメータである、と言える。また、声道長パラメータは、声道長の正規化のためのパラメータであるので、周波数軸変換率「r」を声道長パラメータと考えても良い。   The vocal tract length normalization processing unit 109 performs sampling processing on the voice received by the voice receiving unit 103 at the second sampling frequency to obtain second voice data. The second sampling frequency is a sampling frequency calculated by “first sampling frequency / (teacher data formant frequency / evaluator formant frequency)”. The vocal tract length normalization processing unit 109 preferably resamples the first audio data obtained by sampling the audio received by the audio receiving unit 103 to obtain second audio data. The audio received by the audio receiving unit 103 may be sampled to obtain second audio data directly. When the second audio data is obtained directly, for example, it is necessary that the hardware that performs the sampling process can perform the sampling process at a variable sampling frequency. The vocal tract length normalization processing unit 109 normally performs an operation “teacher data formant frequency / evaluator formant frequency” to obtain a frequency axis conversion rate (“r”). Then, the vocal tract length normalization processing unit 109 performs an operation “Fs / r” based on the first sampling frequency (Fs) and “r” of the first sampling frequency storage unit 105 to obtain a new sampling frequency (Fs / r) is obtained. This new sampling frequency (Fs / r) is the second sampling frequency. Next, the vocal tract length normalization processing unit 109 performs resampling processing on the first sound data at the second sampling frequency (Fs / r) to obtain second sound data. The vocal tract length normalization processing unit 109 can usually be realized by an MPU, a memory, or the like. The processing procedure of the vocal tract length normalization processing unit 109 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit). It can be said that the reciprocal “1 / r” of the frequency axis conversion rate “r” is a vocal tract length parameter described later. Further, since the vocal tract length parameter is a parameter for normalizing the vocal tract length, the frequency axis conversion rate “r” may be considered as the vocal tract length parameter.

音声処理部110は、第二音声データを処理する。音声処理部110は、ここでは、評定処理である。ただし、音声処理部110は、音声認識や音声出力などの他の音声処理を行っても良い。音声出力は、単に、リサンプリング処理された音声を出力する処理である。なお、本実施の形態において、音声処理部110は、評定処理を行うものとして、説明する。音声処理部110は、通常、MPUやメモリ等から実現され得る。音声処理部110の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The audio processing unit 110 processes the second audio data. Here, the voice processing unit 110 is a rating process. However, the voice processing unit 110 may perform other voice processing such as voice recognition and voice output. The audio output is simply a process of outputting the resampled audio. In the present embodiment, the audio processing unit 110 will be described as performing a rating process. The audio processing unit 110 can usually be realized by an MPU, a memory, or the like. The processing procedure of the audio processing unit 110 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

音声処理部110を構成しているフレーム区分手段1101は、第二音声データを、フレームに区分する。フレーム区分手段1101は、通常、MPUやメモリ等から実現され得る。フレーム区分手段1101の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   Frame classification means 1101 constituting the audio processing unit 110 divides the second audio data into frames. The frame partitioning means 1101 can usually be realized by an MPU, a memory, or the like. The processing procedure of the frame sorting unit 1101 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

音声処理部110を構成しているフレーム音声データ取得手段1102は、区分されたフレーム毎の音声データであるフレーム音声データを1以上得る。フレーム音声データ取得手段1102は、通常、MPUやメモリ等から実現され得る。フレーム音声データ取得手段1102の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The frame sound data acquisition means 1102 constituting the sound processing unit 110 obtains one or more frame sound data which is sound data for each divided frame. The frame audio data acquisition unit 1102 can be usually realized by an MPU, a memory, or the like. The processing procedure of the frame audio data acquisition unit 1102 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

音声処理部110を構成している評定手段1103は、教師データ格納部102の教師データと1以上のフレーム音声データに基づいて、音声受付部103が受け付けた音声の評定を行う。評定方法の具体例は、後述する。「音声受付部103が受け付けた音声を評定する」の概念には、第二音声データを評定することも含まれることは言うまでもない。評定手段1103は、通常、MPUやメモリ等から実現され得る。評定手段1103の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The rating means 1103 constituting the voice processing unit 110 evaluates the voice received by the voice receiving unit 103 based on the teacher data in the teacher data storage unit 102 and one or more frame voice data. A specific example of the rating method will be described later. Needless to say, the concept of “rating the voice received by the voice receiving unit 103” includes rating the second voice data. The rating means 1103 can usually be realized by an MPU, a memory, or the like. The processing procedure of the rating means 1103 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評定手段1103を構成している最適状態決定手段11031は、1以上のフレーム音声データのうちの少なくとも一のフレーム音声データに対する最適状態を決定する。最適状態決定手段11031は、例えば、全音韻HMMから、比較される対象(学習対象)の単語や文章などの音声を構成する1以上の音素に対応するHMMを取得し、当該取得した1以上のHMMから、音素の順序で連結したデータ(比較される対象の音声に関するデータであり、音韻毎の隠れマルコフモデルを連結したHMMに基づくデータ)を構成する。そして、構成した当該データ、および取得した特徴ベクトル系列を構成する各特徴ベクトルoに基づいて、所定のフレームの最適状態(特徴ベクトルoに対する最適状態)を決定する。なお、最適状態を決定するアルゴリズムは、例えば、Viterbiアルゴリズムである。また、教師データは、上述の比較される対象の音声に関するデータであり、音韻毎の隠れマルコフモデルを連結したHMMに基づくデータと考えても良いし、連結される前のデータであり、全音韻HMMのデータと考えても良い。 Optimal state determination means 11031 constituting the rating means 1103 determines an optimal state for at least one frame sound data of one or more frame sound data. The optimum state determination unit 11031 acquires, for example, an HMM corresponding to one or more phonemes constituting speech such as words and sentences to be compared (learning target) from the whole phoneme HMM, and the acquired one or more From the HMM, data concatenated in the order of phonemes (data related to the speech to be compared and data based on the HMM concatenating hidden Markov models for each phoneme) is constructed. Then, based on each feature vector o t constituting constituting the relevant data, and the obtained feature vector series, to determine the optimal conditions for a given frame (optimum condition for the feature vector o t). The algorithm for determining the optimum state is, for example, the Viterbi algorithm. In addition, the teacher data is data relating to the above-described target speech to be compared, and may be considered as data based on HMM obtained by concatenating hidden Markov models for each phoneme. It may be considered as HMM data.

評定手段1103を構成している最適状態確率値取得手段11032は、最適状態決定手段11031が決定した最適状態における確率値を取得する。   The optimum state probability value acquisition unit 11032 constituting the rating unit 1103 acquires the probability value in the optimum state determined by the optimum state determination unit 11031.

評定手段1103を構成している評定値算出手段11033は、最適状態確率値取得手段11032が取得した確率値をパラメータとして音声の評定値を算出する。評定値算出手段11033は、上記確率値を如何に利用して、評定値を算出するかは問わない。評定値算出手段11033は、例えば、最適状態確率値取得手段11032が取得した確率値と、当該確率値に対応するフレームの全状態における確率値の総和をパラメータとして音声の評定値を算出する。評定値算出手段11033は、ここでは、通常、フレームごとに評定値を算出する。   The rating value calculating means 11033 constituting the rating means 1103 calculates the voice rating value using the probability value acquired by the optimum state probability value acquiring means 11032 as a parameter. It does not matter how the rating value calculation means 11033 uses the probability value to calculate the rating value. The rating value calculation unit 11033 calculates a voice rating value using, for example, the sum of the probability value acquired by the optimum state probability value acquisition unit 11032 and the probability value in all states of the frame corresponding to the probability value as a parameter. Here, the rating value calculation means 11033 normally calculates a rating value for each frame.

最適状態決定手段11031、最適状態確率値取得手段11032、評定値算出手段11033は、通常、MPUやメモリ等から実現され得る。最適状態決定手段11031等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The optimum state determination unit 11031, the optimum state probability value acquisition unit 11032, and the rating value calculation unit 11033 can be usually realized by an MPU, a memory, or the like. The processing procedure of the optimum state determining unit 11031 and the like is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力手段1104は、評定手段1103における評定結果を出力する。出力手段1104の出力態様は、種々考えられる。出力とは、ディスプレイへの表示、プリンタへの印字、音出力、外部の装置への送信、記録媒体への蓄積等を含む概念である。出力手段1104は、例えば、評定結果を視覚的に表示する。出力手段1104は、例えば、フレーム単位、または/および音素・単語単位、または/および発声全体の評定結果を視覚的に表示する。出力手段1104は、ディスプレイ344やスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力手段1104は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   The output unit 1104 outputs the rating result from the rating unit 1103. Various output modes of the output means 1104 can be considered. Output is a concept that includes display on a display, printing on a printer, sound output, transmission to an external device, storage in a recording medium, and the like. The output unit 1104 visually displays the evaluation result, for example. The output unit 1104 visually displays, for example, the evaluation result of the frame unit, or / and the phoneme / word unit, or / and the entire utterance. The output unit 1104 may or may not include an output device such as the display 344 or a speaker. The output unit 1104 can be realized by driver software for an output device or driver software for an output device and an output device.

次に、本音声処理装置の動作について図2、図3のフローチャートを用いて説明する。   Next, the operation of the speech processing apparatus will be described with reference to the flowcharts of FIGS.

(ステップS201)入力受付部101は、音声処理装置の動作開始を指示する動作開始指示を受け付けたか否かを判断する。動作開始指示を受け付ければステップS202に行き、動作開始指示を受け付けなければステップS217に飛ぶ。   (Step S201) The input reception unit 101 determines whether an operation start instruction for instructing the operation start of the speech processing apparatus has been received. If the operation start instruction is accepted, the process goes to step S202, and if the operation start instruction is not accepted, the process jumps to step S217.

(ステップS202)音声受付部103は、音声を受け付けたか否かを判断する。音声を受け付ければステップS203に行き、音声を受け付けなければステップS216に飛ぶ。   (Step S202) The voice receiving unit 103 determines whether a voice is received. If a voice is accepted, the process goes to step S203, and if no voice is accepted, the process jumps to step S216.

(ステップS203)サンプリング部106は、第一サンプリング周波数格納部105に格納されている第一サンプリング周波数を読み込み、当該第一サンプリング周波数で、音声受付部103が受け付けた音声をサンプリングし、第一音声データを得る。   (Step S203) The sampling unit 106 reads the first sampling frequency stored in the first sampling frequency storage unit 105, samples the audio received by the audio receiving unit 103 at the first sampling frequency, and outputs the first audio. Get the data.

(ステップS204)声道長正規化処理部109は、音声受付部103が受け付けた音声から、第二音声データを得る。かかる第二音声データを得る処理である声道長正規化処理の詳細については、図3のフローチャートを用いて、詳細に説明する。なお、声道長正規化処理は、個人差を吸収する評定のための前処理である。   (Step S204) The vocal tract length normalization processing unit 109 obtains second voice data from the voice received by the voice receiving unit 103. Details of the vocal tract length normalization process, which is a process for obtaining such second audio data, will be described in detail with reference to the flowchart of FIG. The vocal tract length normalization process is a pre-process for rating that absorbs individual differences.

(ステップS205)フレーム区分手段1101は、ステップS204で得た第二音声データを図示しないバッファに一時格納する。   (Step S205) The frame sorting unit 1101 temporarily stores the second audio data obtained in Step S204 in a buffer (not shown).

(ステップS206)フレーム区分手段1101は、バッファに一時格納した第二音声データをフレームに区分する。かかる段階で、区分されたフレーム毎の音声データであるフレーム音声データが構成されている。フレーム区分手段1101が行うフレーム分割の処理は、例えば、フレーム音声データ取得手段1102がフレーム音声データを取り出す際の前処理であり、入力された音声のデータを、すべてのフレームに一度に分割するとは限らない。   (Step S206) The frame segmentation means 1101 segments the second audio data temporarily stored in the buffer into frames. At this stage, frame audio data which is audio data for each divided frame is configured. The frame division processing performed by the frame classification unit 1101 is, for example, preprocessing when the frame audio data acquisition unit 1102 extracts frame audio data, and the input audio data is divided into all frames at once. Not exclusively.

(ステップS207)フレーム音声データ取得手段1102は、カウンタiに1を代入する。   (Step S207) The frame audio data acquisition means 1102 substitutes 1 for the counter i.

(ステップS208)フレーム音声データ取得手段1102は、i番目のフレームが存在するか否かを判断する。i番目のフレームが存在すればステップS209に行き、i番目のフレームが存在しなければステップS211に行く。   (Step S208) The frame audio data acquisition unit 1102 determines whether or not the i-th frame exists. If the i-th frame exists, the process goes to step S209. If the i-th frame does not exist, the process goes to step S211.

(ステップS209)フレーム音声データ取得手段1102は、i番目のフレーム音声データを取得する。フレーム音声データの取得とは、例えば、当該分割された音声データを音声分析し、特徴ベクトルデータを抽出することである。なお、フレーム音声データは、例えば、入力された音声データをフレーム分割されたデータである。また、フレーム音声データは、例えば、当該分割された音声データから音声分析され、抽出された特徴ベクトルデータを有する。本特徴ベクトルデータは、例えば、三角型フィルタを用いたチャネル数24のフィルタバンク出力を離散コサイン変換したMFCCであり、その静的パラメータ、デルタパラメータおよびデルタデルタパラメータをそれぞれ12次元、さらに正規化されたパワーとデルタパワーおよびデルタデルタパワー(39次元)を有する。   (Step S209) The frame sound data acquisition unit 1102 acquires the i-th frame sound data. The acquisition of the frame sound data means, for example, performing sound analysis on the divided sound data and extracting feature vector data. Note that the frame audio data is, for example, data obtained by dividing the input audio data into frames. The frame audio data includes, for example, feature vector data extracted from the divided audio data by audio analysis. This feature vector data is, for example, MFCC obtained by discrete cosine transform of a filter bank output of 24 channels using a triangular filter, and the static parameter, delta parameter, and delta delta parameter are further normalized to 12 dimensions, respectively. Power and delta power and delta delta power (39th dimension).

(ステップS210)フレーム音声データ取得手段1102は、カウンタiを1、インクリメントする。ステップS208に戻る。   (Step S210) The frame audio data acquisition unit 1102 increments the counter i by 1. The process returns to step S208.

(ステップS211)最適状態決定手段11031は、全フレームの最適状態を決定する。最適状態決定手段11031が最適状態を決定するアルゴリズムは、例えば、Viterbiアルゴリズムによる。Viterbiアルゴリズムは、公知のアルゴリズムであるので、詳細な説明は省略する。   (Step S211) Optimal state determination means 11031 determines the optimal state of all frames. The algorithm for determining the optimum state by the optimum state determining unit 11031 is, for example, the Viterbi algorithm. Since the Viterbi algorithm is a known algorithm, detailed description thereof is omitted.

(ステップS212)最適状態確率値取得手段11032は、全フレームの全状態の前向き尤度、および後向き尤度を算出する。最適状態確率値取得手段11032は、例えば、全てのHMMを用いて、フォワード・バックワードアルゴリズムにより、前向き尤度、および後向き尤度を算出する。   (Step S212) The optimum state probability value acquisition unit 11032 calculates the forward likelihood and the backward likelihood of all states of all frames. For example, the optimal state probability value acquisition unit 11032 calculates the forward likelihood and the backward likelihood by the forward / backward algorithm using all the HMMs.

(ステップS213)最適状態確率値取得手段11032は、ステップS212で取得した前向き尤度、および後向き尤度を用いて、最適状態の確率値(最適状態確率値)を、すべて算出する。   (Step S213) The optimal state probability value acquisition unit 11032 calculates all of the optimal state probability values (optimal state probability values) using the forward likelihood and the backward likelihood acquired in step S212.

(ステップS214)評定値算出手段11033は、ステップS213で算出した1以上の最適状態確率値から、1以上のフレームの音声の評定値を算出する。評定値算出手段11033が評定値を算出する関数は問わない。評定値算出手段11033は、例えば、取得した最適状態確率値と、当該最適状態確率値に対応するフレームの全状態における確率値の総和をパラメータとして音声の評定値を算出する。詳細については、後述する。   (Step S214) The rating value calculation means 11033 calculates the rating value of one or more frames of speech from the one or more optimal state probability values calculated in step S213. The function for calculating the rating value by the rating value calculating means 11033 is not specified. The rating value calculation unit 11033 calculates a speech rating value using, for example, the sum of the acquired optimum state probability value and the probability value in all states of the frame corresponding to the optimum state probability value as a parameter. Details will be described later.

(ステップS215)出力手段1104は、ステップS214における評定結果(ここでは、音声の評定値)を、設定されている出力モードに従って、出力する。ステップS202に戻る。出力モードとは、評定値を数値で画面に表示するモード、評定値の遷移をグラフで画面に表示するモード、評定値を音声で出力するモード、評定値が所定の数値より低い場合に警告を示す情報を表示するモードなど、何でも良い。なお、ここでの出力モードは、ステップS218で設定されるモードである。   (Step S215) The output unit 1104 outputs the rating result (here, the voice rating value) in step S214 according to the set output mode. The process returns to step S202. The output mode is a mode in which the rating value is displayed on the screen as a numerical value, a mode in which the transition of the rating value is displayed on the screen as a graph, a mode in which the rating value is output by voice, and a warning when the rating value is lower than the predetermined value Any mode may be used, such as a mode for displaying information to be shown. The output mode here is a mode set in step S218.

(ステップS216)音声受付部103は、タイムアウトか否かを判断する。つまり、音声受付部103は、所定の時間以上、音声の入力を受け付けなかったか否かを判断する。タイムアウトであればステップS201に戻り、タイムアウトでなければステップS202に戻る。   (Step S216) The voice reception unit 103 determines whether or not a timeout has occurred. That is, the voice receiving unit 103 determines whether or not a voice input has been received for a predetermined time or more. If timed out, the process returns to step S201, and if not timed out, the process returns to step S202.

(ステップS217)入力受付部101は、出力態様変更指示を受け付けたか否かを判断する。出力態様変更指示を受け付ければステップS218に行き、出力態様変更指示を受け付なければステップS219に飛ぶ。出力態様変更指示は、上述した出力モードを有する情報である。   (Step S217) The input receiving unit 101 determines whether an output mode change instruction has been received. If an output mode change instruction is accepted, the process proceeds to step S218, and if no output mode change instruction is received, the process jumps to step S219. The output mode change instruction is information having the output mode described above.

(ステップS218)出力手段1104は、ステップS217で受け付けた出力態様変更指示が有する出力モードを示す情報を書き込み、出力モードを設定する。ステップS201に戻る。   (Step S218) The output unit 1104 writes information indicating the output mode included in the output mode change instruction received in Step S217, and sets the output mode. The process returns to step S201.

(ステップS219)入力受付部101は、終了指示を受け付けたか否かを判断する。終了指示を受け付ければ処理を終了し、終了指示を受け付なければステップS201に戻る。   (Step S219) The input receiving unit 101 determines whether an end instruction has been received. If an end instruction is accepted, the process ends. If no end instruction is accepted, the process returns to step S201.

なお、図2のフローチャートにおいて、本発音評定装置は、出力モードの設定機能を有しなくても良い。   In the flowchart of FIG. 2, the pronunciation evaluation device may not have an output mode setting function.

次に、ステップS204における声道長正規化処理の詳細について、図3のフローチャートを用いて説明する。   Next, details of the vocal tract length normalization process in step S204 will be described using the flowchart of FIG.

(ステップS301)評価対象者フォルマント周波数取得部107は、サンプリング部106のサンプリング処理により得られた第一音声データから、評価対象者フォルマント周波数(Fi)を取得し、評価対象者フォルマント周波数格納部108に一時格納する。評価対象者フォルマント周波数は、例えば、第二フォルマント周波数(F2)である。   (Step S301) The evaluation target person formant frequency acquisition unit 107 acquires the evaluation target person formant frequency (Fi) from the first sound data obtained by the sampling processing of the sampling unit 106, and the evaluation target person formant frequency storage unit 108. Temporarily store in. The evaluation subject formant frequency is, for example, the second formant frequency (F2).

(ステップS302)声道長正規化処理部109は、第一サンプリング周波数格納部105の第一サンプリング周波数(Fs)を読み出す。   (Step S302) The vocal tract length normalization processing unit 109 reads the first sampling frequency (Fs) of the first sampling frequency storage unit 105.

(ステップS303)声道長正規化処理部109は、教師データフォルマント周波数格納部104の教師データフォルマント周波数を読み出す。   (Step S303) The vocal tract length normalization processing unit 109 reads the teacher data formant frequency in the teacher data formant frequency storage unit 104.

(ステップS304)声道長正規化処理部109は、ステップS301で取得した評価対象者フォルマント周波数と、ステップS303で読み出した教師データフォルマント周波数から周波数軸変換率を算出する。具体的には、声道長正規化処理部109は、演算「教師データフォルマント周波数/評価対象者フォルマント周波数」を行い、周波数軸変換率(r)を得る。   (Step S304) The vocal tract length normalization processing unit 109 calculates a frequency axis conversion rate from the evaluation subject formant frequency acquired in step S301 and the teacher data formant frequency read in step S303. Specifically, the vocal tract length normalization processing unit 109 performs an operation “teacher data formant frequency / evaluator formant frequency” to obtain a frequency axis conversion rate (r).

(ステップS305)声道長正規化処理部109は、ステップS302で読み出した第一サンプリング周波数(Fs)と周波数軸変換率(r)に基づいて、演算「Fs/r」を行い、第二サンプリング周波数(Fs/r)を得る。   (Step S305) The vocal tract length normalization processing unit 109 performs the calculation “Fs / r” based on the first sampling frequency (Fs) and the frequency axis conversion rate (r) read in step S302, and performs the second sampling. Obtain the frequency (Fs / r).

(ステップS306)声道長正規化処理部109は、サンプリング部106がサンプリングして得た第一音声データに対して、第二サンプリング周波数(Fs/r)で、リサンプリング処理を行い、第二音声データを得る。なお、リサンプリング処理は公知技術であるので、詳細な説明を省略する。上位関数にリターンする。   (Step S306) The vocal tract length normalization processing unit 109 performs resampling processing at the second sampling frequency (Fs / r) on the first audio data obtained by sampling by the sampling unit 106, Get audio data. Since the resampling process is a known technique, detailed description thereof is omitted. Return to upper function.

なお、図2、図3のフローチャートにおいて、声道長正規化処理を行う対象の音声と、評価対象の音声が異なっても良い。つまり、例えば、音声受付部103は、所定の1以上の母音(例えば、「う」)の音声を受け付けた後、評価対象者の音声を受け付け、評価対象者フォルマント周波数取得部107は、当該1以上の母音の音声に基づいて、評価対象者フォルマント周波数を取得し、声道長正規化処理部109は、当該評価対象者フォルマント周波数をパラメータとして、声道長正規化処理を行う。そして、音声処理部110は、所定の母音の音声を受け付けた後に受け付けた音声を処理し、当該音声の評価を行っても良い。   In the flowcharts of FIGS. 2 and 3, the voice to be subjected to vocal tract length normalization processing may be different from the voice to be evaluated. That is, for example, the voice receiving unit 103 receives the voice of the evaluation target person after receiving the voice of the predetermined one or more vowels (for example, “U”), and the evaluation target formant frequency acquisition unit 107 Based on the voice of the above vowel, the evaluation target person formant frequency is acquired, and the vocal tract length normalization processing unit 109 performs the vocal tract length normalization process using the evaluation target person formant frequency as a parameter. Then, the voice processing unit 110 may process the received voice after receiving the voice of a predetermined vowel and evaluate the voice.

以下、本実施の形態における音声処理装置の具体的な動作について説明する。本具体例において、音声処理装置が語学学習に利用される場合について説明する。   Hereinafter, a specific operation of the speech processing apparatus according to the present embodiment will be described. In this specific example, the case where the speech processing apparatus is used for language learning will be described.

まず、本音声処理装置において、図示しない手段により、ネイティブ発音の音声データベースからネイティブ発音の音韻HMMを学習しておく。ここで、音韻の種類数をLとし、l番目の音韻に対するHMMをλとする。なお、かかる学習の処理については、公知技術であるので、詳細な説明は省略する。なお、HMMの仕様の例について、図4に示す。なお、HMMの仕様は、他の実施の形態における具体例の説明においても同様である。ただし、HMMの仕様が、他の仕様でも良いことは言うまでもない。 First, in this speech processing apparatus, a phonetic HMM of native pronunciation is learned from a speech database of native pronunciation by means not shown. Here, the number of phoneme types is L, and the HMM for the l-th phoneme is λ l . Since this learning process is a known technique, a detailed description thereof is omitted. An example of HMM specifications is shown in FIG. The specification of the HMM is the same in the description of specific examples in other embodiments. However, it goes without saying that the specifications of the HMM may be other specifications.

そして、図示しない手段により、学習したL種類の音韻HMMから、学習対象の単語や文章などの音声を構成する1以上の音素に対応するHMMを取得し、当該取得した1以上のHMMを、音素の順序で連結した教師データを構成する。そして、当該教師データを教師データ格納部102に保持しておく。ここでは、例えば、比較される対象の音声は、単語「right」の音声である。また、ここでは、教師データを発声した者(教師)は、大人である、とする。   Then, by means not shown, an HMM corresponding to one or more phonemes constituting speech such as words or sentences to be learned is acquired from the learned L types of phoneme HMMs, and the acquired one or more HMMs are converted into phonemes. The teacher data concatenated in this order is configured. Then, the teacher data is held in the teacher data storage unit 102. Here, for example, the target speech to be compared is the speech of the word “right”. Here, it is assumed that the person (teacher) who uttered the teacher data is an adult.

次に、学習者(評価対象者)が、語学学習の開始の指示である動作開始指示を入力する。かかる指示は、例えば、マウスで所定のボタンを押下することによりなされる。なお、ここでは、学習者は、例えば、子供(5歳から11歳)である、とする。   Next, the learner (evaluator) inputs an operation start instruction that is an instruction to start language learning. Such an instruction is made, for example, by pressing a predetermined button with a mouse. Here, it is assumed that the learner is, for example, a child (5 to 11 years old).

まず、学習者は、母音「う」を発音する、とする。かかる場合、本音声処理装置は、学習に、「う」を発声するように促すことは好適である。「う」を発声するように促すために、音声処理装置は、例えば、「"う"と発声してください。」と画面出力しても良いし、「"う"と発声してください。」と音声出力しても良い。また、母音「う」は、学習者の評価対象者フォルマント周波数を取得するために好適である。また、本音声処理装置は、第一サンプリング周波数として、「22.05KHz」を保持している、とする。   First, it is assumed that the learner pronounces the vowel “U”. In such a case, it is preferable that the speech processing apparatus prompts the user to speak “U” for learning. In order to prompt the user to say “U”, the voice processing device may output, for example, “Please say“ U ”.” Or “Speak“ U ”.” May be output. Moreover, the vowel “U” is suitable for acquiring the learner's evaluation target formant frequency. In addition, it is assumed that the sound processing apparatus holds “22.05 KHz” as the first sampling frequency.

そして、次に、サンプリング部106は、音声受付部103が受け付けた音声「う」をサンプリングし、「う」の第一音声データを得る。   Then, the sampling unit 106 samples the voice “U” received by the voice receiving unit 103 to obtain first voice data “U”.

次に、評価対象者フォルマント周波数取得部107は、サンプリング部106が音声「う」をサンプリングして得た第一音声データから、第二フォルマント周波数を取得する。そして、この第二フォルマント周波数を評価対象者フォルマント周波数(Fiとする。今、このFiが「1725Hz」であった、とする。そして、評価対象者フォルマント周波数取得部107は、Fi(1725Hz)を、評価対象者フォルマント周波数格納部108に一時格納する。   Next, the evaluation subject formant frequency acquisition unit 107 acquires the second formant frequency from the first audio data obtained by the sampling unit 106 sampling the audio “U”. Then, this second formant frequency is assumed to be the evaluation subject formant frequency (Fi. Now, let this Fi be “1725 Hz”. Then, the evaluation subject formant frequency acquisition unit 107 sets Fi (1725 Hz) to And temporarily stored in the evaluation formant formant frequency storage unit 108.

次に、声道長正規化処理部109は、教師データフォルマント周波数格納部104の教師データフォルマント周波数を読み出す。教師データフォルマント周波数格納部104に格納されている教師データフォルマント周波数は、大人の第二フォルマント周波数であり、今、「1184Hz」である、とする。また、教師データフォルマント周波数は、例えば、教師データを構築する場合に、教師に、例えば、「う」と発声してもらい、当該音声「う」をサンプリング処理した後、取得した第二フォルマント周波数である。   Next, the vocal tract length normalization processing unit 109 reads the teacher data formant frequency in the teacher data formant frequency storage unit 104. It is assumed that the teacher data formant frequency stored in the teacher data formant frequency storage unit 104 is the second formant frequency of an adult and is now “1184 Hz”. In addition, the teacher data formant frequency is, for example, when the teacher data is constructed, the teacher utters “U”, for example, and after sampling the audio “U”, the acquired second formant frequency is used. is there.

なお、図5に、年齢層別、性別ごとの、「う」の第一フォルマント周波数(F1)、第二フォルマント周波数(F2)の計測結果を示す。図5により、年齢、性別により、第一フォルマント周波数(F1)、第二フォルマント周波数(F2)の値が大きく異なることが分る。   FIG. 5 shows the measurement results of the first formant frequency (F1) and the second formant frequency (F2) of “U” for each age group and sex. FIG. 5 shows that the values of the first formant frequency (F1) and the second formant frequency (F2) are greatly different depending on the age and sex.

そして、次に、声道長正規化処理部109は、評価対象者フォルマント周波数「1725Hz」と教師データフォルマント周波数「1184Hz」から演算「教師データフォルマント周波数/評価対象者フォルマント周波数」を行い、周波数軸変換率(r)を得る。具体的には、声道長正規化処理部109は、「1184/1725」により、周波数軸変換率「0.686」を得る。   Next, the vocal tract length normalization processing unit 109 performs an operation “teacher data formant frequency / evaluation target person formant frequency” from the evaluation subject formant frequency “1725 Hz” and the teacher data formant frequency “1184 Hz”, and the frequency axis The conversion rate (r) is obtained. Specifically, the vocal tract length normalization processing unit 109 obtains the frequency axis conversion rate “0.686” from “1184/1725”.

次に、声道長正規化処理部109は、第一サンプリング周波数(Fs)と「r」に基づいて、演算「Fs/r」を行い、第二サンプリング周波数(Fs/r)を得る。ここで、得た第二サンプリング周波数は、「22.05/0.686」により、「32.1」である。そして、声道長正規化処理部109は、第二サンプリング周波数「32.1KHz」を一時格納する。   Next, the vocal tract length normalization processing unit 109 performs an operation “Fs / r” based on the first sampling frequency (Fs) and “r” to obtain a second sampling frequency (Fs / r). Here, the obtained second sampling frequency is “32.1” by “22.05 / 0.686”. Then, the vocal tract length normalization processing unit 109 temporarily stores the second sampling frequency “32.1 KHz”.

次に、学習者は、学習対象の音声「right」を発音する。そして、音声受付部103は、学習者が発音した音声の入力を受け付ける。なお、音声処理装置は、学習者に「"right"を発音してください。」などを表示、または音声出力するなどして、学習者に「right」の発声を促すことは好適である。   Next, the learner pronounces the voice “right” to be learned. Then, the voice receiving unit 103 receives an input of a voice pronounced by the learner. It is preferable that the speech processing apparatus prompts the learner to utter “right” by displaying or outputting a voice such as “Please pronounce“ right ”” to the learner.

次に、サンプリング部106は、受け付けた音声「right」をサンプリング周波数「22.05KHz」でサンプリング処理する。そして、サンプリング部106は、音声「right」の第一音声データを得る。   Next, the sampling unit 106 samples the received voice “right” at the sampling frequency “22.05 KHz”. Then, the sampling unit 106 obtains the first sound data of the sound “right”.

次に、声道長正規化処理部109は、「right」の第一音声データを第二サンプリング周波数「32.1KHz」でリサンプリング処理する。そして、声道長正規化処理部109は、第二音声データを得る。   Next, the vocal tract length normalization processing unit 109 resamples the first voice data of “right” at the second sampling frequency “32.1 KHz”. Then, the vocal tract length normalization processing unit 109 obtains second voice data.

次に、音声処理部110は、第二音声データを、以下のように処理する。   Next, the audio processing unit 110 processes the second audio data as follows.

まず、フレーム区分手段1101は、第二音声データを、短時間フレームに区分する。なお、フレームの間隔は、予め決められている、とする。   First, the frame classification unit 1101 classifies the second audio data into short-time frames. It is assumed that the frame interval is determined in advance.

そして、フレーム音声データ取得手段1102は、フレーム区分手段1101が区分した音声データを、スペクトル分析し、特徴ベクトル系列「O=o,o,・・・,o」を算出する。なお、Tは、系列長である。ここで、特徴ベクトル系列は、各フレームの特徴ベクトルの集合である。また、特徴ベクトルは、例えば、三角型フィルタを用いたチャネル数24のフィルタバンク出力を離散コサイン変換したMFCCであり、その静的パラメータ、デルタパラメータおよびデルタデルタパラメータをそれぞれ12次元、さらに正規化されたパワーとデルタパワーおよびデルタデルタパワー(39次元)を有する。また、スペクトル分析において、ケプストラム平均除去を施すことは好適である。なお、音声分析条件の例を図6の表に示す。なお、音声分析条件は、他の実施の形態における具体例の説明においても同様である。ただし、音声分析条件が、他の条件でも良いことは言うまでもない。また、音声分析の際のサンプリング周波数は、第一サンプリング周波数「22.05KHz」である。 Then, the frame audio data acquisition unit 1102 performs spectrum analysis on the audio data classified by the frame classification unit 1101 and calculates a feature vector series “O = o 1 , o 2 ,..., O T ”. T is a sequence length. Here, the feature vector series is a set of feature vectors of each frame. The feature vector is, for example, an MFCC obtained by performing discrete cosine transform on a filter bank output of 24 channels using a triangular filter, and the static parameter, the delta parameter, and the delta delta parameter are further normalized to 12 dimensions, respectively. Power and delta power and delta delta power (39th dimension). In spectral analysis, it is preferable to perform cepstrum average removal. An example of speech analysis conditions is shown in the table of FIG. Note that the voice analysis conditions are the same in the description of specific examples in other embodiments. However, it goes without saying that the voice analysis conditions may be other conditions. The sampling frequency for voice analysis is the first sampling frequency “22.05 KHz”.

次に、最適状態決定手段11031は、取得した特徴ベクトル系列を構成する各特徴ベクトルoに基づいて、所定のフレームの最適状態(特徴ベクトルoに対する最適状態)を決定する。最適状態決定手段11031が最適状態を決定するアルゴリズムは、例えば、Viterbiアルゴリズムによる。かかる場合、最適状態決定手段11031は、上記で連結したHMMを用いて最適状態を決定する。最適状態決定手段11031は、2以上のフレームの最適状態である最適状態系列を求めることとなる。 Then, the optimal state determination unit 11031, based on the feature vector o t constituting the obtained feature vector series, to determine the optimal conditions for a given frame (optimum condition for the feature vector o t). The algorithm for determining the optimum state by the optimum state determining unit 11031 is, for example, the Viterbi algorithm. In such a case, the optimum state determination unit 11031 determines the optimum state using the HMM connected as described above. The optimum state determination unit 11031 obtains an optimum state sequence that is an optimum state of two or more frames.

次に、最適状態確率値取得手段11032は、以下の数式1により、最適状態(q )における最適状態確率値(γ(q ))を算出する。なお、γ(q )は、状態jの事後確率関数γ(j)のjにq を代入した値である。そして、状態jの事後確率関数γ(j)は、数式2を用いて算出される。この確率値(γ(j))は、t番目の特徴ベクトルoが状態jから生成された事後確率であり、動的計画法を用いて算出される。なお、jは、状態を識別する状態識別子である。
Next, the optimum state probability value acquisition unit 11032 calculates the optimum state probability value (γ t (q t * )) in the optimum state (q t * ) according to the following Equation 1. Note that γ t (q t * ) is a value obtained by substituting q t * for j in the posterior probability function γ t (j) of the state j. Then, the posterior probability function γ t (j) of the state j is calculated using Equation 2. This probability value (γ t (j)) is, t th feature vector o t is the posterior probability that is generated from the state j, is calculated using dynamic programming. Note that j is a state identifier for identifying a state.

数式2において、qは、oに対する状態識別子を表す。この確率値(γ(j))は、HMMの最尤推定におけるBaum−Welchアルゴリズムの中で表れる占有度数に対応する。
In Equation 2, q t represents the state identifier for o t. This probability value (γ t (j)) corresponds to the occupation frequency appearing in the Baum-Welch algorithm in the maximum likelihood estimation of the HMM.

数式2において、「α(j)」「β(j)」は、全部のHMMを用いて、forward−backwardアルゴリズムにより算出される。「α(j)」は前向き尤度、「β(j)」は後向き尤度である。Baum−Welchアルゴリズム、forward−backwardアルゴリズムは、公知のアルゴリズムであるので、詳細な説明は省略する。 In Equation 2, “α t (j)” and “β t (j)” are calculated by the forward-backward algorithm using all the HMMs. “Α t (j)” is a forward likelihood, and “β t (j)” is a backward likelihood. Since the Baum-Welch algorithm and the forward-backward algorithm are known algorithms, detailed description thereof is omitted.

また、数式2において、Nは、全HMMに渡る状態の総数を示す。   In Equation 2, N represents the total number of states over all HMMs.

なお、評定手段1103は、まず最適状態を求め、次に、最適状態の確率値(なお、確率値は、0以上、1以下である。)を求めても良いし、評定手段1103は、まず、全状態の確率値を求め、その後、特徴ベクトル系列の各特徴ベクトルに対する最適状態を求め、当該最適状態に対応する確率値を求めても良い。   Note that the rating unit 1103 may first obtain an optimum state, and then obtain a probability value of the optimum state (where the probability value is 0 or more and 1 or less). Then, the probability values of all the states may be obtained, then the optimum state for each feature vector of the feature vector series may be obtained, and the probability value corresponding to the optimum state may be obtained.

次に、評定値算出手段11033は、例えば、上記の取得した最適状態確率値と、当該最適状態確率値に対応するフレームの全状態における確率値の総和をパラメータとして音声の評定値を算出する。かかる場合、もし学習者のtフレーム目に対応する発声が、教師データが示す発音(例えば、正しいネイティブな発音)に近ければ、数式2の(2)式の分子の値が、他の全ての可能な音韻の全ての状態と比較して大きくなり、結果的に最適状態の確率値(評定値)が大きくなる。逆にその区間が、教師データが示す発音に近くなければ、評定値は小さくなる。なお、どのネイティブ発音にも近くないような場合は、評定値はほぼ1/Nに等しくなる。Nは全ての音韻HMMにおける全ての状態の数であるから、通常、大きな値となり、この評定値は十分小さくなる。また、ここでは、評定値は最適状態における確率値と全ての可能な状態における確率値との比率で定義されている。したがって、収音環境等の違いにより多少のスペクトルの変動があったとしても、学習者が正しい発音をしていれば、その変動が相殺され評定値が高いスコアを維持する。よって、評定値算出手段11033は、最適状態確率値取得手段11032が取得した確率値と、当該確率値に対応するフレームの全状態における確率値の総和をパラメータとして音声の評定値を算出することは、極めて好適である。   Next, the rating value calculation means 11033 calculates a speech rating value using, for example, the sum of the acquired optimum state probability value and the probability value in all states of the frame corresponding to the optimum state probability value as a parameter. In such a case, if the utterance corresponding to the learner's t-th frame is close to the pronunciation indicated by the teacher data (for example, correct native pronunciation), the numerator value of Equation (2) in Equation 2 is set to all other values. As compared with all possible phoneme states, the probability value (rating value) in the optimum state increases. Conversely, if the interval is not close to the pronunciation indicated by the teacher data, the rating value becomes small. In the case where it is not close to any native pronunciation, the rating value is approximately equal to 1 / N. Since N is the number of all states in all phoneme HMMs, it is usually a large value, and this rating value is sufficiently small. Here, the rating value is defined by the ratio between the probability value in the optimum state and the probability value in all possible states. Therefore, even if there is some spectrum variation due to differences in the sound collection environment or the like, if the learner pronounces correctly, the variation is offset and a score with a high rating value is maintained. Therefore, the rating value calculation means 11033 calculates the voice rating value using the probability value acquired by the optimum state probability value acquisition means 11032 and the sum of the probability values in all states of the frame corresponding to the probability value as parameters. Is very suitable.

かかる評定値算出手段11033が算出した評定値(「DAPスコア」とも言う。)の出力例を、図7、図8に示す。図7、図8において、横軸は分析フレーム番号、縦軸はスコアを%で表わしたものである。太い破線は音素境界,細い点線は状態境界(いずれもViterbiアルゴリズムで求まったもの)を表わしており,図の上部に音素名を表記している。図7は、アメリカ人男性による英語「right」の発音のDAPスコアを示す。なお、評定値を示すグラフの横軸、縦軸は、後述するグラフにおいても同様である。   Examples of output of the rating value (also referred to as “DAP score”) calculated by the rating value calculation means 11033 are shown in FIGS. 7 and 8, the horizontal axis represents the analysis frame number, and the vertical axis represents the score in%. A thick broken line represents a phoneme boundary, a thin dotted line represents a state boundary (both obtained by the Viterbi algorithm), and a phoneme name is shown at the top of the figure. FIG. 7 shows the DAP score for the pronunciation of English “right” by an American male. The horizontal axis and vertical axis of the graph indicating the rating value are the same in the graph described later.

図8は、日本人男性による英語「right」の発音のDAPスコアを示す。アメリカ人の発音は、日本人の発音と比較して、基本的にスコアが高い。なお、図7において、状態の境界において所々スコアが落ち込んでいることがわかる。   FIG. 8 shows a DAP score of pronunciation of English “right” by a Japanese male. American pronunciation is basically higher than Japanese pronunciation. In addition, in FIG. 7, it turns out that the score has fallen in some places in the boundary of a state.

そして、出力手段1104は、評定手段1103の評定結果を出力する。具体的には、例えば、出力手段1104は、図9に示すような態様で、評定結果を出力する。つまり、出力手段1104は、各フレームにおける発音の良さを表すスコア(スコアグラフ)として、各フレームの評定値を表示する。その他、出力手段1104は、学習対象の単語の表示(単語表示)、音素要素の表示(音素表示)、教師データの波形の表示(教師波形)、学習者の入力した発音の波形の表示(ユーザ波形)を表示しても良い。なお、図9において、「録音」ボタンを押下すれば、動作開始指示が入力されることとなり、「停止」ボタンを押下すれば、終了指示が入力されることとなる。また、音素要素の表示や波形の表示をする技術は公知技術であるので、その詳細説明を省略する。また、本音声処理装置は、学習対象の単語(図9の「word1」など)や、音素(図9の「p1」など)や、教師波形を出力されるためのデータを予め格納している、とする。   Then, the output unit 1104 outputs the rating result of the rating unit 1103. Specifically, for example, the output unit 1104 outputs the rating result in a manner as shown in FIG. That is, the output unit 1104 displays the rating value of each frame as a score (score graph) indicating the goodness of pronunciation in each frame. In addition, the output unit 1104 displays a word to be learned (word display), a phoneme element display (phoneme display), a teacher data waveform display (teacher waveform), and a pronunciation waveform input by the learner (user). Waveform) may be displayed. In FIG. 9, when the “Record” button is pressed, an operation start instruction is input, and when the “Stop” button is pressed, an end instruction is input. Further, since the technology for displaying phoneme elements and displaying waveforms is a known technology, its detailed description is omitted. Further, the speech processing apparatus stores in advance data for outputting a word to be learned (such as “word1” in FIG. 9), a phoneme (such as “p1” in FIG. 9), and a teacher waveform. , And.

また、図9において、フレーム単位以外に、音素単位、単語単位、発声全体の評定結果を表示しても良い。上記の処理において、フレーム単位の評定値を算出するので、単語単位、発声全体の評定結果を得るためには、フレーム単位の1以上の評定値をパラメータとして、単語単位、発声全体の評定値を算出する必要がある。かかる算出式は問わないが、例えば、単語を構成するフレーム単位の1以上の評定値の平均値を単語単位の評定値とする、ことが考えられる。   Moreover, in FIG. 9, you may display the evaluation result of a phoneme unit, a word unit, and the whole utterance other than a frame unit. In the above processing, the evaluation value for each frame is calculated. In order to obtain the evaluation result for each word and the whole utterance, the evaluation value for each word and the whole utterance is obtained using one or more evaluation values for each frame as parameters. It is necessary to calculate. Such a calculation formula is not limited. For example, it is conceivable that an average value of one or more rating values for each frame constituting a word is used as a rating value for each word.

なお、図9において、音声処理装置は、波形表示(教師波形またはユーザ波形)の箇所においてクリックを受け付けると、再生メニューを表示し、音素区間内ではその音素またはその区間が属する単語、波形全体を再生し、単語区間外(無音部)では波形全体のみを再生するようにしても良い。   In FIG. 9, when the voice processing device accepts a click at the location of the waveform display (teacher waveform or user waveform), it displays a playback menu, and within the phoneme section, the phoneme, the word to which the section belongs, and the entire waveform are displayed. It is possible to reproduce only the entire waveform outside the word section (silent part).

また、出力手段1104の表示は、図10に示すような態様でも良い。図10において、音素ごとのスコア、単語のスコア、総合スコアが、数字で表示されている。   Further, the display of the output means 1104 may be in the form as shown in FIG. In FIG. 10, a score for each phoneme, a word score, and a total score are displayed in numbers.

なお、出力手段1104の表示は、図7、図8のような表示でも良いことは言うまでもない。   Needless to say, the display of the output means 1104 may be as shown in FIGS.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、精度の高い評定ができる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. In this case, according to the present embodiment, highly accurate evaluation can be performed without being affected by individual differences, particularly differences in vocal tract length.

また、本実施の形態によれば、連結されたHMMである連結HMMを用いて最適状態を求め、評定値を算出するので、高速に評定値を求めることができる。したがって、上記の具体例で述べたように、リアルタイムに、フレームごと、音素ごと、単語ごとの評定値を出力できる。また、本実施の形態によれば、動的計画法に基づいた事後確率を確率値として算出するので、さらに高速に評定値を求めることができる。また、本実施の形態によれば、フレームごとに確率値を算出するので、上述したように、フレーム単位だけではなく、または/および音素・単語単位、または/および発声全体の評定結果を出力でき、出力態様の自由度が高い。   Further, according to the present embodiment, since the optimum state is obtained by using the concatenated HMM, which is a concatenated HMM, and the evaluation value is calculated, the evaluation value can be obtained at high speed. Therefore, as described in the above specific example, the rating value for each frame, for each phoneme, and for each word can be output in real time. Further, according to the present embodiment, the posterior probability based on the dynamic programming is calculated as the probability value, so that the rating value can be obtained at higher speed. Further, according to the present embodiment, since the probability value is calculated for each frame, as described above, it is possible to output not only the frame unit but / or the phoneme / word unit or / and the entire utterance evaluation result. The degree of freedom of the output mode is high.

また、本実施の形態によれば、音声処理装置は、語学学習に利用することを主として説明したが、物真似練習や、カラオケ評定や、歌唱評定などに利用できる。つまり、本音声処理装置は、比較される対象の音声に関するデータとの類似度を精度良く、高速に評定し、出力でき、そのアプリケーションは問わない。つまり、例えば、本音声処理装置は、カラオケ評価装置であって、音声受付部は、評価対象者の歌声の入力を受け付け、音声処理部は、前記歌声を評価する、という構成でも良い。かかることは、他の実施の形態においても同様である。   Moreover, according to this Embodiment, although the audio processing apparatus was mainly demonstrated using for language learning, it can be utilized for imitation practice, karaoke rating, singing rating, etc. That is, the speech processing apparatus can accurately evaluate and output the similarity to the data related to the target speech to be compared with high speed, and the application is not limited. That is, for example, the voice processing device may be a karaoke evaluation device, and the voice reception unit may receive an input of the evaluation subject's singing voice, and the voice processing unit may evaluate the singing voice. The same applies to other embodiments.

また、本実施の形態において、音声の入力を受け付けた後または停止ボタン操作後に、スコアリング処理を実行するかどうかをユーザに問い合わせ、スコアリング処理を行うとの指示を受け付けた場合のみ、図10に示すような音素スコア、単語スコア、総合スコアを出力するようにしても良い。かかることも、他の実施の形態においても同様である。   Further, in the present embodiment, after receiving voice input or operating the stop button, the user is inquired whether to execute scoring processing, and only when an instruction to perform scoring processing is received, FIG. A phoneme score, a word score, and a total score as shown in FIG. This also applies to other embodiments.

また、本実施の形態において、教師データは、比較される対象の音声に関するデータであり、音韻毎の隠れマルコフモデル(HMM)に基づくデータであるとして、主として説明したが、必ずしもHMMに基づくデータである必要はない。教師データは、単一ガウス分布モデルや、確率モデル(GMM:ガウシャンミクスチャモデル)や統計モデルなど、他のモデルに基づくデータでも良い。かかることも、他の実施の形態においても同様である。   Further, in the present embodiment, the teacher data is mainly related to the speech to be compared and is based on the hidden Markov model (HMM) for each phoneme, but is not necessarily data based on the HMM. There is no need. The teacher data may be data based on other models such as a single Gaussian distribution model, a probability model (GMM: Gaussian mixture model), and a statistical model. This also applies to other embodiments.

また、本実施の形態の具体例において、学習者は、母音「う」を発音し、音声処理装置は、かかる音声から第二サンプリング周波数を得た。しかし、学習者は、例えば、母音「あいえお」等、1以上の母音を発音し、かかる母音の音声から、音声処理装置は、第二サンプリング周波数を得ても良い。つまり、第二サンプリング周波数を得るために、学習者が発音する音は「う」に限られない。   In the specific example of the present embodiment, the learner pronounces the vowel “U”, and the speech processing apparatus obtains the second sampling frequency from the speech. However, the learner may generate one or more vowels such as the vowel “Aieo”, and the sound processing apparatus may obtain the second sampling frequency from the sound of the vowels. That is, the sound produced by the learner to obtain the second sampling frequency is not limited to “U”.

また、本実施の形態において、音声処理装置は、声道長正規化処理部109において、声道長正規化パラメータ「r」を算出した。しかし、別途、声道長正規化パラメータ「1/r」を算出しておいて、かかる声道長正規化パラメータ「1/r」を声道長正規化パラメータ格納部に格納していても良い。かかる場合、音声処理装置は、音声を受け付ける音声受付部と、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、前記第二音声データを処理する音声処理部を具備する音声処理装置、である。かかる場合、音声処理装置は、教師データフォルマント周波数格納部104、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108は、必須ではない。かかることも、他の実施の形態においても同様である。   In the present embodiment, the speech processing apparatus calculates the vocal tract length normalization parameter “r” in the vocal tract length normalization processing unit 109. However, the vocal tract length normalization parameter “1 / r” may be calculated separately, and the vocal tract length normalization parameter “1 / r” may be stored in the vocal tract length normalization parameter storage unit. . In such a case, the speech processing apparatus stores a speech acceptance unit that accepts speech, a first sampling frequency storage unit that stores the first sampling frequency, and a vocal tract length normalization parameter that is information related to the conversion rate of the sampling frequency. A voice sampling length normalization parameter storage unit, a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters, with respect to the voice received by the voice reception unit, A voice processing device including a vocal tract length normalization processing unit that performs sampling processing to obtain second voice data, and a voice processing unit that processes the second voice data. In such a case, in the speech processing apparatus, the teacher data formant frequency storage unit 104, the evaluation subject formant frequency acquisition unit 107, and the evaluation subject formant frequency storage unit 108 are not essential. This also applies to other embodiments.

また、本実施の形態において、音声処理装置が行う下記の処理を、一のDSP(デジタルシグナルプロセッサ)で行っても良い。つまり、本DSPは、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、前記第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリング部と、前記教師データのフォルマント周波数である教師データフォルマント周波数を格納している教師データフォルマント周波数格納部と、前記音声の話者である評価対象者のフォルマント周波数である評価対象者フォルマント周波数を格納している評価対象者フォルマント周波数格納部と、第二サンプリング周波数「前記第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部を具備するデジタルシグナルプロセッサ、である。かかることも、他の実施の形態でも同様である。   In the present embodiment, the following processing performed by the audio processing device may be performed by a single DSP (digital signal processor). That is, the DSP includes a first sampling frequency storage unit that stores a first sampling frequency, a sampling unit that samples received audio at the first sampling frequency, and acquires first audio data, and the teacher. A teacher data formant frequency storage unit storing teacher data formant frequency which is a formant frequency of data, and an evaluation object storing an evaluation object formant frequency which is a formant frequency of an evaluation object person who is the voice speaker A sampling form is performed on the received voice at the second formant frequency storage unit and the second sampling frequency “the first sampling frequency / (teacher data formant frequency / evaluation person formant frequency)”, and the second voice data With a vocal tract length normalization processing unit Digital signal processor, a. This also applies to other embodiments.

さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD−ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリングステップと、第二サンプリング周波数「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded and distributed on a recording medium such as a CD-ROM. This also applies to other embodiments in this specification. Note that the software that implements the speech processing apparatus according to the present embodiment is the following program. In other words, the program samples the received voice at the first sampling frequency and acquires the first voice data to the computer, and the second sampling frequency “first sampling frequency / (teacher data formant frequency / evaluation”. Target voice formant frequency) ", the voice received in the voice receiving step is subjected to a sampling process to obtain a second voice data, a vocal tract length normalization processing step, and a voice process to process the second voice data A program for executing a step.

また、上記プログラムにおいて、音声処理ステップは、前記第二音声データを、フレームに区分するフレーム区分ステップと、前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得ステップと、前記教師データと前記1以上のフレーム音声データに基づいて、前記受け付けた音声の評定を行う評定ステップと、前記評定ステップにおける評定結果を出力する出力ステップを具備する、ことは好適である。   In the above program, the audio processing step includes a frame dividing step for dividing the second audio data into frames, and a frame audio data acquiring step for obtaining one or more frame audio data which are audio data for each of the divided frames. And a rating step for rating the received voice based on the teacher data and the one or more frame voice data, and an output step for outputting a rating result in the rating step.

さらに、上記プログラムにおいて、前記評定ステップは、前記1以上のフレーム音声データのうちの少なくとも一のフレーム音声データに対する最適状態を決定する最適状態決定ステップと、前記最適状態決定ステップで決定した最適状態における確率値を取得する最適状態確率値取得ステップと、前記最適状態確率値取得ステップで取得した確率値をパラメータとして音声の評定値を算出する評定値算出ステップを具備することは好適である。
(実施の形態2)
Further, in the above program, the rating step includes an optimum state determination step for determining an optimum state for at least one frame sound data among the one or more frame sound data, and an optimum state determined in the optimum state determination step. It is preferable to include an optimum state probability value obtaining step for obtaining a probability value, and a rating value calculating step for calculating a speech evaluation value using the probability value obtained in the optimum state probability value obtaining step as a parameter.
(Embodiment 2)

本実施の形態における音声処理装置は、実施の形態1の音声処理装置と比較して、評定部における評定アルゴリズムが異なる。本実施の形態において、評定値は、最適状態を含む音韻の中の全状態の確率値を発音区間で評価して、算出される。本実施の形態における音声処理装置が算出する事後確率を、実施の形態1におけるDAPに対してt−p−DAPと呼ぶ。   The speech processing apparatus according to the present embodiment differs from the speech processing apparatus according to the first embodiment in the rating algorithm in the rating unit. In the present embodiment, the rating value is calculated by evaluating the probability values of all the states in the phoneme including the optimum state in the pronunciation interval. The posterior probability calculated by the speech processing apparatus in the present embodiment is referred to as tp-DAP with respect to the DAP in the first embodiment.

図11は、本実施の形態における音声処理装置のブロック図である。本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、教師データフォルマント周波数格納部104、第一サンプリング周波数格納部105、サンプリング部106、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108、声道長正規化処理部109、音声処理部1110、発声催促部1109を具備する。   FIG. 11 is a block diagram of the speech processing apparatus according to this embodiment. The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a teacher data formant frequency storage unit 104, a first sampling frequency storage unit 105, a sampling unit 106, and an evaluation target person formant frequency acquisition unit 107. The evaluation subject person formant frequency storage unit 108, the vocal tract length normalization processing unit 109, the voice processing unit 1110, and the utterance prompting unit 1109 are provided.

音声処理部1110は、フレーム区分手段1101、フレーム音声データ取得手段1102、評定手段11103、出力手段1104を具備する。   The audio processing unit 1110 includes a frame classification unit 1101, a frame audio data acquisition unit 1102, a rating unit 11103, and an output unit 1104.

評定手段11103は、最適状態決定手段11031、発音区間フレーム音韻確率値取得手段111032、評定値算出手段111033を具備する。   The rating unit 11103 includes an optimum state determining unit 11031, a pronunciation interval frame phoneme probability value acquiring unit 111032, and a rating value calculating unit 111033.

発音区間フレーム音韻確率値取得手段111032は、最適状態決定手段11031が決定した各フレームの最適状態を有する音韻全体の状態における1以上の確率値を、発音区間毎に取得する。   The pronunciation interval frame phoneme probability value acquisition unit 111032 acquires, for each pronunciation interval, one or more probability values in the entire phoneme state having the optimal state of each frame determined by the optimal state determination unit 11031.

評定値算出手段111033は、発音区間フレーム音韻確率値取得手段111032が取得した1以上の発音区間毎の1以上の確率値をパラメータとして音声の評定値を算出する。評定値算出手段111033は、例えば、最適状態決定手段11031が決定した各フレームの最適状態を有する音韻全体の状態における1以上の確率値の総和を、フレーム毎に得て、当該フレーム毎の確率値の総和に基づいて、発音区間毎の確率値の総和の時間平均値を1以上得て、当該1以上の時間平均値をパラメータとして音声の評定値を算出する。   The rating value calculation means 111033 calculates a speech rating value using one or more probability values for each of one or more pronunciation intervals acquired by the pronunciation interval frame phoneme probability value acquisition means 111032 as parameters. For example, the rating value calculation unit 1111033 obtains, for each frame, a sum of one or more probability values in the entire phoneme state having the optimal state of each frame determined by the optimal state determination unit 11031, and the probability value for each frame. 1 or more is obtained based on the sum of the above, and the speech rating value is calculated using the one or more time average values as parameters.

発音区間フレーム音韻確率値取得手段111032、および評定値算出手段111033は、通常、MPUやメモリ等から実現され得る。発音区間フレーム音韻確率値取得手段111032等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The pronunciation interval frame phoneme probability value acquisition unit 111032 and the rating value calculation unit 1111033 can be realized usually by an MPU, a memory, or the like. The processing procedure of the pronunciation interval frame phoneme probability value acquisition unit 111032 and the like is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

発声催促部1109は、入力受付部101が、動作開始指示を受け付けた場合、第二サンプリング周波数を算出するために、評価対象者に発声を促す処理を行ったり、評価対象者の発音評定のために発声を促す処理を行ったりする。評価対象者に発声を促す処理は、例えば、「〜を発音してください。」とディスプレイに表示したり、「〜を発音してください。」とスピーカーから音出力したりする処理である。発声催促部1109は、ディスプレイ344やスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。発声催促部1109は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   When the input reception unit 101 receives an operation start instruction, the utterance prompting unit 1109 performs a process of prompting the evaluation target person to utter in order to calculate the second sampling frequency, or for the pronunciation evaluation of the evaluation target person. Or urge the user to speak. The process of prompting the evaluation subject to speak is, for example, a process of displaying “Please pronounce ~” on the display or outputting a sound from the speaker “Please pronounce ~”. The utterance prompting unit 1109 may or may not include an output device such as the display 344 or a speaker. The utterance prompting unit 1109 can be implemented by output device driver software, or output device driver software and an output device.

次に、本音声処理装置の動作について図12から図14のフローチャートを用いて説明する。図12等のフローチャートにおいて、図2、図3のフローチャートと異なるステップについてのみ説明する。   Next, the operation of the voice processing apparatus will be described with reference to the flowcharts of FIGS. In the flowchart of FIG. 12 etc., only steps different from the flowcharts of FIG. 2 and FIG. 3 will be described.

(ステップS1201)発声催促部1109は、第二サンプリング周波数算出用の発声を促すために、例えば、母音「う」と発声してください、とディスプレイに表示する。   (Step S <b> 1201) The utterance prompting unit 1109 displays on the display, for example, utter the vowel “U” in order to prompt the utterance for calculating the second sampling frequency.

(ステップS1202)音声受付部103は、音声を受け付けたか否かを判断する。音声を受け付ければステップS1203に行き、音声を受け付けなければステップS213に行く。   (Step S1202) The voice receiving unit 103 determines whether a voice is received. If the voice is accepted, the process goes to step S1203. If the voice is not accepted, the process goes to step S213.

(ステップS1203)サンプリング部106は、第一サンプリング周波数格納部105に格納されている第一サンプリング周波数を読み込み、当該第一サンプリング周波数で、ステップS1202で受け付けた音声をサンプリングし、第一音声データを得る。   (Step S1203) The sampling unit 106 reads the first sampling frequency stored in the first sampling frequency storage unit 105, samples the sound received in step S1202 at the first sampling frequency, and obtains the first sound data. obtain.

(ステップS1204)声道長正規化処理部109は、ステップS1203で得た第一音声データから、第二サンプリング周波数を得る。かかる第二サンプリング周波数算出処理は、図13のフローチャートを用いて説明する。   (Step S1204) The vocal tract length normalization processing unit 109 obtains a second sampling frequency from the first speech data obtained in Step S1203. The second sampling frequency calculation process will be described with reference to the flowchart of FIG.

(ステップS1205)発声催促部1109は、評定用の発声を促すために、例えば、「right」と発声してください、とディスプレイに表示する。   (Step S1205) The utterance prompting unit 1109 displays on the display, for example, “speak“ right ”in order to urge the utterance for evaluation.

(ステップS1206)音声受付部103は、音声を受け付けたか否かを判断する。音声を受け付ければステップS1207に行き、音声を受け付けなければステップS213に行く。   (Step S1206) The voice receiving unit 103 determines whether a voice is received. If a voice is accepted, the process goes to step S1207, and if no voice is accepted, the process goes to step S213.

(ステップS1207)サンプリング部106は、第一サンプリング周波数格納部105に格納されている第一サンプリング周波数を読み込み、当該第一サンプリング周波数で、ステップS1206で受け付けた音声をサンプリングし、第一音声データを得る。   (Step S1207) The sampling unit 106 reads the first sampling frequency stored in the first sampling frequency storage unit 105, samples the audio received in step S1206 at the first sampling frequency, and obtains the first audio data. obtain.

(ステップS1208)声道長正規化処理部109は、ステップS1207で得た第一音声データに対して、ステップS1204で得た第二サンプリング周波数で、リサンプリングし、第二音声データを得る。   (Step S1208) The vocal tract length normalization processing unit 109 resamples the first audio data obtained in step S1207 at the second sampling frequency obtained in step S1204, and obtains second audio data.

(ステップS1209)音声処理部1110は、ステップS1208で得た第二音声データに対して、評定処理を行う。評定処理の詳細は、図14のフローチャートを用いて説明する。ステップS1202に戻る。   (Step S1209) The voice processing unit 1110 performs a rating process on the second voice data obtained in step S1208. Details of the rating process will be described with reference to the flowchart of FIG. The process returns to step S1202.

なお、図12のフローチャートにおいて、第二サンプリング周波数を算出するための音声と、評定するための音声が同一または包含されていても良い。   In the flowchart of FIG. 12, the sound for calculating the second sampling frequency and the sound for rating may be the same or included.

ステップS1204の第二サンプリング周波数算出処理について、図13のフローチャートを用いて説明する。図13のフローチャートにおいて、図3のフローチャートにおけるステップS301からステップS305の処理を行う。   The second sampling frequency calculation process in step S1204 will be described using the flowchart of FIG. In the flowchart of FIG. 13, the processing from step S301 to step S305 in the flowchart of FIG. 3 is performed.

ステップS1209の評定処理について、図14のフローチャートを用いて説明する。   The rating process in step S1209 will be described with reference to the flowchart in FIG.

(ステップS1401)発音区間フレーム音韻確率値取得手段111032は、全フレームの全状態の前向き尤度と後向き尤度を算出する。そして、全フレーム、全状態の確率値を得る。具体的には、発音区間フレーム音韻確率値取得手段111032は、例えば、各特徴ベクトルが対象の状態から生成された事後確率を算出する。この事後確率は、HMMの最尤推定におけるBaum−Welchアルゴリズムの中で現れる占有度数に対応する。Baum−Welchアルゴリズムは、公知のアルゴリズムであるので、説明は省略する。   (Step S1401) The pronunciation period frame phoneme probability value acquisition unit 111032 calculates the forward likelihood and the backward likelihood of all states of all frames. Then, probability values for all frames and all states are obtained. Specifically, the pronunciation interval frame phoneme probability value acquisition unit 111032 calculates, for example, the posterior probability that each feature vector is generated from the target state. This posterior probability corresponds to the occupation frequency appearing in the Baum-Welch algorithm in the maximum likelihood estimation of the HMM. The Baum-Welch algorithm is a known algorithm and will not be described.

(ステップS1402)発音区間フレーム音韻確率値取得手段111032は、全フレームの最適状態確率値を算出する。   (Step S1402) The sounding section frame phoneme probability value acquisition unit 111032 calculates optimum state probability values of all frames.

(ステップS1403)発音区間フレーム音韻確率値取得手段111032は、jに1を代入する。   (Step S1403) The pronunciation period frame phoneme probability value acquisition unit 111032 substitutes 1 for j.

(ステップS1404)発音区間フレーム音韻確率値取得手段111032は、次の評定対象の発音区間である、j番目の発音区間が存在するか否かを判断する。j番目の発音区間が存在すればステップS1405に行き、j番目の発音区間が存在しなければ上位関数にリターンする。   (Step S1404) The pronunciation period frame phoneme probability value acquisition unit 111032 determines whether or not the jth pronunciation period, which is the next evaluation target pronunciation period, exists. If the jth sound generation interval exists, the process goes to step S1405, and if the jth sound generation interval does not exist, the process returns to the upper function.

(ステップS1405)発音区間フレーム音韻確率値取得手段111032は、カウンタkに1を代入する。   (Step S1405) The sounding section frame phoneme probability value acquiring unit 111032 substitutes 1 for the counter k.

(ステップS1406)発音区間フレーム音韻確率値取得手段111032は、k番目のフレームが、j番目の発音区間に存在するか否かを判断する。k番目のフレームが存在すればステップS1407に行き、k番目のフレームが存在しなければステップS1410に飛ぶ。   (Step S1406) The pronunciation period frame phoneme probability value acquisition unit 111032 determines whether or not the kth frame is present in the jth pronunciation period. If the kth frame exists, the process goes to step S1407, and if the kth frame does not exist, the process jumps to step S1410.

(ステップS1407)発音区間フレーム音韻確率値取得手段111032は、k番目のフレームの最適状態を含む音韻の全ての確率値を取得する。   (Step S1407) The pronunciation period frame phoneme probability value acquisition unit 111032 acquires all probability values of phonemes including the optimal state of the kth frame.

(ステップS1408)評定値算出手段111033は、ステップS1407で取得した1以上の確率値をパラメータとして、1フレームの音声の評定値を算出する。   (Step S1408) The rating value calculation means 111033 calculates the rating value of one frame of speech using one or more probability values acquired in step S1407 as parameters.

(ステップS1409)発音区間フレーム音韻確率値取得手段111032は、kを1、インクメントする。ステップS1406に戻る。   (Step S1409) The sounding section frame phoneme probability value acquiring unit 111032 increments k by 1. The process returns to step S1406.

(ステップS1410)評定値算出手段111033は、j番目の発音区間の評定値を算出する。評定値算出手段111033は、例えば、最適状態決定手段11031が決定した各フレームの最適状態を有する音韻全体の状態における1以上の確率値の総和を、フレーム毎に得て、当該フレーム毎の確率値の総和に基づいて、発音区間の確率値の総和の時間平均値を、当該発音区間の音声の評定値として算出する。   (Step S1410) The rating value calculation means 111033 calculates the rating value of the j-th pronunciation section. For example, the rating value calculation unit 1111033 obtains, for each frame, a sum of one or more probability values in the entire phoneme state having the optimal state of each frame determined by the optimal state determination unit 11031, and the probability value for each frame. Based on the sum total, the time average value of the sum total of the probability values of the sounding sections is calculated as the speech evaluation value of the sounding section.

(ステップS1411)出力手段1104は、ステップS1410で算出した評定値を出力する。   (Step S1411) The output means 1104 outputs the rating value calculated in step S1410.

(ステップS1412)発音区間フレーム音韻確率値取得手段111032は、jを1、インクメントする。ステップS1404に戻る。   (Step S1412) The sound generation section frame phoneme probability value acquiring unit 111032 increments j by 1. The process returns to step S1404.

以下、本実施の形態における音声処理装置の具体的な動作について説明する。本実施の形態において、評定値の算出アルゴリズムが実施の形態1とは異なるので、その動作を中心に説明する。   Hereinafter, a specific operation of the speech processing apparatus according to the present embodiment will be described. In the present embodiment, the rating value calculation algorithm is different from that of the first embodiment, and therefore the operation will be mainly described.

まず、学習者(評価対象者)が、語学学習の開始の指示である動作開始指示を入力する。そして、音声処理装置は、当該動作開始指示を受け付け、次に、発声催促部1109は、例えば、「"う"と発声してください。」と画面出力する。   First, a learner (evaluator) inputs an operation start instruction that is an instruction to start language learning. Then, the voice processing device receives the operation start instruction, and next, the utterance prompting unit 1109 outputs, for example, “Please say“ U ”” to the screen.

なお、ここでも、例えば、学習者は、実施の形態1と同様に子供である。また、教師データを作成するために発声した教師は、ネイティブの大人である、とする。かかることは、他の実施の形態の具体例の記載においても同様である、とする。   Here, for example, the learner is a child as in the first embodiment. Further, it is assumed that the teacher who has spoken to create the teacher data is a native adult. This also applies to the description of specific examples of other embodiments.

そして、評価対象者は、"う"と発声し、音声処理装置は、当該発声から、第二ンプリング周波数「32.1KHz」を得る。かかる処理は、実施の形態1において説明した処理と同様である。   Then, the evaluation target person utters “U”, and the speech processing apparatus obtains the second sampling frequency “32.1 KHz” from the utterance. Such processing is the same as the processing described in the first embodiment.

次に、発声催促部1109は、例えば、「"right"と発声してください。」と画面出力する。そして、学習者は、学習対象の音声「right」を発音する。そして、音声受付部103は、学習者が発音した音声の入力を受け付ける。   Next, the utterance prompting unit 1109 outputs, for example, “Please utter“ right ”” on the screen. Then, the learner pronounces the voice “right” to be learned. Then, the voice receiving unit 103 receives an input of a voice pronounced by the learner.

次に、サンプリング部106は、受け付けた音声「right」をサンプリング周波数「22.05KHz」でサンプリング処理する。そして、サンプリング部106は、「right」の第一音声データを得る。   Next, the sampling unit 106 samples the received voice “right” at the sampling frequency “22.05 KHz”. Then, the sampling unit 106 obtains the first audio data “right”.

次に、声道長正規化処理部109は、「right」の第一音声データを第二サンプリング周波数「32.1KHz」でリサンプリング処理する。そして、声道長正規化処理部109は、第二音声データを得る。次に、音声処理部1110は、第二音声データを、以下のように処理する。   Next, the vocal tract length normalization processing unit 109 resamples the first voice data of “right” at the second sampling frequency “32.1 KHz”. Then, the vocal tract length normalization processing unit 109 obtains second voice data. Next, the audio processing unit 1110 processes the second audio data as follows.

まず、フレーム区分手段1101は、「right」の第二音声データを、短時間フレームに区分する。   First, the frame segmentation unit 1101 segments the second audio data “right” into short frames.

そして、フレーム音声データ取得手段1102は、フレーム区分手段1101が区分した音声データを、スペクトル分析し、特徴ベクトル系列「O=o,o,・・・,o」を算出する。 Then, the frame audio data acquisition unit 1102 performs spectrum analysis on the audio data classified by the frame classification unit 1101 and calculates a feature vector series “O = o 1 , o 2 ,..., O T ”.

次に、発音区間フレーム音韻確率値取得手段111032は、各フレームの各状態の事後確率(確率値)を算出する。確率値の算出は、上述した数式1、数式2により算出できる。   Next, the pronunciation interval frame phoneme probability value acquisition unit 111032 calculates a posteriori probability (probability value) of each state of each frame. The probability value can be calculated by the above-described Equations 1 and 2.

次に、最適状態決定手段11031は、取得した特徴ベクトル系列を構成する各特徴ベクトルoに基づいて、各フレームの最適状態(特徴ベクトルoに対する最適状態)を決定する。つまり、最適状態決定手段11031は、最適状態系列を得る。なお、各フレームの各状態の事後確率(確率値)を算出する処理と、最適状態を決定する処理の処理順序は問わない。 Then, the optimal state determination unit 11031, based on the feature vector o t constituting the obtained feature vector series to determine the optimum conditions for each frame (optimum condition for the feature vector o t). That is, the optimum state determination unit 11031 obtains an optimum state sequence. In addition, the processing order of the process which calculates the posterior probability (probability value) of each state of each frame and the process which determines an optimal state is not ask | required.

次に、発音区間フレーム音韻確率値取得手段111032は、発音区間ごとに、当該発音区間に含まれる各フレームの最適状態を含む音韻の全ての確率値を取得する。そして、評定値算出手段111033は、各フレームの最適状態を含む音韻の全ての確率値の総和を、フレーム毎に算出する。そして、評定値算出手段111033は、フレーム毎に算出された確率値の総和を、発音区間毎に時間平均し、発音区間毎の評定値を算出する。具体的には、評定値算出手段111033は、数式3により評定値を算出する。数式3において、p−DAP(τ)は、各フレームにおける、すべての音韻の中で最適な音韻の事後確率(確率値)を表すように算出される評定値であり、数式4で算出され得る。なお、数式3のt−p−DAPは、最適状態を含む音韻の中の全状態の確率値を発音区間で評価して、算出される評定値である。また、数式3において、Τ(q )は、状態q を含むHMMが含まれる評定対象の発音区間である。|Τ(q )|は、Τ(q )の区間長である。また、数式4において、P(q )は、状態q を含むHMMが有する全状態識別子の集合である。
Next, the pronunciation interval frame phoneme probability value acquisition unit 111032 acquires, for each pronunciation interval, all probability values of phonemes including the optimum state of each frame included in the pronunciation interval. Then, the rating value calculation unit 111033 calculates the sum of all probability values of phonemes including the optimum state of each frame for each frame. Then, the rating value calculation means 111033 averages the sum of the probability values calculated for each frame for each sounding section, and calculates a rating value for each sounding section. Specifically, the rating value calculation unit 111033 calculates the rating value using Equation 3. In Equation 3, p-DAP (τ) is a rating value calculated to represent the optimal posterior probability (probability value) of all phonemes in each frame, and can be calculated by Equation 4. . Note that tp-DAP in Equation 3 is a rating value calculated by evaluating the probability values of all states in the phoneme including the optimal state in the pronunciation interval. Further, in Equation 3, Τ (q t * ) is a pronunciation interval of the evaluation target including the HMM including the state q t * . | Τ (q t * ) | is the section length of Τ (q t * ). Further, in Equation 4, P (q t * ) is a set of all state identifiers possessed by the HMM including the state q t * .

かかる評定値算出手段111033が算出した評定値(「t−p−DAPスコア」とも言う。)の出力例を、図15の表に示す。図15において、アメリカ人男性と日本人男性の評定結果を示す。PhonemeおよびWordは,t−p−DAPにおける時間平均の範囲を示す。ここでは、DAPの代わりにp−DAPの時間平均を採用したものである。図15において、アメリカ人男性の発音の評定値が日本人男性の発音の評定値より高く、良好な評定結果が得られている。   An output example of the rating value (also referred to as “tp-DAP score”) calculated by the rating value calculation unit 111033 is shown in the table of FIG. FIG. 15 shows the evaluation results of American men and Japanese men. Phoneme and Word indicate the range of time average in tp-DAP. Here, the time average of p-DAP is adopted instead of DAP. In FIG. 15, the American male pronunciation rating value is higher than the Japanese male pronunciation value, and a good rating result is obtained.

そして、出力手段1104は、算出した発音区間ごと(ここでは、音素毎)の評定値を、順次出力する。かかる出力例は、図16である。   Then, the output means 1104 sequentially outputs the calculated rating values for each calculated sounding section (here, for each phoneme). An example of such output is shown in FIG.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、精度の高い評定ができる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. In this case, according to the present embodiment, highly accurate evaluation can be performed without being affected by individual differences, particularly differences in vocal tract length.

また、本実施の形態によれば、連結されたHMMである連結HMMを用いて最適状態を求め、評定値を算出するので、高速に評定値を求めることができる。したがって、上記の具体例で述べたように、リアルタイムに、発音区間ごとの評定値を出力できる。また、本実施の形態によれば、動的計画法に基づいた事後確率を確率値として算出するので、さらに高速に評定値を求めることができる。   Further, according to the present embodiment, since the optimum state is obtained by using the concatenated HMM, which is a concatenated HMM, and the evaluation value is calculated, the evaluation value can be obtained at high speed. Therefore, as described in the specific example above, it is possible to output a rating value for each pronunciation interval in real time. Further, according to the present embodiment, the posterior probability based on the dynamic programming is calculated as the probability value, so that the rating value can be obtained at higher speed.

また、本実施の形態によれば、評定値を、発音区間の単位で算出でき、実施の形態1におけるような状態単位のDAPと比較して、本来、測定したい類似度(発音区間の類似度)を精度良く、安定して求めることができる。   In addition, according to the present embodiment, the rating value can be calculated in units of pronunciation intervals, and compared with the state unit DAP as in the first embodiment, the degree of similarity originally desired to be measured (similarity of pronunciation intervals) ) With high accuracy and stability.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリングステップと、第二サンプリング周波数「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program samples the received voice at the first sampling frequency and acquires the first voice data to the computer, and the second sampling frequency “first sampling frequency / (teacher data formant frequency / evaluation”. Target voice formant frequency) ", the voice received in the voice receiving step is subjected to a sampling process to obtain a second voice data, a vocal tract length normalization processing step, and a voice process to process the second voice data A program for executing a step.

また、上記プログラムにおいて、音声処理ステップは、前記第二音声データを、フレームに区分するフレーム区分ステップと、前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得ステップと、前記教師データと前記1以上のフレーム音声データに基づいて、前記受け付けた音声の評定を行う評定ステップと、前記評定ステップにおける評定結果を出力する出力ステップを具備する、ことは好適である。   In the above program, the audio processing step includes a frame dividing step for dividing the second audio data into frames, and a frame audio data acquiring step for obtaining one or more frame audio data which are audio data for each of the divided frames. And a rating step for rating the received voice based on the teacher data and the one or more frame voice data, and an output step for outputting a rating result in the rating step.

また、上記プログラムにおいて、前記評定ステップは、前記1以上のフレーム音声データの最適状態を決定する最適状態決定ステップと、前記最適状態決定ステップで決定した各フレームの最適状態を有する音韻全体の状態における1以上の確率値を、発音区間毎に取得する発音区間フレーム音韻確率値取得ステップと、前記発音区間フレーム音韻確率値取得ステップで取得した1以上の発音区間毎の1以上の確率値をパラメータとして音声の評定値を算出する評定値算出ステップを具備する、ことは好適である。
(実施の形態3)
In the above program, the rating step includes an optimum state determination step for determining an optimum state of the one or more frame sound data, and an overall phoneme state having an optimum state for each frame determined in the optimum state determination step. One or more probability values are acquired for each sounding section, and a sounding section frame phoneme probability value acquiring step and one or more probability values for one or more sounding sections acquired in the sounding section frame phoneme probability value acquiring step are used as parameters. It is preferable to include a rating value calculation step for calculating a rating value of speech.
(Embodiment 3)

本実施の形態において、比較対象の音声と入力音声の類似度を精度高く評定できる音声処理装置について説明する。特に、本音声処理装置は、無音区間を検知し、無音区間を考慮した類似度評定が可能な音声処理装置である。   In the present embodiment, a description will be given of a speech processing apparatus that can accurately evaluate the similarity between a comparison target speech and an input speech. In particular, the speech processing apparatus is a speech processing apparatus that can detect a silent section and can evaluate similarity in consideration of the silent section.

図17は、本実施の形態における音声処理装置のブロック図である。本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、教師データフォルマント周波数格納部104、第一サンプリング周波数格納部105、サンプリング部106、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108、声道長正規化処理部109、音声処理部1710、発声催促部1109を具備する。   FIG. 17 is a block diagram of the speech processing apparatus according to this embodiment. The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a teacher data formant frequency storage unit 104, a first sampling frequency storage unit 105, a sampling unit 106, and an evaluation target person formant frequency acquisition unit 107. The evaluation subject person formant frequency storage unit 108, the vocal tract length normalization processing unit 109, the voice processing unit 1710, and the utterance prompting unit 1109 are provided.

音声処理部1710は、フレーム区分手段1101、フレーム音声データ取得手段1102、特殊音声検知手段17101、評定手段17103、出力手段1104を具備する。   The audio processing unit 1710 includes a frame classification unit 1101, a frame audio data acquisition unit 1102, a special audio detection unit 17101, a rating unit 17103, and an output unit 1104.

特殊音声検知手段17101は、無音データ格納手段171011、無音区間検出手段171012を具備する。   The special voice detection unit 17101 includes a silence data storage unit 171101 and a silence interval detection unit 171012.

評定手段17103は、最適状態決定手段11031、最適状態確率値取得手段11032、評定値算出手段171033を具備する。   The rating unit 17103 includes an optimum state determining unit 11031, an optimum state probability value acquiring unit 11032, and a rating value calculating unit 171033.

特殊音声検知手段17101は、フレーム毎の入力音声データに基づいて、特殊な音声が入力されたことを検知する。なお、ここで特殊な音声は、無音も含む。また、特殊音声検知手段17101は、例えば、フレームの最適状態の確率値を、ある音素区間において取得し、ある音素区間の1以上の確率値の総和が所定の値より低い場合(想定されている音素ではない、と判断できる場合)、当該音素区間において特殊な音声が入力されたと、検知する。かかる検知の具体的なアルゴリズムの例は後述する。特殊音声検知手段17101は、通常、MPUやメモリ等から実現され得る。特殊音声検知手段17101の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The special sound detection unit 17101 detects that a special sound is input based on the input sound data for each frame. Here, the special voice includes silence. Further, the special speech detection unit 17101 acquires, for example, the probability value of the optimal state of the frame in a certain phoneme section, and the sum of one or more probability values of a certain phoneme section is lower than a predetermined value (assumed If it can be determined that it is not a phoneme), it is detected that a special voice is input in the phoneme section. An example of a specific algorithm for such detection will be described later. The special sound detection unit 17101 can be realized usually by an MPU, a memory, or the like. The processing procedure of the special sound detection means 17101 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

無音データ格納手段171011は、無音を示すデータであり、HMMに基づくデータである無音データを格納している。無音データ格納手段171011は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   The silence data storage unit 171101 is data indicating silence and stores silence data that is data based on the HMM. The silent data storage unit 171011 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

無音区間検出手段171012は、フレーム音声データ取得手段1102が取得したフレーム音声データ、および無音データ格納手段171011の無音データに基づいて、無音の区間を検出する。無音区間検出手段171012は、フレーム音声データ取得手段1102が取得したフレーム音声データと無音データの類似度が所定の値以上である場合に、当該フレーム音声データは無音区間のデータであると判断しても良い。また、無音区間検出手段171012は、下記で述べる最適状態確率値取得手段11032が取得した確率値が所定の値以下であり、かつ、フレーム音声データ取得手段1102が取得したフレーム音声データと無音データの類似度が所定の値以上である場合に、当該フレーム音声データは無音区間のデータであると判断しても良い。無音区間検出手段171012は、通常、MPUやメモリ等から実現され得る。無音区間検出手段171012の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The silent section detecting means 171012 detects a silent section based on the frame sound data acquired by the frame sound data acquiring means 1102 and the silent data of the silent data storage means 171101. When the similarity between the frame audio data acquired by the frame audio data acquisition unit 1102 and the silence data is equal to or higher than a predetermined value, the silence interval detection unit 171012 determines that the frame audio data is data of the silence interval. Also good. Further, the silent section detecting means 171012 has a probability value acquired by the optimum state probability value acquiring means 11032 described below equal to or less than a predetermined value, and the frame audio data and silent data acquired by the frame audio data acquiring means 1102 When the degree of similarity is equal to or greater than a predetermined value, the frame audio data may be determined to be silent section data. The silent section detection means 171012 can be usually realized by an MPU, a memory, or the like. The processing procedure of the silent section detection means 171012 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評定手段17103は、教師データと入力音声データと特殊音声検知手段17101における検知結果に基づいて、音声受付部103が受け付けた音声の評定を行う。「特殊音声検知手段17101における検知結果に基づく」とは、例えば、特殊音声検知手段17101が無音を検知した場合、当該無音の区間を無視することである。また、「特殊音声検知手段17101における検知結果に基づく」とは、例えば、特殊音声検知手段17101が置換や脱落などを検知した場合、当該置換や脱落などの検知により、評定値を所定数値分、減じて、評定値を算出することである。評定手段17103は、通常、MPUやメモリ等から実現され得る。評定手段17103の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The rating unit 17103 evaluates the voice received by the voice receiving unit 103 based on the teacher data, the input voice data, and the detection result of the special voice detecting unit 17101. “Based on the detection result in the special voice detection unit 17101” means, for example, that the silent section is ignored when the special voice detection unit 17101 detects silence. Further, “based on the detection result in the special voice detection unit 17101” means that, for example, when the special voice detection unit 17101 detects replacement or dropout, the evaluation value is set to a predetermined numerical value by detecting the replacement or dropout. Subtract and calculate the rating value. The rating means 17103 can be usually realized by an MPU, a memory, or the like. The processing procedure of the rating means 17103 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評定値算出手段171033は、無音区間検出手段171012が検出した無音区間を除いて、かつ最適状態確率値取得手段11032が取得した確率値をパラメータとして音声の評定値を算出する。なお、評定値算出手段171033は、上記確率値を如何に利用して、評定値を算出するかは問わない。評定値算出手段171033は、例えば、最適状態確率値取得手段11032が取得した確率値と、当該確率値に対応するフレームの全状態における確率値の総和をパラメータとして音声の評定値を算出する。評定値算出手段21023は、ここでは、通常、無音区間検出手段171012が検出した無音区間を除いて、フレームごとに評定値を算出する。なお、評定値算出手段171033は、かならずしも無音区間を除いて、評定値を算出する必要はない。評定値算出手段171033は、無音区間の影響を少なくするように評定値を算出しても良い。評定値算出手段171033は、通常、MPUやメモリ等から実現され得る。評定値算出手段171033の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The rating value calculation unit 171033 calculates a voice rating value using the probability value acquired by the optimum state probability value acquisition unit 11032 as a parameter, excluding the silent section detected by the silent segment detection unit 171012. Note that it does not matter how the rating value calculation means 171033 uses the probability value to calculate the rating value. The rating value calculation unit 171033 calculates a speech rating value using, for example, the sum of the probability value acquired by the optimum state probability value acquisition unit 11032 and the probability value in all states of the frame corresponding to the probability value as a parameter. Here, the rating value calculation means 21023 normally calculates a rating value for each frame except for the silent section detected by the silent section detection means 171012. Note that the rating value calculation unit 171033 does not necessarily calculate the rating value except for the silent section. The rating value calculation means 171033 may calculate the rating value so as to reduce the influence of the silent section. The rating value calculation unit 171033 can be realized usually by an MPU, a memory, or the like. The processing procedure of the rating value calculation means 171033 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

次に、音声処理装置の動作について図18、図19のフローチャートを用いて説明する。なお、図18のフローチャートは、図12のフローチャートと比較して、ステップS1801の評定処理のみが異なるので、図18のフローチャートの説明は省略する。ステップS1801の評定処理の詳細について、図19のフローチャートを用いて説明する。   Next, the operation of the speech processing apparatus will be described using the flowcharts of FIGS. Note that the flowchart of FIG. 18 is different from the flowchart of FIG. 12 only in the rating process of step S1801, and therefore the description of the flowchart of FIG. 18 is omitted. Details of the rating process in step S1801 will be described with reference to the flowchart of FIG.

(ステップS1901)評定手段17103は、DAPの評定値を算出する。DAPの評定値を算出するアルゴリズムは、実施の形態1で説明済みであるので、詳細な説明は省略する。DAPの評定値を算出する処理は、図2のフローチャートの、ステップS211からS214の処理により行う。   (Step S1901) The rating means 17103 calculates a DAP rating value. Since the algorithm for calculating the DAP rating value has been described in the first embodiment, a detailed description thereof will be omitted. The process of calculating the DAP rating value is performed by the processes of steps S211 to S214 in the flowchart of FIG.

(ステップS1902)特殊音声検知手段17101は、ステップS1901で算出した値が、所定の値より低いか否かを判断する。所定の値より低ければステップS1903に行き、所定の値より低くなければステップS1906に飛ぶ。   (Step S1902) The special sound detection unit 17101 determines whether or not the value calculated in step S1901 is lower than a predetermined value. If it is lower than the predetermined value, the process goes to step S1903, and if it is not lower than the predetermined value, the process jumps to step S1906.

(ステップS1903)無音区間検出手段171012は、無音データと全教師データの確率値を取得する。   (Step S1903) The silent section detecting means 171012 acquires the probability values of the silent data and all the teacher data.

(ステップS1904)無音区間検出手段171012は、ステップS1903で取得した確率値の中で、無音データの確率値が最も高いか否かを判断する。無音データの確率値が最も高ければ(かかる場合、無音の区間であると判断する)ステップS1905に行き、無音データの確率値が最も高くなければステップS1906に行く。   (Step S1904) The silent section detection means 171012 determines whether or not the probability value of silent data is the highest among the probability values acquired in step S1903. If the silence data has the highest probability value (in this case, it is determined that it is a silent section), the procedure goes to step S1905. If the silence data has a highest probability value, the procedure goes to step S1906.

(ステップS1905)無音区間検出手段171012は、カウンタiを1、インクリメントする。ステップS208に戻る。   (Step S1905) The silent section detecting means 171012 increments the counter i by 1. The process returns to step S208.

(ステップS1906)出力手段1104は、ステップS1901で算出した評定値を出力する。   (Step S1906) The output unit 1104 outputs the rating value calculated in step S1901.

なお、図19のフローチャートにおいて、出力手段1104は、無音区間と判定した区間の評定値は出力しなかった(無音区間を無視した)が、特殊音声が検知された区間が無音区間である旨を明示したり、無音区間が存在する旨を明示したりする態様で出力しても良い。また、評定値算出手段171033は、発音区間や、それ以上の単位のスコアを算出する場合に、無音区間の評定値を無視して、スコアを算出することが好適であるが、無音区間の評定値の影響を、例えば、1/10にして、発音区間や発音全体のスコアを算出するなどしても良い。評定手段17103は、教師データと入力音声データと特殊音声検知手段17101における検知結果に基づいて、音声受付部103が受け付けた音声の評定を行えばよい。   In the flowchart of FIG. 19, the output unit 1104 does not output the rating value of the section determined to be a silent section (ignoring the silent section), but indicates that the section where the special voice is detected is a silent section. You may output in the aspect which specifies clearly that a silence area exists. The rating value calculation means 171033 preferably calculates the score while ignoring the rating value in the silent section when calculating the score in the sounding section or higher units. The influence of the value may be set to 1/10, for example, and the score of the pronunciation interval or the entire pronunciation may be calculated. The rating unit 17103 may evaluate the voice received by the voice receiving unit 103 based on the teacher data, the input voice data, and the detection result of the special voice detecting unit 17101.

また、図19のフローチャートにおいて、特殊音声検知手段17101は、i番目のフレーム音声データのDAPスコアに基づいて特殊音声を検知したが、例えば、実施の形態2で説明したt−p−DAPスコアに基づいて特殊音声を検知しても良い。   In the flowchart of FIG. 19, the special voice detection unit 17101 detects the special voice based on the DAP score of the i-th frame voice data. For example, the special voice detection unit 17101 uses the tp-DAP score described in the second embodiment. Special voices may be detected based on this.

以下、本実施の形態における音声処理装置の具体的な動作について説明する。本実施の形態において、無音区間を考慮して評定値を算出するので、評定値の算出アルゴリズムが実施の形態1、実施の形態2とは異なる。そこで、その異なる処理を中心に説明する。   Hereinafter, a specific operation of the speech processing apparatus according to the present embodiment will be described. In the present embodiment, since the rating value is calculated in consideration of the silent section, the rating value calculation algorithm is different from that of the first and second embodiments. Therefore, the different processing will be mainly described.

まず、学習者(評価対象者)が、語学学習の開始の指示である動作開始指示を入力する。そして、音声処理装置は、当該動作開始指示を受け付け、次に、例えば、「"う"と発声してください。」と画面出力する。   First, a learner (evaluator) inputs an operation start instruction that is an instruction to start language learning. Then, the voice processing apparatus accepts the operation start instruction, and then outputs, for example, “Please say“ U ”” to the screen.

そして、評価対象者は、"う"と発声し、音声処理装置は、当該発声から、第二ンプリング周波数「32.1KHz」を得る。かかる処理は、実施の形態1等において説明した処理と同様である。   Then, the evaluation target person utters “U”, and the speech processing apparatus obtains the second sampling frequency “32.1 KHz” from the utterance. Such processing is the same as the processing described in the first embodiment.

次に、発声催促部1109は、例えば、「"right"と発声してください。」と画面出力する。そして、学習者は、学習対象の音声「right」を発音する。そして、音声受付部103は、学習者が発音した音声の入力を受け付ける。   Next, the utterance prompting unit 1109 outputs, for example, “Please utter“ right ”” on the screen. Then, the learner pronounces the voice “right” to be learned. Then, the voice receiving unit 103 receives an input of a voice pronounced by the learner.

次に、サンプリング部106は、受け付けた音声「right」をサンプリング周波数「22.05KHz」でサンプリング処理する。そして、サンプリング部106は、「right」の第一音声データを得る。   Next, the sampling unit 106 samples the received voice “right” at the sampling frequency “22.05 KHz”. Then, the sampling unit 106 obtains the first audio data “right”.

次に、声道長正規化処理部109は、「right」の第一音声データを、第二サンプリング周波数「32.1KHz」でリサンプリング処理する。そして、声道長正規化処理部109は、第二音声データを得る。次に、音声処理部1710は、第二音声データを、以下のように処理する。   Next, the vocal tract length normalization processing unit 109 performs a resampling process on the first voice data “right” at the second sampling frequency “32.1 KHz”. Then, the vocal tract length normalization processing unit 109 obtains second voice data. Next, the audio processing unit 1710 processes the second audio data as follows.

まず、フレーム区分手段1101は、「right」の第二音声データを、短時間フレームに区分する。   First, the frame segmentation unit 1101 segments the second audio data “right” into short frames.

そして、フレーム音声データ取得手段1102は、フレーム区分手段1101が区分した音声データを、スペクトル分析し、特徴ベクトル系列「O=o,o,・・・,o」を算出する。 Then, the frame audio data acquisition unit 1102 performs spectrum analysis on the audio data classified by the frame classification unit 1101 and calculates a feature vector series “O = o 1 , o 2 ,..., O T ”.

次に、最適状態決定手段11031は、取得した特徴ベクトル系列を構成する各特徴ベクトルoに基づいて、所定のフレームの最適状態(特徴ベクトルoに対する最適状態)を決定する。 Then, the optimal state determination unit 11031, based on the feature vector o t constituting the obtained feature vector series, to determine the optimal conditions for a given frame (optimum condition for the feature vector o t).

次に、最適状態確率値取得手段11032は、上述した数式1、2により、最適状態における確率値を算出する。   Next, the optimum state probability value acquisition unit 11032 calculates the probability value in the optimum state according to the above-described formulas 1 and 2.

次に、評定値算出手段171033は、例えば、最適状態決定手段11031が決定した最適状態を有する音韻全体の状態における1以上の確率値を取得し、当該1以上の確率値の総和をパラメータとして音声の評定値を算出する。つまり、評定値算出手段171033は、例えば、DAPスコアをフレーム毎に算出する。   Next, the rating value calculation unit 171033 acquires, for example, one or more probability values in the entire state of the phoneme having the optimal state determined by the optimal state determination unit 11031, and the sum of the one or more probability values is used as a parameter for the speech. The rating value of is calculated. That is, the rating value calculation unit 171033 calculates, for example, a DAP score for each frame.

そして、特殊音声検知手段17101は、算出されたフレームに対応する評定値(DAPスコア)を用いて、特殊な音声が入力されたか否かを判断する。具体的には、特殊音声検知手段17101は、例えば、評価対象のフレームに対して算出された評定値が、所定の数値より低ければ、特殊な音声が入力された、と判断する。なお、特殊音声検知手段17101は、一のフレームに対応する評定値が小さいからといって、直ちに特殊な音声が入力された、と判断する必要はない。つまり、特殊音声検知手段17101は、フレームに対応する評定値が小さいフレームが所定の数以上、連続する場合に、当該連続するフレーム群に対応する区間が特殊な音声が入力された区間と判断しても良い。   Then, the special voice detection unit 17101 determines whether or not a special voice has been input, using a rating value (DAP score) corresponding to the calculated frame. Specifically, for example, if the rating value calculated for the evaluation target frame is lower than a predetermined numerical value, the special voice detection unit 17101 determines that a special voice has been input. Note that the special voice detection unit 17101 does not need to determine that a special voice has been input immediately because the rating value corresponding to one frame is small. That is, the special voice detection unit 17101 determines that a section corresponding to the group of consecutive frames is a section where a special voice is input when a predetermined number or more of frames having a small evaluation value corresponding to the frame are consecutive. May be.

特殊音声検知手段17101が、特殊音声を検知する場合について説明する図を図20に示す。図20(a)の縦軸は、DAPスコアであり、横軸はフレームを示す。図20(a)において、(V)は、Viterbiアライメントを示す。図20(a)において、網掛けのフレーム群のおけるDAPスコアは、所定の値より低く、特殊音声の区間である、と判断される。   FIG. 20 illustrates a case where the special sound detection unit 17101 detects special sound. In FIG. 20A, the vertical axis represents the DAP score, and the horizontal axis represents the frame. In FIG. 20A, (V) shows Viterbi alignment. In FIG. 20A, it is determined that the DAP score in the shaded frame group is lower than a predetermined value and is a special speech section.

次に、特殊な音声が入力された、と判断した場合、無音区間検出手段171012は、無音データ格納手段171011から無音データを取得し、当該フレーム群と無音データとの類似度を算定し、類似度が所定値以上であれば当該フレーム群に対応する音声データが、無音データであると判断する。図20(b)は、無音データとの比較の結果、当該無音データとの類似度を示す事後確率の値(「DAPスコア」)が高いことを示す。その結果、無音区間検出手段171012は、当該特殊音声の区間は、無音区間である、と判断する。なお、図20(a)において、網掛けのフレーム群のおけるDAPスコアは、所定の値より低く、特殊音声の区間である、と判断され、かつ、無音データとの比較の結果、DAPスコアが低い場合には、無音区間ではない、と判断される。そして、かかる区間において、例えば、単に、発音が上手くなく、低い評定値が出力される。なお、図20(a)に示しているように、通常、無音区間は、第一のワード(「word1」)の最終音素の後半部、および第一のワードに続く第二のワード(「word2」)の第一音素の前半部のスコアが低い。   Next, if it is determined that a special voice has been input, the silent section detecting unit 171012 acquires the silent data from the silent data storage unit 171011, calculates the similarity between the frame group and the silent data, If the degree is equal to or greater than a predetermined value, it is determined that the audio data corresponding to the frame group is silent data. FIG. 20B shows that as a result of the comparison with the silence data, the value of the posterior probability (“DAP score”) indicating the similarity to the silence data is high. As a result, the silent section detector 171012 determines that the special speech section is a silent section. In FIG. 20A, the DAP score in the shaded frame group is lower than a predetermined value and is determined to be a special speech section, and as a result of comparison with silence data, the DAP score is If it is low, it is determined that it is not a silent section. In such a section, for example, the pronunciation is simply not good and a low rating value is output. Note that, as shown in FIG. 20 (a), the silence period usually includes the second half of the last phoneme of the first word ("word1") and the second word ("word2" following the first word). )) The first half of the first phoneme score is low.

そして、出力手段1104は、出力する評定値から、無音データの区間の評定値を考慮しないように、無視する。   Then, the output unit 1104 ignores the rating value to be output so as not to consider the rating value of the silent data section.

そして、出力手段1104は、各フレームに対応する評定値を出力する。この場合、例えば、無音データの区間の評定値は、出力されない。   Then, the output unit 1104 outputs a rating value corresponding to each frame. In this case, for example, the rating value of the silent data section is not output.

かかる評定値の出力態様例は、例えば、図9、図10である。   Examples of output modes of such rating values are, for example, FIG. 9 and FIG.

なお、出力手段1104が行う出力は、無音区間の存在を示すだけの出力でも良い。   Note that the output performed by the output unit 1104 may be an output that only indicates the presence of a silent section.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、精度の高い評定ができる。さらに、本音声処理装置は、無音区間を考慮して類似度を評定するので、極めて正確な評定結果が得られる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. In this case, according to the present embodiment, highly accurate evaluation can be performed without being affected by individual differences, particularly differences in vocal tract length. Furthermore, since the speech processing apparatus evaluates the similarity in consideration of the silent section, a very accurate evaluation result can be obtained.

なお、無音区間のデータは、無視して評定結果を算出することは好適である。ただし、本実施の形態において、例えば、無音区間の評価の影響を他の区間と比較して少なくするなど、無視する以外の方法で、無音区間のデータを考慮して、評定値を出力しても良い。   It is preferable to ignore the silent section data and calculate the evaluation result. However, in this embodiment, for example, the evaluation value is output in consideration of the data of the silent section by a method other than ignoring, such as reducing the influence of the evaluation of the silent section compared with other sections. Also good.

また、本実施の形態の具体例によれば、DAPスコアを用いて、評定値を算出したが、無音の区間を考慮して評定値を算出すれば良く、上述した他のアルゴリズム(t−p−DAP等)、または、本明細書では述べていない他のアルゴリズムにより評定値を算出しても良い。つまり、本実施の形態によれば、教師データと入力音声データと特殊音声検知手段における検知結果に基づいて、音声受付部が受け付けた音声の評定を行い、特に、無音データを考慮して、評定値を算出すれば良い。   Further, according to the specific example of the present embodiment, the rating value is calculated using the DAP score. However, the rating value may be calculated in consideration of the silent section, and the other algorithm (tp) described above is used. The rating value may be calculated by DAP or the like) or another algorithm not described in this specification. In other words, according to the present embodiment, the voice received by the voice receiving unit is evaluated based on the teacher data, the input voice data, and the detection result of the special voice detection unit, and in particular, the evaluation is performed in consideration of silent data. What is necessary is just to calculate a value.

また、本実施の形態によれば、まず、DAPスコアが低い区間を検出してから、無音区間の検出をした。しかし、DAPスコアが低い区間を検出せずに、無音データとの比較により、無音区間を検出しても良い。   In addition, according to the present embodiment, first, a section having a low DAP score is detected, and then a silent section is detected. However, a silent section may be detected by comparing with silent data without detecting a section having a low DAP score.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリングステップと、第二サンプリング周波数「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program samples the received voice at the first sampling frequency and acquires the first voice data to the computer, and the second sampling frequency “first sampling frequency / (teacher data formant frequency / evaluation”. Target voice formant frequency) ", the voice received in the voice receiving step is subjected to a sampling process to obtain a second voice data, a vocal tract length normalization processing step, and a voice process to process the second voice data A program for executing a step.

また、上記プログラムにおいて、音声処理ステップは、前記第二音声データを、フレームに区分するフレーム区分ステップと、前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得ステップと、前記フレーム毎の入力音声データに基づいて、特殊な音声が入力されたことを検知する特殊音声検知ステップと、教師データと前記入力音声データと前記特殊音声検知ステップにおける検知結果に基づいて、前記受け付けた音声の評定を行う評定ステップと、前記評定ステップにおける評定結果を出力する出力ステップを具備する、ことは好適である。   In the above program, the audio processing step includes a frame dividing step for dividing the second audio data into frames, and a frame audio data acquiring step for obtaining one or more frame audio data which are audio data for each of the divided frames. And, based on the input voice data for each frame, a special voice detection step for detecting that a special voice has been input, and based on detection results in the teacher data, the input voice data, and the special voice detection step, It is preferable that a rating step for rating the received voice and an output step for outputting a rating result in the rating step are preferable.

また、上記プログラムにおいて、特殊音声検知ステップは、無音を示すHMMに基づくデータである無音データと、前記入力音声データに基づいて、無音の区間を検出する、ことは好適である。
(実施の形態4)
In the above program, it is preferable that the special voice detecting step detects a silent section based on silent data which is data based on HMM indicating silent and the input voice data.
(Embodiment 4)

本実施の形態において、入力音声において、特殊音声を検知し、比較対象の音声と入力音声の類似度を精度高く評定できる音声処理装置について説明する。特に、本音声処理装置は、音韻の挿入を検知できる音声処理装置である。   In the present embodiment, a speech processing apparatus that detects special speech in input speech and can accurately evaluate the similarity between the speech to be compared and the input speech will be described. In particular, the speech processing apparatus is a speech processing apparatus that can detect insertion of phonemes.

図21は、本実施の形態における音声処理装置のブロック図である。本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、教師データフォルマント周波数格納部104、第一サンプリング周波数格納部105、サンプリング部106、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108、声道長正規化処理部109、音声処理部2110、発声催促部1109を具備する。   FIG. 21 is a block diagram of the speech processing apparatus according to this embodiment. The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a teacher data formant frequency storage unit 104, a first sampling frequency storage unit 105, a sampling unit 106, and an evaluation target person formant frequency acquisition unit 107. The evaluation subject person formant frequency storage unit 108, the vocal tract length normalization processing unit 109, the voice processing unit 2110, and the utterance prompting unit 1109 are provided.

音声処理部2110は、フレーム区分手段1101、フレーム音声データ取得手段1102、特殊音声検知手段21101、評定手段21103、出力手段21104を具備する。なお、評定手段21103は、最適状態決定手段11031、最適状態確率値取得手段11032を具備する。   The audio processing unit 2110 includes a frame classification unit 1101, a frame audio data acquisition unit 1102, a special audio detection unit 21101, a rating unit 21103, and an output unit 21104. The rating unit 21103 includes an optimum state determination unit 11031 and an optimum state probability value acquisition unit 11032.

特殊音声検知手段21101は、一の音素の後半部および当該音素の次の音素の前半部の評定値が所定の条件を満たすことを検知する。後半部、および前半部の長さは問わない。特殊音声検知手段21101は、通常、MPUやメモリ等から実現され得る。特殊音声検知手段21101の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The special voice detection unit 21101 detects that the rating values of the second half of one phoneme and the first half of the next phoneme after the phoneme satisfy a predetermined condition. The length of the second half and the first half is not limited. The special sound detection means 21101 can be usually realized by an MPU, a memory, or the like. The processing procedure of the special sound detection means 21101 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評定手段21103は、特殊音声検知手段21101が所定の条件を満たすことを検知した場合に、少なくとも音素の挿入があった旨を示す評定結果を構成する。なお、評定手段21103は、実施の形態3で述べたアルゴリズムにより、特殊音声検知手段21101が所定の条件を満たすことを検知した区間に無音が挿入されたか否かを判断し、無音が挿入されていない場合に、他の音素が挿入されたと検知しても良い。また、評定手段21103は、無音が挿入されていない場合に、他の音韻HMMに対する確率値を算出し、所定の値より高い確率値を得た音韻が挿入された、との評定結果を得ても良い。なお、実施の形態3で述べた無音区間の検知は、無音音素の挿入の検知である、とも言える。評定手段21103は、通常、MPUやメモリ等から実現され得る。評定手段21103の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The rating means 21103 constitutes a rating result indicating that at least a phoneme has been inserted when the special voice detecting means 21101 detects that a predetermined condition is satisfied. Note that the rating means 21103 determines whether or not silence has been inserted in the section in which the special voice detection means 21101 has detected that the predetermined condition is satisfied by the algorithm described in the third embodiment, and silence has been inserted. If not, it may be detected that another phoneme has been inserted. The rating means 21103 calculates a probability value for another phoneme HMM when no silence is inserted, and obtains a rating result that a phoneme having a probability value higher than a predetermined value is inserted. Also good. It can be said that the detection of the silent section described in the third embodiment is the detection of the insertion of a silent phoneme. The rating means 21103 can be usually realized by an MPU, a memory, or the like. The processing procedure of the rating means 21103 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力手段21104は、評定手段21103における評定結果を出力する。ここでの評定結果は、音素の挿入があった旨を示す評定結果を含む。また、評定結果は、音素の挿入があった場合に、所定数値分、減じられて算出された評定値(スコア)のみでも良い。また、評定結果は、音素の挿入があった旨、および評定値(スコア)の両方であっても良い。なお、教師データにおいて想定されていない音素の挿入を検知した場合、通常、評定値は低くなる。ここで、出力とは、ディスプレイへの表示、プリンタへの印字、音出力、外部の装置への送信、記録媒体への蓄積等を含む概念である。出力手段21104は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力手段21104は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   The output unit 21104 outputs the rating result in the rating unit 21103. The rating result here includes a rating result indicating that a phoneme has been inserted. The rating result may be only the rating value (score) calculated by subtracting a predetermined numerical value when a phoneme is inserted. In addition, the rating result may be both that the phoneme has been inserted and the rating value (score). In addition, when the insertion of the phoneme which is not assumed in the teacher data is detected, the rating value is usually low. Here, the output is a concept including display on a display, printing on a printer, sound output, transmission to an external device, accumulation in a recording medium, and the like. The output unit 21104 may or may not include an output device such as a display or a speaker. The output means 21104 can be implemented by output device driver software, or output device driver software and an output device.

次に、音声処理装置の動作について、図22、図23のフローチャートを用いて説明する。なお、図22のフローチャートは、図12のフローチャートと比較して、ステップS2201の評定処理のみが異なるので、図22のフローチャートの説明は省略する。ステップS2201の評定処理の詳細について、図23のフローチャートを用いて説明する。図23のフローチャートにおいて、図2、図19のフローチャートの処理と同様の処理については、その説明を省略する。   Next, the operation of the speech processing apparatus will be described using the flowcharts of FIGS. Note that the flowchart of FIG. 22 is different from the flowchart of FIG. 12 only in the rating process in step S2201, and thus the description of the flowchart of FIG. 22 is omitted. Details of the rating process in step S2201 will be described with reference to the flowchart of FIG. In the flowchart of FIG. 23, the description of the same processing as that of the flowcharts of FIGS. 2 and 19 is omitted.

(ステップS2301)特殊音声検知手段21101は、フレームに対応するデータを一時的に蓄積するバッファにデータが格納されているか否かを判断する。なお、格納されているデータは、ステップS1902で、所定の値より低い評定値と評価されたフレーム音声データ、または当該フレーム音声データから取得できるデータである。データが格納されていればステップS2307に行き、データが格納されていなければ上位関数にリターンする。   (Step S2301) The special sound detection unit 21101 determines whether data is stored in a buffer that temporarily accumulates data corresponding to a frame. The stored data is frame audio data evaluated as a rating value lower than a predetermined value in step S1902, or data that can be acquired from the frame audio data. If the data is stored, the process goes to step S2307, and if the data is not stored, the process returns to the upper function.

(ステップS2302)特殊音声検知手段21101は、バッファにデータが格納されているか否かを判断する。データが格納されていればステップS2307に行き、データが格納されていなければステップステップS2303に行く。   (Step S2302) The special sound detection unit 21101 determines whether data is stored in the buffer. If data is stored, go to step S2307, and if data is not stored, go to step S2303.

(ステップS2303)出力手段21104は、ステップS1901で算出した評定値を出力する。   (Step S2303) The output means 21104 outputs the rating value calculated in step S1901.

(ステップS2304)特殊音声検知手段21101は、カウンタiを1、インクリメントする。ステップS208に戻る。   (Step S2304) The special sound detection means 21101 increments the counter i by 1. The process returns to step S208.

(ステップS2305)特殊音声検知手段21101は、バッファに、所定の値より低い評定値と評価されたフレーム音声データ、または当該フレーム音声データから取得できるデータを一時蓄積する。   (Step S2305) The special sound detection means 21101 temporarily stores in the buffer frame audio data evaluated as a rating value lower than a predetermined value or data obtainable from the frame sound data.

(ステップS2306)特殊音声検知手段21101は、カウンタiを1、インクリメントする。ステップS208に戻る。   (Step S2306) The special sound detection means 21101 increments the counter i by 1. The process returns to step S208.

(ステップS2307)特殊音声検知手段21101は、カウンタjに1を代入する。   (Step S2307) The special sound detection means 21101 assigns 1 to the counter j.

(ステップS2308)特殊音声検知手段21101は、j番目のデータが、バッファに存在するか否かを判断する。j番目のデータが存在すればステップS2309に行き、j番目のデータが存在しなければステップS2315に飛ぶ。   (Step S2308) The special sound detection unit 21101 determines whether or not the j-th data exists in the buffer. If the jth data exists, the process goes to step S2309, and if the jth data does not exist, the process jumps to step S2315.

(ステップS2309)特殊音声検知手段21101は、j番目のデータに対応する最適状態の音素を取得する。   (Step S2309) The special voice detecting unit 21101 acquires a phoneme in an optimal state corresponding to the j-th data.

(ステップS2310)特殊音声検知手段21101は、j番目のデータに対する全教師データの確率値を算出し、最大の確率値を持つ音素を取得する。   (Step S2310) The special speech detection unit 21101 calculates the probability value of all the teacher data for the j-th data, and acquires the phoneme having the maximum probability value.

(ステップS2311)特殊音声検知手段21101は、ステップS2309で取得した音素とステップS2310で取得した音素が異なる音素であるか否かを判断する。異なる音素であればステップS2312に行き、異なる音素でなければステップS2314に飛ぶ。   (Step S2311) The special voice detection unit 21101 determines whether the phoneme acquired in step S2309 and the phoneme acquired in step S2310 are different phonemes. If the phoneme is different, the process goes to step S2312, and if not, the process jumps to step S2314.

(ステップS2312)評定手段21103は、音素の挿入があった旨を示す評定結果を構成する。   (Step S2312) The rating means 21103 constitutes a rating result indicating that a phoneme has been inserted.

(ステップS2313)特殊音声検知手段21101は、カウンタjを1、インクリメントする。ステップS2308に戻る。   (Step S2313) The special sound detection means 21101 increments the counter j by 1. The process returns to step S2308.

(ステップS2314)出力手段21104は、バッファ中の全データに対応する全評定値を出力する。ここで、全評定値とは、例えば、フレーム毎のDAPスコアである。ステップS2313に行く。   (Step S2314) The output means 21104 outputs all rating values corresponding to all data in the buffer. Here, the total rating value is, for example, a DAP score for each frame. Go to step S2313.

(ステップS2315)出力手段21104は、評定結果に「挿入の旨」の情報が入っているか否かを判断する。「挿入の旨」の情報が入っていればステップS2316に行き、「挿入の旨」の情報が入っていなければステップS2317に行く。   (Step S2315) The output unit 21104 determines whether or not the information of “insertion” is included in the evaluation result. If “insertion” information is included, the process proceeds to step S2316, and if “insertion” information is not included, the process proceeds to step S2317.

(ステップS2316)出力手段21104は、評定結果を出力する。   (Step S2316) The output means 21104 outputs a rating result.

(ステップS2317)出力手段21104は、バッファをクリアする。ステップS208に戻る。   (Step S2317) The output means 21104 clears the buffer. The process returns to step S208.

なお、図23のフローチャートにおいて、評定値の低いフレームが2つの音素に渡って存在すれば、音素の挿入があったと判断した。つまり、一の音素の後半部(少なくとも最終フレーム)および当該音素の次の音素の第一フレームの評定値が所定値より低い場合に、音素の挿入があったと判断した。しかし、図23のフローチャートにおいて、一の音素の所定区間以上の後半部、および当該音素の次の音素の所定区間以上の前半部の評定値が所定値よりすべて低い場合に、音素の挿入があったと判断するようにしても良い。   In the flowchart of FIG. 23, if a frame with a low rating value exists across two phonemes, it is determined that a phoneme has been inserted. That is, it is determined that a phoneme has been inserted when the rating value of the second half of at least one phoneme (at least the final frame) and the first frame of the next phoneme after the phoneme are lower than a predetermined value. However, in the flowchart of FIG. 23, when the evaluation values of the latter half of the predetermined phoneme and the first half of the phoneme next to the phoneme are all lower than the predetermined value, there is no phoneme insertion. You may make it judge that it was.

以下、本実施の形態における音声処理装置の具体的な動作について説明する。本実施の形態において、音素の挿入の検知を行う処理が実施の形態3等とは異なる。そこで、その異なる処理を中心に説明する。   Hereinafter, a specific operation of the speech processing apparatus according to the present embodiment will be described. In the present embodiment, the processing for detecting insertion of phonemes is different from that in the third embodiment. Therefore, the different processing will be mainly described.

まず、学習者(評価対象者)が、語学学習の開始の指示である動作開始指示を入力する。そして、音声処理装置は、当該動作開始指示を受け付け、次に、例えば、「"あ"と発声してください。」と画面出力する。   First, a learner (evaluator) inputs an operation start instruction that is an instruction to start language learning. Then, the voice processing apparatus receives the operation start instruction, and then outputs, for example, “Please say“ A ”” to the screen.

そして、学習者は、"あ"と発声し、音声処理装置は、当該発声から、第二ンプリング周波数「32.1KHz」を得る。かかる処理は、実施の形態1等において説明した処理と同様である。   Then, the learner utters “A”, and the speech processing apparatus obtains the second sampling frequency “32.1 KHz” from the utterance. Such processing is the same as the processing described in the first embodiment.

次に、発声催促部1109は、例えば、「"right"と発声してください。」と画面出力する。そして、学習者は、学習対象の音声「right」を発音する。そして、音声受付部103は、学習者が発音した音声の入力を受け付ける。   Next, the utterance prompting unit 1109 outputs, for example, “Please utter“ right ”” on the screen. Then, the learner pronounces the voice “right” to be learned. Then, the voice receiving unit 103 receives an input of a voice pronounced by the learner.

次に、サンプリング部106は、受け付けた音声「right」をサンプリング周波数「22.05KHz」でサンプリング処理する。そして、サンプリング部106は、「right」の第一音声データを得る。   Next, the sampling unit 106 samples the received voice “right” at the sampling frequency “22.05 KHz”. Then, the sampling unit 106 obtains the first audio data “right”.

次に、声道長正規化処理部109は、「right」の第一音声データを第二サンプリング周波数「32.1KHz」でリサンプリング処理する。そして、声道長正規化処理部109は、第二音声データを得る。次に、音声処理部2110は、第二音声データを、以下のように処理する。   Next, the vocal tract length normalization processing unit 109 resamples the first voice data of “right” at the second sampling frequency “32.1 KHz”. Then, the vocal tract length normalization processing unit 109 obtains second voice data. Next, the audio processing unit 2110 processes the second audio data as follows.

まず、フレーム区分手段1101は、「right」の第二音声データを、短時間フレームに区分する。   First, the frame segmentation unit 1101 segments the second audio data “right” into short frames.

そして、フレーム音声データ取得手段1102は、フレーム区分手段1101が区分した音声データを、スペクトル分析し、特徴ベクトル系列「O=o,o,・・・,o」を算出する。 Then, the frame audio data acquisition unit 1102 performs spectrum analysis on the audio data classified by the frame classification unit 1101 and calculates a feature vector series “O = o 1 , o 2 ,..., O T ”.

次に、評定手段21103の最適状態決定手段11031は、取得した特徴ベクトル系列を構成する各特徴ベクトルoに基づいて、所定のフレームの最適状態(特徴ベクトルoに対する最適状態)を決定する。 Then, the optimal state determination unit 11031 of the evaluation unit 21103, based on the feature vector o t constituting the obtained feature vector series, to determine the optimal conditions for a given frame (optimum condition for the feature vector o t).

次に、最適状態確率値取得手段11032は、上述した数式1、2により、最適状態における確率値を算出する。   Next, the optimum state probability value acquisition unit 11032 calculates the probability value in the optimum state according to the above-described formulas 1 and 2.

次に、評定手段21103は、例えば、最適状態決定手段11031が決定した最適状態を有する音韻全体の状態における1以上の確率値を取得し、当該1以上の確率値の総和をパラメータとして音声の評定値を算出する。つまり、評定手段21103は、例えば、DAPスコアをフレーム毎に算出する。ここで、算出するスコアは、上述したt−p−DAPスコア等でも良い。   Next, the rating unit 21103 acquires, for example, one or more probability values in the overall state of the phoneme having the optimal state determined by the optimal state determining unit 11031, and evaluates the speech using the sum of the one or more probability values as a parameter. Calculate the value. That is, the rating unit 21103 calculates a DAP score for each frame, for example. Here, the calculated score may be the above-described tp-DAP score or the like.

そして、特殊音声検知手段21101は、算出されたフレームに対応する評定値を用いて、特殊な音声が入力されたか否かを判断する。つまり、評定値(例えば、DAPスコア)が、所定の値より低い区間が存在するか否かを判断する。   Then, the special voice detection unit 21101 determines whether or not a special voice has been input using the rating value corresponding to the calculated frame. That is, it is determined whether or not there is a section where the rating value (for example, DAP score) is lower than a predetermined value.

次に、特殊音声検知手段21101は、図24に示すように、評定値(例えば、DAPスコア)が、所定の値より低い区間が、2つの音素に跨っているか否かを判断し、2つの音素に跨がっていれば、当該区間に音素が挿入された、と判断する。なお、かかる場合の詳細なアルゴリズムの例は、図23で説明した。また、図24において、斜線部が、予期しない音素が挿入された区間である。   Next, as shown in FIG. 24, the special voice detection unit 21101 determines whether or not a section where the rating value (for example, DAP score) is lower than a predetermined value straddles two phonemes. If the phoneme is straddled, it is determined that the phoneme is inserted in the section. An example of a detailed algorithm in such a case has been described with reference to FIG. In FIG. 24, the shaded area is a section in which an unexpected phoneme is inserted.

次に、評定手段21103は、音素の挿入があった旨を示す評定結果(例えば、「予期しない音素が挿入されました。」)を構成する。なお、予期しない音素が挿入された場合、評定手段21103は、例えば、所定数値分、減じて、評定値を算出することは好適である。そして、出力手段21104は、構成した評定結果(評定値を含んでも良い)を出力する。図25は、評定結果の出力例である。なお、出力手段21104は、通常の入力音声に対しては、上述したように評定値を出力することが好適である。   Next, the rating means 21103 constitutes a rating result (for example, “an unexpected phoneme has been inserted”) indicating that a phoneme has been inserted. When an unexpected phoneme is inserted, it is preferable that the rating unit 21103 calculates the rating value by subtracting a predetermined numerical value, for example. Then, the output unit 21104 outputs a configured rating result (which may include a rating value). FIG. 25 is an output example of the evaluation result. Note that the output means 21104 preferably outputs the rating value as described above for normal input speech.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、精度の高い評定ができる。さらに、本音声処理装置は、特殊音声、特に、予期せぬ音素の挿入を検知できるので、極めて精度の高い評定結果が得られる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. In this case, according to the present embodiment, highly accurate evaluation can be performed without being affected by individual differences, particularly differences in vocal tract length. Furthermore, since the speech processing apparatus can detect special speech, particularly unexpected insertion of phonemes, a highly accurate evaluation result can be obtained.

なお、本実施の形態において、音素の挿入を検知できれば良く、評定値の算出アルゴリズムは問わない。評定値の算出アルゴリズムは、上述したアルゴリズム(DAP、t−p−DAP)でも良く、または、本明細書では述べていない他のアルゴリズムでも良い。   In the present embodiment, it is only necessary to detect the insertion of phonemes, and the rating value calculation algorithm is not limited. The algorithm for calculating the rating value may be the above-described algorithm (DAP, tp-DAP), or another algorithm not described in this specification.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリングステップと、第二サンプリング周波数「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program samples the received voice at the first sampling frequency and acquires the first voice data to the computer, and the second sampling frequency “first sampling frequency / (teacher data formant frequency / evaluation”. Target voice formant frequency) ", the voice received in the voice receiving step is subjected to a sampling process to obtain a second voice data, a vocal tract length normalization processing step, and a voice process to process the second voice data A program for executing a step.

また、上記プログラムにおいて、音声処理ステップは、前記第二音声データを、フレームに区分するフレーム区分ステップと、前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得ステップと、前記フレーム毎の入力音声データに基づいて、特殊な音声が入力されたことを検知する特殊音声検知ステップと、教師データと前記入力音声データと前記特殊音声検知ステップにおける検知結果に基づいて、前記受け付けた音声の評定を行う評定ステップと、前記評定ステップにおける評定結果を出力する出力ステップを具備する、ことは好適である。   In the above program, the audio processing step includes a frame dividing step for dividing the second audio data into frames, and a frame audio data acquiring step for obtaining one or more frame audio data which are audio data for each of the divided frames. And, based on the input voice data for each frame, a special voice detection step for detecting that a special voice has been input, and based on detection results in the teacher data, the input voice data, and the special voice detection step, It is preferable that a rating step for rating the received voice and an output step for outputting a rating result in the rating step are preferable.

また、上記プログラムにおいて、特殊音声検知ステップは、一の音素の後半部および当該音素の次の音素の前半部の評定値が所定の条件を満たすことを検知する、ことは好適である。
(実施の形態5)
In the above program, it is preferable that the special speech detection step detects that the rating values of the second half of one phoneme and the first half of the next phoneme satisfy a predetermined condition.
(Embodiment 5)

本実施の形態において、入力音声において、特殊音声を検知し、比較対象の音声と入力音声の類似度を精度高く評定できる音声処理装置について説明する。特に、本音声処理装置は、音韻の置換を検知できる音声処理装置である。   In the present embodiment, a speech processing apparatus that detects special speech in input speech and can accurately evaluate the similarity between the speech to be compared and the input speech will be described. In particular, the speech processing apparatus is a speech processing apparatus that can detect phoneme replacement.

図26は、本実施の形態における音声処理装置のブロック図である。本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、教師データフォルマント周波数格納部104、第一サンプリング周波数格納部105、サンプリング部106、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108、声道長正規化処理部109、音声処理部2610、発声催促部1109を具備する。   FIG. 26 is a block diagram of the speech processing apparatus according to this embodiment. The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a teacher data formant frequency storage unit 104, a first sampling frequency storage unit 105, a sampling unit 106, and an evaluation target person formant frequency acquisition unit 107. The evaluation subject person formant frequency storage unit 108, the vocal tract length normalization processing unit 109, the voice processing unit 2610, and the utterance prompting unit 1109 are provided.

音声処理部2610は、フレーム区分手段1101、フレーム音声データ取得手段1102、特殊音声検知手段26101、評定手段26103、出力手段21104を具備する。なお、評定手段26103は、最適状態決定手段11031、最適状態確率値取得手段11032を具備する。   The audio processing unit 2610 includes a frame classification unit 1101, a frame audio data acquisition unit 1102, a special audio detection unit 26101, a rating unit 26103, and an output unit 21104. The rating unit 26103 includes an optimum state determination unit 11031 and an optimum state probability value acquisition unit 11032.

音声処理部2610は、第二音声データを処理する。音声処理部2610は、フレーム毎の入力音声データに基づいて、特殊な音声が入力されたことを検知する特殊音声検知手段26101を具備する。音声処理部2610は、通常、MPUやメモリ等から実現され得る。音声処理部2610の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The audio processing unit 2610 processes the second audio data. The audio processing unit 2610 includes special audio detection means 26101 that detects that special audio is input based on input audio data for each frame. The audio processing unit 2610 can usually be realized by an MPU, a memory, or the like. The processing procedure of the audio processing unit 2610 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

特殊音声検知手段26101は、一の音素の評定値が所定の値より低いことを検知する。また、特殊音声検知手段26101は、一の音素の評定値が所定の値より低く、かつ当該音素の直前の音素および当該音素の直後の音素の評定値が所定の値より高いことをも検知しても良い。また、特殊音声検知手段26101は、一の音素の評定値が所定の値より低く、かつ、想定していない音素のHMMに基づいて算出された評定値が所定の値より高いことを検知しても良い。つまり、特殊音声検知手段26101は、所定のアルゴリズムで、音韻の置換を検知できれば良い。そのアルゴリズムは種々考えられる。特殊音声検知手段26101は、通常、MPUやメモリ等から実現され得る。特殊音声検知手段26101の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The special voice detection means 26101 detects that the rating value of one phoneme is lower than a predetermined value. The special speech detection means 26101 also detects that the rating value of one phoneme is lower than a predetermined value, and that the phoneme immediately before the phoneme and the rating value of the phoneme immediately after the phoneme are higher than a predetermined value. May be. Further, the special voice detecting means 26101 detects that the rating value of one phoneme is lower than a predetermined value and that the rating value calculated based on the HMM of an unexpected phoneme is higher than the predetermined value. Also good. In other words, the special voice detection means 26101 only needs to be able to detect phoneme replacement by a predetermined algorithm. Various algorithms are conceivable. The special sound detection means 26101 can be usually realized by an MPU, a memory, or the like. The processing procedure of the special sound detection means 26101 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評定手段26103は、特殊音声検知手段26101が所定の条件を満たすことを検知した場合に、少なくとも音素の置換があった旨を示す評定結果を構成する。評定手段26103は、音素の置換があった場合に、所定数値分、減じられて算出された評定値(スコア)を算出しても良い。評定手段26103は、通常、MPUやメモリ等から実現され得る。評定手段26103の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The rating unit 26103 constitutes a rating result indicating that at least the phoneme has been replaced when the special voice detecting unit 26101 detects that the predetermined condition is satisfied. The rating means 26103 may calculate a rating value (score) calculated by subtracting a predetermined numerical value when a phoneme is replaced. The rating means 26103 can usually be realized by an MPU, a memory, or the like. The processing procedure of the rating means 26103 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

次に、音声処理装置の動作について、図27、図28のフローチャートを用いて説明する。なお、図27のフローチャートは、図12のフローチャートと比較して、ステップS2701の評定処理のみが異なるので、図27のフローチャートの説明は省略する。ステップS2701の評定処理の詳細について、図28のフローチャートを用いて説明する。図28のフローチャートにおいて、図2、図19、図23のフローチャートの処理と同様の処理については、その説明を省略する。   Next, the operation of the speech processing apparatus will be described using the flowcharts of FIGS. Note that the flowchart of FIG. 27 is different from the flowchart of FIG. 12 only in the rating process of step S2701, and thus the description of the flowchart of FIG. 27 is omitted. Details of the rating process in step S2701 will be described with reference to the flowchart of FIG. In the flowchart of FIG. 28, the description of the same processes as those in the flowcharts of FIGS. 2, 19, and 23 is omitted.

(ステップS2801)特殊音声検知手段26101は、バッファに蓄積されているデータに対応するフレーム音声データ群が一の音素に対応するか否かを判断する。一の音素であればステップS2802に行き、一の音素でなければステップS2810に行く。   (Step S2801) The special sound detection means 26101 determines whether or not the frame sound data group corresponding to the data stored in the buffer corresponds to one phoneme. If it is one phoneme, go to step S2802, and if it is not one phoneme, go to step S2810.

(ステップS2802)特殊音声検知手段26101は、バッファに蓄積されているデータに対応するフレーム音声データ群の音素の直前の音素の評定値を算出する。かかる評定値は、例えば、上述したDAPスコアである。なお、直前の音素とは、現在評定中の音素に対して直前の音素である。音素の区切りは、Viterbiアルゴリズムにより算出できる。   (Step S2802) The special sound detection means 26101 calculates the rating value of the phoneme immediately before the phoneme of the frame sound data group corresponding to the data stored in the buffer. Such a rating value is, for example, the DAP score described above. Note that the immediately preceding phoneme is the immediately preceding phoneme with respect to the currently rated phoneme. Phoneme breaks can be calculated by the Viterbi algorithm.

(ステップS2803)特殊音声検知手段26101は、ステップS2802で算出した評定値が所定の値以上であるか否かを判断する。所定の値以上であればステップS2804に行き、所定の値より小さければステップS2810に行く。   (Step S2803) The special sound detection unit 26101 determines whether or not the rating value calculated in Step S2802 is equal to or greater than a predetermined value. If it is equal to or larger than the predetermined value, the process goes to step S2804, and if it is smaller than the predetermined value, the process goes to step S2810.

(ステップS2804)特殊音声検知手段26101は、直後の音素の評定値を算出する。かかる評定値は、例えば、上述したDAPスコアである。直後の音素とは、現在評定中の音素に対して直後の音素である。   (Step S2804) The special speech detection means 26101 calculates the rating value of the immediately following phoneme. Such a rating value is, for example, the DAP score described above. The phoneme immediately after is the phoneme immediately after the phoneme currently being evaluated.

(ステップS2805)特殊音声検知手段26101は、ステップS2804で算出した評定値が所定の値以上であるか否かを判断する。所定の値以上であればステップS2806に行き、所定の値より小さければステップS2810に行く。   (Step S2805) The special sound detection means 26101 determines whether or not the rating value calculated in step S2804 is equal to or greater than a predetermined value. If it is equal to or greater than the predetermined value, the process proceeds to step S2806, and if it is smaller than the predetermined value, the process proceeds to step S2810.

(ステップS2806)特殊音声検知手段26101は、予め格納されている音韻HMM(予期する音韻のHMMは除く)の中で、所定の値以上の評定値が得られる音韻HMMが一つ存在するか否かを判断する。所定の値以上の評定値が得られる音韻HMMが存在すればステップS2807に行き、所定の値以上の評定値が得られる音韻HMMが存在しなければステップS2810に行く。なお、予め格納されている音韻HMMは、通常、すべての音韻に対する多数の音韻HMMである。なお、本ステップにおいて、予め格納されている音韻HMMの確率値を算出し、最大の確率値を持つ音素を取得し、当該音素と最適状態の音素が異なるか否かを判断し、異なる場合に音素の置換があったと判断しても良い。   (Step S2806) The special speech detection means 26101 determines whether or not there is one phoneme HMM that can obtain a rating value equal to or higher than a predetermined value among the phoneme HMMs stored in advance (except for the expected phoneme HMM). Determine whether. If there is a phoneme HMM that obtains a rating value greater than or equal to a predetermined value, the process proceeds to step S2807, and if there is no phoneme HMM that yields a rating value greater than or equal to the predetermined value, the process proceeds to step S2810. The phoneme HMM stored in advance is usually a large number of phoneme HMMs for all phonemes. In this step, the probability value of the phoneme HMM stored in advance is calculated, the phoneme having the maximum probability value is obtained, it is determined whether or not the phoneme in the optimum state is different from the phoneme in the optimum state. It may be determined that the phoneme has been replaced.

(ステップS2807)評定手段26103は、音素の置換があった旨を示す評定結果を構成する。   (Step S2807) The rating means 26103 constitutes a rating result indicating that the phoneme has been replaced.

(ステップS2808)出力手段21104は、ステップS2807で構成した評定結果を出力する。   (Step S2808) The output unit 21104 outputs the rating result configured in step S2807.

(ステップS2809)出力手段21104は、バッファをクリアする。ステップS208に戻る。   (Step S2809) The output means 21104 clears the buffer. The process returns to step S208.

(ステップS2810)出力手段21104は、バッファ中の全データに対応する全評定値を出力する。ステップS2809に行く。   (Step S2810) The output means 21104 outputs all rating values corresponding to all data in the buffer. Go to step S2809.

以下、本実施の形態における音声処理装置の具体的な動作について説明する。本実施の形態において、音素の置換の検知を行う処理が実施の形態4等とは異なる。そこで、その異なる処理を中心に説明する。   Hereinafter, a specific operation of the speech processing apparatus according to the present embodiment will be described. In the present embodiment, the processing for detecting phoneme replacement is different from that in the fourth embodiment. Therefore, the different processing will be mainly described.

まず、学習者(評価対象者)が、語学学習の開始の指示である動作開始指示を入力する。そして、音声処理装置は、当該動作開始指示を受け付け、次に、例えば、「"う"と発声してください。」と画面出力する。   First, a learner (evaluator) inputs an operation start instruction that is an instruction to start language learning. Then, the voice processing apparatus accepts the operation start instruction, and then outputs, for example, “Please say“ U ”” to the screen.

そして、評価対象者は、"う"と発声し、音声処理装置は、当該発声から、第二ンプリング周波数「32.1KHz」を得る。かかる処理は、実施の形態1等において説明した処理と同様である。   Then, the evaluation target person utters “U”, and the speech processing apparatus obtains the second sampling frequency “32.1 KHz” from the utterance. Such processing is the same as the processing described in the first embodiment.

次に、発声催促部1109は、例えば、「"right"と発声してください。」と画面出力する。そして、学習者は、学習対象の音声「right」を発音する。そして、音声受付部103は、学習者が発音した音声の入力を受け付ける。   Next, the utterance prompting unit 1109 outputs, for example, “Please utter“ right ”” on the screen. Then, the learner pronounces the voice “right” to be learned. Then, the voice receiving unit 103 receives an input of a voice pronounced by the learner.

次に、サンプリング部106は、受け付けた音声「right」をサンプリング周波数「22.05KHz」でサンプリング処理する。そして、サンプリング部106は、「right」の第一音声データを得る。   Next, the sampling unit 106 samples the received voice “right” at the sampling frequency “22.05 KHz”. Then, the sampling unit 106 obtains the first audio data “right”.

次に、声道長正規化処理部109は、「right」の第一音声データを第二サンプリング周波数「32.1KHz」でリサンプリング処理する。そして、声道長正規化処理部109は、第二音声データを得る。次に、音声処理部2610は、第二音声データを、以下のように処理する。   Next, the vocal tract length normalization processing unit 109 resamples the first voice data of “right” at the second sampling frequency “32.1 KHz”. Then, the vocal tract length normalization processing unit 109 obtains second voice data. Next, the audio processing unit 2610 processes the second audio data as follows.

まず、フレーム区分手段1101は、「right」の第二音声データを、短時間フレームに区分する。   First, the frame segmentation unit 1101 segments the second audio data “right” into short frames.

そして、フレーム音声データ取得手段1102は、フレーム区分手段1101が区分した音声データを、スペクトル分析し、特徴ベクトル系列「O=o,o,・・・,o」を算出する。 Then, the frame audio data acquisition unit 1102 performs spectrum analysis on the audio data classified by the frame classification unit 1101 and calculates a feature vector series “O = o 1 , o 2 ,..., O T ”.

次に、評定手段26103の最適状態決定手段11031は、取得した特徴ベクトル系列を構成する各特徴ベクトルoに基づいて、所定のフレームの最適状態(特徴ベクトルoに対する最適状態)を決定する。 Then, the optimal state determination unit 11031 of the evaluation unit 26103, based on the feature vector o t constituting the obtained feature vector series, to determine the optimal conditions for a given frame (optimum condition for the feature vector o t).

次に、最適状態確率値取得手段11032は、上述した数式1、2により、最適状態における確率値を算出する。   Next, the optimum state probability value acquisition unit 11032 calculates the probability value in the optimum state according to the above-described formulas 1 and 2.

次に、評定手段26103は、例えば、最適状態決定手段11031が決定した最適状態を有する音韻全体の状態における1以上の確率値を取得し、当該1以上の確率値の総和をパラメータとして音声の評定値を算出する。つまり、評定手段26103は、例えば、DAPスコアをフレーム毎に算出する。ここで、算出するスコアは、上述したt−p−DAPスコア等でも良い。   Next, the rating unit 26103 acquires, for example, one or more probability values in the overall state of the phoneme having the optimal state determined by the optimal state determining unit 11031, and evaluates the speech using the sum of the one or more probability values as a parameter. Calculate the value. That is, the rating unit 26103 calculates a DAP score for each frame, for example. Here, the calculated score may be the above-described tp-DAP score or the like.

そして、特殊音声検知手段26101は、算出されたフレームに対応する評定値を用いて、特殊な音声が入力されたか否かを判断する。つまり、評定値(例えば、DAPスコア)が、所定の値より低い区間が存在するか否かを判断する。   Then, the special voice detection unit 26101 determines whether or not a special voice has been input, using a rating value corresponding to the calculated frame. That is, it is determined whether or not there is a section where the rating value (for example, DAP score) is lower than a predetermined value.

次に、特殊音声検知手段26101は、図29に示すように、評定値(例えば、DAPスコア)が、所定の値より低い区間が、一つの音素内(ここでは音素2)であるか否かを判断する。そして、一つの音素内で評定値が低ければ、次に、特殊音声検知手段26101は、直前の音素(音素1)および/または直後の音素(音素3)に対する評定値(例えば、DAPスコア)を算出し、当該評定値が所定の値より高ければ、音素の置換が発生している可能性があると判断する。次に、特殊音声検知手段26101は、予め格納されている音韻HMM(予期する音韻のHMMは除く)の中で、所定の値以上の評定値が得られる音韻HMMが一つ存在すれば、音素の置換が発生していると判断する。なお、図29において、音素2において、音素の置換が発生した区間である。なお、図29において縦軸は評定値であり、当該評定値は、DAP、t−p−DAP等、問わない。   Next, as shown in FIG. 29, the special speech detection means 26101 determines whether or not a section where the rating value (for example, DAP score) is lower than a predetermined value is within one phoneme (here, phoneme 2). Judging. If the rating value is low in one phoneme, then the special speech detection means 26101 then calculates a rating value (for example, DAP score) for the immediately preceding phoneme (phoneme 1) and / or the immediately following phoneme (phoneme 3). If the rating value is higher than a predetermined value, it is determined that there is a possibility that phoneme replacement has occurred. Next, if there is one phoneme HMM in which a rating value equal to or higher than a predetermined value is present among the phoneme HMMs stored in advance (excluding the HMM of an expected phoneme), the special speech detection unit 26101 can generate a phoneme. It is determined that the replacement has occurred. In FIG. 29, the phoneme 2 is a section in which phoneme replacement has occurred. In FIG. 29, the vertical axis represents a rating value, and the rating value may be DAP, tp-DAP, or the like.

次に、評定手段26103は、音素の置換があった旨を示す評定結果(例えば、「音素の置換が発生しました。」)を構成する。そして、出力手段21104は、構成した評定結果を出力する。なお、出力手段21104は、通常の入力音声に対しては、上述したように評定値を出力することが好適である。   Next, the rating means 26103 constitutes a rating result (for example, “phoneme replacement has occurred”) indicating that there has been a phoneme replacement. Then, the output means 21104 outputs the configured evaluation result. Note that the output means 21104 preferably outputs the rating value as described above for normal input speech.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、精度の高い評定ができる。さらに、本音声処理装置は、特殊音声、特に、音素の置換を検知できるので、極めて精度の高い評定結果が得られる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. In this case, according to the present embodiment, highly accurate evaluation can be performed without being affected by individual differences, particularly differences in vocal tract length. Furthermore, since this speech processing apparatus can detect special speech, particularly phoneme substitution, it is possible to obtain a highly accurate evaluation result.

なお、本実施の形態において、音素の置換を検知できれば良く、評定値の算出アルゴリズムは問わない。評定値の算出アルゴリズムは、上述したアルゴリズム(DAP、t−p−DAP)でも良く、または、本明細書では述べていない他のアルゴリズムでも良い。   In the present embodiment, it is only necessary to be able to detect phoneme replacement, and the rating value calculation algorithm is not limited. The algorithm for calculating the rating value may be the above-described algorithm (DAP, tp-DAP), or another algorithm not described in this specification.

また、本実施の形態において、音素の置換の検知アルゴリズムは、他のアルゴリズムでも良い。例えば、音素の置換の検知において、所定以上の長さの区間を有することを置換区間の検知で必須としても良い。その他、置換の検知アルゴリズムの詳細は種々考えられる。   In the present embodiment, the phoneme replacement detection algorithm may be another algorithm. For example, in the detection of the replacement of phonemes, it may be essential to detect the replacement section to have a section longer than a predetermined length. In addition, various details of the replacement detection algorithm can be considered.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリングステップと、第二サンプリング周波数「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program samples the received voice at the first sampling frequency and acquires the first voice data to the computer, and the second sampling frequency “first sampling frequency / (teacher data formant frequency / evaluation”. Target voice formant frequency) ", the voice received in the voice receiving step is subjected to a sampling process to obtain a second voice data, a vocal tract length normalization processing step, and a voice process to process the second voice data A program for executing a step.

また、上記プログラムにおいて、音声処理ステップは、前記第二音声データを、フレームに区分するフレーム区分ステップと、前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得ステップと、前記フレーム毎の入力音声データに基づいて、特殊な音声が入力されたことを検知する特殊音声検知ステップと、教師データと前記入力音声データと前記特殊音声検知ステップにおける検知結果に基づいて、前記受け付けた音声の評定を行う評定ステップと、前記評定ステップにおける評定結果を出力する出力ステップを具備する、ことは好適である。   In the above program, the audio processing step includes a frame dividing step for dividing the second audio data into frames, and a frame audio data acquiring step for obtaining one or more frame audio data which are audio data for each of the divided frames. And, based on the input voice data for each frame, a special voice detection step for detecting that a special voice has been input, and based on detection results in the teacher data, the input voice data, and the special voice detection step, It is preferable that a rating step for rating the received voice and an output step for outputting a rating result in the rating step are preferable.

また、上記プログラムにおいて、特殊音声検知ステップは、一の音素の評定値が所定の条件を満たすことを検知し、特殊音声検知ステップで前記所定の条件を満たすことを検知した場合に、少なくとも音素の置換があった旨を示す評定結果を構成する、ことは好適である。
(実施の形態6)
In the above program, the special speech detection step detects that the rating value of one phoneme satisfies a predetermined condition, and if the special speech detection step detects that the predetermined condition is satisfied, It is preferable to construct a rating result indicating that there has been a substitution.
(Embodiment 6)

本実施の形態において、入力音声において、特殊音声を検知し、比較対象の音声と入力音声の類似度を精度高く評定できる音声処理装置について説明する。特に、本音声処理装置は、音韻の欠落を検知できる音声処理装置である。   In the present embodiment, a speech processing apparatus that detects special speech in input speech and can accurately evaluate the similarity between the speech to be compared and the input speech will be described. In particular, the speech processing apparatus is a speech processing apparatus that can detect missing phonemes.

図30は、本実施の形態における音声処理装置のブロック図である。本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、教師データフォルマント周波数格納部104、第一サンプリング周波数格納部105、サンプリング部106、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108、声道長正規化処理部109、音声処理部3010、発声催促部1109を具備する。   FIG. 30 is a block diagram of the speech processing apparatus according to this embodiment. The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a teacher data formant frequency storage unit 104, a first sampling frequency storage unit 105, a sampling unit 106, and an evaluation target person formant frequency acquisition unit 107. The evaluation subject person formant frequency storage unit 108, the vocal tract length normalization processing unit 109, the voice processing unit 3010, and the utterance prompting unit 1109 are provided.

音声処理部3010は、フレーム区分手段1101、フレーム音声データ取得手段1102、特殊音声検知手段30101、評定手段30103、出力手段21104を具備する。なお、評定手段30103は、最適状態決定手段11031、最適状態確率値取得手段11032を具備する。   The audio processing unit 3010 includes a frame classification unit 1101, a frame audio data acquisition unit 1102, a special audio detection unit 30101, a rating unit 30103, and an output unit 21104. The rating unit 30103 includes an optimum state determination unit 11031 and an optimum state probability value acquisition unit 11032.

特殊音声検知手段30101は、一の音素の評定値が所定の値より低く、かつ当該音素の直前の音素または当該音素の直後の音素の評定値が所定の値より高いことを検知する。また、特殊音声検知手段30101は、一の音素の評定値が所定の値より低く、かつ当該音素の直前の音素または当該音素の直後の音素の評定値が所定の値より高く、かつ当該音素の区間長が所定の長さよりも短いことを検知しても良い。また、特殊音声検知手段30101は、直前の音素に対応する確率値、または直後の音素に対応する確率値が、当該一の音素の確率値より高いことを検知しても良い。かかる場合に、特殊音声検知手段30101は、音韻の欠落を検知することは好適である。さらに、音素の区間長が所定の長さよりも短いことを欠落の条件に含めることにより、音韻の欠落の検知の精度は向上する。特殊音声検知手段30101は、通常、MPUやメモリ等から実現され得る。特殊音声検知手段30101の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The special voice detection unit 30101 detects that the rating value of one phoneme is lower than a predetermined value, and that the phoneme immediately before the phoneme or the rating value of the phoneme immediately after the phoneme is higher than a predetermined value. Further, the special voice detection means 30101 has a rating value of one phoneme lower than a predetermined value, a rating value of a phoneme immediately before the phoneme or a phoneme immediately after the phoneme is higher than a predetermined value, and the phoneme of the phoneme It may be detected that the section length is shorter than a predetermined length. The special speech detection unit 30101 may detect that the probability value corresponding to the immediately preceding phoneme or the probability value corresponding to the immediately following phoneme is higher than the probability value of the one phoneme. In such a case, it is preferable that the special voice detection unit 30101 detects missing phonemes. Furthermore, by including that the segment length of the phoneme is shorter than a predetermined length in the missing condition, the accuracy of detecting missing phonemes is improved. The special sound detection means 30101 can be usually realized by an MPU, a memory, or the like. The processing procedure of the special sound detection means 30101 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

評定手段30103は、特殊音声検知手段30101が所定の条件を満たすことを検知した場合に、少なくとも音素の欠落があった旨を示す評定結果を構成する。評定手段30103は、通常、MPUやメモリ等から実現され得る。評定手段30103の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The rating unit 30103 constitutes a rating result indicating that at least a phoneme is missing when the special voice detecting unit 30101 detects that a predetermined condition is satisfied. The rating means 30103 can usually be realized by an MPU, a memory, or the like. The processing procedure of the rating means 30103 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

次に、音声処理装置の動作について、図31、図32のフローチャートを用いて説明する。なお、図31のフローチャートは、図12のフローチャートと比較して、ステップS3101の評定処理のみが異なるので、図31のフローチャートの説明は省略する。ステップS3101の評定処理の詳細について、図32のフローチャートを用いて説明する。図32のフローチャートにおいて、図2、図19、図23、図28のフローチャートの処理と同様の処理については、その説明を省略する。   Next, the operation of the speech processing apparatus will be described using the flowcharts of FIGS. Note that the flowchart of FIG. 31 is different from the flowchart of FIG. 12 only in the rating process in step S3101, and thus the description of the flowchart of FIG. 31 is omitted. Details of the rating process in step S3101 will be described with reference to the flowchart of FIG. In the flowchart of FIG. 32, the description of the same processes as those of the flowcharts of FIGS. 2, 19, 23, and 28 is omitted.

(ステップS3201)特殊音声検知手段30101は、バッファに蓄積されているデータに対して、直前の音素に対応する教師データの確率値または、直後の音素に対応する教師データの確率値が、予定されている音素に対応する教師データの確率値より高いか否かを判断する。高ければステップS3202に行き、高くなければステップS2810に行く。なお、ステップS3202に行くための条件として、バッファに蓄積されているデータに対応するフレーム音声データ群の区間長が所定の長さ以下であることを付加しても良い。   (Step S3201) The special voice detection means 30101 schedules the probability value of the teacher data corresponding to the immediately preceding phoneme or the probability value of the teacher data corresponding to the immediately following phoneme with respect to the data stored in the buffer. It is determined whether or not the probability value of the teacher data corresponding to the current phoneme is higher. If it is higher, go to step S3202, otherwise go to step S2810. As a condition for going to step S3202, it may be added that the section length of the frame audio data group corresponding to the data stored in the buffer is equal to or less than a predetermined length.

(ステップS3202)評定手段30103は、音素の欠落があった旨を示す評定結果を構成する。ステップS2808に行く。   (Step S3202) The rating means 30103 constitutes a rating result indicating that a phoneme is missing. Go to step S2808.

なお、図32のフローチャートにおいて、評定対象の音素(欠落したであろう音素)の区間長が、所定の長さ(例えば、3フレーム)よりも短いことを条件としても良いし、かかる条件は無くても良い。   In the flowchart of FIG. 32, the section length of the phonemes to be evaluated (phonemes that will be missing) may be shorter than a predetermined length (for example, 3 frames), or there is no such condition. May be.

以下、本実施の形態における音声処理装置の具体的な動作について説明する。本実施の形態において、音素の欠落の検知を行う処理が実施の形態5等とは異なる。そこで、その異なる処理を中心に説明する。   Hereinafter, a specific operation of the speech processing apparatus according to the present embodiment will be described. In the present embodiment, the processing for detecting missing phonemes is different from that in the fifth embodiment. Therefore, the different processing will be mainly described.

まず、学習者(評価対象者)が、語学学習の開始の指示である動作開始指示を入力する。そして、音声処理装置は、当該動作開始指示を受け付け、次に、例えば、「"う"と発声してください。」と画面出力する。   First, a learner (evaluator) inputs an operation start instruction that is an instruction to start language learning. Then, the voice processing apparatus accepts the operation start instruction, and then outputs, for example, “Please say“ U ”” to the screen.

そして、評価対象者は、"う"と発声し、音声処理装置は、当該発声から、第二ンプリング周波数「32.1KHz」を得る。かかる処理は、実施の形態1等において説明した処理と同様である。   Then, the evaluation target person utters “U”, and the speech processing apparatus obtains the second sampling frequency “32.1 KHz” from the utterance. Such processing is the same as the processing described in the first embodiment.

次に、発声催促部1109は、例えば、「"right"と発声してください。」と画面出力する。そして、学習者は、学習対象の音声「right」を発音する。そして、音声受付部103は、学習者が発音した音声の入力を受け付ける。   Next, the utterance prompting unit 1109 outputs, for example, “Please utter“ right ”” on the screen. Then, the learner pronounces the voice “right” to be learned. Then, the voice receiving unit 103 receives an input of a voice pronounced by the learner.

次に、サンプリング部106は、受け付けた音声「right」をサンプリング周波数「22.05KHz」でサンプリング処理する。そして、サンプリング部106は、「right」の第一音声データを得る。   Next, the sampling unit 106 samples the received voice “right” at the sampling frequency “22.05 KHz”. Then, the sampling unit 106 obtains the first audio data “right”.

次に、声道長正規化処理部109は、「right」の第一音声データを第二サンプリング周波数「32.1KHz」でリサンプリング処理する。そして、声道長正規化処理部109は、第二音声データを得る。次に、音声処理部3010は、第二音声データを、以下のように処理する。   Next, the vocal tract length normalization processing unit 109 resamples the first voice data of “right” at the second sampling frequency “32.1 KHz”. Then, the vocal tract length normalization processing unit 109 obtains second voice data. Next, the audio processing unit 3010 processes the second audio data as follows.

まず、フレーム区分手段1101は、「right」の第二音声データを、短時間フレームに区分する。   First, the frame segmentation unit 1101 segments the second audio data “right” into short frames.

そして、フレーム音声データ取得手段1102は、フレーム区分手段1101が区分した音声データを、スペクトル分析し、特徴ベクトル系列「O=o,o,・・・,o」を算出する。 Then, the frame audio data acquisition unit 1102 performs spectrum analysis on the audio data classified by the frame classification unit 1101 and calculates a feature vector series “O = o 1 , o 2 ,..., O T ”.

次に、最適状態決定手段11031は、取得した特徴ベクトル系列を構成する各特徴ベクトルoに基づいて、所定のフレームの最適状態(特徴ベクトルoに対する最適状態)を決定する。 Then, the optimal state determination unit 11031, based on the feature vector o t constituting the obtained feature vector series, to determine the optimal conditions for a given frame (optimum condition for the feature vector o t).

次に、最適状態確率値取得手段11032は、上述した数式1、2により、最適状態における確率値を算出する。   Next, the optimum state probability value acquisition unit 11032 calculates the probability value in the optimum state according to the above-described formulas 1 and 2.

次に、評定手段30103は、例えば、最適状態決定手段11031が決定した最適状態を有する音韻全体の状態における1以上の確率値を取得し、当該1以上の確率値の総和をパラメータとして音声の評定値を算出する。つまり、評定手段30103は、例えば、DAPスコアをフレーム毎に算出する。ここで、算出するスコアは、上述したt−p−DAPスコア等でも良い。   Next, the rating unit 30103 acquires, for example, one or more probability values in the overall state of the phoneme having the optimum state determined by the optimum state determining unit 11031, and evaluates the speech using the sum of the one or more probability values as a parameter. Calculate the value. That is, the rating unit 30103 calculates, for example, a DAP score for each frame. Here, the calculated score may be the above-described tp-DAP score or the like.

そして、特殊音声検知手段30101は、算出されたフレームに対応する評定値を用いて、特殊な音声が入力されたか否かを判断する。つまり、評定値(例えば、DAPスコア)が、所定の値より低い区間が存在するか否かを判断する。   Then, the special voice detection unit 30101 determines whether or not a special voice has been input using the rating value corresponding to the calculated frame. That is, it is determined whether or not there is a section where the rating value (for example, DAP score) is lower than a predetermined value.

次に、特殊音声検知手段30101は、図33に示すように、評定値(例えば、DAPスコア)が、所定の値より低い区間が、一つの音素内(ここでは音素2)であるか否かを判断する。そして、一つの音素内で評定値が低ければ、特殊音声検知手段30101は、直前の音素(音素1)または直後の音素(音素3)に対する評定値(例えば、DAPスコア)を算出し、当該評定値が所定の値より高ければ、音素の欠落が発生している可能性があると判断する。そして、当該区間長が、例えば、3フレーム以下の長さであれば、かかる音素は欠落したと判断する。なお、図33において、音素2の欠落が発生したことを示す。なお、図33において縦軸は評定値であり、当該評定値は、DAP、t−p−DAP等、問わない。また、上記区間長の所定値は、「3フレーム以下」ではなく、「5フレーム以下」でも、「6フレーム以下」でも良い。   Next, as shown in FIG. 33, the special speech detection means 30101 determines whether or not a section where the rating value (for example, DAP score) is lower than a predetermined value is within one phoneme (here, phoneme 2). Judging. If the rating value is low in one phoneme, the special speech detection unit 30101 calculates a rating value (for example, DAP score) for the immediately preceding phoneme (phoneme 1) or the immediately following phoneme (phoneme 3), and the rating. If the value is higher than a predetermined value, it is determined that there is a possibility that a phoneme is missing. If the section length is, for example, 3 frames or less, it is determined that such phonemes are missing. FIG. 33 shows that the phoneme 2 is missing. In FIG. 33, the vertical axis represents the rating value, and the rating value may be DAP, tp-DAP, or the like. Further, the predetermined value of the section length is not “3 frames or less” but may be “5 frames or less” or “6 frames or less”.

次に、評定手段30103は、音素の欠落があった旨を示す評定結果(例えば、「音素の欠落が発生しました。」)を構成する。そして、出力手段21104は、構成した評定結果を出力する。なお、出力手段21104は、通常の入力音声に対しては、上述したように評定値を出力することが好適である。   Next, the rating means 30103 configures a rating result (for example, “phoneme missing has occurred”) indicating that a phoneme is missing. Then, the output means 21104 outputs the configured evaluation result. Note that the output means 21104 preferably outputs the rating value as described above for normal input speech.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、精度の高い評定ができる。さらに、本音声処理装置は、特殊音声、特に、音素の欠落を検知できるので、極めて精度の高い評定結果が得られる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. In this case, according to the present embodiment, highly accurate evaluation can be performed without being affected by individual differences, particularly differences in vocal tract length. Furthermore, since this speech processing apparatus can detect special speech, particularly missing phonemes, an extremely accurate rating result can be obtained.

なお、本実施の形態において、音素の欠落を検知できれば良く、評定値の算出アルゴリズムは問わない。評定値の算出アルゴリズムは、上述したアルゴリズム(DAP、t−p−DAP)でも良く、または、本明細書では述べていない他のアルゴリズムでも良い。   In the present embodiment, it is only necessary to detect missing phonemes, and the algorithm for calculating the rating value is not limited. The algorithm for calculating the rating value may be the above-described algorithm (DAP, tp-DAP), or another algorithm not described in this specification.

また、本実施の形態において、音素の欠落の検知アルゴリズムは、他のアルゴリズムでも良い。例えば、音素の欠落の検知において、所定長さ未満の区間であることを欠落区間の検知で必須としても良いし、区間長を考慮しなくても良い。   In this embodiment, another algorithm may be used as the phoneme loss detection algorithm. For example, in the detection of missing phonemes, a section having a length less than a predetermined length may be essential in detecting the missing section, or the section length may not be considered.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリングステップと、第二サンプリング周波数「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program samples the received voice at the first sampling frequency and acquires the first voice data to the computer, and the second sampling frequency “first sampling frequency / (teacher data formant frequency / evaluation”. Target voice formant frequency) ", the voice received in the voice receiving step is subjected to a sampling process to obtain a second voice data, a vocal tract length normalization processing step, and a voice process to process the second voice data A program for executing a step.

また、上記プログラムにおいて、音声処理ステップは、前記第二音声データを、フレームに区分するフレーム区分ステップと、前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得ステップと、前記フレーム毎の入力音声データに基づいて、特殊な音声が入力されたことを検知する特殊音声検知ステップと、教師データと前記入力音声データと前記特殊音声検知ステップにおける検知結果に基づいて、前記受け付けた音声の評定を行う評定ステップと、前記評定ステップにおける評定結果を出力する出力ステップを具備する、ことは好適である。   In the above program, the audio processing step includes a frame dividing step for dividing the second audio data into frames, and a frame audio data acquiring step for obtaining one or more frame audio data which are audio data for each of the divided frames. And, based on the input voice data for each frame, a special voice detection step for detecting that a special voice has been input, and based on detection results in the teacher data, the input voice data, and the special voice detection step, It is preferable that a rating step for rating the received voice and an output step for outputting a rating result in the rating step are preferable.

また、上記プログラムにおいて、特殊音声検知ステップは、一の音素の評定値が所定の条件を満たすことを検知し、特殊音声検知ステップで前記所定の条件を満たすことを検知した場合に、少なくとも音素の欠落があった旨を示す評定結果を構成する、ことは好適である。
(実施の形態7)
In the above program, the special speech detection step detects that the rating value of one phoneme satisfies a predetermined condition, and if the special speech detection step detects that the predetermined condition is satisfied, It is preferable to configure a rating result indicating that there is a lack.
(Embodiment 7)

本実施の形態における音声処理装置の音声処理は、音声認識である。   The voice processing of the voice processing apparatus in the present embodiment is voice recognition.

図34は、本実施の形態における音声処理装置のブロック図である。   FIG. 34 is a block diagram of the speech processing apparatus according to this embodiment.

本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、教師データフォルマント周波数格納部104、第一サンプリング周波数格納部105、サンプリング部106、評価対象者フォルマント周波数取得部107、評価対象者フォルマント周波数格納部108、声道長正規化処理部109、音声処理部3410、発声催促部1109を具備する。   The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a teacher data formant frequency storage unit 104, a first sampling frequency storage unit 105, a sampling unit 106, and an evaluation target person formant frequency acquisition unit 107. The evaluation subject person formant frequency storage unit 108, the vocal tract length normalization processing unit 109, the voice processing unit 3410, and the utterance prompting unit 1109 are provided.

音声処理部3410は、音声認識手段34101、出力手段34102を具備する。   The voice processing unit 3410 includes voice recognition means 34101 and output means 34102.

音声処理部3410の音声認識手段34101は、第二音声データに基づいて、音声認識処理を行う。音声認識のアルゴリズムは、問わない。音声認識処理は、公知のアルゴリズムで良い。本実施の形態において、リサンプリングした第二音声データに基づいて音声認識することにより、精度の高い音声認識が可能である。音声処理部3410は、通常、MPUやメモリ等から実現され得る。音声処理部3410の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The voice recognition unit 34101 of the voice processing unit 3410 performs voice recognition processing based on the second voice data. The algorithm for speech recognition is not limited. The voice recognition process may be a known algorithm. In the present embodiment, highly accurate speech recognition is possible by performing speech recognition based on the resampled second speech data. The audio processing unit 3410 can be usually realized by an MPU, a memory, or the like. The processing procedure of the audio processing unit 3410 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力手段34102は、音声認識結果を出力する。ここで、出力とは、ディスプレイへの表示、プリンタへの印字、音出力、外部の装置への送信、記録媒体への蓄積等を含む概念である。出力手段34102は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力手段34102は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   The output unit 34102 outputs a voice recognition result. Here, the output is a concept including display on a display, printing on a printer, sound output, transmission to an external device, accumulation in a recording medium, and the like. The output unit 34102 may or may not include an output device such as a display or a speaker. The output unit 34102 can be realized by output device driver software, or output device driver software and an output device.

次に、音声処理装置の動作について図35のフローチャートを用いて説明する。なお、図37のフローチャートにおいて、図2、図12のフローチャートの処理と同様の処理については、その説明を省略する。   Next, the operation of the speech processing apparatus will be described using the flowchart of FIG. In the flowchart of FIG. 37, the description of the same processing as that of the flowcharts of FIGS. 2 and 12 is omitted.

(ステップS3501)音声認識手段34101は、ステップS1208でリサンプリング処理され、得られた第二音声データに基づいて、音声認識処理を行う。なお、音声認識手段34101は、教師データとのマッチングを取り、教師データに近い音であると認識することにより、認識結果を得る。   (Step S3501) The voice recognition unit 34101 performs voice recognition processing based on the second voice data obtained by resampling in step S1208. Note that the voice recognition unit 34101 obtains a recognition result by matching with the teacher data and recognizing that the sound is close to the teacher data.

(ステップS3502)出力手段34102は、ステップS3501における音声認識結果を出力する。ステップS1206に戻る。   (Step S3502) The output means 34102 outputs the speech recognition result in step S3501. The process returns to step S1206.

以上、本実施の形態によれば、精度高く音声認識できる。   As described above, according to the present embodiment, speech recognition can be performed with high accuracy.

なお、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、第一サンプリング周波数で、受け付けた音声をサンプリングし、第一音声データを取得するサンプリングステップと、第二サンプリング周波数「第一サンプリング周波数/(教師データフォルマント周波数/評価対象者フォルマント周波数)」で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データに基づいて、音声認識処理を行う音声処理ステップを実行させるためのプログラム、である。
(実施の形態8)
Note that the software that implements the speech processing apparatus according to the present embodiment is the following program. In other words, the program samples the received voice at the first sampling frequency and acquires the first voice data to the computer, and the second sampling frequency “first sampling frequency / (teacher data formant frequency / evaluation”. Subject formant frequency) ”, the voice received in the voice receiving step is subjected to a sampling process to obtain the second voice data, and the voice based on the second voice data It is the program for performing the audio | voice processing step which performs a recognition process.
(Embodiment 8)

本実施の形態において、比較対象の音声と入力音声の類似度の評定を精度高く、かつ高速にできる音声処理装置について説明する。本音声処理装置は、主として、音声(歌唱を含む)を評価する発音評定装置である、として説明する。さらに、本実施の形態において、上記の実施の形態で記載した音声処理装置よりもさらに精度高く、評価対象者の話者特性に応じた発音評定が可能な音声処理装置について説明する。具体的には、本実施の形態において、最小自乗誤差基準に基づく、簡潔な声道長正規化法に基づいて、評価対象者の話者特性に左右されにくい音声処理装置について説明する。   In the present embodiment, a description will be given of a speech processing apparatus that can evaluate the similarity between the comparison target speech and the input speech with high accuracy and high speed. The audio processing apparatus will be described as being a pronunciation rating apparatus that mainly evaluates audio (including singing). Further, in the present embodiment, a description will be given of a speech processing apparatus that can perform pronunciation evaluation according to speaker characteristics of the evaluation target person with higher accuracy than the speech processing apparatus described in the above embodiment. Specifically, in the present embodiment, a speech processing apparatus that is less susceptible to the speaker characteristics of the evaluation target will be described based on a simple vocal tract length normalization method based on the least square error criterion.

また、本実施の形態における音声処理装置は、例えば、語学学習や物真似練習やカラオケ評定などに利用できる。   In addition, the speech processing apparatus according to the present embodiment can be used for language learning, imitation practice, karaoke evaluation, and the like.

図36は、本実施の形態における音声処理装置のブロック図である。   FIG. 36 is a block diagram of the speech processing apparatus according to this embodiment.

本音声処理装置は、入力受付部101、教師データ格納部102、音声受付部103、第一サンプリング周波数格納部105、サンプリング部106、声道長正規化パラメータ算出部3601、声道長正規化パラメータ格納部3602、声道長正規化処理部3609、音声処理部110を具備する。   The speech processing apparatus includes an input reception unit 101, a teacher data storage unit 102, a speech reception unit 103, a first sampling frequency storage unit 105, a sampling unit 106, a vocal tract length normalization parameter calculation unit 3601, a vocal tract length normalization parameter. A storage unit 3602, a vocal tract length normalization processing unit 3609, and a speech processing unit 110 are provided.

なお、音声処理装置は、キーボード342、マウス343などの入力手段からの入力を受け付ける。また、音声処理装置は、マイク345などの音声入力手段から音声入力を受け付ける。さらに、音声処理装置は、ディスプレイ344などの出力デバイスに情報を出力する。   Note that the voice processing apparatus accepts input from input means such as a keyboard 342 and a mouse 343. The voice processing apparatus accepts voice input from voice input means such as a microphone 345. Further, the sound processing apparatus outputs information to an output device such as the display 344.

声道長正規化パラメータ算出部3601は、周波数範囲指定情報格納手段36011、長時間ケプストラム平均ベクトル格納手段36012、第二ケプストラムベクトル系列算出手段36013、ケプストラム変換手段36014、ケプストラム変換パラメータ算出手段36015、最終ケプストラム変換パラメータ取得手段36016、声道長正規化パラメータ算出手段36017を具備する。   The vocal tract length normalization parameter calculation unit 3601 includes a frequency range designation information storage unit 36011, a long-time cepstrum average vector storage unit 36012, a second cepstrum vector series calculation unit 36013, a cepstrum conversion unit 36014, a cepstrum conversion parameter calculation unit 36015, a final Cepstrum conversion parameter acquisition means 36016 and vocal tract length normalization parameter calculation means 36017 are provided.

声道長正規化パラメータ算出部3601は、教師データ格納部102の教師データおよび音声受付部103が受け付けた音声に基づいて、声道長正規化パラメータを算出する。声道長正規化パラメータとは、評価対象者の話者特性(声道長の違い)を吸収するためのサンプリング周波数変換率である。なお、本実施の形態において、まず、算出されるのは、ケプストラム変換(ケプストラムワーピング)パラメータである。このケプストラム変換パラメータは、声道長の変換を直接表わすものではないため、声道長正規化パラメータ算出部3601は、後述の近似変換式を用いて最終的な声道長正規化パラメータ(サンプリング周波数変換率)を算出する。声道長正規化パラメータ算出部3601は、通常、MPUやメモリ等から実現され得る。声道長正規化パラメータ算出部の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The vocal tract length normalization parameter calculation unit 3601 calculates a vocal tract length normalization parameter based on the teacher data in the teacher data storage unit 102 and the voice received by the voice reception unit 103. The vocal tract length normalization parameter is a sampling frequency conversion rate for absorbing speaker characteristics (difference in vocal tract length) of the evaluation target person. In the present embodiment, first, a cepstrum conversion (cepstrum warping) parameter is calculated. Since this cepstrum conversion parameter does not directly represent conversion of the vocal tract length, the vocal tract length normalization parameter calculation unit 3601 uses the approximate conversion formula described later to calculate the final vocal tract length normalization parameter (sampling frequency). Conversion rate). The vocal tract length normalization parameter calculation unit 3601 can usually be realized by an MPU, a memory, or the like. The processing procedure of the vocal tract length normalization parameter calculation unit is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

周波数範囲指定情報格納手段36011は、周波数範囲を指定する情報である周波数範囲指定情報(W)を格納している。周波数範囲指定情報(W)は、後述する最適なケプストラム変換パラメータ(α)を算出する場合に、1次オールパス関数等の双1次変換による周波数ワーピングが線形の周波数伸縮で近似できる範囲に、周波数範囲を限定するための情報である。かかる周波数範囲は、0周波数からナイキストレートの1/3から1/2程度が好適である。ただし、双1次変換は、スペクトル領域ではなく、ケプストラム領域で行われるため、周波数範囲指定情報(W)は、例えば、以下に述べる行列の情報であることが好適である。周波数範囲指定情報は、例えば、図示しない周波数範囲指定情報算出手段により、以下のように算出される。サンプリング周波数をF(Hz)、指定される周波数範囲の最高周波数をFmax(Hz)とし,Nを十分大きな自然数(512や1024など)、「N=N×Fmax/F」とおいて,ケプストラムベクトルに対する周波数範囲指定行列Wの(i,j)成分を、周波数範囲指定情報算出手段は、以下の数式5に従って計算する。具体的には、周波数範囲指定情報算出手段は、コンピュータの記録媒体(図示しない)に格納されているサンプリング周波数(F)、最高周波数(Fmax)、予め決められた十分大きな自然数(N)を読み出す。そして、周波数範囲指定情報算出手段は、自ら保持している演算式の情報「N=N×Fmax/F」を読み出し、読み出したF、Fmax、Nを演算式に代入し、Nを算出する。そして、周波数範囲指定情報算出手段は、格納している以下の数式5の情報を読み出し、i、jを0から順に、1ずつインクリメントさせながら、ループ処理(2重ループの処理になる)により、{W}i,jを算出する。そして、周波数範囲指定情報算出手段は、算出した{W}i,jのすべてを、少なくとも一時的に周波数範囲指定情報格納手段36011に格納する。なお、数式5において、「k」は、周波数インデクスであり、「k」の範囲は、「k=0,1,2,...,N/2」である。また、「n」は、離散時間インデクスであり、「n」の範囲は、「n=...−2,−1,0,1,2,...」である。
The frequency range designation information storage unit 36011 stores frequency range designation information (W) that is information for designating a frequency range. The frequency range designation information (W) has a frequency within a range in which frequency warping by bilinear transformation such as a linear allpass function can be approximated by linear frequency expansion and contraction when calculating an optimal cepstrum transformation parameter (α) described later. This is information for limiting the range. Such a frequency range is preferably about 0 to 1/3 to 1/2 of Nyquist rate. However, since the bilinear transformation is performed not in the spectral domain but in the cepstrum domain, the frequency range designation information (W) is preferably, for example, matrix information described below. The frequency range designation information is calculated as follows, for example, by frequency range designation information calculation means (not shown). Sampling frequency is F s (Hz), maximum frequency in the specified frequency range is F max (Hz), N is a sufficiently large natural number (512, 1024, etc.), “N m = N × F max / F s ” Then, the frequency range designation information calculation means calculates the (i, j) component of the frequency range designation matrix W for the cepstrum vector according to the following formula 5. Specifically, the frequency range designation information calculation means is configured to store a sampling frequency (F s ), a maximum frequency (F max ), and a predetermined sufficiently large natural number (N) stored in a computer recording medium (not shown). Is read. Then, the frequency range designation information calculation means reads information “N m = N × F max / F s ” held by itself, substitutes the read F s , F max , and N into the arithmetic expression, N m is calculated. Then, the frequency range designation information calculation means reads out the stored information of the following Expression 5, and increments i and j by 1 in order from 0, while performing loop processing (becomes a double loop processing), {W} i, j is calculated. Then, the frequency range designation information calculation means stores all of the calculated {W} i, j in the frequency range designation information storage means 36011 at least temporarily. In Equation 5, “k” is a frequency index, and the range of “k” is “k = 0, 1, 2,..., N / 2”. “N” is a discrete-time index, and the range of “n” is “n = ...− 2, −1, 0, 1, 2,.

なお、周波数範囲指定情報のデータ構造は問わない。また、周波数範囲指定情報格納手段36011は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   In addition, the data structure of frequency range designation | designated information is not ask | required. The frequency range designation information storage unit 36011 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

長時間ケプストラム平均ベクトル格納手段36012は、長時間ケプストラム平均ベクトル(μ)を格納している。長時間ケプストラム平均ベクトル(μ)は、教師データを構成するデータから、短区間分析により算出された第一のケプストラムベクトル系列の時間平均である。第一のケプストラムベクトル系列(x(t=1,2,・・・,T))は、通常、教師データを構成する単一音素(例えば、/u/)を短区間分析し、取得される。そして、長時間ケプストラム平均ベクトル(μ)は、ベクトル(x)から、以下の数式6により算出される。
The long-time cepstrum average vector storage unit 36012 stores a long-time cepstrum average vector (μ). The long-term cepstrum average vector (μ) is the time average of the first cepstrum vector sequence calculated from the data constituting the teacher data by the short interval analysis. The first cepstrum vector series (x t (t = 1, 2,..., T 0 )) is usually obtained by performing a short-term analysis on a single phoneme (eg, / u /) constituting teacher data. Is done. Then, the long-term cepstrum average vector (μ) is calculated from the vector (x t ) according to the following Equation 6.

なお、ケプストラムベクトルは0次係数も含めたM+1次元であり,ベクトル(x)およびベクトル(μ)は、それぞれ数式7、数式8で表わされる。
Note that the cepstrum vector has M + 1 dimensions including the 0th order coefficient, and the vector (x t ) and the vector (μ) are expressed by Expression 7 and Expression 8, respectively.

数式7、数式8において、(・・・)は行列またはベクトルの転置を表わす。 In Equations 7 and 8, (...) T represents transposition of a matrix or a vector.

また、第一のケプストラムベクトル系列(x)は、図示しない第一ケプストラムベクトル系列算出手段が、教師データを構成するデータ(単一音素(例えば、/u/))から、短区間分析により算出しても良い。 The first cepstrum vector sequence (x t ) is calculated by the first cepstrum vector sequence calculation means (not shown) from the data (single phoneme (for example, / u /)) constituting the teacher data by short section analysis. You may do it.

また、図示しない長時間ケプストラム平均ベクトル取得手段が、第一のケプストラムベクトル系列(x)の時間平均を、数式6により算出し、長時間ケプストラム平均ベクト(μ)を取得しても良い。長時間ケプストラム平均ベクトル格納手段36012は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。 Further, a long-time cepstrum average vector acquisition unit (not shown) may calculate the time average of the first cepstrum vector series (x t ) using Equation 6 to acquire the long-time cepstrum average vector (μ). The long-term cepstrum average vector storage means 36012 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

第二ケプストラムベクトル系列算出手段36013は、音声受付部103が受け付けた音声(通常、単一音素(例えば、/u/)である。)から、短区間分析により第二のケプストラムベクトル系列(C)を算出する。第二ケプストラムベクトル系列算出手段36013は、サンプリング部106がサンプリングして得た第一音声データから、第二のケプストラムベクトル系列(C)を算出しても良く、かかる場合も音声受付部103が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列(C)を算出した、と言える。なお、音素を短区間分析し、ケプストラムベクトル系列を算出する処理は、公知技術による処理であるので、説明は省略する。第二ケプストラムベクトル系列算出手段36013は、通常、MPUやメモリ等から実現され得る。第二ケプストラムベクトル系列算出手段36013の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、第二ケプストラムベクトル系列算出手段36013が処理する音声であり音声受付部103が受け付ける音素(例えば、/u/)は、長時間ケプストラム平均ベクトルの元になる音声と同一の音素(例えば、/u/)である。また、この第二のケプストラムベクトル系列(C)は、やはり0次係数も含めたM+1次元ベクトルとして数式9で表わされる。
The second cepstrum vector sequence calculation means 36013 uses the second cepstrum vector sequence (C t ) from the speech received by the speech accepting unit 103 (usually a single phoneme (eg, / u /)) by short interval analysis. ) Is calculated. The second cepstrum vector sequence calculation unit 36013 may calculate the second cepstrum vector sequence (C t ) from the first audio data obtained by sampling by the sampling unit 106, and in this case, the audio reception unit 103 also calculates. It can be said that the second cepstrum vector series (C t ) was calculated from the received speech by short interval analysis. Note that the process of analyzing a phoneme for a short interval and calculating a cepstrum vector series is a process according to a known technique, and thus the description thereof is omitted. The second cepstrum vector series calculation unit 36013 can usually be realized by an MPU, a memory, or the like. The processing procedure of the second cepstrum vector series calculation unit 36013 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit). Note that the phoneme (for example, / u /) that is the voice processed by the second cepstrum vector series calculation unit 36013 and received by the voice receiving unit 103 is the same phoneme (for example, / u /). The second cepstrum vector series (C t ) is expressed by Equation 9 as an M + 1 dimensional vector that also includes the zeroth order coefficient.

また、第二ケプストラムベクトル系列算出手段36013は、後述するケプストラム変換パラメータ算出手段36015の処理のために、算出した第二のケプストラムベクトル系列(C)に対して、以下の数式10の処理を行い、ベクトル(C )(t=1,2,・・・,T)を取得することは好適である。
Further, the second cepstrum vector sequence calculation unit 36013 performs the following equation 10 on the calculated second cepstrum vector sequence (C t ) for the processing of the cepstrum conversion parameter calculation unit 36015 described later. It is preferable to obtain a vector (C t ) (t = 1, 2,..., T).

ケプストラム変換手段36014は、第二のケプストラムベクトル系列(C)を、ケプストラム変換パラメータ(α)を要素とする行列(F(α))を用いて線形変換し、周波数ワープされた第三のケプストラムベクトル系列(O)を算出する。具体的には、まず、ケプストラム変換手段38014は、ケプストラム変換パラメータ(α)の初期値(α)を設定する。(α)はαの最適値の近似値であることが望ましく、通常はα=0とおくが、例えば、最適値が「α>0」であると予想できる場合は、小さな正の値のαでも良い。なお、初期値(α)は、ケプストラム変換手段38014が、予め記憶媒体やメモリ等に格納している。次に、ケプストラム変換手段38014は、与えられたケプストラム変換パラメータ(α)をパラメータとして、以下の数式11により、周波数ワープされた第三のケプストラムベクトル系列(O)を算出する。なお、ケプストラム変換手段38014は、最初に、(O(α))を算出する。
The cepstrum transforming unit 36014 linearly transforms the second cepstrum vector series (C t ) using a matrix (F (α)) having cepstrum transform parameters (α) as elements, and a frequency-warped third cepstrum. A vector series (O t ) is calculated. Specifically, first, the cepstrum conversion unit 38014 sets an initial value (α to ) of the cepstrum conversion parameter (α). (Α ˜ ) is preferably an approximate value of the optimal value of α, and is usually set to α = 0. For example, when it can be predicted that the optimal value is “α> 0”, a small positive value is used. α may be used. Note that the initial values (α to ) are stored in advance in a storage medium, a memory, or the like by the cepstrum conversion means 38014. Next, the cepstrum conversion means 38014 calculates a third warped cepstrum vector sequence (O t ) according to the following Equation 11 using the given cepstrum conversion parameter (α) as a parameter. The cepstrum conversion means 38014 first calculates (O t˜ )).

ケプストラム変換手段36014は、通常、MPUやメモリ等から実現され得る。ケプストラム変換手段段36014の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The cepstrum conversion unit 36014 can be usually realized by an MPU, a memory, or the like. The processing procedure of the cepstrum conversion means stage 36014 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

ケプストラム変換パラメータ算出手段36015は、長時間ケプストラム平均ベクトル(μ)および第三のケプストラムベクトル系列(O)に基づいて、ケプストラム変換パラメータ(α)を算出する。ケプストラム変換パラメータ算出手段36015は、さらに好ましくは、周波数範囲指定情報(W)で示される周波数範囲における長時間ケプストラム平均ベクトルおよび第三のケプストラムベクトル系列(O)に基づいて、ケプストラム変換パラメータを算出する。 The cepstrum conversion parameter calculation unit 36015 calculates a cepstrum conversion parameter (α) based on the long-time cepstrum average vector (μ) and the third cepstrum vector series (O t ). More preferably, the cepstrum conversion parameter calculation unit 36015 calculates the cepstrum conversion parameter based on the long-time cepstrum average vector and the third cepstrum vector series (O t ) in the frequency range indicated by the frequency range designation information (W). To do.

具体的には、まず、ケプストラム変換パラメータ算出手段36015は、以下の数式12により、ベクトル(u(α))を算出する。そして、次に、ケプストラム変換パラメータ算出手段36015は、以下の数式13により、αの最適値(α)を算出する。なお、αの最適値(α)は、現繰り返しステップにおける最適値である。
Specifically, first, the cepstrum conversion parameter calculation unit 36015 calculates a vector (u t (α)) by the following Expression 12. Then, the cepstrum conversion parameter calculation unit 36015 calculates the optimum value of α (α * ) by the following Expression 13. Note that the optimum value of α (α * ) is the optimum value in the current iteration step.

ケプストラム変換パラメータ算出手段36015は、通常、MPUやメモリ等から実現され得る。ケプストラム変換パラメータ算出手段36015の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The cepstrum conversion parameter calculation unit 36015 can be usually realized by an MPU, a memory, or the like. The processing procedure of the cepstrum conversion parameter calculation means 36015 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

最終ケプストラム変換パラメータ取得手段36016は、所定のルールに基づいて、ケプストラム変換手段36014における処理、およびケプストラム変換パラメータ算出手段36015における処理を繰り返えさせ、最終的な最適なケプストラム変換パラメータを得る。ここで、所定のルールとは、例えば、予め決められた所定の繰り返し回数だけ、処理を繰り返し行われたことである。また、所定のルールとは、例えば、αの最適値(α)の変化が所定の値より小さくなった(先の(α)と今回の(α)の差が閾値以下など)ことである。また、所定のルールとは、その他のルールでも良い。最終ケプストラム変換パラメータ取得手段36016は、通常、MPUやメモリ等から実現され得る。最終ケプストラム変換パラメータ取得手段36016の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。 The final cepstrum conversion parameter acquisition unit 36016 repeats the processing in the cepstrum conversion unit 36014 and the processing in the cepstrum conversion parameter calculation unit 36015 based on a predetermined rule, and obtains a final optimum cepstrum conversion parameter. Here, the predetermined rule is, for example, that the process is repeatedly performed a predetermined number of repetitions. Also, the predetermined rule is, for example, that the change in the optimum value of α (α * ) is smaller than the predetermined value (the difference between the previous (α * ) and the current (α * ) is less than a threshold value, etc.) It is. Further, the predetermined rule may be another rule. The final cepstrum conversion parameter acquisition unit 36016 can be usually realized by an MPU, a memory, or the like. The processing procedure of the final cepstrum conversion parameter acquisition unit 36016 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

声道長正規化パラメータ算出手段36017は、最終ケプストラム変換パラメータ取得手段36016が得たケプストラム変換パラメータに基づいて、声道長正規化パラメータ(γ)を算出する。さらに具体的には、声道長正規化パラメータ算出手段36017は、まず、最終ケプストラム変換パラメータ取得手段36016が得たケプストラム変換パラメータから、例えば、以下の数式14に従って、線形周波数伸縮比(ρ)を算出する。
The vocal tract length normalization parameter calculation unit 36017 calculates the vocal tract length normalization parameter (γ) based on the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit 36016. More specifically, the vocal tract length normalization parameter calculation unit 36017 first calculates the linear frequency expansion / contraction ratio (ρ) from the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit 36016, for example, according to the following Expression 14. calculate.

次に、声道長正規化パラメータ算出手段36017は、当該線形周波数伸縮比(ρ)から、例えば、以下の数式15に従って、声道長正規化パラメータ(γ)を算出する。
Next, the vocal tract length normalization parameter calculation unit 36017 calculates the vocal tract length normalization parameter (γ) from the linear frequency expansion / contraction ratio (ρ), for example, according to the following Expression 15.

声道長正規化パラメータ算出手段36017は、通常、MPUやメモリ等から実現され得る。声道長正規化パラメータ算出手段36017の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The vocal tract length normalization parameter calculation means 36017 can be usually realized by an MPU, a memory, or the like. The processing procedure of the vocal tract length normalization parameter calculation means 36017 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

声道長正規化パラメータ格納部3602は、サンプリング周波数の変換率に関する情報である声道長正規化パラメータ(γ)を格納している。声道長正規化パラメータ(γ)は、声道長正規化パラメータ算出部3601が取得した声道長正規化パラメータである。声道長正規化パラメータ格納部3602は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。なお、声道長正規化パラメータ算出部3601は、ここでは、算出した声道長正規化パラメータ(γ)を、声道長正規化パラメータ格納部3602に蓄積する処理も行う。   The vocal tract length normalization parameter storage unit 3602 stores a vocal tract length normalization parameter (γ), which is information regarding the conversion rate of the sampling frequency. The vocal tract length normalization parameter (γ) is a vocal tract length normalization parameter acquired by the vocal tract length normalization parameter calculation unit 3601. The vocal tract length normalization parameter storage unit 3602 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium. Here, the vocal tract length normalization parameter calculation unit 3601 also performs a process of accumulating the calculated vocal tract length normalization parameter (γ) in the vocal tract length normalization parameter storage unit 3602.

声道長正規化処理部3609は、声道長正規化パラメータ(γ)と第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、音声受付部103が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る。「音声受付部103が受け付けた音声に対して」とは、サンプリング部106がサンプリングして取得した第一音声データに対して、第二サンプリング周波数でリサンプリング処理を行い、第二音声データを得ることも含むし、サンプリング部106が第一音声データを取得することなく、直接的に音声受付部103が受け付けた音声に対して、第二サンプリング周波数でサンプリング処理し、第二音声データを得ることも含む。声道長正規化処理部3609は、通常、MPUやメモリ等から実現され得る。声道長正規化処理部3609の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The vocal tract length normalization processing unit 3609 performs sampling processing on the voice received by the voice reception unit 103 at the second sampling frequency calculated using the vocal tract length normalization parameter (γ) and the first sampling frequency as parameters. To obtain second audio data. “For voice received by the voice receiving unit 103” means that the first voice data sampled and acquired by the sampling unit 106 is subjected to resampling processing at the second sampling frequency to obtain second voice data. In addition, the sampling unit 106 obtains the second audio data by sampling the audio received directly by the audio receiving unit 103 at the second sampling frequency without acquiring the first audio data. Including. The vocal tract length normalization processing unit 3609 can usually be realized by an MPU, a memory, or the like. The processing procedure of the vocal tract length normalization processing unit 3609 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

次に、本音声処理装置の動作について説明する。まず、本音声処理装置における、声道長正規化パラメータを算出する処理について、図37のフローチャートを用いて説明する。なお、本声道長正規化パラメータ算出処理は、必ずしも音声処理装置で行う必要はない。   Next, the operation of the voice processing apparatus will be described. First, the process of calculating the vocal tract length normalization parameter in the speech processing apparatus will be described with reference to the flowchart of FIG. Note that the vocal tract length normalization parameter calculation process does not necessarily have to be performed by the voice processing device.

(ステップS3701)音声処理装置は、初期化処理を行う。初期化処理とは、例えば、ユーザ(評価対象者)に対して、「/u/」と発声するように促す処理(例えば、ディスプレイに「「う」と発音してください。」と表示する処理)と、周波数範囲指定情報格納手段36011の周波数範囲指定情報、および長時間ケプストラム平均ベクトル格納手段36012の長時間ケプストラム平均ベクトルを読み出す処理である。   (Step S3701) The speech processing apparatus performs initialization processing. The initialization process is, for example, a process for prompting the user (evaluation subject) to say “/ u /” (for example, a process of displaying “Please pronounce“ U ”” on the display). ) And the frequency range designation information stored in the frequency range designation information storage unit 36011 and the long time cepstrum average vector stored in the long time cepstrum average vector storage unit 36012.

(ステップS3702)音声受付部103が、評価対象者からの音声を受け付けたか否かを判断する。音声を受け付ければステップS3703に行き、音声を受け付けなければステップS3702に戻る。   (Step S3702) It is judged whether the audio | voice reception part 103 received the audio | voice from an evaluation object person. If a voice is accepted, the process goes to step S3703, and if no voice is accepted, the process returns to step S3702.

(ステップS3703)サンプリング部106は、ステップS3702で受け付けた音声をサンプリングし、第一音声データを得て、メモリ上に、少なくとも一時格納する。なお、音声をサンプリングする処理は公知技術である。   (Step S3703) The sampling unit 106 samples the sound received in step S3702, obtains first sound data, and stores at least temporarily in the memory. Note that the process of sampling audio is a known technique.

(ステップS3704)第二ケプストラムベクトル系列算出手段36013は、ステップS3703で得た第一音声データを取得し、当該第一音声データから、短区間分析により第二のケプストラムベクトル系列(C)を算出し、第二のケプストラムベクトル系列(C)をメモリ上に、少なくとも一時格納する。 (Step S3704) The second cepstrum vector series calculation means 36013 acquires the first voice data obtained in step S3703, and calculates the second cepstrum vector series (C t ) from the first voice data by short section analysis. The second cepstrum vector series (C t ) is at least temporarily stored in the memory.

(ステップS3705)第二ケプストラムベクトル系列算出手段36013は、ステップS3704で算出した第二のケプストラムベクトル系列(C)を取得し、当該第二のケプストラムベクトル系列(C)から、ベクトル(C )(t=1,2,・・・,T)を取得し、ベクトル(C )をメモリ上に、少なくとも一時格納する。 (Step S3705) The second cepstrum vector sequence calculation unit 36013 obtains the second cepstral vector sequences calculated in step S 3704 (C t), from the second cepstral vector series (C t), the vector (C t - ) (T = 1, 2,..., T) are acquired, and the vector (C t ) is at least temporarily stored in the memory.

(ステップS3706)ケプストラム変換手段36014は、予め格納しているケプストラム変換パラメータの初期値(α)を読み出し、変数(α)に(α)を設定する。 (Step S3706) cepstrum conversion unit 36014 reads the initial value of the cepstrum transformation parameters stored in advance (alpha ~), set the variable (alpha) and (alpha ~).

(ステップS3707)ケプストラム変換手段36014は、第二のケプストラムベクトル系列(C)を読み出し、当該第二のケプストラムベクトル系列(C)を、ケプストラム変換パラメータ(α)を要素とする行列を用いて線形変換し、周波数ワープされた第三のケプストラムベクトル系列(O)を算出し、メモリ上に、少なくとも一時格納する。 (Step S3707) cepstrum conversion unit 36014 reads the second cepstral vector series (C t), the second cepstral vector series (C t), using a matrix for cepstrum conversion parameter a (alpha) and elements A third cepstrum vector sequence (O t ) subjected to linear transformation and frequency warped is calculated, and at least temporarily stored in the memory.

(ステップS3708)ケプストラム変換パラメータ算出手段36015は、ステップS3707で算出した第三のケプストラムベクトル系列(O)、およびステップS3705で算出したベクトル(C )を読み出し、当該第三のケプストラムベクトル系列(O)およびベクトル(C )から、ベクトル(u(α))を算出する(数式12参照)。ベクトル(u(α))を算出する場合に、格納している数式12の情報を読み出して、演算することは言うまでもない。 (Step S3708) The cepstrum transformation parameter calculation unit 36015 reads out the third cepstrum vector sequence (O t ) calculated in step S3707 and the vector (C t ) calculated in step S3705, and the third cepstrum vector sequence. From (O t ) and the vector (C t ), a vector (u t (α)) is calculated (see Expression 12). Needless to say, when the vector (u t (α)) is calculated, the stored information of Equation 12 is read out.

(ステップS3709)ケプストラム変換パラメータ算出手段36015は、予め格納している数式13の情報を読み出し、当該数式13の数式に、ベクトル(u(α))、長時間ケプストラム平均ベクトル(μ)、ベクトル(C )、周波数範囲指定情報(W)の情報(W等も含む)を与え、数式13を演算し、αの最適値(α)を算出する。このαの最適値(α)は、本ループにおける最適値である。そして、ケプストラム変換パラメータ算出手段36015は、αの最適値(α)を、少なくともメモリに一時格納する。 (Step S3709) The cepstrum conversion parameter calculation means 36015 reads information of Equation 13 stored in advance, and in the equation of Equation 13, a vector (u t (α)), a long-time cepstrum average vector (μ), a vector (C t -), it gives information (W T, etc. including also) in the frequency range specification information (W), and calculates the formula 13, and calculates the optimum value of alpha the (alpha *). This optimal value (α * ) of α is the optimal value in this loop. Then, the cepstrum conversion parameter calculation means 36015 temporarily stores the optimal value (α * ) of α at least in the memory.

(ステップS3710)最終ケプストラム変換パラメータ取得手段36016は、予め決められた所定のルール(ルールの情報は、予め格納されている)に合致するか否かを判断する。ルールに合致すればステップS3711に行き、ルールに合致しなければステップS3713に行く。なお、ルールとは、上述したように、例えば、予め決められた所定の繰り返し回数(この回数の情報は、予めメモリ等に格納されている)だけ、本ループ処理(αの最適値(α)を算出し、αをαに代入する処理)が繰り返し行われたことである。 (Step S3710) The final cepstrum conversion parameter acquisition unit 36016 determines whether or not a predetermined rule (rule information is stored in advance) is met. If it matches the rule, the process goes to step S3711, and if it does not match the rule, the process goes to step S3713. Note that, as described above, the rule is, for example, the loop processing (the optimum value of α (α * ) as many times as a predetermined number of repetitions (information on this number is stored in advance in a memory or the like) . ) And the process of substituting α * into α is repeatedly performed.

(ステップS3711)声道長正規化パラメータ算出手段36017は、最終ケプストラム変換パラメータ取得手段36016が得たケプストラム変換パラメータ(最終のα)を取得し、当該パラメータを数式14の演算式に与え、線形周波数伸縮比(ρ)を算出する。なお、数式14の演算式の情報は、声道長正規化パラメータ算出手段36017が予め格納している。また、声道長正規化パラメータ算出手段36017は、算出した線形周波数伸縮比(ρ)を、少なくともメモリに一時格納する。 (Step S3711) The vocal tract length normalization parameter calculation unit 36017 acquires the cepstrum conversion parameter (final α * ) obtained by the final cepstrum conversion parameter acquisition unit 36016, gives the parameter to the calculation formula of Formula 14, and linearly The frequency expansion / contraction ratio (ρ) is calculated. Note that the information of the arithmetic expression of Expression 14 is stored in advance by the vocal tract length normalization parameter calculation means 36017. The vocal tract length normalization parameter calculation means 36017 temporarily stores the calculated linear frequency expansion / contraction ratio (ρ) in at least a memory.

(ステップS3712)声道長正規化パラメータ算出手段36017は、線形周波数伸縮比(ρ)を読み出し、当該線形周波数伸縮比(ρ)から、声道長正規化パラメータ(γ)を算出し、少なくともメモリに一時格納する。声道長正規化パラメータ算出手段36017は、例えば、予め格納している数式15の情報を読み出し、線形周波数伸縮比(ρ)を代入し、数式15の演算式を実行し、声道長正規化パラメータ(γ)を得る。   (Step S3712) The vocal tract length normalization parameter calculation means 36017 reads the linear frequency expansion / contraction ratio (ρ), calculates the vocal tract length normalization parameter (γ) from the linear frequency expansion / contraction ratio (ρ), and at least the memory Temporarily store in. For example, the vocal tract length normalization parameter calculation unit 36017 reads information of Formula 15 stored in advance, substitutes the linear frequency expansion / contraction ratio (ρ), executes the calculation formula of Formula 15, and normalizes the vocal tract length. The parameter (γ) is obtained.

(ステップS3713)最終ケプストラム変換パラメータ取得手段36016は、ステップS3709で算出した(α)をαに代入する。そして、ステップS3707に戻る。 (Step S3713) The final cepstrum conversion parameter acquisition unit 36016 substitutes (α * ) calculated in step S3709 for α. Then, the process returns to step S3707.

本音声処理装置の動作(音声の評定処理)について、図38、図39のフローチャートを用いて説明する。図38のフローチャートにおいて、図2において説明した音声処理装置の動作と比較して、ステップS204の声道長正規化処理の内容のみが異なる。   The operation of the speech processing apparatus (speech rating process) will be described with reference to the flowcharts of FIGS. In the flowchart of FIG. 38, only the content of the vocal tract length normalization process in step S204 is different from the operation of the speech processing apparatus described in FIG.

次に、図39のフローチャートを用いて声道長正規化処理の内容について説明する。   Next, the contents of the vocal tract length normalization process will be described using the flowchart of FIG.

(ステップS3901)声道長正規化処理部3609は、第一サンプリング周波数を、第一サンプリング周波数格納部105から読み出す。   (Step S3901) The vocal tract length normalization processing unit 3609 reads the first sampling frequency from the first sampling frequency storage unit 105.

(ステップS3902)声道長正規化処理部3609は、声道長正規化パラメータ(γ)を、声道長正規化パラメータ格納部3602から読み出す。   (Step S3902) The vocal tract length normalization processing unit 3609 reads the vocal tract length normalization parameter (γ) from the vocal tract length normalization parameter storage unit 3602.

(ステップS3903)声道長正規化処理部3609は、予め決められた第二サンプリング周波数(F)を算出する演算式の情報を読み出し、当該演算式の情報に、声道長正規化パラメータ(γ)と第一サンプリング周波数(F)をパラメータとして代入し、演算式を実行し、第二サンプリング周波数(F)を算出する。予め決められた第二サンプリング周波数(F)を算出する演算式は、例えば、(F=F×γ)である。 (Step S3903) The vocal tract length normalization processing unit 3609 reads out information on an arithmetic expression for calculating a predetermined second sampling frequency (F 2 ), and the vocal tract length normalization parameter ( γ) and the first sampling frequency (F 1 ) are substituted as parameters, an arithmetic expression is executed, and the second sampling frequency (F 2 ) is calculated. An arithmetic expression for calculating the predetermined second sampling frequency (F 2 ) is, for example, (F 2 = F 1 × γ).

(ステップS3904)声道長正規化処理部3609は、第二サンプリング周波数で、第一音声データに対して、リサンプリング処理を行い、第二音声データを得る。   (Step S3904) The vocal tract length normalization processing unit 3609 performs resampling processing on the first audio data at the second sampling frequency to obtain second audio data.

なお、図38のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。   Note that the processing is ended by powering off or interruption for aborting the processing in the flowchart in FIG.

以下、図40の概念図を用いて、本実施の形態における音声処理装置における声道長正規化パラメータ算出処理の概念について説明する。声道長正規化パラメータの算出は、システム設計用に用いられる話者(基準話者)のある音素(教師データのある音素)の平均ケプストラムベクトルμと、同じ音素のユーザ発話音声の変換されたケプストラムベクトルOとの自乗誤差が最小になるように求められる。ただし、求まるパラメータ(α?)はケプストラム変換(ケプストラムワーピング)パラメータであり、このままでは声道長の変換を直接表わすものではないため、近似変換式(1/ρ)を用いて最終的な声道長正規化パラメータ(サンプリング周波数変換率)γを計算する。なお、声道長正規化パラメータを算出するための数式は、上記の数式5から数式15により行われる。 Hereinafter, the concept of the vocal tract length normalization parameter calculation process in the speech processing apparatus according to the present embodiment will be described using the conceptual diagram of FIG. The vocal tract length normalization parameter is calculated by converting the average cepstrum vector μ of the phoneme (phoneme with teacher data) of the speaker (reference speaker) used for system design and the user utterance of the same phoneme. It is determined so that the square error with the cepstrum vector O t is minimized. However, since the obtained parameter (α?) Is a cepstrum transformation (cepstrum warping) parameter and does not directly represent the transformation of the vocal tract length as it is, the final vocal tract is obtained using the approximate transformation formula (1 / ρ). The long normalization parameter (sampling frequency conversion rate) γ is calculated. In addition, the mathematical formula for calculating the vocal tract length normalization parameter is performed by the mathematical formula 5 to the mathematical formula 15 described above.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、特に、精度の高い評定ができる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. Further, in this case, according to the present embodiment, it is possible to make a highly accurate evaluation that is not affected by individual differences, particularly vocal tract length differences.

なお、本実施の形態によれば、音声処理装置が声道長正規化パラメータを算出する処理と、声道長正規化処理を行った。しかし、声道長正規化パラメータを算出する処理と声道長正規化処理を、異なる装置が行う構成でも良い。かかる場合、本音声処理装置は、音声を受け付ける音声受付部と、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、前記第二音声データを処理する音声処理部を具備する音声処理装置である。また、声道長正規化パラメータを算出する装置は、教師データを構成するデータから、短区間分析により算出された第一のケプストラムベクトル系列の時間平均である長時間ケプストラム平均ベクトルを格納している長時間ケプストラム平均ベクトル格納手段と、受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて線形変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、前記長時間ケプストラム平均ベクトルおよび前記第三のケプストラムベクトル系列に基づいて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段を具備する装置である。   Note that, according to the present embodiment, the voice processing device performs the process of calculating the vocal tract length normalization parameter and the vocal tract length normalization process. However, a configuration in which different devices perform the process of calculating the vocal tract length normalization parameter and the process of normalizing the vocal tract length may be used. In such a case, the speech processing apparatus includes a speech reception unit that receives speech, a first sampling frequency storage unit that stores a first sampling frequency, and a vocal tract length normalization parameter that is information related to a conversion rate of the sampling frequency. A voice sampling length storage parameter storing unit, a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters, and the voice received by the voice receiving unit The voice processing apparatus includes a vocal tract length normalization processing unit that performs sampling processing to obtain second voice data, and a voice processing unit that processes the second voice data. Further, the apparatus for calculating the vocal tract length normalization parameter stores a long-time cepstrum average vector that is a time average of the first cepstrum vector sequence calculated by the short interval analysis from the data constituting the teacher data. Long-term cepstrum average vector storage means, second cepstrum vector series calculation means for calculating a second cepstrum vector series from received speech by short interval analysis, and the second cepstrum vector series, cepstrum conversion parameters as elements And a cepstrum conversion means for calculating a frequency-warped third cepstrum vector sequence and a cepstrum conversion parameter based on the long-time cepstrum average vector and the third cepstrum vector sequence. Cepstra to calculate A conversion parameter calculation means, a final cepstrum conversion parameter acquisition means for obtaining a cepstrum conversion parameter by repeating the process in the cepstrum conversion means and the process in the cepstrum conversion parameter calculation means based on a predetermined rule, and the final The apparatus includes a vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on the cepstrum conversion parameter obtained by the cepstrum conversion parameter acquisition unit.

また、本実施の形態によれば、ケプストラム変換パラメータの算出の際に、周波数範囲を限定したが、かかる処理は必須ではない。かかることは、実施の形態9、実施の形態10においても同様である。   Further, according to the present embodiment, the frequency range is limited when calculating the cepstrum conversion parameter, but such processing is not essential. The same applies to the ninth and tenth embodiments.

また、本実施の形態によれば、音声処理部は、DAPに基づき発音評定を行った。しかし、他のアルゴリズムにより、発音評定を行っても良い。他のアルゴリズムとは、例えば、実施の形態2で述べたt−p−DAPや、実施の形態3で述べた無音区間を考慮した類似度評定や、実施の形態4で述べた音韻の挿入を考慮した類似度評定や、実施の形態5で述べた音韻の置換を考慮した類似度評定や、実施の形態6で述べた音韻の欠落を考慮した類似度評定等である。かかることも、実施の形態9、実施の形態10においても同様である。   Moreover, according to this Embodiment, the audio | voice processing part performed pronunciation evaluation based on DAP. However, pronunciation evaluation may be performed by other algorithms. Other algorithms include, for example, the tp-DAP described in the second embodiment, the similarity evaluation considering the silent section described in the third embodiment, and the phoneme insertion described in the fourth embodiment. For example, the similarity evaluation in consideration of the phonetic substitution described in the fifth embodiment, the similarity evaluation in consideration of the phoneme omission described in the sixth embodiment, and the like. This also applies to the ninth and tenth embodiments.

また、本実施の形態によれば、音声処理装置における音声処理部は、主として、発音評定を行ったが、音声処理部は、第二音声データに基づいて音声認識処理を行っても良い。かかることも、実施の形態9、実施の形態10においても同様である。   Further, according to the present embodiment, the voice processing unit in the voice processing apparatus mainly performs pronunciation evaluation, but the voice processing unit may perform voice recognition processing based on the second voice data. This also applies to the ninth and tenth embodiments.

また、本実施の形態において、音声処理装置が行う下記の処理を、一のDSP(デジタルシグナルプロセッサ)で行っても良い。つまり、本DSPは、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部を具備するデジタルシグナルプロセッサ、である。かかることも、実施の形態9、実施の形態10においても同様である。   In the present embodiment, the following processing performed by the audio processing device may be performed by a single DSP (digital signal processor). That is, the DSP stores a first sampling frequency storage unit that stores the first sampling frequency and a vocal tract length normalization parameter storage that stores a vocal tract length normalization parameter that is information related to the conversion rate of the sampling frequency. And a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters, sampling the voice received by the voice receiving unit, A digital signal processor including a vocal tract length normalization processing unit. This also applies to the ninth and tenth embodiments.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、音声を受け付ける音声受付ステップと、格納している声道長正規化パラメータと格納している第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program has a voice receiving step for receiving voice, a stored vocal tract length normalization parameter, and a second sampling frequency calculated using the stored first sampling frequency as parameters. A program for performing a vocal tract length normalization processing step for obtaining a second voice data by performing a sampling process on the voice received in the reception step and a voice processing step for processing the second voice data. .

また、上記プログラムにおいて、比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納しており、前記教師データおよび前記音声受付ステップで受け付けた音声に基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出ステップとをさらにコンピュータに実行させ、前記格納している声道長正規化パラメータは、前記声道長正規化パラメータ算出ステップで算出した声道長正規化パラメータであることは好適である。
(実施の形態9)
Further, in the above program, one or more teacher data, which is data related to a target voice to be compared and is data for each one or more phonemes, is stored, and is based on the teacher data and the voice received in the voice receiving step. And further executing a vocal tract length normalization parameter calculating step for calculating the vocal tract length normalization parameter, wherein the stored vocal tract length normalization parameter is the vocal tract length normalization parameter calculation step. It is preferable that the vocal tract length normalization parameter calculated in (1) is used.
(Embodiment 9)

本実施の形態において、比較対象の音声と入力音声の類似度の評定を精度高く、かつ高速にできる音声処理装置について説明する。本音声処理装置は、主として、音声(歌唱を含む)を評価する発音評定装置である、として説明する。さらに、本実施の形態において、上記の実施の形態で記載した音声処理装置よりもさらに精度高く、評価対象者の話者特性に応じた発音評定が可能な音声処理装置について説明する。具体的には、本実施の形態において、出現確率最大化基準に基づく、簡潔な声道長正規化法に基づいて、評価対象者の話者特性に左右されにくい音声処理装置について説明する。なお、本実施の形態における音声処理装置は、実施の形態8の音声処理装置と比較して、声道長正規化パラメータの算出アルゴリズムが異なる。   In the present embodiment, a description will be given of a speech processing apparatus that can evaluate the similarity between the comparison target speech and the input speech with high accuracy and high speed. The audio processing apparatus will be described as being a pronunciation rating apparatus that mainly evaluates audio (including singing). Further, in the present embodiment, a description will be given of a speech processing apparatus that can perform pronunciation evaluation according to speaker characteristics of the evaluation target person with higher accuracy than the speech processing apparatus described in the above embodiment. Specifically, in the present embodiment, a speech processing apparatus that is less susceptible to the speaker characteristics of the evaluation subject will be described based on a simple vocal tract length normalization method based on the appearance probability maximization criterion. Note that the speech processing apparatus according to the present embodiment differs from the speech processing apparatus according to the eighth embodiment in the calculation algorithm of the vocal tract length normalization parameter.

また、本実施の形態における音声処理装置は、例えば、語学学習や物真似練習やカラオケ評定などに利用できる。   In addition, the speech processing apparatus according to the present embodiment can be used for language learning, imitation practice, karaoke evaluation, and the like.

図41は、本実施の形態における音声処理装置のブロック図である。   FIG. 41 is a block diagram of the speech processing apparatus according to this embodiment.

本音声処理装置は、図36における音声処理装置と比較して、声道長正規化パラメータ算出部4101が異なる。   This speech processing device is different from the speech processing device in FIG. 36 in the vocal tract length normalization parameter calculation unit 4101.

なお、音声処理装置は、キーボード342、マウス343などの入力手段からの入力を受け付ける。また、音声処理装置は、マイク345などの音声入力手段から音声入力を受け付ける。さらに、音声処理装置は、ディスプレイ344などの出力デバイスに情報を出力する。   Note that the voice processing apparatus accepts input from input means such as a keyboard 342 and a mouse 343. The voice processing apparatus accepts voice input from voice input means such as a microphone 345. Further, the sound processing apparatus outputs information to an output device such as the display 344.

声道長正規化パラメータ算出部4101は、周波数範囲指定情報格納手段41011、学習音響データ格納手段41012、第二ケプストラムベクトル系列算出手段36013、ケプストラム変換手段36014、占有度数算出手段41013、ケプストラム変換パラメータ算出手段41015、最終ケプストラム変換パラメータ取得手段36016、声道長正規化パラメータ算出手段36017を具備する。なお、ここでの最終ケプストラム変換パラメータ取得手段36016は、所定のルールに基づいて、ケプストラム変換手段36014における処理、ケプストラム変換パラメータ算出手段41015における処理だけではなく、占有度数算出手段41013における処理をも繰り返えさせ、最終的な最適なケプストラム変換パラメータを得る。   The vocal tract length normalization parameter calculation unit 4101 includes a frequency range designation information storage unit 41011, a learning acoustic data storage unit 41012, a second cepstrum vector series calculation unit 36013, a cepstrum conversion unit 36014, an occupancy degree calculation unit 41013, and a cepstrum conversion parameter calculation. Means 41015, final cepstrum conversion parameter acquisition means 36016, and vocal tract length normalization parameter calculation means 36017 are provided. Here, the final cepstrum conversion parameter acquisition unit 36016 repeats not only the processing in the cepstrum conversion unit 36014 and the processing in the cepstrum conversion parameter calculation unit 41015 but also the processing in the occupation frequency calculation unit 41013 based on a predetermined rule. To get the final optimal cepstrum transformation parameters.

周波数範囲指定情報格納手段41011は、周波数範囲を指定する情報である周波数範囲指定情報(W)を格納している。周波数範囲指定情報(W)は、後述する最適なケプストラム変換パラメータ(α)を算出する場合に、1次オールパス関数等の双1次変換による周波数ワーピングが線形の周波数伸縮で近似できる範囲に、周波数範囲を限定するための情報である。かかる周波数範囲は、0周波数からナイキストレートの1/3から1/2程度が好適である。ただし、双1次変換は、スペクトル領域ではなく、ケプストラム領域で行われるため、周波数範囲指定情報(W)は、例えば、以下に述べる行列の情報であることが好適である。周波数範囲指定情報(W)は、例えば、図示しない周波数範囲指定情報算出手段により、以下のように算出される。サンプリング周波数をF(Hz)、指定される周波数範囲の最高周波数をFmax(Hz)とし,「ωmax=2πFmax/F」と置いて、ケプストラムベクトルに対する周波数範囲指定行列Wの(i,j)成分を、周波数範囲指定情報算出手段は、以下の数式16に従って計算する。具体的には、周波数範囲指定情報算出手段は、コンピュータの記録媒体(図示しない)に格納されているサンプリング周波数(F)、最高周波数(Fmax)を読み出す。そして、周波数範囲指定情報算出手段は、自ら保持している演算式の情報「ωmax=2πFmax/F」を読み出し、ωmaxを算出する。そして、周波数範囲指定情報算出手段は、格納している以下の数式16の情報を読み出し、i、jを0から順に、1ずつインクリメントさせながら、ループ処理(2重ループの処理になる)により、{W}i,jを算出する。そして、周波数範囲指定情報算出手段は、算出した{W}i,jのすべてを、少なくとも一時的に周波数範囲指定情報格納手段41011に格納する。
The frequency range designation information storage unit 41011 stores frequency range designation information (W) that is information for designating a frequency range. The frequency range designation information (W) has a frequency within a range in which frequency warping by bilinear transformation such as a linear allpass function can be approximated by linear frequency expansion and contraction when calculating an optimal cepstrum transformation parameter (α) described later. This is information for limiting the range. Such a frequency range is preferably about 0 to 1/3 to 1/2 of Nyquist rate. However, since the bilinear transformation is performed not in the spectral domain but in the cepstrum domain, the frequency range designation information (W) is preferably, for example, matrix information described below. The frequency range designation information (W) is calculated as follows, for example, by a frequency range designation information calculation unit (not shown). The sampling frequency is F s (Hz), the maximum frequency in the specified frequency range is F max (Hz), and “ω max = 2πF max / F s ” is set, and the frequency range specification matrix W for the cepstrum vector (i , J) component is calculated by the frequency range designation information calculating means according to the following equation (16). Specifically, the frequency range designation information calculation means reads a sampling frequency (F s ) and a maximum frequency (F max ) stored in a computer recording medium (not shown). Then, the frequency range designation information calculation means reads information “ω max = 2πF max / F s ” held by itself, and calculates ω max . Then, the frequency range designation information calculating means reads out the stored information of the following Expression 16, and increments i and j by 1 in order from 0, while performing loop processing (becomes a double loop processing), {W} i, j is calculated. Then, the frequency range designation information calculation means stores all of the calculated {W} i, j in the frequency range designation information storage means 41011 at least temporarily.

なお、周波数範囲指定情報のデータ構造は問わない。また、周波数範囲指定情報格納手段41011は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   In addition, the data structure of frequency range designation | designated information is not ask | required. The frequency range designation information storage unit 41011 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

学習音響データ格納手段41012は、学習音響データを格納している。学習音響データとは、以下のように生成される。つまり、図示しない学習音響データ生成手段が、教師データを構成するデータ(例えば、教師データ格納部102のデータ)から、話者の音声のケプストラムベクトル系列を短区間分析で求め、それを用いて2以上の基準話者音素HMMを取得し、メモリ上に、少なくとも一時格納する。そして、学習音響データ生成手段は、2以上の基準話者音素HMMを声道長正規化用の指定された発話内容(例えば/あいうえお/)に従って連結し、連結HMMを生成する。なお、ケプストラムベクトルは0次係数も含めたM+1次元である。また、連結HMMのj番目状態におけるm番目ガウス分布成分の平均ベクトルおよび共分散行列を、それぞれμj,m、Σj,mとすると、μj,mは、以下の数式17で表される。
The learning acoustic data storage means 41012 stores learning acoustic data. The learning acoustic data is generated as follows. That is, a learning acoustic data generation unit (not shown) obtains a cepstrum vector sequence of the speaker's voice from the data constituting the teacher data (for example, data in the teacher data storage unit 102) by short-term analysis, and uses this to obtain 2 The above reference speaker phoneme HMM is acquired and stored at least temporarily in the memory. Then, the learning acoustic data generating means connects two or more reference speaker phoneme HMMs according to the specified utterance content for normalizing the vocal tract length (for example, / Aiueo /) to generate a connected HMM. Note that the cepstrum vector has M + 1 dimensions including the zeroth order coefficient. Further, if the mean vector and covariance matrix of the mth Gaussian distribution component in the jth state of the connected HMM are μ j, m and Σ j, m , μ j, m is expressed by the following Expression 17. .

なお、(・・・)は、行列またはベクトルの転置を示す。 In addition, (...) T indicates transposition of a matrix or a vector.

そして、図示しない学習音響データ生成手段は、生成した学習音響データを、学習音響データ格納手段41012に蓄積する。   Then, the learning acoustic data generation means (not shown) accumulates the generated learning acoustic data in the learning acoustic data storage means 41012.

なお、学習音響データは、連結HMMが好適であるが、単一ガウス分布モデルや、確率モデル(GMM:ガウシャンミクスチャモデル)や、統計モデルなど、他のモデルに基づくデータでも良い。また、学習音響データ格納手段41012は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   The learning acoustic data is preferably a connected HMM, but may be data based on other models such as a single Gaussian distribution model, a probability model (GMM: Gaussian mixture model), and a statistical model. The learning acoustic data storage means 41012 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

占有度数算出手段41013は、占有度数(γ(j,m))を算出し、メモリ上に書き込み、少なくとも一時的に保持する。占有度数(γ(j,m))とは、t番目のフレームがj番目状態のm番目ガウス成分から生成された事後確率である。t番目のフレームとは、例えば、音声受付部103が、声道長正規化用の指定された発話内容(例えば/あいうえお/)の発声をユーザから受け付け、当該受け付けた音声から得られたt番目のフレームである。占有度数算出手段41013は、ケプストラム変換手段36014が算出した第三のケプストラムベクトル系列(O)と学習音響データ格納手段41012の学習音響データを用いて、占有度数(γ(j,m))を算出する。占有度数算出手段41013は、さらに好ましくは、第三のケプストラムベクトル系列(O)と学習音響データと周波数範囲指定情報格納手段41011の周波数範囲指定情報(W)を用いて、占有度数(γ(j,m))を算出する。占有度数算出手段41013は、占有度数(γ(j,m))を、フォワード・バックワードアルゴリズムにより算出する。フォワード・バックワードアルゴリズムは、公知技術であるので、詳細な説明を省略する。 The occupation frequency calculation means 41013 calculates the occupation frequency (γ t (j, m)), writes it in the memory, and holds it at least temporarily. The occupation frequency (γ t (j, m)) is a posterior probability that the t-th frame is generated from the m-th Gaussian component in the j-th state. The t-th frame is, for example, the t-th frame obtained from the received voice by the voice receiving unit 103 receiving the utterance of the specified utterance content (for example, / Aiueo /) for normalizing the vocal tract length. It is a frame. The occupancy degree calculation means 41013 uses the third cepstrum vector sequence (O t ) calculated by the cepstrum conversion means 36014 and the learning acoustic data of the learning acoustic data storage means 41012 to occupy degrees (γ t (j, m)). Is calculated. More preferably, the occupancy frequency calculation means 41013 uses the third cepstrum vector sequence (O t ), the learning acoustic data, and the frequency range designation information (W) of the frequency range designation information storage means 41011 to use the occupancy frequency (γ t (J, m)) is calculated. The occupation frequency calculation means 41013 calculates the occupation frequency (γ t (j, m)) using a forward / backward algorithm. Since the forward / backward algorithm is a known technique, a detailed description thereof will be omitted.

さらに具体的には、占有度数算出手段41013は、以下の処理により、占有度数(γ(j,m))を算出する。ここで、教師データの音声から学習される学習音素HMMを,声道長正規化パラメータ推定のために指定した発話内容(例えば/あいうえお/)にしたがって連結した連結HMMをΛとする。そして、ケプストラム変換パラメータ推定処理に使用される占有度数(γ(j,m))は、第三ケプストラム系列を周波数範囲指定情報Wにより周波数範囲指定されたケプストラムベクトル系列「Wo(α),Wo(α),...,Wo(α)」およびΛが与えられたときのt番目フレームがΛのj番目状態のm番目ガウス成分から生起した事後確率として定義されるので、占有度数(γ(j,m))は、数式18で定義される。
More specifically, the occupation frequency calculation means 41013 calculates the occupation frequency (γ t (j, m)) by the following processing. Here, let Λ be a concatenated HMM in which learning phoneme HMMs learned from speech of teacher data are concatenated according to the utterance content (for example, / aiueo /) designated for vocal tract length normalization parameter estimation. The occupation frequency (γ t (j, m)) used for the cepstrum transformation parameter estimation process is the cepstrum vector sequence “Wo 1 (α), Wo 2 (α),..., Wo T (α) ”and Λ are defined as the posterior probabilities that arise from the mth Gaussian component of the jth state of Λ. The frequency (γ t (j, m)) is defined by Equation 18.

また、数式18における占有度数(γ(j,m))は、前向き尤度A(j)および後向き尤度B(j)を使って数式19のように計算される。つまり、占有度数算出手段41013は、数式19で示される式の情報を保持しており、与えられるケプストラムベクトル系列、およびΛを用いて、占有度数(γ(j,m))を算出する。
Further, the occupation frequency (γ t (j, m)) in Expression 18 is calculated as Expression 19 using the forward likelihood A t (j) and the backward likelihood B t (j). That is, the occupation frequency calculation means 41013 holds the information of the equation represented by Equation 19, and calculates the occupation frequency (γ t (j, m)) using the given cepstrum vector sequence and Λ.

なお、占有度数算出手段41013は、数式19のAt(j)およびBt(j)を、ケプストラムベクトル系列「Wo(α)...Wo(α)」およびΛから公知のforward−backwardアルゴリズムを用いて算出する。 Note that the occupation frequency calculation means 41013 converts At (j) and Bt (j) of Equation 19 into a forward-backward algorithm known from the cepstrum vector series “Wo 1 (α)... W o T (α)” and Λ. Calculate using.

また、vj,mは、j番目状態のm番目ガウス成分に対する重み係数である。さらに、占有度数算出手段41013は、出力分布bj,m(Wo(α))を、数式20を用いて算出する。占有度数算出手段41013は、数式20の情報を予め保持しており、当該情報を読み出して、演算を実行し、出力分布bj,m(Wo(α))を得る。
V j, m is a weighting factor for the mth Gaussian component in the jth state. Moreover, occupied frequency computing unit 41013, the output distribution b j, m the (Wo t (α)), is calculated using Equation 20. Occupied frequency computing unit 41013 is prestores information of formula 20, reads the information, performs operations to obtain power distribution b j, m the (Wo t (α)).

なお、数式20において、Mはケプストラム次数、|A|は行列Aのdeterminantを表わす。   In Equation 20, M represents a cepstrum order, and | A | represents a determinant of the matrix A.

占有度数算出手段41013は、通常、MPUやメモリ等から実現され得る。占有度数算出手段41013の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The occupancy frequency calculation means 41013 can usually be realized by an MPU, a memory, or the like. The processing procedure of the occupation frequency calculation means 41013 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

ケプストラム変換パラメータ算出手段41015は、学習音響データ格納手段41012の学習音響データを読み出し、およびメモリ上に一時格納されている第三のケプストラムベクトル系列(O)を読み出し、読み出した学習音響データおよび第三のケプストラムベクトル系列(O)に基づいて、ケプストラム変換パラメータ(α)を算出する。ケプストラム変換パラメータ算出手段41015は、さらに好ましくは、周波数範囲指定情報(W)で示される周波数範囲における学習音響データ、第三のケプストラムベクトル系列(O)および占有度数(γ(j,m))に基づいて、ケプストラム変換パラメータを算出する。なお、第三のケプストラムベクトル系列(O)は、ケプストラム変換手段36014が算出したデータである。 The cepstrum conversion parameter calculation unit 41015 reads out the learning acoustic data in the learning acoustic data storage unit 41012 and reads out the third cepstrum vector sequence (O t ) temporarily stored in the memory, Based on the third cepstrum vector series (O t ), a cepstrum transformation parameter (α) is calculated. More preferably, the cepstrum conversion parameter calculation means 41015 is the learning acoustic data, the third cepstrum vector series (O t ), and the occupancy frequency (γ t (j, m) in the frequency range indicated by the frequency range designation information (W). ) To calculate a cepstrum conversion parameter. The third cepstrum vector series (O t ) is data calculated by the cepstrum conversion unit 36014.

具体的には、まず、ケプストラム変換パラメータ算出手段41015は、上述の数式12により、ベクトル(u(α))を算出する。なお、ケプストラム変換パラメータ算出手段41015は、上述の数式12を示す情報を格納しており、かかる数式12の情報を読み出し、当該数式に、第三のケプストラムベクトル系列(O)、ケプストラム変換パラメータ(α)、ベクトル(C )の情報を与え、当該数式を演算する。そして、次に、ケプストラム変換パラメータ算出手段41015は、以下の数式21により、αの最適値(α)を算出する。なお、αの最適値(α)は、繰り返しステップ(ループ処理)における現在のループ内の処理での最適値である。また、ケプストラム変換パラメータ算出手段41015は、以下の数式21を示す情報を、予め格納している。
Specifically, first, the cepstrum conversion parameter calculation unit 41015 calculates a vector (u t (α)) by the above-described Expression 12. Note that the cepstrum conversion parameter calculation means 41015 stores information indicating the above formula 12, reads the information of the formula 12, and stores the third cepstrum vector series (O t ), cepstrum conversion parameter ( α) and vector (C t ) information are given, and the mathematical formula is calculated. Then, the cepstrum conversion parameter calculation means 41015 calculates the optimum value (α * ) of α by the following Equation 21. Note that the optimum value of α (α * ) is the optimum value in the processing in the current loop in the iteration step (loop processing). Further, the cepstrum conversion parameter calculation means 41015 stores information indicating the following formula 21 in advance.

ケプストラム変換パラメータ算出手段41015は、通常、MPUやメモリ等から実現され得る。ケプストラム変換パラメータ算出手段41015の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The cepstrum conversion parameter calculation means 41015 can usually be realized by an MPU, a memory, or the like. The processing procedure of the cepstrum conversion parameter calculation means 41015 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

次に、本音声処理装置の動作について説明する。まず、本音声処理装置における、声道長正規化パラメータを算出する処理について、図42のフローチャートを用いて説明する。図42のフローチャートにおいて、図37のフローチャートと比較して差異のあるステップのみ説明する。なお、本声道長正規化パラメータ算出処理は、必ずしも音声処理装置で行う必要はない。また、図42における初期化処理は、例えば、ユーザ(評価対象者)に対して、「/aiueo/」と発声するように促す処理と、周波数範囲指定情報格納手段41011の周波数範囲指定情報、および学習音響データ格納手段41012の学習音響データを読み出す処理である。   Next, the operation of the voice processing apparatus will be described. First, the process of calculating the vocal tract length normalization parameter in the speech processing apparatus will be described with reference to the flowchart of FIG. In the flowchart of FIG. 42, only steps that are different from the flowchart of FIG. 37 will be described. Note that the vocal tract length normalization parameter calculation process does not necessarily have to be performed by the voice processing device. The initialization process in FIG. 42 includes, for example, a process for prompting the user (evaluation subject) to say “/ aiueo”, frequency range designation information in the frequency range designation information storage unit 41011, and This is a process of reading the learning sound data in the learning sound data storage means 41012.

(ステップS4201)占有度数算出手段41013は、ステップS3707で得られた第三のケプストラムベクトル系列(O)と学習音響データ格納手段41012の学習音響データと周波数範囲指定情報(W)を用いて、占有度数(γ(j,m))を算出し、メモリに一時記憶する。 (Step S4201) The occupation frequency calculation means 41013 uses the third cepstrum vector sequence (O t ) obtained in Step S3707, the learning acoustic data of the learning acoustic data storage means 41012, and the frequency range designation information (W). The occupancy frequency (γ t (j, m)) is calculated and temporarily stored in the memory.

(ステップS4202)ケプストラム変換パラメータ算出手段41015は、周波数範囲指定情報(W)で示される周波数範囲における学習音響データ、ベクトル(u(α))および占有度数(γ(j,m))に基づいて、本ループにおける最適なケプストラム変換パラメータ(α)を算出する。ケプストラム変換パラメータ算出手段41015は、例えば、格納している数式21の情報を読み出し、また、メモリ上の学習音響データ、ベクトル(u(α))および占有度数(γ(j,m))を読み出し、数式21に代入し、ケプストラム変換パラメータ(α)を算出する。 (Step S4202) The cepstrum transformation parameter calculation means 41015 converts the learning acoustic data, vector (u t (α)), and occupancy frequency (γ t (j, m)) in the frequency range indicated by the frequency range designation information (W). Based on this, the optimum cepstrum transformation parameter (α * ) in this loop is calculated. The cepstrum conversion parameter calculation means 41015, for example, reads the stored information of Equation 21 and also learns the learning acoustic data, the vector (u t (α)) and the occupation frequency (γ t (j, m)) on the memory. Is substituted into Equation 21, and a cepstrum conversion parameter (α * ) is calculated.

次に、本音声処理装置の動作(音声の評定処理)について説明する。本音声処理装置の動作は、図38、図39のフローチャートにおける動作と同様である。   Next, the operation (voice evaluation process) of the voice processing apparatus will be described. The operation of this speech processing apparatus is the same as the operation in the flowcharts of FIGS.

以下、図43の概念図を用いて、本実施の形態における音声処理装置における声道長正規化パラメータ算出処理の概念について説明する。まず、システム設計用音声データベースから、指定された発話内容(例えば/あいうえお/)に従って音素HMM(教師データが有する音素HMM)を連結し連結HMM(図43の基準話者HMM)を構成する。そして、連結HMMと、同じ音素列のユーザ発話音声の変換されたケプストラムベクトルOの、Λ(Λは、ユーザ発話音声にしたがって連結された連結HMM)に対する出現確率が最大になるように(図43の最適化に相当)パラメータを算出する。ただし、求まるパラメータ(α?)はケプストラム変換(ケプストラムワーピング)パラメータであり、このままでは声道長の変換を直接表わすものではないため、近似変換式(1/ρ)を用いて最終的な声道長正規化パラメータ(サンプリング周波数変換率)γを計算する。なお、声道長正規化パラメータを算出するための数式は、上記の数式16から数式21、数式9から数式12、数式14、数式15により行われる。 Hereinafter, the concept of the vocal tract length normalization parameter calculation process in the speech processing apparatus according to the present embodiment will be described using the conceptual diagram of FIG. First, phoneme HMMs (phoneme HMMs possessed by teacher data) are concatenated from the system design speech database according to the specified utterance content (for example, / Aiueo /) to form a concatenated HMM (reference speaker HMM in FIG. 43). Then, the appearance probability with respect to Λ (Λ is a concatenated HMM concatenated according to the user speech) of the concatenated HMM and the cepstrum vector O t converted from the user speech of the same phoneme sequence is maximized (see FIG. 43 parameter). However, since the obtained parameter (α?) Is a cepstrum transformation (cepstrum warping) parameter and does not directly represent the transformation of the vocal tract length as it is, the final vocal tract is obtained using the approximate transformation formula (1 / ρ). The long normalization parameter (sampling frequency conversion rate) γ is calculated. Note that the mathematical formulas for calculating the vocal tract length normalization parameters are calculated by the above mathematical formulas 16 to 21, 9 to 12, 12, 14 and 15.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、特に、精度の高い評定ができる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. Further, in this case, according to the present embodiment, it is possible to make a highly accurate evaluation that is not affected by individual differences, particularly vocal tract length differences.

なお、本実施の形態によれば、音声処理装置が声道長正規化パラメータを算出する処理と、声道長正規化処理を行った。しかし、声道長正規化パラメータを算出する処理と声道長正規化処理を、異なる装置が行う構成でも良い。かかる場合、本音声処理装置は、音声を受け付ける音声受付部と、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、前記第二音声データを処理する音声処理部を具備する音声処理装置である。また、声道長正規化パラメータを算出する装置は、教師データを構成するデータから、話者の音声のケプストラムベクトル系列を短区間分析で求め、それを用いて2以上の基準話者音素HMMを取得し、当該2以上の基準話者音素HMMを声道長正規化用の指定された発話内容(例えば/あいうえお/)に従って連結して得られた連結HMMである学習音響データを格納している学習音響データ格納手段と、受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて線形変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、指定された発話内容に従って受け付けた音声の事後確率である占有度数を算出する占有度算出手段と、前記学習音響データおよび前記第三のケプストラムベクトル系列および前記占有度数に基づいて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記占有度算出手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段を具備する装置である。   Note that, according to the present embodiment, the voice processing device performs the process of calculating the vocal tract length normalization parameter and the vocal tract length normalization process. However, a configuration in which different devices perform the process of calculating the vocal tract length normalization parameter and the process of normalizing the vocal tract length may be used. In such a case, the speech processing apparatus includes a speech reception unit that receives speech, a first sampling frequency storage unit that stores a first sampling frequency, and a vocal tract length normalization parameter that is information related to a conversion rate of the sampling frequency. A voice sampling length storage parameter storing unit, a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters, and the voice received by the voice receiving unit The voice processing apparatus includes a vocal tract length normalization processing unit that performs sampling processing to obtain second voice data, and a voice processing unit that processes the second voice data. Further, the apparatus for calculating the vocal tract length normalization parameter obtains a cepstrum vector sequence of the speaker's speech from the data constituting the teacher data by short interval analysis, and uses it to obtain two or more reference speaker phoneme HMMs. Acquiring and storing learning acoustic data which is a connected HMM obtained by connecting the two or more reference speaker phoneme HMMs according to the specified utterance content for normalizing the vocal tract length (for example, / Aiueo /) Learning acoustic data storage means; second cepstrum vector series calculation means for calculating a second cepstrum vector series from the received speech by short interval analysis; and the second cepstrum vector series, with cepstrum conversion parameters as elements. A cepstrum conversion means for performing linear conversion using a matrix and calculating a frequency-warped third cepstrum vector sequence; An occupancy degree calculating means for calculating an occupancy degree that is a posterior probability of the received voice according to the utterance content, and calculating a cepstrum conversion parameter based on the learning acoustic data, the third cepstrum vector series, and the occupancy degree. Based on the cepstrum conversion parameter calculation means and a predetermined rule, the process in the cepstrum conversion means, the process in the occupancy calculation means, and the process in the cepstrum conversion parameter calculation means are repeated to obtain a cepstrum conversion parameter. An apparatus comprising: a final cepstrum conversion parameter acquisition unit; and a vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit. That.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、音声を受け付ける音声受付ステップと、格納している声道長正規化パラメータと格納している第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program has a voice receiving step for receiving voice, a stored vocal tract length normalization parameter, and a second sampling frequency calculated using the stored first sampling frequency as parameters. A program for performing a vocal tract length normalization processing step for obtaining a second voice data by performing a sampling process on the voice received in the reception step and a voice processing step for processing the second voice data. .

また、上記プログラムにおいて、比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納しており、前記教師データおよび前記音声受付ステップで受け付けた音声に基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出ステップとをさらにコンピュータに実行させ、前記格納している声道長正規化パラメータは、前記声道長正規化パラメータ算出ステップで算出した声道長正規化パラメータであることは好適である。   Further, in the above program, one or more teacher data, which is data related to a target voice to be compared and is data for each one or more phonemes, is stored, and is based on the teacher data and the voice received in the voice receiving step. And further executing a vocal tract length normalization parameter calculating step for calculating the vocal tract length normalization parameter, wherein the stored vocal tract length normalization parameter is the vocal tract length normalization parameter calculation step. It is preferable that the vocal tract length normalization parameter calculated in (1) is used.

また、上記プログラムにおいて、音素HMMを指定された発話内容に従って連結した連結HMMである学習音響データを格納しており、前記声道長正規化パラメータ算出ステップは、前記音声受付ステップで受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出ステップと、前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて線形変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換ステップと、指定された発話内容に従って受け付けた音声の事後確率である占有度数を算出する占有度算出ステップと、前記学習音響データおよび前記第三のケプストラムベクトル系列および前記占有度数に基づいて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出ステップと、所定のルールに基づいて、前記ケプストラム変換ステップにおける処理、および前記占有度算出ステップにおける処理、および前記ケプストラム変換パラメータ算出ステップにおける処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得ステップと、前記最終ケプストラム変換パラメータ取得ステップで得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出ステップを具備することは好適である。   Further, in the above program, learning acoustic data, which is a concatenated HMM in which phoneme HMMs are concatenated according to designated utterance contents, is stored, and the vocal tract length normalization parameter calculation step is performed based on the speech received in the speech reception step. A second cepstrum vector sequence calculating step for calculating a second cepstrum vector sequence by short interval analysis, and linearly transforming the second cepstrum vector sequence using a matrix having cepstrum transformation parameters as elements, and frequency warping is performed. A cepstrum conversion step for calculating a third cepstrum vector sequence, an occupancy degree calculating step for calculating an occupancy degree which is a posterior probability of speech received according to the designated utterance content, the learning acoustic data and the third cepstrum Vector series and the above occupancy frequency Therefore, the cepstrum conversion parameter calculation step for calculating the cepstrum conversion parameter, the processing in the cepstrum conversion step, the processing in the occupancy calculation step, and the processing in the cepstrum conversion parameter calculation step are repeated based on a predetermined rule. A final cepstrum conversion parameter acquisition step for obtaining a cepstrum conversion parameter, and a vocal tract length normalization parameter for calculating the vocal tract length normalization parameter based on the cepstrum conversion parameter obtained in the final cepstrum conversion parameter acquisition step. It is preferable to include a calculation step.

また、上記プログラムにおいて、前記声道長正規化パラメータ算出ステップにおいて、前記最終ケプストラム変換パラメータ取得ステップで得たケプストラム変換パラメータから線形周波数伸縮比を算出し、当該線形周波数伸縮比から前記声道長正規化パラメータを算出することは好適である。   In the above program, in the vocal tract length normalization parameter calculation step, a linear frequency expansion / contraction ratio is calculated from the cepstrum conversion parameter obtained in the final cepstrum conversion parameter acquisition step, and the vocal tract length normalization is calculated from the linear frequency expansion / contraction ratio. It is preferable to calculate the optimization parameter.

また、上記プログラムにおいて、周波数範囲を指定する情報である周波数範囲指定情報を格納しており、前記ケプストラム変換パラメータ算出ステップにおいて、前記周波数範囲指定情報で示される周波数範囲における学習音響データ、第三のケプストラムベクトル系列および占有度数に基づいて、ケプストラム変換パラメータを算出することは好適である。
(実施の形態10)
Further, in the above program, frequency range designation information that is information for designating a frequency range is stored, and in the cepstrum conversion parameter calculation step, learning acoustic data in the frequency range indicated by the frequency range designation information, It is preferable to calculate the cepstrum transformation parameter based on the cepstrum vector series and the occupation frequency.
(Embodiment 10)

本実施の形態において、比較対象の音声と入力音声の類似度の評定を精度高く、かつ高速にできる音声処理装置について説明する。本音声処理装置は、主として、音声(歌唱を含む)を評価する発音評定装置である、として説明する。さらに、本実施の形態において、上記の実施の形態で記載した音声処理装置よりもさらに精度高く、評価対象者の話者特性に応じた発音評定が可能な音声処理装置について説明する。具体的には、本実施の形態において、複数の音素を用いた最小自乗誤差基準に基づく、簡潔な声道長正規化法に基づいて、評価対象者の話者特性に左右されにくい音声処理装置について説明する。   In the present embodiment, a description will be given of a speech processing apparatus that can evaluate the similarity between the comparison target speech and the input speech with high accuracy and high speed. The audio processing apparatus will be described as being a pronunciation rating apparatus that mainly evaluates audio (including singing). Further, in the present embodiment, a description will be given of a speech processing apparatus that can perform pronunciation evaluation according to speaker characteristics of the evaluation target person with higher accuracy than the speech processing apparatus described in the above embodiment. Specifically, in the present embodiment, a speech processing apparatus that is less susceptible to the speaker characteristics of the evaluation target, based on a simple vocal tract length normalization method based on a least square error criterion using a plurality of phonemes Will be described.

さらに具体的には、本実施の形態において、基準話者(システム設計用の話者)の音声から、音素毎に基準話者平均ケプストラムベクトルを計算しておく。そして、ユーザ音声の周波数ワープされたケプストラムベクトル系列と上記の基準話者平均ケプストラムベクトルの系列との自乗誤差が最小になるように、最適なワーピングパラメータを求める。このとき、ユーザ音声は指定された発話内容にしたがって発声されたものであり、基準話者平均ケプストラムの系列は同じ発話内容にしたがって音素毎の基準話者平均ケプストラムを並べたものであることが好適である。ただし、ここで算出されるパラメータはケプストラムワーピングパラメータであり、声道長変換を直接表わすものではないため、予め決まられた近似変換式を用いて最終的な声道長正規化パラメータ(サンプリング周波数変換率)を算出する。   More specifically, in the present embodiment, a reference speaker average cepstrum vector is calculated for each phoneme from the speech of a reference speaker (system design speaker). Then, an optimal warping parameter is obtained so that the square error between the frequency warped cepstrum vector sequence of the user speech and the above-described reference speaker average cepstrum vector sequence is minimized. At this time, it is preferable that the user voice is uttered according to the specified utterance content, and the reference speaker average cepstrum sequence is a sequence of reference speaker average cepstrum for each phoneme according to the same utterance content. It is. However, since the parameter calculated here is a cepstrum warping parameter and does not directly represent vocal tract length conversion, the final vocal tract length normalization parameter (sampling frequency conversion) is determined using a predetermined approximate conversion formula. Rate).

なお、本実施の形態における音声処理装置は、実施の形態8、9の音声処理装置と比較して、声道長正規化パラメータの算出アルゴリズムが異なる。   Note that the speech processing apparatus in the present embodiment differs from the speech processing apparatuses in the eighth and ninth embodiments in the calculation algorithm of the vocal tract length normalization parameter.

また、本実施の形態における音声処理装置は、例えば、語学学習や物真似練習やカラオケ評定などに利用できる。   In addition, the speech processing apparatus according to the present embodiment can be used for language learning, imitation practice, karaoke evaluation, and the like.

図44は、本実施の形態における音声処理装置のブロック図である。   FIG. 44 is a block diagram of the audio processing apparatus according to the present embodiment.

本音声処理装置は、図41における音声処理装置と比較して、声道長正規化パラメータ算出部4401が異なる。   This speech processing device is different from the speech processing device in FIG. 41 in a vocal tract length normalization parameter calculation unit 4401.

声道長正規化パラメータ算出部4401は、周波数範囲指定情報格納手段41011、学習音響データ格納手段44012、第二ケプストラムベクトル系列算出手段36013、ケプストラム変換手段36014、最適音素系列取得手段44013、ケプストラム変換パラメータ算出手段44015、最終ケプストラム変換パラメータ取得手段36016、声道長正規化パラメータ算出手段36017を具備する。なお、ここでの最終ケプストラム変換パラメータ取得手段36016は、所定のルールに基づいて、ケプストラム変換手段36014における処理、ケプストラム変換パラメータ算出手段44015における処理だけではなく、最適音素系列取得手段44013における処理をも繰り返えさせ、最終的な最適なケプストラム変換パラメータを得る。   The vocal tract length normalization parameter calculation unit 4401 includes a frequency range designation information storage unit 41011, a learning acoustic data storage unit 44012, a second cepstrum vector sequence calculation unit 36013, a cepstrum conversion unit 36014, an optimum phoneme sequence acquisition unit 44013, and a cepstrum conversion parameter. Calculation means 44015, final cepstrum conversion parameter acquisition means 36016, and vocal tract length normalization parameter calculation means 36017 are provided. Here, the final cepstrum conversion parameter acquisition unit 36016 performs not only the process in the cepstrum conversion unit 36014 and the process in the cepstrum conversion parameter calculation unit 44015, but also the process in the optimum phoneme sequence acquisition unit 44003 based on a predetermined rule. Repeat to get the final optimal cepstrum transformation parameters.

学習音響データ格納手段44012は、学習音響データを格納している。ここでの学習音響データは、音素平均ケプストラムベクトルを指定された発話内容に従って並べた音素平均ケプストラムベクトル列である。学習音響データは、例えば、以下のように生成される。つまり、図示しない学習音響データ生成手段が、教師データを構成するデータ(例えば、教師データ格納部102のデータ)から、各音素l(l=1,2,....,L)に対して、基準話者の音声ケプストラムベクトル系列を短区間分析で求め,その時間平均(μ)を算出する。なお、ケプストラムベクトルは0次係数も含めたM+1次元である。そして、時間平均(μ)は、以下の数式22で表される。
The learning acoustic data storage unit 44012 stores learning acoustic data. The learning acoustic data here is a phoneme average cepstrum vector sequence in which phoneme average cepstrum vectors are arranged according to the specified utterance content. The learning acoustic data is generated as follows, for example. In other words, a learning acoustic data generation unit (not shown) applies to each phoneme l (l = 1, 2,..., L) from data constituting the teacher data (for example, data in the teacher data storage unit 102). Then, the speech cepstrum vector series of the reference speaker is obtained by short interval analysis, and the time average (μ l ) is calculated. Note that the cepstrum vector has M + 1 dimensions including the zeroth order coefficient. The time average (μ 1 ) is expressed by the following formula 22.

なお、(・・・)は、行列またはベクトルの転置を示す。 In addition, (...) T indicates transposition of a matrix or a vector.

そして、図示しない学習音響データ生成手段は、生成した学習音響データを、学習音響データ格納手段44012に蓄積する。   Then, the learning acoustic data generation means (not shown) accumulates the generated learning acoustic data in the learning acoustic data storage means 44012.

なお、学習音響データ格納手段44012は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   Note that the learning acoustic data storage unit 44012 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

最適音素系列取得手段44013は、ユーザが発声した発話音声を構成する各フレームtに対応する音素番号の情報である音素系列(s (t=1,2,....,T))を取得する。最適音素系列取得手段44013が音素系列(s )を取得するアルゴリズムは問わない。最適音素系列取得手段44013は、例えば、ユーザ(キーボードなど)からの音素系列(s )の入力を受け付けても良い。また、最適音素系列取得手段44013は、ユーザケプストラムベクトル系列(C)からオートセグメンテーションにより、音素系列(s )を算出しても良い。オートセグメンテーションは、公知技術であるので説明を省略する。また、最適音素系列取得手段44013は、動的計画法(DPマッチング)により、以下の数式23のJを最小にする音素系列S(t=1,2,....,T)を取得し、そのSを音素系列(s )として取得しても良い。また、音素系列は、音素番号の列の情報でなくても良い。音素系列は、音素を識別する情報の列であれば良い。
Optimal phoneme sequence acquisition means 44013 is a phoneme sequence (s * t (t = 1, 2,..., T)) that is information of phoneme numbers corresponding to each frame t constituting speech uttered by the user. To get. The algorithm for obtaining the phoneme sequence (s * t ) by the optimum phoneme sequence acquisition unit 44013 is not limited. The optimal phoneme sequence acquisition unit 44013 may accept an input of a phoneme sequence (s * t ) from a user (keyboard or the like), for example. The optimal phoneme sequence acquisition unit 44013 may calculate a phoneme sequence (s * t ) from the user cepstrum vector sequence (C t ) by auto-segmentation. Since auto segmentation is a well-known technique, description thereof is omitted. Also, the optimal phoneme sequence acquisition unit 44013 acquires a phoneme sequence S t (t = 1, 2,..., T) that minimizes J in Expression 23 below by dynamic programming (DP matching). and it may acquire the S t as a phoneme sequence (s * t). Further, the phoneme sequence may not be information on a sequence of phoneme numbers. The phoneme sequence may be a string of information for identifying a phoneme.

ケプストラム変換パラメータ算出手段44015は、学習音響データ格納手段44012の学習音響データを読み出し、およびメモリ上に一時格納されている第三のケプストラムベクトル系列(O)を読み出し、および最適音素系列取得手段44013が取得した音素系列(s )を読み出し、読み出した学習音響データおよび第三のケプストラムベクトル系列(O)および音素系列(s )を用いて、ケプストラム変換パラメータ(α)を算出する。ケプストラム変換パラメータ算出手段44015は、さらに好ましくは、周波数範囲指定情報(W)および読み出した学習音響データおよび第三のケプストラムベクトル系列(O)および音素系列(s )に基づいて、ケプストラム変換パラメータを算出する。 The cepstrum conversion parameter calculation unit 44015 reads out the learning acoustic data of the learning acoustic data storage unit 44012, reads out the third cepstrum vector sequence (O t ) temporarily stored in the memory, and the optimum phoneme sequence acquisition unit 44013. There reads the obtained phoneme sequences (s * t), using the read training acoustic data and the third cepstrum vector sequences (O t) and the phoneme sequence (s * t), to calculate the cepstrum transformation parameter (alpha) . The cepstrum conversion parameter calculation means 44015 is more preferably based on the frequency range designation information (W), the read learning acoustic data, the third cepstrum vector sequence (O t ), and the phoneme sequence (s * t ). Calculate the parameters.

具体的には、まず、ケプストラム変換パラメータ算出手段36015は、以下の数式24により、ベクトル(u(α))を算出する。そして、次に、ケプストラム変換パラメータ算出手段44015は、以下の数式25により、αの最適値(α)を算出する。なお、αの最適値(α)は、現繰り返しステップにおける最適値である。
Specifically, first, the cepstrum conversion parameter calculation unit 36015 calculates a vector (u t (α)) by the following Expression 24. Then, the cepstrum conversion parameter calculation means 44015 calculates the optimum value (α * ) of α by the following formula 25. Note that the optimum value of α (α * ) is the optimum value in the current iteration step.

なお、ケプストラム変換パラメータ算出手段44015は、通常、上記の数式24、25の情報を格納しており、当該数式の情報を読み出し、演算を行う。ケプストラム変換パラメータ算出手段44015は、通常、MPUやメモリ等から実現され得る。ケプストラム変換パラメータ算出手段44015の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   Note that the cepstrum conversion parameter calculation unit 44015 normally stores information on the above formulas 24 and 25, reads out the information on the formulas, and performs calculation. The cepstrum conversion parameter calculation unit 44015 can be usually realized by an MPU, a memory, or the like. The processing procedure of the cepstrum conversion parameter calculation means 44015 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

なお、声道長正規化パラメータ算出手段36017は、実施の形態9において、最終ケプストラム変換パラメータ取得手段36016が得たケプストラム変換パラメータから、数式14に従って、線形周波数伸縮比(ρ)を算出した。しかし、声道長正規化パラメータ算出手段36017は、最終ケプストラム変換パラメータ取得手段36016が得たケプストラム変換パラメータから、以下の数式26に従って、線形周波数伸縮比(ρ)を算出しても良い。
Note that the vocal tract length normalization parameter calculation unit 36017 calculates the linear frequency expansion / contraction ratio (ρ) from the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit 36016 in the ninth embodiment according to Equation 14. However, the vocal tract length normalization parameter calculation unit 36017 may calculate the linear frequency expansion / contraction ratio (ρ) from the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit 36016 according to the following Equation 26.

次に、本音声処理装置の動作について説明する。まず、本音声処理装置における、声道長正規化パラメータを算出する処理について、図45のフローチャートを用いて説明する。図45のフローチャートにおいて、図37、図42のフローチャートと比較して差異のあるステップのみ説明する。なお、本声道長正規化パラメータ算出処理は、必ずしも音声処理装置で行う必要はない。また、図45における初期化処理は、例えば、ユーザ(評価対象者)に対して、「/あいうえお/」と発声するように促す処理と、周波数範囲指定情報格納手段41011の周波数範囲指定情報、および学習音響データ格納手段44012の学習音響データを読み出す処理である。   Next, the operation of the voice processing apparatus will be described. First, processing for calculating a vocal tract length normalization parameter in the speech processing apparatus will be described with reference to the flowchart of FIG. In the flowchart of FIG. 45, only steps that are different from the flowcharts of FIGS. 37 and 42 will be described. Note that the vocal tract length normalization parameter calculation process does not necessarily have to be performed by the voice processing device. The initialization process in FIG. 45 includes, for example, a process for prompting the user (evaluation subject) to say “/ aiueo /”, frequency range designation information in the frequency range designation information storage unit 41011, and This is a process of reading the learning sound data in the learning sound data storage means 44012.

(ステップS4501)最適音素系列取得手段44013は、ユーザが発声した発話音声を構成する各フレームtに対応する音素系列(s (t=1,2,....,T))を取得する。 (Step S4501) Optimal phoneme sequence acquisition means 44013 acquires a phoneme sequence (s * t (t = 1, 2,..., T)) corresponding to each frame t constituting the speech voice uttered by the user. To do.

(ステップS4502)ケプストラム変換パラメータ算出手段44015は、周波数範囲指定情報(W)で示される周波数範囲における学習音響データ、ベクトル(u(α))およびステップS4501で取得した音素系列(s )に基づいて、本ループにおける最適なケプストラム変換パラメータ(α)を算出する。ケプストラム変換パラメータ算出手段44015は、例えば、格納している数式25の情報を読み出し、また、メモリ上の学習音響データ、ベクトル(u(α))および音素系列(s )を読み出し、数式25に代入し、ケプストラム変換パラメータ(α)を算出する。 (Step S4502) The cepstrum transformation parameter calculation unit 44015 learns acoustic data in the frequency range indicated by the frequency range designation information (W), the vector (u t (α)), and the phoneme sequence (s * t ) acquired in step S4501. Based on the above, the optimum cepstrum transformation parameter (α * ) in this loop is calculated. The cepstrum conversion parameter calculation means 44015 reads, for example, the stored information of Equation 25, and also reads the learning acoustic data, the vector (u t (α)) and the phoneme sequence (s * t ) on the memory, Substituting into 25, the cepstrum transformation parameter (α * ) is calculated.

次に、本音声処理装置の動作(音声の評定処理)について説明する。本音声処理装置の動作は、図38、図39のフローチャートにおける動作と同様である。   Next, the operation (voice evaluation process) of the voice processing apparatus will be described. The operation of this speech processing apparatus is the same as the operation in the flowcharts of FIGS.

以下、図46の概念図を用いて、本実施の形態における音声処理装置における声道長正規化パラメータ算出処理の概念について説明する。まず、基準話者音声データベースから算出された音素毎の平均ケプストラムベクトルを、指定された発話内容(例えば/あいうえお/)の音素列に従って並べたベクトル列と、同じ音素列のユーザ発話音声の変換されたケプストラムベクトルとの自乗誤差が最小になるようにパラメータ(α)が求められる。ただし、求まるパラメータ(α)はケプストラム変換(ケプストラムワーピング)パラメータであり、このままでは声道長の変換を直接表わすものではないため、近似変換式(1/ρ)を用いて最終的な声道長正規化パラメータ(サンプリング周波数変換率)γを計算する。なお、声道長正規化パラメータを算出するための数式は、上記の数式22から数式26、数式9から数式11、数式14から数式16等により行われる。 The concept of vocal tract length normalization parameter calculation processing in the speech processing apparatus according to the present embodiment will be described below using the conceptual diagram of FIG. First, a vector sequence in which the average cepstrum vector for each phoneme calculated from the reference speaker speech database is arranged according to the phoneme sequence of the specified utterance content (for example, / Aiueo /) and the user utterance speech of the same phoneme sequence are converted. The parameter (α * ) is determined so that the square error with the cepstrum vector is minimized. However, since the obtained parameter (α * ) is a cepstrum transformation (cepstrum warping) parameter and does not directly represent the transformation of the vocal tract length as it is, the final vocal tract is obtained using the approximate transformation formula (1 / ρ). The long normalization parameter (sampling frequency conversion rate) γ is calculated. It should be noted that the equations for calculating the vocal tract length normalization parameter are performed by the above-described Equations 22 to 26, Equations 9 to 11, Equations 14 to 16, and the like.

以上、本実施の形態によれば、ユーザが入力した発音を、教師データに対して、如何に似ているかを示す類似度(評定値)を算出し、出力できる。また、かかる場合、本実施の形態によれば、個人差、特に声道長の違いに影響を受けない、特に、精度の高い評定ができる。   As described above, according to the present embodiment, it is possible to calculate and output the similarity (rating value) indicating how the pronunciation input by the user is similar to the teacher data. Further, in this case, according to the present embodiment, it is possible to make a highly accurate evaluation that is not affected by individual differences, particularly vocal tract length differences.

なお、本実施の形態によれば、音声処理装置が声道長正規化パラメータを算出する処理と、声道長正規化処理を行った。しかし、声道長正規化パラメータを算出する処理と声道長正規化処理を、異なる装置が行う構成でも良い。かかる場合、本音声処理装置は、音声を受け付ける音声受付部と、第一サンプリング周波数を格納している第一サンプリング周波数格納部と、サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、前記第二音声データを処理する音声処理部を具備する音声処理装置である。また、声道長正規化パラメータを算出する装置は、教師データを構成するデータから、話者の音声のケプストラムベクトル系列を短区間分析で求め、それを用いて2以上の基準話者音素平均ケプストラムベクトルを取得し、当該2以上の基準話者音素平均ケプストラムベクトルを声道長正規化用の指定された発話内容(例えば/あいうえお/)に従って並べて得られた平均ケプストラムベクトル列である学習音響データを格納している学習音響データ格納手段と、受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて線形変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、ユーザが発声した発話音声を構成する各フレームtに対応する音素を識別する情報の列である音素系列を取得する最適音素系列取得手段と、前記学習音響データおよび前記第三のケプストラムベクトル系列および前記音素系列に基づいて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記最適音素系列取得手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段を具備する装置である。   Note that, according to the present embodiment, the voice processing device performs the process of calculating the vocal tract length normalization parameter and the vocal tract length normalization process. However, a configuration in which different devices perform the process of calculating the vocal tract length normalization parameter and the process of normalizing the vocal tract length may be used. In such a case, the speech processing apparatus includes a speech reception unit that receives speech, a first sampling frequency storage unit that stores a first sampling frequency, and a vocal tract length normalization parameter that is information related to a conversion rate of the sampling frequency. A voice sampling length storage parameter storing unit, a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters, and the voice received by the voice receiving unit The voice processing apparatus includes a vocal tract length normalization processing unit that performs sampling processing to obtain second voice data, and a voice processing unit that processes the second voice data. The apparatus for calculating the vocal tract length normalization parameter obtains a cepstrum vector sequence of a speaker's voice from the data constituting the teacher data by short interval analysis, and uses it to calculate two or more reference speaker phoneme average cepstrum. The learning acoustic data, which is an average cepstrum vector sequence obtained by acquiring vectors and arranging the two or more reference speaker phoneme average cepstrum vectors according to the specified utterance content for normalization of vocal tract length (for example, / aiueo /), The stored learning acoustic data storage means, the second cepstrum vector series calculation means for calculating the second cepstrum vector series by the short interval analysis from the received speech, and the second cepstrum vector series, the cepstrum conversion parameter A third cepstra that is linearly transformed using a matrix with frequency warped Cepstrum conversion means for calculating a vector series, optimum phoneme sequence acquisition means for acquiring a phoneme series that is a string of information for identifying a phoneme corresponding to each frame t constituting speech speech uttered by a user, and the learning acoustic data And cepstrum conversion parameter calculation means for calculating a cepstrum conversion parameter based on the third cepstrum vector series and the phoneme series, processing in the cepstrum conversion means based on a predetermined rule, and the optimum phoneme sequence acquisition means And the cepstrum conversion parameter calculating unit to repeat the process in step 1 and the cepstrum conversion parameter calculating unit to obtain a cepstrum conversion parameter, and the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit. There are a device having a vocal tract length normalization parameter calculating means for calculating the vocal tract length normalization parameter.

さらに、本実施の形態における音声処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、音声を受け付ける音声受付ステップと、格納している声道長正規化パラメータと格納している第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付ステップで受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理ステップと、前記第二音声データを処理する音声処理ステップを実行させるためのプログラム、である。   Furthermore, the software that implements the speech processing apparatus in the present embodiment is the following program. In other words, the program has a voice receiving step for receiving voice, a stored vocal tract length normalization parameter, and a second sampling frequency calculated using the stored first sampling frequency as parameters. A program for performing a vocal tract length normalization processing step for obtaining a second voice data by performing a sampling process on the voice received in the reception step and a voice processing step for processing the second voice data. .

また、上記プログラムにおいて、比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納しており、前記教師データおよび前記音声受付ステップで受け付けた音声に基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出ステップとをさらにコンピュータに実行させ、前記格納している声道長正規化パラメータは、前記声道長正規化パラメータ算出ステップで算出した声道長正規化パラメータであることは好適である。   Further, in the above program, one or more teacher data, which is data related to a target voice to be compared and is data for each one or more phonemes, is stored, and is based on the teacher data and the voice received in the voice receiving step. And further executing a vocal tract length normalization parameter calculating step for calculating the vocal tract length normalization parameter, wherein the stored vocal tract length normalization parameter is the vocal tract length normalization parameter calculation step. It is preferable that the vocal tract length normalization parameter calculated in (1) is used.

また、上記プログラムにおける声道長正規化パラメータ算出ステップは、前記音声受付ステップで受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出ステップと、前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換ステップと、ユーザが発声した発話音声を構成する各フレームtに対応する音素を識別する情報の列である音素系列を取得する最適音素系列取得ステップと、格納している学習音響データおよび前記第三のケプストラムベクトル系列および前記音素系列を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出ステップと、所定のルールに基づいて、前記ケプストラム変換ステップにおける処理、および前記最適音素系列取得ステップにおける処理、および前記ケプストラム変換パラメータ算出ステップにおける処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、
前記最終ケプストラム変換パラメータ取得ステップが得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出サブステップを具備することは好適である。
Further, the vocal tract length normalization parameter calculating step in the program includes a second cepstrum vector sequence calculating step for calculating a second cepstrum vector sequence by a short interval analysis from the speech received in the speech receiving step, and the second cepstrum vector sequence calculating step. The cepstrum vector sequence is transformed using a matrix having cepstrum transformation parameters as elements, and a cepstrum transformation step for calculating a frequency-warped third cepstrum vector sequence, and each frame t constituting the speech voice uttered by the user An optimal phoneme sequence acquisition step for acquiring a phoneme sequence that is a sequence of information that identifies a phoneme corresponding to, a stored cepstrum vector sequence, and a cepstrum conversion parameter using the third cepstrum vector sequence and the phoneme sequence Cepstrum transformation to calculate Based on the parameter calculation step and a predetermined rule, the process in the cepstrum conversion step, the process in the optimal phoneme sequence acquisition step, and the process in the cepstrum conversion parameter calculation step are repeated to obtain a cepstrum conversion parameter. Cepstrum conversion parameter acquisition means;
It is preferable to include a vocal tract length normalization parameter calculation sub-step for calculating the vocal tract length normalization parameter based on the cepstrum conversion parameter obtained in the final cepstrum conversion parameter acquisition step.

また、上記プログラムの声道長正規化パラメータ算出サブステップにおいて、前記最終ケプストラム変換パラメータ取得ステップで得たケプストラム変換パラメータから線形周波数伸縮比を算出し、当該線形周波数伸縮比から前記声道長正規化パラメータを算出することは好適である。   Further, in the vocal tract length normalization parameter calculation substep of the program, a linear frequency expansion / contraction ratio is calculated from the cepstrum conversion parameter obtained in the final cepstrum conversion parameter acquisition step, and the vocal tract length normalization is calculated from the linear frequency expansion / contraction ratio. It is preferable to calculate the parameters.

また、上記プログラムにおいて、周波数範囲を指定する情報である周波数範囲指定情報を格納しており、前記ケプストラム変換パラメータ算出ステップにおいて、前記周波数範囲指定情報で示される周波数範囲における学習音響データ、第三のケプストラムベクトル系列および音素系列に基づいて、ケプストラム変換パラメータを算出することは好適である。   Further, in the above program, frequency range designation information that is information for designating a frequency range is stored, and in the cepstrum conversion parameter calculation step, learning acoustic data in the frequency range indicated by the frequency range designation information, It is preferable to calculate the cepstrum conversion parameter based on the cepstrum vector sequence and the phoneme sequence.

また、上記の実施の形態において検出した特殊音声は、無音、挿入、置換、欠落であった。音声処理装置は、かかるすべての特殊音声について検知しても良いことはいうまでもない。また、音声処理装置は、主として、実施の形態1、実施の形態2において述べた評定値の算出アルゴリズムを利用して、特殊音声の検出を行ったが、他の評定値の算出アルゴリズムを利用しても良い。   In addition, the special voice detected in the above embodiment is silence, insertion, replacement, and omission. It goes without saying that the sound processing device may detect all such special sounds. In addition, the speech processing apparatus mainly detects the special speech using the rating value calculation algorithm described in the first embodiment and the second embodiment, but uses other rating value calculation algorithms. May be.

また、特殊音声は、無音、挿入、置換、欠落に限られない。例えば、特殊音声は、garbage(雑音などの雑多な音素等)であっても良い。受け付けた音声にgarbageが混入している場合、その区間は類似度の計算対象から除外するのがしばしば望ましい。例えば、発音評定においては、学習者の発声には通常、息継ぎや無声区間などが数多く表れ、それらに対応する発声区間を評定対象から取り除くことが好適である。なお、無音は、一般に、garbageの一種である、と考える。   The special voice is not limited to silence, insertion, replacement, and omission. For example, the special voice may be a garbage (miscellaneous phonemes such as noise). When garbage is mixed in the received voice, it is often desirable to exclude that section from the similarity calculation target. For example, in pronunciation evaluation, a learner's utterance usually has many breathing and unvoiced intervals, and it is preferable to remove the corresponding utterance intervals from the evaluation target. Note that silence is generally considered a type of garbage.

そこで,どの音素にも属さない雑多な音素(garbage音素)を設定し、garbageのHMMをあらかじめ格納しておく。スコア低下区間において、garbageのHMMに対する評定値(γ(j))が所定の値より大きい場合,その区間はgarbage区間と判定することは好適である。特に、発音評定において,garbage区間が2つの単語にまたがっている場合、息継ぎなどが起こったものとして、評定値の計算対象から除外することは極めて好適である。 Therefore, a miscellaneous phoneme (garbage phoneme) that does not belong to any phoneme is set, and a garbage HMM is stored in advance. If the rating value (γ t (j)) for the garbage HMM is larger than a predetermined value in the score lowering section, it is preferable to determine the section as the garbage section. In particular, in the pronunciation evaluation, when the garbage section extends over two words, it is extremely preferable to exclude the evaluation value from the evaluation value as the occurrence of breathing or the like.

また、図47は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態の音声処理装置を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図47は、このコンピュータシステム340の概観図であり、図48は、コンピュータシステム340のブロック図である。   FIG. 47 shows the external appearance of a computer that executes the programs described in this specification to realize the above-described audio processing apparatuses according to various embodiments. The above-described embodiments can be realized by computer hardware and a computer program executed thereon. FIG. 47 is a general view of the computer system 340, and FIG. 48 is a block diagram of the computer system 340.

図47において、コンピュータシステム340は、FD(Flexible Disk)ドライブ、CD−ROM(Compact Disk Read Only Memory)ドライブを含むコンピュータ341と、キーボード342と、マウス343と、モニタ344と、マイク345とを含む。   47, a computer system 340 includes a computer 341 including an FD (Flexible Disk) drive and a CD-ROM (Compact Disk Read Only Memory) drive, a keyboard 342, a mouse 343, a monitor 344, and a microphone 345. .

図48において、コンピュータ341は、FDドライブ3411、CD−ROMドライブ3412に加えて、CPU(Central Processing Unit)3413と、CPU3413、CD−ROMドライブ3412及びFDドライブ3411に接続されたバス3414と、ブートアッププログラム等のプログラムを記憶するためのROM(Read−Only Memory)3415と、CPU3413に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM(Random Access Memory)3416と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3417とを含む。ここでは、図示しないが、コンピュータ341は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。   48, in addition to the FD drive 3411 and the CD-ROM drive 3412, the computer 341 includes a CPU (Central Processing Unit) 3413, a bus 3414 connected to the CPU 3413, the CD-ROM drive 3412, and the FD drive 3411, and a boot. A ROM (Read-Only Memory) 3415 for storing a program such as an up program, and a RAM (Random Access Memory) connected to the CPU 3413 for temporarily storing instructions of an application program and providing a temporary storage space 3416 and a hard disk 3417 for storing application programs, system programs, and data. Although not shown here, the computer 341 may further include a network card that provides connection to the LAN.

コンピュータシステム340に、上述した実施の形態の音声処理装置の機能を実行させるプログラムは、CD−ROM3501、またはFD3502に記憶されて、CD−ROMドライブ3412またはFDドライブ3411に挿入され、さらにハードディスク3417に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ341に送信され、ハードディスク3417に記憶されても良い。プログラムは実行の際にRAM3416にロードされる。プログラムは、CD−ROM3501、FD3502またはネットワークから直接、ロードされても良い。   A program that causes the computer system 340 to execute the functions of the sound processing apparatus according to the above-described embodiment is stored in the CD-ROM 3501 or the FD 3502, inserted into the CD-ROM drive 3412 or the FD drive 3411, and further stored in the hard disk 3417. May be forwarded. Alternatively, the program may be transmitted to the computer 341 via a network (not shown) and stored in the hard disk 3417. The program is loaded into the RAM 3416 at the time of execution. The program may be loaded directly from the CD-ROM 3501, the FD 3502, or the network.

プログラムは、コンピュータ341に、上述した実施の形態の音声処理装置の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム340がどのように動作するかは周知であり、詳細な説明は省略する。   The program does not necessarily include an operating system (OS), a third-party program, or the like that causes the computer 341 to execute the functions of the voice processing apparatus according to the above-described embodiment. The program only needs to include an instruction portion that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 340 operates is well known and will not be described in detail.

また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。   In each of the above embodiments, each process (each function) may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.

また、上記のプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Moreover, the computer which performs said program may be single, and plural may be sufficient as it. That is, centralized processing may be performed, or distributed processing may be performed.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above-described embodiments, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上のように、本発明にかかる音声処理装置は、評価対象者の話者特性に応じた精度の高い音声処理ができるという効果を有し、発音評定装置やカラオケ評定装置や音声認識装置等として有用である。   As described above, the speech processing device according to the present invention has an effect of being able to perform speech processing with high accuracy according to the speaker characteristics of the evaluation target person, as a pronunciation rating device, a karaoke rating device, a speech recognition device, and the like. Useful.

実施の形態1における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 1 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 同声道長正規化処理について説明するフローチャートFlowchart explaining the same vocal tract length normalization process 同HMMの仕様の例を示す図Diagram showing an example of the HMM specification 同F1、F2の計測結果を示す図The figure which shows the measurement result of F1 and F2 同音声分析条件を示す図Figure showing the same voice analysis conditions 同算出した評定値をグラフで表した例を示す図The figure which shows the example which expressed the calculated evaluation value with the graph 同算出した評定値をグラフで表した例を示す図The figure which shows the example which expressed the calculated evaluation value with the graph 同出力例を示す図Figure showing the same output example 同出力例を示す図Figure showing the same output example 実施の形態2における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 2 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 同第二サンプリング周波数算出処理について説明するフローチャートFlowchart for explaining the second sampling frequency calculation process 同評定処理について説明するフローチャートFlow chart explaining the rating process 同評定結果(t−p−DAPスコア)を示す図The figure which shows the same evaluation result (tp-DAP score) 同出力例を示す図Figure showing the same output example 実施の形態3における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 3 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 同評定処理について説明するフローチャートFlow chart explaining the rating process 同無音データの検知について説明する図The figure explaining the detection of the silence data 実施の形態4における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 4 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 同評定処理について説明するフローチャートFlow chart explaining the rating process 同音素の挿入の検知について説明する図The figure explaining detection of insertion of the same phoneme 同出力例を示す図Figure showing the same output example 実施の形態5における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 5 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 同評定処理について説明するフローチャートFlow chart explaining the rating process 同音素の置換の検知について説明する図The figure explaining the detection of substitution of the same phoneme 実施の形態6における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 6 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 同評定処理について説明するフローチャートFlow chart explaining the rating process 同音素の欠落の検知について説明する図Diagram explaining detection of missing phonemes 実施の形態7における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 7 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 実施の形態8における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 8 同声道長正規化パラメータ算出処理について説明するフローチャートFlowchart explaining the same vocal tract length normalization parameter calculation processing 同音声処理装置の動作について説明するフローチャートFlow chart for explaining the operation of the audio processing apparatus 同声道長正規化処理について説明するフローチャートFlowchart explaining the same vocal tract length normalization process 同声道長正規化パラメータ算出処理の概念について説明する図The figure explaining the concept of the same vocal tract length normalization parameter calculation process 実施の形態9における音声処理装置のブロック図Block diagram of a speech processing apparatus according to Embodiment 9 同声道長正規化パラメータ算出処理について説明するフローチャートFlowchart explaining the same vocal tract length normalization parameter calculation processing 同声道長正規化パラメータ算出処理の概念について説明する図The figure explaining the concept of the same vocal tract length normalization parameter calculation process 実施の形態10における音声処理装置のブロック図Block diagram of the speech processing apparatus in the tenth embodiment 同声道長正規化パラメータ算出処理について説明するフローチャートFlowchart explaining the same vocal tract length normalization parameter calculation processing 同声道長正規化パラメータ算出処理の概念について説明する図The figure explaining the concept of the same vocal tract length normalization parameter calculation process 音声処理装置を構成するコンピュータシステムの概観図Overview of the computer system that composes the speech processing unit 音声処理装置を構成するコンピュータのブロック図Block diagram of a computer constituting an audio processing apparatus

符号の説明Explanation of symbols

101 入力受付部
102 教師データ格納部
103 音声受付部
104 教師データフォルマント周波数格納部
105 第一サンプリング周波数格納部
106 サンプリング部
107 評価対象者フォルマント周波数取得部
108 評価対象者フォルマント周波数格納部
109、3609 声道長正規化処理部
110、1110、1710、2110、2610、3010、3410 音声処理部
1101、34101 フレーム区分手段
1102、34102 フレーム音声データ取得手段
1103、11103、17103、21103、26103、30103 評定手段
1104、21104、34102 出力手段
1109 発声催促部
3601、4101、4401 声道長正規化パラメータ算出部
3602 声道長正規化パラメータ格納部
11031 最適状態決定手段
11032 最適状態確率値取得手段
11033、21023、111033、171033 評定値算出手段
17101、21101、26101、30101 特殊音声検知手段
34101 音声認識手段
111032 発音区間フレーム音韻確率値取得手段
171011 無音データ格納手段
171012 無音区間検出手段
36011、41011 周波数範囲指定情報格納手段
36012 長時間ケプストラム平均ベクトル格納手段
36013 第二ケプストラムベクトル系列算出手段
36014 ケプストラム変換手段
36015、41015、44015 ケプストラム変換パラメータ算出手段
36016 最終ケプストラム変換パラメータ取得手段
36017 声道長正規化パラメータ算出手段
41012、44012 学習音響データ格納手段
41013 占有度数算出手段
44013 最適音素系列取得手段
DESCRIPTION OF SYMBOLS 101 Input reception part 102 Teacher data storage part 103 Voice reception part 104 Teacher data formant frequency storage part 105 1st sampling frequency storage part 106 Sampling part 107 Evaluation object person formant frequency acquisition part 108 Evaluation object person formant frequency storage part 109, 3609 Voice Road length normalization processing unit 110, 1110, 1710, 2110, 2610, 3010, 3410 Audio processing unit 1101, 34101 Frame segmentation unit 1102, 34102 Frame audio data acquisition unit 1103, 11103, 17103, 21103, 26103, 30103 Rating unit 1104 , 21104, 34102 Output means 1109 Voice prompting unit 3601, 4101, 4401 Voice tract length normalization parameter calculation unit 3602 Voice tract length normalization parameter storage 11031 Optimum state determination means 11032 Optimal state probability value acquisition means 11033, 21023, 1111033, 171033 Rating value calculation means 17101, 21101, 26101, 30101 Special speech detection means 34101 Speech recognition means 111032 Sounding section frame phoneme probability value acquisition means 171011 Silence data Storage means 171012 Silent section detection means 36011, 41011 Frequency range designation information storage means 36012 Long-term cepstrum average vector storage means 36013 Second cepstrum vector series calculation means 36014 Cepstrum conversion means 36015, 41015, 44015 Cepstrum conversion parameter calculation means 36016 Final cepstrum conversion Parameter acquisition means 36017 Vocal tract length normalization parameter calculation means 410 2,44012 training acoustic data storage unit 41013 occupied frequency computing unit 44013 best phoneme sequence obtaining means

Claims (11)

音声を受け付ける音声受付部と、
第一サンプリング周波数を格納している第一サンプリング周波数格納部と、
サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、
前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、
前記第二音声データを処理する音声処理部と、
比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納している教師データ格納部と、
前記教師データおよび前記音声受付部が受け付けた音声に基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出部とを具備し、
前記声道長正規化パラメータ格納部の声道長正規化パラメータは、前記声道長正規化パラメータ算出部が算出した声道長正規化パラメータである音声処理装置であって、
前記声道長正規化パラメータ算出部は、
音素平均ケプストラムベクトルを指定された発話内容に従って並べた音素平均ケプストラムベクトル列である学習音響データを格納している学習音響データ格納手段と、
前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、
前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、
ユーザが発声した発話音声を構成する各フレームに対応する音素を識別する情報の列である音素系列を取得する最適音素系列取得手段と、
前記学習音響データおよび前記第三のケプストラムベクトル系列および前記音素系列を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、
所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記最適音素系列取得手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、
前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段とを具備する音声処理装置。
A voice reception unit for receiving voice;
A first sampling frequency storage unit storing a first sampling frequency;
A vocal tract length normalization parameter storage unit storing a vocal tract length normalization parameter that is information on the conversion rate of the sampling frequency;
A vocal tract that obtains second audio data by performing sampling processing on the audio received by the audio receiving unit at a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters. A long normalization processing unit;
An audio processing unit for processing the second audio data ;
A teacher data storage unit that stores one or more teacher data that is data relating to the speech to be compared and that is data for one or more phonemes;
A vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on the teacher data and the voice received by the voice reception unit;
The vocal tract length normalization parameter of the vocal tract length normalization parameter storage unit is a voice processing device that is a vocal tract length normalization parameter calculated by the vocal tract length normalization parameter calculation unit ,
The vocal tract length normalization parameter calculation unit
Learning acoustic data storage means for storing learning acoustic data which is a phoneme average cepstrum vector sequence in which phoneme average cepstrum vectors are arranged according to the specified utterance content;
A second cepstrum vector sequence calculating means for calculating a second cepstrum vector sequence by a short interval analysis from the voice received by the voice receiving unit;
Cepstrum conversion means for converting the second cepstrum vector sequence using a matrix having cepstrum conversion parameters as elements and calculating a frequency-warped third cepstrum vector sequence;
Optimal phoneme sequence acquisition means for acquiring a phoneme sequence that is a sequence of information for identifying a phoneme corresponding to each frame constituting the speech voice uttered by the user;
Cepstrum conversion parameter calculating means for calculating a cepstrum conversion parameter using the learning acoustic data and the third cepstrum vector sequence and the phoneme sequence;
Based on a predetermined rule, final cepstrum conversion parameter acquisition means for obtaining a cepstrum conversion parameter by repeating processing in the cepstrum conversion unit, processing in the optimal phoneme sequence acquisition unit, and processing in the cepstrum conversion parameter calculation unit When,
A speech processing apparatus comprising: a vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on a cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit.
前記声道長正規化パラメータ算出部は、請求項1記載の構成に代えて、
音素HMMを指定された発話内容に従って連結した連結HMMである学習音響データを格納している学習音響データ格納手段と、
前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、
前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、
指定された発話内容に従って受け付けた音声の事後確率である占有度数を算出する占有度算出手段と、
前記学習音響データおよび前記第三のケプストラムベクトル系列および前記占有度数を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、
所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記占有度算出手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、
前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段を具備する請求項1記載の音声処理装置。
The vocal tract length normalization parameter calculation unit, instead of the configuration according to claim 1,
Learning acoustic data storage means for storing learning acoustic data which is a concatenated HMM in which phoneme HMMs are concatenated according to designated utterance content;
A second cepstrum vector sequence calculating means for calculating a second cepstrum vector sequence by a short interval analysis from the voice received by the voice receiving unit;
Cepstrum conversion means for converting the second cepstrum vector sequence using a matrix having cepstrum conversion parameters as elements and calculating a frequency-warped third cepstrum vector sequence;
An occupancy degree calculating means for calculating an occupancy degree which is a posterior probability of the voice received according to the designated utterance content;
Cepstrum conversion parameter calculation means for calculating a cepstrum conversion parameter using the learning acoustic data, the third cepstrum vector series, and the occupation frequency;
A final cepstrum conversion parameter obtaining unit that obtains a cepstrum conversion parameter by repeating the process in the cepstrum conversion unit, the process in the occupancy calculation unit, and the process in the cepstrum conversion parameter calculation unit based on a predetermined rule; ,
Said final cepstrum conversion parameter acquisition means based on the cepstrum transformation parameters obtained, the audio processing apparatus according to claim 1, further comprising a vocal tract length normalization parameter calculating means for calculating the vocal tract length normalization parameter.
前記声道長正規化パラメータ算出手段は、
前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータから線形周波数伸縮比を算出し、当該線形周波数伸縮比から前記声道長正規化パラメータを算出する請求項1または請求項2記載の音声処理装置。
The vocal tract length normalization parameter calculating means includes:
The speech processing apparatus according to claim 1 or 2 , wherein a linear frequency expansion / contraction ratio is calculated from the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition means, and the vocal tract length normalization parameter is calculated from the linear frequency expansion / contraction ratio. .
前記声道長正規化パラメータ算出部は、
周波数範囲を指定する情報である周波数範囲指定情報を格納している周波数範囲指定情報格納手段をさらに具備し、
前記ケプストラム変換パラメータ算出手段は、
前記周波数範囲指定情報をも用いて、ケプストラム変換パラメータを算出する請求項2または請求項3記載の音声処理装置。
The vocal tract length normalization parameter calculation unit
Further comprising frequency range designation information storage means for storing frequency range designation information which is information for designating a frequency range;
The cepstrum conversion parameter calculation means includes
4. The speech processing apparatus according to claim 2 , wherein a cepstrum conversion parameter is calculated also using the frequency range designation information.
前記教師データは、状態を識別する2以上の状態識別子と状態間の遷移確率の情報を有し、
前記音声処理部は、
前記第二音声データを、フレームに区分するフレーム区分手段と、
前記区分されたフレーム毎の音声データであるフレーム音声データを1以上得るフレーム音声データ取得手段と、
前記教師データと前記1以上のフレーム音声データに基づいて、前記音声受付部が受け付けた音声の評定を行う評定手段と、
前記評定手段における評定結果を出力する出力手段を具備し、
前記評定手段は、
前記1以上のフレーム音声データのうちの少なくとも一のフレーム音声データの前記遷移確率が最も高い状態である最適状態を決定する最適状態決定手段と、
前記最適状態決定手段が決定した最適状態の事後確率を示す確率値を取得する最適状態確率値取得手段と、
前記最適状態確率値取得手段が取得した確率値と、当該確率値に対応するフレームの全状態における確率値の総和との比率を用いて音声の評定値を算出する評定値算出手段を具備する請求項1から請求項4いずれか記載の音声処理装置。
The teacher data includes two or more state identifiers for identifying states and information on transition probabilities between states,
The voice processing unit
Frame dividing means for dividing the second audio data into frames;
Frame audio data acquisition means for obtaining one or more frame audio data which are audio data for each of the divided frames;
Rating means for rating the voice received by the voice receiving unit based on the teacher data and the one or more frame voice data;
Comprising output means for outputting a rating result in the rating means ,
The rating means is
Optimal state determination means for determining an optimal state in which the transition probability of at least one frame audio data of the one or more frame audio data is the highest ;
Optimal state probability value acquisition means for acquiring a probability value indicating the posterior probability of the optimal state determined by the optimal state determination means;
Claims having a rating value calculating means for calculating an evaluation value of the speech by using the probability value, wherein the optimal state probability value obtaining means has obtained, the ratio of the sum of the probability values in all the states of the frame corresponding to the probability value The speech processing apparatus according to any one of claims 1 to 4 .
前記評定手段は、
前記1以上のフレーム音声データの前記遷移確率が最も高い状態である最適状態を決定する最適状態決定手段と、
前記最適状態決定手段が決定した各フレームの最適状態を有する音韻全体の状態における1以上の確率値を、発音区間毎に取得する発音区間フレーム音韻確率値取得手段と、
前記発音区間フレーム音韻確率値取得手段が取得した1以上の発音区間毎の2以上の確率値の時間平均値を算出し、当該時間平均値を用いて音声の評定値を算出する評定値算出手段を具備する請求項5記載の音声処理装置。
The rating means is
Optimal state determination means for determining an optimal state in which the transition probability of the one or more frame audio data is the highest ;
A pronunciation interval frame phoneme probability value acquisition unit that acquires, for each pronunciation interval, one or more probability values in the overall state of the phoneme having the optimal state of each frame determined by the optimal state determination unit;
A rating value calculating means for calculating a time average value of two or more probability values for each of one or more sounding sections acquired by the sounding section frame phoneme probability value acquiring means, and calculating a speech rating value using the time average value. The speech processing apparatus according to claim 5 , comprising:
前記音声処理装置は、カラオケ評価装置であって、
前記音声受付部は、
評価対象者の歌声の入力を受け付け、
前記音声処理部は、
前記歌声を評価する請求項1から請求項6いずれか記載の音声処理装置。
The voice processing device is a karaoke evaluation device,
The voice reception unit
Accepts singing voice of the person being evaluated,
The voice processing unit
The speech processing apparatus according to claim 1, wherein the singing voice is evaluated.
第一サンプリング周波数を格納している第一サンプリング周波数格納部と、
サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、
前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、
前記第二音声データを処理する音声処理部と、
比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納している教師データ格納部と、
前記教師データおよび前記音声受付部が受け付けた音声に基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出部とを具備し、
前記声道長正規化パラメータ格納部の声道長正規化パラメータは、前記声道長正規化パラメータ算出部が算出した声道長正規化パラメータであって、
前記声道長正規化パラメータ算出部は、
音素平均ケプストラムベクトルを指定された発話内容に従って並べた音素平均ケプストラムベクトル列である学習音響データを格納している学習音響データ格納手段と、
前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、
前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、
ユーザが発声した発話音声を構成する各フレームに対応する音素を識別する情報の列である音素系列を取得する最適音素系列取得手段と、
前記学習音響データおよび前記第三のケプストラムベクトル系列および前記音素系列を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、
所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記最適音素系列取得手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、
前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段とを具備するデジタルシグナルプロセッサ。
A first sampling frequency storage unit storing a first sampling frequency;
A vocal tract length normalization parameter storage unit storing a vocal tract length normalization parameter that is information on the conversion rate of the sampling frequency;
A vocal tract that obtains second audio data by performing sampling processing on the audio received by the audio receiving unit at a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters. A long normalization processing unit ;
An audio processing unit for processing the second audio data;
A teacher data storage unit that stores one or more teacher data that is data relating to the speech to be compared and that is data for one or more phonemes;
A vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on the teacher data and the voice received by the voice reception unit;
The vocal tract length normalization parameter of the vocal tract length normalization parameter storage unit is a vocal tract length normalization parameter calculated by the vocal tract length normalization parameter calculation unit,
The vocal tract length normalization parameter calculation unit
Learning acoustic data storage means for storing learning acoustic data which is a phoneme average cepstrum vector sequence in which phoneme average cepstrum vectors are arranged according to the specified utterance content;
A second cepstrum vector sequence calculating means for calculating a second cepstrum vector sequence by a short interval analysis from the voice received by the voice receiving unit;
Cepstrum conversion means for converting the second cepstrum vector sequence using a matrix having cepstrum conversion parameters as elements and calculating a frequency-warped third cepstrum vector sequence;
Optimal phoneme sequence acquisition means for acquiring a phoneme sequence that is a sequence of information for identifying a phoneme corresponding to each frame constituting the speech voice uttered by the user;
Cepstrum conversion parameter calculating means for calculating a cepstrum conversion parameter using the learning acoustic data and the third cepstrum vector sequence and the phoneme sequence;
Based on a predetermined rule, final cepstrum conversion parameter acquisition means for obtaining a cepstrum conversion parameter by repeating processing in the cepstrum conversion unit, processing in the optimal phoneme sequence acquisition unit, and processing in the cepstrum conversion parameter calculation unit When,
A digital signal processor comprising: a vocal tract length normalization parameter calculating unit that calculates the vocal tract length normalization parameter based on a cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit .
前記声道長正規化パラメータ算出部は、請求項8記載の構成に代えて、The vocal tract length normalization parameter calculation unit, instead of the configuration according to claim 8,
音素HMMを指定された発話内容に従って連結した連結HMMである学習音響データを格納している学習音響データ格納手段と、Learning acoustic data storage means for storing learning acoustic data which is a concatenated HMM in which phoneme HMMs are concatenated according to designated utterance content;
前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、A second cepstrum vector sequence calculating means for calculating a second cepstrum vector sequence by a short interval analysis from the voice received by the voice receiving unit;
前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、Cepstrum conversion means for converting the second cepstrum vector sequence using a matrix having cepstrum conversion parameters as elements and calculating a frequency-warped third cepstrum vector sequence;
指定された発話内容に従って受け付けた音声の事後確率である占有度数を算出する占有度算出手段と、An occupancy degree calculating means for calculating an occupancy degree which is a posterior probability of the voice received according to the designated utterance content;
前記学習音響データおよび前記第三のケプストラムベクトル系列および前記占有度数を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、Cepstrum conversion parameter calculation means for calculating a cepstrum conversion parameter using the learning acoustic data, the third cepstrum vector series, and the occupation frequency;
所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記占有度算出手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、A final cepstrum conversion parameter obtaining unit that obtains a cepstrum conversion parameter by repeating the process in the cepstrum conversion unit, the process in the occupancy calculation unit, and the process in the cepstrum conversion parameter calculation unit based on a predetermined rule; ,
前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段とを具備する請求項8記載のデジタルシグナルプロセッサ。9. The digital signal processor according to claim 8, further comprising vocal tract length normalization parameter calculation means for calculating the vocal tract length normalization parameter based on the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition means.
コンピュータを、
音声を受け付ける音声受付部と、
第一サンプリング周波数を格納している第一サンプリング周波数格納部と、
サンプリング周波数の変換率に関する情報である声道長正規化パラメータを格納している声道長正規化パラメータ格納部と、
前記声道長正規化パラメータと前記第一サンプリング周波数をパラメータとして算出される第二サンプリング周波数で、前記音声受付部が受け付けた音声に対して、サンプリング処理を行い、第二音声データを得る声道長正規化処理部と、
前記第二音声データを処理する音声処理部と、
比較される対象の音声に関するデータであり、1以上の音韻毎のデータである教師データを1以上格納している教師データ格納部と、
前記教師データおよび前記音声受付部が受け付けた音声に基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出部とを具備するものとして機能させるためのプログラムであって、
前記声道長正規化パラメータ格納部の声道長正規化パラメータは、前記声道長正規化パラメータ算出部が算出した声道長正規化パラメータであって、
前記声道長正規化パラメータ算出部は、
音素平均ケプストラムベクトルを指定された発話内容に従って並べた音素平均ケプストラムベクトル列である学習音響データを格納している学習音響データ格納手段と、
前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、
前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、
ユーザが発声した発話音声を構成する各フレームに対応する音素を識別する情報の列である音素系列を取得する最適音素系列取得手段と、
前記学習音響データおよび前記第三のケプストラムベクトル系列および前記音素系列を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、
所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記最適音素系列取得手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、
前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段とを具備するものとして機能させるためのプログラム。
The computer,
A voice reception unit for receiving voice;
A first sampling frequency storage unit storing a first sampling frequency;
A vocal tract length normalization parameter storage unit storing a vocal tract length normalization parameter that is information on the conversion rate of the sampling frequency;
A vocal tract that obtains second audio data by performing sampling processing on the audio received by the audio receiving unit at a second sampling frequency calculated using the vocal tract length normalization parameter and the first sampling frequency as parameters. A long normalization processing unit;
An audio processing unit for processing the second audio data;
A teacher data storage unit that stores one or more teacher data that is data relating to the speech to be compared and that is data for one or more phonemes;
A program for functioning as comprising the vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on the teacher data and the voice received by the voice reception unit,
The vocal tract length normalization parameter of the vocal tract length normalization parameter storage unit is a vocal tract length normalization parameter calculated by the vocal tract length normalization parameter calculation unit,
The vocal tract length normalization parameter calculation unit
Learning acoustic data storage means for storing learning acoustic data which is a phoneme average cepstrum vector sequence in which phoneme average cepstrum vectors are arranged according to the specified utterance content;
A second cepstrum vector sequence calculating means for calculating a second cepstrum vector sequence by a short interval analysis from the voice received by the voice receiving unit;
Cepstrum conversion means for converting the second cepstrum vector sequence using a matrix having cepstrum conversion parameters as elements and calculating a frequency-warped third cepstrum vector sequence;
Optimal phoneme sequence acquisition means for acquiring a phoneme sequence that is a sequence of information for identifying a phoneme corresponding to each frame constituting the speech voice uttered by the user;
Cepstrum conversion parameter calculating means for calculating a cepstrum conversion parameter using the learning acoustic data and the third cepstrum vector sequence and the phoneme sequence;
Based on a predetermined rule, final cepstrum conversion parameter acquisition means for obtaining a cepstrum conversion parameter by repeating processing in the cepstrum conversion unit, processing in the optimal phoneme sequence acquisition unit, and processing in the cepstrum conversion parameter calculation unit When,
A program for functioning as comprising a vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on a cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit .
前記声道長正規化パラメータ算出部は、請求項10記載の構成に代えて、The vocal tract length normalization parameter calculation unit, instead of the configuration according to claim 10,
音素HMMを指定された発話内容に従って連結した連結HMMである学習音響データを格納している学習音響データ格納手段と、Learning acoustic data storage means for storing learning acoustic data which is a concatenated HMM in which phoneme HMMs are concatenated according to designated utterance content;
前記音声受付部が受け付けた音声から、短区間分析により第二のケプストラムベクトル系列を算出する第二ケプストラムベクトル系列算出手段と、A second cepstrum vector sequence calculating means for calculating a second cepstrum vector sequence by a short interval analysis from the voice received by the voice receiving unit;
前記第二のケプストラムベクトル系列を、ケプストラム変換パラメータを要素とする行列を用いて変換し、周波数ワープされた第三のケプストラムベクトル系列を算出するケプストラム変換手段と、Cepstrum conversion means for converting the second cepstrum vector sequence using a matrix having cepstrum conversion parameters as elements and calculating a frequency-warped third cepstrum vector sequence;
指定された発話内容に従って受け付けた音声の事後確率である占有度数を算出する占有度算出手段と、An occupancy degree calculating means for calculating an occupancy degree which is a posterior probability of the voice received according to the designated utterance content;
前記学習音響データおよび前記第三のケプストラムベクトル系列および前記占有度数を用いて、ケプストラム変換パラメータを算出するケプストラム変換パラメータ算出手段と、Cepstrum conversion parameter calculation means for calculating a cepstrum conversion parameter using the learning acoustic data, the third cepstrum vector series, and the occupation frequency;
所定のルールに基づいて、前記ケプストラム変換手段における処理、および前記占有度算出手段における処理、および前記ケプストラム変換パラメータ算出手段における処理を繰り返えさせ、ケプストラム変換パラメータを得る最終ケプストラム変換パラメータ取得手段と、A final cepstrum conversion parameter obtaining unit that obtains a cepstrum conversion parameter by repeating the process in the cepstrum conversion unit, the process in the occupancy calculation unit, and the process in the cepstrum conversion parameter calculation unit based on a predetermined rule; ,
前記最終ケプストラム変換パラメータ取得手段が得たケプストラム変換パラメータに基づいて、前記声道長正規化パラメータを算出する声道長正規化パラメータ算出手段とを具備するものとして機能させるための請求項10記載のプログラム。The vocal tract length normalization parameter calculation unit that calculates the vocal tract length normalization parameter based on the cepstrum conversion parameter obtained by the final cepstrum conversion parameter acquisition unit is provided to function as comprising the vocal tract length normalization parameter calculation unit. program.
JP2006161918A 2005-12-26 2006-06-12 Audio processing apparatus and program Active JP5028599B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006161918A JP5028599B2 (en) 2005-12-26 2006-06-12 Audio processing apparatus and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005373089 2005-12-26
JP2005373089 2005-12-26
JP2006161918A JP5028599B2 (en) 2005-12-26 2006-06-12 Audio processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2007199654A JP2007199654A (en) 2007-08-09
JP5028599B2 true JP5028599B2 (en) 2012-09-19

Family

ID=38454296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006161918A Active JP5028599B2 (en) 2005-12-26 2006-06-12 Audio processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5028599B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4906776B2 (en) * 2008-04-16 2012-03-28 株式会社アルカディア Voice control device
KR102158743B1 (en) * 2016-03-15 2020-09-22 한국전자통신연구원 Data augmentation method for spontaneous speech recognition

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986792B2 (en) * 1998-03-16 1999-12-06 株式会社エイ・ティ・アール音声翻訳通信研究所 Speaker normalization processing device and speech recognition device
JP2001042889A (en) * 1999-05-21 2001-02-16 Matsushita Electric Ind Co Ltd Device for normalizing interval of inputted voice for voice recognition
JP4364977B2 (en) * 1999-10-21 2009-11-18 ヤマハ株式会社 Voice conversion apparatus and method
JP4811993B2 (en) * 2005-08-23 2011-11-09 株式会社国際電気通信基礎技術研究所 Audio processing apparatus and program

Also Published As

Publication number Publication date
JP2007199654A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
JP4054507B2 (en) Voice information processing method and apparatus, and storage medium
US6366883B1 (en) Concatenation of speech segments by use of a speech synthesizer
US6792407B2 (en) Text selection and recording by feedback and adaptation for development of personalized text-to-speech systems
US8886538B2 (en) Systems and methods for text-to-speech synthesis using spoken example
JP6266372B2 (en) Speech synthesis dictionary generation apparatus, speech synthesis dictionary generation method, and program
Gutkin et al. TTS for low resource languages: A Bangla synthesizer
US9147392B2 (en) Speech synthesis device and speech synthesis method
Ghai et al. Analysis of automatic speech recognition systems for indo-aryan languages: Punjabi a case study
JP5007401B2 (en) Pronunciation rating device and program
JP4811993B2 (en) Audio processing apparatus and program
Karpov An automatic multimodal speech recognition system with audio and video information
Hoffmann et al. Analysis of verbal and nonverbal acoustic signals with the Dresden UASR system
Gutkin et al. Building statistical parametric multi-speaker synthesis for bangladeshi bangla
JP3050832B2 (en) Speech synthesizer with spontaneous speech waveform signal connection
JP5028599B2 (en) Audio processing apparatus and program
JP4753412B2 (en) Pronunciation rating device and program
GB2313530A (en) Speech Synthesizer
JP2003186489A (en) Voice information database generation system, device and method for sound-recorded document creation, device and method for sound recording management, and device and method for labeling
JP4812010B2 (en) Audio processing apparatus and program
JP2011180308A (en) Voice recognition device and recording medium
JP2021148942A (en) Voice quality conversion system and voice quality conversion method
Martinčić–Ipšić et al. Acoustic modelling for Croatian speech recognition and synthesis
JP2018041116A (en) Voice synthesis device, voice synthesis method, and program
Huckvale 14 An Introduction to Phonetic Technology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

R150 Certificate of patent or registration of utility model

Ref document number: 5028599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250