JP2012163919A - 音声信号処理装置、および音声信号処理方法、並びにプログラム - Google Patents

音声信号処理装置、および音声信号処理方法、並びにプログラム Download PDF

Info

Publication number
JP2012163919A
JP2012163919A JP2011026241A JP2011026241A JP2012163919A JP 2012163919 A JP2012163919 A JP 2012163919A JP 2011026241 A JP2011026241 A JP 2011026241A JP 2011026241 A JP2011026241 A JP 2011026241A JP 2012163919 A JP2012163919 A JP 2012163919A
Authority
JP
Japan
Prior art keywords
frequency
envelope
information
low
frequency envelope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011026241A
Other languages
English (en)
Inventor
Yuki Mitsufuji
祐基 光藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011026241A priority Critical patent/JP2012163919A/ja
Priority to US13/359,004 priority patent/US20120201399A1/en
Priority to CN2012100274430A priority patent/CN102637436A/zh
Publication of JP2012163919A publication Critical patent/JP2012163919A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Abstract

【課題】音声信号に対する高精度なの周波数帯域拡大処理を実行する装置、方法を提供する。
【解決手段】入力音声信号の周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出する。さらに、学習用音声信号に基づく学習データ、例えば低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出する学習データを適用して、入力音声信号対応の低域包絡情報から入力信号対応の高域包絡情報を推定して生成する。さらに、推定処理により生成した入力信号対応の高域包絡情報に対応する高周波数帯域信号を入力音声信号に合成して周波数帯域を拡大した出力音声信号を生成する。高域の包絡利得と包絡形状を、学習データを用いて推定することで高精度な帯域拡大が実現される。
【選択図】図1

Description

本発明は、音声信号処理装置、および音声信号処理方法、並びにプログラムに関する。さらに、詳細には入力信号に対する周波数帯域拡大処理を行う音声信号処理装置、および音声信号処理方法、並びにプログラムに関する。
データ通信やデータ記録処理に際しては、データ量の削減のために圧縮処理が行われることが多い。しかし、例えば音声信号を圧縮して伝送あるいは記録すると、オリジナルの音声データに含まれていた周波数帯域部分が失われる場合がある。
従って、圧縮データを伸長して再生した場合、元のオリジナルの音声データとは異なる音声データとして再生されてしまうことがある。
このような圧縮データの伸長処理に際して、圧縮処理に際して失われた帯域部分を復元して伸長する構成についていくつか提案されている。
例えば特許文献1(特開2007−17908号公報)には、圧縮処理に際して失われた高域信号の生成処理を行う帯域拡大処理について開示している。
しかし、従来の帯域拡大処理における問題点として、簡易な構成では高精度な拡大処理が困難となり、一方、高精度な拡大を実現するためには処理負荷や処理時間が増大し、装置としてのコストも大きくなるという問題点がある。
特開2007−17908号公報
本発明は、このような状況に鑑みてなされたものであり、簡易な構成で、より精度の高い帯域拡大処理を実現する音声信号処理装置、および音声信号処理方法、並びにプログラムを提供することを目的とする。
本発明の第1の側面は、
入力音声信号の周波数分析を実行する周波数分析部と、
前記周波数分析部の周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出する低域包絡算出部と、
学習用音声信号に基づいて予め生成した学習データであり、低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出するための学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成する高域包絡情報推定部と、
前記入力音声信号に、前記高域包絡情報推定部の生成した推定高域包絡情報に対応する高周波数帯域信号を合成して周波数帯域を拡大した出力音声信号を生成する周波数合成部を有する音声信号処理装置にある。
さらに、本発明の音声信号処理装置の一実施態様において、前記学習データは、低域の包絡利得情報からの高域の包絡利得情報を推定するための包絡利得情報と、低域の包絡形状情報からの高域の包絡形状情報を推定するための包絡形状情報を含み、前記高域包絡情報推定部は、前記学習データに含まれる包絡利得情報を適用して、前記入力音声信号対応の低域包絡利得情報から、入力信号対応の推定高域包絡利得情報を推定する高域包絡利得推定部と、前記学習データに含まれる包絡形状情報を適用して、前記入力音声信号対応の低域包絡形状情報から、入力信号対応の推定高域包絡形状情報を推定する高域包絡形状推定部を有する。
さらに、本発明の音声信号処理装置の一実施態様において、前記高域包絡形状推定部は、前記低域包絡算出部の算出した入力音声信号の低域包絡情報に対するフィルタリング処理により生成した整形低域包絡情報を入力して入力信号対応の推定高域包絡形状情報を推定する。
さらに、本発明の音声信号処理装置の一実施態様において、前記周波数分析部は、前記入力音声信号の時間周波数分析を行い、時間周波数スペクトルを生成する。
さらに、本発明の音声信号処理装置の一実施態様において、前記低域包絡算出部は、前記周波数分析部の生成する入力音声信号の時間周波数スペクトルを入力し、低域ケプストラムを生成する。
さらに、本発明の音声信号処理装置の一実施態様において、前記高域包絡情報推定部は、前記学習データに含まれる包絡利得情報を適用して、前記入力音声信号対応の低域包絡利得情報から、入力信号対応の推定高域包絡利得情報を推定する高域包絡利得推定部を有し、前記高域包絡利得推定部は、入力音声信号に基づいて生成された低域ケプストラム情報に対して、前記学習データに含まれる包絡利得情報を適用して、前記入力音声信号対応の低域包絡利得情報から、入力信号対応の推定高域包絡利得情報を推定する。
さらに、本発明の音声信号処理装置の一実施態様において、前記高域包絡情報推定部は、前記学習データに含まれる包絡形状情報を適用して、前記入力音声信号対応の低域包絡形状情報から、入力信号対応の推定高域包絡形状情報を推定する高域包絡形状推定部を有し、前記高域包絡形状推定部は、入力音声信号に基づいて生成された整形低域ケプストラム情報に基づいて、前記学習データに含まれる包絡形状情報を利用した処理により、入力音声信号に対応する高域包絡形状情報の推定を行う。
さらに、本発明の音声信号処理装置の一実施態様において、前記高域包絡形状推定部は、GMM(ガウス混合モデル)を用いた推定処理により、入力音声信号に対応する高域包絡形状情報の推定を行う。
さらに、本発明の音声信号処理装置の一実施態様において、前記音声信号処理装置は、前記入力音声信号に含まれない高周波数帯域の周波数を含む学習用音声信号に基づいて前記学習データを生成する学習処理部を有し、前記高域包絡情報推定部は、前記学習処理部の生成した学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成する。
さらに、本発明の第2の側面は、
第一の信号から第一の包絡情報を算出する機能と、
収音または伝送機能の少なくともいずれかを含む環境要因を排除する目的で第一の包絡情報の時間方向のDC成分をフィルタによって除去する機能と、
フィルタ後の第一の包絡情報を線形変換した第二の包絡情報を第二の信号の包絡情報とし、第一の信号と合成する機能を備える音声信号処理装置にある。
さらに、本発明の第3の側面は、
低域の信号から低域の包絡情報を算出する機能と、
低域の包絡情報が、予め大量データの学習により分類されている複数のグループに属する確率を算出する機能と、
低域の包絡情報を、複数のグループにそれぞれ割り当てられている線形変換式によって線形変換を行い複数の高域包絡情報を生成する機能と、
時間軸において滑らかな高域包絡情報を生成する目的で複数の高域包絡情報を複数のグループに属する確率で混合することによって得られた高域の包絡情報を高域の信号の包絡情報とし、低域の信号と合成する機能を備える音声信号処理装置にある。
さらに、本発明の第4の側面は、
音声信号処理装置において入力音声信号に対する周波数帯域拡大処理を実行する音声信号処理方法であり、
周波数分析部が、入力音声信号の周波数分析を実行する周波数分析ステップと、
低域包絡算出部が、前記周波数分析ステップにおける周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出する低域包絡算出ステップと、
高域包絡情報推定部が、学習用音声信号に基づいて予め生成した学習データであり、低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出するための学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成する高域包絡情報推定ステップと、
周波数合成部が、前記入力音声信号に、前記高域包絡情報推定部の生成した推定高域包絡情報に対応する高周波数帯域信号を合成して周波数帯域を拡大した出力音声信号を生成する周波数合成ステップを実行する音声信号処理方法にある。
さらに、本発明の第5の側面は、
音声信号処理装置において入力音声信号に対する処理を実行する音声信号処理方法であり、
第一の信号から第一の包絡情報を算出し、
収音または伝送機能の少なくともいずれかを含む環境要因を排除する目的で第一の包絡情報の時間方向のDC成分をフィルタによって除去し、
フィルタ後の第一の包絡情報を線形変換した第二の包絡情報を第二の信号の包絡情報とし、第一の信号と合成する音声信号処理方法にある。
さらに、本発明の第6の側面は、
音声信号処理装置において入力音声信号に対する処理を実行する音声信号処理方法であり、
低域の信号から低域の包絡情報を算出し、
低域の包絡情報が、予め大量データの学習により分類されている複数のグループに属する確率を算出し、
低域の包絡情報を、複数のグループにそれぞれ割り当てられている線形変換式によって線形変換を行い複数の高域包絡情報を生成し、
時間軸において滑らかな高域包絡情報を生成する目的で複数の高域包絡情報を複数のグループに属する確率で混合することによって得られた高域の包絡情報を高域の信号の包絡情報とし、低域の信号と合成する音声信号処理方法にある。
さらに、本発明の第7の側面は、
音声信号処理装置において入力音声信号に対する周波数帯域拡大処理を実行させるプログラムであり、
周波数分析部に、入力音声信号の周波数分析を実行させる周波数分析ステップと、
低域包絡算出部に、前記周波数分析ステップにおける周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出させる低域包絡算出ステップと、
高域包絡情報推定部に、学習用音声信号に基づいて予め生成した学習データであり、低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出するための学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成させる高域包絡情報推定ステップと、
周波数合成部に、前記入力音声信号に、前記高域包絡情報推定部の生成した推定高域包絡情報に対応する高周波数帯域信号を合成して周波数帯域を拡大した出力音声信号を生成させる周波数合成ステップを、
実行させるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例の構成によれば、音声信号に対する高精度なの周波数帯域拡大処理を実行する装置、方法が実現される。
例えば、本発明の一実施例の構成においては、入力音声信号の周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出する。さらに、学習用音声信号に基づく学習データ、例えば低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出する学習データを適用して、入力音声信号対応の低域包絡情報から入力信号対応の高域包絡情報を推定して生成する。さらに、推定処理により生成した入力信号対応の高域包絡情報に対応する高周波数帯域信号を入力音声信号に合成して周波数帯域を拡大した出力音声信号を生成する。高域の包絡利得と包絡形状を、学習データを用いて推定することで高精度な帯域拡大が実現される。
音声信号処理装置の構成例について説明する図である。 周波数分析処理と包絡情報算出処理について説明する図である。 音源によって包絡形状(正確には次数毎のケプストラム)の時間変動が異なる様子を示した図である。 音声信号の包絡形状にDC成分が含まれる場合と、含まれない場合の包絡形状の時間変動を示す図である。 包絡形状DC成分の時系列データを示す図である。 包絡形状のDC成分の周波数領域の様子を示した図である。 KmeansとGMMによるモデル化データを参照した包絡形状学習部における包絡形状の推定処理について説明する図である。 KmeansとGMMによるモデル化データを参照した高域包絡形状推定部の実行する高域包絡形状情報の推定処理について説明する図である。 (a)Kmeansと(b)GMMをそれぞれ使用した場合、写像元のデータがクラスタ境界を越えて変化すると、写像先のデータがどのように変化するかを説明する図である。
以下、図面を参照しながら本発明の音声信号処理装置、および音声信号処理方法、並びにプログラムの詳細について説明する。説明は以下の項目に従って行う。
1.本発明の音声信号処理装置の全体構成について
2.信号処理装置の各構成部の処理について
2.1.周波数分析部について
2.2.低域包絡算出部について
2.3.高域包絡算出部について
2.4.包絡情報整形部について
2.5.包絡利得学習部と包絡形状学習部について
2.6.高域包絡形状推定部について
2.7.高域包絡利得推定部について
2.8.中域包絡補正部について
2.9.高域包絡補正部について
2.10.周波数合成部について
[1.本発明の信号処理装置の全体構成について]
まず、図1を参照して、この発明の実施の形態に係る信号処理装置の全体構成について説明する。
図1は、この発明の実施の形態に係る音声信号処理装置100の一例を示す図である。図1に示す音声信号処理装置100は、上段の学習処理部110と、下段の解析処理部120を有する。
解析処理部120に入力する入力音声信号81の周波数帯域拡大処理を実行して、出力音声信号82として出力する。この解析処理部120において実行する周波数帯域拡大処理に際して、学習処理部110が学習用音声信号51に基づいて生成したデータを利用する。
学習処理部110は、学習用音声信号51を入力して、学習用音声信号51の解析により、例えば周波数包絡等の学習データを生成する。解析処理部120は、学習処理部110の生成した学習結果を利用して入力音声信号81の周波数帯域拡大処理を行う。
図1に示すように、学習処理部110は、周波数分析部111、低域包絡算出部112、高域包絡算出部113、包絡情報整形部114、包絡利得学習部115、包絡形状学習部116を有する。
また解析処理部120は、周波数分析部121、低域包絡算出部122、包絡情報整形部123、高域包絡利得推定部124、高域包絡形状推定部125、中域包絡補正部126、高域包絡補正部127、周波数合成部128を有する。
図1に示す学習処理部110が学習対象として入力する学習用音声信号51のサンプリング周波数(fs2)と、解析処理部120の出力信号、すなわち周波数帯域拡大処理を行った後の出力音声信号82のサンプリング周波数(fs2)は同じである。
これらの2つの信号のサンプリング周波数(fs2)は、解析処理部120の入力信号、すなわち周波数帯域拡大処理の対象となる入力音声信号81のサンプリング周波数(fs1)に対して2倍の値となっている。
なお、fs1,fs2はそれぞれサンプリング周波数を示し
(fs2)=2×(fs1)
上記の対応関係である。
すなわち、解析処理部120の入力する入力音声信号81のサンプリング周波数(fs1)は周波数帯域の圧縮された信号であり、解析処理部120は、この入力信号の周波数帯域の拡大処理を実行して2倍のサンプリング周波数(fs2)の出力音声信号82を生成して出力する。
解析処理部120はこの帯域拡大処理に際して、出力音声信号82のサンプリング周波数(fs2)と同じサンプリング周波数(fs2)に対する学習データを学習処理部110から取得してこの学習データを利用して高精度な周波数帯域拡大処理を実行する。
以下、各構成部の処理の詳細について説明する。
[2.信号処理装置の各構成部の処理について]
(2.1.周波数分析部について)
図1に示すように、周波数分析部は、学習処理部110と解析処理部120の双方に設定されている。
図1に示す学習処理部110の周波数分析部111は、サンプリング周波数(fs2)の学習用音声信号51を入力し、この学習用音声信号51に対して周波数分析を行う。
また、解析処理部120の周波数分析部121は、周波数帯域拡大処理の対象となる入力音声信号81に対して時間周波数分析を行う。
これらの周波数分析部111と、周波数分析部121において実行する時間周波数分析処理について、図2を参照して説明する。
周波数分析部111と、周波数分析部121は、入力音声信号に対する時間周波数分析を実行する。
マイク等を介して入力する入力信号をxとする。図2の最上段に入力信号xの例を示す。横軸が時間(またはサンプル番号)、縦軸が振幅である。
学習処理部110の周波数分析部111に対する入力信号xは、サンプリング周波数(fs2)の学習用音声信号51である。
また、解析処理部120の周波数分析部121に対する入力信号xは、周波数帯域拡大処理の処理対象信号であるサンプリング周波数(fs1)の入力音声信号81である。
まず、周波数分析部111と、周波数分析部121は、入力信号xから固定サイズのフレーム分割を行い、入力フレーム信号x(n,l)を得る。
図2のステップS101の処理である。
図2に示す例では、フレーム分割のサイズをNとし、各フレームのシフト量(sf)をフレームの大きさNの50%とし、各フレームを重複させた設定としている。
さらに、入力フレーム信号x(n,l)に対して、所定の窓関数:wを乗算して窓関数適用信号wx(n,l)を得る。窓関数は例えばハニング窓の平方根を計算したものが適用可能である。
窓関数適用信号wx(n,l)は、以下の(式1)によって示される。
・・・・・(式1)
上記式(式1)において、
x:入力信号、
n:時間インデックス、n=0,…,N−1、l=0,…,L−1
(Nはフレームの大きさ)
l:フレーム番号、l=0,…,L−1
(Lは全フレーム数)
w_ana:窓関数、
wx:窓関数適用信号、
である。
なお、窓関数:w_anaは、上記の例ではハニング窓の平方根を計算した窓関数を適用しているが、この他、サイン窓などの窓関数も使用可能である。
フレームの大きさNは、例えば、0.02sec相当のサンプル数(N=サンプリング周波数fs*0.02)である。ただし、それ以外の大きさでも構わない。
また、図2に示す例では、フレームのシフト量(sf)はフレームの大きさ(N)の50%とし、各フレームを重複した設定としているが、それ以外のシフト量でも構わない。
上記(式1)に従って得られた窓関数適用信号wx(n,l)に対して、以下に示す(式2)に従って時間周波数分析を行い、時間周波数スペクトルXana(k,l)を得る。
・・・・・(式2)
上記式(式2)において、
wx:窓関数適用信号、
j:純虚数、
M:DFT(離散フーリエ変換)のポイント数、
k:周波数インデックス、
Xana:時間周波数スペクトル、
である。
窓関数適用信号wx(n,l)に対する時間周波数分析処理としては、例えば、DFT(離散フーリエ変換)による周波数分析が適用可能である。その他、DCT(離散コサイン変換)やMDCT(修正離散コサイン変換)などの他の周波数分析を用いてもよい。また、必要であれば、DFT(離散フーリエ変換)のポイント数Mに合わせて適切に零詰めを行ってもよい。DFTのポイント数Mは、N以上の2のべき乗の値としているが、それ以外のポイント数でも構わない。
(2.2.低域包絡算出部について)
低域包絡算出部も、上記の周波数分析部と同様、図1に示すように学習処理部110と解析処理部120の双方に設定されている。
学習処理部110の低域包絡算出部112は、サンプリング周波数(fs2)の学習用音声信号51に対する周波数分析部111の分析結果として得られる時間周波数スペクトルから選択される低周波数帯域(例えばfs1/2未満)の周波数に相当するスペクトルに対する処理によって低域の包絡情報を算出する。
一方、解析処理部120の低域包絡算出部122は、サンプリング周波数(fs1)の入力音声信号81に対する周波数分析部121の分析結果として得られる時間周波数スペクトルから選択される低周波数帯域(例えばfs1/2未満)の周波数に相当するスペクトルに対する処理によって低域の包絡情報を算出する。
これら2つの低域包絡算出部112と、低域包絡算出部122は、処理対象が異なるのみで、実行する処理は同じである。すなわち、周波数分析部の分析結果として得られる時間周波数スペクトルから選択される低周波数帯域(例えばfs1/2未満)の周波数に相当するスペクトルに対する処理によって低域の包絡情報を算出する。
以下、この処理について説明する。
低域包絡算出部112,122では、周波数分析部111,121より供給された0以上fs1/2未満の周波数に相当する時間周波数スペクトルXana(k,l)からスペクトルの微細構造を取り除き、包絡情報を算出する。例えば以下の(式3)に従って、低域包絡情報に相当する低域ケプストラムClowを算出する。
・・・・・(式3)
上記式(式3)において、
i:ケプストラムインデックス、
Clow:低域ケプストラム、
である。
なお、この低域包絡算出部112,122の処理は、図2に示すステップS102、S103の処理に対応する。
図2に示すステップS102は、上記(式3)に従った各フレーム対応の低域包絡情報の算出処理である。
ステップS103は、上記(式3)に従って算出された各フレーム対応の低域包絡情報を、
周波数(周波数ビン)を行、
時間(フレーム)を列、
としたN行L列の行列として、行列の各要素を示したものである。
上記(式3)に示すように、低域包絡算出部112,122は、LFCC(線形周波数ケプストラム係数、以下ケプストラム)を算出し、低次項の係数のみを利用することにより低域包絡情報を取得する。
なお、低域包絡算出部112,122における低域包絡情報の算出処理は、上記のようなLFCC(線形周波数ケプストラム係数、以下ケプストラム)の適用処理に限らず、例えば、LPCC(線形予測ケプストラム係数)、MFCC(メル周波数ケプストラム係数)、PLPCC(知覚線形予測ケプストラム係数)などのその他のケプストラムや、その他の周波数包絡情報を用いた構成としてもよい。
図1に示す上段の学習処理部110の低域包絡算出部112は、学習用音声信号51に対して、上記の(式3)に従って算出した低域ケプストラムClow(i,l)を、包絡利得学習部115と包絡情報整形部114へ供給する。
また、図1の下段の解析処理部120の低域包絡算出部122は、入力音声信号81に対して、上記の(式3)に従って算出した低域ケプストラムClow(i,l)を、高域包絡利得推定部124と包絡情報整形部123へ供給する。
(2.3.高域包絡算出部について)
次に、高域包絡算出部の処理について説明する。
高域包絡算出部は、図1に示すように学習処理部110に設けられている。
学習処理部110の高域包絡算出部113は、サンプリング周波数(fs2)の学習用音声信号51に対する周波数分析部111の分析結果として得られる時間周波数スペクトルから選択される高周波数帯域(例えばfs1/2以上fs2/2未満)の周波数に相当するスペクトルに対する処理によって高域の包絡情報を算出する。
高域包絡算出部113は、周波数分析部111より供給されたfs1/2以上fs2/2未満の周波数に相当する時間周波数スペクトルXana(k,l)からスペクトルの微細構造を取り除き、包絡情報を算出する。例えば以下の(式4)に従って、高域包絡情報に相当する高域ケプストラムChighを算出する。
・・・・・(式4)
上記式(式4)において、
i:ケプストラムインデックス、
Chigh:低域ケプストラム、
である。
上記のように、本実施例においてはLFCC(線形周波数ケプストラム係数、以下ケプストラム)を算出し、低次項の係数のみを利用することにより包絡情報を取得している。ただし、高域包絡算出部113における高域包絡情報の算出に際しては、LFCC(線形周波数ケプストラム係数、以下ケプストラム)に限らず、例えば、LPCC(線形予測ケプストラム係数)、MFCC(メル周波数ケプストラム係数)、PLPCC(知覚線形予測ケプストラム係数)などのその他のケプストラムや、その他の周波数包絡情報を用いる構成としてもよい。
図1に示す上段の学習処理部110の低域包絡算出部112は、学習用音声信号51に対して、上記(式4)に従って算出した高域ケプストラムChigh(i,l)を、包絡情報整形部114と、包絡利得学習部115、および包絡形状学習部116へ供給する。
(2.4.包絡情報整形部について)
包絡情報整形部は、図1に示すように学習処理部110と解析処理部120の双方に設定されている。
学習処理部110の包絡情報整形部114は、サンプリング周波数(fs2)の学習用音声信号51に基づいて、
低域包絡算出部112が生成した低域包絡情報、
を入力し、フィルタリング処理により包絡情報の整形を実行し、整形包絡情報を生成して包絡形状学習部116に提供する。
一方、解析処理部120の包絡情報整形部123は、サンプリング周波数(fs1)の入力音声信号81に基づいて、
低域包絡算出部122が生成した低域包絡情報、
を入力し、この包絡情報のフィルタリング処理により包絡情報の整形を実行し、整形包絡情報を生成して高域包絡形状推定部125に提供する。
より、具体的には、学習処理部110の包絡情報整形部114は、サンプリング周波数(fs2)の学習用音声信号51に基づいて、

低域包絡算出部112が生成した低域包絡情報、
すなわち、上記(式3)に従って算出した低域ケプストラムClow(i,l)を入力し、包絡情報:Clow(i,l)、に対して、予め定めた次数Rまでを残し、以下を削除するフィルタリング処理を行う包絡情報の整形を実行し、整形包絡情報:C'low(i,l)を生成して包絡情報学習部116に提供する。
一方、解析処理部120の包絡情報整形部123は、サンプリング周波数(fs1)の入力音声信号81に基づいて、
低域包絡算出部122が生成した低域包絡情報、すなわち、上記(式3)に従って算出した低域ケプストラムClow(i,l)
を入力し、この包絡情報:Clow(i,l)を、次数毎にフレーム方向にフィルタ処理を行い、変調周波数のDC成分と25Hz以上の高周波成分を除去する整形を実行し、整形包絡情報(C'low(i,l))を生成して高域包絡形状推定部125に提供する。
図3は、音源によって包絡形状(正確には次数毎のケプストラム)の時間変動が異なる様子を示した図である。
(a)非音声信号の包絡形状の時間変動、
(b)音声信号の包絡形状の時間変動
これらの2つの異なる音源からの音声信号の包絡形状の時間変動の例を示している。
縦軸が振幅(周波数)、横軸が時間に対応する。
(a)の非音声信号の包絡形状の時間変動では、低周波から高周波まで一様な周期成分がランダムな位相を伴って混合されていることがうかがえる。
一方、(b)の音声信号の包絡形状の時間変動は、音の立ち上がりや立ち下がりが一定の周期(主に25Hz以下)を含んで規則的に変動している。
これらのことから、音声信号と非音声信号が混合された信号の場合、25Hz未満の時間変動に関しては音声信号が比較的支配的であり、25Hz以上の時間変動に関しては非音声信号が比較的支配的であると判断できる。
従って、25Hz以上の高周波時間変動成分を除去、または低減することにより、非音声信号の時間変動を抑える効果があり、それと同時にフレーム間の急激な時間変動を抑え安定させる効果があると推定できる。
図4は、音声信号の包絡形状にDC成分が含まれる場合と、含まれない場合の包絡形状の時間変動を示している。
(c)DC成分がない音声信号の包絡形状の時間変動
(d)DC成分がある音声信号の包絡形状の時間変動
これらの2つの音声信号の包絡形状の時間変動の例を示している。
縦軸が振幅(周波数)、横軸が時間に対応する。
(c)に示すDC成分を含まない音声信号の包絡形状の時間変動データは、全区間平均を計算すると理論上平均値は0になる。
一方、(d)に示すDC成分を含む音声信号の包絡形状の時間変動データは、全区間平均を計算すると、理論上の平均値がDC成分に等しくなる。
このように計算される時間方向のDC成分は、ケプストラム次数毎に異なる。
図5には包絡形状DC成分の時系列の様子を示している。左奥から手前まで、ケプストラムの1次からR次までを並べており、手前から右奥まで、ケプストラムの時間変動を並べている。
1次からR次までのケプストラム成分の各々は、時間変動をしており、各々、固有のDC成分を持っている。
1次からR次までのDC成分を周波数変換して、パワースペクトル軸に戻して観察した場合、時不変の周波数包絡の形を求めることができる。
図6は、包絡形状のDC成分の周波数領域の様子を示したものである。
図6(A)は、ケフレンシー領域でDC成分として観察された1次からR次までのケプストラムを示している。
この図6(A)に示すケフレンシー領域でDC成分として観察された1次からR次までのケプストラムを周波数変換してパワースペクトル領域に戻したデータが、図6(B)に示すデータである。
この図6(B)に示すように、静的な周波数特性が観察される。
このように、1次からR次までのDC成分を周波数変換して、パワースペクトル軸に戻して観察することで、静的な周波数包絡の形を求めることができる。
この図6(B)に示すDC成分の周波数特性は時間変動に依存せず一定の周波数包絡であり、収音時のマイクのアナログ特性や残響成分に相当する場合や、あるいは、コーデックのプリ・ポストフィルタの特性に相当する場合であることが多い。
これらのDC成分を除去することにより、乗法性歪み(マイク特性、残響)を低減する効果がある。
以上の事実を考慮し、学習処理部110の包絡情報整形部114と、解析処理部120の包絡情報整形部123は、包絡情報整形処理におけるフィルタ通過帯域を多くの音源において音声の時間包絡が取りうる時間変動を考慮した処理として行うことが好ましい。
学習処理部110の包絡情報整形部114と、解析処理部120の包絡情報整形部123は、例えば以下の(式5)に従って、整形包絡情報を生成する。
・・・・・(式5)
なお、上記(式5)においては、変調周波数を100Hz(=1/(0.02*0.5))と設定し、フィルタの伝達関数の分子の係数b(m)を[0.25,0.25,−0.25,−0.25]、分母の係数a(m)を[1,−0.98]とし、それぞれ係数の総数をMB=4、MA=2としている。
なお、係数a(m),b(m)は、変調周波数に応じて設定可能である。
学習処理部110の包絡情報整形部114は、サンプリング周波数(fs2)の学習用音声信号51に基づいて、
低域包絡算出部112が生成した低域包絡情報、すなわち、上記(式3)に従って算出した低域ケプストラムClow(i,l)
を入力し、包絡情報:Clow(i,l)に対して、上記(式5)に従って、整形包絡情報:C'low(i,l)を生成して包絡情報学習部116に提供する。
一方、解析処理部120の包絡情報整形部123は、サンプリング周波数(fs1)の入力音声信号81に基づいて、
低域包絡算出部122が生成した低域包絡情報、すなわち、上記(式3)に従って算出した低域ケプストラムClow(i,l)
を入力し、この包絡情報:Clow(i,l)に対して、上記(式5)に従って、整形低域包絡情報、すなわち整形低域ケプストラム情報(C'low(i,l))を生成して高域包絡形状推定部125に提供する。
(2.5.包絡利得学習部と包絡形状学習部について)
包絡利得学習部115と包絡形状学習部116は、図1に示すように学習処理部110に設定されている。
包絡利得学習部115と包絡形状学習部116は、学習用音声信号51に基づいて生成された包絡情報としての以下の情報、すなわち、
低域ケプストラム情報Clow(i,l)、
高域ケプストラム情報Chigh(i,l)、
整形ケプストラム情報C'low(i,l)、
これらの情報に基づいて、学習用音声信号51における低域と高域の包絡情報の関係を学習する。
具体的には、包絡利得学習部115は、低域の包絡利得情報からの高域の包絡利得情報を推定するための包絡利得情報として、[包絡利得推定情報A]を算出する。
また、包絡形状学習部116は、低域の包絡形状情報からの高域の包絡形状情報を推定するための包絡形状情報として、[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]を算出する。
包絡利得学習部115と包絡形状学習部116は、包絡利得と包絡形状を別々に推定する。
包絡利得学習部115では、包絡利得をケプストラムの0次成分の推定処理として実行する。
包絡形状学習部116では、包絡形状をケプストラムの0次以外の低次の成分の推定によって実現している。
具体的には、包絡利得学習部115では、例えば回帰式によってケプストラムの0次成分の推定処理を行い、包絡利得を算出する。
一方、包絡形状学習部116では、例えば、GMM(混合ガウスモデル)によってケプストラムの0次以外の低次の成分の推定を行い、包絡形状を算出する。
包絡利得学習部115における包絡利得推定処理においては、説明変数として低域ケプストラム情報Clow(i,l)の0次からR次までの成分とそれぞれの2乗値を用い、被説明変数として高域ケプストラム情報の0次成分Chigh(0,1)を用いている。上記の説明変数の線形結合による推定値(切片項も含む)と、目標値である被説明変数との間の二乗和誤差関数E(A)を最小にするような線形結合係数Aを[包絡利得推定情報A]として求める。二乗和誤差関数E(A)は、以下の(式6)によって示される。
・・・・・(式6)
なお、上記(式6)において、
例えば、一例として、R=4とし、2乗項を含めた非線形回帰を行う。
なお、その他のRの値の使用や、ニューラルネットワークやカーネル回帰などのその他の回帰手法を用いても構わない。
また、包絡形状学習部116における包絡形状の推定では、例えばGMM(ガウス混合モデル)を用いた処理を行う。
包絡形状学習部116における包絡形状の推定では、例えばGMM(ガウス混合モデル)を用いて、ケプストラムの0次以外の低次の成分の推定を行い、包絡形状を算出する。具体的には、包絡形状情報である[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]を算出する。
なお、包絡形状の推定処理として行うケプストラムの0次以外の低次の成分の推定処理手法としては、GMM(ガウス混合モデル)を用いた処理の他、例えば、コーデックにおいてベクトル量子化の手段として頻繁に用いられるKmeans手法の適用も可能である。しかし、Kmeansと比較して、GMMは自由度の高いモデル化手法である。具体的には、例えば、包絡形状のクラスタリング手法(ベクトル量子化手法)を用いた処理が適用可能である。なお、GMMの全てのクラスタにおける共分散の自由度を減らし、単位行列にした場合、理論的にはKmeansとほぼ等しくなる。
図7〜図9は、KmeansとGMMによるモデル化の比較を示す図である。
なお、図7〜図9に示すモデルは、多次元特徴量空間を2次元に簡略化して示している。
図7には、以下のモデル化データ例を示している。
(a)Kmeans(クラスタ数:P=1)によってモデル化を行った例
(b)Kmeans(クラスタ数:P>1)によってモデル化を行った例
(c)GMM(クラスタ数:P=1)によってモデル化を行った例
(d)GMM(クラスタ数:P>1)によってモデル化を行った例
図7(a)は、Kmeans(クラスタ数:P=1)によってモデル化を行った例を示している。
図の円の外側を囲んでいる歪んだ形をした図形が、空間におけるデータ分布であるとした場合、Kmeans(クラスタ数:P=1)によってモデル化を行うと超球状に分布のモデル化が行われ、表現しきれない箇所が多々出現する。図7において、グレーの円または楕円部分がモデル化されている空間であり、残りの箇所がモデル化できなかった空間である。
このようにKmeansのような超球状のモデルでは、1つのクラスタでは歪な空間を表現しきれないことが多い。よって、一般的には(b)のように、多数のクラスタを使用(クラスタ数:P>1)し、空間の分布を埋めることが多い。
一方、
(c)GMM(クラスタ数:P=1)によってモデル化を行った例
の場合、モデルの共分散の自由度により、超球状から超楕円状に形を柔軟に変化させることが可能なため、データの分布に当てはまる体積がKmeansより大きくなる。
(d)GMM(クラスタ数:P>1)によってモデル化を行った例
のように複数のクラスタを使用した場合においても、各クラスタの大きさ、方向、形を個別に変形させることができるため、分布への当てはまる体積が大きい。
図7から理解される通り、
(a)Kmeans(クラスタ数:P=1)によってモデル化を行った例
より、
(c)GMM(クラスタ数:P=1)によってモデル化を行った例
の方が同じクラスタ数1では、データの分布をより正確に表現できている。
また、(b)と(c)の比較においては、どちらも(a)よりも分布を正確に表現しているが、(b)の方が必要なクラスタ数が多く、その情報を保持するためのメモリーを必要とする。一方(c)に示すGMMでは、各クラスタの共分散情報を保持しており、その情報がクラスタの大きさ、方向、形を決定している。対角成分以外全て零という自由度の縛りを入れたモデル(対角共分散モデル)の場合、同じクラスタ数という条件のもとで、Kmeansの二倍のメモリーを必要とする。Kmeansがクラスタの平均値の情報のみを保持しているのに対し、GMMでは対角共分散の情報を保持していることに起因する。
しかし、実際にはGMMによる表現能力は極めて高く、実施例のような音声の包絡形状をモデル化の対象とした場合、GMMに比較して、Kmeansは約四倍のクラスタ数を必要とするため、結局Kmeansのメモリーコストの方が大きい。また、計算量に関しても、Kmeansと比較した場合、クラスタ数と同数のlogの計算負荷が追加コストとなるが、FFTなどの計算負荷と比較すると非常に小さい値である。
このような理由から、包絡形状学習部116における包絡形状の推定では、例えばGMM(ガウス混合モデル)を用いた処理を行う。
包絡形状学習部116における包絡形状の推定では、GMM(ガウス混合モデル)を用いて、ケプストラムの0次以外の低次の成分の推定を行い、包絡形状を算出する。具体的には、包絡形状情報である[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]を算出する。
実際の学習処理では、整形ケプストラム情報C'low(i,l)およびChigh(i,l)を一つの結合ベクトルCall(i,l)とし、EMアルゴリズムによる対数事後確率最大化によって、P個のガウス分布のパラメータ、混合係数πp、平均μp、共分散Σpを求める。
具体的には、以下に示す(式7)に従って、包絡形状情報である[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]を算出する。
・・・・・(式7)
なお、結合ベクトルを作成する際、整形ケプストラム情報C'low(i,l)およびChigh(i,l)に、それぞれ予め決められた重み係数αlow(r)、αhigh(r)を乗じる。例えば、R=4とし、重み係数αlow(r)、αhigh(r)ともに[0.5,0.75,1.0,1.25]とする。なお、重み係数の設定は様々な設定が可能である。
このように、
包絡利得学習部115では、
説明変数:低域ケプストラム情報Clow(i,l)の0次からR次までの成分とそれぞれの2乗値、
被説明変数:高域ケプストラム情報の0次成分Chigh(0,i)を用い、
説明変数の線形結合による推定値(切片項も含む)と、目標値である被説明変数との間の二乗和誤差関数E(A)を前記の(式6)に従って算出し、この二乗和誤差関数E(A)を最小にするような線形結合係数Aを[包絡利得推定情報A]として求める。
また、包絡形状学習部116では、上述したように例えばGMM(ガウス混合モデル)を用いて、ケプストラムの0次以外の低次の成分の推定を行い、包絡形状を算出する。具体的には、包絡形状情報である[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]を算出する。
図1に示すように、包絡利得学習部115の算出した[包絡利得推定情報A]は、解析処理部120の高域包絡利得推定部124に提供される。
また、包絡形状学習部116の算出した包絡形状情報である[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]は、解析処理部120の高域包絡形状推定部125へ提供される。
(2.6.高域包絡形状推定部について)
次に、図1に示す解析処理部120内に設けられた高域包絡形状推定部125の処理について説明する。
解析処理部120内の高域包絡形状推定部125は、解析処理部120内の包絡情報整形部123から入力音声信号81に基づいて生成された整形低域ケプストラム情報C'low(i,l)を入力する。
さらに、学習処理部110の包絡形状学習部116から、学習用音声信号51に基づく解析結果として得られた包絡形状情報である[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]を入力する。
高域包絡形状推定部125は、入力音声信号81に基づいて生成された整形低域ケプストラム情報C'low(i,l)に対して、学習用音声信号51に基づく包絡形状情報を利用した処理を実行することにより、入力音声信号81に対応する高域包絡形状情報C^high(i,l)の推定を行う。
ただし、i=1,…,Rである。
図8、図9を参照して、高域包絡形状推定部125の実行する高域包絡形状情報の推定処理について説明する。なお、先に説明したように、図7〜図9は、KmeansとGMMによるモデル化の比較を示す図であり、図7〜図9に示すモデルは、多次元特徴量空間を2次元に簡略化して示している。
図8、図9は、KmeansとGMMの二つの異なる手法を用いた場合、低域包絡形状(写像元)から高域包絡形状(写像先)への線形変換の様子が、どのように異なるかを描いた図である。
Kmeansの場合、写像元がどのクラスタに属するかを、クラスタ重心までの距離を計算した後、属するクラスタの回帰直線を写像関数として、低域包絡形状から高域包絡形状への線形変換を行う。クラスタ重心と回帰係数は学習部において事前に決定されているものとする。
図8には、
(a)Kmeans+線形回帰を利用した線形変換処理
(b)GMMの事後確率を利用した場合の線形変換処理
これらの処理例を説明する図である。
図8(a)に示すKmeans+線形回帰を利用した線形変換処理例においては、二次元特徴量空間の分布に二つのクラスタ(クラスタ1、クラスタ2)が当てはめられている。学習処理時は写像元と写像先のデータが存在するため、双方のデータを用いてクラスタリングによる学習を行うが、帯域拡大処理時には写像先の情報は不明であり、写像元の低域包絡情報のみを保持しているため、写像元のデータのみを用いてクラスタ重心への距離計算を行い、クラスタリングを行う。
図8(a)に示す例において、クラスタ重心までの距離がクラスタ1の方が小さい場合には回帰直線1を、クラスタ2の方が小さい場合には回帰直線2を使用して線形変換を行い写像先の結果を求める。仮にクラスタ境界にデータが存在する場合、写像関数が、回帰直線1から回帰直線2へ切り替わるため、得られる結果が不安定であり、時間方向の不連続が起きやすい。
図8(b)に示すGMMの事後確率を利用した場合の線形変換処理例においては、基本的にはKmeansと同様、距離を測り属するクラスタを求めるが、Kmeansと異なる点として、データが各クラスタにどの程度存在する可能性があるかを確率として計算することが可能であるという特徴がある。
図8(b)に示す例では、クラスタ1に近いほど、クラスタ1に属する確率は高く、クラスタ2に属する確率は低くなる。クラスタ2に近い場合は逆の結果となる。この特徴を利用して、各クラスタにおけるデータの存在確率(一般的にはクラスの事後確率と呼ばれる)を用いて、各々のクラスタの回帰直線を混合することにより滑らかな混合曲線を作ることができ、連続的な写像を実現できる。図8の(b)では二つのクラスタの各々の存在確率を使用し、回帰直線を混合して混合曲線を描いたものである。写像元のデータはこの連続的な混合曲線によって写像される。
図9は、図8と同様、
(a)Kmeans+線形回帰を利用した線形変換処理
(b)GMMの事後確率を利用した場合の線形変換処理
これらの処理例を説明する図である。
図9は、(a)Kmeansと(b)GMMをそれぞれ使用した場合、写像元のデータがクラスタ境界を越えて変化すると、写像先のデータがどのように変化するかを説明する図である。
写像元のデータの値がaからa+δへと極小さな変化をした場合の例について示している。
(a)Kmeans+線形回帰を利用した線形変換処理
この処理を行った場合は、図9(a)に示すように、クラスタが1から2へと変化するため、線形変換に使用される回帰係数が大きく変化し、写像先において大きな値の変化をする。
一方、
(b)GMMの事後確率を利用した場合の線形変換処理
この処理を行った場合は、図9(b)に示すように、クラスタ1からクラスタ2へと変化するが、与えられる写像関数は、存在確率によって混合され連続的な混合曲線であるため、写像先においても小さな値の変化しか起こらない。
この現象は、推定結果の時間方向の滑らかさ、という形で知覚される。
このように、GMMを使用した手法においては、フレーム間にて滑らかな推定を行うことが可能であり、自然界に存在する音響信号の時間変動に比較的近い結果となる。仮にクラスタ間の距離が大きい場合、Kmeansによる手法では音質的不連続を招くが、GMMによる手法では連続的である。また、多くのクラスタを配置しなくても、クラスタの間を補間する効果も期待できるため、Kmeansと比較して少ないクラスタ数で実現でき、コストパフォーマンスの面で優れていると言える。
このように、図1に示す解析処理部120内に設けられた高域包絡形状推定部125は、解析処理部120内の包絡情報整形部123から入力音声信号81に基づいて生成された整形低域ケプストラム情報C'low(i,l)を入力し、学習処理部110の包絡形状学習部116から入力する学習用音声信号51に基づく解析結果として得られた包絡形状情報を利用して、GMM手法を適用して、以下に示す(式8)に従って、入力音声信号81に対応する高域包絡形状情報C^high(i,l)の推定を行う。
具体的には、GMM手法を適用した以下に示す(式8)に従って、学習処理部110の包絡形状学習部116から入力する包絡形状情報である[混合数P]、[混合係数πp]、[平均μp]、[共分散Σp]を適用して、入力音声信号81に対応する高域包絡形状情報C^high(i,l)を算出する。
・・・・・(式8)
このように、高域包絡形状推定部125は、入力音声信号81に基づいて生成された整形低域ケプストラム情報C'low(i,l)に学習時と同じ重み係数αlow(r)を乗じたのち、学習用音声信号51に基づく包絡形状情報を利用した処理により、入力音声信号81に対応する高域包絡形状情報C^high(i,l)の推定を行う。
ただし、i=1,…,Rである。
高域包絡形状推定部125は、上記(式8)に従って算出した推定高域ケプストラムC^high(i,l)を高域包絡補正部127へ供給する。
(2.7.高域包絡利得推定部について)
次に、図1に示す解析処理部120内に設けられた高域包絡利得推定部124の処理について説明する。
解析処理部120内の高域包絡利得推定部124は、解析処理部120内の低域包絡算出部122から入力音声信号81に基づいて生成された低域ケプストラム情報Clow(i,l)を入力する。
さらに、学習処理部110の包絡利得学習部115から、学習用音声信号51に基づく解析結果として得られた包絡利得情報である[回帰係数A]を入力する。
高域包絡利得推定部124は、入力音声信号81に基づいて生成された低域ケプストラム情報Clow(i,l)に対して、学習用音声信号51に基づく包絡利得情報である[回帰係数A]を利用した処理を実行することにより、入力音声信号81に対応する高域包絡利得の推定を行う。
具体的には、回帰モデルによって高域包絡利得の推定を行い、以下に示す(式9)に従って、高域ケプストラムの0次成分C^high(0,l)を推定する。ただし、i=0,…,Rである。
・・・・・(式9)
なお、高域ケプストラムの0次成分C^high(0,l)は、高域包絡利得情報を表している。例えば、R=4とし、2乗項を含めた非線形回帰を行う。ただし高域包絡利得の推定処理としては、上記式に従った処理の他、ニューラルネットワークやカーネル回帰などのその他の回帰手法を用いてもよい。
高域包絡利得推定部124が上記(式9)に従って算出した高域包絡利得情報C^high(0,l)は、高域包絡補正部127に供給される。
(2.8.中域包絡補正部について)
次に、図1に示す解析処理部120内に設けられた中域包絡補正部126の処理について説明する。
解析処理部120内の中域包絡補正部126は、解析処理部120内の周波数分析部121から入力音声信号81に基づいて生成された時間周波数スペクトルXana(k,l)を入力する。
さらに、解析処理部120内の低域包絡算出部122から、入力音声信号81に基づいて生成された低域ケプストラムClow(i,l)を入力する。
中域包絡補正部126は、周波数分析部121から入力音声信号81に基づいて生成された時間周波数スペクトルXana(k,l)の中域の周波数帯域部分、例えばfs1/4以上fs1/2以下のスペクトルに相当する部分と、低域包絡算出部122より供給された低域ケプストラムClow(i,l)を用いて、周波数軸上で平坦化されたスペクトル信号を生成する。
まず、低域ケプストラムClow(i,l)のうち、ケプストラムの低次数以外の係数を0にした後、パワースペクトル領域へ戻し、以下の(式10)に従って、リフタ―低域スペクトルXlift_l(k,l)を得る。
・・・・・(式10)
次に、中域包絡補正部126は、上記(式10)に従って得られたリフタ―低域スペクトルXlift_l(k)の、中域部分(fs1/4以上fs1/2以下)のスペクトルに相当する部分(この場合、k=M/4,…,M/2)を用いて、時間周波数スペクトルXana(k,l)の同じ周波数部分を割り、平坦化を行った後、周波数fs1/4を中心にして、低域側にミラーリングを行い、中域スペクトルXwhite(k,l)を得る。
中域スペクトルXwhite(k,l)は、以下に示す(式11)に従って算出する。
・・・・・(式11)
中域包絡補正部126が、上記の(式10)、(式11)に従って算出した中域スペクトルXwhite(k,l)は、高域包絡補正部127へ供給される。
(2.9.高域包絡補正部について)
次に、図1に示す解析処理部120内に設けられた高域包絡補正部127の処理について説明する。
解析処理部120内の高域包絡補正部127は、解析処理部120内の中域包絡補正部126から入力音声信号81に基づいて生成された中域スペクトルXwhite(k,l)を入力する。
さらに、解析処理部120内の高域包絡利得推定部124から、学習データである包絡利得情報を利用して推定された入力音声信号81の高域包絡利得情報Chigh(0,l)を入力する。
さらに、解析処理部120内の高域包絡形状推定部125から、学習データである包絡形状情報を利用して推定された入力音声信号81の高域包絡形状情報Chigh(i,h)を入力する。
高域包絡補正部127は、これらの入力情報に基づいて、入力音声信号81の高域包絡情報の補正を行う。具体的な処理は以下の通りである。
高域包絡補正部127は、中域包絡補正部126から入力音声信号81に基づいて生成された中域スペクトルXwhite(k,l)入力し、この中域スペクトルXwhite(k,l)に対して、高域包絡利得推定部124の生成した高域包絡利得情報Chigh(0,l)と、高域包絡形状推定部125の生成した高域包絡利得情報Chigh(i,l)(ただし、i=1,…,R)を用いて、包絡を補正する。
まず、高域包絡利得推定部124の生成した高域包絡利得情報Chigh(0,l)と高域包絡形状推定部125の生成した高域包絡利得情報Chigh(i,l)をパワースペクトルによる包絡情報へ戻し、以下の(式12)に従って、リフター高域スペクトルXlift_h(k,l)を得る。
・・・・・(式12)
高域包絡補正部127は、上記(式12)に従って得られたリフター高域スペクトルXlift_h(k,l)を適用して、以下に示す(式13)に従って、中域スペクトルXwhite(k,l)を補正し、補正済み中域スペクトルX'white(k,l)を得る。
・・・・・(式13)
さらに、高域包絡補正部127は、上記(式12)に従って補正されたスペクトルX'white(k,l)を周波数fs1/2(この場合、k=M/2)を中心にして反転させ、元々スペクトルが存在していた低域スペクトルには0を挿入し、以下の(式14)に示す高域スペクトルXhigh(k,l)を得る。
・・・・・(式14)
この結果、周波数fs2(この場合、FFTポイント数は2M)の高域スペクトルXhigh(k,l)信号が生成される。
高域包絡補正部127の生成した高域スペクトルXhigh(k,l)は、周波数合成部128へ供給される。
(2.10.周波数合成部について)
次に、図1に示す解析処理部120内に設けられた周波数合成部128の処理について説明する。
周波数合成部128は、解析処理部120内の高域包絡補正部127から高域スペクトルXhigh(k,l)を入力する。
さらに、周波数分析部121から、入力音声信号81に基づいて生成された周波数スペクトルXana(k,l)を入力する。
周波数合成部128は、解析処理部120内の高域包絡補正部127から高域スペクトルXhigh(k,l)と、周波数分析部121より供給された0以上fs1/2以下に相当する周波数スペクトルXana(k,l)(この場合、k=0,…,M/2)の部分を用いて、以下の(式15)に従って、合成スペクトルXsyn(k,l)を求める。
・・・・・(式15)
周波数合成部128は、上記(式15)に従って算出した合成スペクトルXsyn(k,l)に逆周波数変換を行い、時間領域の合成信号xsyn(n,l)を得る。
以下に示す(式16)に従って、時間領域の合成信号xsyn(n,l)を得る。
・・・・・(式16)
なお、本実施例においては、逆周波数変換にIDFT(逆離散フーリエ変換)を用いているが、周波数分析部で使用した変換の逆変換に相当するものを用いればよい。ただし、フレームの大きさNは拡張された周波数fs2における0.02sec相当のサンプル数(N=サンプリング周波数fs2*0.02)であり、DFTポイント数MはN以上の2のべき乗の値であるため、上述に用いていたN、Mとはサイズが異なることに注意が必要である。
周波数合成部128は、上記(式16)に従って算出した合成信号xsyn(n,l)に窓関数w_syn(n)を掛け、オーバーラップ加算を行うことで、フレーム合成を行い、出力信号y(n)を生成する。。
具体的な出力信号y(n)の算出式と、窓関数w_syn(n)を以下の(式17)に示す。
・・・・・(式17)
なお、上記処理では、窓関数にハニング窓の平方根を用いて50%のオーバーラップ加算を行っているが、サイン窓などのその他の窓や、50%以外のオーバーラップ比率であっても構わない。
周波数合成部128が上記(式17)に従って算出した信号y(n)が、図1に示す音声信号処理装置100の出力音声信号82として出力される。
この出力音声信号82はサンプリング周波数(fs2)となり、入力音声信号のサンプリング周波数(fs1)の2倍のサンナプリング周波数を持つ周波数帯域の拡大された音声信号となる。
なお、上記の実施例では、図1に示す音声信号処理装置100として、学習処理部110と、解析処理部120の2つの処理部を有する構成例として説明したが、学習処理部110の学習結果として得られる学習データを予め記憶部に格納する構成としてもよい。すなわち、記憶部に格納された学習データを解析処理部120が必要に応じて取得して入力信号に対する処理を行う構成としてもよい。この構成の場合は、学習処理部を省略した解析処理部と学習結果としての学習データを格納した記憶部によって音声信号処理装置を構成することか可能である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例の構成によれば、音声信号に対する高精度なの周波数帯域拡大処理を実行する装置、方法が実現される。
例えば、本発明の一実施例の構成においては、入力音声信号の周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出する。さらに、学習用音声信号に基づく学習データ、例えば低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出する学習データを適用して、入力音声信号対応の低域包絡情報から入力信号対応の高域包絡情報を推定して生成する。さらに、推定処理により生成した入力信号対応の高域包絡情報に対応する高周波数帯域信号を入力音声信号に合成して周波数帯域を拡大した出力音声信号を生成する。高域の包絡利得と包絡形状を、学習データを用いて推定することで高精度な帯域拡大が実現される。
51 学習用音声信号
81 入力音声信号
82 出力音声信号
100 音声信号処理装置
110 学習処理部
111 周波数分析部
112 低域包絡算出部
113 高域包絡算出部
114 包絡情報整形部
115 包絡利得学習部
116 包絡形状学習部
120 解析処理部
121 周波数分析部
122 低域包絡算出部
123 包絡情報整形部
124 高域包絡利得推定部
125 高域包絡形状推定部
126 中域包絡補正部
127 高域包絡補正部
128 周波数合成部

Claims (15)

  1. 入力音声信号の周波数分析を実行する周波数分析部と、
    前記周波数分析部の周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出する低域包絡算出部と、
    学習用音声信号に基づいて予め生成した学習データであり、低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出するための学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成する高域包絡情報推定部と、
    前記入力音声信号に、前記高域包絡情報推定部の生成した推定高域包絡情報に対応する高周波数帯域信号を合成して周波数帯域を拡大した出力音声信号を生成する周波数合成部を有する音声信号処理装置。
  2. 前記学習データは、
    低域の包絡利得情報からの高域の包絡利得情報を推定するための包絡利得情報と、
    低域の包絡形状情報からの高域の包絡形状情報を推定するための包絡形状情報を含み、
    前記高域包絡情報推定部は、
    前記学習データに含まれる包絡利得情報を適用して、前記入力音声信号対応の低域包絡利得情報から、入力信号対応の推定高域包絡利得情報を推定する高域包絡利得推定部と、
    前記学習データに含まれる包絡形状情報を適用して、前記入力音声信号対応の低域包絡形状情報から、入力信号対応の推定高域包絡形状情報を推定する高域包絡形状推定部を有する請求項1に記載の音声信号処理装置。
  3. 前記高域包絡形状推定部は、
    前記低域包絡算出部の算出した入力音声信号の低域包絡情報に対するフィルタリング処理により生成した整形低域包絡情報を入力して入力信号対応の推定高域包絡形状情報を推定する請求項2に記載の音声信号処理装置。
  4. 前記周波数分析部は、
    前記入力音声信号の時間周波数分析を行い、時間周波数スペクトルを生成する請求項1に記載の音声信号処理装置。
  5. 前記低域包絡算出部は、
    前記周波数分析部の生成する入力音声信号の時間周波数スペクトルを入力し、低域ケプストラムを生成する請求項1に記載の音声信号処理装置。
  6. 前記高域包絡情報推定部は、
    前記学習データに含まれる包絡利得情報を適用して、前記入力音声信号対応の低域包絡利得情報から、入力信号対応の推定高域包絡利得情報を推定する高域包絡利得推定部を有し、
    前記高域包絡利得推定部は、入力音声信号に基づいて生成された低域ケプストラム情報に対して、前記学習データに含まれる包絡利得情報を適用して、前記入力音声信号対応の低域包絡利得情報から、入力信号対応の推定高域包絡利得情報を推定する請求項1に記載の音声信号処理装置。
  7. 前記高域包絡情報推定部は、
    前記学習データに含まれる包絡形状情報を適用して、前記入力音声信号対応の低域包絡形状情報から、入力信号対応の推定高域包絡形状情報を推定する高域包絡形状推定部を有し、
    前記高域包絡形状推定部は、入力音声信号に基づいて生成された整形低域ケプストラム情報に基づいて、前記学習データに含まれる包絡形状情報を利用した処理により、入力音声信号に対応する高域包絡形状情報の推定を行う請求項1に記載の音声信号処理装置。
  8. 前記高域包絡形状推定部は、GMM(ガウス混合モデル)を用いた推定処理により、入力音声信号に対応する高域包絡形状情報の推定を行う請求項7に記載の音声信号処理装置。
  9. 前記音声信号処理装置は、
    前記入力音声信号に含まれない高周波数帯域の周波数を含む学習用音声信号に基づいて前記学習データを生成する学習処理部を有し、
    前記高域包絡情報推定部は、
    前記学習処理部の生成した学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成する請求項1に記載の音声信号処理装置。
  10. 第一の信号から第一の包絡情報を算出する機能と、
    収音または伝送機能の少なくともいずれかを含む環境要因を排除する目的で第一の包絡情報の時間方向のDC成分をフィルタによって除去する機能と、
    フィルタ後の第一の包絡情報を線形変換した第二の包絡情報を第二の信号の包絡情報とし、第一の信号と合成する機能を備える音声信号処理装置。
  11. 低域の信号から低域の包絡情報を算出する機能と、
    低域の包絡情報が、予め大量データの学習により分類されている複数のグループに属する確率を算出する機能と、
    低域の包絡情報を、複数のグループにそれぞれ割り当てられている線形変換式によって線形変換を行い複数の高域包絡情報を生成する機能と、
    時間軸において滑らかな高域包絡情報を生成する目的で複数の高域包絡情報を複数のグループに属する確率で混合することによって得られた高域の包絡情報を高域の信号の包絡情報とし、低域の信号と合成する機能を備える音声信号処理装置。
  12. 音声信号処理装置において入力音声信号に対する周波数帯域拡大処理を実行する音声信号処理方法であり、
    周波数分析部が、入力音声信号の周波数分析を実行する周波数分析ステップと、
    低域包絡算出部が、前記周波数分析ステップにおける周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出する低域包絡算出ステップと、
    高域包絡情報推定部が、学習用音声信号に基づいて予め生成した学習データであり、低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出するための学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成する高域包絡情報推定ステップと、
    周波数合成部が、前記入力音声信号に、前記高域包絡情報推定部の生成した推定高域包絡情報に対応する高周波数帯域信号を合成して周波数帯域を拡大した出力音声信号を生成する周波数合成ステップを実行する音声信号処理方法。
  13. 音声信号処理装置において入力音声信号に対する処理を実行する音声信号処理方法であり、
    第一の信号から第一の包絡情報を算出し、
    収音または伝送機能の少なくともいずれかを含む環境要因を排除する目的で第一の包絡情報の時間方向のDC成分をフィルタによって除去し、
    フィルタ後の第一の包絡情報を線形変換した第二の包絡情報を第二の信号の包絡情報とし、第一の信号と合成する音声信号処理方法。
  14. 音声信号処理装置において入力音声信号に対する処理を実行する音声信号処理方法であり、
    低域の信号から低域の包絡情報を算出し、
    低域の包絡情報が、予め大量データの学習により分類されている複数のグループに属する確率を算出し、
    低域の包絡情報を、複数のグループにそれぞれ割り当てられている線形変換式によって線形変換を行い複数の高域包絡情報を生成し、
    時間軸において滑らかな高域包絡情報を生成する目的で複数の高域包絡情報を複数のグループに属する確率で混合することによって得られた高域の包絡情報を高域の信号の包絡情報とし、低域の信号と合成する音声信号処理方法。
  15. 音声信号処理装置において入力音声信号に対する周波数帯域拡大処理を実行させるプログラムであり、
    周波数分析部に、入力音声信号の周波数分析を実行させる周波数分析ステップと、
    低域包絡算出部に、前記周波数分析ステップにおける周波数分析結果に基づいて、低周波数帯域の包絡情報である低域包絡情報を算出させる低域包絡算出ステップと、
    高域包絡情報推定部に、学習用音声信号に基づいて予め生成した学習データであり、低域包絡情報から高周波数帯域の包絡情報である高域包絡情報を算出するための学習データを適用して、前記入力音声信号対応の低域包絡情報から、入力信号対応の推定高域包絡情報を生成させる高域包絡情報推定ステップと、
    周波数合成部に、前記入力音声信号に、前記高域包絡情報推定部の生成した推定高域包絡情報に対応する高周波数帯域信号を合成して周波数帯域を拡大した出力音声信号を生成させる周波数合成ステップを、
    実行させるプログラム。
JP2011026241A 2011-02-09 2011-02-09 音声信号処理装置、および音声信号処理方法、並びにプログラム Withdrawn JP2012163919A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011026241A JP2012163919A (ja) 2011-02-09 2011-02-09 音声信号処理装置、および音声信号処理方法、並びにプログラム
US13/359,004 US20120201399A1 (en) 2011-02-09 2012-01-26 Sound signal processing apparatus, sound signal processing method, and program
CN2012100274430A CN102637436A (zh) 2011-02-09 2012-02-02 声音信号处理装置、声音信号处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011026241A JP2012163919A (ja) 2011-02-09 2011-02-09 音声信号処理装置、および音声信号処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2012163919A true JP2012163919A (ja) 2012-08-30

Family

ID=46600637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011026241A Withdrawn JP2012163919A (ja) 2011-02-09 2011-02-09 音声信号処理装置、および音声信号処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20120201399A1 (ja)
JP (1) JP2012163919A (ja)
CN (1) CN102637436A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018062021A1 (ja) * 2016-09-27 2018-04-05 パナソニックIpマネジメント株式会社 音声信号処理装置、音声信号処理方法、および制御プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6035270B2 (ja) * 2014-03-24 2016-11-30 株式会社Nttドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム
CN104715756A (zh) * 2015-02-10 2015-06-17 百度在线网络技术(北京)有限公司 音频数据的处理方法及装置
KR102061300B1 (ko) * 2015-04-13 2020-02-11 니폰 덴신 덴와 가부시끼가이샤 선형 예측 부호화 장치, 선형 예측 복호 장치, 이들의 방법, 프로그램 및 기록 매체
CN105513590A (zh) * 2015-11-23 2016-04-20 百度在线网络技术(北京)有限公司 语音识别的方法和装置
PT3696813T (pt) * 2016-04-12 2022-12-23 Fraunhofer Ges Forschung Codificador de áudio para codificar um sinal de áudio, método para codificar um sinal de áudio e programa de computador sob consideração de uma região espectral de pico detetada numa banda de frequência superior
JP6791258B2 (ja) * 2016-11-07 2020-11-25 ヤマハ株式会社 音声合成方法、音声合成装置およびプログラム
CN107527611A (zh) * 2017-08-23 2017-12-29 武汉斗鱼网络科技有限公司 Mfcc语音识别方法、存储介质、电子设备及系统
CN107993672B (zh) * 2017-12-12 2020-07-03 腾讯音乐娱乐科技(深圳)有限公司 频带扩展方法及装置
CN113555007B (zh) * 2021-09-23 2021-12-14 中国科学院自动化研究所 语音拼接点检测方法及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7752052B2 (en) * 2002-04-26 2010-07-06 Panasonic Corporation Scalable coder and decoder performing amplitude flattening for error spectrum estimation
CN101656076B (zh) * 2004-05-14 2013-01-23 松下电器产业株式会社 音频编码装置、音频编码方法以及通信终端和基站装置
WO2005112001A1 (ja) * 2004-05-19 2005-11-24 Matsushita Electric Industrial Co., Ltd. 符号化装置、復号化装置、およびこれらの方法
EP2151822B8 (en) * 2008-08-05 2018-10-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an audio signal for speech enhancement using a feature extraction

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018062021A1 (ja) * 2016-09-27 2018-04-05 パナソニックIpマネジメント株式会社 音声信号処理装置、音声信号処理方法、および制御プログラム
JPWO2018062021A1 (ja) * 2016-09-27 2019-08-08 パナソニックIpマネジメント株式会社 音声信号処理装置、音声信号処理方法、および制御プログラム
JP7126061B2 (ja) 2016-09-27 2022-08-26 パナソニックIpマネジメント株式会社 音声信号処理装置、音声信号処理方法、および制御プログラム

Also Published As

Publication number Publication date
CN102637436A (zh) 2012-08-15
US20120201399A1 (en) 2012-08-09

Similar Documents

Publication Publication Date Title
JP2012163919A (ja) 音声信号処理装置、および音声信号処理方法、並びにプログラム
JP3266819B2 (ja) 周期信号変換方法、音変換方法および信号分析方法
JP5275612B2 (ja) 周期信号処理方法、周期信号変換方法および周期信号処理装置ならびに周期信号の分析方法
JP6426244B2 (ja) サブバンドブロックに基づく高調波移調の改善
JP5483000B2 (ja) 雑音抑圧装置、その方法及びプログラム
CN104424952B (zh) 语音处理设备、语音处理方法以及程序
JP5717097B2 (ja) 音声合成用の隠れマルコフモデル学習装置及び音声合成装置
JP2011237751A (ja) 波数帯域拡大装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JPH0863197A (ja) 符号化音声信号の復号化方法
JP2012168496A (ja) 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
WO2015079946A1 (ja) 周波数帯域拡大装置および方法、並びにプログラム
JP6179571B2 (ja) 復号装置および方法、並びにプログラム
JP2009501958A (ja) オーディオ信号修正
JP2012208177A (ja) 帯域拡張装置及び音声補正装置
US6990475B2 (en) Digital signal processing method, learning method, apparatus thereof and program storage medium
JPH08305396A (ja) 音声帯域拡大装置および音声帯域拡大方法
JPWO2008010413A1 (ja) 音声合成装置、方法、およびプログラム
JP3444396B2 (ja) 音声合成方法、その装置及びプログラム記録媒体
JP7475410B2 (ja) サブバンドブロックに基づく高調波移調の改善
JP2019090930A (ja) 音源強調装置、音源強調学習装置、音源強調方法、プログラム
JP4958241B2 (ja) 信号処理装置、信号処理方法、信号処理プログラムおよび記録媒体
Ottosen et al. Weighted Thresholding and Nonlinear Approximation
JP6716512B2 (ja) 音信号生成装置、音信号生成方法、プログラム
EP2840570A1 (en) Enhanced estimation of at least one target signal
EP3836027A1 (en) Method and device for generating frequency component vector of time-series data

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513