JP3949828B2 - Voice conversion device and voice conversion method - Google Patents

Voice conversion device and voice conversion method Download PDF

Info

Publication number
JP3949828B2
JP3949828B2 JP29384498A JP29384498A JP3949828B2 JP 3949828 B2 JP3949828 B2 JP 3949828B2 JP 29384498 A JP29384498 A JP 29384498A JP 29384498 A JP29384498 A JP 29384498A JP 3949828 B2 JP3949828 B2 JP 3949828B2
Authority
JP
Japan
Prior art keywords
component
sine wave
pitch
residual
wave component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29384498A
Other languages
Japanese (ja)
Other versions
JP2000122699A (en
Inventor
啓 嘉山
セラ ザビエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP29384498A priority Critical patent/JP3949828B2/en
Priority to TW088108973A priority patent/TW430778B/en
Priority to EP99110936A priority patent/EP0982713A3/en
Priority to EP10009510A priority patent/EP2264696B1/en
Priority to EP12000670A priority patent/EP2450887A1/en
Publication of JP2000122699A publication Critical patent/JP2000122699A/en
Priority to US10/282,754 priority patent/US7149682B2/en
Priority to US10/282,536 priority patent/US7606709B2/en
Priority to US10/282,992 priority patent/US20030055647A1/en
Application granted granted Critical
Publication of JP3949828B2 publication Critical patent/JP3949828B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

PROBLEM TO BE SOLVED: To convert a voice without imparing a natural property of the voice. SOLUTION: An input sound signal Sv corresponding to a voice of a singer whose vocal mimicry is carried out is analyzed to extract a sine wave component and a residual component Rme(f). The sine wave component is voice- converting-processed based on a sine wave component of a target sound signal (sound signal of a miming object). The residual component Rme(f) is voice- converting-processed based on a residual component of the target sound signal, and a pitch component and a harmonic are added to a resultant residual component therein by a comb-shaped filter processing part 41. A converted sound signal is provided by conducting inverse FFT(fast Fourier transform) transformation in an inverse FFT processing part 28, after an attribute-converted sine wave component SINnew' and a filter-processed residual component Rnew'(f) are synthesized.

Description

【0001】
【発明の属する技術分野】
本発明は、音声変換装置及び音声変換方法に係り、特にカラオケ等で歌唱者の歌声が、音声変換の対象となる特定の歌唱者の歌声になるように、また歌声を別人が歌っているように変換する音声変換装置及び音声変換方法に関する。
【0002】
【従来の技術】
入力された音声の周波数特性などを変えて出力する音声変換装置は種々開発されており、例えば、カラオケ装置の中には、歌い手の歌った歌声のピッチを変換して、男性の声を女性の声に、あるいはその逆に変換させるものもある(例えば、特表平8−508581号公報参照)。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の音声変換装置においては、音声の変換(例えば、男声→女声、女声→男声など)は行われるものの、単に声質を変えるだけに止まっていたので、例えば、特定の歌唱者(例えば、プロの歌手)の声に似せるように変換するということはできなかった。
また、声質だけでなく、歌い方までも特定の歌唱者に似させるという、ものまねのような機能があれば、カラオケ装置などにおいては大変に面白いが、従来の音声変換装置ではこのような処理は不可能であった。
【0004】
これらを解決するための手法として、音声信号を正弦波の合成で表す正弦波(SIN)成分と、それ以外の正弦波成分で表すことができない残差(RESIDUAL)成分とで表す信号処理により、歌唱者の音声信号(正弦波成分、残差成分)を、音声変換の対象となる特定の歌唱者の音声信号(正弦波成分、残差成分)に基づいて変形させ、ものまね対象となる声質や歌い方が反映された音声信号を生成し、伴奏とともに出力する音声変換装置が考えられる。
【0005】
このような音声変換装置を構成した場合、残差成分には、ピッチ成分が含まれるため、正弦波成分と残差成分とをそれぞれ音声変換処理して合成すると、聴取者は、正弦波成分及び残差成分の各々に含まれるピッチ成分を聴取することとなる。
また、残差成分に含まれるピッチ及びその倍音声分を除去し、正弦波成分と合成した場合、残差成分がピッチ成分を持たないことにより、その音程が保たれず、正弦波成分、残差成分の各々を聴取することとなる。
従って、上述したいずれの場合も音声変換処理された音声の自然性が損なわれてしまう可能性がある。
そこで、本発明の目的は、音声の自然性を損なうことなく、音声変換することができる音声変換装置及び音声変換方法を提供することにある。
【0006】
【課題を解決するための手段】
上述した問題点を解決するために、請求項1記載の構成は、入力音声信号から正弦波成分を抽出する正弦波成分抽出手段と、前記正弦波成分抽出手段により抽出された正弦波成分以外の残差成分を、前記入力音声信号から抽出する残差成分抽出手段と、前記正弦波成分抽出手段により抽出された正弦波成分を、ターゲット音声信号の正弦波成分に基づいて変形し、該変形された正弦波成分のアンプ成分の大きさに応じて該変形された正弦波成分の傾きを制御する正弦波成分変形手段と、前記残差成分抽出手段により抽出された残差成分を、前記ターゲット音声信号の残差成分に基づいて変形し、前記変形された正弦波成分のアンプ成分の大きさに応じて該変形された残差成分の傾きを制御する残差成分変形手段と、前記残差成分変形手段により得られた残差成分にピッチ成分およびその倍音成分を付加する付加手段と、前記正弦波成分変形手段により変形され、傾きの制御された正弦波成分と、前記付加手段によりピッチ成分およびその倍音成分が付加された残差成分とを合成する合成手段とを具備することを特徴としている。
【0007】
請求項2記載の構成は、請求項1記載の構成において、前記正弦波成分変形手段により得られた正弦波成分のピッチを、前記付加手段における通過域のピークのピッチとするピッチ決定手段を具備し、前記付加手段は、前記ピッチ決定手段により前記ピークのピッチが定められた前記通過域に対応する前記残差成分を通過させることによって、前記残差成分にピッチ成分およびその倍音成分を付加することを特徴としている。
【0008】
請求項3記載の構成は、請求項記載の構成において、前記付加手段は、前記残差成分を周波数軸上で保持する場合には、前記ピッチ決定手段により決定された通過域のピークのピッチを有するくし形フィルタであることを特徴としている。
【0009】
請求項4記載の構成は、請求項記載の構成において、前記付加手段は、前記残差成分を時間軸上で保持する場合には、前記ピッチ決定手段により決定された通過域のピークのピッチの逆数を遅延時間とする遅延フィルタを有するくし形フィルタであることを特徴としている。
【0010】
請求項5に記載の構成は、入力音声から正弦波成分及び前記正弦波成分以外の成分である残差成分を抽出する成分抽出工程と、前記抽出された正弦波成分を、ターゲット音声の正弦波成分に基づいて変形し、該変形された正弦波成分のアンプ成分の大きさに応じて該変形された正弦波成分の傾きを制御する正弦波成分変形工程と、前記抽出された残差成分を、前記ターゲット音声の残差成分に基づいて変形し、前記変形された正弦波成分のアンプ成分の大きさに応じて該変形された残差成分の傾きを制御する残差成分変形工程と、前記残差成分変形工程において得られた残差成分にピッチ成分およびその倍音成分を付加する付加工程と、前記正弦波成分変形工程において変形され、傾きの制御された正弦波成分と、前記付加工程においてピッチ成分およびその倍音成分が付加された残差成分とを合成する合成工程とを具備することを特徴としている。
【0011】
請求項6記載の構成は、請求項5記載の構成において、前記正弦波成分変形工程により得られた正弦波成分のピッチを、前記付加工程における通過域のピークのピッチとするピッチ決定工程を具備し、前記付加工程においては、前記ピッチ決定工程により前記ピークのピッチが定められた前記通過域に対応する前記残差成分を通過させることによって、前記残差成分にピッチ成分およびその倍音成分を付加することを特徴としている。
【0012】
本発明によれば、入力された音声信号から抽出した正弦波成分及び残差成分とを、ターゲット音声信号の正弦波成分または残差成分に基づいて各々変形する。
次いで、変形された正弦波成分と残差成分とを合成する前に、残差成分にピッチ成分およびその倍音成分を付加する。
したがって、最終的には、正弦波成分のピッチ成分のみが聴取されることになり、音声の自然性を向上させることが可能となる。
【0013】
【発明の実施の形態】
[1] 実施形態の概要処理
始めに、実施形態の概要処理について説明する。
[1.1] ステップS1
まず、ものまねをしようとする歌唱者(me)の音声(入力音声信号)をリアルタイムでFFT(Fast Fourie Transform)を含むSMS(Spectral Modeling Synthesis)分析を行い、フレーム単位で正弦波成分(Sine成分)を抽出するとともに、入力音声信号及び正弦波成分からフレーム単位で残差成分(Residual成分)Rmeを生成する。これと並行して入力音声信号が無声音(含む無音)か否かを判別し、無声音である場合には、以下のステップS2〜ステップS6の処理は行わず、入力音声信号をそのまま出力することとなる。
この場合において、SMS分析としては、前回のフレームにおけるピッチに応じて分析窓幅を変更するピッチ同期分析を採用している。
【0014】
[1.2] ステップS2
次に入力音声信号が有声音である場合には、抽出した正弦波成分からさらに元属性(Attribute)データであるピッチ(Pitch)、アンプ(Amplitude)及びスペクトラル・シェイプ(Spectral Shape)を抽出する。さらに抽出したピッチ及びアンプについては、ビブラート成分及びビブラート成分以外の他の成分に分離する。
【0015】
[1.3] ステップS3
予め記憶(保存)してあるものまねの対象(Target)となる歌唱者の属性データ(ターゲット属性データ=ピッチ、アンプ及びスペクトラル・シェイプ)から、ものまねをしようとする歌唱者(me)の入力音声信号のフレームに対応するフレームのターゲット属性データ(=ピッチ、アンプ及びスペクトラル・シェイプ)を取り出す。この場合において、ものまねをしようとする歌唱者(me)の入力音声信号のフレームに対応するフレームのターゲット属性データが存在しない場合には、後に詳述するように、予め定めたイージーシンクロナイゼーション規則(Easy Synchronization Rule)に従って、ターゲット属性データを生成し、同様の処理を行う。
【0016】
[1.4] ステップS4
次にものまねをしようとする歌唱者(me)に対応する元属性データ及びものまねの対象となる歌唱者に対応するターゲット属性データを適宜選択して組み合わせることにより、新しい属性データ(新属性データ=ピッチ、アンプ及びスペクトラル・シェイプ)を得る。なお、ものまねではなく、単なる音声変換として用いる場合には、元属性データ及びターゲット属性データの加算平均として新属性データを得るなどの元属性データ及びターゲット属性データの双方に基づいて計算により新属性データを得るようにすることも可能である。
【0017】
[1.5] ステップS5
つづいて得られた新属性データに基づいて、当該フレームの正弦波成分SINnewを求める。さらに、該正弦波成分SINnewのアンプ、スペクトラル・シェープ等を変形し、正弦波成分SINnew'を生成する。
[1.6] ステップS6
また、ステップS1で求めた入力音声信号の残差成分Rme(f)を、ターゲットの残差成分Rtar(f)に基づいて変形し、新たな残差成分Rnew(f)を求める。
【0018】
[1.7] ステップS7
また、変形した正弦波成分SINnew'のピッチPattをくし形フィルタのピッチ(Pcomb)とする。
[1.8] ステップS8
つづいて、得られたピッチPcombに基づいて、くし形フィルタを構成し、ステップS6で求めた残差成分Rnew(f)をフィルタリングすることで、残差成分Rnew(f)にピッチ成分およびその倍音成分を付加し、新たな残差成分Rnew'(f)を取得する。
【0019】
[1.9] ステップS9
そして、ステップS5で求めた正弦波成分SINnew'と、ステップS8で求めた新たな残差成分Rnew'(f)とを合成した後、逆FFTを行い、変換音声信号を得る。
[1.10] まとめ
これらの処理の結果得られる変換音声信号によれば、再生される音声は、物まねをしようとする歌唱者の歌声が、あたかも、別の歌唱者(ターゲットの歌唱者)が歌った歌声のようになる。さらに、残差成分Rnew(f)にピッチ成分およびその倍音成分が付加されるので、最終的には、正弦波成分のピッチ成分のみが聴取されることになり、音声の自然性を損なうことがない。
【0020】
[2] 実施形態の詳細構成
次に図面を参照してこの発明の実施形態について説明する。
図1及び図2に、実施形態の詳細構成図を示す。なお、本実施形態は、本発明による音声変換装置(音声変換方法)をカラオケ装置に適用し、ものまねを行うことができるカラオケ装置として構成した場合の例である。
図1において、マイク1は、ものまねをしようとする歌唱者(me)の声を収集し、入力音声信号Svとして入力音声信号切出部3に出力する。
【0021】
これと並行して、分析窓生成部2は、前回のフレームで検出したピッチの周期の固定倍(例えば、3.5倍など)の周期を有する分析窓(例えば、ハミング窓)AWを生成し、入力音声信号切出部3に出力する。なお、初期状態あるいは前回のフレームが無声音(含む無音)の場合には、予め設定した固定周期の分析窓を分析窓AWとして入力音声信号切出部3に出力する。
これらにより入力音声信号切出部3は、入力された分析窓AWと入力音声信号Svとを掛け合わせ、入力音声信号Svをフレーム単位で切り出し、フレーム音声信号FSvとして高速フーリエ変換部4に出力する。
より具体的には、入力音声信号Svとフレームとの関係は、図3に示すようになっており、各フレームFLは、前のフレームFLと一部重なるように設定されている。
【0022】
そして、高速フーリエ変換部4においてフレーム音声信号FSvは、解析処理されるとともに、図4に示すように、高速フーリエ変換部4の出力である周波数スペクトルからピーク検出部5によりローカルピークが検出される。
より具体的には、図4に示すような周波数スペクトルに対して、×印を付けたローカルピークを検出する。このローカルピークは、周波数値とアンプ(振幅)値の組み合わせとして表される。
すなわち、図4に示すように、(F0、A0)、(F1、A1)、(F2、A2)、……、(FN、AN)というように各フレームについてローカルピークが検出され、表されることとなる。
【0023】
そして、図3に模式的に示すように、各フレーム毎に一組(以下、ローカルピーク組という。)として無声/有声検出部6及びピーク連携部8に出力される。無声/有声検出部6は、入力されたフレーム毎のローカルピークに基づいて、高周波成分の大きさに応じて無声であることを検出('t'、'k'等)し、無声/有声検出信号U/Vmeをピッチ検出部7、イージーシンクロナイゼーション処理部22及びクロスフェーダ30に出力する。あるいは、時間軸上で単位時間あたりの零クロス数に応じて無声であることを検出('s'等)し、元無声/有声検出信号U/Vmeをピッチ検出部7、イージーシンクロナイゼーション処理部22及びクロスフェーダ30に出力する。
【0024】
さらに無声/有声検出部6は、入力されたフレームについて無声であると検出されなかった場合には、入力されたローカルピーク組をそのまま、ピッチ検出部7に出力する。
ピッチ検出部7は、入力されたローカルピーク組に基づいて、当該ローカルピーク組が対応するフレームのピッチPmeを検出する。
より具体的なフレームのピッチPmeの検出方法としては、例えば、Maher,R.C.andJ.W.Beauchamp:"Fundamental Frequency Estimation of Musical Signal using a two-way Mismatch Procedure"(Journal of Acounstical Society of America95(4):2254-2263)に開示されているような方法で行う。
【0025】
次に、ピーク検出部5から出力されたローカルピーク組は、ピーク連携部8において、前後のフレームについて連携が判断され、連携すると認められるローカルピークについては、一連のデータ列となるようにローカルピークをつなげる連携処理がなされる。
ここで、この連携処理について、図5を参照して説明する。
今、図5(A)に示すようなローカルピークが前回のフレームにおいて検出され、図5(B)に示すようなローカルピークが今回のフレームにおいて検出されたとする。
【0026】
この場合、ピーク連携部8は、前回のフレームで検出された各ローカルピーク(F0、A0)、(F1、A1)、(F2、A2)、……、(FN、AN)に対応するローカルピークが今回のフレームでも検出されたか否かを調べる。対応するローカルピークがあるか否かの判断は、前回のフレームで検出されたローカルピークの周波数を中心にした所定範囲内に今回のフレームのローカルピークが検出されるか否かによって行われる。
より具体的には、図5の例では、ローカルピーク(F0、A0)、(F1、A1)、(F2、A2)……については、対応するローカルピークが検出されているが、ローカルピーク(FK、AK)については(図5(A)参照)、対応するローカルピーク(図5(B)参照)は検出されていない。
【0027】
ピーク連携部8は、対応するローカルピークを検出した場合は、それらを時系列順に繋げて一組のデータ列として出力する。なお、対応するローカルピークが検出されない場合は、当該フレームについての対応ローカルピークは無しということを示すデータに置き換える。
ここで、図6は、複数のフレームにわたるローカルピークの周波数F0及び周波数F1の変化の一例を示している。このような変化は、アンプ(振幅)A0、A1、A2、……についても同様に認められる。この場合、ピーク連携部8から出力されるデータ列は、フレームの間隔おきに出力される離散的な値である。
【0028】
なお、ピーク連携部8から出力されるピーク値を、以後において、確定成分という。これは、元の信号(すなわち、音声信号Sv)のうち正弦波の要素として確定的に置き換えられる成分という意味である。また、置き換えられた各正弦波(厳密には、正弦波のパラメータである周波数及びアンプ(振幅))の各々については、正弦波成分と呼ぶことにする。
次に、補間合成部9は、ピーク連携部8から出力される確定成分について補間処理を行い、補間後の確定成分に基づいていわゆるオシレータ方式で波形合成を行う。この場合の補間の間隔は、後述する出力部34が出力する最終出力信号のサンプリングレート(例えば、44.1KHz)に対応した間隔で行われる。前述した図6に示す実線は、正弦波成分の周波数F0、F1について補間処理が行われた場合のイメージを示している。
【0029】
[2.1] 補間合成部の構成
ここで、補間合成部9の構成を図7に示す。
補間合成部9は、複数の部分波形発生部9aを備えて構成されており、各部分波形発生部9aは、指定された正弦波成分の周波数(F0、F1、…)およびアンプ(振幅)に応じた正弦波を発生する。ただし、本第1実施形態における正弦波成分(F0、A0)、(F1、A1)、(F2、A2)、……は、各々補間の間隔に従って時事刻々変化していくものであるから、各部分波形発生部9aから出力される波形は、その変化に従った波形になる。すなわち、ピーク連携部8からは正弦波成分(F0、A0)、(F1、A1)、(F2、A2)、……が順次出力され、各正弦波成分の各々について補間処理が行われるから、各部分波形発生部9aは、所定の周波数領域内で周波数と振幅が変動する波形を出力する。そして、各部分波形発生部9aから出力された波形は、加算部9bにおいて加算合成される。したがって、補間合成部9の出力信号は、入力音声信号Svから確定成分を抽出した正弦波成分合成信号SSSになる。
【0030】
[2.2] 残差成分検出部の動作
次に、残差成分検出部10は、補間合成部9から出力された正弦波成分合成信号SSSと入力音声信号Svとの偏差である残差成分信号SRD(時間波形)を生成する。この残差成分信号SRDは、音声に含まれる無声成分を多く含む。一方、前述の正弦波成分合成信号SSSは有声成分に対応するものである。
ところで、目標(Target)となる歌唱者の声に似せるには、有声音についてだけ処理を行えば、無声音については処理を施す必要はあまりない。
そこで、本実施形態においては、有声母音成分に対応する確定成分について音声変換処理を行うようにしている。より具体的には、残差成分信号SRDについては、高速フーリエ変換部11で、周波数波形に変換し、得られた残差成分信号(周波数波形)をRme(f)として残差成分保持部12に保持しておく。
【0031】
[2.3] 平均アンプ演算部の動作
一方、図8(A)に示すように、ピーク検出部5からピーク連携部8を介して出力された正弦波成分(F0、A0)、(F1、A1)、(F2、A2)、……、(F(N-1)、A(N-1))のN個の正弦波成分(以下、これらをまとめてFn、Anと表記する。n=0〜(N−1)。)は、正弦波成分保持部13に保持されるとともに、アンプAnは平均アンプ演算部14に入力され、各フレーム毎に次式により平均アンプAmeが算出される。
Ame=Σ(An)/N
【0032】
[2.4] アンプ正規化部の動作
次にアンプ正規化部15において、次式により各アンプAnを平均アンプAmeで正規化し、正規化アンプA'nを求める。
A'n=An/Ame
[2.5] スペクトラル・シェイプ演算部の動作
そして、スペクトラル・シェイプ演算部16において、図8(B)に示すように、周波数Fn及び正規化アンプA'nにより得られる正弦波成分(Fn、A'n)をブレークポイントとするエンベロープ(包絡線)をスペクトラル・シェイプSme(f)として生成する。
この場合において、二つのブレークポイント間の周波数におけるアンプの値は、当該二つのブレークポイントを、例えば、直線補間することにより算出する。なお、補間の方法は直線補間に限られるものではない。
【0033】
[2.6] ピッチ正規化部の動作
続いてピッチ正規化部17においては、各周波数Fnをピッチ検出部7において検出したピッチPmeで正規化し、正規化周波数F'nを求める。
F'n=Fn/Pme
これらの結果、元フレーム情報保持部18は、入力音声信号Svに含まれる正弦波成分に対応する元属性データである平均アンプAme、ピッチPme、スペクトラル・シェイプSme(f)、正規化周波数F'nを保持することとなる。
なお、この場合において、正規化周波数F'nは、倍音列の周波数の相対値を表しており、もし、フレームの倍音構造を完全倍音構造であるとして取り扱うならば、保持する必要はない。
この場合において、男声/女声変換を行おうとしている場合には、この段階において、男声→女声変換を行う場合には、ピッチをオクターブ上げ、女声→男声変換を行う場合にはピッチをオクターブ下げる男声/女声ピッチ制御処理を行うようにするのが好ましい。
【0034】
つづいて、元フレーム情報保持部18に保持している元属性データのうち、平均アンプAmeおよびピッチPmeについては、さらに静的変化/ビブラート的変化分離部19により、フィルタリング処理などを行って、静的変化成分とビブラート変化的成分とに分離して保持する。なお、さらにビブラート変化的成分からより高周波変化成分であるジッタ変化的成分を分離するように構成することも可能である。
より具体的には、平均アンプAmeを平均アンプ静的成分Ame-sta及び平均アンプビブラート的成分Ame-vibとに分離して保持する。
また、ピッチPmeをピッチ静的成分Pme-sta及びピッチビブラート的成分Pme-vibとに分離して保持する。
【0035】
これらの結果、対応するフレームの元フレーム情報データINFmeは、図8(C)に示すように、入力音声信号Svの正弦波成分に対応する元属性データである平均アンプ静的成分Ame-sta、平均アンプビブラート的成分Ame-vib、ピッチ静的成分Pme-sta、ピッチビブラート的成分Pme-vib、スペクトラル・シェイプSme(f)、正規化周波数F'n及び残差成分Rme(f)の形で保持されることとなる。
【0036】
一方、ものまねの対象(target)となる歌唱者に対応するターゲット属性データから構成されるターゲットフレーム情報データINFtarは、予め分析されてターゲットフレーム情報保持部20を構成するハードディスクなどに予め保持されている。
この場合において、ターゲットフレーム情報データINFtarのうち、正弦波成分に対応するターゲット属性データとしては、平均アンプ静的成分Atar-sta、平均アンプビブラート的成分Atar-vib、ピッチ静的成分Ptar-sta、ピッチビブラート的成分Ptar-vib、スペクトラル・シェイプStar(f)がある。
また、ターゲットフレーム情報データINFtarのうち、残差成分に対応するターゲット属性データとしては、残差成分Rtar(f)がある。
【0037】
[2.7] キーコントロール/テンポチェンジ部の動作
次にキーコントロール/テンポチェンジ部21は、シーケンサ31からの同期信号SSYNCに基づいて、ターゲットフレーム情報保持部20から同期信号SSYNCに対応するフレームのターゲットフレーム情報INFtarの読出処理及び読み出したターゲットフレーム情報データINFtarを構成するターゲット属性データの補正処理を行うとともに、読み出したターゲットフレーム情報INFtarおよび当該フレームが無声であるか有声であるかを表すターゲット無声/有声検出信号U/Vtarを出力する。
【0038】
より具体的には、キーコントロール/テンポチェンジ部21の図示しないキーコントロールユニットは、カラオケ装置のキーを基準より上げ下げした場合、ターゲット属性データであるピッチ静的成分Ptar-sta及びピッチビブラート的成分Ptar-vibについても、同じだけ上げ下げする補正処理を行う。例えば、50[cent]だけキーを上げた場合には、ピッチ静的成分Ptar-sta及びピッチビブラート的成分Ptar-vibについても50[cent]だけ上げなければならない。
また、キーコントロール/テンポチェンジ部21の図示しないテンポチェンジユニットは、カラオケ装置のテンポを上げ下げした場合には、変更後のテンポに相当するタイミングで、ターゲットフレーム情報データINFtarの読み出し処理を行う必要がある。
【0039】
この場合において、必要なフレームに対応するタイミングに相当するターゲットフレーム情報データINFtarが存在しない場合には、当該必要なフレームのタイミングの前後のタイミングに存在する二つのフレームのターゲットフレーム情報データINFtarを読み出し、これら二つのターゲットフレーム情報データINFtarにより補間処理を行い、当該必要なタイミングにおけるフレームのターゲットフレーム情報データINFtar、ひいては、ターゲット属性データを生成する。
この場合において、ビブラート的成分(平均アンプビブラート的成分Atar-vib及びピッチビブラート的成分Ptar-vib)に関しては、そのままでは、ビブラートの周期自体が変化してしまい、不適当であるので、周期が変動しないような補間処理を行う必要がある。又は、ターゲット属性データとして、ビブラートの軌跡そのものを表すデータではなく、ビブラート周期及びビブラート深さのパラメータを保持し、実際の軌跡を演算により求めるようにすれば、この不具合を回避することができる。
【0040】
[2.8] イージーシンクロナイゼーション処理部の動作
次にイージーシンクロナイゼーション処理部22は、ものまねをしようとする歌唱者のフレーム(以下、元フレームという。)に元フレーム情報データINFmeが存在するにもかかわらず、対応するものまねの対象となる歌唱者のフレーム(以下、ターゲットフレームという。)にターゲットフレーム情報データINFtarが存在しない場合には、当該ターゲットフレームの前後方向に存在するフレームのターゲットフレーム情報データINFtarを当該ターゲットフレームのターゲットフレーム情報データINFtarとするイージーシンクロナイゼーション処理を行う。
【0041】
そして、イージーシンクロナイゼーション処理部22は、後述する置換済ターゲットフレーム情報データINFtar-syncに含まれるターゲット属性データのうち正弦波成分に関するターゲット属性データ(平均アンプ静的成分Atar-sync-sta、平均アンプビブラート的成分Atar-sync-vib、ピッチ静的成分Ptar-sync-sta、ピッチビブラート的成分Ptar-sync-vib及びスペクトラル・シェイプStar-sync(f))を正弦波成分属性データ選択部23に出力する。
また、イージーシンクロナイゼーション処理部22は、後述する置換済ターゲットフレーム情報データINFtar-syncに含まれるターゲット属性データのうち残差成分に関するターゲット属性データ(残差成分Rtar-sync(f))を残差成分選択部25に出力する。
【0042】
このイージーシンクロナイゼーション処理部22における処理においても、ビブラート的成分(平均アンプビブラート的成分Atar-vib及びピッチビブラート的成分Ptar-vib)に関しては、そのままでは、ビブラートの周期自体が変化してしまい、不適当であるので、周期が変動しないような補間処理を行う必要がある。又は、ターゲット属性データとして、ビブラートの軌跡そのものを表すデータではなく、ビブラート周期及びビブラート深さのパラメータを保持し、実際の軌跡を演算により求めるようにすれば、この不具合を回避することができる。
【0043】
[2.8.1] イージーシンクロナイゼーション処理の詳細
ここで、図9及び図10を参照してイージーシンクロナイゼーション処理について詳細に説明する。
図9は、イージーシンクロナイゼーション処理のタイミングチャートであり、図10はイージーシンクロナイゼーション処理フローチャートである。
まず、イージーシンクロナイゼーション処理部22は、シンクロナイゼーション処理の方法を表すシンクロナイゼーションモード="0"とする(ステップS11)。このシンクロナイゼーションモード="0"は、元フレームに対応するターゲットフレームにターゲットフレーム情報データINFtarが存在する通常処理の場合に相当する。
【0044】
そしてあるタイミングtにおける元無声/有声検出信号U/Vme(t)が無声(U)から有声(V)に変化したか否かを判別する(ステップS12)。
例えば、図9に示すように、タイミングt=t1においては、元無声/有声検出信号U/Vme(t)が無声(U)から有声(V)に変化している。
ステップS12の判別において、元無声/有声検出信号U/Vme(t)が無声(U)から有声(V)に変化している場合には(ステップS12;Yes)、タイミングtの前回のタイミングt-1における元無声/有声検出信号U/Vme(t-1)が無声(U)かつターゲット無声/有声検出信号U/Vtar(t-1)が無声(U)であるか否かを判別する(ステップS18)。
【0045】
例えば、図9に示すように、タイミングt=t0(=t1-1)においては、元無声/有声検出信号U/Vme(t-1)が無声(U)かつターゲット無声/有声検出信号U/Vtar(t-1)が無声(U)となっている。
ステップS18の判別において、元無声/有声検出信号U/Vme(t-1)が無声(U)かつターゲット無声/有声検出信号U/Vtar(t-1)が無声(U)となっている場合には(ステップS18;Yes)、当該ターゲットフレームには、ターゲットフレーム情報データINFtarが存在しないので、シンクロナイゼーションモード="1"とし、置換用のターゲットフレーム情報データINFholdを当該ターゲットフレームの後方向(Backward)に存在するフレームのターゲットフレーム情報とする。
【0046】
例えば、図9に示すように、タイミングt=t1〜t2のターゲットフレームには、ターゲットフレーム情報データINFtarが存在しないので、シンクロナイゼーションモード="1"とし、置換用ターゲットフレーム情報データINFholdを当該ターゲットフレームの後方向に存在するフレーム(すなわち、タイミングt=t2〜t3に存在するフレーム)のターゲットフレーム情報データbackwardとする。
そして、処理をステップS15に移行し、シンクロナイゼーションモード="0"であるか否かを判別する(ステップS15)。
【0047】
ステップS15の判別において、シンクロナイゼーションモード="0"である場合には、タイミングtにおける元フレームに対応するターゲットフレームにターゲットフレーム情報データINFtar(t)が存在する場合、すなわち、通常処理であるので、置換済ターゲットフレーム情報データINFtar-syncをターゲットフレーム情報データINFtar(t)とする。
INFtar-sync=INFtar(t)
例えば、図9に示すようにタイミングt=t2〜t3のターゲットフレームには、ターゲットフレーム情報データINFtarが存在するので、
INFtar-sync=INFtar(t)
とする。
【0048】
この場合において、以降の処理に用いられる置換済ターゲットフレーム情報データINFtar-syncに含まれるターゲット属性データ(平均アンプ静的成分Atar-sync-sta、平均アンプビブラート的成分Atar-sync-vib、ピッチ静的成分Ptar-sync-sta、ピッチビブラート的成分Ptar-sync-vib、スペクトラル・シェイプStar-sync(f)及び残差成分Rtar-sync(f))は実質的には、以下の内容となる(ステップS16)。
Atar-sync-sta=Atar-sta
Atar-sync-vib=Atar-vib
Ptar-sync-sta=Ptar-sta
Ptar-sync-vib=Ptar-vib
Star-sync(f)=Star(f)
Rtar-sync(f)=Rtar(f)
【0049】
ステップS15の判別において、シンクロナイゼーションモード="1"またはシンクロナイゼーションモード="2"である場合には、タイミングtにおける元フレームに対応するターゲットフレームにターゲットフレーム情報データINFtar(t)が存在しない場合であるので、置換済ターゲットフレーム情報データINFtar-syncを置換用ターゲットフレーム情報データINFholdとする。
INFtar-sync=INFhold
例えば、図9に示すように、タイミングt=t1〜t2のターゲットフレームには、ターゲットフレーム情報データINFtarが存在せず、シンクロナイゼーションモード="1"となるが、タイミングt=t2〜t3のターゲットフレームには、ターゲットフレーム情報データINFtarが存在するので、置換済ターゲットフレーム情報データINFtar-syncをタイミングt=t2〜t3のターゲットフレームのターゲットフレーム情報データである置換用ターゲットフレーム情報データINFholdとする処理P1を行い、以降の処理に用いられる置換済ターゲットフレーム情報データINFtar-syncに含まれるターゲット属性データは、平均アンプ静的成分Atar-sync-sta、平均アンプビブラート的成分Atar-sync-vib、ピッチ静的成分Ptar-sync-sta、ピッチビブラート的成分Ptar-sync-vib、スペクトラル・シェイプStar-sync(f)及び残差成分Rtar-sync(f)となる(ステップS16)。
【0050】
また、図9に示すように、タイミングt=t3〜t4のターゲットフレームには、ターゲットフレーム情報データINFtarが存在せず、シンクロナイゼーションモード="2"となるが、タイミングt=t2〜t3のターゲットフレームには、ターゲットフレーム情報データINFtarが存在するので、置換済ターゲットフレーム情報データINFtar-syncをタイミングt=t2〜t3のターゲットフレームのターゲットフレーム情報データである置換用ターゲットフレーム情報データINFholdとする処理P2を行い、以降の処理に用いられる置換済ターゲットフレーム情報データINFtar-syncに含まれるターゲット属性データは、平均アンプ静的成分Atar-sync-sta、平均アンプビブラート的成分Atar-sync-vib、ピッチ静的成分Ptar-sync-sta、ピッチビブラート的成分Ptar-sync-vib、スペクトラル・シェイプStar-sync(f)及び残差成分Rtar-sync(f)となる(ステップS16)。
【0051】
ステップS12の判別において、元無声/有声検出信号U/Vme(t)が無声(U)から有声(V)に変化していない場合には(ステップS12;No)、ターゲット無声/有声検出信号U/Vtar(t)が有声(V)から無声(U)に変化しているか否かを判別する(ステップS13)。
ステップS13の判別において、ターゲット無声/有声検出信号U/Vtar(t)が有声(V)から無声(U)に変化している場合には(ステップS13;Yes)、タイミングtの前回のタイミングt-1における元無声/有声検出信号U/Vme(t-1)が有声(V)かつターゲット無声/有声検出信号U/Vtar(t-1)が有声(V)であるか否かを判別する(ステップS19)。
【0052】
例えば、図9に示すように、タイミングt3においてターゲット無声/有声検出信号U/Vtar(t)が有声(V)から無声(U)に変化し、タイミングt-1=t2〜t3においては、元無声/有声検出信号U/Vme(t-1)が有声(V)かつターゲット無声/有声検出信号U/Vtar(t-1)が有声(U)となっている。
ステップS19の判別において、元無声/有声検出信号U/Vme(t-1)が有声(V)かつターゲット無声/有声検出信号U/Vtar(t-1)が有声(V)となっている場合には(ステップS19;Yes)、当該ターゲットフレームには、ターゲットフレーム情報データINFtarが存在しないので、シンクロナイゼーションモード="2"とし、置換用のターゲットフレーム情報データINFholdを当該ターゲットフレームの前方向(forward)に存在するフレームのターゲットフレーム情報とする。
【0053】
例えば、図9に示すように、タイミングt=t3〜t4のターゲットフレームには、ターゲットフレーム情報データINFtarが存在しないので、シンクロナイゼーションモード="2"とし、置換用ターゲットフレーム情報データINFholdを当該ターゲットフレームの前方向に存在するフレーム(すなわち、タイミングt=t2〜t3に存在するフレーム)のターゲットフレーム情報データforwardとする。
そして、処理をステップS15に移行し、シンクロナイゼーションモード="0"であるか否かを判別して(ステップS15)、以下、同様の処理を行う。
ステップS13の判別において、ターゲット無声/有声検出信号U/Vtar(t)が有声(V)から無声(U)に変化していない場合には(ステップS13;No)、タイミングtにおける元無声/有声検出信号U/Vme(t)が有声(V)から無声(U)に変化し、あるいは、ターゲット無声/有声検出信号U/Vtar(t)が無声(U)から有声(V)に変化しているか否かを判別する(ステップS14)。
【0054】
ステップS14の判別において、タイミングtにおける元無声/有声検出信号U/Vme(t)が有声(V)から無声(U)に変化し、かつ、ターゲット無声/有声検出信号U/Vtar(t)が無声(U)から有声(V)に変化している場合には(ステップS14;Yes)、シンクロナイゼーションモード="0"とし、置換用ターゲットフレーム情報データINFholdを初期化(clear)し、処理をステップS15に移行して、以下、同様の処理を行う。
ステップS14の判別において、タイミングtにおける元無声/有声検出信号U/Vme(t)が有声(V)から無声(U)に変化せず、かつ、ターゲット無声/有声検出信号U/Vtar(t)が無声(U)から有声(V)に変化していない場合には(ステップS14;No)、そのまま処理をステップS15に移行し、以下同様の処理を行う。
【0055】
[2.9] 正弦波成分属性データ選択部の動作
続いて、正弦波成分属性データ選択部23は、イージーシンクロナイゼーション処理部22から入力された置換済ターゲットフレーム情報データINFtar-syncに含まれるターゲット属性データのうち正弦波成分に関するターゲット属性データ(平均アンプ静的成分Atar-sync-sta、平均アンプビブラート的成分Atar-sync-vib、ピッチ静的成分Ptar-sync-sta、ピッチビブラート的成分Ptar-sync-vib及びスペクトラル・シェイプStar-sync(f))及びコントローラ29から入力される正弦波成分属性データ選択情報に基づいて、新しい正弦波成分属性データである新規アンプ成分Anew、新規ピッチ成分Pnew及び新規スペクトラル・シェイプSnew(f)を生成する。
【0056】
すなわち、新規アンプ成分Anewについては、次式により生成する。
Anew=A*-sta+A*-vib(ただし、*は、me又はtar-sync)
より具体的には、図8(D)に示すように、新規アンプ成分Anewを元属性データの平均アンプ静的成分Ame-staあるいはターゲット属性データの平均アンプ静的成分Atar-sync-staのいずれか一方及び元属性データの平均アンプビブラート的成分Ame-vibあるいはターゲット属性データの平均アンプビブラート的成分Atar-sync-vibのいずれか一方の組み合わせとして生成する。
また、新規ピッチ成分Pnewについては、次式により生成する。
Pnew=P*-sta+P*-vib(ただし、*は、me又はtar-sync)
【0057】
より具体的には、図8(D)に示すように、新規ピッチ成分Pnewを元属性データのピッチ静的成分Pme-staあるいはターゲット属性データのピッチ静的成分Ptar-sync-staのいずれか一方及び元属性データのピッチビブラート的成分Pme-vibあるいはターゲット属性データのピッチビブラート的成分Ptar-sync-vibのいずれか一方の組み合わせとして生成する。
また、新規スペクトラル・シェイプSnew(f)については、次式により生成する。
Snew(f)=S*(f)(ただし、*は、me又はtar-sync)
【0058】
ところで、一般的にアンプ成分が大きい場合には、高域まで伸びた抜けの明るい音となり、アンプ成分が小さい場合には、逆にこもった音になる。そこで、新規スペクトラル・シェイプSnew(f)に関しては、このような状態をシミュレートすべく、図11に示すように、スペクトラル・シェイプの高域成分、すなわち、高域成分部分のスペクトラル・シェイプの傾きを新規アンプ成分Anewの大きさに応じて補償するスペクトラルチルト補償(spectral tilt correction)を行って、コントロールすることにより、よりリアルな音声を再生することができる。続いて、生成された新規アンプ成分Anew、新規ピッチ成分Pnew及び新規スペクトラル・シェイプSnew(f)について、必要に応じてコントローラ29から入力される正弦波成分属性データ変形情報に基づいて、属性データ変形部24によりさらなる変形を行う。例えば、スペクトラル・シェイプを全体的に間延びさせる等の変形を行う。属性データ変形部24は、変形後の正弦波成分のピッチPattをピッチ決定部40へ供給する。
【0059】
[2.10] 残差成分選択部の動作
一方、残差成分選択部25は、イージーシンクロナイゼーション処理部22から入力された置換済ターゲットフレーム情報データINFtar-syncに含まれるターゲット属性データのうち残差成分に関するターゲット属性データ(残差成分Rtar-sync(f))、残差成分保持部12に保持されている残差成分信号(周波数波形)Rme(f)及びコントローラ29から入力される残差成分属性データ選択情報に基づいて新しい残差成分属性データである新規残差成分Rnew(f)を生成する。
すなわち、新規残差成分Rnew(f)については、次式により生成する。
Rnew(f)=R*(f)(ただし、*は、me又はtar-sync)
【0060】
この場合においては、me又はtar-syncのいずれを選択するかは、新規スペクトラル・シェイプSnew(f)と同一のものを選択するのがより好ましい。
さらに、新規残差成分Rnew(f)に関しても、新規スペクトラル・シェイプと同様な状態をシミュレートすべく、図11に示したように、残差成分の高域成分、すなわち、高域成分部分の残差成分の傾きを新規アンプ成分Anewの大きさに応じて補償するスペクトラルチルト補償(spectral tilt correction)を行って、コントロールすることにより、よりリアルな音声を再生することができる。
【0061】
[2.11] 正弦波成分生成部の動作
続いて、正弦波成分生成部26は、属性データ変形部24から出力された変形を伴わない、あるいは、変形を伴う新規アンプ成分Anew、新規ピッチ成分Pnew及び新規スペクトラル・シェイプSnew(f)に基づいて、当該フレームにおける新たな正弦波成分(F"0、A"0)、(F"1、A"1)、(F"2、A"2)、……、(F"(N-1)、A"(N-1))のN個の正弦波成分(以下、これらをまとめてF"n、A"nと表記する。n=0〜(N−1)。)を求める。
より具体的には、次式により新規周波数F"nおよび新規アンプA"nを求める。
F"n=F'n×Pnew
A"n=Snew(F"n)×Anew
なお、完全倍音構造のモデルとして捉えるのであれば、
F"n=(n+1)×Pnew
となる。
【0062】
[2.12] 正弦波成分変形部の動作
さらに、求めた新規周波数F"nおよび新規アンプA"nについて、必要に応じてコントローラ29から入力される正弦波成分変形情報に基づいて、正弦波成分変形部27によりさらなる変形を行う。例えば、偶数次成分の新規アンプA"n(=A"0、A"2、A"4、……)だけを大きく(例えば、2倍する)等の変形を行う。これによって得られる変換音声にさらにバラエティーを持たせることが可能となる。
【0063】
[2.13] ピッチ決定部の動作
くし形フィルタのピッチ決定部40は、属性データ変形部24からのピッチPattをくし形フィルタのピッチ(Pcomb)とし、くし形フィルタ処理部41へ供給する。
【0064】
[2.14] くし形フィルタ処理部の動作
くし形フィルタ処理部41は、ピッチPcombを用いて、くし形フィルタを構成し、該くし形フィルタで残差成分Rnew(f)をフィルタリングすることで、残差成分Rnew(f)ピッチ成分およびその倍音成分を付加し、新たな残差成分Rnew'(f)として、逆高速フーリエ変換部28へ供給する。ここで、図12は、ピッチPcombを200Hzとした場合のくし形フィルタの特性例を示す概念図である。このように、残差成分を周波数軸上で保持している場合には、ピッチPcombに基づいて周波数軸上でくし形フィルタを構成する。
【0065】
[2.15] 逆高速フーリエ変換部の動作
次に逆高速フーリエ変換部28は、求めた新規周波数F"nおよび新規アンプA"n(=新規正弦波成分)並びに新規残差成分Rnew'(f)をFFTバッファに格納し、順次逆FFTを行い、さらに得られた時間軸信号を一部重複するようにオーバーラップ処理し、それらを加算する加算処理を行うことにより新しい有声音の時間軸信号である変換音声信号を生成する。
【0066】
このとき、コントローラ29から入力される正弦波成分/残差成分バランス制御信号に基づいて、正弦波成分及び残差成分の混合比率を制御し、よりリアルな有声信号を得る。この場合において、一般的には、残差成分の混合比率を大きくするとざらついた声が得られる。
この場合において、FFTバッファに新規周波数F"nおよび新規アンプA"n(=新規正弦波成分)並びに新規残差成分Rnew(f)を格納するに際し、異なるピッチ、かつ、適当なピッチで変換された正弦波成分をさらに加えることにより変換音声信号としてハーモニーを得ることができる。さらにシーケンサ31により伴奏音に適合したハーモニーピッチを与えることにより、伴奏に適合した音楽的ハーモニーを得ることができる。
【0067】
[2.16] クロスフェーダの動作
次にクロスフェーダ30は、元無声/有声検出信号U/Vme(t)に基づいて、入力音声信号Svが無声(U)である場合には、入力音声信号Svをそのままミキサ30に出力する。
また、入力音声信号Svが有声(V)である場合には、逆高速フーリエ変換変換部28が出力した変換音声信号をミキサ33に出力する。
この場合において、切替スイッチとしてクロスフェーダ30を用いているのは、クロスフェード動作を行わせることによりスイッチ切替時のクリック音の発生を防止するためである。
【0068】
[2.17] シーケンサ、音源部、ミキサ及び出力部の動作
一方、シーケンサ31は、カラオケの伴奏音を発生するための音源制御情報を例えば、MIDI(Musical Instrument Digital Interface)データなどとして音源部32に出力する。
これにより音源部32は、音源制御情報に基づいて伴奏信号を生成し、ミキサ33に出力する。
ミキサ33は、入力音声信号Svあるいは変換音声信号のいずれか一方及び伴奏信号を混合し、混合信号を出力部34に出力する。
出力部34は、図示しない増幅器を有し混合信号を増幅して音響信号として出力することとなる。
【0069】
[3] 実施形態の変形例
[3.1] 第1変形例
以上の説明においては、属性データとしては、元属性データあるいはターゲット属性データのいずれかを選択的に用いる構成としていたが、元属性データ及びターゲット属性データの双方を用い、補間処理を行うことにより中間的な属性を有する変換音声信号を得るように構成することも可能である。
しかしながら、このような構成によれば、ものまねをしようとする歌唱者及びものまねの対象(target)となる歌唱者のいずれにも似ていない変換音声が得られる場合もある。
また、特にスペクトラル・シェイプを補間処理によって求めた場合には、ものまねをしようとする歌唱者が「あ」を発音し、ものまねの対象となる歌唱者が「い」を発音している場合などには、「あ」でも「い」でもない音が変換音声として出力される可能性があり、その取扱には注意が必要である。
【0070】
[3.2] 第2変形例
正弦波成分の抽出は、この実施形態で用いた方法に限らない。要は、音声信号に含まれる正弦波を抽出できればよい。
[3.3] 第3変形例
本実施形態においては、ターゲットの正弦波成分及び残差成分を記憶したが、これに換えて、ターゲットの音声そのものを記憶し、それを読み出してリアルタイム処理によって正弦波成分と残差成分とを抽出してもよい。すなわち、本実施形態でものまねをしようとする歌唱者の音声に対して行った処理と同様の処理をターゲットの歌唱者の音声に対して行ってもよい。
【0071】
[3.4] 第4変形例
本実施形態においては、属性データとして、ピッチ、アンプ、スペクトラル・シェイプの全てを取り扱ったが、少なくともいずれか一つを扱うようにすることも可能である。
[3.5] 第5変形例
本実施形態では、残差成分を周波数軸上で保持していたが、これに限らず、残差成分を時間軸上で保持するようにしてもよい。図13は、上述した実施形態の変形例の構成(一部)を示すブロック図である。また、図14は、くし形フィルタ(遅延フィルタ)の構成の一例を示すブロック図である。なお、図1に対応する部分には同一の符号を付けて説明を省略する。図において、くし形フィルタ処理部42は、ピッチ決定部40で決定されたピッチPcombの逆数をディレイタイムとする、くし形フィルタ(遅延フィルタ)を構成し、該くし形フィルタで残差成分Rnew(t)をフィルタリングし、残差成分Rnew''(t)として加算器43に供給する。加算器43は、残差成分Rnew(t)に上記フィルタリングされた残差成分Rnew''(t)を加算することで、残差成分Rnew(t)にピッチ成分およびその倍音成分を付加し、新たな残差成分Rnew'(t)として、IFFT処理部8へ供給する。
このように、残差成分を時間軸上で処理する場合であっても、上述した実施形態と同様に、残差成分Rnew(t)にピッチ成分およびその倍音成分を付加することが可能となる。したがって、最終的に出力される音声には、正弦波成分のピッチ成分のみが聴取されることになり、音声の自然性を向上させることができる。
【0072】
[4] 実施形態の効果
以上の結果、カラオケの伴奏とともに、歌唱者の歌が出力されるが、その声質および歌い方などは、ターゲットの影響を大きく受け、ターゲットそのものの声質および歌い方となる。このようにして、あたかもターゲットの物まねをしているような歌が出力される。
また、残差成分Rnew(f)にピッチ成分およびその倍音成分が付加されることにより残差成分は正弦波成分と等しいピッチ成分を有することとなるので、正弦波成分と合成することにより合成された音声は音程が保たれ、音声の自然性を損なうことがない。
【0073】
【発明の効果】
以上、説明したように、本発明によれば、入力音声信号から抽出した正弦波成分と、残差成分とを、ターゲット音声の正弦波成分または残差成分に基づいて各々変形し、次いで、正弦波成分と残差成分とを合成する前に、変形した残差成分にピッチ成分およびその倍音成分を付加するようにしたので、合成することにより得られる音声は音程が保たれ、自然性を損なうことなく、ものまねしようとする歌唱者の音声(入力された音声)からものまねの対象となるターゲット歌唱者の声質や歌い方が反映された変換音声を得ることが容易にできる。
【図面の簡単な説明】
【図1】 本発明の一実施形態の構成を示すブロック図(その1)である。
【図2】 本発明の一実施形態の構成を示すブロック図(その2)である。
【図3】 実施形態におけるフレームの状態を示す図である。
【図4】 実施形態における周波数スペクトルのピーク検出を説明するための説明図である。
【図5】 実施形態におけるフレーム毎のピーク値の連携を示す図である

【図6】 実施形態における周波数値の変化状態を示す図である。
【図7】 実施形態における処理過程における確定成分の変化状態を示す図である。
【図8】 実施形態における信号処理の説明図である。
【図9】 イージーシンクロナイゼーション処理のタイミングチャートである。
【図10】 イージーシンクロナイゼーション処理フローチャートである。
【図11】 スペクトラル・シェイプのスペクトラルチルト補償について説明する図である。
【図12】 くし形フィルタの特性(ピッチPcombを200Hzとした場合)を説明するための概念図である。
【図13】 本発明の変形例による音声変換装置の構成(一部)を示すブロック図である。
【図14】 くし形フィルタ(遅延フィルタ)の構成の一例を示すブロック図である。
【符号の説明】
1…マイク、2…分析窓生成部、3…入力音声信号切出部、4…高速フーリエ変換部、5…ピーク検出部、6…無声/有声検出部、7…ピッチ抽出部、8…ピーク連携部、9…補間合成部、10…残差成分検出部、11…高速フーリエ変換部、12…残差成分保持部、13…正弦波成分保持部、14…平均アンプ演算部、15…アンプ正規化部、16…スペクトラル・シェイプ演算部、17…ピッチ正規化部、18…元フレーム情報保持部、19…静的変化/ビブラート的変化分離部、20…ターゲットフレーム情報保持部、21…キーコントロール/テンポチェンジ部、22…イージーシンクロナイゼーション処理部、23…正弦波成分属性データ選択部、24…属性データ変形部、25…残差成分選択部、26…正弦波成分生成部、27…正弦波成分変形部、28…逆高速フーリエ変換部、29…コントローラ、30…クロスフェーダ、31…シーケンサ、32…音源部、33…ミキサ、34…出力部、40…ピッチ決定部、41,42…くし形フィルタ処理部、43…加算器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice conversion device and a voice conversion method, and in particular, a singing voice is sung by another person so that the singing voice of a singer becomes a voice of a specific singer who is a target of voice conversion, especially in karaoke or the like. The present invention relates to a voice conversion device and a voice conversion method for converting to a voice.
[0002]
[Prior art]
Various voice conversion devices that change the frequency characteristics of the input voice and the like have been developed. For example, in a karaoke device, the pitch of a singer's singing voice is converted to convert a male voice into a female voice. Some are converted into a voice or vice versa (for example, refer to Japanese Patent Publication No. 8-508581).
[0003]
[Problems to be solved by the invention]
However, in the conventional voice conversion device, although voice conversion (for example, male voice → female voice, female voice → male voice, etc.) is performed, it has only stopped changing the voice quality. For example, a specific singer (for example, It couldn't be converted to resemble the voice of a professional singer.
Also, if you have a function that imitates a specific singer, not only the voice quality, but also the way you sing, it will be very interesting in a karaoke device etc., but such processing is not possible with conventional speech conversion devices It was impossible.
[0004]
As a technique for solving these problems, signal processing represented by a sine wave (SIN) component that represents a speech signal by synthesis of a sine wave and a residual (RESIDUAL) component that cannot be represented by any other sine wave component, The voice signal (sine wave component, residual component) of a singer is transformed based on the voice signal (sine wave component, residual component) of a specific singer that is subject to speech conversion, An audio conversion device that generates an audio signal reflecting how to sing and outputs it together with the accompaniment can be considered.
[0005]
When such a speech conversion device is configured, since the residual component includes a pitch component, when the sine wave component and the residual component are respectively subjected to speech conversion processing and synthesized, the listener can obtain the sine wave component and the residual component. The pitch component included in each of the residual components is listened to.
In addition, when the pitch included in the residual component and its double voice are removed and combined with the sine wave component, the residual component does not have the pitch component, so that the pitch is not maintained, and the sine wave component and the residual sound component are not retained. Each difference component will be listened to.
Therefore, in any of the cases described above, the naturalness of the voice subjected to the voice conversion process may be impaired.
SUMMARY OF THE INVENTION An object of the present invention is to provide a voice conversion device and a voice conversion method that can convert voice without impairing the naturalness of the voice.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problem, the configuration according to claim 1 includes a sine wave component extraction unit that extracts a sine wave component from an input audio signal, and a sine wave component other than the sine wave component extracted by the sine wave component extraction unit. Residual component extraction means for extracting a residual component from the input speech signal, and sine wave component extracted by the sine wave component extraction means based on the sine wave component of the target speech signal And controlling the slope of the deformed sine wave component according to the magnitude of the amp component of the deformed sine wave component. A sine wave component deforming means for transforming the residual component extracted by the residual component extracting means based on the residual component of the target audio signal And controlling the slope of the deformed residual component according to the magnitude of the amp component of the deformed sinusoidal component. A residual component deforming means, an adding means for adding a pitch component and its overtone component to the residual component obtained by the residual component deforming means, and a sine wave component deforming means. The tilt is controlled And a synthesizing unit for synthesizing the sine wave component and the residual component to which the pitch component and its harmonic component are added by the adding unit.
[0007]
According to a second aspect of the present invention, there is provided the pitch determining means according to the first aspect, wherein the pitch of the sine wave component obtained by the sine wave component deforming means is a pitch of a peak of a pass band in the additional means. The adding means adds the pitch component and its overtone component to the residual component by passing the residual component corresponding to the passband in which the pitch of the peak is determined by the pitch determining means. It is characterized by doing.
[0008]
The configuration according to claim 3 is the claim. 2 In the configuration described above, the addition unit is a comb filter having a passband peak pitch determined by the pitch determination unit when the residual component is held on the frequency axis. Yes.
[0009]
The configuration of claim 4 is the 2 In the configuration described above, the addition unit has a delay filter that uses a reciprocal of the pitch of the passband peak determined by the pitch determination unit as a delay time when the residual component is held on the time axis. It is a comb filter.
[0010]
According to a fifth aspect of the present invention, there is provided a component extraction step of extracting a sine wave component and a residual component other than the sine wave component from an input voice, and the extracted sine wave component is converted into a sine wave of a target voice. Deformation based on components And controlling the slope of the deformed sine wave component according to the magnitude of the amp component of the deformed sine wave component. A sine wave component deformation step, and deforming the extracted residual component based on the residual component of the target speech And controlling the slope of the deformed residual component according to the magnitude of the amp component of the deformed sinusoidal component. A residual component transformation step, an addition step of adding a pitch component and its harmonic component to the residual component obtained in the residual component transformation step, and a deformation in the sine wave component transformation step. The tilt is controlled And a synthesizing step for synthesizing the sine wave component and the residual component to which the pitch component and its harmonic component are added in the adding step.
[0011]
The configuration of claim 6 is the configuration of claim 5, wherein the sine wave component deformation Process A pitch determining step in which the pitch of the sine wave component obtained by the step is used as the pitch of the passband peak in the adding step. In the adding step, a pitch component and its overtone component are added to the residual component by passing the residual component corresponding to the passband in which the pitch of the peak is determined in the pitch determining step. Do It is characterized by that.
[0012]
According to the present invention, the sine wave component and the residual component extracted from the input audio signal are each transformed based on the sine wave component or the residual component of the target audio signal.
Next, before synthesizing the modified sine wave component and the residual component, the pitch component and its harmonic component are added to the residual component.
Therefore, finally, only the pitch component of the sine wave component is heard, and the naturalness of the sound can be improved.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
[1] Outline processing of embodiment
First, an outline process of the embodiment will be described.
[1.1] Step S1
First, the voice (input audio signal) of the singer (me) trying to imitate is analyzed in real time by SMS (Spectral Modeling Synthesis) including FFT (Fast Fourie Transform), and the sine wave component (Sine component) in frame units And a residual component (Residual component) Rme in units of frames from the input audio signal and the sine wave component. In parallel with this, it is determined whether or not the input sound signal is an unvoiced sound (including silence). If the input sound signal is an unvoiced sound, the following steps S2 to S6 are not performed, and the input sound signal is output as it is. Become.
In this case, as the SMS analysis, pitch synchronization analysis is adopted in which the analysis window width is changed according to the pitch in the previous frame.
[0014]
[1.2] Step S2
Next, when the input audio signal is a voiced sound, a pitch (Pitch), an amplifier (Amplitude), and a spectral shape (Spectral Shape) which are original attribute data are further extracted from the extracted sine wave component. Further, the extracted pitch and amplifier are separated into components other than the vibrato component and the vibrato component.
[0015]
[1.3] Step S3
The input audio signal of the singer (me) who wants to imitate from the attribute data (target attribute data = pitch, amplifier and spectral shape) of the singer who is the target of the imitation (Target) stored in advance The target attribute data (= pitch, amplifier, and spectral shape) of the frame corresponding to the frame is extracted. In this case, when there is no target attribute data of the frame corresponding to the frame of the input voice signal of the singer (me) who tries to imitate, a predetermined easy synchronization rule as will be described later in detail. In accordance with (Easy Synchronization Rule), target attribute data is generated and the same processing is performed.
[0016]
[1.4] Step S4
Next, new attribute data (new attribute data = pitch) is obtained by appropriately selecting and combining the original attribute data corresponding to the singer (me) trying to imitate and the target attribute data corresponding to the singer to be imitated. , Amplifier and spectral shape). In addition, when used as mere speech conversion instead of imitation, new attribute data is calculated by calculation based on both original attribute data and target attribute data, such as obtaining new attribute data as an average of original attribute data and target attribute data. It is also possible to obtain
[0017]
[1.5] Step S5
Based on the new attribute data obtained subsequently, a sine wave component SINnew of the frame is obtained. Further, the sine wave component SINnew's amplifier, spectral shape, etc. are deformed to generate a sine wave component SINnew '.
[1.6] Step S6
Further, the residual component Rme (f) of the input speech signal obtained in step S1 is transformed based on the target residual component Rtar (f) to obtain a new residual component Rnew (f).
[0018]
[1.7] Step S7
Further, the pitch Patt of the deformed sine wave component SINnew ′ is set to the pitch (Pcomb) of the comb filter.
[1.8] Step S8
Subsequently, a comb filter is constructed based on the obtained pitch Pcomb, and the residual component Rnew (f) obtained in step S6 is filtered, so that the residual component Rnew (f) has a pitch component and its harmonics. The component is added to obtain a new residual component Rnew ′ (f).
[0019]
[1.9] Step S9
Then, after the sine wave component SINnew ′ obtained in step S5 and the new residual component Rnew ′ (f) obtained in step S8 are synthesized, inverse FFT is performed to obtain a converted speech signal.
[1.10] Summary
According to the converted audio signal obtained as a result of these processes, the reproduced voice is like a singing voice of a singer who tries to imitate, as if sung by another singer (target singer). Become. Furthermore, since the pitch component and its harmonic component are added to the residual component Rnew (f), only the pitch component of the sine wave component is finally heard, which may impair the naturalness of the sound. Absent.
[0020]
[2] Detailed configuration of the embodiment
Next, an embodiment of the present invention will be described with reference to the drawings.
1 and 2 are detailed configuration diagrams of the embodiment. This embodiment is an example of a case where the voice conversion device (voice conversion method) according to the present invention is applied to a karaoke device and configured as a karaoke device capable of performing imitation.
In FIG. 1, the microphone 1 collects the voice of a singer (me) trying to imitate and outputs it as an input audio signal Sv to the input audio signal cutout unit 3.
[0021]
In parallel with this, the analysis window generator 2 generates an analysis window (for example, a hamming window) AW having a fixed period (for example, 3.5 times) of the pitch period detected in the previous frame. And output to the input voice signal cutout unit 3. When the initial state or the previous frame is a silent sound (including silent sound), an analysis window having a preset fixed period is output to the input voice signal cutout unit 3 as an analysis window AW.
As a result, the input voice signal cutout unit 3 multiplies the input analysis window AW and the input voice signal Sv, cuts out the input voice signal Sv in units of frames, and outputs it to the fast Fourier transform unit 4 as the frame voice signal FSv. .
More specifically, the relationship between the input audio signal Sv and the frame is as shown in FIG. 3, and each frame FL is set to partially overlap the previous frame FL.
[0022]
The frame audio signal FSv is analyzed in the fast Fourier transform unit 4 and a local peak is detected by the peak detection unit 5 from the frequency spectrum output from the fast Fourier transform unit 4 as shown in FIG. .
More specifically, a local peak marked with x is detected for the frequency spectrum as shown in FIG. This local peak is expressed as a combination of a frequency value and an amplifier (amplitude) value.
That is, as shown in FIG. 4, local peaks are detected and expressed for each frame as (F0, A0), (F1, A1), (F2, A2),..., (FN, AN). It will be.
[0023]
Then, as schematically shown in FIG. 3, each frame is output to the unvoiced / voiced detection unit 6 and the peak link unit 8 as one set (hereinafter referred to as a local peak set). The unvoiced / voiced detection unit 6 detects unvoiced ('t', 'k', etc.) according to the magnitude of the high frequency component based on the input local peak for each frame, and detects unvoiced / voiced. The signal U / Vme is output to the pitch detection unit 7, the easy synchronization processing unit 22 and the cross fader 30. Alternatively, it is detected that the voice is unvoiced according to the number of zero crosses per unit time on the time axis (such as “s”), and the original voiceless / voiced detection signal U / Vme is detected by the pitch detector 7 and the easy synchronization process. Output to the unit 22 and the crossfader 30.
[0024]
Furthermore, if the unvoiced / voiced detection unit 6 does not detect that the input frame is unvoiced, the unvoiced / voiced detection unit 6 outputs the input local peak set to the pitch detection unit 7 as it is.
The pitch detector 7 detects the pitch Pme of the frame corresponding to the local peak set based on the input local peak set.
As a more specific method for detecting the frame pitch Pme, for example, Maher, RC and J.W. Beauchamp: “Fundamental Frequency Estimation of Musical Signal using a two-way Mismatch Procedure” (Journal of Acounstical Society of America 95 (4): 2254-2263).
[0025]
Next, the local peak set output from the peak detection unit 5 is determined in the peak linkage unit 8 for linkage between the previous and subsequent frames, and the local peaks recognized to be linked are local peaks so as to form a series of data strings. Cooperation process to connect
Here, this cooperation processing will be described with reference to FIG.
Assume that a local peak as shown in FIG. 5A is detected in the previous frame, and a local peak as shown in FIG. 5B is detected in the current frame.
[0026]
In this case, the peak link unit 8 performs local peaks corresponding to the local peaks (F0, A0), (F1, A1), (F2, A2),..., (FN, AN) detected in the previous frame. It is checked whether or not is detected even in the current frame. Whether or not there is a corresponding local peak is determined by whether or not the local peak of the current frame is detected within a predetermined range centered on the frequency of the local peak detected in the previous frame.
More specifically, in the example of FIG. 5, corresponding local peaks are detected for local peaks (F0, A0), (F1, A1), (F2, A2). For FK, AK (see FIG. 5A), the corresponding local peak (see FIG. 5B) is not detected.
[0027]
When the peak linking unit 8 detects corresponding local peaks, they are connected in time series order and output as a set of data strings. If no corresponding local peak is detected, the data is replaced with data indicating that there is no corresponding local peak for the frame.
Here, FIG. 6 shows an example of changes in the frequency F0 and the frequency F1 of the local peak over a plurality of frames. Such a change is similarly recognized for the amplifiers (amplitudes) A0, A1, A2,. In this case, the data string output from the peak cooperation unit 8 is a discrete value output at every frame interval.
[0028]
The peak value output from the peak cooperation unit 8 is hereinafter referred to as a deterministic component. This means that the original signal (that is, the audio signal Sv) is a component that is definitely replaced as a sine wave element. Further, each replaced sine wave (strictly speaking, the frequency and amplifier (amplitude) which are parameters of the sine wave) will be referred to as a sine wave component.
Next, the interpolation synthesis unit 9 performs an interpolation process on the deterministic component output from the peak cooperation unit 8 and performs waveform synthesis using a so-called oscillator method based on the deterministic component after the interpolation. In this case, the interpolation interval is performed at an interval corresponding to the sampling rate (for example, 44.1 KHz) of the final output signal output from the output unit 34 described later. The solid line shown in FIG. 6 described above shows an image when the interpolation processing is performed on the frequencies F0 and F1 of the sine wave component.
[0029]
[2.1] Configuration of interpolation / synthesis unit
Here, the configuration of the interpolation / synthesis unit 9 is shown in FIG.
The interpolation / synthesis unit 9 includes a plurality of partial waveform generation units 9a, and each partial waveform generation unit 9a has a frequency (F0, F1,...) And an amplifier (amplitude) of a specified sine wave component. A corresponding sine wave is generated. However, since the sine wave components (F0, A0), (F1, A1), (F2, A2),... In the first embodiment change each time according to the interpolation interval, The waveform output from the partial waveform generator 9a is a waveform according to the change. That is, the sine wave components (F0, A0), (F1, A1), (F2, A2),... Are sequentially output from the peak cooperation unit 8, and interpolation processing is performed for each sine wave component. Each partial waveform generator 9a outputs a waveform whose frequency and amplitude vary within a predetermined frequency region. The waveforms output from the partial waveform generators 9a are added and synthesized in the adder 9b. Therefore, the output signal of the interpolation synthesis unit 9 is a sine wave component synthesis signal SSS obtained by extracting a deterministic component from the input audio signal Sv.
[0030]
[2.2] Operation of residual component detector
Next, the residual component detection unit 10 generates a residual component signal SRD (time waveform) that is a deviation between the sine wave component synthesis signal SSS output from the interpolation synthesis unit 9 and the input speech signal Sv. This residual component signal SRD includes many unvoiced components included in the speech. On the other hand, the aforementioned sine wave component composite signal SSS corresponds to the voiced component.
By the way, in order to resemble a target singer's voice, if only the voiced sound is processed, it is not necessary to process the unvoiced sound.
Therefore, in the present embodiment, the speech conversion process is performed on the deterministic component corresponding to the voiced vowel component. More specifically, the residual component signal SRD is converted into a frequency waveform by the fast Fourier transform unit 11, and the residual component signal (frequency waveform) obtained is set as Rme (f) to the residual component holding unit 12. To keep.
[0031]
[2.3] Operation of average amplifier calculation unit
On the other hand, as shown in FIG. 8 (A), the sine wave components (F0, A0), (F1, A1), (F2, A2),... Output from the peak detection unit 5 via the peak cooperation unit 8. , (F (N-1), A (N-1)) N sine wave components (hereinafter collectively referred to as Fn and An, where n = 0 to (N-1)). While being held in the sine wave component holding unit 13, the amplifier An is input to the average amplifier calculation unit 14, and the average amplifier Ame is calculated by the following equation for each frame.
Ame = Σ (An) / N
[0032]
[2.4] Operation of amplifier normalization unit
Next, the amplifier normalization unit 15 normalizes each amplifier An with the average amplifier Ame according to the following equation to obtain a normalized amplifier A′n.
A'n = An / Ame
[2.5] Operation of the spectral shape calculation unit
Then, in the spectral shape calculation unit 16, as shown in FIG. 8B, an envelope (envelope) with the frequency Fn and the sine wave components (Fn, A′n) obtained by the normalizing amplifier A′n as breakpoints. Line) is generated as a spectral shape Sme (f).
In this case, the value of the amplifier at the frequency between the two breakpoints is calculated by, for example, linearly interpolating the two breakpoints. Note that the interpolation method is not limited to linear interpolation.
[0033]
[2.6] Operation of pitch normalization unit
Subsequently, the pitch normalization unit 17 normalizes each frequency Fn with the pitch Pme detected by the pitch detection unit 7 to obtain a normalized frequency F′n.
F'n = Fn / Pme
As a result, the original frame information holding unit 18 is the average amplifier Ame, the pitch Pme, the spectral shape Sme (f), and the normalized frequency F ′, which are the original attribute data corresponding to the sine wave component included in the input audio signal Sv. n will be held.
In this case, the normalized frequency F′n represents a relative value of the frequency of the harmonic sequence, and if the harmonic structure of the frame is handled as a complete harmonic structure, it is not necessary to hold it.
In this case, if male / female conversion is to be performed, at this stage, the male voice → female voice conversion increases the pitch by an octave, and the female voice → male voice conversion decreases the pitch by an octave. / It is preferable to perform female voice pitch control processing.
[0034]
Subsequently, among the original attribute data held in the original frame information holding unit 18, the average amplifier Ame and the pitch Pme are further filtered by the static change / vibrato change separation unit 19, so as to be static. Separately and keep the target change component and the vibrato change component. It is also possible to separate the jitter changing component, which is a higher frequency changing component, from the vibrato changing component.
More specifically, the average amplifier Ame is separated into an average amplifier static component Ame-sta and an average amplifier vibrato component Ame-vib.
Further, the pitch Pme is separated and held into a pitch static component Pme-sta and a pitch vibrato-like component Pme-vib.
[0035]
As a result, as shown in FIG. 8C, the original frame information data INFme of the corresponding frame is average amplifier static component Ame-sta, which is original attribute data corresponding to the sine wave component of the input audio signal Sv. Average amp vibrato component Ame-vib, pitch static component Pme-sta, pitch vibrato component Pme-vib, spectral shape Sme (f), normalized frequency F'n and residual component Rme (f) Will be held.
[0036]
On the other hand, target frame information data INFtar composed of target attribute data corresponding to a singer who is a target of imitation is preliminarily analyzed and held in advance in a hard disk or the like constituting the target frame information holding unit 20. .
In this case, among target frame information data INFtar, target attribute data corresponding to a sine wave component includes an average amplifier static component Atar-sta, an average amplifier vibrato-like component Atar-vib, a pitch static component Ptar-sta, There is a pitch vibrato-like component Ptar-vib and a spectral shape Star (f).
In the target frame information data INFtar, the target attribute data corresponding to the residual component includes a residual component Rtar (f).
[0037]
[2.7] Operation of key control / tempo change section
Next, the key control / tempo change unit 21 reads out the target frame information INFtar of the frame corresponding to the synchronization signal SSYNC from the target frame information holding unit 20 based on the synchronization signal SSYNC from the sequencer 31 and the read target frame information. The target attribute data constituting the data INFtar is corrected, and the read target frame information INFtar and the target unvoiced / voiced detection signal U / Vtar indicating whether the frame is unvoiced or voiced are output.
[0038]
More specifically, the key control unit (not shown) of the key control / tempo change unit 21 performs pitch static component Ptar-sta and pitch vibrato component Ptar which are target attribute data when the key of the karaoke apparatus is raised or lowered from the reference. For -vib, the same correction process is performed. For example, when the key is raised by 50 [cent], the pitch static component Ptar-sta and the pitch vibrato component Ptar-vib must also be raised by 50 [cent].
Further, when the tempo change unit (not shown) of the key control / tempo change unit 21 increases or decreases the tempo of the karaoke apparatus, it is necessary to read out the target frame information data INFtar at a timing corresponding to the changed tempo. is there.
[0039]
In this case, if the target frame information data INFtar corresponding to the timing corresponding to the necessary frame does not exist, the target frame information data INFtar of the two frames existing before and after the timing of the necessary frame is read. Interpolation processing is performed using these two target frame information data INFtar, and target frame information data INFtar of the frame at the necessary timing, and thus target attribute data are generated.
In this case, the vibrato component (the average amp vibrato component Atar-vib and the pitch vibrato component Ptar-vib) is not suitable as it is because the vibrato cycle itself is changed and is not suitable. It is necessary to perform interpolation processing that does not occur. Alternatively, if the target attribute data is not data representing the trajectory of the vibrato itself but the parameters of the vibrato period and the vibrato depth are held and the actual trajectory is obtained by calculation, this problem can be avoided.
[0040]
[2.8] Operation of the easy synchronization processing unit
Next, the easy synchronization processing unit 22 performs the singing that is the target of the corresponding imitation even though the original frame information data INFme exists in the frame of the singer who tries to imitate (hereinafter referred to as the original frame). If the target frame information data INFtar does not exist in the user's frame (hereinafter referred to as the target frame), the target frame information data INFtar of the frame existing in the front-rear direction of the target frame is used as the target frame information data INFtar of the target frame. The easy synchronization process is performed.
[0041]
Then, the easy synchronization processing unit 22 targets the target attribute data (average amplifier static component Atar-sync-sta, average) among the target attribute data included in the replaced target frame information data INFtar-sync described later. Amp vibrato-like component Atar-sync-vib, pitch static component Ptar-sync-sta, pitch vibrato-like component Ptar-sync-vib, and spectral shape Star-sync (f)) to sine wave component attribute data selection unit 23 Output.
Further, the easy synchronization processing unit 22 leaves target attribute data (residual component Rtar-sync (f)) related to the residual component among the target attribute data included in the replaced target frame information data INFtar-sync described later. The difference component selection unit 25 outputs the result.
[0042]
Even in the processing in the easy synchronization processing unit 22, the vibrato period itself changes with respect to the vibrato component (average amp vibrato component Atar-vib and pitch vibrato component Ptar-vib). Since it is inappropriate, it is necessary to perform an interpolation process so that the cycle does not fluctuate. Alternatively, if the target attribute data is not data representing the trajectory of the vibrato itself but the parameters of the vibrato period and the vibrato depth are held and the actual trajectory is obtained by calculation, this problem can be avoided.
[0043]
[2.8.1] Details of easy synchronization processing
Here, the easy synchronization process will be described in detail with reference to FIGS. 9 and 10.
FIG. 9 is a timing chart of the easy synchronization process, and FIG. 10 is a flowchart of the easy synchronization process.
First, the easy synchronization processing unit 22 sets the synchronization mode = “0” representing the synchronization processing method (step S11). The synchronization mode = “0” corresponds to a normal process in which the target frame information data INFtar exists in the target frame corresponding to the original frame.
[0044]
Then, it is determined whether or not the original unvoiced / voiced detection signal U / Vme (t) at a certain timing t has changed from unvoiced (U) to voiced (V) (step S12).
For example, as shown in FIG. 9, at the timing t = t1, the original unvoiced / voiced detection signal U / Vme (t) changes from unvoiced (U) to voiced (V).
When the original unvoiced / voiced detection signal U / Vme (t) is changed from unvoiced (U) to voiced (V) in the determination in step S12 (step S12; Yes), the previous timing t of timing t. Whether or not the original unvoiced / voiced detection signal U / Vme (t-1) at -1 is unvoiced (U) and the target unvoiced / voiced detection signal U / Vtar (t-1) is unvoiced (U) (Step S18).
[0045]
For example, as shown in FIG. 9, at the timing t = t0 (= t1-1), the original unvoiced / voiced detection signal U / Vme (t-1) is unvoiced (U) and the target unvoiced / voiced detection signal U / Vtar (t-1) is unvoiced (U).
In the determination in step S18, when the original unvoiced / voiced detection signal U / Vme (t-1) is unvoiced (U) and the target unvoiced / voiced detection signal U / Vtar (t-1) is unvoiced (U) (Step S18; Yes), since the target frame information data INFtar does not exist in the target frame, the synchronization mode is set to “1”, and the replacement target frame information data INFhold is set to the backward direction of the target frame. This is the target frame information of the frame existing in (Backward).
[0046]
For example, as shown in FIG. 9, since the target frame information data INFtar does not exist in the target frame at the timing t = t1 to t2, the synchronization mode is set to “1”, and the replacement target frame information data INFhold is set to the target frame information data INFhold. It is assumed that the target frame information data backward of a frame existing in the backward direction of the target frame (that is, a frame existing at timing t = t2 to t3).
Then, the process proceeds to step S15, and it is determined whether or not the synchronization mode = “0” (step S15).
[0047]
If the synchronization mode = “0” in the determination in step S15, the target frame information data INFtar (t) exists in the target frame corresponding to the original frame at the timing t, that is, normal processing. Therefore, the replaced target frame information data INFtar-sync is set as target frame information data INFtar (t).
INFtar-sync = INFtar (t)
For example, as shown in FIG. 9, target frame information data INFtar exists in the target frame at timing t = t2 to t3.
INFtar-sync = INFtar (t)
And
[0048]
In this case, target attribute data (average amplifier static component Atar-sync-sta, average amplifier vibrato component Atar-sync-vib, pitch static value included in the replaced target frame information data INFtar-sync used in the subsequent processing) Component Ptar-sync-sta, pitch vibrato component Ptar-sync-vib, spectral shape Star-sync (f) and residual component Rtar-sync (f)) are substantially as follows ( Step S16).
Atar-sync-sta = Atar-sta
Atar-sync-vib = Atar-vib
Ptar-sync-sta = Ptar-sta
Ptar-sync-vib = Ptar-vib
Star-sync (f) = Star (f)
Rtar-sync (f) = Rtar (f)
[0049]
If it is determined in step S15 that the synchronization mode = “1” or the synchronization mode = “2”, the target frame information data INFtar (t) exists in the target frame corresponding to the original frame at the timing t. Therefore, the replacement target frame information data INFtar-sync is set as the replacement target frame information data INFhold.
INFtar-sync = INFhold
For example, as shown in FIG. 9, the target frame information data INFtar does not exist in the target frame at timing t = t1 to t2, and the synchronization mode = “1”, but the timing t = t2 to t3. Since the target frame has target frame information data INFtar, the replacement target frame information data INFtar-sync is used as replacement target frame information data INFhold which is target frame information data of the target frame at timing t = t2 to t3. The target attribute data included in the replaced target frame information data INFtar-sync used in the subsequent processing after performing the process P1 is an average amplifier static component Atar-sync-sta, an average amplifier vibrato component Atar-sync-vib, Pitch static component Ptar-sync-sta, pitch vibrato The component Ptar-sync-vib, the spectral shape Starr-sync (f), and the residual component Rtar-sync (f) are obtained (step S16).
[0050]
Further, as shown in FIG. 9, the target frame information data INFtar does not exist in the target frame at the timing t = t3 to t4, and the synchronization mode = “2”, but at the timing t = t2 to t3. Since the target frame has target frame information data INFtar, the replacement target frame information data INFtar-sync is used as replacement target frame information data INFhold which is target frame information data of the target frame at timing t = t2 to t3. The target attribute data included in the replaced target frame information data INFtar-sync used in the subsequent processing after performing the process P2 is an average amplifier static component Atar-sync-sta, an average amplifier vibrato component Atar-sync-vib, Pitch static component Ptar-sync-sta, pitch vibrato-like composition The component Ptar-sync-vib, the spectral shape Starr-sync (f), and the residual component Rtar-sync (f) (step S16).
[0051]
If the original unvoiced / voiced detection signal U / Vme (t) does not change from unvoiced (U) to voiced (V) in step S12 (step S12; No), the target unvoiced / voiced detection signal U It is determined whether / Vtar (t) has changed from voiced (V) to unvoiced (U) (step S13).
When the target unvoiced / voiced detection signal U / Vtar (t) is changed from voiced (V) to unvoiced (U) in the determination in step S13 (step S13; Yes), the previous timing t of the timing t. Whether the original unvoiced / voiced detection signal U / Vme (t-1) at -1 is voiced (V) and the target unvoiced / voiced detection signal U / Vtar (t-1) is voiced (V). (Step S19).
[0052]
For example, as shown in FIG. 9, the target unvoiced / voiced detection signal U / Vtar (t) changes from voiced (V) to unvoiced (U) at timing t3, and at timing t-1 = t2 to t3, the original The unvoiced / voiced detection signal U / Vme (t-1) is voiced (V) and the target unvoiced / voiced detection signal U / Vtar (t-1) is voiced (U).
In the determination of step S19, when the original unvoiced / voiced detection signal U / Vme (t-1) is voiced (V) and the target unvoiced / voiced detection signal U / Vtar (t-1) is voiced (V) (Step S19; Yes), since the target frame information data INFtar does not exist in the target frame, the synchronization mode is set to “2”, and the replacement target frame information data INFhold is set in the forward direction of the target frame. The target frame information of the frame existing in (forward) is used.
[0053]
For example, as shown in FIG. 9, since the target frame information data INFtar does not exist in the target frame at the timing t = t3 to t4, the synchronization mode is set to “2”, and the replacement target frame information data INFhold is set to the target frame information data INFhold. It is assumed that the target frame information data forward of a frame existing in the forward direction of the target frame (that is, a frame existing at timing t = t2 to t3).
Then, the process proceeds to step S15, it is determined whether or not the synchronization mode = “0” (step S15), and the same process is performed thereafter.
If the target unvoiced / voiced detection signal U / Vtar (t) does not change from voiced (V) to unvoiced (U) in the determination in step S13 (step S13; No), the original unvoiced / voiced at the timing t. Detection signal U / Vme (t) changes from voiced (V) to unvoiced (U), or target unvoiced / voiced detection signal U / Vtar (t) changes from unvoiced (U) to voiced (V) It is determined whether or not there is (step S14).
[0054]
In the determination of step S14, the original unvoiced / voiced detection signal U / Vme (t) at timing t changes from voiced (V) to unvoiced (U), and the target unvoiced / voiced detection signal U / Vtar (t) is When the state is changed from unvoiced (U) to voiced (V) (step S14; Yes), the synchronization mode is set to “0”, the replacement target frame information data INFhold is initialized (clear), and the process is performed. Is transferred to step S15, and the same processing is performed thereafter.
In step S14, the original unvoiced / voiced detection signal U / Vme (t) at timing t does not change from voiced (V) to unvoiced (U), and the target unvoiced / voiced detection signal U / Vtar (t) Is not changed from unvoiced (U) to voiced (V) (step S14; No), the process proceeds to step S15 as it is, and the same process is performed thereafter.
[0055]
[2.9] Operation of sine wave component attribute data selection unit
Subsequently, the sine wave component attribute data selection unit 23 selects target attribute data (average) among the target attribute data included in the replaced target frame information data INFtar-sync input from the easy synchronization processing unit 22. Amplifier static component Atar-sync-sta, Average amplifier vibrato component Atar-sync-vib, Pitch static component Ptar-sync-sta, Pitch vibrato component Ptar-sync-vib and Spectral shape Star-sync (f) ) And a new sine wave component attribute data, a new amplifier component Anew, a new pitch component Pnew, and a new spectral shape Snew (f).
[0056]
That is, the new amplifier component Anew is generated by the following equation.
Anew = A * -sta + A * -vib (* is me or tar-sync)
More specifically, as shown in FIG. 8D, the new amplifier component Anew is either the average amplifier static component Ame-sta of the original attribute data or the average amplifier static component Atar-sync-sta of the target attribute data. One of the average amp vibrato component Ame-vib of the original attribute data and the average amp vibrato component Atar-sync-vib of the target attribute data is generated.
The new pitch component Pnew is generated by the following equation.
Pnew = P * -sta + P * -vib (* is me or tar-sync)
[0057]
More specifically, as shown in FIG. 8D, the new pitch component Pnew is either the pitch static component Pme-sta of the original attribute data or the pitch static component Ptar-sync-sta of the target attribute data. And a pitch vibrato component Pme-vib of the original attribute data or a pitch vibrato component Ptar-sync-vib of the target attribute data.
The new spectral shape Snew (f) is generated by the following equation.
Snew (f) = S * (f) (where * is me or tar-sync)
[0058]
By the way, in general, when the amplifier component is large, a bright sound extending to a high frequency is obtained, and when the amplifier component is small, the sound is concealed. Therefore, for the new spectral shape Snew (f), in order to simulate such a state, as shown in FIG. 11, the slope of the high frequency component of the spectral shape, that is, the spectral shape of the high frequency component portion is shown. Is controlled by performing spectral tilt correction that compensates according to the magnitude of the new amplifier component Anew, so that more realistic sound can be reproduced. Subsequently, for the generated new amplifier component Anew, new pitch component Pnew, and new spectral shape Snew (f), the attribute data deformation is performed based on the sine wave component attribute data deformation information input from the controller 29 as necessary. Further deformation is performed by the part 24. For example, deformation such as extending the spectral shape as a whole is performed. The attribute data transformation unit 24 supplies the pitch Patt of the sine wave component after the transformation to the pitch determination unit 40.
[0059]
[2.10] Operation of residual component selector
On the other hand, the residual component selecting unit 25 selects target attribute data (residual component Rtar) regarding the residual component among the target attribute data included in the replaced target frame information data INFtar-sync input from the easy synchronization processing unit 22. -sync (f)), a residual component signal (frequency waveform) Rme (f) held in the residual component holding unit 12 and a residual component attribute data selection information inputted from the controller 29, a new residual A new residual component Rnew (f) which is component attribute data is generated.
That is, the new residual component Rnew (f) is generated by the following equation.
Rnew (f) = R * (f) (where * is me or tar-sync)
[0060]
In this case, it is more preferable to select either me or tar-sync, which is the same as the new spectral shape Snew (f).
Further, for the new residual component Rnew (f), in order to simulate the same state as the new spectral shape, as shown in FIG. 11, the high-frequency component of the residual component, that is, the high-frequency component portion A more realistic sound can be reproduced by performing and controlling spectral tilt correction that compensates for the slope of the residual component in accordance with the magnitude of the new amplifier component Anew.
[0061]
[2.11] Operation of sine wave component generator
Subsequently, the sine wave component generation unit 26 is based on the new amplifier component Anew, the new pitch component Pnew, and the new spectral shape Snew (f) that are not accompanied by the deformation, or are accompanied by the deformation, output from the attribute data deformation unit 24. The new sine wave components (F "0, A" 0), (F "1, A" 1), (F "2, A" 2),..., (F "(N-1) ), A ″ (N−1)) N sine wave components (hereinafter collectively referred to as F ″ n and A ″ n. N = 0 to (N−1)).
More specifically, a new frequency F ″ n and a new amplifier A ″ n are obtained by the following equations.
F "n = F'n × Pnew
A "n = Snew (F" n) * Anew
If you think of it as a perfect harmonic structure model,
F "n = (n + 1) × Pnew
It becomes.
[0062]
[2.12] Operation of sine wave component deformation unit
Further, the obtained new frequency F ″ n and the new amplifier A ″ n are further deformed by the sine wave component deformation unit 27 based on the sine wave component deformation information input from the controller 29 as necessary. For example, only the new-order amplifier A ″ n (= A ″ 0, A ″ 2, A ″ 4,...) Of even-order components is increased (for example, doubled). As a result, it is possible to give the converted speech further variety.
[0063]
[2.13] Operation of pitch determination unit
The comb filter pitch determination unit 40 sets the pitch Patt from the attribute data transformation unit 24 as the comb filter pitch (Pcomb) and supplies the comb filter to the comb filter processing unit 41.
[0064]
[2.14] Operation of comb filter processing unit
The comb filter processing unit 41 configures a comb filter using the pitch Pcomb, and filters the residual component Rnew (f) with the comb filter, whereby the residual component Rnew (f). In Pitch component and its harmonic component Append The new residual component Rnew ′ (f) is supplied to the inverse fast Fourier transform unit 28. Here, FIG. 12 is a conceptual diagram showing a characteristic example of the comb filter when the pitch Pcomb is 200 Hz. As described above, when the residual component is held on the frequency axis, a comb filter is configured on the frequency axis based on the pitch Pcomb.
[0065]
[2.15] Operation of inverse fast Fourier transform unit
Next, the inverse fast Fourier transform unit 28 stores the obtained new frequency F ″ n, new amplifier A ″ n (= new sine wave component) and new residual component Rnew ′ (f) in the FFT buffer, and sequentially performs inverse FFT. Further, overlap processing is performed so that the obtained time axis signals partially overlap, and addition processing for adding them is performed to generate a converted voice signal that is a time axis signal of a new voiced sound.
[0066]
At this time, based on the sine wave component / residual component balance control signal input from the controller 29, the mixing ratio of the sine wave component and the residual component is controlled to obtain a more realistic voiced signal. In this case, generally, a rough voice can be obtained by increasing the mixing ratio of the residual components.
In this case, when storing the new frequency F ″ n, the new amplifier A ″ n (= new sine wave component), and the new residual component Rnew (f) in the FFT buffer, they are converted at different pitches and appropriate pitches. By further adding a sine wave component, harmony can be obtained as a converted audio signal. Further, by giving a harmony pitch suitable for the accompaniment sound by the sequencer 31, a musical harmony suitable for the accompaniment can be obtained.
[0067]
[2.16] Operation of crossfader
Next, based on the original unvoiced / voiced detection signal U / Vme (t), the crossfader 30 outputs the input sound signal Sv as it is to the mixer 30 when the input sound signal Sv is unvoiced (U).
When the input sound signal Sv is voiced (V), the converted sound signal output from the inverse fast Fourier transform conversion unit 28 is output to the mixer 33.
In this case, the reason why the cross fader 30 is used as the changeover switch is to prevent the generation of a click sound when the switch is changed by performing a crossfade operation.
[0068]
[2.17] Operation of sequencer, tone generator, mixer, and output unit
On the other hand, the sequencer 31 outputs sound source control information for generating accompaniment sound of karaoke to the sound source unit 32 as, for example, MIDI (Musical Instrument Digital Interface) data.
Thereby, the sound source unit 32 generates an accompaniment signal based on the sound source control information and outputs the accompaniment signal to the mixer 33.
The mixer 33 mixes either the input audio signal Sv or the converted audio signal and the accompaniment signal, and outputs the mixed signal to the output unit 34.
The output unit 34 has an amplifier (not shown) and amplifies the mixed signal and outputs it as an acoustic signal.
[0069]
[3] Modification of embodiment
[3.1] First modification
In the above description, either the original attribute data or the target attribute data is selectively used as the attribute data. However, by performing interpolation processing using both the original attribute data and the target attribute data, It is also possible to obtain a converted audio signal having typical attributes.
However, according to such a configuration, there may be a case where a converted voice that does not resemble either a singer who tries to imitate or a singer who is a target of imitation is obtained.
Also, especially when the spectral shape is obtained by interpolation processing, the singer who wants to imitate pronounces “a” and the singer who is imitated pronounces “yes” May cause a sound that is neither “A” nor “I” to be output as converted speech, and must be handled with care.
[0070]
[3.2] Second modification
The extraction of the sine wave component is not limited to the method used in this embodiment. In short, it is only necessary to extract a sine wave included in the audio signal.
[3.3] Third modification
In this embodiment, the target sine wave component and residual component are stored, but instead, the target speech itself is stored and read out, and the sine wave component and residual component are extracted by real-time processing. May be. That is, you may perform the process similar to the process performed with respect to the audio | voice of the singer who imitates also in this embodiment with respect to the audio | voice of the target singer.
[0071]
[3.4] Fourth modification
In this embodiment, the pitch data, the amplifier, and the spectral shape are all handled as the attribute data, but it is also possible to handle at least one of them.
[3.5] Fifth modification
In the present embodiment, the residual component is held on the frequency axis. However, the present invention is not limited to this, and the residual component may be held on the time axis. FIG. 13 is a block diagram illustrating a configuration (a part) of a modification of the above-described embodiment. FIG. 14 is a block diagram showing an example of the configuration of a comb filter (delay filter). It should be noted that portions corresponding to those in FIG. In the figure, a comb filter processing unit 42 constitutes a comb filter (delay filter) in which the reciprocal of the pitch Pcomb determined by the pitch determination unit 40 is a delay time, and the comb filter has a residual component Rnew ( t) is filtered and supplied to the adder 43 as a residual component Rnew ″ (t). The adder 43 adds the filtered residual component Rnew ″ (t) to the residual component Rnew (t), thereby adding a pitch component and its harmonic component to the residual component Rnew (t), The new residual component Rnew ′ (t) is supplied to the IFFT processing unit 8.
As described above, even when the residual component is processed on the time axis, the pitch component and its harmonic component can be added to the residual component Rnew (t) as in the above-described embodiment. . Therefore, only the pitch component of the sine wave component is heard in the sound that is finally output, and the naturalness of the sound can be improved.
[0072]
[4] Effects of the embodiment
As a result, the song of the singer is output along with the accompaniment of karaoke. The voice quality and singing method are greatly influenced by the target, and the voice quality and singing method of the target itself are obtained. In this way, a song as if imitating the target is output.
Further, since the residual component has a pitch component equal to the sine wave component by adding the pitch component and its harmonic component to the residual component Rnew (f), it is synthesized by synthesizing with the sine wave component. The sound is kept in pitch and does not impair the naturalness of the sound.
[0073]
【The invention's effect】
As described above, according to the present invention, the sine wave component and the residual component extracted from the input speech signal are respectively transformed based on the sine wave component or the residual component of the target speech, and then the sine Before the wave component and the residual component are synthesized, the pitch component and its harmonic component are added to the deformed residual component, so that the pitch of the synthesized voice is maintained and the naturalness is impaired. Without any change, it is possible to easily obtain a converted voice reflecting the voice quality and singing method of the target singer to be imitated from the voice (input voice) of the singer to imitate.
[Brief description of the drawings]
FIG. 1 is a block diagram (part 1) illustrating a configuration of an embodiment of the present invention.
FIG. 2 is a block diagram (part 2) showing a configuration of an embodiment of the present invention.
FIG. 3 is a diagram illustrating a state of a frame in the embodiment.
FIG. 4 is an explanatory diagram for explaining peak detection of a frequency spectrum in the embodiment.
FIG. 5 is a diagram illustrating cooperation of peak values for each frame in the embodiment.
.
FIG. 6 is a diagram illustrating a change state of a frequency value in the embodiment.
FIG. 7 is a diagram illustrating a change state of a deterministic component in a process in the embodiment.
FIG. 8 is an explanatory diagram of signal processing in the embodiment.
FIG. 9 is a timing chart of an easy synchronization process.
FIG. 10 is an easy synchronization process flowchart;
FIG. 11 is a diagram for explaining spectral tilt compensation of a spectral shape.
FIG. 12 is a conceptual diagram for explaining the characteristics of a comb filter (when the pitch Pcomb is 200 Hz).
FIG. 13 is a block diagram showing a configuration (a part) of a voice conversion device according to a modification of the present invention.
FIG. 14 is a block diagram illustrating an example of a configuration of a comb filter (delay filter).
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Microphone, 2 ... Analysis window production | generation part, 3 ... Input audio | voice signal extraction part, 4 ... Fast Fourier transform part, 5 ... Peak detection part, 6 ... Unvoiced / voiced detection part, 7 ... Pitch extraction part, 8 ... Peak Linking unit, 9 ... interpolation synthesis unit, 10 ... residual component detection unit, 11 ... fast Fourier transform unit, 12 ... residual component holding unit, 13 ... sine wave component holding unit, 14 ... average amplifier calculation unit, 15 ... amplifier Normalization unit, 16 ... Spectral shape calculation unit, 17 ... Pitch normalization unit, 18 ... Original frame information holding unit, 19 ... Static change / vibrato change separation unit, 20 ... Target frame information holding unit, 21 ... key Control / tempo change unit, 22 ... easy synchronization processing unit, 23 ... sine wave component attribute data selection unit, 24 ... attribute data transformation unit, 25 ... residual component selection unit, 26 ... sine wave component generation unit, 27 Sinusoidal component transformation unit, 28 ... Inverse fast Fourier transform unit, 29 ... Controller, 30 ... Crossfader, 31 ... Sequencer, 32 ... Sound source unit, 33 ... Mixer, 34 ... Output unit, 40 ... Pitch determination unit, 41, 42 ... comb filter processing unit, 43 ... adder

Claims (6)

入力音声信号から正弦波成分を抽出する正弦波成分抽出手段と、
前記正弦波成分抽出手段により抽出された正弦波成分以外の残差成分を、前記入力音声信号から抽出する残差成分抽出手段と、
前記正弦波成分抽出手段により抽出された正弦波成分を、ターゲット音声信号の正弦波成分に基づいて変形し、該変形された正弦波成分のアンプ成分の大きさに応じて該変形された正弦波成分の傾きを制御する正弦波成分変形手段と、
前記残差成分抽出手段により抽出された残差成分を、前記ターゲット音声信号の残差成分に基づいて変形し、前記変形された正弦波成分のアンプ成分の大きさに応じて該変形された残差成分の傾きを制御する残差成分変形手段と、
前記残差成分変形手段により得られた残差成分にピッチ成分およびその倍音成分を付加する付加手段と、
前記正弦波成分変形手段により変形され、傾きの制御された正弦波成分と、前記付加手段によりピッチ成分およびその倍音成分が付加された残差成分とを合成する合成手段と
を具備する音声変換装置。
Sine wave component extraction means for extracting a sine wave component from the input audio signal;
Residual component extraction means for extracting residual components other than the sine wave component extracted by the sine wave component extraction means from the input audio signal;
The sine wave component extracted by the sine wave component extracting means is deformed based on the sine wave component of the target audio signal , and the deformed sine wave is changed according to the magnitude of the amplifier component of the deformed sine wave component. Sine wave component deformation means for controlling the inclination of the component;
The residual component extracted by the residual component extraction means is deformed based on the residual component of the target audio signal, and the deformed residual is changed according to the magnitude of the amplifier component of the deformed sine wave component. Residual component deformation means for controlling the slope of the difference component;
An adding means for adding a pitch component and its harmonic component to the residual component obtained by the residual component deforming means;
A voice conversion device comprising: a sine wave component deformed by the sine wave component deforming unit and controlled in inclination; and a synthesizing unit that synthesizes a residual component to which a pitch component and its harmonic component are added by the adding unit. .
請求項1記載の音声変換装置において、
前記正弦波成分変形手段により得られた正弦波成分のピッチを、前記付加手段における通過域のピークのピッチとするピッチ決定手段を具備し、
前記付加手段は、前記ピッチ決定手段により前記ピークのピッチが定められた前記通過域に対応する前記残差成分を通過させることによって、前記残差成分にピッチ成分およびその倍音成分を付加する
ことを特徴とする音声変換装置。
The voice conversion device according to claim 1,
Pitch determination means comprising the pitch of the sine wave component obtained by the sine wave component deformation means as the peak pitch of the pass band in the additional means ,
The adding means adds the pitch component and its harmonic component to the residual component by passing the residual component corresponding to the passband in which the pitch of the peak is determined by the pitch determining means. A voice conversion device.
請求項記載の音声変換装置において、
前記付加手段は、前記残差成分を周波数軸上で保持する場合には、前記ピッチ決定手段により決定された通過域のピークのピッチを有するくし形フィルタであることを特徴とする音声変換装置。
The voice conversion device according to claim 2 , wherein
The speech converting apparatus according to claim 1, wherein the adding means is a comb filter having a passband peak pitch determined by the pitch determining means when the residual component is held on the frequency axis.
請求項記載の音声変換装置において、
前記付加手段は、前記残差成分を時間軸上で保持する場合には、前記ピッチ決定手段により決定された通過域のピークのピッチの逆数を遅延時間とする遅延フィルタを有するくし形フィルタであることを特徴とする音声変換装置。
The voice conversion device according to claim 2 , wherein
The adding means is a comb filter having a delay filter whose delay time is the reciprocal of the pitch of the passband peak determined by the pitch determining means when the residual component is held on the time axis. A voice conversion device characterized by that.
入力音声から正弦波成分及び前記正弦波成分以外の成分である残差成分を抽出する成分抽出工程と、
前記抽出された正弦波成分を、ターゲット音声の正弦波成分に基づいて変形し、該変形された正弦波成分のアンプ成分の大きさに応じて該変形された正弦波成分の傾きを制御する正弦波成分変形工程と、
前記抽出された残差成分を、前記ターゲット音声の残差成分に基づいて変形し、前記変形された正弦波成分のアンプ成分の大きさに応じて該変形された残差成分の傾きを制御する残差成分変形工程と、
前記残差成分変形工程において得られた残差成分にピッチ成分およびその倍音成分を付加する付加工程と、
前記正弦波成分変形工程において変形され、傾きの制御された正弦波成分と、前記付加工程においてピッチ成分およびその倍音成分が付加された残差成分とを合成する合成工程と
を具備する音声変換方法。
A component extraction step of extracting a residual component that is a component other than the sine wave component and the sine wave component from the input speech;
A sine that transforms the extracted sine wave component based on the sine wave component of the target speech and controls the slope of the transformed sine wave component according to the magnitude of the amplified sine wave component Wave component deformation process;
The extracted residual component is transformed based on the residual component of the target speech, and the slope of the transformed residual component is controlled in accordance with the magnitude of the amplified sine wave component. A residual component deformation process;
An adding step of adding a pitch component and its harmonic component to the residual component obtained in the residual component deformation step;
A speech conversion method comprising: a synthesizing step of synthesizing a sine wave component that is deformed and controlled in inclination in the sine wave component deforming step, and a residual component to which a pitch component and its harmonic component are added in the adding step. .
請求項5記載の音声変換方法において、
前記正弦波成分変形工程により得られた正弦波成分のピッチを、前記付加工程における通過域のピークのピッチとするピッチ決定工程を具備し、
前記付加工程においては、前記ピッチ決定工程により前記ピークのピッチが定められた前記通過域に対応する前記残差成分を通過させることによって、前記残差成分にピッチ成分およびその倍音成分を付加する
ことを特徴とする音声変換方法。
The voice conversion method according to claim 5, wherein
Including a pitch determination step in which the pitch of the sine wave component obtained by the sine wave component deformation step is set as the pitch of the passband peak in the addition step ;
In the adding step, a pitch component and its overtone component are added to the residual component by passing the residual component corresponding to the passband in which the pitch of the peak is determined in the pitch determining step. A voice conversion method characterized by the above.
JP29384498A 1998-06-15 1998-10-15 Voice conversion device and voice conversion method Expired - Fee Related JP3949828B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP29384498A JP3949828B2 (en) 1998-10-15 1998-10-15 Voice conversion device and voice conversion method
TW088108973A TW430778B (en) 1998-06-15 1999-05-31 Voice converter with extraction and modification of attribute data
EP10009510A EP2264696B1 (en) 1998-06-15 1999-06-07 Voice converter with extraction and modification of attribute data
EP12000670A EP2450887A1 (en) 1998-06-15 1999-06-07 Voice converter with extraction and modification of attribute data
EP99110936A EP0982713A3 (en) 1998-06-15 1999-06-07 Voice converter with extraction and modification of attribute data
US10/282,754 US7149682B2 (en) 1998-06-15 2002-10-29 Voice converter with extraction and modification of attribute data
US10/282,536 US7606709B2 (en) 1998-06-15 2002-10-29 Voice converter with extraction and modification of attribute data
US10/282,992 US20030055647A1 (en) 1998-06-15 2002-10-29 Voice converter with extraction and modification of attribute data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29384498A JP3949828B2 (en) 1998-10-15 1998-10-15 Voice conversion device and voice conversion method

Publications (2)

Publication Number Publication Date
JP2000122699A JP2000122699A (en) 2000-04-28
JP3949828B2 true JP3949828B2 (en) 2007-07-25

Family

ID=17799897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29384498A Expired - Fee Related JP3949828B2 (en) 1998-06-15 1998-10-15 Voice conversion device and voice conversion method

Country Status (1)

Country Link
JP (1) JP3949828B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4649888B2 (en) * 2004-06-24 2011-03-16 ヤマハ株式会社 Voice effect imparting device and voice effect imparting program
WO2006070768A1 (en) 2004-12-27 2006-07-06 P Softhouse Co., Ltd. Audio waveform processing device, method, and program

Also Published As

Publication number Publication date
JP2000122699A (en) 2000-04-28

Similar Documents

Publication Publication Date Title
Bonada et al. Synthesis of the singing voice by performance sampling and spectral models
US7606709B2 (en) Voice converter with extraction and modification of attribute data
JP3502247B2 (en) Voice converter
JP6791258B2 (en) Speech synthesis method, speech synthesizer and program
JP6733644B2 (en) Speech synthesis method, speech synthesis system and program
Bonada et al. Sample-based singing voice synthesizer by spectral concatenation
JP3711880B2 (en) Speech analysis and synthesis apparatus, method and program
JP3540159B2 (en) Voice conversion device and voice conversion method
JP3949828B2 (en) Voice conversion device and voice conversion method
JP3502268B2 (en) Audio signal processing device and audio signal processing method
JP4757971B2 (en) Harmony sound adding device
JP3706249B2 (en) Voice conversion device, voice conversion method, and recording medium recording voice conversion program
JP3447221B2 (en) Voice conversion device, voice conversion method, and recording medium storing voice conversion program
JP3540609B2 (en) Voice conversion device and voice conversion method
JP3294192B2 (en) Voice conversion device and voice conversion method
JP3934793B2 (en) Voice conversion device and voice conversion method
JP6834370B2 (en) Speech synthesis method
JP3540160B2 (en) Voice conversion device and voice conversion method
JP3907838B2 (en) Voice conversion device and voice conversion method
JP3447220B2 (en) Voice conversion device and voice conversion method
JP2000003187A (en) Method and device for storing voice feature information
JP3907027B2 (en) Voice conversion device and voice conversion method
US20230260493A1 (en) Sound synthesizing method and program
JP6822075B2 (en) Speech synthesis method
JPH11143460A (en) Method for separating, extracting by separating, and removing by separating melody included in musical performance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070419

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110427

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120427

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130427

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140427

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees