JP2000003200A - Voice signal processor and voice signal processing method - Google Patents

Voice signal processor and voice signal processing method

Info

Publication number
JP2000003200A
JP2000003200A JP10185691A JP18569198A JP2000003200A JP 2000003200 A JP2000003200 A JP 2000003200A JP 10185691 A JP10185691 A JP 10185691A JP 18569198 A JP18569198 A JP 18569198A JP 2000003200 A JP2000003200 A JP 2000003200A
Authority
JP
Japan
Prior art keywords
signal
voice
noise
original
converted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10185691A
Other languages
Japanese (ja)
Other versions
JP3502268B2 (en
Inventor
Takayasu Kondo
高康 近藤
Sera Xavier
セラ ザビエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP18569198A priority Critical patent/JP3502268B2/en
Publication of JP2000003200A publication Critical patent/JP2000003200A/en
Application granted granted Critical
Publication of JP3502268B2 publication Critical patent/JP3502268B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily obtain a female converted voice natural on hearing sense by adding an aspirated noise component signal to an original conversion voice signal and outputting it as a conversion voice signal. SOLUTION: A band-pass filter part 106 passes only a white noise signal having a frequency in a prescribed frequency band corresponding to the third formant of the original conversion voice signal detected by a formant frequency detection part 103 among the white noise signals outputted by a white noise generation part 105 under control of a band-pass filter characteristic control part 104 through as an original aspirated noise signal to output it to an amplifier part 109. An aspirated noise level control part 108 outputs the level control signal of the original aspirated noise signal to the amplifier part 109 based on the size of the amplification of the original conversion voice signal detected by an amp/envelope detection part 107. The amplifier part 109 changes the signal level of the original aspirated noise signal based on this signal to output it to a mixer part 110 as an aspirated noise signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、入力音声を他の
音声に変換して出力したり、合成音声を生成する音声信
号処理装置及び音声信号処理方法に係り、特に男声→女
声変換の機能を有するカラオケ装置に用いるのに好適な
音声信号処理装置及び音声信号処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice signal processing apparatus and a voice signal processing method for converting an input voice into another voice and outputting the generated voice, and for generating a synthesized voice. The present invention relates to an audio signal processing apparatus and an audio signal processing method suitable for use in a karaoke apparatus having the apparatus.

【0002】[0002]

【従来の技術】入力された音声の周波数特性などを変え
て出力する音声変換装置は種々開発されており、例え
ば、カラオケ装置の中には、歌い手の歌った歌声のピッ
チを変換して、男性の声を女性の声に変換させるものが
ある(例えば、特表平8−508581号)。
2. Description of the Related Art There have been developed various voice converters for changing the frequency characteristics and the like of an input voice and outputting the converted voice. For example, some karaoke devices convert the pitch of a singer's singing voice into a male voice. Is converted into a female voice (for example, Japanese Patent Application Laid-Open No. Hei 8-508581).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
音声変換装置においては、単に歌声のピッチを変換して
いるだけであるため、男声→女声変換を行っても聴感上
自然な女性の音声が得られないという問題点があった。
そこで、本発明の目的は、男声→女声の音声変換を行う
に際し、聴感上自然な女性の変換音声を容易に得ること
が可能な音声信号処理装置及び音声信号処理方法を提供
することにある。
However, in the conventional voice converter, since the pitch of the singing voice is simply converted, a female voice which is natural in terms of audibility can be obtained even when the male voice is converted to the female voice. There was a problem that it could not be done.
Accordingly, an object of the present invention is to provide an audio signal processing device and an audio signal processing method capable of easily obtaining a female voice that is natural in terms of audibility when performing voice conversion from male voice to female voice.

【0004】[0004]

【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の構成は、男声の入力音声を女声の変
換音声に変換して出力する音声信号処理装置において、
前記入力音声を変換して得られる元変換音声信号に気息
性雑音成分信号を加算して前記変換音声信号として出力
する気息性雑音加算手段を備えたことを特徴としてい
る。
According to a first aspect of the present invention, there is provided an audio signal processing apparatus for converting an input voice of a male voice into a converted voice of a female voice and outputting the converted voice.
The apparatus further comprises a breathiness noise adding means for adding a breathiness noise component signal to an original converted voice signal obtained by converting the input voice and outputting the converted voice signal.

【0005】請求項2記載の構成は、請求項1記載の構
成において、前記気息性雑音加算手段は、前記入力音声
を女声変換して得られる元変換音声信号のフォルマント
周波数を検出するフォルマント周波数検出手段と、検出
した前記フォルマント周波数に対応する周波数帯域を有
する前記気息性雑音成分信号を生成する気息性雑音生成
手段と、前記気息性雑音成分信号を前記元変換音声信号
に重畳して前記変換音声信号として出力する重畳手段
と、を備えたことを特徴としている。
According to a second aspect of the present invention, in the configuration of the first aspect, the breathing noise adding means detects a formant frequency of an original converted voice signal obtained by converting the input voice into a female voice. Means, a breathiness noise generation means for generating the breathiness noise component signal having a frequency band corresponding to the detected formant frequency, and the converted speech by superimposing the breathiness noise component signal on the original converted speech signal. And superimposing means for outputting as a signal.

【0006】請求項3記載の構成は、請求項2記載の構
成において、前記気息性雑音生成手段は、ホワイトノイ
ズ信号を生成し出力するホワイトノイズ発生手段と、前
記フォルマント周波数検出手段の検出結果に基づいて、
前記ホワイトノイズ信号のうち、前記元変換音声信号の
第3フォルマントに対応する所定の周波数帯域成分のみ
を通過させ元気息性雑音成分信号として出力するバンド
パスフィルタ手段と、前記元変換音声信号に基づいて、
前記元気息性雑音成分信号の信号レベルを制御して前記
気息性雑音成分信号として出力する信号レベル制御手段
と、を備えたことを特徴としている。
According to a third aspect of the present invention, in the configuration of the second aspect, the breathing noise generating means includes a white noise generating means for generating and outputting a white noise signal, and a detection result of the formant frequency detecting means. On the basis of,
Band-pass filter means for passing only a predetermined frequency band component corresponding to a third formant of the original converted audio signal out of the white noise signal and outputting it as an original breathable noise component signal; hand,
Signal level control means for controlling a signal level of the original breathing noise component signal and outputting the signal as the breathing noise component signal.

【0007】請求項4記載の構成は、女性の音声を合成
して出力する音声信号処理装置であって、前記合成によ
り得られる元合成音声信号に気息性雑音成分信号を加算
して前記変換音声信号として出力する気息性雑音加算手
段を備えたことを特徴としている。
A fourth aspect of the present invention is a voice signal processing apparatus for synthesizing and outputting a female voice, wherein the converted voice is added by adding a breathy noise component signal to an original synthesized voice signal obtained by the synthesis. It is characterized by having a breathing noise adding means for outputting as a signal.

【0008】請求項5記載の構成は、請求項4記載の構
成において、前記気息性雑音加算手段は、前記元合成音
声信号のフォルマント周波数に対応する所定の周波数帯
域を有する前記気息性雑音成分信号を生成する気息性雑
音生成手段と、前記気息性雑音成分信号を前記元合成音
声信号に重畳して前記変換音声信号として出力する重畳
手段と、を備えたことを特徴としている。
[0008] According to a fifth aspect of the present invention, in the configuration of the fourth aspect, the breathiness noise addition means is configured to generate the breathiness noise component signal having a predetermined frequency band corresponding to a formant frequency of the original synthesized speech signal. , And superimposing means for superimposing the breathable noise component signal on the original synthesized speech signal and outputting the converted speech signal as the converted speech signal.

【0009】請求項6記載の構成は、請求項5記載の構
成において、前記気息性雑音生成手段は、ホワイトノイ
ズ信号を生成し出力するホワイトノイズ発生手段と、前
記ホワイトノイズ信号のうち、前記元変換音声信号の第
3フォルマントに対応する所定の周波数帯域成分のみを
通過させ元気息性雑音成分信号として出力するバンドパ
スフィルタ手段と、前記元変換音声信号に基づいて、前
記元気息性雑音成分信号の信号レベルを制御して前記気
息性雑音成分信号として出力する信号レベル制御手段
と、を備えたことを特徴としている。
According to a sixth aspect of the present invention, in the configuration of the fifth aspect, the breathing noise generation means generates a white noise signal and outputs the white noise signal; Band-pass filter means for passing only a predetermined frequency band component corresponding to a third formant of the converted audio signal and outputting the signal as an original breathable noise component signal; and based on the original converted audio signal, the original breathable noise component signal And a signal level control means for controlling the signal level of the signal and outputting the signal as the breathing noise component signal.

【0010】請求項7記載の構成は、男声の入力音声を
女声の変換音声に変換する音声信号処理方法において、
前記入力音声を変換して得られる元変換音声に気息性雑
音成分を加算して前記変換音声とする気息性雑音加算工
程を備えたことを特徴としている。
According to a seventh aspect of the present invention, in the audio signal processing method for converting a male voice input voice into a female voice conversion voice,
The method further comprises a breathiness noise adding step of adding a breathiness noise component to an original converted voice obtained by converting the input voice and obtaining the converted voice.

【0011】請求項8記載の構成は、女性の音声を合成
する音声信号処理方法であって、前記合成により得られ
る元合成音声に気息性雑音成分を加算して前記変換音声
とする気息性雑音加算工程を備えたことを特徴としてい
る。
An eighth aspect of the present invention is a voice signal processing method for synthesizing a female voice, wherein a breathy noise component is added to an original synthesized voice obtained by the synthesis to produce the converted voice. It is characterized by having an addition step.

【0012】[0012]

【発明の実施の形態】次に図面を参照して本発明の好適
な実施形態について説明する。 [1] 実施形態の原理構成 始めに、実施形態の原理について図15の原理説明図を
参照して説明する。[1.1] 実施形態の原理構成 音声信号処理装置100は、マイク101から入力され
た男声/女声変換して元変換音声信号として出力する男
声/女声変換部102と、元変換音声信号のフォルマン
ト周波数の検出を行うフォルマント周波数検出部103
と、検出された第3フォルマントの周波数に基づいて、
後述するバンドパスフィルタの通過帯域制御を行うバン
ドパスフィルタ特性制御部104と、ホワイトノイズを
発生しホワイトノイズ信号として出力するホワイトノイ
ズ発生部105と、バンドパスフィルタ特性制御部10
4の制御下で、第3フォルマントに対応する所定の周波
数帯域の周波数を有するホワイトノイズ信号のみを元気
息性ノイズ信号として通過させるバンドパスフィルタ部
106と、元変換音声信号の周波数−アンプ軸上におけ
るアンプの大きさを検出するアンプ・エンベロープ検出
部107と、検出したアンプの大きさに基づいて元気息
性ノイズ信号の信号レベルを制御する信号レベル制御信
号を出力する気息性雑音レベル制御部108と、信号レ
ベル制御信号に基づいて元気息性ノイズ信号の信号レベ
ルを変化させ、気息性ノイズ信号として出力するアンプ
部109と、元変換音声信号に気息性ノイズ信号を加算
して変換音声信号として出力するミキサ部110と、変
換音声信号に基づいて電気/音響変換を行い音響信号と
して出力するスピーカ部111と、を備えて構成されて
いる。
Preferred embodiments of the present invention will now be described with reference to the drawings. [1] Principle Configuration of Embodiment First, the principle of the embodiment will be described with reference to the principle explanatory diagram of FIG. [1.1] Principle Configuration of Embodiment The audio signal processing apparatus 100 includes a male / female conversion unit 102 that converts a male / female voice input from the microphone 101 and outputs the converted voice as an original converted audio signal, and a formant of the original converted audio signal. Formant frequency detector 103 for detecting frequency
And, based on the detected frequency of the third formant,
A band-pass filter characteristic control unit 104 for performing pass band control of a band-pass filter described later; a white noise generation unit 105 for generating white noise and outputting it as a white noise signal; and a band-pass filter characteristic control unit 10
4, a band-pass filter unit 106 that passes only a white noise signal having a frequency in a predetermined frequency band corresponding to the third formant as a breathable noise signal, , An amplifier / envelope detector 107 for detecting the size of the amplifier, and a breathiness noise level controller 108 for outputting a signal level control signal for controlling the signal level of the original breathiness noise signal based on the detected size of the amplifier. And an amplifier unit 109 for changing the signal level of the original breathing noise signal based on the signal level control signal and outputting the signal as a breathing noise signal, and adding the breathing noise signal to the original converted audio signal to obtain a converted audio signal A mixer unit 110 for outputting an audio signal, and a spin unit for performing an electric / acoustic conversion based on the converted audio signal and outputting the converted audio signal. And it is configured to include a mosquito unit 111, a.

【0013】[1.2] 実施形態の原理動作 次に原理動作を説明する。マイク101から入力された
男声は、男声/女声変換部102により、男声→女声変
換がなされて元変換音声信号としてフォルマント周波数
検出部103及びアンプ・エンベロープ検出部107に
出力される。フォルマント周波数検出部103は、元変
換音声信号のフォルマント周波数(特に第3フォルマン
ト)の検出を行う。バンドパスフィルタ特性制御部10
4は、フォルマント周波数検出部103により検出され
た第3フォルマントの周波数に基づいて、バンドパスフ
ィルタの通過帯域制御を行う。
[1.2] Principle Operation of Embodiment Next, the principle operation will be described. The male voice input from the microphone 101 is subjected to male-to-female conversion by the male / female converter 102 and is output to the formant frequency detector 103 and the amplifier / envelope detector 107 as an original converted audio signal. The formant frequency detection unit 103 detects a formant frequency (particularly, a third formant) of the original converted audio signal. Bandpass filter characteristic control unit 10
4 controls the pass band of the band-pass filter based on the third formant frequency detected by the formant frequency detection unit 103.

【0014】これにより、バンドパスフィルタ部106
は、バンドパスフィルタ特性制御部104の制御下で、
ホワイトノイズ発生部105により出力されたホワイト
ノイズ信号のうち、第3フォルマントに対応する所定の
周波数帯域の周波数を有するホワイトノイズ信号のみを
元気息性ノイズ信号として通過させ、アンプ部109に
出力する。一方、気息性雑音レベル制御部108は、ア
ンプ・エンベロープ検出部107が検出した元変換音声
信号の周波数−アンプ軸上におけるアンプの大きさに基
づいて元気息性ノイズ信号の信号レベルを制御する信号
レベル制御信号をアンプ部109に出力する。
Thus, the band-pass filter section 106
Is under the control of the bandpass filter characteristic control unit 104,
Of the white noise signals output by the white noise generating unit 105, only white noise signals having a frequency in a predetermined frequency band corresponding to the third formant are passed as original breathing noise signals, and output to the amplifier unit 109. On the other hand, the breathiness noise level control unit 108 controls the signal level of the original breathiness noise signal based on the frequency of the original converted audio signal detected by the amplifier / envelope detection unit 107 minus the size of the amplifier on the amplifier axis. The level control signal is output to the amplifier unit 109.

【0015】アンプ部109は、信号レベル制御信号に
基づいて元気息性ノイズ信号の信号レベルを変化させ、
気息性ノイズ信号としてミキサ部110に出力し、ミキ
サ部110は、元変換音声信号に気息性ノイズ信号を加
算して変換音声信号としてスピーカ部111に出力す
る。そしてスピーカ部111は、変換音声信号に基づい
て電気/音響変換を行い音響信号として出力することと
なる。
The amplifier unit 109 changes the signal level of the original breathing noise signal based on the signal level control signal,
The signal is output to the mixer unit 110 as a breathing noise signal, and the mixer unit 110 adds the breathing noise signal to the original converted audio signal and outputs the result to the speaker unit 111 as a converted audio signal. Then, the speaker unit 111 performs an electric / acoustic conversion based on the converted audio signal and outputs it as an audio signal.

【0016】[1.3] まとめ これらの処理において、得られる変換音声信号信号によ
れば、再生される音響信号(音声)は、元歌唱者の歌声
(男声)が、あたかも、女性歌唱者が歌った自然な女性
の歌声のようになる。
[1.3] Conclusion In these processings, according to the converted audio signal obtained, the reproduced audio signal (voice) is such that the singing voice (male voice) of the former singer is the same as that of the female singer. It becomes like the singing voice of a natural woman who sang.

【0017】[2] 実施形態の詳細構成 図1及び図2に、実施形態の詳細構成図を示す。なお、
本実施形態は、本発明による音声変換装置(音声変換方
法)をカラオケ装置に適用し、より自然な音声変換を行
うことができるカラオケ装置として構成した場合の例で
ある。図1において、マイク1は、元歌唱者(me)の声
を収集し、入力音声信号Svとして入力音声信号切出部
3に出力する。これと並行して、分析窓生成部2は、前
回のフレームで検出したピッチの周期の固定倍(例え
ば、3.5倍など)の周期を有する分析窓(例えば、ハ
ミング窓)AWを生成し、入力音声信号切出部3に出力
する。なお、初期状態あるいは前回のフレームが無声音
(含む無音)の場合には、予め設定した固定周期の分析
窓を分析窓AWとして入力音声信号切出部3に出力す
る。
[2] Detailed Configuration of the Embodiment FIGS. 1 and 2 show detailed configuration diagrams of the embodiment. In addition,
The present embodiment is an example in which the voice conversion device (voice conversion method) according to the present invention is applied to a karaoke device and configured as a karaoke device capable of performing more natural voice conversion. In FIG. 1, a microphone 1 collects the voice of a former singer (me) and outputs the voice to an input audio signal cutout unit 3 as an input audio signal Sv. In parallel with this, the analysis window generation unit 2 generates an analysis window (for example, a Hamming window) AW having a period that is a fixed multiple (for example, 3.5 times) of the period of the pitch detected in the previous frame. Is output to the input audio signal cutout unit 3. When the initial state or the previous frame is an unvoiced sound (including silence), an analysis window having a fixed period set in advance is output to the input audio signal cutout unit 3 as the analysis window AW.

【0018】これらにより入力音声信号切出部3は、入
力された分析窓AWと入力音声信号Svとを掛け合わ
せ、入力音声信号Svをフレーム単位で切り出し、フレ
ーム音声信号FSvとして高速フーリエ変換部4に出力
される。より具体的には、入力音声信号Svとフレーム
との関係は、図3に示すようになっており、各フレーム
FLは、前のフレームFLと一部重なるように設定され
ている。そして、高速フーリエ変換部4においてフレー
ム音声信号FSvは、解析処理されるとともに、図4に
示すように、高速フーリエ変換部4の出力である周波数
スペクトルからピーク検出部5によりローカルピークが
検出される。
Thus, the input audio signal extracting section 3 multiplies the input analysis window AW by the input audio signal Sv, cuts out the input audio signal Sv in units of frames, and converts the input audio signal Sv into a frame audio signal FSv. Is output to More specifically, the relationship between the input audio signal Sv and the frames is as shown in FIG. 3, and each frame FL is set so as to partially overlap the previous frame FL. Then, the frame audio signal FSv is analyzed in the fast Fourier transform unit 4, and a local peak is detected by the peak detecting unit 5 from the frequency spectrum output from the fast Fourier transform unit 4, as shown in FIG. .

【0019】より具体的には、図4に示すような周波数
スペクトルに対して、×印を付けたローカルピークを検
出する。このローカルピークは、周波数値とアンプ(振
幅)値の組み合わせとして表される。すなわち、図4に
示すように、(F0、A0)、(F1、A1)、(F
2、A2)、……、(FN、AN)というように各フレ
ームについてローカルピークが検出され、表されること
となる。そして、図3に模式的に示すように、各フレー
ム毎に一組(以下、ローカルピーク組という。)として
無声/有声検出部6及びピーク連携部8に出力される。
無声/有声検出部6は、入力されたフレーム毎のローカ
ルピークに基づいて、高周波成分の大きさに応じて無声
であることを検出(‘t’、‘k’等)し、無声/有声
検出信号U/Vmeをピッチ検出部7、イージーシンクロ
ナイゼーション処理部22及びクロスフェーダ部30に
出力する。あるいは、時間軸上で単位時間あたりの零ク
ロス数に応じて無声であることを検出(‘s’等)し、
元無声/有声検出信号U/Vmeをピッチ検出部7、イー
ジーシンクロナイゼーション処理部22及びクロスフェ
ーダ部30に出力する。
More specifically, a local peak marked with x is detected in the frequency spectrum as shown in FIG. This local peak is represented as a combination of a frequency value and an amplifier (amplitude) value. That is, as shown in FIG. 4, (F0, A0), (F1, A1), (F
Local peaks are detected and represented for each frame, such as (2, A2),..., (FN, AN). Then, as schematically shown in FIG. 3, one set (hereinafter, referred to as a local peak set) is output to the unvoiced / voiced detection unit 6 and the peak coordination unit 8 for each frame.
The unvoiced / voiced detection unit 6 detects that the voice is unvoiced ('t', 'k', etc.) according to the magnitude of the high-frequency component based on the input local peak for each frame, and performs unvoiced / voiced detection. The signal U / Vme is output to the pitch detection unit 7, the easy synchronization processing unit 22, and the crossfader unit 30. Alternatively, it is detected that there is no voice (such as 's') on the time axis according to the number of zero crosses per unit time,
The original unvoiced / voiced detection signal U / Vme is output to the pitch detection unit 7, the easy synchronization processing unit 22, and the crossfader unit 30.

【0020】さらに無声/有声検出部6は、入力された
フレームが無声であると検出されなかった場合には、入
力されたローカルピーク組をそのまま、ピッチ検出部7
に出力する。ピッチ検出部7は、入力されたローカルピ
ーク組に基づいて、当該ローカルピーク組が対応するフ
レームのピッチPmeを検出する。より具体的なフレーム
のピッチPmeの検出方法としては、例えば、Maher,R.C.
andJ.W.Beauchamp:"Fundamental Frequency Estimation
of Musical Signal using a two-way Mismatch Proced
ure"(Journal of Acounstical Society of America95
(4):2254-2263)に開示されているような方法で行う。
Further, when the input frame is not detected as unvoiced, the unvoiced / voiced detection unit 6 outputs the input local peak set as it is, and
Output to The pitch detector 7 detects the pitch Pme of the frame corresponding to the local peak set based on the input local peak set. More specific methods for detecting the pitch Pme of a frame include, for example, Maher, RC
andJ.W.Beauchamp: "Fundamental Frequency Estimation
of Musical Signal using a two-way Mismatch Proced
ure "(Journal of Acounstical Society of America95
(4): 2254-2263).

【0021】次に、ピーク検出部5から出力されたロー
カルピーク組は、ピーク連携部8において、前後のフレ
ームについて連携が判断され、連携すると認められるロ
ーカルピークについては、一連のデータ列となるように
ローカルピークをつなげる連携処理がなされる。ここ
で、この連携処理について、図5を参照して説明する。
今、図5(A)に示すようなローカルピークが前回のフ
レームにおいて検出され、図5(B)に示すようなロー
カルピークが今回のフレームにおいて検出されたとす
る。
Next, the local peak set output from the peak detecting section 5 is determined by the peak linking section 8 to be linked with the preceding and succeeding frames, and the local peaks recognized to be linked are formed into a series of data strings. A linking process for connecting a local peak to the data is performed. Here, this cooperation processing will be described with reference to FIG.
Now, assume that a local peak as shown in FIG. 5A is detected in the previous frame, and a local peak as shown in FIG. 5B is detected in the current frame.

【0022】この場合、ピーク連携部8は、前回のフレ
ームで検出された各ローカルピーク(F0、A0)、
(F1、A1)、(F2、A2)、……、(FN、A
N)に対応するローカルピークが今回のフレームでも検
出されたか否かを調べる。対応するローカルピークがあ
るか否かの判断は、前回のフレームで検出されたローカ
ルピークの周波数を中心にした所定範囲内に今回のフレ
ームのローカルピークが検出されるか否かによって行わ
れる。より具体的には、図5の例では、ローカルピーク
(F0、A0)、(F1、A1)、(F2、A2)……
については、対応するローカルピークが検出されている
が、ローカルピーク(FK、AK)については(図5
(A)参照)、対応するローカルピーク(図5(B)参
照)は検出されていない。
In this case, the peak coordinating unit 8 calculates each local peak (F0, A0) detected in the previous frame,
(F1, A1), (F2, A2), ..., (FN, A
It is checked whether the local peak corresponding to N) has been detected in the current frame. The determination as to whether or not there is a corresponding local peak is made based on whether or not the local peak of the current frame is detected within a predetermined range centered on the frequency of the local peak detected in the previous frame. More specifically, in the example of FIG. 5, the local peaks (F0, A0), (F1, A1), (F2, A2).
, The corresponding local peak is detected, but for the local peaks (FK, AK), (FIG. 5
(See (A)) and the corresponding local peak (see FIG. 5B) is not detected.

【0023】ピーク連携部8は、対応するローカルピー
クを検出した場合は、それらを時系列順に繋げて一組の
データ列として出力する。なお、対応するローカルピー
クが検出されない場合は、当該フレームについての対応
ローカルピークは無しということを示すデータに置き換
える。ここで、図6は、複数のフレームにわたるローカ
ルピークの周波数F0及び周波数F1の変化の一例を示
している。このような変化は、アンプ(振幅)A0、A
1、A2、……についても同様に認められる。この場
合、ピーク連携部8から出力されるデータ列は、フレー
ムの間隔おきに出力される離散的な値である。
When the corresponding local peaks are detected, the peak linking unit 8 connects the local peaks in chronological order and outputs them as a set of data strings. If the corresponding local peak is not detected, the data is replaced with data indicating that there is no corresponding local peak for the frame. Here, FIG. 6 shows an example of changes in the frequency F0 and the frequency F1 of the local peak over a plurality of frames. Such changes are caused by the amplifiers (amplitude) A0, A
1, A2,... Are similarly recognized. In this case, the data string output from the peak linking unit 8 is a discrete value output at every frame interval.

【0024】なお、ピーク連携部8から出力されるピー
ク値を、以後において、確定成分という。これは、元の
信号(すなわち、音声信号Sv)のうち正弦波の要素と
して確定的に置き換えられる成分という意味である。ま
た、置き換えられた各正弦波(厳密には、正弦波のパラ
メータである周波数及びアンプ(振幅))の各々につい
ては、正弦波成分と呼ぶことにする。
The peak value output from the peak linking unit 8 is hereinafter referred to as a deterministic component. This means a component that is deterministically replaced as a sine wave element in the original signal (that is, the audio signal Sv). Further, each of the replaced sine waves (strictly speaking, frequency and amplifier (amplitude) which are parameters of the sine wave) will be referred to as sine wave components.

【0025】次に、補間合成部9は、ピーク連携部8か
ら出力される確定成分について補間処理を行い、補間後
の確定成分に基づいていわゆるオシレータ方式で波形合
成を行う。この場合の補間の間隔は、後述する出力部3
4が出力する最終出力信号のサンプリングレート(例え
ば、44.1KHz)に対応した間隔で行われる。前述
した図6に示す実線は、正弦波成分の周波数F0、F1
について補間処理が行われた場合のイメージを示してい
る。
Next, the interpolation synthesizing section 9 performs an interpolation process on the deterministic component output from the peak linking section 8 and synthesizes a waveform based on the deterministic component after the interpolation by a so-called oscillator method. The interpolation interval in this case is determined by the output unit 3 described later.
4 is performed at intervals corresponding to the sampling rate (for example, 44.1 KHz) of the final output signal output. The solid lines shown in FIG. 6 described above are the frequencies F0 and F1 of the sine wave components.
5 shows an image when the interpolation processing is performed for.

【0026】[2.1] 補間合成部の構成 ここで、補間合成部9の構成を図7に示す。補間合成部
9は、複数の部分波形発生部9aを備えて構成されてお
り、各部分波形発生部9aは、指定された正弦波成分の
周波数(F0、F1、…)およびアンプ(振幅)に応じ
た正弦波を発生する。ただし、本第1実施形態における
正弦波成分(F0、A0)、(F1、A1)、(F2、
A2)、……は、各々補間の間隔に従って時事刻々変化
していくものであるから、各部分波形発生部9aから出
力される波形は、その変化に従った波形になる。すなわ
ち、ピーク連携部8からは正弦波成分(F0、A0)、
(F1、A1)、(F2、A2)、……が順次出力さ
れ、各正弦波成分の各々について補間処理が行われるか
ら、各部分波形発生部9aは、所定の周波数領域内で周
波数と振幅が変動する波形を出力する。そして、各部分
波形発生部9aから出力された波形は、加算部9bにお
いて加算合成される。したがって、補間合成部9の出力
信号は、入力音声信号Svから確定成分を抽出した正弦
波成分合成信号SSSになる。
[2.1] Configuration of Interpolation Synthesis Unit The configuration of the interpolation synthesis unit 9 is shown in FIG. The interpolation / synthesis unit 9 includes a plurality of partial waveform generation units 9a, and each of the partial waveform generation units 9a adjusts a frequency (F0, F1,...) And an amplifier (amplitude) of a designated sine wave component. Generates a corresponding sine wave. However, the sine wave components (F0, A0), (F1, A1), (F2,
Since A2),... Change every moment according to the interpolation interval, the waveform output from each partial waveform generator 9a becomes a waveform according to the change. That is, the sine wave components (F0, A0) from the peak linking unit 8,
(F1, A1), (F2, A2),... Are sequentially output, and interpolation processing is performed for each of the sine wave components. Therefore, each partial waveform generation unit 9a determines the frequency and amplitude within a predetermined frequency domain. Output a waveform that fluctuates. Then, the waveforms output from the respective partial waveform generators 9a are added and synthesized in an adder 9b. Therefore, the output signal of the interpolation / synthesis unit 9 is a sine wave component synthesized signal SSS obtained by extracting a deterministic component from the input audio signal Sv.

【0027】[2.2] 残差成分検出部の動作 次に、残差成分検出部10は、補間合成部9から出力さ
れた正弦波成分合成信号SSSと入力音声信号Svとの偏
差である残差成分信号SRD(時間波形)を生成する。こ
の残差成分信号SRDは、音声に含まれる無声成分を多く
含む。一方、前述の正弦波成分合成信号SSSは有声成分
に対応するものである。ところで、目標(Target)とな
る歌唱者の声に似せるには、有声音についてだけ処理を
行えば、無声音については処理を施す必要はあまりな
い。そこで、本実施形態においては、有声母音成分に対
応する確定成分について音声変換処理を行うようにして
いる。より具体的には、残差成分信号SRDについては、
高速フーリエ変換部11で、周波数波形に変換し、得ら
れた残差成分信号(周波数波形)をRme(f)として残差
成分保持部12に保持しておく。
[2.2] Operation of Residual Component Detecting Unit Next, the residual component detecting unit 10 calculates the deviation between the sine wave component synthesized signal SSS output from the interpolation synthesizing unit 9 and the input audio signal Sv. A residual component signal SRD (time waveform) is generated. This residual component signal SRD contains a lot of unvoiced components included in the voice. On the other hand, the above-mentioned sine wave component composite signal SSS corresponds to a voiced component. By the way, in order to resemble the voice of the singer who becomes the target (Target), if only the voiced sound is processed, it is not necessary to process the unvoiced sound. Therefore, in the present embodiment, speech conversion processing is performed on a deterministic component corresponding to a voiced vowel component. More specifically, regarding the residual component signal SRD,
The fast Fourier transform unit 11 converts the signal into a frequency waveform, and the obtained residual component signal (frequency waveform) is stored in the residual component storage unit 12 as Rme (f).

【0028】[2.3] 平均アンプ演算部の動作 一方、図7(A)に示すように、ピーク検出部5からピ
ーク連携部8を介して出力された正弦波成分(F0、A
0)、(F1、A1)、(F2、A2)、……、(F(N
-1)、A(N-1))のN個の正弦波成分(以下、これらをま
とめてFn、Anと表記する。n=0〜(N−1)。)
は、正弦波成分保持部13に保持されるとともに、アン
プAnは平均アンプ演算部14に入力され、各フレーム
毎に次式により平均アンプAmeが算出される。 Ame=Σ(An)/N
[2.3] Operation of Average Amplifier Operation Unit On the other hand, as shown in FIG. 7A, the sine wave components (F0, A) output from the peak detection unit 5 through the peak linking unit 8
0), (F1, A1), (F2, A2),..., (F (N
-1), A (N-1)) N sine wave components (hereinafter, these are collectively referred to as Fn and An. N = 0 to (N-1).)
Is held in the sine wave component holding unit 13, and the amplifier An is input to the average amplifier operation unit 14, and the average amplifier Ame is calculated for each frame by the following equation. Ame = Σ (An) / N

【0029】[2.4] アンプ正規化部の動作 次にアンプ正規化部15において、次式により各アンプ
Anを平均アンプAmeで正規化し、正規化アンプA’n
を求める。 A’n=An/Ame [2.5] スペクトラル・シェイプ演算部の動作 そして、スペクトラル・シェイプ演算部16において、
図8(B)に示すように、周波数Fn及び正規化アンプ
A’nにより得られる正弦波成分(Fn、A’n)をブ
レークポイントとするエンベロープ(包絡線)をスペク
トラル・シェイプSme(f)として生成する。この場合に
おいて、二つのブレークポイント間の周波数におけるア
ンプの値は、当該二つのブレークポイントを、例えば、
直線補間することにより算出する。なお、補間の方法は
直線補間に限られるものではない。
[2.4] Operation of Amplifier Normalization Unit Next, in the amplifier normalization unit 15, each amplifier An is normalized by the average amplifier Ame by the following equation, and the normalized amplifier A'n
Ask for. A'n = An / Ame [2.5] Operation of Spectral Shape Computing Unit Then, in the spectral shape computing unit 16,
As shown in FIG. 8B, an envelope (envelope) having a sine wave component (Fn, A'n) obtained by the frequency Fn and the normalizing amplifier A'n as a break point has a spectral shape Sme (f). Generate as In this case, the value of the amplifier at the frequency between the two breakpoints,
It is calculated by linear interpolation. The method of interpolation is not limited to linear interpolation.

【0030】[2.6] ピッチ正規化部の動作 続いてピッチ正規化部17においては、各周波数Fnを
ピッチ検出部7において検出したピッチPmeで正規化
し、正規化周波数F’nを求める。 F’n=Fn/Pme これらの結果、元フレーム情報保持部18は、入力音声
信号Svに含まれる正弦波成分に対応する元属性データ
である平均アンプAme、ピッチPme、スペクトラル・シ
ェイプSme(f)、正規化周波数F’nを保持することと
なる。なお、この場合において、正規化周波数F’n
は、倍音列の周波数の相対値を表しており、もし、フレ
ームの倍音構造を完全倍音構造であるとして取り扱うな
らば、保持する必要はない。
[2.6] Operation of Pitch Normalization Unit Subsequently, the pitch normalization unit 17 normalizes each frequency Fn with the pitch Pme detected by the pitch detection unit 7 to obtain a normalized frequency F'n. F′n = Fn / Pme As a result, the original frame information holding unit 18 obtains the average amplifier Ame, the pitch Pme, and the spectral shape Sme (f) which are the original attribute data corresponding to the sine wave component included in the input audio signal Sv. ), And hold the normalized frequency F'n. In this case, the normalized frequency F'n
Represents the relative value of the frequency of the harmonic train, and need not be retained if the harmonic structure of the frame is treated as a complete harmonic structure.

【0031】この場合において、男声/女声変換を行お
うとしている場合には、この段階において、男声→女声
変換を行う場合には、ピッチをオクターブ上げ、女声→
男声変換を行う場合にはピッチをオクターブ下げる男声
/女声ピッチ制御処理を行うようにするのが好ましい。
つづいて、元フレーム情報保持部18に保持している元
属性データのうち、平均アンプAmeおよびピッチPmeに
ついては、さらに静的変化/ビブラート的変化分離部1
9により、フィルタリング処理などを行って、静的変化
成分とビブラート変化的成分とに分離して保持する。な
お、さらにビブラート変化的成分からより高周波変化成
分であるジッタ変化的成分を分離するように構成するこ
とも可能である。
In this case, if male / female conversion is going to be performed, at this stage, if male / female conversion is performed, the pitch is raised by an octave, and female →
When performing male voice conversion, it is preferable to perform male / female voice pitch control processing for lowering the pitch by an octave.
Subsequently, of the original attribute data held in the original frame information holding unit 18, the average amplifier Ame and the pitch Pme are further subjected to the static change / vibrato change separation unit 1.
9, a filtering process or the like is performed to separate and retain a static variation component and a vibrato variation component. In addition, it is also possible to configure so as to further separate a jitter variable component which is a higher frequency change component from a vibrato variable component.

【0032】より具体的には、平均アンプAmeを平均ア
ンプ静的成分Ame-sta及び平均アンプビブラート的成分
Ame-vibとに分離して保持する。また、ピッチPmeをピ
ッチ静的成分Pme-sta及びピッチビブラート的成分Pme
-vibとに分離して保持する。これらの結果、対応するフ
レームの元フレーム情報データINFmeは、図8(C)
に示すように、入力音声信号Svの正弦波成分に対応す
る元属性データである平均アンプ静的成分Ame-sta、平
均アンプビブラート的成分Ame-vib、ピッチ静的成分P
me-sta、ピッチビブラート的成分Pme-vib、スペクトラ
ル・シェイプSme(f)、正規化周波数F’n及び残差成
分Rme(f)の形で保持されることとなる。
More specifically, the average amplifier Ame is separately held as an average amplifier static component Ame-sta and an average amplifier vibrato component Ame-vib. The pitch Pme is defined as a pitch static component Pme-sta and a pitch vibrato-like component Pme.
-vib and keep separately. As a result, the original frame information data INFme of the corresponding frame is as shown in FIG.
As shown in the figure, the average amplifier static component Ame-sta, the average amplifier vibrato-like component Ame-vib, and the pitch static component P are original attribute data corresponding to the sine wave component of the input audio signal Sv.
It is held in the form of me-sta, pitch vibrato-like component Pme-vib, spectral shape Sme (f), normalized frequency F'n, and residual component Rme (f).

【0033】一方、ものまねの対象(target)となる歌
唱者に対応するターゲット属性データから構成されるタ
ーゲットフレーム情報データINFtarは、予め分析さ
れてターゲットフレーム情報保持部20を構成するハー
ドディスクなどに予め保持されている。この場合におい
て、ターゲットフレーム情報データINFtarのうち、
正弦波成分に対応するターゲット属性データとしては、
平均アンプ静的成分Atar-sta、平均アンプビブラート
的成分Atar-vib、ピッチ静的成分Ptar-sta、ピッチビ
ブラート的成分Ptar-vib、スペクトラル・シェイプSt
ar(f)がある。また、ターゲットフレーム情報データI
NFtarのうち、残差成分に対応するターゲット属性デ
ータとしては、残差成分Rtar(f)がある。
On the other hand, target frame information data INFtar composed of target attribute data corresponding to a singer to be imitated (target) is analyzed in advance and stored in advance in a hard disk or the like constituting the target frame information storage unit 20. Have been. In this case, of the target frame information data INFtar,
As target attribute data corresponding to the sine wave component,
Average amplifier static component Atar-sta, average amplifier vibrato component Atar-vib, pitch static component Ptar-sta, pitch vibrato component Ptar-vib, spectral shape St
There is ar (f). Further, the target frame information data I
Among the NFtars, target attribute data corresponding to the residual component includes a residual component Rtar (f).

【0034】[2.7] キーコントロール/テンポチ
ェンジ部の動作 次にキーコントロール/テンポチェンジ部21は、シー
ケンサ21からの同期信号SSYNCに基づいて、ターゲッ
トフレーム情報保持部20から同期信号SSYNCに対応す
るフレームのターゲットフレーム情報INFtarの読出
処理及び読み出したターゲットフレーム情報データIN
Ftarを構成するターゲット属性データの補正処理を行
うとともに、読み出したターゲットフレーム情報INF
tarおよび当該フレームが無声であるか有声であるかを
表すターゲット無声/有声検出信号U/Vtarを出力す
る。より具体的には、キーコントロール/テンポチェン
ジ部21の図示しないキーコントロールユニットは、カ
ラオケ装置のキーを基準より上げ下げした場合、ターゲ
ット属性データであるピッチ静的成分Ptar-sta及びピ
ッチビブラート的成分Ptar-vibについても、同じだけ
上げ下げする補正処理を行う。例えば、50[cent]だ
けキーを上げた場合には、ピッチ静的成分Ptar-sta及
びピッチビブラート的成分Ptar-vibについても50[c
ent]だけ上げなければならない。
[2.7] Operation of Key Control / Tempo Change Unit Next, the key control / tempo change unit 21 responds to the synchronization signal SSYNC from the target frame information holding unit 20 based on the synchronization signal SSYNC from the sequencer 21. Of target frame information INFtar of the frame to be read and read target frame information data IN
The target attribute data constituting the Ftar is corrected, and the read target frame information INF is read.
It outputs tar and a target unvoiced / voiced detection signal U / Vtar indicating whether the frame is unvoiced or voiced. More specifically, the key control unit (not shown) of the key control / tempo change unit 21 is configured such that when the key of the karaoke apparatus is raised or lowered from a reference, the pitch static component Ptar-sta and the pitch vibrato-like component Ptar which are the target attribute data. For -vib, a correction process of raising and lowering the same is performed. For example, when the key is raised by 50 [cent], the pitch static component Ptar-sta and the pitch vibrato-like component Ptar-vib are also increased by 50 [c].
ent].

【0035】また、キーコントロール/テンポチェンジ
部21の図示しないテンポチェンジユニットは、カラオ
ケ装置のテンポを上げ下げした場合には、変更後のテン
ポに相当するタイミングで、ターゲットフレーム情報デ
ータINFtarの読み出し処理を行う必要がある。この
場合において、必要なフレームに対応するタイミングに
相当するターゲットフレーム情報データINFtarが存
在しない場合には、当該必要なフレームのタイミングの
前後のタイミングに存在する二つのフレームのターゲッ
トフレーム情報データINFtarを読み出し、これら二
つのターゲットフレーム情報データINFtarにより補
間処理を行い、当該必要なタイミングにおけるフレーム
のターゲットフレーム情報データINFtar、ひいて
は、ターゲット属性データを生成する。この場合におい
て、ビブラート的成分(平均アンプビブラート的成分A
tar-vib及びピッチビブラート的成分Ptar-vib)に関し
ては、そのままでは、ビブラートの周期自体が変化して
しまい、不適当であるので、周期が変動しないような補
間処理を行う必要がある。又は、ターゲット属性データ
として、ビブラートの軌跡そのものを表すデータではな
く、ビブラート周期及びビブラート深さのパラメータを
保持し、実際の軌跡を演算により求めるようにすれば、
この不具合を回避することができる。
A tempo change unit (not shown) of the key control / tempo change unit 21 reads the target frame information data INFtar at a timing corresponding to the changed tempo when the tempo of the karaoke apparatus is raised or lowered. There is a need to do. In this case, if there is no target frame information data INFtar corresponding to the timing corresponding to the required frame, the target frame information data INFtar of the two frames existing before and after the timing of the required frame is read out. Interpolation is performed using these two pieces of target frame information data INFtar to generate target frame information data INFtar of the frame at the necessary timing, and furthermore, target attribute data. In this case, the vibrato-like component (average amp vibrato-like component A
As for the tar-vib and the pitch vibrato-like component Ptar-vib), the period of the vibrato itself changes and is inappropriate, so that it is necessary to perform interpolation processing so that the period does not fluctuate. Or, if the target attribute data is not data representing the trajectory of the vibrato itself, but the parameters of the vibrato cycle and the vibrato depth are held, and the actual trajectory is obtained by calculation,
This problem can be avoided.

【0036】[2.8] イージーシンクロナイゼーシ
ョン処理部の動作 次にイージーシンクロナイゼーション処理部22は、も
のまねをしようとする歌唱者のフレーム(以下、元フレ
ームという。)に元フレーム情報データINFmeが存在
するにもかかわらず、対応するものまねの対象となる歌
唱者のフレーム(以下、ターゲットフレームという。)
にターゲットフレーム情報データINFtarが存在しな
い場合には、当該ターゲットフレームの前後方向に存在
するフレームのターゲットフレーム情報データINFta
rを当該ターゲットフレームのターゲットフレーム情報
データINFtarとするイージーシンクロナイゼーショ
ン処理を行う。
[2.8] Operation of Easy Synchronization Processing Unit Next, the easy synchronization processing unit 22 adds the original frame information data INFme to the frame of the singer who wants to imitate (hereinafter referred to as the original frame). Despite the presence of, the singer's frame that is the target of the corresponding singer (hereinafter referred to as the target frame)
If the target frame information data INFtar does not exist in the target frame, the target frame information data INFta
An easy synchronization process is performed using r as the target frame information data INFtar of the target frame.

【0037】そして、イージーシンクロナイゼーション
処理部22は、後述する置換済ターゲットフレーム情報
データINFtar-syncに含まれるターゲット属性データ
のうち正弦波成分に関するターゲット属性データ(平均
アンプ静的成分Atar-sync-sta、平均アンプビブラート
的成分Atar-sync-vib、ピッチ静的成分Ptar-sync-st
a、ピッチビブラート的成分Ptar-sync-vib及びスペク
トラル・シェイプStar-sync(f))を正弦波成分属性デ
ータ選択部23に出力する。また、イージーシンクロナ
イゼーション処理部22は、後述する置換済ターゲット
フレーム情報データINFtar-syncに含まれるターゲッ
ト属性データのうち残差成分に関するターゲット属性デ
ータ(残差成分Rtar-sync(f))を残差成分選択部25
に出力する。
Then, the easy synchronization processing section 22 outputs target attribute data relating to a sine wave component (average amplifier static component Atar-sync-) among target attribute data included in replaced target frame information data INFtar-sync, which will be described later. sta, average amp vibrato component Atar-sync-vib, pitch static component Ptar-sync-st
a, a pitch vibrato-like component Ptar-sync-vib and a spectral shape Star-sync (f)) are output to the sine wave component attribute data selection unit 23. Further, the easy synchronization processing unit 22 stores target attribute data (residual component Rtar-sync (f)) relating to a residual component among target attribute data included in replaced target frame information data INFtar-sync described later. Difference component selection unit 25
Output to

【0038】このイージーシンクロナイゼーション部2
2における処理においても、ビブラート的成分(平均ア
ンプビブラート的成分Atar-vib及びピッチビブラート
的成分Ptar-vib)に関しては、そのままでは、ビブラ
ートの周期自体が変化してしまい、不適当であるので、
周期が変動しないような補間処理を行う必要がある。又
は、ターゲット属性データとして、ビブラートの軌跡そ
のものを表すデータではなく、ビブラート周期及びビブ
ラート深さのパラメータを保持し、実際の軌跡を演算に
より求めるようにすれば、この不具合を回避することが
できる。
This easy synchronization section 2
In the processing in 2, the vibrato-like components (average amp vibrato-like component Atar-vib and pitch vibrato-like component Ptar-vib) are unsuitable as they are because the vibrato period itself changes and is unsuitable.
It is necessary to perform interpolation processing so that the period does not change. Alternatively, this problem can be avoided by holding the parameters of the vibrato cycle and the vibrato depth instead of the data representing the vibrato trajectory itself as the target attribute data and calculating the actual trajectory by calculation.

【0039】[2.8.1] イージーシンクロナイゼ
ーション処理の詳細 ここで、図9及び図10を参照してイージーシンクロナ
イゼーション処理について詳細に説明する。図9は、イ
ージーシンクロナイゼーション処理のタイミングチャー
トであり、図10はイージーシンクロナイゼーション処
理フローチャートである。まず、イージーシンクロナイ
ゼーション部22は、シンクロナイゼーション処理の処
理方法を表すシンクロナイゼーションモード=“0”と
する(ステップS11)。このシンクロナイゼーション
モード=“0”は、元フレームに対応するターゲットフ
レームにターゲットフレーム情報データINFtarが存
在する通常処理の場合に相当する。そしてあるタイミン
グtにおける元無声/有声検出信号U/Vme(t)が無声
(U)から有声(V)に変化したか否かを判別する(ス
テップS12)。
[2.8.1] Details of Easy Synchronization Process Here, the easy synchronization process will be described in detail with reference to FIGS. 9 and 10. FIG. 9 is a timing chart of the easy synchronization process, and FIG. 10 is a flowchart of the easy synchronization process. First, the easy synchronization unit 22 sets the synchronization mode = "0" indicating the processing method of the synchronization processing (step S11). This synchronization mode = "0" corresponds to the case of normal processing in which the target frame information data INFtar exists in the target frame corresponding to the original frame. Then, it is determined whether or not the original unvoiced / voiced detection signal U / Vme (t) at a certain timing t has changed from unvoiced (U) to voiced (V) (step S12).

【0040】例えば、図9に示すように、タイミングt
=t1においては、元無声/有声検出信号U/Vme(t)が
無声(U)から有声(V)に変化している。ステップS
12の判別において、元無声/有声検出信号U/Vme
(t)が無声(U)から有声(V)に変化している場合に
は(ステップS12;Yes)、タイミングtの前回の
タイミングt-1における元無声/有声検出信号U/Vme
(t-1)が無声(U)かつターゲット無声/有声検出信号
U/Vtar(t-1)が無声(U)であるか否かを判別する
(ステップS18)。例えば、図9に示すように、タイ
ミングt=t0(=t1-1)においては、元無声/有声検
出信号U/Vme(t-1)が無声(U)かつターゲット無声
/有声検出信号U/Vtar(t-1)が無声(U)となってい
る。ステップS18の判別において、元無声/有声検出
信号U/Vme(t-1)が無声(U)かつターゲット無声/
有声検出信号U/Vtar(t-1)が無声(U)となっている
場合には(ステップS18;Yes)、当該ターゲット
フレームには、ターゲットフレーム情報データINFta
rが存在しないので、シンクロナイゼーションモード=
“1”とし、置換用のターゲットフレーム情報データI
NFholdを当該ターゲットフレームの後方向(Backwar
d)に存在するフレームのターゲットフレーム情報とす
る。
For example, as shown in FIG.
At = t1, the original unvoiced / voiced detection signal U / Vme (t) changes from unvoiced (U) to voiced (V). Step S
In the determination of No. 12, the original unvoiced / voiced detection signal U / Vme
If (t) has changed from unvoiced (U) to voiced (V) (Step S12; Yes), the original unvoiced / voiced detection signal U / Vme at the previous timing t-1 of the timing t.
It is determined whether (t-1) is unvoiced (U) and the target unvoiced / voiced detection signal U / Vtar (t-1) is unvoiced (U) (step S18). For example, as shown in FIG. 9, at timing t = t0 (= t1-1), the original unvoiced / voiced detection signal U / Vme (t-1) is unvoiced (U) and the target unvoiced / voiced detection signal U / Vme (t-1). Vtar (t-1) is silent (U). In the determination in step S18, the original unvoiced / voiced detection signal U / Vme (t-1) is unvoiced (U) and the target unvoiced /
When the voiced detection signal U / Vtar (t-1) is unvoiced (U) (step S18; Yes), the target frame includes the target frame information data INFta.
Since r does not exist, the synchronization mode =
It is set to “1”, and the replacement target frame information data I
Set NFhold in the backward direction of the target frame (Backwar
This is the target frame information of the frame existing in d).

【0041】例えば、図9に示すように、タイミングt
=t1〜t2のターゲットフレームには、ターゲットフレ
ーム情報データINFtarが存在しないので、シンクロ
ナイゼーションモード=“1”とし、置換用ターゲット
フレーム情報データINFholdを当該ターゲットフレー
ムの後方向に存在するフレーム(すなわち、タイミング
t=t2〜t3に存在するフレーム)のターゲットフレー
ム情報データbackwardとする。そして、処理をステップ
S15に移行し、シンクロナイゼーションモード=
“0”であるか否かを判別する(ステップS15)。ス
テップS15の判別において、シンクロナイゼーション
モード=“0”である場合には、タイミングtにおける
元フレームに対応するターゲットフレームにターゲット
フレーム情報データINFtar(t)が存在する場合、すな
わち、通常処理であるので、置換済ターゲットフレーム
情報データINFtar-syncをターゲットフレーム情報デ
ータINFtar(t)とする。 INFtar-sync=INFtar(t)
For example, as shown in FIG.
= T1 to t2, since the target frame information data INFtar does not exist, the synchronization mode is set to “1”, and the replacement target frame information data INFhold is set to a frame existing in the backward direction of the target frame (ie, , Target frame information data backward at timing t = frames existing at t2 to t3). Then, the process proceeds to step S15, and the synchronization mode =
It is determined whether it is “0” (step S15). If it is determined in step S15 that the synchronization mode is “0”, the target frame corresponding to the original frame at the timing t includes the target frame information data INFtar (t), that is, the normal process. Therefore, the replaced target frame information data INFtar-sync is set as target frame information data INFtar (t). INFtar-sync = INFtar (t)

【0042】例えば、図9に示すようにタイミングt=
t2〜t3のターゲットフレームには、ターゲットフレー
ム情報データINFtarが存在するので、 INFtar-sync=INFtar(t) とする。この場合において、以降の処理に用いられる置
換済ターゲットフレーム情報データINFtar-syncに含
まれるターゲット属性データ(平均アンプ静的成分Ata
r-sync-sta、平均アンプビブラート的成分Atar-sync-v
ib、ピッチ静的成分Ptar-sync-sta、ピッチビブラート
的成分Ptar-sync-vib、スペクトラル・シェイプStar-
sync(f)及び残差成分Rtar-sync(f))は実質的には、以
下の内容となる(ステップS16)。 Atar-sync-sta=Atar-sta Atar-sync-vib=Atar-vib Ptar-sync-sta=Ptar-sta Ptar-sync-vib=Ptar-vib Star-sync(f)=Star(f) Rtar-sync(f)=Rtar(f)
For example, as shown in FIG.
Since target frame information data INFtar exists in the target frame from t2 to t3, INFtar-sync = INFtar (t) is set. In this case, the target attribute data (average amplifier static component Ata) included in the replaced target frame information data INFtar-sync used in the subsequent processing
r-sync-sta, average amp vibrato component Atar-sync-v
ib, pitch static component Ptar-sync-sta, pitch vibrato-like component Ptar-sync-vib, spectral shape Star-
The sync (f) and the residual component Rtar-sync (f) have substantially the following contents (step S16). Atar-sync-sta = Atar-sta Atar-sync-vib = Atar-vib Ptar-sync-sta = Ptar-sta Ptar-sync-vib = Ptar-vib Star-sync (f) = Star (f) Rtar-sync (f) = Rtar (f)

【0043】ステップS15の判別において、シンクロ
ナイゼーションモード=“1”またはシンクロナイゼー
ションモード=“1”である場合には、タイミングtに
おける元フレームに対応するターゲットフレームにター
ゲットフレーム情報データINFtar(t)が存在しない場
合であるので、置換済ターゲットフレーム情報データI
NFtar-syncを置換用ターゲットフレーム情報データI
NFholdとする。INFtar-sync=INFhold例えば、
図9に示すように、タイミングt=t1〜t2のターゲッ
トフレームには、ターゲットフレーム情報データINF
tarが存在せず、シンクロナイゼーションモード=
“1”となるが、タイミングt=t2〜t3のターゲット
フレームには、ターゲットフレーム情報データINFta
rが存在するので、置換済ターゲットフレーム情報デー
タINFtar-syncをタイミングt=t2〜t3のターゲッ
トフレームのターゲットフレーム情報データである置換
用ターゲットフレーム情報データINFholdとする処理
P1を行い、以降の処理に用いられる置換済ターゲット
フレーム情報データINFtar-syncに含まれるターゲッ
ト属性データは、平均アンプ静的成分Atar-sync-sta、
平均アンプビブラート的成分Atar-sync-vib、ピッチ静
的成分Ptar-sync-sta、ピッチビブラート的成分Ptar-
sync-vib、スペクトラル・シェイプStar-sync(f)及び
残差成分Rtar-sync(f)となる(ステップS16)。
If it is determined in step S15 that the synchronization mode is "1" or the synchronization mode is "1", the target frame information data INFtar (t) is added to the target frame corresponding to the original frame at the timing t. ) Does not exist, the replaced target frame information data I
Target frame information data I for replacing NFtar-sync
NFhold. INFtar-sync = INFhold For example,
As shown in FIG. 9, the target frame at timing t = t1 to t2 includes target frame information data INF.
If there is no tar, synchronization mode =
Although it becomes "1", the target frame at the timing t = t2 to t3 has the target frame information data INFta
Since r exists, the process P1 is performed to set the replaced target frame information data INFtar-sync as replacement target frame information data INFhold which is the target frame information data of the target frame at the timing t = t2 to t3. The target attribute data included in the replaced target frame information data INFtar-sync used is an average amplifier static component Atar-sync-sta,
Average amp vibrato component Atar-sync-vib, pitch static component Ptar-sync-sta, pitch vibrato component Ptar-
The result is a sync-vib, a spectral shape Star-sync (f), and a residual component Rtar-sync (f) (step S16).

【0044】また、図9に示すように、タイミングt=
t3〜t4のターゲットフレームには、ターゲットフレー
ム情報データINFtarが存在せず、シンクロナイゼー
ションモード=“2”となるが、タイミングt=t2〜
t3のターゲットフレームには、ターゲットフレーム情
報データINFtarが存在するので、置換済ターゲット
フレーム情報データINFtar-syncをタイミングt=t
2〜t3のターゲットフレームのターゲットフレーム情報
データである置換用ターゲットフレーム情報データIN
Fholdとする処理P2を行い、以降の処理に用いられる
置換済ターゲットフレーム情報データINFtar-syncに
含まれるターゲット属性データは、平均アンプ静的成分
Atar-sync-sta、平均アンプビブラート的成分Atar-sy
nc-vib、ピッチ静的成分Ptar-sync-sta、ピッチビブラ
ート的成分Ptar-sync-vib、スペクトラル・シェイプS
tar-sync(f)及び残差成分Rtar-sync(f)となる(ステッ
プS16)。ステップS12の判別において、元無声/
有声検出信号U/Vme(t)が無声(U)から有声(V)
に変化していない場合には(ステップS12;No)、
ターゲット無声/有声検出信号U/Vtar(t)が有声
(V)から無声(U)に変化しているか否かを判別する
(ステップS13)。
As shown in FIG. 9, the timing t =
In the target frame from t3 to t4, the target frame information data INFtar does not exist, and the synchronization mode = “2”.
Since the target frame information data INFtar exists in the target frame at t3, the replaced target frame information data INFtar-sync is set at the timing t = t.
Replacement target frame information data IN which is the target frame information data of the target frames from 2 to t3
The target attribute data included in the replaced target frame information data INFtar-sync used in the subsequent processing includes an average amplifier static component Atar-sync-sta and an average amplifier vibrato-like component Atar-sy.
nc-vib, pitch static component Ptar-sync-sta, pitch vibrato-like component Ptar-sync-vib, spectral shape S
The result is a tar-sync (f) and a residual component Rtar-sync (f) (step S16). In the determination in step S12, the original silent /
The voiced detection signal U / Vme (t) changes from unvoiced (U) to voiced (V)
(Step S12; No),
It is determined whether or not the target unvoiced / voiced detection signal U / Vtar (t) has changed from voiced (V) to unvoiced (U) (step S13).

【0045】ステップS13の判別において、ターゲッ
ト無声/有声検出信号U/Vtar(t)が有声(V)から無
声(U)に変化している場合には(ステップS13;Y
es)、タイミングtの前回のタイミングt-1における
元無声/有声検出信号U/Vme(t-1)が有声(V)かつ
ターゲット無声/有声検出信号U/Vtar(t-1)が有声
(V)であるか否かを判別する(ステップS19)。例
えば、図9に示すように、タイミングt3においてター
ゲット無声/有声検出信号U/Vtar(t)が有声(V)か
ら無声(U)に変化し、タイミングt-1=t2〜t3にお
いては、元無声/有声検出信号U/Vme(t-1)が有声
(V)かつターゲット無声/有声検出信号U/Vtar(t-
1)が有声(U)となっている。
If it is determined in step S13 that the target unvoiced / voiced detection signal U / Vtar (t) changes from voiced (V) to unvoiced (U) (step S13; Y)
es), the original unvoiced / voiced detection signal U / Vme (t-1) at the previous timing t-1 of the timing t is voiced (V) and the target unvoiced / voiced detection signal U / Vtar (t-1) is voiced ( V) is determined (step S19). For example, as shown in FIG. 9, at timing t3, the target unvoiced / voiced detection signal U / Vtar (t) changes from voiced (V) to unvoiced (U), and at timing t-1 = t2 to t3, The unvoiced / voiced detection signal U / Vme (t-1) is voiced (V) and the target unvoiced / voiced detection signal U / Vtar (t-
1) is voiced (U).

【0046】ステップS18の判別において、元無声/
有声検出信号U/Vme(t-1)が有声(V)かつターゲッ
ト無声/有声検出信号U/Vtar(t-1)が有声(V)とな
っている場合には(ステップS19;Yes)、当該タ
ーゲットフレームには、ターゲットフレーム情報データ
INFtarが存在しないので、シンクロナイゼーション
モード=“2”とし、置換用のターゲットフレーム情報
データINFholdを当該ターゲットフレームの前方向
(forward)に存在するフレームのターゲットフレーム
情報とする。例えば、図9に示すように、タイミングt
=t3〜t4のターゲットフレームには、ターゲットフレ
ーム情報データINFtarが存在しないので、シンクロ
ナイゼーションモード=“2”とし、置換用ターゲット
フレーム情報データINFholdを当該ターゲットフレー
ムの前方向に存在するフレーム(すなわち、タイミング
t=t2〜t3に存在するフレーム)のターゲットフレー
ム情報データforwardとする。
In the determination in step S18, the original silent /
If the voiced detection signal U / Vme (t-1) is voiced (V) and the target unvoiced / voiced detection signal U / Vtar (t-1) is voiced (V) (step S19; Yes), Since the target frame information data INFtar does not exist in the target frame, the synchronization mode is set to “2” and the replacement target frame information data INFhold is set to the target of the frame existing in the forward direction of the target frame. Frame information. For example, as shown in FIG.
= T3 to t4, since the target frame information data INFtar does not exist in the target frame, the synchronization mode is set to “2” and the replacement target frame information data INFhold is set to a frame existing in the forward direction of the target frame (that is, , Target frame information data forward at a timing t = frames t2 to t3).

【0047】そして、処理をステップS15に移行し、
シンクロナイゼーションモード=“0”であるか否かを
判別して(ステップS15)、以下、同様の処理を行
う。ステップS13の判別において、ターゲット無声/
有声検出信号U/Vtar(t)が有声(V)から無声(U)
に変化していない場合には(ステップS13;No)、
タイミングtにおける元無声/有声検出信号U/Vme
(t)が有声(V)から無声(U)に変化し、あるいは、
ターゲット無声/有声検出信号U/Vtar(t)が無声
(U)から有声(V)に変化しているか否かを判別する
(ステップS14)。
Then, the process shifts to step S15.
It is determined whether or not the synchronization mode is "0" (step S15), and the same processing is performed thereafter. In the determination in step S13, the target unvoiced /
The voiced detection signal U / Vtar (t) changes from voiced (V) to unvoiced (U)
(Step S13; No),
Original unvoiced / voiced detection signal U / Vme at timing t
(t) changes from voiced (V) to unvoiced (U), or
It is determined whether or not the target unvoiced / voiced detection signal U / Vtar (t) has changed from unvoiced (U) to voiced (V) (step S14).

【0048】ステップS14の判別において、タイミン
グtにおける元無声/有声検出信号U/Vme(t)が有声
(V)から無声(U)に変化し、あるいは、ターゲット
無声/有声検出信号U/Vtar(t)が無声(U)から有声
(V)に変化している場合には(ステップS14;Ye
s)、シンクロナイゼーションモード=“0”とし、置
換用ターゲットフレーム情報データINFholdを初期化
(clear)し、処理をステップS15に移行して、以
下、同様の処理を行う。ステップS14の判別におい
て、タイミングtにおける元無声/有声検出信号U/V
me(t)が有声(V)から無声(U)に変化せず、あるい
は、ターゲット無声/有声検出信号U/Vtar(t)が無声
(U)から有声(V)に変化していない場合には(ステ
ップS14;No)、そのまま処理をステップS15に
移行し、以下同様の処理を行う。
In the determination in step S14, the original unvoiced / voiced detection signal U / Vme (t) at the timing t changes from voiced (V) to unvoiced (U), or the target unvoiced / voiced detection signal U / Vtar ( If t) changes from unvoiced (U) to voiced (V) (step S14; Ye)
s), the synchronization mode is set to "0", the replacement target frame information data INFhold is initialized (cleared), the process proceeds to step S15, and the same process is performed. In the determination of step S14, the original unvoiced / voiced detection signal U / V at timing t
When me (t) does not change from voiced (V) to unvoiced (U), or when target unvoiced / voiced detection signal U / Vtar (t) does not change from unvoiced (U) to voiced (V). (Step S14; No), the process proceeds to Step S15, and the same process is performed thereafter.

【0049】[2.9] 変形スペクトラルシェイプ生
成部の動作 続いて、変形スペクトラルシェイプ生成部23は、静的
変化/ビブラート的変化分離部19から入力された入力
音声信号Svの正弦波成分に対応する元属性データであ
る平均アンプ静的成分Ame-sta、平均アンプビブラート
的成分Ame-vib、ピッチ静的成分Pme-sta、ピッチビブ
ラート的成分Pme-vib、スペクトラル・シェイプSme
(f)、正規化周波数F’n、イージーシンクロナイゼー
ション部22から入力された置換済ターゲットフレーム
情報データINFtar-syncに含まれるターゲット属性デ
ータのうち正弦波成分に関するターゲット属性データ
(平均アンプ静的成分Atar-sync-sta、平均アンプビブ
ラート的成分Atar-sync-vib、ピッチ静的成分Ptar-sy
nc-sta、ピッチビブラート的成分Ptar-sync-vib及びス
ペクトラル・シェイプStar-sync(f))及びコントロー
ラ29から入力される変形スペクトラル・シェイプ生成
情報に基づいて、新しいスペクトラル・シェイプである
変形スペクトラル・シェイプSnew(f)を生成する。
[2.9] Operation of Modified Spectral Shape Generation Unit Subsequently, the modified spectral shape generation unit 23 responds to the sine wave component of the input audio signal Sv input from the static change / vibrato change change separation unit 19. Average attribute static component Ame-sta, average amplifier vibrato component Ame-vib, pitch static component Pme-sta, pitch vibrato component Pme-vib, spectral shape Sme
(f), the normalized frequency F′n, and the target attribute data relating to the sine wave component among the target attribute data included in the replaced target frame information data INFtar-sync input from the easy synchronization section 22 (average amplifier static Component Atar-sync-sta, average amp vibrato-like component Atar-sync-vib, pitch static component Ptar-sy
Based on the nc-sta, the pitch vibrato-like component Ptar-sync-vib and the spectral shape Star-sync (f)) and the deformed spectral shape generation information input from the controller 29, the deformed spectral shape as a new spectral shape is obtained. Generate the shape Snew (f).

【0050】変形スペクトラルシェイプの生成は、元歌
唱者に対応するスペクトラル・シェイプ(あるいは、タ
ーゲット歌唱者に対応するターゲットスペクトラル・シ
ェイプ)を周波数軸方向に定数α(0<α≦2)でシフ
トすることにより行う。ここで、より具体的に、変形ス
ペクトラルシェイプSnew(f)の生成について説明する。
The generation of the modified spectral shape is performed by shifting the spectral shape corresponding to the original singer (or the target spectral shape corresponding to the target singer) by a constant α (0 <α ≦ 2) in the frequency axis direction. It is done by doing. Here, the generation of the modified spectral shape Snew (f) will be described more specifically.

【0051】[2.9.1] 変形スペクトラルシェイ
プSnew(f)の具体的生成方法 図11にターゲット歌唱者である女性のスペクトラル・
シェイプを示す。図11に示すように、ターゲット歌唱
者の正弦波成分に含まれる周波数成分は、ff0〜ffnで
表されている。図12に元歌唱者である男性のスペクト
ラル・シェイプを示す。図12に示すように、元歌唱者
の正弦波成分に含まれる周波数成分は、fm0〜fmnで表
されている。また、各周波数成分fm0〜fmnに対応する
アンプは、Afm0〜Afmnで表されている。
[2.9.1] Specific Method of Generating Modified Spectral Shape Snew (f) FIG. 11 shows a spectral spectrum of a woman who is a target singer.
Indicates a shape. As shown in FIG. 11, frequency components included in the sine wave component of the target singer are represented by ff0 to ffn. FIG. 12 shows a spectral shape of a man who is a former singer. As shown in FIG. 12, frequency components included in the sine wave component of the former singer are represented by fm0 to fmn. Amplifiers corresponding to the frequency components fm0 to fmn are represented by Afm0 to Afmn.

【0052】この場合において、元歌唱者のアンプA
(fm)=Afm0、Afm1、…、Afmnは元のままで、周波
数成分fm0〜fmnのみをα倍(1≦α≦2)して、すな
わち、αの値に相当するだけスペクトラル・シェイプを
周波数軸に沿って高域側にシフトすることにより変形ス
ペクトラル・シェイプSnew(f)を生成する。すなわち、
変形スペクトラル・シェイプに対応する周波数成分をf
h0〜fhnと表すとすると、 fh0=α・fm0 fh1=α・fm1 fh2=α・fm2 …… fhn=α・fmn とし、図13及び以下に示す変形正弦波成分群(=周波
数成分及びアンプで表される正弦波成分の一群)により
特定される変形スペクトラルシェイプSnew(f)を得る。 (fh0、Afm0) (fh1、Afm1) (fh2、Afm2) …… (fh0、Afm0)
In this case, the former singer's amplifier A
(Fm) = Afm0, Afm1,..., Afmn are unchanged, and only the frequency components fm0 to fmn are multiplied by α (1 ≦ α ≦ 2), that is, the spectral shape is shifted by the frequency corresponding to the value of α. A shifted spectral shape Snew (f) is generated by shifting to higher frequencies along the axis. That is,
The frequency component corresponding to the deformed spectral shape is f
When expressed as h0 to fhn, fh0 = α · fm0 fh1 = α · fm1 fh2 = α · fm2... fhn = α · fmn, and a modified sine wave component group (= frequency component and amplifier A modified spectral shape Snew (f) specified by a group of sinusoidal components represented) is obtained. (Fh0, Afm0) (fh1, Afm1) (fh2, Afm2) ... (fh0, Afm0)

【0053】ところで、一般的にアンプ成分が大きい場
合には、高域まで伸びた抜けの良い音となり、アンプ成
分が小さい場合には、逆にこもった音になる。そこで、
新規スペクトラル・シェイプSnew(f)に関しては、この
ような状態をシミュレートすべく、図15に示すよう
に、スペクトラル・シェイプの高域成分、すなわち、高
域成分部分のスペクトラル・シェイプの傾きを新規アン
プ成分Anewの大きさに応じて補償するスペクトラルチ
ルト補償(spectral tilt correction)を行って、コン
トロールすることにより、よりリアルな音声を再生する
ことができる。続いて、生成された変形スペクトラル・
シェイプSnew(f)について、必要に応じてコントローラ
29から入力される変形スペクトラル・シェイプ加工情
報に基づいて、変形スペクトラル・シェイプ加工部24
によりさらなる波形の加工を行う。例えば、変形スペク
トラル・シェイプSnew(f)を全体的に間延びさせる等の
波形加工を行う。そして、変形スペクトラル・シェイプ
加工部24は得られた変形スペクトラル・シェイプSne
w(f)に基づいて第3フォルマントを検出する。
By the way, in general, when the amplifier component is large, the sound extends to a high range and has a good sound, and when the amplifier component is small, the sound is muffled. Therefore,
Regarding the new spectral shape Snew (f), in order to simulate such a state, as shown in FIG. 15, the high-frequency component of the spectral shape, that is, the slope of the spectral shape of the high-frequency component is newly set. By performing and controlling spectral tilt correction (spectral tilt correction) for compensating according to the magnitude of the amplifier component Anew, a more realistic sound can be reproduced. Next, the generated deformed spectral
For the shape Snew (f), based on the deformed spectral shape processing information input from the controller 29 as needed, the deformed spectral shape processing unit 24
To further process the waveform. For example, waveform processing such as extending the deformed spectral shape Snew (f) entirely is performed. Then, the deformed spectral shape processing unit 24 obtains the obtained deformed spectral shape Sne.
A third formant is detected based on w (f).

【0054】[2.10] 第3フォルマントFT3の
検出 次に、第3フォルマントFT3の検出方法を、隣り合う
二つの正弦波成分に対応する正規化アンプA’fK、
A’fK-1の差ΔA’(fK−fK-1)の変化に基づいて
行う場合について説明する。変形スペクトラル・シェイ
プの第3フォルマントFT3近傍及び第2フォルマント
FT2終端部分の状態を図16に示す。第3フォルマン
トFT3の周波数の範囲は、通常1.5[kHz]以上
4[kHz]以下であるため、 fK≒1.5[kHz] を満たすKを定め、その値をKSとする。また、 fK≒4[kHz] を満たすKを定め、その値をKEとする。
[2.10] Detection of Third Formant FT3 Next, a method of detecting the third formant FT3 is described by using a normalization amplifier A′fK corresponding to two adjacent sine wave components.
The case where the change is performed based on the change in the difference ΔA ′ (fK−fK−1) of A′fK−1 will be described. FIG. 16 shows the state of the deformed spectral shape in the vicinity of the third formant FT3 and the end of the second formant FT2. Since the range of the frequency of the third formant FT3 is usually 1.5 [kHz] or more and 4 [kHz] or less, K that satisfies fK] 1.5 [kHz] is determined, and its value is set to KS. Further, K that satisfies fKHz4 [kHz] is determined, and its value is set to KE.

【0055】次に、fK(K=KS、…、KE)のKの値を増
加させる。そして、ΔA’(fK−fK-1)の値を観察
し、 ΔA’(fK−fK-1)<0 の状態から ΔA’(fK−fK-1)≧0 に変化したときのKの値をpとする。これをK=KEま
で繰り返し行って、第3フォルマントFT3の平均周波
数に最も近い周波数fpを第3フォルマントFT3とする
ことで検出することができる。なお、第3フォルマント
FT3の検出は、上記方法に限られるものではなく、例
えば、線形予測法を利用して求めることも可能である。
そして、この検出した第3フォルマントFT3は、バン
ドパスフィルタ特性制御部42に出力される。また、こ
の第3フォルマントFT3の出力と並行して、第3フォ
ルマントFT3の周波数におけるアンプAFT3が検出さ
れ、レベル制御部43に出力される。
Next, the value of K of fK (K = KS,..., KE) is increased. Then, the value of ΔA ′ (fK−fK−1) is observed, and the value of K when ΔA ′ (fK−fK−1) ≧ 0 from the state of ΔA ′ (fK−fK−1) <0 Is p. This is repeated until K = KE, and the frequency fp closest to the average frequency of the third formant FT3 can be detected by setting it as the third formant FT3. Note that the detection of the third formant FT3 is not limited to the above method, but can be obtained by using, for example, a linear prediction method.
Then, the detected third formant FT3 is output to the band-pass filter characteristic control unit 42. In parallel with the output of the third formant FT3, the amplifier AFT3 at the frequency of the third formant FT3 is detected and output to the level control unit 43.

【0056】[2.11] 残差成分選択部の動作 一方、残差成分選択部25は、イージーシンクロナイゼ
ーション部22から入力された置換済ターゲットフレー
ム情報データINFtar-syncに含まれるターゲット属性
データのうち残差成分に関するターゲット属性データ
(残差成分Rtar-sync(f))、残差成分保持部12に保
持されている残差成分信号(周波数波形)Rme(f)及び
コントローラ29から入力される残差成分属性データ選
択情報に基づいて新しい残差成分属性データである新規
残差成分Rnew(f)を生成する。すなわち、新規残差成分
Rnew(f)については、次式により生成する。 Rnew(f)=R*(f)(ただし、*は、me又はtar-sync) この場合においては、me又はtar-syncのいずれを選択す
るかは、新規スペクトラル・シェイプSnew(f)と同一の
ものを選択するのがより好ましい。
[2.11] Operation of Residual Component Selection Unit On the other hand, the residual component selection unit 25 includes the target attribute data included in the replaced target frame information data INFtar-sync input from the easy synchronization unit 22. Among the target attribute data (residual component Rtar-sync (f)) relating to the residual component, the residual component signal (frequency waveform) Rme (f) held in the residual component holding unit 12, and the input from the controller 29. A new residual component Rnew (f), which is new residual component attribute data, is generated based on the residual component attribute data selection information. That is, the new residual component Rnew (f) is generated by the following equation. Rnew (f) = R * (f) (* is me or tar-sync) In this case, whether to select me or tar-sync is the same as the new spectral shape Snew (f) It is more preferred to select

【0057】さらに、新規残差成分Rnew(f)に関して
も、新規スペクトラル・シェイプと同様な状態をシミュ
レートすべく、図10に示したように、残差成分の高域
成分、すなわち、高域成分部分の残差成分の傾きを新規
アンプ成分Anewの大きさに応じて補償するスペクトラ
ルチルト補償(spectral tilt correction)を行って、
コントロールすることにより、よりリアルな音声を再生
することができる。
Further, as for the new residual component Rnew (f), as shown in FIG. 10, in order to simulate a state similar to the new spectral shape, the high frequency component of the residual component, that is, the high frequency component Performing a spectral tilt correction for compensating the gradient of the residual component of the component part according to the magnitude of the new amplifier component Anew,
By controlling, more realistic sound can be reproduced.

【0058】[2.12] 正弦波成分生成部の動作 続いて、正弦波成分生成部26は、変形スペクトラル・
シェイプ加工部24から出力された波形加工を伴わな
い、あるいは、波形加工を伴う変形スペクトラル・シェ
イプSnew(f)に基づいて、当該フレームにおける新たな
正弦波成分(F”0、A”0)、(F”1、A”1)、
(F”2、A”2)、……、(F”(N-1)、A”(N-1))
のN個の正弦波成分(以下、これらをまとめてF”n、
A”nと表記する。n=0〜(N−1)。)を求める。
より具体的には、周波数成分Xにおける変形スペクトラ
ル・シェイプSnew(f)のアンプをA(X)と表すとする
と、各正弦波成分(F”0、A”0)、(F”1、A”
1)、(F”2、A”2)、……、(F”(N-1)、A”
(N-1))は以下のように表すことができる。 (F”0、A”0)=(ff0、A(ff0)) (F”1、A”1)=(ff1、A(ff1)) (F”2、A”2)=(ff2、A(ff2)) …… (F”(N-1)、A”(N-1))=(ffn、A(ffn))
[2.12] Operation of Sine Wave Component Generation Unit Subsequently, the sine wave component generation unit 26
A new sine wave component (F "0, A" 0) in the frame based on the deformed spectral shape Snew (f) without or with waveform processing output from the shape processing unit 24, (F "1, A" 1),
(F "2, A" 2), ..., (F "(N-1), A" (N-1))
N sinusoidal wave components (hereinafter collectively referred to as F ″ n,
A "n. N = 0 to (N-1).
More specifically, if the amplifier of the modified spectral shape Snew (f) in the frequency component X is represented as A (X), each of the sine wave components (F "0, A" 0), (F "1, A "
1), (F "2, A" 2), ..., (F "(N-1), A"
(N-1)) can be expressed as follows. (F "0, A" 0) = (ff0, A (ff0)) (F "1, A" 1) = (ff1, A (ff1)) (F "2, A" 2) = (ff2, A (Ff2)) (F "(N-1), A" (N-1)) = (ffn, A (ffn))

【0059】[2.13] 正弦波成分変形部の動作 さらに、求めた新規周波数f”nおよび新規アンプa”
nについて、必要に応じてコントローラ29から入力さ
れる正弦波成分変形情報に基づいて、正弦波成分変形部
27によりさらなる変形を行う。例えば、偶数倍音成分
の新規アンプA”n(=A”0、A”2、A”4、…
…)だけを大きく(例えば、2倍する)等の変形を行
う。これによって得られる変換音声にさらにバラエティ
ーを持たせることが可能となる。
[2.13] Operation of Sine Wave Component Deformation Unit Further, the obtained new frequency f ″ n and new amplifier a ″
n is further modified by the sine wave component transformation unit 27 based on the sine wave component transformation information input from the controller 29 as needed. For example, a new amplifier A "n (= A" 0, A "2, A" 4,...) Of even harmonic components.
..) Are increased (for example, doubled). As a result, it is possible to give the converted speech further variety.

【0060】[2.14] 逆高速フーリエ変換部の動
作 次に逆高速フーリエ変換部28は、求めた新規周波数
F”nおよび新規アンプA”n(=新規正弦波成分)並
びに新規残差成分Rnew(f)をFFTバッファに格納し、
順次逆FFTを行い、さらに得られた時間軸信号を一部
重複するようにオーバーラップ処理し、それらを加算す
る加算処理を行うことにより新しい有声音の時間軸信号
である変換音声信号を生成する。このとき、コントロー
ラ29から入力される正弦波成分/残差成分バランス制
御信号に基づいて、正弦波成分及び残差成分の混合比率
を制御し、よりリアルな有声信号を得る。この場合にお
いて、一般的には、残差成分の混合比率を大きくすると
ざらついた声が得られる。
[2.14] Operation of Inverse Fast Fourier Transform Unit Next, the inverse fast Fourier transform unit 28 calculates the new frequency F ″ n and new amplifier A ″ n (= new sine wave component) and new residual component. Rnew (f) is stored in the FFT buffer,
Inverse FFT is sequentially performed, and the obtained time axis signals are overlapped so as to partially overlap, and an addition processing of adding them is performed to generate a converted voice signal which is a new voiced sound time axis signal. . At this time, based on the sine wave component / residual component balance control signal input from the controller 29, the mixing ratio of the sine wave component and the residual component is controlled to obtain a more realistic voiced signal. In this case, generally, a rough voice is obtained by increasing the mixing ratio of the residual components.

【0061】この場合において、FFTバッファに新規
周波数f”nおよび新規アンプa”n(=新規正弦波成
分)並びに新規残差成分Rnew(f)を格納するに際し、異
なるピッチ、かつ、適当なピッチで変換された正弦波成
分をさらに加えることにより変換音声信号としてハーモ
ニーを得ることができる。さらにシーケンサ31により
伴奏音に適合したハーモニーピッチを与えることによ
り、伴奏に適合した音楽的ハーモニーを得ることができ
る。
In this case, when storing the new frequency f "n, the new amplifier a" n (= new sine wave component) and the new residual component Rnew (f) in the FFT buffer, a different pitch and an appropriate pitch are used. By adding the sine wave component converted by the above, harmony can be obtained as a converted audio signal. Further, by giving a harmony pitch adapted to the accompaniment sound by the sequencer 31, musical harmony adapted to the accompaniment can be obtained.

【0062】[2.15] クロスフェーダの動作 次にクロスフェーダ30は、元無声/有声検出信号U/
Vme(t)に基づいて、入力音声信号Svが無声(U)であ
る場合には、入力音声信号Svをそのままミキサ30に
出力する。また、入力音声信号Svが有声(V)である
場合には、逆FFT変換部28が出力した変換音声信号
をミキサ30に出力する。この場合において、切替スイ
ッチとしてクロスフェーダ30を用いているのは、クロ
スフェード動作を行わせることによりスイッチ切替時の
クリック音の発生を防止するためである。
[2.15] Operation of Crossfader Next, the crossfader 30 transmits the original unvoiced / voiced detection signal U /
If the input audio signal Sv is unvoiced (U) based on Vme (t), the input audio signal Sv is output to the mixer 30 as it is. If the input audio signal Sv is voiced (V), the converted audio signal output from the inverse FFT converter 28 is output to the mixer 30. In this case, the reason why the cross fader 30 is used as the changeover switch is to prevent a click sound from occurring at the time of switch changeover by performing a crossfade operation.

【0063】[2.16] シーケンサ及び音源部の動
作 一方、シーケンサ31は、カラオケの伴奏音を発生する
ための音源制御情報を例えば、MIDI(Musical Inst
rument Digital Interface)データなどとして音源部3
2に出力する。これにより音源部32は、音源制御情報
に基づいて伴奏信号を生成し、ミキサ33に出力する。 [2.17] バンドパスフィルタ特性制御部、ホワイ
トノイズ発生部及びバンドパスフィルタの動作 バンドパスフィルタ特性制御部42は、変形スペクトラ
ル・シェイプ加工部24から出力された第3フォルマン
トFT3に基づいて、バンドパスフィルタ(BPF)4
1の通過帯域を第3フォルマントFT3の近傍の周波数
帯域とすべく、特性制御信号SBCをバンドパスフィルタ
41に出力する。
[2.16] Operation of Sequencer and Sound Source Unit On the other hand, the sequencer 31 transmits sound source control information for generating a karaoke accompaniment sound to, for example, MIDI (Musical Instrument).
rument Digital Interface) sound source section 3 as data etc.
Output to 2. Thereby, the sound source section 32 generates an accompaniment signal based on the sound source control information, and outputs the accompaniment signal to the mixer 33. [2.17] Operation of Bandpass Filter Characteristic Control Unit, White Noise Generating Unit, and Bandpass Filter The bandpass filter characteristic control unit 42 performs the following processing based on the third formant FT3 output from the modified spectral shape processing unit 24. Bandpass filter (BPF) 4
The characteristic control signal SBC is output to the band-pass filter 41 so that the pass band of No. 1 is a frequency band near the third formant FT3.

【0064】一方、ホワイトノイズ発生部40は、ホワ
イトノイズ信号SWNを生成し、バンドパスフィルタ41
に出力する。バンドパスフィルタ41は、バンドパスフ
ィルタ特性制御部42の制御下で、ホワイトノイズ信号
SWNのうち、第3フォルマントFT3に対応する所定の
周波数帯域の周波数を有するホワイトノイズ信号SWNの
みを元気息性ノイズ信号SBWNとして通過させ、アンプ
部44に出力する。
On the other hand, the white noise generator 40 generates a white noise signal SWN and
Output to Under the control of the band-pass filter characteristic control unit 42, the band-pass filter 41 converts only the white noise signal SWN having a frequency of a predetermined frequency band corresponding to the third formant FT3 out of the white noise signal SWN into the original breathing noise. The signal is passed as a signal SBWN and output to the amplifier section 44.

【0065】[2.18] レベル制御部及びアンプ部
の動作 一方、レベル制御部43は、変形スペクトラル・シェイ
プ加工部24から出力されたアンプAFT3に基づいて、
元気息性ノイズ信号SBWNの信号レベルを制御するため
の信号レベル制御信号SLCをアンプ部44に出力する。
アンプ部44は、信号レベル制御信号SLCに基づいて元
気息性ノイズ信号SBWNの信号レベルを変化させ、気息
性ノイズ信号SABWNとしてミキサ33に出力することと
なる。 [2.19]、ミキサ及び出力部 ミキサ33は、入力音声信号Svあるいは変換音声信号
のいずれか一方、気息性ノイズ信号SABWN及び伴奏信号
を混合し、混合信号を出力部34に出力する。出力部3
4は、図示しない増幅器を有し混合信号を増幅して音響
信号として出力することとなる。
[2.18] Operation of Level Control Unit and Amplifier Unit On the other hand, based on the amplifier AFT3 output from the modified spectral shape processing unit 24, the level control unit 43
A signal level control signal SLC for controlling the signal level of the original breathing noise signal SBWN is output to the amplifier unit 44.
The amplifier 44 changes the signal level of the original breathing noise signal SBWN based on the signal level control signal SLC, and outputs the signal to the mixer 33 as the breathing noise signal SABWN. [2.19] Mixer and Output Unit The mixer 33 mixes either the input audio signal Sv or the converted audio signal, the breathless noise signal SABWN and the accompaniment signal, and outputs the mixed signal to the output unit 34. Output unit 3
Reference numeral 4 has an amplifier (not shown) to amplify the mixed signal and output it as an acoustic signal.

【0066】[3] 実施形態の変形例 [3.1] 第1変形例 上記第1実施形態(特に図15)においては、男性の音
声を女性の音声に変換する音声信号処理装置について説
明したが、女性の音声を合成することが可能な女声合成
装置についても適用が可能である。この場合において、
第1実施形態の場合には、第3フォルマントの周波数を
検出していたが、合成後に第3フォルマントの周波数を
検出する構成に限らず、予め第3フォルマントの周波数
を設定し、これらの情報を記憶しておくように構成する
ことも可能である。
[3] Modified Example of Embodiment [3.1] First Modified Example In the first embodiment (particularly, FIG. 15), the audio signal processing apparatus for converting a male voice into a female voice has been described. However, the present invention is also applicable to a female voice synthesizer capable of synthesizing a female voice. In this case,
In the case of the first embodiment, the frequency of the third formant is detected. However, the present invention is not limited to the configuration in which the frequency of the third formant is detected after the combination, and the frequency of the third formant is set in advance, It is also possible to configure to store.

【0067】[3.2] 第2変形例 上記実施形態の説明においては、元歌唱者のスペクトラ
ル・シェイプに基づいて生成した変形スペクトラル・シ
ェイプ及びターゲット歌唱者のターゲット音声信号の正
弦波成分に含まれる周波数成分に基づいて正弦波成分群
を算出し、変換音声を得る構成としていたが、ターゲッ
ト歌唱者のスペクトラル・シェイプに基づいて生成した
変形スペクトラル・シェイプ及び元歌唱者の入力音声信
号の正弦波成分に含まれる周波数成分に基づいて正弦波
成分群を算出し、変換音声を得る構成とすることも可能
である。
[3.2] Second Modification In the description of the above embodiment, the modified spectral shape generated based on the spectral shape of the former singer and the sine wave component of the target voice signal of the target singer are included. The sine wave component group is calculated based on the frequency component to be converted, and the converted voice is obtained.However, the modified spectral shape generated based on the spectral shape of the target singer and the sine wave of the input voice signal of the former singer. A configuration is also possible in which a sine wave component group is calculated based on the frequency components included in the components to obtain a converted voice.

【0068】[3.3] 第3変形例 正弦波成分の抽出は、この実施形態で用いた方法に限ら
ない。要は、音声信号に含まれる正弦波成分を抽出でき
ればよい。
[3.3] Third Modification The extraction of the sine wave component is not limited to the method used in this embodiment. In short, it is only necessary to extract a sine wave component included in the audio signal.

【0069】[3.4] 第4変形例 本実施形態においては、ターゲットの正弦波成分及び残
差成分を記憶したが、これに換えて、ターゲットの音声
そのものを記憶し、それを読み出してリアルタイム処理
によって正弦波成分と残差成分とを抽出してもよい。す
なわち、本実施形態でものまねをしようとする歌唱者の
音声に対して行った処理と同様の処理をターゲットの歌
唱者の音声に対して行ってもよい。
[3.4] Fourth Modification In the present embodiment, the sine wave component and the residual component of the target are stored. Instead, the target voice itself is stored and read out to be read in real time. The sine wave component and the residual component may be extracted by the processing. That is, processing similar to the processing performed on the voice of the singer trying to imitate in the present embodiment may be performed on the voice of the target singer.

【0070】[4] 実施形態の効果 以上の結果、カラオケの伴奏とともに、元歌唱者である
男性歌唱者の歌が変換されて出力されることとなるが、
得られる変換音声は、聴感上自然な女性の音声ものとな
る。
[4] Effect of Embodiment As a result, the song of the male singer who is the former singer is converted and output together with the accompaniment of karaoke.
The resulting converted voice is a female voice that is natural in hearing.

【0071】[0071]

【発明の効果】以上説明したように、この発明によれ
ば、男声→女声変換を行うに際し、聴感上自然な女性の
変換音声を容易に得ることが可能となる。
As described above, according to the present invention, when performing male to female conversion, it is possible to easily obtain a female voice that is natural in terms of audibility.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態の構成を示すブロック図
(その1)である。
FIG. 1 is a block diagram (part 1) illustrating a configuration of an embodiment of the present invention.

【図2】 本発明の一実施形態の構成を示すブロック図
(その2)である。
FIG. 2 is a block diagram (part 2) showing a configuration of an embodiment of the present invention.

【図3】 実施形態におけるフレームの状態を示す図で
ある。
FIG. 3 is a diagram illustrating a state of a frame according to the embodiment.

【図4】 実施形態における周波数スペクトルのピーク
検出を説明するための説明図である。
FIG. 4 is an explanatory diagram for describing peak detection of a frequency spectrum in the embodiment.

【図5】 実施形態におけるフレーム毎のピーク値の連
携を示す図である。
FIG. 5 is a diagram illustrating cooperation of peak values for each frame in the embodiment.

【図6】 実施形態における周波数値の変化状態を示す
図である。
FIG. 6 is a diagram illustrating a change state of a frequency value in the embodiment.

【図7】 実施形態における処理過程における確定成分
の変化状態を示す図である。
FIG. 7 is a diagram showing a change state of a deterministic component in a process in the embodiment.

【図8】 実施形態における信号処理の説明図である。FIG. 8 is an explanatory diagram of signal processing in the embodiment.

【図9】 イージーシンクロナイゼーション処理のタイ
ミングチャートである。
FIG. 9 is a timing chart of an easy synchronization process.

【図10】 イージーシンクロナイゼーション処理フロ
ーチャートである。
FIG. 10 is a flowchart of an easy synchronization process.

【図11】 女性のスペクトラル・シェイプを説明する
図である。
FIG. 11 is a diagram illustrating a female spectral shape.

【図12】 男性のスペクトラル・シェイプを説明する
図である。
FIG. 12 is a diagram illustrating a male spectral shape.

【図13】 男声→女声変換の処理説明図である。FIG. 13 is an explanatory diagram of a male-to-female conversion process.

【図14】 スペクトラル・シェイプのスペクトラルチ
ルト補償について説明する図である。
FIG. 14 is a diagram for explaining spectral tilt compensation of a spectral shape.

【図15】 実施形態の原理説明図である。FIG. 15 is a diagram illustrating the principle of the embodiment;

【図16】 第3フォルマントの検出方法の説明図であ
る。
FIG. 16 is an explanatory diagram of a method of detecting a third formant.

【符号の説明】[Explanation of symbols]

1…マイク、2…分析窓生成部、3…入力音声信号切出
部、4…高速フーリエ変換部、5…ピーク検出部、6…
無声/有声検出部、7…ピッチ抽出部、8…ピーク連携
部、9…補間合成部、10…残差成分検出部、11…高
速フーリエ変換部、12…残差成分保持部、13…正弦
波成分保持部、14…平均アンプ演算部、15…アンプ
正規化部、16…スペクトラル・シェイプ演算部、17
…ピッチ正規化部、18…元フレーム情報保持部、19
…静的変化/ビブラート的変化分離部、20…ターゲッ
トフレーム情報保持部、21…キーコントロール/テン
ポチェンジ部、22…イージーシンクロナイゼーション
処理部、23…変形スペクトラル・シェイプ生成部、2
4…変形スペクトラル・シェイプ加工部、25…残差成
分選択部、26…正弦波成分生成部、27…正弦波成分
変形部、28…逆高速フーリエ変換部、29…コントロ
ーラ、30…クロスフェーダ部、31…シーケンサ、3
2…音源部、33…ミキサ、34…出力部、40…ホワ
イトノイズ発生部、41…バンドパスフィルタ(BP
F)、42…バンドパスフィルタ特性制御部、43…レ
ベル制御部、44…アンプ部、AFT3…、第3フォルマ
ントアンプ、FT3…第3フォルマント(周波数)
DESCRIPTION OF SYMBOLS 1 ... Microphone, 2 ... Analysis window generation part, 3 ... Input audio signal extraction part, 4 ... Fast Fourier transform part, 5 ... Peak detection part, 6 ...
Unvoiced / voiced detection unit, 7: pitch extraction unit, 8: peak linking unit, 9: interpolation synthesis unit, 10: residual component detection unit, 11: fast Fourier transform unit, 12: residual component holding unit, 13: sine Wave component holding unit, 14: average amplifier calculation unit, 15: amplifier normalization unit, 16: spectral shape calculation unit, 17
... Pitch normalizing section, 18 ... Original frame information holding section, 19
... Static change / vibrato change separation section, 20 ... Target frame information holding section, 21 ... Key control / tempo change section, 22 ... Easy synchronization processing section, 23 ... Deformed spectral shape generation section, 2
4 ... deformed spectral shape processing section, 25 ... residual component selection section, 26 ... sine wave component generation section, 27 ... sine wave component deformation section, 28 ... inverse fast Fourier transform section, 29 ... controller, 30 ... cross fader section , 31 ... sequencer, 3
2 ... sound source section, 33 ... mixer, 34 ... output section, 40 ... white noise generation section, 41 ... band pass filter (BP)
F), 42: band-pass filter characteristic control unit, 43: level control unit, 44: amplifier unit, AFT3, third formant amplifier, FT3: third formant (frequency)

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 男声の入力音声を女声の変換音声に変換
して出力する音声信号処理装置において、 前記入力音声を変換して得られる元変換音声信号に気息
性雑音成分信号を加算して前記変換音声信号として出力
する気息性雑音加算手段を備えたことを特徴とする音声
信号処理装置。
1. An audio signal processing apparatus for converting an input voice of a male voice into a converted voice of a female voice and outputting the converted voice, wherein a breathing noise component signal is added to an original converted voice signal obtained by converting the input voice. An audio signal processing device comprising a breathing noise adding means for outputting as a converted audio signal.
【請求項2】 請求項1記載の音声信号処理装置におい
て、 前記気息性雑音加算手段は、前記入力音声を女声変換し
て得られる元変換音声信号のフォルマント周波数を検出
するフォルマント周波数検出手段と、 検出した前記フォルマント周波数に対応する周波数帯域
を有する前記気息性雑音成分信号を生成する気息性雑音
生成手段と、 前記気息性雑音成分信号を前記元変換音声信号に重畳し
て前記変換音声信号として出力する重畳手段と、 を備えたことを特徴とする音声信号処理装置。
2. The audio signal processing device according to claim 1, wherein the breathiness noise adding unit detects a formant frequency of an original converted audio signal obtained by converting the input voice into a female voice, Breathiness noise generation means for generating the breathiness noise component signal having a frequency band corresponding to the detected formant frequency; and superimposing the breathiness noise component signal on the original converted speech signal and outputting the converted speech signal as the converted speech signal. An audio signal processing device comprising:
【請求項3】 請求項2記載の音声信号処理装置におい
て、 前記気息性雑音生成手段は、ホワイトノイズ信号を生成
し出力するホワイトノイズ発生手段と、 前記フォルマント周波数検出手段の検出結果に基づい
て、前記ホワイトノイズ信号のうち、前記元変換音声信
号の第3フォルマントに対応する所定の周波数帯域成分
のみを通過させ元気息性雑音成分信号として出力するバ
ンドパスフィルタ手段と、 前記元変換音声信号に基づいて、前記元気息性雑音成分
信号の信号レベルを制御して前記気息性雑音成分信号と
して出力する信号レベル制御手段と、 を備えたことを特徴とする音声信号処理装置。
3. The audio signal processing device according to claim 2, wherein the breathiness noise generation unit generates and outputs a white noise signal, and a white noise generation unit based on a detection result of the formant frequency detection unit. Band-pass filter means for passing only a predetermined frequency band component corresponding to a third formant of the original converted audio signal out of the white noise signal and outputting it as an original breathable noise component signal; Signal level control means for controlling the signal level of the original breathing noise component signal and outputting the signal as the breathing noise component signal.
【請求項4】 女性の音声を合成して出力する音声信号
処理装置であって、 前記合成により得られる元合成音声信号に気息性雑音成
分信号を加算して前記変換音声信号として出力する気息
性雑音加算手段を備えたことを特徴とする音声信号処理
装置。
4. An audio signal processing apparatus for synthesizing and outputting a female voice, wherein a breathiness noise signal is added to an original synthesized audio signal obtained by the synthesis and output as the converted audio signal. An audio signal processing device comprising noise adding means.
【請求項5】 請求項4記載の音声信号処理装置におい
て、 前記気息性雑音加算手段は、前記元合成音声信号のフォ
ルマント周波数に対応する所定の周波数帯域を有する前
記気息性雑音成分信号を生成する気息性雑音生成手段
と、 前記気息性雑音成分信号を前記元合成音声信号に重畳し
て前記変換音声信号として出力する重畳手段と、 を備えたことを特徴とする音声信号処理装置。
5. The audio signal processing device according to claim 4, wherein the breathiness noise adding means generates the breathiness noise component signal having a predetermined frequency band corresponding to a formant frequency of the original synthesized speech signal. An audio signal processing apparatus, comprising: breathiness noise generation means; and superposition means for superimposing the breathiness noise component signal on the original synthesized speech signal and outputting the converted speech signal as the converted speech signal.
【請求項6】 請求項5記載の音声信号処理装置におい
て、 前記気息性雑音生成手段は、ホワイトノイズ信号を生成
し出力するホワイトノイズ発生手段と、 前記ホワイトノイズ信号のうち、前記元変換音声信号の
第3フォルマントに対応する所定の周波数帯域成分のみ
を通過させ元気息性雑音成分信号として出力するバンド
パスフィルタ手段と、 前記元変換音声信号に基づいて、前記元気息性雑音成分
信号の信号レベルを制御して前記気息性雑音成分信号と
して出力する信号レベル制御手段と、 を備えたことを特徴とする音声信号処理装置。
6. The audio signal processing device according to claim 5, wherein the breathiness noise generation unit generates and outputs a white noise signal, and the original converted audio signal among the white noise signals. Band-pass filter means for passing only a predetermined frequency band component corresponding to the third formant and outputting the signal as a source breathing noise component signal; and a signal level of the source breathing noise component signal based on the source conversion voice signal. And a signal level control means for controlling the signal to output as the breathing noise component signal.
【請求項7】 男声の入力音声を女声の変換音声に変換
する音声信号処理方法において、 前記入力音声を変換して得られる元変換音声に気息性雑
音成分を加算して前記変換音声とする気息性雑音加算工
程を備えたことを特徴とする音声信号処理方法。
7. A voice signal processing method for converting an input voice of a male voice into a converted voice of a female voice, wherein a breathiness noise component is added to an original converted voice obtained by converting the input voice, and the breath becomes the converted voice. An audio signal processing method comprising a sexual noise adding step.
【請求項8】 女性の音声を合成する音声信号処理方法
であって、 前記合成により得られる元合成音声に気息性雑音成分を
加算して前記変換音声とする気息性雑音加算工程を備え
たことを特徴とする音声信号処理方法。
8. A voice signal processing method for synthesizing a female voice, comprising a breathiness noise adding step of adding a breathiness noise component to an original synthesized voice obtained by the synthesis to obtain the converted voice. An audio signal processing method characterized by the following.
JP18569198A 1998-06-16 1998-06-16 Audio signal processing device and audio signal processing method Expired - Fee Related JP3502268B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18569198A JP3502268B2 (en) 1998-06-16 1998-06-16 Audio signal processing device and audio signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18569198A JP3502268B2 (en) 1998-06-16 1998-06-16 Audio signal processing device and audio signal processing method

Publications (2)

Publication Number Publication Date
JP2000003200A true JP2000003200A (en) 2000-01-07
JP3502268B2 JP3502268B2 (en) 2004-03-02

Family

ID=16175182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18569198A Expired - Fee Related JP3502268B2 (en) 1998-06-16 1998-06-16 Audio signal processing device and audio signal processing method

Country Status (1)

Country Link
JP (1) JP3502268B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135068A (en) * 2002-10-10 2004-04-30 Rion Co Ltd Hearing aid, training apparatus, game apparatus, and sound output apparatus
JP2005274721A (en) * 2004-03-23 2005-10-06 Yamaha Corp Sound effect device and program
US7684979B2 (en) 2002-10-31 2010-03-23 Nec Corporation Band extending apparatus and method
US8073688B2 (en) 2004-06-30 2011-12-06 Yamaha Corporation Voice processing apparatus and program
US10134374B2 (en) 2016-11-02 2018-11-20 Yamaha Corporation Signal processing method and signal processing apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135068A (en) * 2002-10-10 2004-04-30 Rion Co Ltd Hearing aid, training apparatus, game apparatus, and sound output apparatus
US7502483B2 (en) 2002-10-10 2009-03-10 Hiroshi Rikimaru Hearing aid, training device, game device, and audio output device
US7684979B2 (en) 2002-10-31 2010-03-23 Nec Corporation Band extending apparatus and method
JP2005274721A (en) * 2004-03-23 2005-10-06 Yamaha Corp Sound effect device and program
US8073688B2 (en) 2004-06-30 2011-12-06 Yamaha Corporation Voice processing apparatus and program
US10134374B2 (en) 2016-11-02 2018-11-20 Yamaha Corporation Signal processing method and signal processing apparatus

Also Published As

Publication number Publication date
JP3502268B2 (en) 2004-03-02

Similar Documents

Publication Publication Date Title
US7606709B2 (en) Voice converter with extraction and modification of attribute data
JP3941611B2 (en) SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS METHOD, AND SINGE SYNTHESIS PROGRAM
JP3502247B2 (en) Voice converter
JP6569712B2 (en) Electronic musical instrument, musical sound generation method and program for electronic musical instrument
JP2005018097A (en) Singing synthesizer
JP2006215204A (en) Voice synthesizer and program
Bonada et al. Sample-based singing voice synthesizer by spectral concatenation
JP3711880B2 (en) Speech analysis and synthesis apparatus, method and program
JP3540159B2 (en) Voice conversion device and voice conversion method
JP3502268B2 (en) Audio signal processing device and audio signal processing method
JP4757971B2 (en) Harmony sound adding device
JP3447221B2 (en) Voice conversion device, voice conversion method, and recording medium storing voice conversion program
JP3706249B2 (en) Voice conversion device, voice conversion method, and recording medium recording voice conversion program
JP4349316B2 (en) Speech analysis and synthesis apparatus, method and program
Arroabarren et al. Instantaneous frequency and amplitude of vibrato in singing voice
JP3540609B2 (en) Voice conversion device and voice conversion method
JP3294192B2 (en) Voice conversion device and voice conversion method
JP3949828B2 (en) Voice conversion device and voice conversion method
JP2007226174A (en) Singing synthesizer, singing synthesizing method, and program for singing synthesis
JP3540160B2 (en) Voice conversion device and voice conversion method
JP2000003187A (en) Method and device for storing voice feature information
JP3447220B2 (en) Voice conversion device and voice conversion method
JP3907027B2 (en) Voice conversion device and voice conversion method
JP3934793B2 (en) Voice conversion device and voice conversion method
JP3907838B2 (en) Voice conversion device and voice conversion method

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071212

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071212

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees