JP2018072724A - Sound processing method and sound processing apparatus - Google Patents

Sound processing method and sound processing apparatus Download PDF

Info

Publication number
JP2018072724A
JP2018072724A JP2016215227A JP2016215227A JP2018072724A JP 2018072724 A JP2018072724 A JP 2018072724A JP 2016215227 A JP2016215227 A JP 2016215227A JP 2016215227 A JP2016215227 A JP 2016215227A JP 2018072724 A JP2018072724 A JP 2018072724A
Authority
JP
Japan
Prior art keywords
intensity
control value
acoustic signal
acoustic
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016215227A
Other languages
Japanese (ja)
Other versions
JP6930089B2 (en
Inventor
竜之介 大道
Ryunosuke Daido
竜之介 大道
嘉山 啓
Hiroshi Kayama
啓 嘉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016215227A priority Critical patent/JP6930089B2/en
Publication of JP2018072724A publication Critical patent/JP2018072724A/en
Application granted granted Critical
Publication of JP6930089B2 publication Critical patent/JP6930089B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately adjust a degree of acoustic processing, without the need for a threshold for the classification of an acoustic signal.SOLUTION: A sound processing apparatus includes: a first strength calculating unit 42 for calculating strength L1[n] following a temporal change of a level of an acoustic signal X; a second strength calculating unit 44 for calculating strength L2[n] following a temporal change of a level of the acoustic signal X with a higher following nature than the strength L1[n]; a control value setting unit 46 for setting a control value Ca[n] according to differences between the strengths L1[n] and L2[n]; and a sound processing unit 24 for conducting sound processing to which the control value Ca[n] is applied, to the acoustic signal X.SELECTED DRAWING: Figure 2

Description

本発明は、音響信号を処理する技術に関する。   The present invention relates to a technique for processing an acoustic signal.

声質変換等の音響処理を音響信号に対して実行する各種の技術が従来から提案されている。例えば特許文献1には、音声合成に利用される音声素片の声質を声質変換パラメータに応じて変換する技術が開示されている。   Various techniques for executing sound processing such as voice quality conversion on sound signals have been proposed. For example, Patent Document 1 discloses a technique for converting the voice quality of a voice element used for voice synthesis according to a voice quality conversion parameter.

特開2004−38071号公報JP 2004-38071 A

ところで、音響信号のうち有声子音が発音された期間または母音の音素が遷移する期間について、母音が定常的に維持される期間と同等の音響処理を実行すると、音響処理後の音声が、滑舌の悪い不自然な音声と知覚される可能性がある。音響信号のうち音量が閾値を下回る期間を有声子音の発音期間または母音の遷移期間として検出し、これらの期間に対する音響処理の度合を、母音が定常的に維持される期間とは相違させる構成も想定され得る。しかし、音響信号を高精度に区分し得る適切な閾値を設定することは実際には困難である。以上の事情を考慮して、本発明の好適な態様は、音響信号の区分のための閾値を必要とせずに音響処理の度合を適切に調整することを目的とする。   By the way, if the acoustic processing equivalent to the period in which the vowels are constantly maintained is executed for the period in which the voiced consonant is pronounced or the vowel phoneme transitions in the acoustic signal, the sound after the acoustic processing is converted to the smooth tongue May be perceived as bad and unnatural speech. A configuration in which a period in which the volume of the acoustic signal falls below a threshold is detected as a voiced consonant pronunciation period or a vowel transition period, and the degree of acoustic processing for these periods is different from a period in which the vowel is constantly maintained. Can be envisaged. However, it is actually difficult to set an appropriate threshold value that can classify an acoustic signal with high accuracy. In view of the above circumstances, a preferred aspect of the present invention aims to appropriately adjust the degree of acoustic processing without requiring a threshold for segmenting acoustic signals.

以上の課題を解決するために、本発明の好適な態様に係る音響処理方法は、コンピュータが、音響信号の時間変化に追従する第1強度を算定し、前記第1強度よりも高い追従性で前記音響信号の時間変化に追従する第2強度を算定し、前記第1強度と前記第2強度との相違に応じて制御値を設定し、前記制御値を適用した音響処理を前記音響信号に対して実行する。
また、本発明の好適な態様に係る音響処理装置は、音響信号の時間変化に追従する第1強度を算定する第1強度算定部と、前記第1強度よりも高い追従性で前記音響信号の時間変化に追従する第2強度を算定する第2強度算定部と、前記第1強度と前記第2強度との相違に応じて制御値を設定する制御値設定部と、前記制御値を適用した音響処理を前記音響信号に対して実行する音響処理部とを具備する。
In order to solve the above problems, in the acoustic processing method according to a preferred aspect of the present invention, a computer calculates a first intensity that follows a time change of an acoustic signal, and has a followability higher than the first intensity. A second intensity following the time change of the acoustic signal is calculated, a control value is set according to a difference between the first intensity and the second intensity, and an acoustic process using the control value is applied to the acoustic signal. Run against.
In addition, the sound processing apparatus according to a preferred aspect of the present invention includes a first intensity calculating unit that calculates a first intensity that follows a time change of an acoustic signal, and the acoustic signal having a tracking ability higher than the first intensity. A second intensity calculating unit that calculates a second intensity following a time change, a control value setting unit that sets a control value according to a difference between the first intensity and the second intensity, and the control value are applied. An acoustic processing unit that performs acoustic processing on the acoustic signal.

本発明の第1実施形態に係る音響処理装置の構成図である。1 is a configuration diagram of a sound processing apparatus according to a first embodiment of the present invention. 音響処理装置の機能に着目した構成図である。It is a block diagram which paid its attention to the function of a sound processing apparatus. 音響信号のスペクトル包絡の説明図である。It is explanatory drawing of the spectrum envelope of an acoustic signal. 平滑処理の前後におけるスペクトル包絡の時間変化のグラフである。It is a graph of the time change of the spectrum envelope before and behind smoothing processing. 音響信号とその強度との関係の説明図である。It is explanatory drawing of the relationship between an acoustic signal and its intensity | strength. 第1強度算定部および第2強度算定部の構成図である。It is a block diagram of a 1st intensity | strength calculation part and a 2nd intensity | strength calculation part. 制御装置が実行する処理のフローチャートである。It is a flowchart of the process which a control apparatus performs.

<第1実施形態>
図1は、本発明の第1実施形態に係る音響処理装置100を例示する構成図である。図1に例示される通り、第1実施形態の音響処理装置100は、制御装置10と記憶装置12と操作装置14と信号供給装置16と放音装置18とを具備するコンピュータシステムで実現される。例えば、携帯電話機もしくはスマートフォン等の可搬型の通信端末、または、可搬型もしくは据置型のパーソナルコンピュータ等の情報処理装置が、音響処理装置100として利用され得る。なお、音響処理装置100は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現され得る。
<First Embodiment>
FIG. 1 is a configuration diagram illustrating a sound processing apparatus 100 according to the first embodiment of the invention. As illustrated in FIG. 1, the sound processing apparatus 100 according to the first embodiment is realized by a computer system including a control device 10, a storage device 12, an operation device 14, a signal supply device 16, and a sound emission device 18. . For example, a portable communication terminal such as a mobile phone or a smart phone, or an information processing apparatus such as a portable or stationary personal computer can be used as the acoustic processing apparatus 100. In addition, the sound processing apparatus 100 can be realized as a single apparatus or a plurality of apparatuses configured separately from each other.

信号供給装置16は、音声または楽音等の音を表す音響信号Xを出力する。具体的には、周囲の音を収音して音響信号Xを生成する収音装置、可搬型または内蔵型の記録媒体から音響信号Xを取得する再生装置、または、通信網から音響信号Xを受信する通信装置が、信号供給装置16として利用され得る。第1実施形態では、発声者が発声した音声(例えば楽曲の歌唱により発声された歌唱音声)を表す音響信号Xを信号供給装置16が生成する場合を想定する。   The signal supply device 16 outputs an acoustic signal X representing sound such as voice or musical sound. Specifically, a sound collection device that collects ambient sounds and generates an acoustic signal X, a playback device that acquires the acoustic signal X from a portable or built-in recording medium, or an acoustic signal X from a communication network A receiving communication device can be used as the signal supply device 16. In 1st Embodiment, the case where the signal supply apparatus 16 produces | generates the acoustic signal X showing the audio | voice (For example, the singing voice uttered by the song of music) uttered by the speaker is assumed.

第1実施形態の音響処理装置100は、音響信号Xに対する音響処理により音響信号Yを生成する信号処理装置である。放音装置18(例えばスピーカまたはヘッドホン)は、音響信号Yに応じた音波を放射する。なお、音響信号Yをデジタルからアナログに変換するD/A変換器と音響信号Yを増幅する増幅器との図示は便宜的に省略した。   The acoustic processing device 100 according to the first embodiment is a signal processing device that generates an acoustic signal Y by acoustic processing on the acoustic signal X. The sound emitting device 18 (for example, a speaker or headphones) emits a sound wave according to the acoustic signal Y. The illustration of the D / A converter that converts the acoustic signal Y from digital to analog and the amplifier that amplifies the acoustic signal Y are omitted for convenience.

操作装置14は、利用者からの指示を受付ける入力機器である。例えば利用者が操作する複数の操作子、または、利用者による接触を検知するタッチパネルが操作装置14として好適に利用される。利用者は、操作装置14を適宜に操作することで、音響処理装置100よる音響処理の度合を表す数値(以下「指示値」という)C0を指定することが可能である。   The operation device 14 is an input device that receives an instruction from a user. For example, a plurality of operators operated by the user or a touch panel that detects contact by the user is preferably used as the operation device 14. The user can designate a numerical value (hereinafter referred to as “instruction value”) C0 representing the degree of acoustic processing performed by the acoustic processing device 100 by appropriately operating the operation device 14.

制御装置10は、例えばCPU(Central Processing Unit)等の処理回路を含んで構成され、音響処理装置100の各要素を統括的に制御する。記憶装置12は、制御装置10が実行するプログラムと制御装置10が使用する各種のデータとを記憶する。半導体記録媒体および磁気記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せが記憶装置12として任意に採用され得る。音響信号Xを記憶装置12に記憶した構成(したがって信号供給装置16は省略され得る)も好適である。   The control device 10 is configured to include a processing circuit such as a CPU (Central Processing Unit), for example, and comprehensively controls each element of the sound processing device 100. The storage device 12 stores a program executed by the control device 10 and various data used by the control device 10. A known recording medium such as a semiconductor recording medium and a magnetic recording medium, or a combination of a plurality of types of recording media can be arbitrarily employed as the storage device 12. A configuration in which the acoustic signal X is stored in the storage device 12 (therefore, the signal supply device 16 can be omitted) is also suitable.

図2は、音響処理装置100の機能に着目した構成図である。図2に例示される通り、制御装置10は、記憶装置12に記憶されたプログラムを実行することで、音響信号Xから音響信号Yを生成するための複数の機能(包絡特定部22,音響処理部24,信号合成部26および制御処理部28)を実現する。なお、制御装置10の機能を複数の装置に分散した構成、または、制御装置10の機能の一部または全部を専用の電子回路が実現する構成も採用され得る。   FIG. 2 is a configuration diagram focusing on the function of the sound processing apparatus 100. As illustrated in FIG. 2, the control device 10 executes a program stored in the storage device 12 to generate a plurality of functions (envelope identification unit 22, acoustic processing) for generating the acoustic signal Y from the acoustic signal X. Unit 24, signal synthesis unit 26, and control processing unit 28). A configuration in which the functions of the control device 10 are distributed to a plurality of devices, or a configuration in which a dedicated electronic circuit realizes part or all of the functions of the control device 10 may be employed.

包絡特定部22は、時間軸上の複数の時点(以下「解析時点」という)の各々について音響信号Xのスペクトル包絡Ea[n]を特定する。記号nは、任意の1個の解析時点を表す変数である。図3に例示される通り、任意の1個の解析時点のスペクトル包絡Ea[n]は、音響信号Xの周波数スペクトルQ[n]の概形を表す包絡線である。スペクトル包絡Ea[n]の算定には公知の解析処理が任意に採用されるが、第1実施形態ではケプストラム法を想定する。すなわち、1個のスペクトル包絡Ea[n]は、音響信号Xから算定される複数のケプストラム係数のうち例えば低次側の所定個(M個)のケプストラム係数で表現される。   The envelope specifying unit 22 specifies the spectral envelope Ea [n] of the acoustic signal X for each of a plurality of time points on the time axis (hereinafter referred to as “analysis time points”). The symbol n is a variable representing any one analysis time point. As illustrated in FIG. 3, the spectrum envelope Ea [n] at any one analysis time point is an envelope representing the outline of the frequency spectrum Q [n] of the acoustic signal X. A known analysis process is arbitrarily employed to calculate the spectrum envelope Ea [n]. In the first embodiment, a cepstrum method is assumed. That is, one spectrum envelope Ea [n] is expressed by, for example, a predetermined number (M) of cepstrum coefficients on the lower order side among a plurality of cepstrum coefficients calculated from the acoustic signal X.

図2の音響処理部24は、包絡特定部22が解析時点毎に特定したスペクトル包絡Ea[n]に対する音響処理で解析時点毎にスペクトル包絡Ec[n]を生成する。スペクトル包絡Ec[n]は、スペクトル包絡Ea[n]の形状を変形した包絡線である。図2に例示される通り、第1実施形態の音響処理部24は、包絡変換部32と平滑処理部34とを具備する。   The acoustic processing unit 24 in FIG. 2 generates a spectrum envelope Ec [n] at each analysis time point by performing acoustic processing on the spectrum envelope Ea [n] specified at each analysis time point by the envelope specifying unit 22. The spectrum envelope Ec [n] is an envelope obtained by modifying the shape of the spectrum envelope Ea [n]. As illustrated in FIG. 2, the acoustic processing unit 24 of the first embodiment includes an envelope conversion unit 32 and a smoothing processing unit 34.

包絡変換部32は、音響信号Xが表す音声の声質を変換する処理(以下「声質変換」という)を実行する。第1実施形態の声質変換は、包絡特定部22が生成したスペクトル包絡Ea[n]を変形することで、音響信号Xとは声質が相違する音声のスペクトル包絡Eb[n]を生成する処理である。第1実施形態の包絡変換部32は、図3に例示される通り、各解析時点のスペクトル包絡Ea[n]の勾配を変化させることでスペクトル包絡Eb[n]を解析時点毎に順次に生成する。スペクトル包絡Ea[n]およびスペクトル包絡Eb[n]の各々の勾配は、図3に鎖線で図示される通り、包絡線の概形を表す直線の角度(周波数に対する変化率)を意味する。   The envelope conversion unit 32 executes processing for converting the voice quality of the voice represented by the acoustic signal X (hereinafter referred to as “voice quality conversion”). The voice quality conversion according to the first embodiment is a process of generating a spectral envelope Eb [n] of voice having a voice quality different from that of the acoustic signal X by modifying the spectral envelope Ea [n] generated by the envelope specifying unit 22. is there. As illustrated in FIG. 3, the envelope conversion unit 32 according to the first embodiment sequentially generates the spectrum envelope Eb [n] for each analysis time point by changing the gradient of the spectrum envelope Ea [n] at each analysis time point. To do. Each gradient of the spectrum envelope Ea [n] and the spectrum envelope Eb [n] means an angle of a straight line (rate of change with respect to frequency) representing the outline of the envelope as shown by a chain line in FIG.

例えば、スペクトル包絡Ea[n]のうち高域側の強度を増加させる(すなわち包絡線の勾配を平坦に近付ける)ことで、明瞭で張りのある声質を表すスペクトル包絡Eb[n]が生成される。また、スペクトル包絡Ea[n]のうち高域側の強度を減少させる(すなわち包絡線の勾配を急峻にする)ことで、張りが抑制されたソフトな声質を表すスペクトル包絡Eb[n]が生成される。包絡変換部32による声質変換の度合(すなわちスペクトル包絡Ea[n]とスペクトル包絡Eb[n]との相違の度合)は、制御値Ca[n]に応じて調整される。制御値Ca[n]の詳細については後述する。   For example, by increasing the intensity of the high frequency side of the spectrum envelope Ea [n] (that is, making the gradient of the envelope curve flat), a spectrum envelope Eb [n] representing a clear and tight voice quality is generated. . Further, by reducing the intensity of the high frequency side of the spectrum envelope Ea [n] (that is, making the envelope slope steep), a spectrum envelope Eb [n] representing soft voice quality with suppressed tension is generated. Is done. The degree of voice quality conversion by the envelope converter 32 (that is, the degree of difference between the spectrum envelope Ea [n] and the spectrum envelope Eb [n]) is adjusted according to the control value Ca [n]. Details of the control value Ca [n] will be described later.

ところで、音響信号Xが表す音声を明瞭で張りのある声質に変換する場合には、変換前のソフトな音声の気息成分(典型的には非調波成分)が強調され得る。気息成分は、確率的に発音されるから、時間軸上で不規則かつ頻繁に変動する傾向がある。したがって、明瞭で張りのある声質に変換する処理に起因して、複数のスペクトル包絡Eb[n]の時系列には時間軸上の微細な変動が発生し得る。また、包絡特定部22によるスペクトル包絡Ea[n]の推定誤差に起因して、包絡変換部32が解析時点毎に生成するスペクトル包絡Eb[n]の時系列に時間軸上の微細な変動が存在する場合もある。以上の通り、包絡変換部32が生成する複数のスペクトル包絡Eb[n]の時系列には、時間軸上の微細な変動が存在し得る。以上に例示したスペクトル包絡Eb[n]の微細な変動を抑制するために、図2の平滑処理部34は、包絡変換部32による変換後のスペクトル包絡Eb[n]を時間軸上で平滑化することによりスペクトル包絡Ec[n]を解析時点毎に順次に生成する。   By the way, when the voice represented by the acoustic signal X is converted into a clear and firm voice quality, the breath component (typically non-harmonic component) of the soft voice before the conversion can be emphasized. Since the breath component is probabilistically pronounced, it tends to fluctuate irregularly and frequently on the time axis. Therefore, due to the process of converting the voice quality into a clear and strong voice quality, a minute variation on the time axis may occur in the time series of the plurality of spectral envelopes Eb [n]. In addition, due to the estimation error of the spectrum envelope Ea [n] by the envelope specifying unit 22, there is a minute variation on the time axis in the time series of the spectrum envelope Eb [n] generated at each analysis time by the envelope conversion unit 32. May be present. As described above, in the time series of the plurality of spectral envelopes Eb [n] generated by the envelope conversion unit 32, there may be minute fluctuations on the time axis. In order to suppress the minute fluctuation of the spectrum envelope Eb [n] exemplified above, the smoothing processing unit 34 in FIG. 2 smoothes the spectrum envelope Eb [n] after the conversion by the envelope conversion unit 32 on the time axis. By doing so, the spectrum envelope Ec [n] is sequentially generated for each analysis time point.

具体的には、第1実施形態の平滑処理部34は、包絡変換部32が解析時点毎に生成した各スペクトル包絡Eb[n]に対して非線形フィルタを利用した平滑処理を実行することでスペクトル包絡Ec[n]を生成する。第1実施形態の非線形フィルタは、イプシロン(ε)分離型非線形フィルタである。イプシロン分離型非線形フィルタは、例えば以下の数式(1)および数式(2)で表現される。

Figure 2018072724
Figure 2018072724
Specifically, the smoothing processing unit 34 according to the first embodiment executes a smoothing process using a non-linear filter on each spectral envelope Eb [n] generated by the envelope conversion unit 32 at each analysis time point. An envelope Ec [n] is generated. The nonlinear filter of the first embodiment is an epsilon (ε) separation type nonlinear filter. The epsilon-separated nonlinear filter is expressed by, for example, the following formulas (1) and (2).
Figure 2018072724
Figure 2018072724

数式(1)は、複数の係数a[k]を利用した非巡回型デジタルフィルタである。周波数領域の1個のスペクトル包絡はM個のケプストラム係数で表現される。具体的には、数式(1)の記号Vb[n]は、1個のスペクトル包絡Eb[n]をM個のケプストラム係数で表現するM次元のベクトルである。記号Vc[n]は、平滑化後の1個のスペクトル包絡Ec[n]をM個のケプストラム係数で表現するM次元のベクトルである。数式(1)の記号K-は、第n番目の解析時点の前方(過去)において第n番目のスペクトル包絡Eb[n]の平滑化に利用される区間の長さを示す正数であり、記号K+は、第n番目の解析時点の後方(未来)において第n番目のスペクトル包絡Eb[n]の平滑化に利用される区間の長さを示す正数である。数式(1)の記号F[k]は、数式(2)で表現される非線形関数である。 Equation (1) is an acyclic digital filter using a plurality of coefficients a [k]. One spectrum envelope in the frequency domain is expressed by M cepstrum coefficients. Specifically, the symbol Vb [n] in Equation (1) is an M-dimensional vector that expresses one spectrum envelope Eb [n] with M cepstrum coefficients. A symbol Vc [n] is an M-dimensional vector expressing one spectrum envelope Ec [n] after smoothing by M cepstrum coefficients. The symbol K − in Equation (1) is a positive number indicating the length of a section used for smoothing the nth spectral envelope Eb [n] in the front (past) of the nth analysis time point, The symbol K + is a positive number indicating the length of a section used for smoothing the nth spectrum envelope Eb [n] behind (future) the nth analysis time point. Symbol F [k] in Equation (1) is a nonlinear function expressed by Equation (2).

数式(1)の演算は、第n番目のスペクトル包絡Eb[n](Vb[n])の周辺の複数のスペクトル包絡Eb[n-k](Vb[n-k])の各々に対応する係数a[k]を非線形関数F[k]に乗算して相互に加算する積和演算により第n番目のスペクトル包絡Ec[n](Vc[n])を生成するフィルタ処理である。ベクトルVb[n]で表現されるスペクトル包絡Eb[n]は第1スペクトル包絡の例示であり、ベクトルVb[n-k]で表現されるスペクトル包絡Eb[n-k]は第2スペクトル包絡の例示である。また、数式(1)の演算の結果であるベクトルVc[n]が表すスペクトル包絡Ec[n]は、出力スペクトル包絡の例示である。   The calculation of Expression (1) is performed by calculating a coefficient a [k] corresponding to each of a plurality of spectrum envelopes Eb [nk] (Vb [nk]) around the nth spectrum envelope Eb [n] (Vb [n]). ] Is a filter process for generating the nth spectrum envelope Ec [n] (Vc [n]) by a product-sum operation in which the nonlinear function F [k] is multiplied and added to each other. The spectrum envelope Eb [n] expressed by the vector Vb [n] is an example of the first spectrum envelope, and the spectrum envelope Eb [n-k] expressed by the vector Vb [n-k] is an example of the second spectrum envelope. Further, the spectrum envelope Ec [n] represented by the vector Vc [n] that is the result of the calculation of Expression (1) is an example of the output spectrum envelope.

数式(2)の記号D(Vb[n],Vb[n-k])は、第n番目のスペクトル包絡Eb[n]と第(n-k)番目のスペクトル包絡Eb[n-k]との類似または相違の度合を評価するための指標(以下「類似指標」という)である。具体的には、以下の数式(3a)で表現される通り、ベクトルVb[n]とベクトルVb[n-k]とのノルム(距離)が類似指標D(Vb[n],Vb[n-k])の好例である。なお、数式(3a)の記号Tは転置を意味する。また、数式(3b)で表現される通り、ベクトルVb[n]とベクトルVb[n-k]との間で次元毎の要素の差分|Vb[n]_m−Vb[n-k]_m|を算定し(m=0〜M-1)、M個の差分|Vb[n]_m−Vb[n-k]_m|の最大値(max)を類似指標D(Vb[n],Vb[n-k])として利用することも可能である。なお、数式(3b)の記号Vb[n]_mは、ベクトルVb[n]のM個の要素のうち第m番目の要素(すなわち第m次のケプストラム係数)を意味する。数式(3a)および数式(3b)から理解される通り、第1実施形態では、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]とが類似するほど類似指標D(Vb[n],Vb[n-k])は小さい数値となる。

Figure 2018072724
The symbol D (Vb [n], Vb [nk]) in Equation (2) indicates the degree of similarity or difference between the nth spectral envelope Eb [n] and the (nk) th spectral envelope Eb [nk]. Is an index (hereinafter referred to as “similar index”) for evaluating the Specifically, as expressed by the following formula (3a), the norm (distance) between the vector Vb [n] and the vector Vb [nk] is the similarity index D (Vb [n], Vb [nk]). A good example. Note that the symbol T in Equation (3a) means transposition. Further, as expressed by the equation (3b), the element difference | Vb [n] _m−Vb [nk] _m | for each dimension is calculated between the vector Vb [n] and the vector Vb [nk] ( m = 0 to M−1), and the maximum value (max) of M differences | Vb [n] _m−Vb [nk] _m | is used as the similarity index D (Vb [n], Vb [nk]). It is also possible. The symbol Vb [n] _m in Equation (3b) means the mth element (that is, the mth order cepstrum coefficient) among the M elements of the vector Vb [n]. As understood from the mathematical expressions (3a) and (3b), in the first embodiment, the similarity index D (Vb [n], Vb [is similar to the spectral envelope Eb [n] and the spectral envelope Eb [nk]. nk]) is a small number.
Figure 2018072724

前掲の数式(2)で表現される通り、類似指標D(Vb[n],Vb[n-k])が閾値εを下回る場合(すなわち、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]との類似を意味する数値である場合)には、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]との差分(Vb[n]−Vb[n-k])が数式(1)の非線形関数F[k]として利用される。他方、類似指標D(Vb[n],Vb[n-k])が閾値εを上回る場合(すなわちスペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]との相違を意味する数値である場合)には、非線形関数F[k]は零ベクトルに設定される。すなわち、類似指標D(Vb[n],Vb[n-k])が閾値εを上回るスペクトル包絡Eb[n-k]は、数式(1)の積和演算の対象から除外される。したがって、数式(1)のイプシロン分離型非線形フィルタを利用した平滑処理は、時間軸上におけるスペクトル包絡Eb[n]の微細な変動を平滑化するとともに時間軸上の急峻な変動については平滑化を抑制するように作用する。なお、数式(1)のイプシロン分離型非線形フィルタは、処理前のスペクトル包絡Eb[n]と処理後のスペクトル包絡Ec[n]との差異|Vb[n]−Vc[n]|を所定の範囲内に抑制しながら時間的な平滑化を実現するフィルタであるとも換言される。   As expressed by the above formula (2), when the similarity index D (Vb [n], Vb [nk]) is lower than the threshold ε (that is, between the spectrum envelope Eb [n] and the spectrum envelope Eb [nk]). In the case of a numerical value indicating similarity), the difference (Vb [n] −Vb [nk]) between the spectrum envelope Eb [n] and the spectrum envelope Eb [nk] is the nonlinear function F [k ] Is used. On the other hand, when the similarity index D (Vb [n], Vb [nk]) exceeds the threshold value ε (that is, a value indicating a difference between the spectrum envelope Eb [n] and the spectrum envelope Eb [nk]). The nonlinear function F [k] is set to a zero vector. That is, the spectrum envelope Eb [n−k] in which the similarity index D (Vb [n], Vb [n−k]) exceeds the threshold ε is excluded from the product-sum operation target of Equation (1). Therefore, the smoothing process using the epsilon separation type non-linear filter of Equation (1) smoothes fine fluctuations of the spectral envelope Eb [n] on the time axis and smoothes sharp fluctuations on the time axis. Acts to suppress. Note that the epsilon-separated nonlinear filter of the formula (1) has a predetermined difference | Vb [n] −Vc [n] | between the spectrum envelope Eb [n] before processing and the spectrum envelope Ec [n] after processing. In other words, it is a filter that realizes temporal smoothing while suppressing within the range.

図4は、平滑処理部34による平滑処理前のスペクトル包絡Eb[n]の時間変化と、数式(1)のイプシロン分離型非線形フィルタによる平滑処理後のスペクトル包絡Ec[n]の時間変化とを表すグラフである。図4では、第0次から第3次(m=0〜3)までのケプストラム係数の時間変化が図示されている。複数のスペクトル包絡Eb[n]の時系列を単純な時間平均(単純平均)により平滑化した場合のスペクトル包絡Ec[n]の時間変化が、図4には対比例として併記されている。また、図4には、音響信号Xが表す音声の音素の境界(縦線)が図示されている。   FIG. 4 shows the time change of the spectrum envelope Eb [n] before the smoothing process by the smoothing unit 34 and the time change of the spectrum envelope Ec [n] after the smoothing process by the epsilon separation type nonlinear filter of Equation (1). It is a graph to represent. In FIG. 4, the time change of the cepstrum coefficient from the 0th order to the 3rd order (m = 0 to 3) is illustrated. The time change of the spectrum envelope Ec [n] when the time series of the plurality of spectrum envelopes Eb [n] is smoothed by a simple time average (simple average) is also shown in FIG. Further, FIG. 4 illustrates a boundary (vertical line) of the phoneme of the voice represented by the acoustic signal X.

図4から理解される通り、第1実施形態および対比例の何れにおいても、時間軸上におけるスペクトル包絡Eb[n]の微細な変動は抑制される。しかし、対比例では、各音素の境界におけるスペクトル包絡Ec[n]の時間変化が、処理前のスペクトル包絡Eb[n]の時間変化と比較して抑制されて緩慢になる。したがって、対比例で生成されたスペクトル包絡Ec[n]の音声は、滑舌の悪い不自然な音声と聴感的に知覚される可能性がある。   As can be understood from FIG. 4, in both the first embodiment and the comparative example, fine fluctuations in the spectral envelope Eb [n] on the time axis are suppressed. In contrast, however, the temporal change of the spectral envelope Ec [n] at the boundary of each phoneme is suppressed and slow compared with the temporal change of the spectral envelope Eb [n] before processing. Therefore, the voice of the spectral envelope Ec [n] generated in proportion may be perceptually perceived as an unnatural voice with a bad tongue.

対比例とは対照的に、イプシロン分離型非線形フィルタを利用した第1実施形態によれば、図4から確認できる通り、各音素の境界におけるスペクトル包絡Ec[n]の変化が、平滑処理前のスペクトル包絡Eb[n]の時間変化と同等に維持される。すなわち、第1実施形態によれば、平滑処理後のスペクトル包絡Ec[n]の急峻な時間変化を平滑処理前と同等に維持しながら(すなわち受聴者が知覚する滑舌を良好に維持しながら)、時間軸上におけるスペクトル包絡Eb[n]の微細な変動を有効に平滑化することが可能である。   In contrast to the proportionality, according to the first embodiment using the epsilon-separating nonlinear filter, as can be confirmed from FIG. 4, the change in the spectral envelope Ec [n] at each phoneme boundary is It is maintained equivalent to the time variation of the spectral envelope Eb [n]. That is, according to the first embodiment, while maintaining a steep time change of the spectrum envelope Ec [n] after the smoothing process equivalent to that before the smoothing process (that is, while maintaining a smooth tongue perceived by the listener) ), And fine fluctuations of the spectral envelope Eb [n] on the time axis can be effectively smoothed.

ところで、図4から理解される通り、対比例では、平滑処理に起因した処理遅延がスペクトル包絡Ec[n]に顕著に発生する。すなわち、対比例で生成されるスペクトル包絡Ec[n]の時系列は処理前のスペクトル包絡Eb[n]に対して遅延した関係にある。対比例とは対照的に、イプシロン分離型非線形フィルタを利用した第1実施形態によれば、図4から確認できる通り、平滑処理部34による平滑処理に起因した遅延が殆ど発生しないという利点もある。なお、平滑処理の処理遅延を低減するという観点からは、数式(1)の定数K+を充分に小さい正数または零に設定した構成が好適である。 By the way, as understood from FIG. 4, in contrast, processing delay due to smoothing processing is remarkably generated in the spectrum envelope Ec [n]. That is, the time series of the spectral envelope Ec [n] generated in proportion is in a delayed relationship with respect to the spectral envelope Eb [n] before processing. In contrast to the comparative example, according to the first embodiment using the epsilon separation type nonlinear filter, there is an advantage that the delay due to the smoothing process by the smoothing unit 34 hardly occurs as can be confirmed from FIG. . From the viewpoint of reducing the processing delay of the smoothing process, a configuration in which the constant K + in Equation (1) is set to a sufficiently small positive number or zero is preferable.

図2の信号合成部26は、音響処理部24が解析時点毎に生成したスペクトル包絡Ec[n]を利用して音響信号Xを調整することで音響信号Yを生成する。具体的には、信号合成部26は、音響信号Xの周波数スペクトルQ[n]が音響処理後のスペクトル包絡Ec[n]に整合するように音響信号Xを調整することで音響信号Yを生成する。すなわち、音響信号Xのスペクトル包絡Ea[n]が音響処理後のスペクトル包絡Ec[n]に変換される。   2 generates an acoustic signal Y by adjusting the acoustic signal X using the spectrum envelope Ec [n] generated by the acoustic processing unit 24 at each analysis time point. Specifically, the signal synthesis unit 26 generates the acoustic signal Y by adjusting the acoustic signal X so that the frequency spectrum Q [n] of the acoustic signal X matches the spectrum envelope Ec [n] after acoustic processing. To do. That is, the spectral envelope Ea [n] of the acoustic signal X is converted into a spectral envelope Ec [n] after acoustic processing.

図2の制御処理部28は、音響処理部24による音響処理の度合を示す制御値Ca[n]を設定する。第1実施形態の制御処理部28は、包絡変換部32による声質変換の度合を示す前述の制御値Ca[n]を設定する。第1実施形態では、制御値Ca[n]が小さいほど声質変換が抑制される場合を想定する。   The control processing unit 28 in FIG. 2 sets a control value Ca [n] indicating the degree of acoustic processing performed by the acoustic processing unit 24. The control processing unit 28 of the first embodiment sets the above-described control value Ca [n] indicating the degree of voice quality conversion by the envelope conversion unit 32. In the first embodiment, it is assumed that the voice quality conversion is suppressed as the control value Ca [n] is smaller.

音響信号Xのうち有声子音が発音された期間または母音の音素が遷移する期間等の音量が相対的に小さい期間について、母音が定常的に維持される期間と同等の声質変換を実行すると、変換後の音声が滑舌の悪い不自然な音声と知覚される可能性がある。以上の事情を考慮して、第1実施形態の制御処理部28は、音響信号Xのうちレベルが小さい期間については声質変換の度合が抑制されるように、制御値Ca[n]を設定する。図2に例示される通り、第1実施形態の制御処理部28は、第1強度算定部42と第2強度算定部44と制御値設定部46とを具備する。   When the voice quality conversion equivalent to the period in which the vowel is constantly maintained is executed for a period in which the volume is relatively small, such as a period in which the voiced consonant is pronounced or a period in which the vowel phoneme transitions, The later speech may be perceived as unnatural speech with a bad tongue. In consideration of the above circumstances, the control processing unit 28 of the first embodiment sets the control value Ca [n] so that the degree of voice quality conversion is suppressed during a period in which the level of the acoustic signal X is low. . As illustrated in FIG. 2, the control processing unit 28 of the first embodiment includes a first intensity calculating unit 42, a second intensity calculating unit 44, and a control value setting unit 46.

図5は、第1強度算定部42および第2強度算定部44の動作の説明図である。図5に例示される通り、第1強度算定部42は、音響信号Xのレベル(例えば音量,振幅またはパワー)の時間変化に追従する強度L1[n](第1強度の例示)を解析時点毎に順次に算定する。第2強度算定部44は、強度L1[n]と比較して高い追従性で音響信号Xのレベルの時間変化に追従する強度L2[n](第2強度の例示)を解析時点毎に順次に算定する。強度L1[n]および強度L2[n]は、音響信号Xのレベルに関する数値である。以上の説明では音響信号Xのレベルに対する追従性に着目したが、音響信号Xを時定数τ1により平滑化することで第1強度算定部42が強度L1[n]を算定し、時定数τ1を下回る時定数τ2(τ2<τ1)により音響信号Xを平滑化することで第2強度算定部44が強度L2[n]を算定する、と換言することも可能である。   FIG. 5 is an explanatory diagram of the operation of the first intensity calculator 42 and the second intensity calculator 44. As illustrated in FIG. 5, the first intensity calculation unit 42 analyzes the intensity L1 [n] (example of the first intensity) following the time change of the level (for example, volume, amplitude, or power) of the acoustic signal X. Calculate sequentially for each. The second intensity calculation unit 44 sequentially calculates the intensity L2 [n] (example of the second intensity) that follows the time change of the level of the acoustic signal X with higher followability than the intensity L1 [n] at each analysis time point. To calculate. The intensity L1 [n] and the intensity L2 [n] are numerical values related to the level of the acoustic signal X. In the above description, attention has been paid to the followability to the level of the acoustic signal X, but by smoothing the acoustic signal X with the time constant τ1, the first intensity calculating unit 42 calculates the intensity L1 [n], and the time constant τ1 is set. In other words, the second intensity calculating unit 44 calculates the intensity L2 [n] by smoothing the acoustic signal X with the lower time constant τ2 (τ2 <τ1).

図6は、第1強度算定部42および第2強度算定部44を例示する構成図である。第1強度算定部42および第2強度算定部44の各々が図6の構成を具備する。第1強度算定部42は音響信号Xから強度L1[n]を算定し、第2強度算定部44は音響信号Xから強度L2[n]を算定するが、図6では強度L1[n]および強度L2[n]を区別することなく便宜的に強度L[n]と表記した。   FIG. 6 is a configuration diagram illustrating the first intensity calculator 42 and the second intensity calculator 44. Each of the first intensity calculator 42 and the second intensity calculator 44 has the configuration of FIG. The first intensity calculator 42 calculates the intensity L1 [n] from the acoustic signal X, and the second intensity calculator 44 calculates the intensity L2 [n] from the acoustic signal X. In FIG. The intensity L2 [n] is indicated as the intensity L [n] for convenience without being distinguished.

第1強度算定部42および第2強度算定部44の各々は、音響信号Xのレベルに追従する強度L[n]の時系列(すなわち音量の時間変化)を出力するエンベロープフォロワであり、図6に例示される通り、演算部51と減算部52と乗算部53と乗算部54と加算部55と遅延部56とを具備する。遅延部56は、強度L[n]を遅延させる。演算部51は、音響信号Xのレベルの絶対値|X|を算定し、減算部52は、音響信号Xのレベルの絶対値|X|から遅延部56による遅延後の強度L[n]を減算する。減算部52が算定した差分値δ(δ=|X|−L[n])が正数である場合には乗算部53が差分値δに係数γaを乗算し、差分値δが負数である場合には乗算部54が差分値δに係数γbを乗算する。乗算部53の出力と乗算部54の出力と遅延部56による遅延後の強度L[n]とを加算部55が加算することで強度L[n]が算定される。第1強度算定部42の時定数τ1と第2強度算定部44の時定数τ2とは、係数γaおよび係数γbに応じた数値に設定される。   Each of the first intensity calculation unit 42 and the second intensity calculation unit 44 is an envelope follower that outputs a time series of intensity L [n] (that is, time change in volume) following the level of the acoustic signal X. FIG. As illustrated in FIG. 5, the calculation unit 51, the subtraction unit 52, the multiplication unit 53, the multiplication unit 54, the addition unit 55, and the delay unit 56 are provided. The delay unit 56 delays the intensity L [n]. The calculation unit 51 calculates the absolute value | X | of the level of the acoustic signal X, and the subtraction unit 52 calculates the intensity L [n] after being delayed by the delay unit 56 from the absolute value | X | of the level of the acoustic signal X. Subtract. When the difference value δ (δ = | X | −L [n]) calculated by the subtraction unit 52 is a positive number, the multiplication unit 53 multiplies the difference value δ by the coefficient γa, and the difference value δ is a negative number. In this case, the multiplication unit 54 multiplies the difference value δ by the coefficient γb. The adder 55 adds the output of the multiplier 53, the output of the multiplier 54, and the intensity L [n] after being delayed by the delay unit 56, thereby calculating the intensity L [n]. The time constant τ1 of the first intensity calculator 42 and the time constant τ2 of the second intensity calculator 44 are set to numerical values corresponding to the coefficient γa and the coefficient γb.

図5から理解される通り、音響信号Xのレベルが小さい期間では、強度L1[n]が強度L2[n]を上回り(L1[n]>L2[n])、音響信号Xのレベルが大きい期間では、強度L1[n]が強度L2[n]を下回る(L1[n]<L2[n])という傾向がある。以上の傾向を考慮して、第1実施形態の制御値設定部46は、強度L1[n]が強度L2[n]を上回る場合の制御値Ca[n]が、強度L1[n]が強度L2[n]を下回る場合の制御値Ca[n]と比較して小さい数値(すなわち声質変化を抑制する数値)となるように、強度L1[n]および強度L2[n]に応じて制御値Ca[n]を設定する。   As understood from FIG. 5, in a period in which the level of the acoustic signal X is small, the intensity L1 [n] exceeds the intensity L2 [n] (L1 [n]> L2 [n]), and the level of the acoustic signal X is large. In the period, the intensity L1 [n] tends to be lower than the intensity L2 [n] (L1 [n] <L2 [n]). Considering the above tendency, the control value setting unit 46 of the first embodiment is configured such that the control value Ca [n] when the intensity L1 [n] exceeds the intensity L2 [n] is the intensity L1 [n]. The control value according to the intensity L1 [n] and the intensity L2 [n] so as to be a small numerical value (that is, a numerical value that suppresses voice quality change) compared to the control value Ca [n] when it is below L2 [n]. Set Ca [n].

具体的には、制御値設定部46は、以下の数式(4)の演算により制御値Ca[n]を算定する。

Figure 2018072724
Specifically, the control value setting unit 46 calculates the control value Ca [n] by the calculation of the following formula (4).
Figure 2018072724

数式(4)の記号Lmaxは、強度L1[n]および強度L2[n]のうち大きい方の数値である。また、記号max(a,b)は、数値aおよび数値bのうち大きい方を選択する最大値演算を意味する。数式(4)から理解される通り、強度L1[n]が強度L2[n]を下回る場合(音響信号Xのレベルが大きい場合)、両者間の差分(L1[n]−L2[n])は負数となるから、最大値演算では0が選択される。したがって、操作装置14に対する操作で利用者が指定した指示値C0が制御値Ca[n]として設定される(Ca[n]=C0)。他方、強度L1[n]が強度L2[n]を上回る場合(音響信号Xのレベルが小さい場合)、両者間の差分(L1[n]−L2[n])は正数となるから、最大値演算では差分(L1[n]−L2[n])が選択される。したがって、制御値Ca[n]は、1未満の正数(1−(L1[n]−L2[n])/Lmax)を指示値C0に乗算した数値に設定される。すなわち、制御値Ca[n]は、指示値C0を下回る数値に設定される(Ca[n]<C0)。また、強度L1[n]が強度L2[n]と比較して大きいほど、制御値Ca[n]は小さい数値に設定される。以上の説明から理解される通り、音響信号Xのうちレベルが小さい期間について声質変換の度合が抑制されるように制御値Ca[n]が設定される。   The symbol Lmax in Expression (4) is a larger numerical value of the intensity L1 [n] and the intensity L2 [n]. The symbol max (a, b) means a maximum value calculation for selecting the larger one of the numerical value a and the numerical value b. As understood from Equation (4), when the intensity L1 [n] is lower than the intensity L2 [n] (when the level of the acoustic signal X is large), the difference between the two (L1 [n] −L2 [n]) Is a negative number, 0 is selected in the maximum value calculation. Therefore, the instruction value C0 designated by the user in the operation on the controller device 14 is set as the control value Ca [n] (Ca [n] = C0). On the other hand, when the intensity L1 [n] exceeds the intensity L2 [n] (when the level of the acoustic signal X is small), the difference between the two (L1 [n] −L2 [n]) is a positive number, so the maximum In the value calculation, the difference (L1 [n] −L2 [n]) is selected. Therefore, the control value Ca [n] is set to a numerical value obtained by multiplying the instruction value C0 by a positive number less than 1 (1- (L1 [n] -L2 [n]) / Lmax). That is, the control value Ca [n] is set to a numerical value lower than the instruction value C0 (Ca [n] <C0). Further, the control value Ca [n] is set to a smaller numerical value as the strength L1 [n] is larger than the strength L2 [n]. As understood from the above description, the control value Ca [n] is set so that the degree of voice quality conversion is suppressed for a period of a low level in the acoustic signal X.

以上に説明した通り、第1実施形態では、強度L1[n]と強度L2[n]との相違に応じて制御値Ca[n]が設定されるから、音響信号Xを強度に応じて区分するための閾値の設定を必要とせずに、音響処理(第1実施形態では声質変換)に適用される制御値Ca[n]を適切に設定することが可能である。第1実施形態では特に、強度L1[n]が強度L2[n]を上回る場合の制御値Ca[n]が、強度L1[n]が強度L2[n]を下回る場合の制御値Ca[n]と比較して、声質変換を抑制する数値に設定される。したがって、音量が小さい期間について声質変換が抑制された聴感的に自然な音声を生成することが可能である。   As described above, in the first embodiment, since the control value Ca [n] is set according to the difference between the intensity L1 [n] and the intensity L2 [n], the acoustic signal X is classified according to the intensity. It is possible to appropriately set the control value Ca [n] applied to the acoustic processing (voice quality conversion in the first embodiment) without requiring the setting of a threshold value for the purpose. Particularly in the first embodiment, the control value Ca [n] when the intensity L1 [n] exceeds the intensity L2 [n] is the control value Ca [n] when the intensity L1 [n] is less than the intensity L2 [n]. ] Is set to a value that suppresses voice quality conversion. Therefore, it is possible to generate a perceptually natural voice in which the voice quality conversion is suppressed for a period during which the volume is low.

図7は、第1実施形態の制御装置10が実行する処理のフローチャートである。例えば操作装置14に対する利用者からの指示を契機として図7の処理が開始され、時間軸上の解析時点毎に反復される。   FIG. 7 is a flowchart of processing executed by the control device 10 according to the first embodiment. For example, the process in FIG. 7 is started in response to an instruction from the user to the operation device 14 and is repeated at each analysis time point on the time axis.

図7の処理を開始すると、制御処理部28は、音響信号Xのレベルに追従する強度L1[n]と強度L2[n]との相違に応じて制御値Ca[n]を設定する(S1)。包絡特定部22は、音響信号Xのスペクトル包絡Ea[n]を特定する(S2)。包絡変換部32は、制御処理部28が設定した制御値Ca[n]を適用した声質変換により、包絡特定部22が特定したスペクトル包絡Ea[n]を変形したスペクトル包絡Eb[n]を生成する(S3)。平滑処理部34は、数式(1)および数式(2)で表現されるイプシロン分離型非線形フィルタによるフィルタ処理をスペクトル包絡Eb[n]に対して実行することでスペクトル包絡Ec[n]を生成する(S4)。信号合成部26は、音響処理部24が生成したスペクトル包絡Ec[n]を利用して音響信号Xを調整することで音響信号Yを生成する(S5)。   When the processing of FIG. 7 is started, the control processing unit 28 sets the control value Ca [n] according to the difference between the intensity L1 [n] and the intensity L2 [n] following the level of the acoustic signal X (S1). ). The envelope specifying unit 22 specifies the spectrum envelope Ea [n] of the acoustic signal X (S2). The envelope conversion unit 32 generates a spectrum envelope Eb [n] obtained by transforming the spectrum envelope Ea [n] specified by the envelope specifying unit 22 by voice quality conversion using the control value Ca [n] set by the control processing unit 28. (S3). The smoothing processing unit 34 generates the spectrum envelope Ec [n] by performing filtering processing on the spectrum envelope Eb [n] by the epsilon separation type nonlinear filter expressed by the equations (1) and (2). (S4). The signal synthesizer 26 generates the acoustic signal Y by adjusting the acoustic signal X using the spectrum envelope Ec [n] generated by the acoustic processor 24 (S5).

<第2実施形態>
本発明の第2実施形態について説明する。なお、以下に例示する各形態において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
Second Embodiment
A second embodiment of the present invention will be described. In addition, about the element which an effect | action or function is the same as that of 1st Embodiment in each form illustrated below, the code | symbol used by description of 1st Embodiment is diverted, and each detailed description is abbreviate | omitted suitably.

第1実施形態では、包絡変換部32による声質変換の度合を制御するための制御値Ca[n]を制御処理部28が設定した。第2実施形態の制御処理部28は、イプシロン分離型非線形フィルタに適用される閾値εを制御するための制御値Cb[n]を設定する。すなわち、第2実施形態の閾値εは可変値である。   In the first embodiment, the control processing unit 28 sets a control value Ca [n] for controlling the degree of voice quality conversion by the envelope conversion unit 32. The control processing unit 28 of the second embodiment sets a control value Cb [n] for controlling the threshold value ε applied to the epsilon separation type nonlinear filter. That is, the threshold value ε in the second embodiment is a variable value.

前掲の数式(2)から理解される通り、閾値εが小さいほど、類似指標D(Vb[n],Vb[n-k])が閾値εを上回る場合が多くなる。前述の通り、類似指標D(Vb[n],Vb[n-k])が閾値εを上回るスペクトル包絡Eb[n-k]は数式(1)の積和演算の対象から除外される。したがって、閾値εが小さいほど、平滑処理後のスペクトル包絡Ec[n]が平滑処理前のスペクトル包絡Eb[n]に近い形状となる。すなわち、閾値εが小さいほど平滑処理の度合が低減される。   As understood from Equation (2), the similarity index D (Vb [n], Vb [n−k]) is more likely to exceed the threshold ε as the threshold ε is smaller. As described above, the spectrum envelope Eb [n−k] in which the similarity index D (Vb [n], Vb [n−k]) exceeds the threshold ε is excluded from the product-sum operation target of the equation (1). Therefore, the smaller the threshold ε, the closer the spectral envelope Ec [n] after smoothing processing is to the shape of the spectral envelope Eb [n] before smoothing processing. That is, as the threshold value ε is smaller, the degree of smoothing processing is reduced.

他方、音響信号Xのうちレベルが小さい期間では、スペクトル包絡Eb[n]の微細な変動は聴感的に知覚され難いから、微細な変動の抑制を目的とした平滑処理の度合は抑制することが望ましい。以上の事情を考慮して、第2実施形態の制御処理部28は、音響信号Xのうちレベルが小さい期間については、非線形フィルタを利用した平滑処理の度合が抑制されるように、制御処理部28が制御値Cb[n]を設定する。   On the other hand, since the minute fluctuation of the spectrum envelope Eb [n] is hardly perceptually perceived during the period when the level of the acoustic signal X is small, the degree of smoothing processing for the purpose of suppressing the minute fluctuation can be suppressed. desirable. In consideration of the above circumstances, the control processing unit 28 of the second embodiment controls the control processing unit so that the degree of smoothing processing using a non-linear filter is suppressed during a period in which the level of the acoustic signal X is low. 28 sets the control value Cb [n].

具体的には、制御処理部28は、音響信号Xのレベルに追従する強度L1[n]と強度L2[n]との相違に応じて制御値Cb[n]を設定する。例えば前掲の数式(4)と同様に、強度L1[n]が強度L2[n]を上回る場合(レベルが小さい期間)の制御値Cb[n]が、強度L1[n]が強度L2[n]を下回る場合の制御値Cb[n]と比較して小さい数値となるように、強度L1[n]および強度L2[n]に応じた制御値Cb[n]を設定する。制御処理部28は、制御値Cb[n]を閾値εとして設定する。したがって、音響信号Xのうちレベルが小さい期間では、閾値εが小さい数値に設定されることで平滑処理が抑制される。他方、音響信号Xのうちレベルが大きい期間では、閾値εが大きい数値に設定されることで充分な平滑処理が実行される。なお、制御値Cb[n]に対する所定の演算により閾値εを算定することも可能である。   Specifically, the control processing unit 28 sets the control value Cb [n] according to the difference between the intensity L1 [n] following the level of the acoustic signal X and the intensity L2 [n]. For example, as in the above formula (4), the control value Cb [n] when the intensity L1 [n] is greater than the intensity L2 [n] (period when the level is low), the intensity L1 [n] is the intensity L2 [n ], The control value Cb [n] corresponding to the intensity L1 [n] and the intensity L2 [n] is set so as to be smaller than the control value Cb [n]. The control processing unit 28 sets the control value Cb [n] as the threshold value ε. Therefore, in a period in which the level of the acoustic signal X is low, the smoothing process is suppressed by setting the threshold ε to a small numerical value. On the other hand, in a period in which the level of the acoustic signal X is high, sufficient smoothing processing is executed by setting the threshold ε to a large numerical value. It is also possible to calculate the threshold value ε by a predetermined calculation with respect to the control value Cb [n].

第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では特に、強度L1[n]が強度L2[n]を上回る場合の制御値Cb[n]が、強度L1[n]が強度L2[n]を下回る場合の制御値Cb[n]と比較して、平滑処理を抑制する数値に設定される。したがって、レベルが小さい期間について平滑処理が抑制された聴感的に自然な音声を生成することが可能である。   In the second embodiment, the same effect as in the first embodiment is realized. In the second embodiment, in particular, the control value Cb [n] when the intensity L1 [n] exceeds the intensity L2 [n] is the control value Cb when the intensity L1 [n] is less than the intensity L2 [n]. Compared with [n], a numerical value that suppresses smoothing is set. Therefore, it is possible to generate perceptually natural sound in which smoothing processing is suppressed for a period with a low level.

なお、第2実施形態では平滑処理の制御に着目したが、第1実施形態で例示した声質変換の制御と第2実施形態で例示した平滑処理の制御との双方を採用することも可能である。以上の説明から理解される通り、制御処理部28は、音響処理部24による音響処理を制御する要素として包括的に表現される。音響処理は、包絡変換部32による声質変換と平滑処理部34による平滑処理とを包含する。   Although the second embodiment focuses on smoothing process control, it is also possible to employ both the voice quality conversion control exemplified in the first embodiment and the smoothing process control exemplified in the second embodiment. . As understood from the above description, the control processing unit 28 is comprehensively expressed as an element that controls the acoustic processing performed by the acoustic processing unit 24. The acoustic processing includes voice quality conversion by the envelope conversion unit 32 and smoothing processing by the smoothing processing unit 34.

<第3実施形態>
第1実施形態では、音響信号Xの全期間にわたり前掲の数式(4)の演算により制御値Ca[n]を算定した。しかし、音響信号Xのうち有声音が優勢に存在する期間(以下「有声期間」という)と、有声期間以外の期間(以下「非有声期間」という)とでは音響特性が顕著に相違するという傾向がある。したがって、有声期間と非有声期間とでは音響処理の制御(すなわち制御値Ca[n]の設定)を相違させることが望ましい。以上の事情を考慮して、第3実施形態では、有声期間と非有声期間とで制御値Ca[n]の設定を相違させる。なお、非有声期間は、例えば、無声音が存在する無声期間と、有意な音量が観測されない無音期間とを包含する。
<Third Embodiment>
In the first embodiment, the control value Ca [n] is calculated by the calculation of the above formula (4) over the entire period of the acoustic signal X. However, there is a tendency that acoustic characteristics are significantly different between a period in which voiced sound is dominant in the acoustic signal X (hereinafter referred to as “voiced period”) and a period other than the voiced period (hereinafter referred to as “non-voiced period”). There is. Therefore, it is desirable that the sound processing control (that is, the setting of the control value Ca [n]) be different between the voiced period and the non-voiced period. Considering the above circumstances, in the third embodiment, the setting of the control value Ca [n] is different between the voiced period and the non-voiced period. Note that the non-voiced period includes, for example, a silent period in which an unvoiced sound exists and a silent period in which no significant volume is observed.

具体的には、第3実施形態における制御処理部28の制御値設定部46は、音響信号Xを有声期間と非有声期間とに時間軸上で区分する。有声期間と非有声期間との区分には公知の技術が任意に採用され得る。例えば、制御値設定部46は、音響信号Xのうち明確な調波構造が観測される期間(例えば基本周波数を明確に特定できる期間)を有声期間として画定し、調波構造が明確に特定されない無声期間と音量が閾値を下回る無音期間とを、非有声期間として画定する。そして、制御値設定部46は、有声期間と非有声期間とを区別した以下の数式(5)の演算により制御値Ca[n]を算定する。

Figure 2018072724
Specifically, the control value setting unit 46 of the control processing unit 28 in the third embodiment divides the acoustic signal X into a voiced period and a non-voiced period on the time axis. A well-known technique can be arbitrarily adopted for the distinction between the voiced period and the non-voiced period. For example, the control value setting unit 46 defines a period during which a clear harmonic structure is observed in the acoustic signal X (for example, a period during which the fundamental frequency can be clearly specified) as a voiced period, and the harmonic structure is not clearly specified. A silent period and a silent period in which the volume falls below the threshold are defined as a non-voiced period. Then, the control value setting unit 46 calculates the control value Ca [n] by the calculation of the following formula (5) that distinguishes between the voiced period and the non-voiced period.
Figure 2018072724

数式(5)から理解される通り、第3実施形態の制御処理部28(制御値設定部46)は、音響信号Xの有声期間については、第1実施形態と同様に、強度L1[n]と強度L2[n]との相違に応じた制御値Ca[n]を設定する。包絡変換部32は、制御処理部28が設定した制御値Ca[n]に応じた声質変換を実行する。他方、音響信号Xの非有声期間について、制御処理部28(制御値設定部46)は、制御値Ca[n]をゼロに設定する。したがって、非有声期間については包絡変換部32による声質変換が省略される。   As understood from the mathematical formula (5), the control processing unit 28 (control value setting unit 46) of the third embodiment has the intensity L1 [n] for the voiced period of the acoustic signal X as in the first embodiment. And a control value Ca [n] corresponding to the difference between the intensity L2 [n]. The envelope conversion unit 32 performs voice quality conversion according to the control value Ca [n] set by the control processing unit 28. On the other hand, for the non-voiced period of the acoustic signal X, the control processing unit 28 (control value setting unit 46) sets the control value Ca [n] to zero. Therefore, voice quality conversion by the envelope conversion unit 32 is omitted for the non-voiced period.

第3実施形態においても第1実施形態と同様の効果が実現される。第3実施形態では特に、非有声期間について声質変換が省略されるから、有声期間と非有声期間とを区別せずに一律に声質変換を実行する構成と比較して聴感的に自然な音を生成できるという利点がある。   In the third embodiment, the same effect as in the first embodiment is realized. Especially in the third embodiment, since the voice quality conversion is omitted for the non-voiced period, a sound that is audibly natural compared to the configuration in which the voice quality conversion is uniformly performed without distinguishing between the voiced period and the non-voiced period. There is an advantage that it can be generated.

なお、以上の説明では、声質変換に関する制御値Ca[n]の設定を有声期間と非有声期間とで区別する構成を例示したが、第2実施形態で例示した平滑処理の制御値Cb[n](閾値ε)の設定についても同様に、有声期間と非有声期間とで区別することが可能である。   In the above description, the configuration in which the setting of the control value Ca [n] related to voice quality conversion is distinguished between the voiced period and the non-voiced period is exemplified. However, the smoothing control value Cb [n] exemplified in the second embodiment is used. ] (Threshold ε) can be similarly distinguished between a voiced period and a non-voiced period.

<変形例>
以上に例示した態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification>
The aspect illustrated above can be variously modified. Specific modifications are exemplified below. Two or more modes arbitrarily selected from the following examples can be appropriately combined within a range that does not contradict each other.

(1)前述の各形態では、前掲の数式(2)の通り、類似指標D(Vb[n],Vb[n-k])が閾値εを上回る場合に非線形関数F[k]を零ベクトルに設定したが、類似指標D(Vb[n],Vb[n-k])が閾値εを上回る場合の処理は以上の例示に限定されない。具体的には、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]との相違(Vb[n]−Vb[n-k])を抑制した結果を非線形関数F[k]として利用することも可能である。例えば、充分に小さい正数(例えば0.01)を相違(Vb[n]−Vb[b-k])に乗算した結果が非線形関数F[k]として利用される。以上の例示から理解される通り、平滑処理部34は、類似指標D(Vb[n],Vb[n-k])が閾値εを上回るスペクトル包絡Eb[n-k]について、当該スペクトル包絡Eb[n-k]を積和演算の対象から除外し、または、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]との差分(Vb[n]−Vb[n-k])を抑制した結果を非線形関数F[k]として利用する要素として包括的に表現される。 (1) In each of the above-described embodiments, the nonlinear function F [k] is set to a zero vector when the similarity index D (Vb [n], Vb [nk]) exceeds the threshold value ε, as shown in Equation (2) above. However, the processing when the similarity index D (Vb [n], Vb [nk]) exceeds the threshold ε is not limited to the above example. Specifically, the result of suppressing the difference (Vb [n] −Vb [nk]) between the spectral envelope Eb [n] and the spectral envelope Eb [nk] can be used as the nonlinear function F [k]. is there. For example, a result obtained by multiplying a difference (Vb [n] −Vb [b−k]) by a sufficiently small positive number (for example, 0.01) is used as the nonlinear function F [k]. As understood from the above examples, the smoothing processing unit 34 uses the spectrum envelope Eb [nk] for the spectrum envelope Eb [nk] in which the similarity index D (Vb [n], Vb [nk]) exceeds the threshold ε. The result of excluding the product-sum operation or suppressing the difference (Vb [n] −Vb [nk]) between the spectral envelope Eb [n] and the spectral envelope Eb [nk] as a nonlinear function F [k] It is expressed comprehensively as an element to be used.

(2)第3実施形態では、音響信号Xの非有声期間について声質変換を省略したが、音響信号Xの非有声期間において、声質変換を有声期間と比較して抑制することも可能である。例えば、音響信号Xの非有声期間について、制御処理部28は、充分に小さい正数(例えば0.01)を指示値C0に乗算することで制御値Ca[n]を算定する。包絡変換部32は、有声期間だけでなく非有声期間についても、制御値Ca[n]を利用した声質変換を実行する。第2実施形態の制御値Cb[n]の設定にも同様の構成が採用され得る。以上の例示から理解される通り、第3実施形態は、有声期間について、強度L1[n]と強度L2[n]との相違に応じた制御値Ca[n]を適用した音響処理(例えば声質変換または平滑処理)を実行し、非有声期間については音響処理を抑制または省略する形態として包括的に表現される。 (2) Although the voice quality conversion is omitted for the non-voiced period of the acoustic signal X in the third embodiment, the voice quality conversion can be suppressed in the non-voiced period of the acoustic signal X as compared with the voiced period. For example, for the non-voiced period of the acoustic signal X, the control processing unit 28 calculates the control value Ca [n] by multiplying the instruction value C0 by a sufficiently small positive number (for example, 0.01). The envelope conversion unit 32 performs voice quality conversion using the control value Ca [n] not only for the voiced period but also for the non-voiced period. A similar configuration may be employed for setting the control value Cb [n] in the second embodiment. As will be understood from the above examples, the third embodiment is configured to perform acoustic processing (for example, voice quality) using a control value Ca [n] corresponding to the difference between the intensity L1 [n] and the intensity L2 [n] for the voiced period. Conversion or smoothing process), and the non-voiced period is comprehensively expressed as a form in which acoustic processing is suppressed or omitted.

(3)前述の各形態では、音響処理(声質変換および平滑処理)と制御値(Ca[n],Cb[n])の設定とを解析時点毎に実行したが、音響処理の周期と制御値の設定の周期とを相違させることも可能である。例えば、相前後する解析時点の間隔と比較して長い周期で制御処理部28が制御値(Ca[n],Cb[n])を更新することも可能である。 (3) In the above-described embodiments, acoustic processing (voice quality conversion and smoothing processing) and setting of control values (Ca [n], Cb [n]) are executed at each analysis time point. It is also possible to make the value setting cycle different. For example, it is also possible for the control processing unit 28 to update the control values (Ca [n], Cb [n]) at a longer period than the interval between successive analysis points.

(4)前述の各形態では、包絡変換部32による声質変換の実行後に平滑処理部34が平滑処理を実行する構成を例示したが、声質変換と平滑処理との順序は逆転され得る。すなわち、平滑処理部34による平滑処理の実行後に包絡変換部32が声質変換を実行することも可能である。 (4) In the above-described embodiments, the configuration in which the smoothing unit 34 performs the smoothing process after the voice conversion by the envelope conversion unit 32 is illustrated. However, the order of the voice conversion and the smoothing process can be reversed. That is, it is possible for the envelope conversion unit 32 to perform voice quality conversion after the smoothing process by the smoothing unit 34 is performed.

(5)前掲の数式(2)における類似指標D(Vb[n],Vb[n-k])の算定方法は、前述の各形態の例示に限定されない。例えば、前述の各形態では、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]とが類似するほど類似指標D(Vb[n],Vb[n-k])が小さい数値となる態様(以下「態様A」という)を例示したが、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]とが類似するほど類似指標D(Vb[n],Vb[n-k])が大きい数値となるように類似指標D(Vb[n],Vb[n-k])を算定する態様(以下「態様B」という)も想定される。例えば、態様Bでは、スペクトル包絡Eb[n]とスペクトル包絡Eb[n-k]との相関が類似指標D(Vb[n],Vb[n-k])として算定される。態様Bでは、類似指標D(Vb[n],Vb[n-k])が閾値εを上回る場合に、両者間の差分(Vb[n]−Vb[n-k])が非線形関数F[k]として利用され、類似指標D(Vb[n],Vb[n-k])が閾値εを下回る場合にスペクトル包絡Eb[n-k]が数式(1)の積和演算の対象から除外される。 (5) The calculation method of the similarity index D (Vb [n], Vb [n−k]) in the above formula (2) is not limited to the examples of the above-described embodiments. For example, in each of the above-described embodiments, the similarity index D (Vb [n], Vb [nk]) becomes a smaller numerical value as the spectrum envelope Eb [n] and the spectrum envelope Eb [nk] are similar (hereinafter referred to as “mode”). A ”), but the similarity index D (Vb [n], Vb [nk]) becomes a larger numerical value as the spectrum envelope Eb [n] and the spectrum envelope Eb [nk] are more similar. A mode of calculating D (Vb [n], Vb [nk]) (hereinafter referred to as “mode B”) is also assumed. For example, in the aspect B, the correlation between the spectrum envelope Eb [n] and the spectrum envelope Eb [n-k] is calculated as the similarity index D (Vb [n], Vb [n-k]). In the aspect B, when the similarity index D (Vb [n], Vb [nk]) exceeds the threshold ε, the difference (Vb [n] −Vb [nk]) between the two is used as the nonlinear function F [k]. Then, when the similarity index D (Vb [n], Vb [nk]) is lower than the threshold ε, the spectrum envelope Eb [nk] is excluded from the product-sum operation target of Equation (1).

以上の説明から理解される通り、イプシロン分離型非線形フィルタにおいては、類似指標D(Vb[n],Vb[n-k])が閾値εに対して類似側にあるスペクトル包絡Eb[n-k]については、差分(Vb[n]−Vb[n-k])が非線形関数F[k]として利用される一方、類似指標D(Vb[n],Vb[n-k])が閾値εに対して相違側(非類似側)にあるスペクトル包絡Eb[n-k]については、当該スペクトル包絡Eb[n-k]が積和演算の対象から除外される。閾値εに対して「類似側」とは、態様Aでは、閾値εを下回る範囲を意味し、態様Bでは、閾値εを上回る範囲を意味する。また、閾値εに対して「相違側」とは、態様Aでは、閾値εを上回る範囲を意味し、態様Bでは、閾値εを下回る範囲を意味する。   As understood from the above description, in the epsilon separation type nonlinear filter, the spectral envelope Eb [nk] in which the similarity index D (Vb [n], Vb [nk]) is on the similar side with respect to the threshold ε is While the difference (Vb [n] −Vb [nk]) is used as the nonlinear function F [k], the similarity index D (Vb [n], Vb [nk]) is different from the threshold ε (dissimilar) The spectral envelope Eb [nk] on the side) is excluded from the product-sum operation target. The “similar side” with respect to the threshold value ε means a range below the threshold value ε in the aspect A, and a range above the threshold value ε in the aspect B. Further, “different side” with respect to the threshold value ε means a range exceeding the threshold value ε in the aspect A, and means a range falling below the threshold value ε in the aspect B.

(6)移動体通信網またはインターネット等の通信網を介して端末装置(例えば携帯電話機またはスマートフォン)と通信するサーバ装置により音響処理装置100を実現することも可能である。例えば、音響処理装置100は、端末装置から通信網を介して受信した音響信号Xに対する処理で音響信号Yを生成して端末装置に送信する。 (6) The sound processing apparatus 100 can be realized by a server device that communicates with a terminal device (for example, a mobile phone or a smartphone) via a mobile communication network or a communication network such as the Internet. For example, the acoustic processing device 100 generates the acoustic signal Y by processing the acoustic signal X received from the terminal device via the communication network, and transmits the acoustic signal Y to the terminal device.

(7)前述の各形態で例示した通り、音響処理装置100は、制御装置10とプログラムとの協働で実現される。本発明の好適な態様に係るプログラムは、音響信号のレベルの時間変化に追従する第1強度を算定する第1強度算定部、前記第1強度よりも高い追従性で前記音響信号のレベルの時間変化に追従する第2強度を算定する第2強度算定部、前記第1強度と前記第2強度との相違に応じて制御値を設定する制御値設定部、および、前記制御値を適用した音響処理を前記音響信号に対して実行する音響処理部としてコンピュータを機能させる。以上に例示したプログラムは、例えば、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。 (7) As illustrated in the above embodiments, the sound processing device 100 is realized by the cooperation of the control device 10 and a program. The program which concerns on the suitable aspect of this invention is the time of the level of the said acoustic signal by the 1st intensity | strength calculation part which calculates the 1st intensity | strength which follows the time change of the level of an acoustic signal, and a followability higher than the said 1st intensity | strength. A second intensity calculating unit that calculates a second intensity following the change, a control value setting unit that sets a control value according to a difference between the first intensity and the second intensity, and an acoustic to which the control value is applied A computer is caused to function as an acoustic processing unit that performs processing on the acoustic signal. The programs exemplified above can be provided in a form stored in a computer-readable recording medium and installed in the computer, for example.

記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、「非一過性の記録媒体」とは、一過性の伝搬信号(transitory, propagating signal)を除く全てのコンピュータ読取可能な記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに配信することも可能である。   The recording medium is, for example, a non-transitory recording medium, and an optical recording medium such as a CD-ROM is a good example, but a known arbitrary format such as a semiconductor recording medium or a magnetic recording medium is used. A recording medium may be included. “Non-transitory recording media” includes all computer-readable recording media except transient and propagating signals, and does not exclude volatile recording media. . It is also possible to distribute the program to a computer in the form of distribution via a communication network.

(8)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)において、コンピュータ(単体のコンピュータまたは複数のコンピュータで構成されるコンピュータシステム)が、音響信号のレベルの時間変化に追従する第1強度を算定し、前記第1強度よりも高い追従性で前記音響信号のレベルの時間変化に追従する第2強度を算定し、前記第1強度と前記第2強度との相違に応じて制御値を設定し、前記制御値を適用した音響処理を前記音響信号に対して実行する。以上の態様では、第1強度と第2強度との相違に応じて音響処理の制御値が設定されるから、音響信号を強度に応じて区分するための閾値の設定を必要とせずに、音響処理の制御値を適切に設定することが可能である。
<態様2>
態様1の好適例(態様2)では、前記制御値の設定において、前記第1強度が前記第2強度を上回る場合の制御値が、前記第1強度が前記第2強度を下回る場合の制御値と比較して、前記音響処理の度合を抑制する数値となるように、前記制御値を設定する。音響信号のうちレベルが小さい期間では第1強度が第2強度を下回るという傾向を考慮すると、以上の態様によれば、音響信号のうちレベルが小さい期間について音響処理の度合を抑制することが可能である。
<態様3>
態様1または態様2の好適例(態様3)において、前記音響信号を有声期間と非有声期間とに区分し、前記有声期間については、前記第1強度と前記第2強度との相違に応じた制御値を適用した前記音響処理を実行し、前記非有声期間については前記音響処理を抑制または省略する。以上の態様では、有声期間については第1強度と第2強度との相違に応じた制御値を適用した音響処理が実行される一方、非有声期間(例えば無声期間または無音期間)については音響処理が抑制または省略される。したがって、有声期間と非有声期間とを区別せずに一律に音響処理を実行する場合と比較して、聴感的に自然な音を生成することが可能である。
<態様4>
態様1から態様3の何れかの好適例(態様4)において、前記音響処理は、前記制御値に応じた閾値を適用したイプシロン分離型非線形フィルタによるフィルタ処理である。以上の態様では、イプシロン分離型非線形フィルタを利用したフィルタ処理が音響信号のスペクトル包絡に対して実行される。したがって、スペクトル包絡の急峻な時間変化を平滑化前と同等に維持しながら、時間軸上におけるスペクトル包絡の微細な変動を有効に平滑化することが可能である。
<態様5>
本発明の好適な態様(態様5)に係る音響処理装置は、音響信号のレベルの時間変化に追従する第1強度を算定する第1強度算定部と、前記第1強度よりも高い追従性で前記音響信号のレベルの時間変化に追従する第2強度を算定する第2強度算定部と、前記第1強度と前記第2強度との相違に応じて制御値を設定する制御値設定部と、前記制御値を適用した音響処理を前記音響信号に対して実行する音響処理部とを具備する。以上の態様では、第1強度と第2強度との相違に応じて音響処理の制御値が設定されるから、音響信号を強度に応じて区分するための閾値の設定を必要とせずに、音響処理の制御値を適切に設定することが可能である。
(8) From the form illustrated above, for example, the following configuration is grasped.
<Aspect 1>
In a preferred aspect (aspect 1) of the present invention, a computer (a single computer or a computer system composed of a plurality of computers) calculates a first intensity that follows a temporal change in the level of an acoustic signal, and the first Calculating a second intensity that follows a temporal change in the level of the acoustic signal with a tracking capability higher than the intensity, setting a control value according to a difference between the first intensity and the second intensity, The applied acoustic processing is performed on the acoustic signal. In the above aspect, since the control value of the acoustic processing is set according to the difference between the first intensity and the second intensity, it is not necessary to set a threshold for classifying the acoustic signal according to the intensity, and the acoustic value is set. It is possible to appropriately set the process control value.
<Aspect 2>
In a preferred example (aspect 2) of aspect 1, in the setting of the control value, the control value when the first intensity is greater than the second intensity is the control value when the first intensity is less than the second intensity. The control value is set to a value that suppresses the degree of the acoustic processing. In consideration of the tendency that the first intensity is lower than the second intensity in the period where the level of the acoustic signal is low, according to the above aspect, it is possible to suppress the degree of the acoustic processing for the period where the level is low in the acoustic signal. It is.
<Aspect 3>
In a preferred example (Aspect 3) of Aspect 1 or Aspect 2, the acoustic signal is divided into a voiced period and a non-voiced period, and the voiced period depends on a difference between the first intensity and the second intensity. The acoustic processing to which the control value is applied is executed, and the acoustic processing is suppressed or omitted for the non-voiced period. In the above aspect, acoustic processing to which a control value corresponding to the difference between the first intensity and the second intensity is applied for the voiced period, while acoustic processing is performed for the non-voiced period (for example, the silent period or the silent period). Is suppressed or omitted. Therefore, it is possible to generate a audibly natural sound as compared with a case where sound processing is performed uniformly without distinguishing between a voiced period and a non-voiced period.
<Aspect 4>
In a preferred example (Aspect 4) according to any one of Aspects 1 to 3, the acoustic process is a filter process using an epsilon-separating nonlinear filter to which a threshold value corresponding to the control value is applied. In the above aspect, the filter processing using the epsilon separation type nonlinear filter is executed for the spectral envelope of the acoustic signal. Therefore, it is possible to effectively smooth the fine fluctuations of the spectral envelope on the time axis while maintaining the sharp temporal change of the spectral envelope equivalent to that before smoothing.
<Aspect 5>
A sound processing apparatus according to a preferred aspect (aspect 5) of the present invention has a first intensity calculating unit that calculates a first intensity that follows a temporal change in the level of an acoustic signal, and a followability that is higher than the first intensity. A second intensity calculating unit that calculates a second intensity that follows a temporal change in the level of the acoustic signal; a control value setting unit that sets a control value according to a difference between the first intensity and the second intensity; An acoustic processing unit that executes acoustic processing to which the control value is applied to the acoustic signal. In the above aspect, since the control value of the acoustic processing is set according to the difference between the first intensity and the second intensity, it is not necessary to set a threshold for classifying the acoustic signal according to the intensity, and the acoustic value is set. It is possible to appropriately set the process control value.

100…音響処理装置、10…制御装置、12…記憶装置、14…操作装置、16…信号供給装置、18…放音装置、22…包絡特定部、24…音響処理部、26…信号合成部、28…制御処理部、32…包絡変換部、34…平滑処理部、42…第1強度算定部、44…第2強度算定部、46…制御値設定部。
DESCRIPTION OF SYMBOLS 100 ... Acoustic processing apparatus, 10 ... Control apparatus, 12 ... Memory | storage device, 14 ... Operation apparatus, 16 ... Signal supply apparatus, 18 ... Sound emission apparatus, 22 ... Envelope specific part, 24 ... Sound processing part, 26 ... Signal synthesis part , 28 ... control processing unit, 32 ... envelope conversion unit, 34 ... smoothing processing unit, 42 ... first intensity calculation unit, 44 ... second intensity calculation unit, 46 ... control value setting unit.

Claims (5)

コンピュータが、
音響信号のレベルの時間変化に追従する第1強度を算定し、
前記第1強度よりも高い追従性で前記音響信号のレベルの時間変化に追従する第2強度を算定し、
前記第1強度と前記第2強度との相違に応じて制御値を設定し、
前記制御値を適用した音響処理を前記音響信号に対して実行する
音響処理方法。
Computer
Calculate the first intensity following the time change of the level of the acoustic signal,
Calculating a second intensity following the time change of the level of the acoustic signal with a higher followability than the first intensity;
A control value is set according to the difference between the first intensity and the second intensity,
An acoustic processing method for performing acoustic processing to which the control value is applied to the acoustic signal.
前記制御値の設定においては、前記第1強度が前記第2強度を上回る場合の制御値が、前記第1強度が前記第2強度を下回る場合の制御値と比較して、前記音響処理の度合を抑制する数値となるように、前記制御値を設定する
請求項1の音響処理方法。
In setting the control value, the control value when the first intensity is higher than the second intensity is compared with the control value when the first intensity is lower than the second intensity. The sound processing method according to claim 1, wherein the control value is set so as to be a numerical value that suppresses noise.
前記音響信号を有声期間と非有声期間とに区分し、
前記有声期間については、前記第1強度と前記第2強度との相違に応じた制御値を適用した前記音響処理を実行し、前記非有声期間については前記音響処理を抑制または省略する
請求項1または請求項2の音響処理方法。
Dividing the acoustic signal into voiced and non-voiced periods;
2. The acoustic processing to which a control value corresponding to a difference between the first intensity and the second intensity is applied is executed for the voiced period, and the acoustic processing is suppressed or omitted for the non-voiced period. Or the acoustic processing method of Claim 2.
前記音響処理は、前記制御値に応じた閾値を適用したイプシロン分離型非線形フィルタによるフィルタ処理である
請求項1から請求項3の何れかの音響処理方法。
The acoustic processing method according to claim 1, wherein the acoustic processing is filter processing using an epsilon-separating nonlinear filter to which a threshold value corresponding to the control value is applied.
音響信号のレベルの時間変化に追従する第1強度を算定する第1強度算定部と、
前記第1強度よりも高い追従性で前記音響信号のレベルの時間変化に追従する第2強度を算定する第2強度算定部と、
前記第1強度と前記第2強度との相違に応じて制御値を設定する制御値設定部と、
前記制御値を適用した音響処理を前記音響信号に対して実行する音響処理部と
を具備する音響処理装置。
A first intensity calculator that calculates a first intensity that follows a temporal change in the level of the acoustic signal;
A second intensity calculating unit that calculates a second intensity that follows a temporal change in the level of the acoustic signal with a higher followability than the first intensity;
A control value setting unit that sets a control value according to a difference between the first intensity and the second intensity;
An acoustic processing device comprising: an acoustic processing unit that executes acoustic processing to which the control value is applied to the acoustic signal.
JP2016215227A 2016-11-02 2016-11-02 Sound processing method and sound processing equipment Active JP6930089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016215227A JP6930089B2 (en) 2016-11-02 2016-11-02 Sound processing method and sound processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016215227A JP6930089B2 (en) 2016-11-02 2016-11-02 Sound processing method and sound processing equipment

Publications (2)

Publication Number Publication Date
JP2018072724A true JP2018072724A (en) 2018-05-10
JP6930089B2 JP6930089B2 (en) 2021-09-01

Family

ID=62114254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016215227A Active JP6930089B2 (en) 2016-11-02 2016-11-02 Sound processing method and sound processing equipment

Country Status (1)

Country Link
JP (1) JP6930089B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113614684A (en) * 2018-09-07 2021-11-05 格雷斯诺特有限公司 Method and apparatus for dynamic volume adjustment via audio classification

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113614684A (en) * 2018-09-07 2021-11-05 格雷斯诺特有限公司 Method and apparatus for dynamic volume adjustment via audio classification

Also Published As

Publication number Publication date
JP6930089B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
JP6521913B2 (en) Volume leveling controller and control method
CN104079247B (en) Balanced device controller and control method and audio reproducing system
EP3598448B1 (en) Apparatuses and methods for audio classifying and processing
JP5453740B2 (en) Speech enhancement device
US10176797B2 (en) Voice synthesis method, voice synthesis device, medium for storing voice synthesis program
JP2010055000A (en) Signal band extension device
WO2018003849A1 (en) Voice synthesizing device and voice synthesizing method
JP5003419B2 (en) Sound processing apparatus and program
WO2019172397A1 (en) Voice processing method, voice processing device, and recording medium
WO2019181767A1 (en) Sound processing method, sound processing device, and program
US10482893B2 (en) Sound processing method and sound processing apparatus
JP6930089B2 (en) Sound processing method and sound processing equipment
JP2014209182A (en) Sound emphasizing device and method
JP5609157B2 (en) Coefficient setting device and noise suppression device
JP6747236B2 (en) Acoustic analysis method and acoustic analysis device
JP6011039B2 (en) Speech synthesis apparatus and speech synthesis method
US11348596B2 (en) Voice processing method for processing voice signal representing voice, voice processing device for processing voice signal representing voice, and recording medium storing program for processing voice signal representing voice
JP6784137B2 (en) Acoustic analysis method and acoustic analyzer
US11380345B2 (en) Real-time voice timbre style transform
JP2018072370A (en) Acoustic analysis method and acoustic analysis device
JP2017122769A (en) Noise suppressing device, noise suppressing method, and program
JP2015219357A (en) Signal processing device
JP2011180417A (en) Device and method for estimating pitch of music acoustic signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R151 Written notification of patent or utility model registration

Ref document number: 6930089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151