JP6314803B2 - Signal processing apparatus, signal processing method, and program - Google Patents
Signal processing apparatus, signal processing method, and program Download PDFInfo
- Publication number
- JP6314803B2 JP6314803B2 JP2014239051A JP2014239051A JP6314803B2 JP 6314803 B2 JP6314803 B2 JP 6314803B2 JP 2014239051 A JP2014239051 A JP 2014239051A JP 2014239051 A JP2014239051 A JP 2014239051A JP 6314803 B2 JP6314803 B2 JP 6314803B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- unit
- band
- processing apparatus
- signal processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Stereophonic System (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
本開示は、信号処理装置、信号処理方法及びプログラムに関する。 The present disclosure relates to a signal processing device, a signal processing method, and a program.
近年、音響信号から特定の音を抑制するための信号処理装置が開発されている。一例として、楽曲からボーカルを抑制して再生する、いわゆるカラオケ機能を実現する信号処理装置が多く開発されている。ボーカルの抑制技術においては、ボーカルが定位する位置が一般的に中央であることに着目してボーカルを抑制することが基本的な方針となっている。詳しくは、楽曲の多くはボーカルが中央に定位するように作成されているので、結果的に、ボーカルが左チャネルと右チャネルに同じように録音されている。このため、ステレオ信号の両チャネルの信号で差分をとると、両チャネルに同じように録音されているボーカルが抑制される。ただし、このようなボーカル抑制技術においては、聴覚上のノイズが生じる場合があるため、ノイズを低減するための技術が求められている。 In recent years, signal processing apparatuses for suppressing specific sounds from acoustic signals have been developed. As an example, many signal processing apparatuses that realize a so-called karaoke function that reproduces music while suppressing vocals have been developed. In the vocal suppression technology, it is a basic policy to suppress vocals by focusing on the fact that the position where the vocals are localized is generally in the center. Specifically, since many of the music pieces are created so that the vocal is localized in the center, as a result, the vocal is recorded in the left channel and the right channel in the same way. For this reason, if a difference is taken between the signals of both channels of the stereo signal, vocals recorded in the same way on both channels are suppressed. However, in such vocal suppression technology, there is a case where auditory noise may occur, and thus a technology for reducing noise is required.
例えば、下記特許文献1では、一旦音響信号を周波数領域で表現した上で、ボーカルを抑制するための差分計算を周波数領域で行い、信号レベルが低い周波数帯域を元の音響信号により補完する技術が開示されている。
For example, in
しかし、上記特許文献1に記載された技術では、ノイズを低減する代償としてボーカルを抑制する性能が低下していた。詳しくは、信号レベルが低い周波数帯域が、ボーカルを含む元の音響信号により補完されてしまっていた。
However, in the technique described in
そこで、本開示では、音響信号から特定の音を抑制することと聴覚上のノイズを低減することとを両立することが可能な、新規かつ改良された信号処理装置、信号処理方法及びプログラムを提案する。 Therefore, the present disclosure proposes a new and improved signal processing apparatus, signal processing method, and program capable of both suppressing a specific sound from an acoustic signal and reducing auditory noise. To do.
本開示によれば、入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算する差分信号計算部と、前記差分信号計算部により計算された前記差分信号に前記差分信号を処理した信号を加算する処理部と、を備える信号処理装置が提供される。 According to the present disclosure, the difference signal calculation unit that calculates the difference signal between the first channel acoustic signal and the second channel acoustic signal that form the input acoustic signal, and the difference signal calculation unit calculates the difference signal calculation unit. And a processing unit that adds a signal obtained by processing the difference signal to the difference signal.
また、本開示によれば、入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算することと、計算された前記差分信号に前記差分信号を処理した信号をプロセッサにより加算することと、を含む信号処理方法が提供される。 In addition, according to the present disclosure, the difference signal between the acoustic signal of the first channel and the acoustic signal of the second channel forming the input acoustic signal is calculated, and the difference signal is added to the calculated difference signal. A signal processing method comprising: adding a processed signal by a processor.
また、本開示によれば、コンピュータを、入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算する差分信号計算部と、前記差分信号計算部により計算された前記差分信号に前記差分信号を処理した信号を加算する処理部と、として機能させるためのプログラムが提供される。 In addition, according to the present disclosure, the difference signal calculation unit that calculates a difference signal between the first channel acoustic signal and the second channel acoustic signal that form the input acoustic signal, and the difference signal calculation. And a processing unit that adds a signal obtained by processing the difference signal to the difference signal calculated by a unit.
以上説明したように本開示によれば、音響信号から特定の音を抑制することと聴覚上のノイズを低減することとを両立することが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 As described above, according to the present disclosure, it is possible to achieve both suppression of a specific sound from an acoustic signal and reduction of auditory noise. Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
なお、説明は以下の順序で行うものとする。
1.概要
2.第1の実施形態
2−1.第1の構成例
2−2.動作処理例
2−3.効果
2−4.第2の構成例
2−5.第3の構成例
2−6.第4の構成例
3.第2の実施形態
3−1.第1の構成例
3−2.動作処理例
3−3.効果
3−4.第2の構成例
4.第3の実施形態
4−1.構成例
4−2.動作処理例
5.第4の実施形態
6.ハードウェア構成
7.まとめ
The description will be made in the following order.
1.
<1.概要>
まず、本開示の一実施形態に係る信号処理装置の概要について説明する。
<1. Overview>
First, an overview of a signal processing device according to an embodiment of the present disclosure will be described.
本実施形態に係る信号処理装置は、入力された音響信号から特定音を抑制する信号処理を行う。抑制される特定音は、例えば音響信号の中央に定位する音であってもよい。そのような特定音としては、例えばボーカルや、ベース系の音が挙げられる。以下では、一例として、本実施形態に係る信号処理装置100が抑制する特定音はボーカルであるものとして説明する。また、特定音を抑制する処理を、以下ではぼかし(blur)処理とも称する。
The signal processing apparatus according to the present embodiment performs signal processing that suppresses a specific sound from an input acoustic signal. The specific sound to be suppressed may be, for example, a sound localized at the center of the acoustic signal. Examples of such specific sounds include vocals and bass sounds. Hereinafter, as an example, the specific sound suppressed by the
本実施形態に係る信号処理装置は、まず、差分信号を生成することで、音響信号の中央に定位する特定音を抑制する。続いて、本実施形態に係る信号処理装置は、ぼかし処理を行うことにより、差分信号の生成過程で生じた聴覚ノイズを低減する。 The signal processing apparatus according to the present embodiment first suppresses a specific sound localized at the center of the acoustic signal by generating a differential signal. Subsequently, the signal processing apparatus according to the present embodiment reduces the auditory noise generated in the process of generating the difference signal by performing the blurring process.
以下、図1〜図28を参照して、本実施形態について詳細に説明する。 Hereinafter, this embodiment will be described in detail with reference to FIGS.
<2.第1の実施形態>
[2−1.第1の構成例]
図1は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図1に示す構成例を、以下では第1の構成例とも称する。図1に示すように、本構成例に係る信号処理装置100は、差分信号計算部110及びぼかし処理部120を有する。信号処理装置100は、入力されたオーディオ信号(音響信号)に信号処理を施して、処理後の音響信号を出力する。
<2. First Embodiment>
[2-1. First Configuration Example]
FIG. 1 is a block diagram illustrating an example of a logical configuration of the
(1)差分信号計算部110
差分信号計算部110は、入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算する機能を有する。例えば、入力された音響信号はステレオ信号であり、第1のチャネルの音響信号は左チャネルの音響信号であり、第2のチャネルの音響信号は右チャネルの音響信号である。以下では、左チャネルの音響信号をLchとも称し、右チャネルの音響信号をRchとも称する。差分信号計算部110から出力される音響信号は、ステレオ信号であってもよい。以下では、出力される左チャネルの音響信号をL´chとも称し、出力される右チャネルの音響信号をR´chとも称する。
(1) Difference
The differential
差分信号計算部110は、時間領域で差分信号を計算する。例えば、差分信号計算部110は、時間領域の信号であるRchの信号とLchの信号との差分をとることで、差分信号を計算する。以下、図2〜図5を参照して、時間領域で差分信号を計算するための、差分信号計算部110のシグナルフローの一例を説明する。
The difference
図2は、本実施形態に係る差分信号計算部110のシグナルフローの一例を示す図である。図2に示す例では、差分信号計算部110は、LchからRchを減算し、0.5倍することで、差分信号S(i)を得る。本シグナルフローは、以下の数式で表現される。
S(i)=(L(i)−R(i))×0.5 (数式1)
FIG. 2 is a diagram illustrating an example of a signal flow of the difference
S (i) = (L (i) −R (i)) × 0.5 (Formula 1)
ここで、L(i)はLchの信号であり、R(i)はRchの信号である。iはサンプル時刻を表す。差分信号計算部110は、処理前後の信号レベルを保つ目的で減算後の信号を0.5倍している。
Here, L (i) is an Lch signal, and R (i) is an Rch signal. i represents the sample time. The difference
図3は、本実施形態に係る差分信号計算部110のシグナルフローの一例を示す図である。図3に示す例では、差分信号計算部110は、図2に示した例と同様にして差分信号S(i)を計算する。そして、差分信号計算部110はL´ch及びR´chで同じ差分信号S(i)を出力する。本シグナルフローによる出力信号は、実質的にモノラル信号と同等である。
FIG. 3 is a diagram illustrating an example of a signal flow of the difference
図4は、本実施形態に係る差分信号計算部110のシグナルフローの一例を示す図である。図4に示す例では、差分信号計算部110は、図2に示した例と同様にして差分信号S(i)を計算する。そして、差分信号計算部110は、L’chの位相を反転したものをR’chとして出力する。本シグナルフローによる出力信号は、図3に示した例と比較して、ユーザに広がり感を感じさせることが可能である。ただし、本シグナルフローによる出力信号は、本位相が反転したことに起因する違和感をユーザに与え得る。
FIG. 4 is a diagram illustrating an example of a signal flow of the difference
図5は、本実施形態に係る差分信号計算部110のシグナルフローの一例を示す図である。図5に示す例では、差分信号計算部110は、まず、入力信号のLchとRchを加算してモノラル化することで中央に定位するボーカルを抽出する。次に、差分信号計算部110は、モノラル化した信号を0.5倍して信号レベルを保ち、Lch及びRchの各々から減算することで、L’ch及びR’chを得る。本シグナルフローによる出力信号は、図4に示した例と同様である。
FIG. 5 is a diagram illustrating an example of a signal flow of the difference
(2)ぼかし処理部120
ぼかし処理部120は、ぼかし処理を行う。詳しくは、ぼかし処理部120は、差分信号計算部110により計算された差分信号に、当該差分信号を処理した信号を加算する処理部としての機能を有する。差分信号を処理した信号は多様に考えられる。本実施形態に係るぼかし処理部120は、差分信号を処理した信号として、差分信号を遅延させた遅延信号を生成する。そして、ぼかし処理部120は、差分信号に生成した遅延信号を加算することで、出力信号を得る。なお、差分信号に遅延信号を加算する処理は、単純な加算であってもよいし、重み付け加算であってもよいし、いずれか一方の符号を反転させた上での加算(即ち、減算)であってもよい。以下では、ぼかし処理部120からの出力信号を、ぼかし信号F(i)とも称する。
(2)
The
ぼかし処理部120は、IIR(Infinite impulse response)フィルタを用いて遅延信号を生成してもよい。ここで、図6を参照して、IIRフィルタを用いて遅延信号を生成して、ぼかし信号F(i)を得るためのシグナルフローを説明する。
The blurring
図6は、本実施形態に係るぼかし処理部120のシグナルフローの一例を示す図である。図6に示すように、ぼかし処理部120は、遅延バッファDB121に蓄積された遅延信号D(i)を差分信号S(i)に加算することで、ぼかし信号F(i)を得る。遅延信号D(i)は、ぼかし信号F(i)がnサンプル遅延した信号である。加算の際、ぼかし処理部120は、加算に係る重み付け係数rを用いて、差分信号S(i)と遅延信号D(i)とを重み付け加算する。重み付け係数rは、差分信号S(i)及び遅延信号D(i)の混合率であるとも捉えることが可能である。本シグナルフローは、以下の数式で表現される。
F(i)=(1−r)×S(i)+r×D(i) (数式2)
FIG. 6 is a diagram illustrating an example of a signal flow of the
F (i) = (1−r) × S (i) + r × D (i) (Formula 2)
ここで、重み付け係数rは以下の範囲の値をとる。
0 < r < 1 (数式3)
Here, the weighting coefficient r takes a value in the following range.
0 <r <1 (Formula 3)
ぼかし処理部120は、FIR(Finite impulse response)フィルタを用いて遅延信号を生成してもよい。ここで、図7を参照して、FIRフィルタを用いて遅延信号を生成して、ぼかし信号F(i)を得るためのシグナルフローを説明する。
The blurring
図7は、本実施形態に係るぼかし処理部120のシグナルフローの一例を示す図である。図7に示すように、ぼかし処理部120は、入力された信号を1サンプル遅延させる遅延器122をm個有し、差分信号S(i)に最大mサンプル遅延した遅延信号までを重み付け加算することで、ぼかし信号F(i)を得る。ここでの遅延信号は、差分信号S(i)が遅延した信号である。本シグナルフローは、以下の数式で表現される。
F(i)=r0×S(i)+r1×S(i−1)+・・・+rm×S(i−m)
(数式4)
FIG. 7 is a diagram illustrating an example of a signal flow of the
F (i) = r 0 × S (i) + r 1 × S (i−1) +... + R m × S (im)
(Formula 4)
ここで、S(i−m)はmサンプル過去の差分信号を表す。また、重み付け係数r0〜rmは、それぞれ上記数式3を満たす。
Here, S (i−m) represents a differential signal in the past of m samples. Further,
なお、ぼかし処理部120は、IIRフィルタ又はFIRフィルタのいずれか一方を用いてもよいし、両方を組み合わせて用いてもよいし、他の任意の方法で遅延信号を生成してもよい。
Note that the blurring
以上、第1の構成例について説明した。続いて、本実施形態に係る信号処理装置100の動作処理を説明する。
The first configuration example has been described above. Subsequently, an operation process of the
[2−2.動作処理例]
図8は、本実施形態に係る信号処理装置100において実行される信号処理の流れの一例を示すフローチャートである。なお、本フローチャートでは、ぼかし処理部120がIIRフィルタを用いて遅延信号を生成する例を説明する。
[2-2. Operation processing example]
FIG. 8 is a flowchart showing an example of the flow of signal processing executed in the
図8に示すように、まず、ステップS102で、差分信号計算部110は、i番目のLchの信号L(i)及びRchの信号R(i)の入力を受け付ける。
As shown in FIG. 8, first, in step S102, the difference
次いで、ステップS104で、差分信号計算部110は、差分信号S(i)を計算する。例えば、差分信号計算部110は、上記数式1を用いて差分信号S(i)を計算する。
Next, in step S104, the difference
次に、ステップS106で、ぼかし処理部120は、差分信号S(i)と遅延信号D(i)からぼかし信号F(i)を計算する。例えば、ぼかし処理部120は、上記数式2を用いてぼかし信号F(i)を計算する。
Next, in step S106, the blurring
次いで、ステップS108で、ぼかし処理部120は、遅延バッファDB121を更新する。本処理は後に詳しく説明するため、ここでの説明は省略する。
Next, in step S108, the blurring
そして、ステップS110で、ぼかし処理部120は、計算したぼかし信号F(i)を出力する。
In step S110, the
以上、信号処理装置100による信号処理例を説明した。続いて、図9を参照して、上記ステップS108における処理を説明する。
The signal processing example by the
図9は、本実施形態に係るぼかし処理部120において実行される遅延バッファDB121の更新処理の流れの一例を示すフローチャートである。
FIG. 9 is a flowchart showing an example of a flow of update processing of the
図9に示すように、まず、ステップS202で、ぼかし処理部120は、j=0とおく。jは更新処理のために用いられる変数である。
As shown in FIG. 9, the blurring
次いで、ステップS204で、ぼかし処理部120は、j<n−1を満たすか否かを判定する。ここで、nは遅延バッファDB121のサイズであり、遅延量を表す。
Next, in step S204, the blurring
j<n−1であると判定された場合(S204/YES)、ステップS206で、ぼかし処理部120は、遅延バッファDB[j]に遅延バッファDB[j+1]をコピーする。ここで、遅延バッファDB[j]とは、遅延バッファDB121に格納されるj番目のデータを表す。
When it is determined that j <n−1 (S204 / YES), in step S206, the blurring
次に、ステップS208で、ぼかし処理部120は、j=j+1として変数jをインクリメントする。
Next, in step S208, the blurring
その後、処理は再度ステップS204へ戻る。このようにして、j<n−1が満たされなくなるまで、ステップS206及びS208における処理が繰り返される。 Thereafter, the process returns to step S204 again. In this way, the processes in steps S206 and S208 are repeated until j <n−1 is not satisfied.
j<n−1でないと判定された場合(S204/NO)、ステップS210で、ぼかし処理部120は、遅延バッファDB[n−1]にぼかし信号F(i)をコピーする。
When it is determined that j <n−1 is not satisfied (S204 / NO), in step S210, the blurring
以上説明した処理により、遅延バッファDB[0]には、nサンプル遅延した信号が格納されることとなる。ぼかし処理部120は、遅延バッファDB[0]を遅延信号D(i)として利用する。以上、ぼかし処理部120による遅延バッファDB121の更新処理例を説明した。
Through the processing described above, a signal delayed by n samples is stored in the delay buffer DB [0]. The blurring
[2−3.効果]
以下では、比較例と比較して本実施形態に係る信号処理装置100の効果を説明する。
[2-3. effect]
Below, the effect of the
(前提知識)
圧縮符号化技術のひとつに、チャネル間の相関を利用して符号化するジョイントステレオ(Joint Stereo)符号化方式がある。ジョイントステレオ符号化方式には、ミドルサイドステレオ(Middle Side Stereo)符号化方式とインテンシティステレオ(Intensity Stereo)符号化方式がある。ミドルサイドステレオ符号化方式は、和信号(Lch+Rch)と差信号(Lch−Rch)に分けて符号化する方式であり、和信号(Lch+Rch)に重みを付けて符号化することで符号化効率を向上させることが可能な符号化方式である。インテンシティステレオ符号化方式は、和信号(Lch+Rch)と左右のチャネルのパワー比を符号化することで符号化効率を向上させることが可能な符号化方式である。ジョイントステレオ符号化方式は、圧縮効率を向上させ、より少ないビットレートでの圧縮を可能にしたり、同じビットレートであればより高音質での圧縮を可能にしたりする。
(Prerequisite knowledge)
As one of the compression coding techniques, there is a joint stereo coding method in which the coding is performed using the correlation between channels. The joint stereo coding method includes a middle side stereo coding method and an intensity stereo coding method. The middle-side stereo encoding method is a method of encoding separately for a sum signal (Lch + Rch) and a difference signal (Lch-Rch), and encoding the sum signal (Lch + Rch) with a weight increases the encoding efficiency. This is an encoding method that can be improved. The intensity stereo coding method is a coding method capable of improving the coding efficiency by coding the power ratio between the sum signal (Lch + Rch) and the left and right channels. The joint stereo coding scheme improves compression efficiency and enables compression with a smaller bit rate, or enables compression with higher sound quality at the same bit rate.
(第1の比較例)
まず、第1の比較例として、上述した、ステレオ信号の両チャネルの信号で差分をとることで、両チャネルに同じように録音されているボーカルを抑制する信号処理装置について考える。以下では、図10〜図12を参照して、第1の比較例に係る信号処理装置が、ジョイントステレオ符号化方式を利用して圧縮された音源について処理する場合について説明する。
(First comparative example)
First, as a first comparative example, consider a signal processing apparatus that suppresses vocals recorded in the same way on both channels by taking the difference between the signals of both channels of the stereo signal described above. Below, with reference to FIGS. 10-12, the case where the signal processing apparatus which concerns on a 1st comparative example processes about the sound source compressed using the joint stereo encoding system is demonstrated.
図10〜図12は、第1の比較例に係る信号処理を説明するための図である。詳しくは、図10は、ジョイントステレオ符号化方式を利用して圧縮された音源が本比較例に係る信号処理装置により処理された場合のパワースペクトログラムの例である。図10においては、横軸は時間であり、縦軸は周波数であり、有色の部分は信号レベル(パワー)が高いことを示し、無色の部分は信号レベルが低いことを示している。図10を参照すると、信号レベルが高い部分と低い部分とが、時間方向をフレーム単位とし周波数方向をスケールファクターバンド単位とするブロック状に形成され、混在している。このような、信号レベルが高い部分と低い部分とがブロック状に形成されることに起因して、耳障りな聴覚ノイズが生じる。 10 to 12 are diagrams for explaining signal processing according to the first comparative example. Specifically, FIG. 10 is an example of a power spectrogram when a sound source compressed using the joint stereo coding method is processed by the signal processing apparatus according to this comparative example. In FIG. 10, the horizontal axis represents time, the vertical axis represents frequency, the colored part indicates that the signal level (power) is high, and the colorless part indicates that the signal level is low. Referring to FIG. 10, a portion with a high signal level and a portion with a low signal level are formed in a block shape in which the time direction is a frame unit and the frequency direction is a scale factor band unit, and are mixed. Such an unpleasant auditory noise is caused by the fact that the high signal level and the low signal level are formed in a block shape.
また、図11は、図10の区間AB間のパワースペクトログラムを抜き出したグラフであり、ある時刻における周波数方向の変化の様子を示している。図11においては、横軸は周波数であり、縦軸はパワーである。横軸の目盛はスケールファクターバンド単位で振られている。なお、実際の圧縮符号化では、低域のスケールファクターバンドの幅は高域に比べて狭く設定されるが、図11では模式的に同じ幅で描写している。図11を参照すると、スケールファクターバンドごとにパワースペクトルが急峻に上がったり下がったりしている。このような急峻な変化は、音源がジョイントステレオ符号化方式を用いて圧縮されていることに起因する。 FIG. 11 is a graph obtained by extracting the power spectrogram between the sections AB in FIG. 10 and shows a change in the frequency direction at a certain time. In FIG. 11, the horizontal axis is frequency and the vertical axis is power. The scale on the horizontal axis is scaled in units of scale factor bands. In actual compression coding, the width of the low-scale scale factor band is set to be narrower than that of the high frequency, but in FIG. 11, they are schematically depicted with the same width. Referring to FIG. 11, the power spectrum rises and falls sharply for each scale factor band. Such a steep change is attributed to the fact that the sound source is compressed using the joint stereo encoding method.
詳しく説明すると、まず、ジョイントステレオ符号化方式では、スケールファクターバンドごとにミドルサイドステレオ符号化をするか否かの判断やインテンシティステレオ符号化が行なわれる。ミドルサイドステレオ符号化方式による圧縮が行なわれたスケールファクターバンドの差信号(Lch−Rch)に割り当てられるビットレートが非常に小さい場合、圧縮後の音響信号における当該スケールファクターバンド部分は実質的にモノラル信号に近くなる。そのため、本比較例に係る信号処理装置による処理では、実質的にモノラル信号に近いスケールファクターバンド部分のレベルがゼロに近い値になり得る。同様に、インテンシティステレオ符号化方式による圧縮が行なわれたスケールファクターバンドの左右のチャネルのパワー比が1に近い場合、圧縮後の音響信号における当該スケールファクターバンド部分は実質的にモノラル信号に近くなる。そのため、本比較例に係る信号処理装置による処理では、実質的にモノラル信号に近いスケールファクターバンド部分のレベルがゼロに近い値になり得る。このように、音源がジョイントステレオ符号化方式を用いて圧縮されていることに起因して、図11に示した周波数方向の急峻なレベルの変化が生じ得る。このような周波数方向の急峻なレベルの変化が、耳障りな聴覚ノイズが発生する原因の1つである。 More specifically, first, in the joint stereo encoding method, determination as to whether middle-side stereo encoding is performed or intensity stereo encoding is performed for each scale factor band. When the bit rate assigned to the difference signal (Lch-Rch) of the scale factor band compressed by the middle side stereo coding method is very small, the scale factor band portion in the compressed acoustic signal is substantially monaural. Close to the signal. Therefore, in the processing by the signal processing apparatus according to this comparative example, the level of the scale factor band portion that is substantially close to a monaural signal can be a value close to zero. Similarly, when the power ratio of the left and right channels of the scale factor band compressed by the intensity stereo coding method is close to 1, the scale factor band portion in the compressed acoustic signal is substantially close to a monaural signal. Become. Therefore, in the processing by the signal processing apparatus according to this comparative example, the level of the scale factor band portion that is substantially close to a monaural signal can be a value close to zero. As described above, due to the sound source being compressed using the joint stereo encoding method, the steep level change in the frequency direction shown in FIG. 11 may occur. Such a sharp level change in the frequency direction is one of the causes of annoying auditory noise.
また、図12は、図10の区間CD間のパワースペクトログラムを抜き出したグラフであり、ある周波数における時間方向の変化の様子を示している。図12においては、横軸は時間であり、縦軸はパワーである。横軸の目盛はフレーム単位で振られている。図12を参照すると、フレームごとにパワースペクトルが急峻に上がったり下がったりしている。このような時間方向の急峻なレベルの変化は、音源がフレームごとにジョイントステレオ符号化方式を用いて圧縮されることに起因して、各スケールファクターバンドにおいて生じ得る。そして、このような時間方向の急峻なレベルの変化こそが、耳障りな聴覚ノイズが発生する大きな原因の1つになっている。 FIG. 12 is a graph obtained by extracting a power spectrogram between the section CDs of FIG. 10, and shows a change in the time direction at a certain frequency. In FIG. 12, the horizontal axis is time, and the vertical axis is power. The scale on the horizontal axis is swung in units of frames. Referring to FIG. 12, the power spectrum sharply rises and falls every frame. Such a steep level change in the time direction may occur in each scale factor band due to the sound source being compressed using a joint stereo coding method for each frame. Such a steep level change in the time direction is one of the major causes of annoying auditory noise.
(第2の比較例)
次いで、第2の比較例として、圧縮音源であっても聴覚ノイズの発生を防ぐ効果のある、上記特許文献1に記載された技術を用いた信号処理装置について考える。本比較例に係る信号処理装置は、上述したように、一旦音響信号を周波数領域で表現した上で、ボーカルを抑制するための差分計算、つまりLch−Rchを周波数領域で行う。以下では、図13及び図14を参照して、第2の比較例に係る信号処理装置が、ジョイントステレオ符号化方式を利用して圧縮された音源について処理する場合について説明する。
(Second comparative example)
Next, as a second comparative example, consider a signal processing apparatus using the technique described in
図13及び図14は、第2の比較例に係る信号処理を説明するための図である。詳しくは、図13の符号200は、Lchのスケールファクターバンドごとのパワー(Pl)である。図13の符号210は、Rchのスケールファクターバンドごとのパワー(Pr)である。図13の符号220は、差分信号Lch−Rchのスケールファクターバンドごとのパワー(Pd)である。LchのパワーとRchのパワーとが、同一のスケールファクターバンドにおいて同程度のレベルである場合、差分信号のパワーはゼロに近いレベルになる。例えば、符号201と211、符号202と符号212、符号203と符号213、及び符号204と214は、それぞれ同程度のレベルである。このため、符号220に示す差分信号において、これらに対応するスケールファクターバンドのパワーはゼロに近いレベルになっている。このような状態は、図11に示した例と同様である。
13 and 14 are diagrams for explaining signal processing according to the second comparative example. Specifically,
そこで、本比較例に係る信号処理装置は、図14に示すように、ゼロに近いレベルとなった部分を、元の信号により補完することで、このような急峻なレベルの変化を緩和している。例えば、本比較例に係る信号処理装置は、第1のステップとして、区間11、区間12、及び区間13のような急峻なレベル低下を検出する。そして、本比較例に係る信号処理装置は、第2のステップとして、もとのLchの信号を利用して、区間11、区間12、区間13を補完することで、急峻なレベル低下を防ぐ。
Therefore, as shown in FIG. 14, the signal processing apparatus according to the present comparative example alleviates such a steep level change by complementing the portion that is close to zero with the original signal. Yes. For example, the signal processing apparatus according to this comparative example detects a steep level decrease such as the
具体的には、図14の符号240に示すように、本比較例に係る信号処理装置は、図13の符号220に示した差分信号の区間11、12及び13に、符号200に示すLchにおける各区間に対応するスケールファクターバンドのパワー201、202、203及び204をコピーする。本比較例に係る信号処理装置は、コピーの際に任意の係数を乗算し得る。図13の符号220と図14の符号240とを比較すると、区間11、12及び13以外の区間は同一である。図14の符号240に示すように、本比較例に係る信号処理装置は、周波数方向の急峻なレベル変化を防ぐことが可能である。これに伴い、本比較例に係る信号処理装置は、時間方向の急峻なレベル変化もある程度防ぐことが予想されるので、聴覚ノイズの発生を防ぎ得る。
Specifically, as indicated by
しかし、本比較例に係る信号処理装置は、ノイズを低減する代償としてボーカルを抑制する性能が低下していた。これは、本比較例に係る信号処理装置は、急峻なレベル変化を防ぐために、ボーカルを含むLchの信号を用いて急峻なレベル低下が検出された区間を補完していたことに起因する。 However, the signal processing apparatus according to this comparative example has a reduced performance of suppressing vocals as a price for reducing noise. This is due to the fact that the signal processing apparatus according to this comparative example supplemented the section in which the steep level decrease was detected using the Lch signal including the vocal in order to prevent the steep level change.
また、本比較例に係る信号処理装置は、上述した第1のステップに失敗した場合、失敗した区間を補完することができない。さらに、第1のステップは周波数領域で行われるので、処理対象の信号が時間領域信号であった場合、本比較例に係る信号処理装置は、ボーカル抑制処理前後で時間領域及び周波数領域の変換処理を行っていた。例えば、本比較例に係る信号処理装置は、ボーカル抑制処理前にFFT(Fast Fourier Transform)等で周波数領域の信号へ変換し、ボーカル抑制処理後にIFFT(Inverse FFT)等で時間領域信号へ変換し得る。このような変換処理のための演算量は少なくない。また、第1のステップにおける検出処理のための演算量も少なくない。 In addition, when the signal processing apparatus according to this comparative example fails in the first step described above, the failed section cannot be complemented. Furthermore, since the first step is performed in the frequency domain, when the signal to be processed is a time domain signal, the signal processing apparatus according to this comparative example performs a time domain and frequency domain conversion process before and after the vocal suppression process. Had gone. For example, the signal processing apparatus according to this comparative example converts the signal into a frequency domain signal using FFT (Fast Fourier Transform) or the like before vocal suppression processing, and converts it into a time domain signal using IFFT (Inverse FFT) or the like after vocal suppression processing. obtain. The amount of calculation for such conversion processing is not small. Also, the amount of calculation for the detection process in the first step is not small.
(本実施形態の効果)
以下では、図15を参照して、本実施形態に係る信号処理装置100の効果を説明する。
(Effect of this embodiment)
Below, with reference to FIG. 15, the effect of the
図15は、本実施形態に係る信号処理装置100の効果を説明するための図である。詳しくは、図15の符号300は、ジョイントステレオ符号化方式を利用して圧縮された音源が本実施形態に係る信号処理装置100により処理された場合のパワースペクトログラムの、ある周波数における時間方向の変化の様子を示している。また、図15の符号310は、図12に示したパワースペクトログラムの変化の様子である。図12及び図15における同一記号の区間は同一区間を示す。
FIG. 15 is a diagram for explaining the effect of the
図15を参照すると、本実施形態に係る信号処理装置100により処理された場合、急峻なレベルの変化が緩和されている。例えば、区間CD2において、符号310では急峻なレベルの落ち込みが認められる一方で、符号300では急峻なレベルの落ち込みが認められず、徐々に変化している。これは、急峻なレベル低下が生じた区間に、レベル低下が生じていない遅延信号が加算されることに起因する。図15に示したように、本実施形態に係る信号処理装置100は、時間方向の急峻なレベルの変化を緩和することが可能であるため、耳障りな聴覚ノイズの発生を防ぐことができる。
Referring to FIG. 15, when processed by the
また、本実施形態に係るぼかし処理部120は、ボーカルが抑制された差分信号を用いて遅延信号を生成し、この遅延信号を用いて急峻なレベルの変化を緩和する。そのため、本実施形態では、第2の比較例のようにボーカル抑制性能を代償とすることがなく、高いボーカル抑制性能を実現することが可能である。
Also, the blurring
また、本実施形態に係るぼかし処理部120は、差分信号計算部110から出力された時間領域の信号を、周波数領域に変換することなく処理可能である。このため、本実施形態に係る信号処理装置100は、第2の比較例に係る信号処理装置と比較して、変換処理のための演算量を削減することが可能である。
Further, the blurring
また、本実施形態に係るぼかし処理部120は、遅延信号をIIRやFIR等を用いて生成するため、小さな演算量で急峻なレベルの変化を緩和することが可能である。さらに、本実施形態に係るぼかし処理部120は、急峻なレベル低下を検出しないので、第2の比較例と比較して、検出処理の失敗に起因する補完の失敗を回避することが可能であり、検出処理のための演算量を削減することが可能である。
Further, since the blurring
以上、本実施形態に係る効果について説明した。以下では、本実施形態に係る他の構成例について説明する。なお、以下で説明する他の構成例においても、上述した効果は同様に奏される。 The effects according to the present embodiment have been described above. Hereinafter, another configuration example according to the present embodiment will be described. Note that the effects described above are similarly achieved in other configuration examples described below.
[2−4.第2の構成例]
本構成例は、ぼかし処理部120により用いられる遅延量n及び重み付け係数rを適切に設定する構成例である。以下、図16を参照して、本構成例について説明する。
[2-4. Second configuration example]
This configuration example is a configuration example in which the delay amount n and the weighting coefficient r used by the blurring
図16は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図16に示す構成例を、以下では第2の構成例とも称する。図16に示すように、本構成例に係る信号処理装置100は、差分信号計算部110、ぼかし処理部120、遅延量設定部123及び係数設定部124を有する。
FIG. 16 is a block diagram illustrating an example of a logical configuration of the
差分信号計算部110は、差分信号S(i)を出力する。ぼかし処理部120は、上記数式2に、遅延量設定部123により設定された遅延量n及び係数設定部124により設定された重み付け係数rを用いて、ぼかし信号F(i)を得る。差分信号計算部110及びぼかし処理部120の内部処理については上記説明した通りであるので、ここでの詳細な説明は省略する。
The difference
(1)遅延量設定部123
遅延量設定部123は、遅延信号の遅延量nを設定する機能を有する。遅延量設定部123は、適切な遅延量nを設定することで、時間方向の急峻なレベルの変化を緩和することが可能である。
(1) Delay
The delay
第1の比較例において生じていた図10に示したブロック状のスペクトログラムの各ブロックのサイズは、圧縮符号化情報(オーディオコーデック)に依存する。詳しくは、ブロックの時間方向のサイズはオーディオコーデックのフレーム幅にほぼ等しく、ブロックの周波数方向のサイズはオーディオコーデックのスケールファクターバンド幅にほぼ等しい。第1の比較例において生じていた図12に示した時間軸方向のレベル変動の例の通り、レベルが急峻にゼロに近い値になったり、ある程度のレベルに戻ったりするときの時間幅は、オーディオコーデックのフレーム幅の整数倍にほぼ合致している。例えば、図12における区間CD2は1フレーム分の幅であり、区間CD2と区間CD3の間の幅も1フレーム分である。 The size of each block of the block spectrogram shown in FIG. 10 that has occurred in the first comparative example depends on the compression coding information (audio codec). Specifically, the size of the block in the time direction is approximately equal to the frame width of the audio codec, and the size of the block in the frequency direction is approximately equal to the scale factor bandwidth of the audio codec. As shown in the example of the level fluctuation in the time axis direction shown in FIG. 12 that has occurred in the first comparative example, the time width when the level suddenly approaches zero or returns to a certain level is It almost matches the integer multiple of the audio codec frame width. For example, the section CD2 in FIG. 12 has a width of one frame, and the width between the sections CD2 and CD3 is also one frame.
このように、第1の比較例における時間方向の急峻なレベル変動がオーディオコーデックのフレーム単位で生じることから、遅延量設定部123は、入力された音響信号の圧縮符号化情報を用いて遅延量nを設定する。本実施形態において、信号処理装置100から出力されるぼかし信号F(i)の現在のフレームのレベルが直前のフレームに比べて急峻に下がることを防ぐためには、差分信号S(i)に加算される遅延信号D(i)のレベルが、ある程度あることが望ましい。つまり、上記数式2において、差分信号S(i)のレベルがゼロに近い場合に、遅延信号D(i)のレベルがある程度ある場合、ぼかし信号F(i)の急峻なレベル低下が防がれる。よって、遅延量設定部123は、下記の数式に示すように、遅延信号D(i)の遅延量nをオーディオコーデックが示すフレーム幅以下に設定する。
0 < 遅延量n <= オーディオコーデックのフレーム幅 (数式5)
As described above, since the steep level fluctuation in the time direction in the first comparative example occurs in units of frames of the audio codec, the delay
0 <Delay amount n <= Audio codec frame width (Formula 5)
この場合、差分信号S(i)のレベルがゼロに近くなったタイミングでは、その直前のゼロでない差分信号S(i)成分が遅延信号D(i)に含まれることになる。よって、差分信号S(i)のレベルがゼロに近い場合であっても、遅延信号D(i)のレベルがある程度あることが実現され、ぼかし信号F(i)の急峻なレベル低下が防がれる。 In this case, at the timing when the level of the differential signal S (i) approaches zero, the immediately preceding non-zero differential signal S (i) component is included in the delayed signal D (i). Therefore, even when the level of the differential signal S (i) is close to zero, it is realized that the level of the delayed signal D (i) is some, and a sharp level drop of the blur signal F (i) is prevented. It is.
なお、経験的には、下記の数式の範囲で遅延量nが設定されることが望ましい。
オーディオコーデックのフレーム幅の70%<遅延量n
<オーディオコーデックのフレーム幅 (数式6)
Empirically, it is desirable to set the delay amount n within the range of the following mathematical formula.
70% of audio codec frame width <delay amount n
<Audio codec frame width (Formula 6)
(2)係数設定部124
係数設定部124は、ぼかし処理部120による加算に係る重み付け係数rを設定する機能を有する。係数設定部124は、適切な重み付け係数rを設定することで、ぼかし処理の強弱を調整することが可能である。例えば、係数設定部124は、入力された音響信号のオーディオコーデックに基づいて重み付け係数rを設定する。
(2)
The
オーディオコーデックのビットレートが低い場合、第1の比較例において図10に示したブロック状のスペクトログラムが生じやすい。これは、オーディオコーデックのビットレートが低い場合、より積極的にジョイントステレオ符号化が使用されるためである。そこで、係数設定部124は、オーディオコーデックのうちビットレートに基づいて重み付け係数rを設定する。より具体的には、係数設定部124は、オーディオコーデックのビットレートが低い場合に、より強くぼかし処理を行なうよう重み付け係数rを設定する。つまり、係数設定部124は、数式2において、オーディオコーデックのビットレートが低い場合に重み付け係数rを1側に寄せて設定し、オーディオコーデックのビットレートが高い場合に重み付け係数rをゼロ側に寄せて設定する。他にも、係数設定部124は、ジョイントステレオ符号化の使用状況に応じて重み付け係数rを設定してもよい。信号処理装置100は、このような設定により、聴覚ノイズが生じる可能性が高い場合に強くぼかし処理を行い、聴覚ノイズが生じる可能性が低い場合にぼかし処理を弱めて原音を活かすことが可能となる。
When the bit rate of the audio codec is low, the block spectrogram shown in FIG. 10 is likely to occur in the first comparative example. This is because joint stereo coding is more actively used when the bit rate of the audio codec is low. Therefore, the
なお、経験的には、係数設定部124は、下記の数式の範囲で重み付け係数rを設定することが望ましい。
0.0 < r < 0.4 (数式7)
Empirically, the
0.0 <r <0.4 (Formula 7)
(3)その他
遅延量設定部123及び係数設定部124は、遅延量n及び重み付け係数rを時間変化させてもよい。この場合、遅延量設定部123及び係数設定部124は、複数のフレーム幅の自動切り替えや、可変ビットレートのオーディオコーデックにも対応可能となる。係数設定部124は、オーディオコーデック情報により、ジョイントステレオ符号化が使用されていないことが判明した場合、重み付け係数rにゼロを設定し、ぼかし処理をオフにしてもよい。
(3) Others The delay
以上説明したように、本構成例によれば、信号処理装置100は、遅延量nの設定により、時間方向の急峻なレベルの変化を確実に緩和することが可能である。また、本構成例によれば、信号処理装置100は、重み付け係数rの設定により、聴覚ノイズを低減させることと原音を活かすこととを両立させることができる。
As described above, according to the present configuration example, the
[2−5.第3の構成例]
本構成例は、係数設定部124が重み付け係数rを設定するためのパラメータが導入された構成例である。以下、図17及び図18を参照して、本構成例について説明する。
[2-5. Third configuration example]
This configuration example is a configuration example in which a parameter for the
図17は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図17に示す構成例を、以下では第3の構成例とも称する。図17に示すように、本構成例に係る信号処理装置100は、差分信号計算部110、ぼかし処理部120、係数設定部124及びぼかしレベル計算部125を有する。
FIG. 17 is a block diagram illustrating an example of a logical configuration of the
差分信号計算部110は、差分信号S(i)を出力する。本実施形態に係る係数設定部124は、ぼかしレベル計算部125により計算されたぼかしレベルf(i)に応じて、重み付け係数rを設定する。ぼかし処理部120は、上記数式2に、係数設定部124により設定された重み付け係数rを用いて、ぼかし信号F(i)を得る。差分信号計算部110、ぼかし処理部120及び係数設定部124の内部処理については上記説明した通りであるので、ここでの詳細な説明は省略する。
The difference
ぼかしレベル計算部125は、入力された音響信号の聴覚ノイズの目立ちやすさに応じてぼかしレベルf(i)を設定する。以下では、聴覚ノイズの目立ち易さの尺度の一例として、入力された音響信号がモノラルに近い度合が採用される例を説明する。
The blur
第1の比較例において生じていた、図10に示したブロック状のスペクトログラムに起因する聴覚ノイズの程度は、楽曲中に変化し得る。このため、聴覚ノイズの目立ち易さに応じて、ぼかし処理の強度を変化させることが望ましい。聴覚ノイズの目立ち易さは、例えば、入力された音響信号のLchとRchがどの程度似ているか、言い換えると、どの程度モノラルに近いかでおおよそ測ることができる。入力された音響信号においてモノラルに近いパート、つまり、殆どの音が中央に定位するパートは聴覚ノイズが目立ち易い。例えば、ボーカルのソロのパートはモノラルに近いことが多く、聴覚ノイズが目立ち易い。逆にモノラルに近くないパート、つまり、中央に定位する音が少ないパートは聴覚ノイズが目立ち難い。これは、ジョイントステレオ符号化自体が、モノラルに近いパートで主に利用されることに起因する。このため、入力された音響信号がモノラルに近い場合に、より強くぼかし処理が行われることが望ましい。 The degree of auditory noise caused by the block spectrogram shown in FIG. 10 that has occurred in the first comparative example can vary during the music. For this reason, it is desirable to change the intensity | strength of a blurring process according to the conspicuousness of auditory noise. The conspicuousness of auditory noise can be roughly measured by, for example, how similar the input audio signal Lch and Rch are, in other words, how close to monaural. Auditory noise tends to be conspicuous in a part that is close to monaural in the input acoustic signal, that is, a part in which most sounds are localized in the center. For example, vocal solo parts are often close to monaural, and auditory noise tends to stand out. Conversely, the part that is not close to monaural, that is, the part that has few sounds localized in the center, is less noticeable. This is due to the fact that joint stereo coding itself is mainly used in parts close to monaural. For this reason, it is desirable that the blurring process be performed more strongly when the input acoustic signal is close to monaural.
そこで、係数設定部124は、入力された音響信号がモノラルに近い度合に基づいて、重み付け係数rを設定する。そのために、ぼかしレベル計算部125は、入力された音響信号がモノラルに近い度合に基づいてぼかしレベルf(i)を計算する。例えば、ぼかしレベル計算部125は、入力された音響信号がモノラルに近い場合にぼかしレベルf(i)を大きく設定し、モノラルに近くない場合にぼかしレベルぼかしレベルf(i)を小さく設定する。そして、係数設定部124は、ぼかしレベルf(i)に応じて重み付け係数rを設定する。例えば、係数設定部124は、ぼかしレベルf(i)が大きいほど重み付け係数rを1側に寄せて設定し、ぼかしレベルf(i)が小さいほどほど重み付け係数rをゼロ側に寄せて設定する。
Therefore, the
モノラルに近いか否かは、下記数式に示す、モノラルにどの程度近いかを示す尺度t(i)により判定され得る。
PeakS(i)=(1−k)×PeakS(i−1)
+k×(|L(i)−R(i)|) (数式8)
PeakM(i)=(1−k)×PeakM(i−1)
+k×(|L(i)+R(i)|) (数式9)
t(i)=PeakS(i)/PeakM(i) (数式10)
Whether or not it is close to monaural can be determined by a scale t (i) indicating how close to monaural is shown in the following mathematical formula.
Peak S (i) = (1−k) × Peak S (i−1)
+ K × (| L (i) −R (i) |) (Formula 8)
Peak M (i) = (1−k) × Peak M (i−1)
+ K × (| L (i) + R (i) |) (Equation 9)
t (i) = Peak S (i) / Peak M (i) (Formula 10)
ここで、係数kは時定数である。また、PeakM(i)はゼロでないと仮定している。PeakS(i)は、LchからRchを減算した信号のピークレベルである。PeakM(i)は、LchにRchを加算した信号のピークレベルである。なお、上記数式8及び9では絶対値が用いられているが、二乗が用いられていてもよい。 Here, the coefficient k is a time constant. Also, Peak M (i) is assumed not to be zero. Peak S (i) is a peak level of a signal obtained by subtracting Rch from Lch. Peak M (i) is a peak level of a signal obtained by adding Rch to Lch. In addition, although the absolute value is used in the above mathematical formulas 8 and 9, square may be used.
入力された音響信号がモノラルに近い場合、PeakS(i)は小さくなり、PeakM(i)は大きくなる。一方で、モノラルに近くない場合、PeakS(i)は大きくなり、PeakM(i)は小さくなる。よって、尺度t(i)は、モノラルに近い場合に小さくなり、モノラルに近くない場合に大きくなる。この点を、図18を参照してさらに詳しく説明する。 When the input acoustic signal is close to monaural, Peak S (i) is small and Peak M (i) is large. On the other hand, if it is not close to monaural, Peak S (i) increases and Peak M (i) decreases. Therefore, the scale t (i) is small when it is close to monaural and is large when it is not close to monaural. This point will be described in more detail with reference to FIG.
図18は、入力された音響信号がモノラルに近い度合を説明するための図である。詳しくは、図18では、符号401に示すピークレベルPeakM(i)の時間的変化の例と、符号402に示すピークレベルPeakS(i)と時間的変化の例とを、それぞれ示している。区間21及び区間22は、入力された音響信号がモノラルに近いパートであると同時に、聴覚ノイズが目立ち易いパートである。これらの区間では、符号402に示すピークレベルPeakS(i)は小さくなり、符号401に示すピークレベルPeakM(i)は大きくなるため、尺度t(i)は小さくなる。その他の区間では、区間21及び区間22と比較して尺度t(i)は大きくなる。
FIG. 18 is a diagram for explaining the degree to which the input acoustic signal is close to monaural. Specifically, in FIG. 18, an example of the temporal change of the peak level Peak M (i) indicated by
ぼかしレベル計算部125は、尺度t(i)に応じてぼかしレベルf(i)を計算する。例えば、ぼかしレベル計算部125は、尺度t(i)が小さい場合にぼかしレベルf(i)を大きく設定する。このため、係数設定部124は、図18に示した区間21及び区間22に相当する差分信号S(i)について重み付け係数rを大きく設定し、ぼかし処理部120は強くぼかし処理を行う。一方で、ぼかしレベル計算部125は、尺度t(i)が大きい場合にぼかしレベルf(i)を小さく設定する。このため、係数設定部124は、図18に示した区間21及び区間22以外の区間に相当する差分信号S(i)について重み付け係数rを小さく設定し、ぼかし処理部120は弱くぼかし処理を行う。このように、本構成例に係る信号処理装置100は、聴覚ノイズの目立ち易さによってぼかしレベルの強度を変化させることにより、聴覚ノイズが目立ち易いパートに的を絞って強くぼかし処理を行なうことができ、より効果的に聴覚ノイズを防ぐことができる。
The blur
なお、PeakS(i)の大小だけでは、入力された音響信号がモノラルに近いのか、音響信号のレベル自体が小さいのかを判定することは困難である。また、ぼかしレベル計算部125は、LchとRchの相関を尺度t(i)として用いてもよい。ただし、その場合、尺度t(i)の大小関係は逆になる。
Note that it is difficult to determine whether the input acoustic signal is close to monaural or the level of the acoustic signal itself is small only by the magnitude of Peak S (i). Further, the blur
以上説明したように、本構成例によれば、信号処理装置100は、聴覚ノイズが目立ち易いパートに的を絞って強くぼかし処理を行なうことで、より効果的に聴覚ノイズを防ぐことができる。
As described above, according to the present configuration example, the
[2−6.第4の構成例]
本構成例は、差分信号のうち聴覚ノイズが生じる帯域を抽出して、ぼかし処理を行う構成例である。以下、図19を参照して、本構成例について説明する。
[2-6. Fourth configuration example]
This configuration example is a configuration example in which a band in which auditory noise is generated is extracted from the difference signal and blur processing is performed. Hereinafter, this configuration example will be described with reference to FIG.
図19は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図19に示す構成例を、以下では第4の構成例とも称する。図19に示すように、本構成例に係る信号処理装置100は、差分信号計算部110、ぼかし処理部120、帯域分割部130及び合成部131を有する。
FIG. 19 is a block diagram illustrating an example of a logical configuration of the
差分信号計算部110は、差分信号を出力する。次いで、帯域分割部130は、差分信号を複数の帯域に分割する。次に、ぼかし処理部120は、帯域分割部130により分割された複数の帯域のうち少なくともひとつの帯域においてぼかし処理を行う。そして、合成部131は、ぼかし処理部120によるぼかし処理がされた信号とされなかった信号とを合成して、ぼかし信号を得る。差分信号計算部110及びぼかし処理部120の内部処理については上記説明した通りであるので、ここでの詳細な説明は省略する。
The difference
(1)帯域分割部130
帯域分割部130は、差分信号計算部110から出力された差分信号を複数の帯域に分割する機能を有する。例えば、帯域分割部130は、ぼかし処理部120によるぼかし処理の対象となる帯域と、対象外となる帯域とに分割する。ぼかし処理の対象となる帯域は、ひとつの連続した帯域であってもよいし、複数の非連続な帯域の集合体であってもよい。ぼかし処理の対象外となる帯域についても同様である。
(1)
The
第1の比較例において生じていた、図10に示したブロック状のスペクトログラムに起因する聴覚ノイズの目立ち易さは、どの周波数帯域でブロック状のスペクトログラムが生じるかによって違いがある。これは、ジョイントステレオ符号化が対象とする周波数帯域の偏りや、人間の聴覚の特性に依存すると考えられる。聴覚ノイズが目立ち易い周波数帯域は、経験的に、1kHz〜10kHzである。このため、聴覚ノイズが目立ち易い帯域で重点的にぼかし処理が行なわれることが望ましい。そこで、帯域分割部130は、聴覚ノイズが目立ち易い帯域についてはぼかし処理部120へ出力し、その他の帯域については合成部131へ出力する。
The conspicuousness of the auditory noise caused by the block-shaped spectrogram shown in FIG. 10 that occurs in the first comparative example differs depending on which frequency band the block-shaped spectrogram is generated. This is considered to depend on the frequency band bias targeted for joint stereo coding and the characteristics of human hearing. The frequency band in which auditory noise is conspicuous is empirically 1 kHz to 10 kHz. For this reason, it is desirable to perform the blurring process mainly in a band in which auditory noise is conspicuous. Therefore, the
例えば、帯域分割部130は、下側のカットオフ周波数がFc1であり、上側のカットオフ周波数がFc2であるようなバンドパスフィルタを用いて、ぼかし処理部120へ出力する帯域の信号を抽出し得る。カットオフ周波数は、経験的にFc1=1kHz程度、Fc2=10kHz程度が効果的である。帯域分割部130は、バンドパスフィルタにより抽出した帯域の信号についてぼかし処理部120へ出力することで、当該帯域に関する重点的なぼかし処理を実現することができる。帯域分割部130は、カットオフ周波数がFc1のハイパスフィルタをバンドパスフィルタの代わりに含んでいてもよく、その場合は演算量を抑制可能である。
For example, the
なお、帯域分割部130は、差分信号計算部110よりも前段に設けられていてもよい。その場合、帯域分割部130は、差分信号を求める帯域を、主にボーカルの音が存在する周波数帯域に絞ることで、例えば中央に定位することが多いベース系の音が抑制されて低域が少ない軽い音になってしまうことを回避することができる。
Note that the
(2)合成部131
合成部131は、帯域分割部130により分割された複数の差分信号を合成する機能を有する。詳しくは、合成部131は、ぼかし処理部120によりぼかし処理された帯域の差分信号とぼかし処理部120により分割された複数の帯域のうちぼかし処理部120によるぼかし処理がなされなかった帯域の差分信号とを合成する。合成部131は、これらの信号を単純に加算することで合成し得る。
(2)
The combining
以上説明したように、本構成例によれば、信号処理装置100は、聴覚ノイズが目立ち易い帯域で重点的にぼかし処理を行うことで、より効果的に聴覚ノイズを防ぐことができる。
As described above, according to the present configuration example, the
<3.第2の実施形態>
本実施形態は、ゲイン制御により聴覚ノイズを低減する形態である。まず、図20を参照して、本実施形態の基本構成を説明する。
<3. Second Embodiment>
In the present embodiment, auditory noise is reduced by gain control. First, the basic configuration of the present embodiment will be described with reference to FIG.
[3−1.第1の構成例]
図20は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図20に示す構成例を、以下では第1の構成例とも称する。図20に示すように、本構成例に係る信号処理装置100は、差分信号計算部110、ゲインレベル設定部140及びゲイン制御部141を有する。
[3-1. First Configuration Example]
FIG. 20 is a block diagram illustrating an example of a logical configuration of the
差分信号計算部110は、差分信号を出力する。次いで、ゲインレベル設定部140は、ゲインレベルを設定する。そして、ゲイン制御部141は、ゲインレベル設定部140により設定されたゲインレベルを用いて、差分信号のゲインを制御する。本実施形態に係る信号処理装置100は、ボーカルが中央に定位する楽曲である時間領域の音響信号を入力され、ボーカルを抑制した時間領域の音響信号を出力する。差分信号計算部110の内部処理については上記説明した通りであるので、ここでの詳細な説明は省略する。
The difference
(1)ゲインレベル設定部140
ゲインレベル設定部140は、差分信号のゲインレベルを設定する機能を有する。例えば、ゲインレベル設定部140は、入力された音響信号の聴覚ノイズの目立ち易さに応じてゲインレベルを設定する。
(1) Gain
The gain
第1の比較例において生じていた、図10に示したブロック状のスペクトログラムに起因する聴覚ノイズの程度は、楽曲中に変化し得る。このため、聴覚ノイズの目立ち易さに応じて、差分信号のゲインレベルを変化させることが望ましい。上述したように、入力された音響信号がモノラルに近い、例えばボーカルのソロのパート等の殆どの音が中央に定位するパートは聴覚ノイズが目立ち易く、他のパートでは目立ち難い。そのため、入力された音響信号がモノラルに近い場合に、差分信号のゲインレベルを変化させることが望ましい。 The degree of auditory noise caused by the block spectrogram shown in FIG. 10 that has occurred in the first comparative example can vary during the music. For this reason, it is desirable to change the gain level of a differential signal according to the conspicuousness of auditory noise. As described above, the input sound signal is close to monaural, for example, a part in which most sounds such as vocal solo parts are localized in the center, auditory noise is easily noticeable, and other parts are not easily noticeable. Therefore, it is desirable to change the gain level of the differential signal when the input acoustic signal is close to monaural.
そこで、ゲインレベル設定部140は、聴覚ノイズの目立ち易さの尺度の一例として、上記数式8〜数式10に示した尺度t(i)を利用して、入力された音響信号がモノラルに近い度合に基づいてゲインレベルを設定する。具体的には、ゲインレベル設定部140は、尺度t(i)が小さい場合にゲインレベルg(i)を小さく設定し、尺度t(i)が大きい場合にゲインレベルg(i)を大きく設定する。例えば、ゲインレベル設定部140は、下記の数式の範囲でゲインレベルg(i)を設定する。
0.0 <= g(i) <= 1.0 (数式11)
Therefore, the gain
0.0 <= g (i) <= 1.0 (Formula 11)
なお、経験的には、下記の数式の範囲でゲインレベルg(i)が設定されることが望ましい。
0.25 < g(i) <= 1.0 (数式12)
Empirically, it is desirable to set the gain level g (i) within the range of the following formula.
0.25 <g (i) <= 1.0 (Formula 12)
(2)ゲイン制御部141
ゲイン制御部141は、ゲインレベル設定部140により設定されたゲインレベルを用いて差分信号のゲインを制御する機能を有する。例えば、ゲイン制御部141は、ゲインレベル設定部140による設定に基づくゲインレベルの制御を行うことで、ボーカルが目立つ区間においてゲインを低下させ、ボーカルを抑制した時間領域の音響信号を出力することが可能である。ゲインレベル設定部140により設定されたゲインレベルをg(i)とすると、ゲイン制御部141は、下記の数式によりゲインが制御された信号G(i)を計算する。
G(i)=g(i)×S(i) (数式13)
(2)
The
G (i) = g (i) × S (i) (Formula 13)
以上、第1の構成例について説明した。続いて、本実施形態に係る信号処理装置100の動作処理を説明する。
The first configuration example has been described above. Subsequently, an operation process of the
[3−2.動作処理例]
図21は、本実施形態に係る信号処理装置100において実行される信号処理の流れの一例を示すフローチャートである。
[3-2. Operation processing example]
FIG. 21 is a flowchart illustrating an example of the flow of signal processing executed in the
図21に示すように、まず、ステップS302で、差分信号計算部110は、i番目のLchの信号L(i)及びRchの信号R(i)の入力を受け付ける。
As shown in FIG. 21, first, in step S302, the difference
次いで、ステップS304で、差分信号計算部110は、差分信号S(i)を計算する。例えば、差分信号計算部110は、上記数式1を用いて差分信号S(i)を計算する。
Next, in step S304, the difference
次に、ステップS306で、ゲインレベル設定部140は、ゲインレベルg(i)を計算する。例えば、ゲインレベル設定部140は、上記数式8〜数式12を用いてゲインレベルg(i)を計算する。
Next, in step S306, the gain
次いで、ステップS308で、ゲイン制御部141は、ゲインが制御された信号G(i)を計算する。例えば、ゲイン制御部141は、上記数式13を用いてゲインが制御された信号G(i)を計算する。
Next, in step S308, the
そして、ステップS310で、ゲイン制御部141は、計算したゲインが制御された信号G(i)を出力する。
In step S310, the
[3−3.効果]
以下では、図22を参照して、本実施形態に係る信号処理装置100の効果を説明する。
[3-3. effect]
Below, with reference to FIG. 22, the effect of the
図22は、本実施形態に係る信号処理装置100の効果を説明するための図である。図22の実線は、第1の比較例に係る信号処理装置により処理された音響信号のパワーの時間変化例である。例えば、区間31及び区間32は、ボーカルのソロのパートなど、入力された音響信号がモノラルに近い区間である。このような区間は、モノラルに近い信号が抑制されることで差分信号のパワーが小さくなった区間であると共に、聴覚ノイズが目立ち易い部分である。区間31及び区間32以外の区間は、様々な楽器が存在するパートなど、入力された音響信号がモノラルに近くない区間である。このような区間は、差分信号のパワーが区間31及び区間32と比較して大きい区間であると共に、聴覚ノイズが目立ち難い部分である。
FIG. 22 is a diagram for explaining the effect of the
図22の破線は、本実施形態に係る信号処理装置100により処理された音響信号のパワーの時間変化例である。区間31及び区間32の破線に示すように、本実施形態に係る信号処理装置100は、主に聴覚ノイズが目立ち易い部分についてゲイン制御を行ってレベルを下げることができる。信号処理装置100は、聴覚ノイズが目立ちやすい部分について、聴覚ノイズごとレベルを下げることができるため、ユーザに与える聴覚ノイズの不快感を軽減することが可能である。また、本実施形態に係る信号処理装置100は、第2の比較例のような周波数領域での処理を行わないので、小さな演算量で処理することが可能である。
The broken line in FIG. 22 is an example of time change of the power of the acoustic signal processed by the
以上、本実施形態に係る効果について説明した。以下では、本実施形態に係る他の構成例について説明する。なお、以下で説明する他の構成例においても、上述した効果は同様に奏される。 The effects according to the present embodiment have been described above. Hereinafter, another configuration example according to the present embodiment will be described. Note that the effects described above are similarly achieved in other configuration examples described below.
[3−4.第2の構成例]
本構成例は、差分信号のうち聴覚ノイズが生じる帯域を抽出して、ゲイン制御を行う構成例である。以下、図23を参照して、本構成例について説明する。
[3-4. Second configuration example]
This configuration example is a configuration example in which gain control is performed by extracting a band in which auditory noise occurs from the differential signal. Hereinafter, this configuration example will be described with reference to FIG.
図23は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図23に示す構成例を、以下では第2の構成例とも称する。図23に示すように、本構成例に係る信号処理装置100は、差分信号計算部110、帯域分割部130、合成部131、ゲインレベル設定部140及びゲイン制御部141を有する。
FIG. 23 is a block diagram illustrating an example of a logical configuration of the
差分信号計算部110は、差分信号を出力する。次いで、帯域分割部130は、差分信号を複数の帯域に分割する。詳しくは、帯域分割部130は、ゲイン制御部141によるゲイン制御の対象となる帯域と、対象外となる帯域とに分割する。ここで、第1の実施形態における第4の構成例と同様の理由で、聴覚ノイズが目立ち易い帯域で重点的にゲイン制御が行われることが望ましい。そこで、帯域分割部130は、聴覚ノイズが目立ち易い帯域についてはゲイン制御部141へ出力し、その他の帯域については合成部131へ出力する。
The difference
次いで、ゲインレベル設定部140は、ゲインレベルを設定する。そして、ゲイン制御部141は、ゲインレベル設定部140により設定されたゲインレベルを用いて、差分信号のゲインを制御する。詳しくは、ゲイン制御部141は、帯域分割部130により分割された複数の帯域のうち少なくともひとつの帯域において、ゲインレベル設定部140により設定されたゲインレベルを用いて差分信号のゲインを制御する。
Next, the gain
そして、合成部131は、ゲイン制御部141から出力された信号と帯域分割部130から合成部131へ直接的に出力された信号とを合成することで、出力する音響信号を得る。詳しくは、合成部131は、ゲイン制御部141によりゲイン制御された帯域の差分信号と帯域分割部130により分割された複数の帯域のうちゲイン制御部141によるゲイン制御がなされなかった帯域の差分信号とを合成する。
Then, the
以上説明したように、本構成例によれば、信号処理装置100は、聴覚ノイズが目立ち易い帯域で重点的にゲイン制御を行うことで、ユーザに与える聴覚ノイズの不快感を効率的に軽減することが可能である。また、本構成例に係る信号処理装置100は、一部の帯域でゲイン制御を行うため、出力される音響信号全体の音量が過度に低下することを防止することができる。
As described above, according to this configuration example, the
<4.第3の実施形態>
本実施形態は、上述した第1の実施形態と第2の実施形態とを組み合わせた形態である。以下、図24を参照して、本実施形態に係る信号処理装置100の構成例について説明する。
<4. Third Embodiment>
This embodiment is a combination of the first embodiment and the second embodiment described above. Hereinafter, a configuration example of the
[4−1.構成例]
図24は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図24に示すように、本実施形態に係る信号処理装置100は、差分信号計算部110、帯域分割部130、ぼかし処理部120、遅延量設定部123、係数設定部124、ぼかしレベル計算部125、ゲインレベル設定部140、ゲイン制御部141及び合成部131を有する。
[4-1. Configuration example]
FIG. 24 is a block diagram illustrating an example of a logical configuration of the
差分信号計算部110は、差分信号を出力する。次いで、帯域分割部130は、差分信号を複数の帯域に分割する。詳しくは、帯域分割部130は、ぼかし処理部120によるぼかし処理及びゲイン制御部141によるゲイン制御の対象となる帯域と、対象外となる帯域とに分割する。例えば、帯域分割部130は、聴覚ノイズが目立ち易い帯域についてはぼかし処理部120へ出力し、その他の帯域については合成部131へ出力する。
The difference
次いで、ぼかし処理部120は、帯域分割部130から出力された帯域の差分信号についてぼかし処理を行う。詳しくは、ぼかし処理部120は、帯域分割部130により分割された複数の帯域のうち少なくともひとつの帯域においてぼかし処理を行う。その際、ぼかし処理部120は、遅延量設定部123により設定された遅延量n及び係数設定部124により設定された重み係数rを用いて、上記数式2によりぼかし信号F(i)を得る。
Next, the blurring
ここで、係数設定部124は、第1の実施形態の第2の構成例で説明した処理を行ってもよいし、第2の実施形態の第3の構成例で説明した処理を行ってもよい。即ち、係数設定部124は、入力された音響信号のオーディオコーデックに基づいて重み付け係数rを設定してもよいし、ぼかしレベル計算部125により計算されたぼかしレベルf(i)に応じて重み付け係数rを設定してもよい。例えば、前者による重み付け係数をr1とし、後者による重み付け係数をr2とすると、係数設定部124は、下記の数式に示すように最大値を重み付け係数rとして採用してもよい。
r(i)=MAX(r1(i),r2(i)) (数式14)
Here, the
r (i) = MAX (r1 (i), r2 (i)) (Formula 14)
また、係数設定部124は、r1及びr2を組み合わせて重み付け係数rを設定してもよい。例えば、係数設定部124は、r1及びr2の平均値により重み付け係数rを設定してもよい。つまり、r1及びr2の大小関係が重み付け係数rに反映されればよい。
The
ゲイン制御部141は、ぼかし処理部120から出力されたぼかし信号のゲイン制御を行う。詳しくは、ゲイン制御部141は、ゲインレベル設定部140により設定されたゲインレベルを用いて、ぼかし処理部120によりぼかし処理された信号のゲインを制御する。例えば、ゲイン制御部141は、下記の数式を用いてゲインが制御された信号G(i)を得る。
G(i)=g(i)×F(i) (数式15)
The
G (i) = g (i) × F (i) (Formula 15)
そして、合成部131は、ゲイン制御部141から出力された信号と帯域分割部130から合成部131へ直接的に出力された信号とを合成することで、出力する音響信号を得る。詳しくは、合成部131は、ゲイン制御部141によりゲイン制御された信号と帯域分割部130により分割された複数の帯域のうちゲイン制御部141によるゲイン制御がなされなかった帯域の差分信号とを合成する。
Then, the
なお、ぼかしレベル計算部125及びゲインレベル設定部140は、聴覚の聴覚ノイズの目立ち易さの尺度として、上記数式8〜10に示した尺度t(i)を共通して用いてもよいし、異なる尺度を採用してもよい。
Note that the blur
また、ぼかし処理部120及びゲインレベル設定部140の処理の順番は逆でもよい。
The order of processing of the
以上、本実施形態に係る信号処理装置100の構成例について説明した。続いて、本実施形態に係る信号処理装置100の動作処理を説明する。
The configuration example of the
[4−2.動作処理例]
図25は、本実施形態に係る信号処理装置100において実行される信号処理の流れの一例を示すフローチャートである。
[4-2. Operation processing example]
FIG. 25 is a flowchart illustrating an example of the flow of signal processing executed in the
図25に示すように、まず、ステップS402で、差分信号計算部110は、i番目のLchの信号L(i)及びRchの信号R(i)の入力を受け付ける。
As shown in FIG. 25, first, in step S <b> 402, the difference
次いで、ステップS404で、差分信号計算部110は、差分信号S(i)を計算する。例えば、差分信号計算部110は、上記数式1を用いて差分信号S(i)を計算する。
Next, in step S404, the difference
次に、ステップS406で、ゲインレベル設定部140は、ゲインレベルg(i)を計算する。例えば、ゲインレベル設定部140は、上記数式8〜数式12を用いてゲインレベルg(i)を計算する。
Next, in step S406, the gain
次いで、ステップS408で、遅延量設定部123は遅延量nを計算し、係数設定部124は重み付け係数rを計算する。例えば、遅延量設定部123は、上記数式5及び数式6を用いて遅延量nを計算する。例えば、係数設定部124は、上記数式14を用いて重み付け係数rを計算する。
Next, in step S408, the delay
次に、ステップS410で、帯域分割部130は、差分信号S(i)を処理対象の帯域と処理対象外の帯域とに分割する。ここでの処理対象とは、ぼかし処理部120によるぼかし処理及びゲイン制御部141によるゲイン制御の対象を指す。例えば、帯域分割部130は、差分信号S(i)を聴覚ノイズが目立ち易い帯域とそうでない帯域とに分割し、目立ち易い帯域を処理対象の帯域とし、そうでない帯域を処理対象外の帯域とする。
Next, in step S410, the
次いで、ステップS412で、ぼかし処理部120は、処理対象の帯域においてぼかし信号F(i)を計算する。例えば、ぼかし処理部120は、帯域分割部130により分割された複数の帯域のうち、聴覚ノイズが目立ち易い帯域の差分信号について、上記数式2を用いてぼかし信号F(i)を計算する。
Next, in step S412, the
次に、ステップS414で、ゲイン制御部141は、処理対象の帯域においてゲインが制御された信号G(i)を計算する。例えば、ゲイン制御部141は、ぼかし処理部120により出力されたぼかし信号F(i)について、上記数式15を用いてゲインが制御された信号G(i)を計算する。
Next, in step S414, the
次いで、ステップS416で、合成部131は、上記ステップS412及びS414における処理後の信号と処理対象外の信号とを合成する。例えば、合成部131は、上記ステップS414においてゲイン制御された処理対象の帯域におけるゲインが制御された信号G(i)と、上記ステップS410において分割された処理対象外の帯域における差分信号S(i)とを合成する。
Next, in step S416, the
そして、ステップS418で、合成部131は、上記ステップS416において合成された信号を出力する。
In step S418, the
以上説明したように、本実施形態によれば、信号処理装置100は、第1の実施形態及び第2の実施形態の効果を両立させることが可能であり、より効果的に聴覚ノイズを防ぐことができる。
As described above, according to this embodiment, the
<5.第4の実施形態>
本実施形態は、信号処理装置100が周波数領域の信号に対してボーカル抑制処理を行う形態である。以下では、図26及び図27を参照して、本実施形態について説明する。
<5. Fourth Embodiment>
In the present embodiment, the
図26は、本実施形態に係る信号処理装置100の論理的な構成の一例を示すブロック図である。図26に示すように、本実施形態に係る信号処理装置100は、FFT部150、差分信号計算部110、ぼかし処理部120及びIFFT部151を有する。
FIG. 26 is a block diagram illustrating an example of a logical configuration of the
(1)FFT部150
FFT部150は、入力された時間領域の信号を周波数領域の信号へ変換する機能を有する。例えば、FFT部150は、FFTにより時間領域の信号を周波数領域の信号へ変換する。本変換処理には、FFT以外の任意の方式が採用されてもよい。また、入力された音響信号が周波数領域の信号である場合、FFT部150は省略されてもよい。入力された音響信号が周波数領域の信号である場合、上記第1〜第3の実施形態では、周波数領域の信号を時間領域の信号に変換する工程が要される。これに対し、本実施形態に係る信号処理装置100は、本工程を省略可能であるので、処理が効率化される。
(1)
The
(2)差分信号計算部110
本実施形態に係る差分信号計算部110は、周波数領域で差分信号を計算する。例えば、差分信号計算部110は、Lch及びRchについて、対応するスケールファクターバンドのパワーを減算処理することで、差分信号を計算する。差分信号計算部110は、LchからRchを減算してもよいし、RchからLchを減算してもよい。
(2) Difference
The difference
(3)ぼかし処理部120
本実施形態に係るぼかし処理部120は、差分信号計算部110により計算された周波数領域の差分信号に、当該差分信号を処理した周波数領域の信号を加算する。例えば、ぼかし処理部120は、差分信号を処理した信号として、差分信号を遅延させた遅延信号を生成する。そして、ぼかし処理部120は、周波数領域の差分信号に、周波数領域の遅延信号を加算する。以下、図27を参照して、本実施形態に係るぼかし処理部120のシグナルフローの一例を説明する。
(3)
The blurring
図27は、本実施形態に係るぼかし処理部120のシグナルフローの一例を示す図である。図27では、時間的に連続する2つのフレームのスペクトルを用いてぼかし処理する例を図示している。図27に示すように、ぼかし処理部120は、入力された信号を1フレーム遅延させる遅延器122を有し、差分信号S(i)に1フレーム遅延した遅延信号を重み付け加算することで、ぼかし信号F(i)を得る。符号401及び符号402は、差分信号S(i)のスケールファクターバンドごとのパワーを示している。例えば、符号401は、差分信号の第h番目のフレームのスケールファクターバンドごとのパワーであり、符号402は、差分信号の第h−1番目のフレームのスケールファクターバンドごとのパワーである。符号403は、ぼかし信号F(i)のスケールファクターバンドごとのパワーを示している。詳しくは、符号403は、符号401に示した信号と符号402に示した信号とを0.5ずつの重みで加重平均した信号の、スケールファクターバンドごとのパワーである。符号403に示すように、出力信号F(i)のスケールファクターバンドごとのパワーの時間方向の変化の急峻さは抑制されており、その結果、聴覚ノイズが抑制される。
FIG. 27 is a diagram illustrating an example of a signal flow of the
なお、図27に示した例では、説明の簡略化のため、ぼかし処理部120はひとつの遅延器122を有するとし、重み付け係数r=0.5としているが、他の任意の設定であってもよい。また、図27では、FIRフィルタを用いて遅延信号を生成する例を説明したが、IIRフィルタが用いられてもよい。
In the example shown in FIG. 27, for simplification of explanation, the blurring
(4)IFFT部151
IFFT部151は、入力された周波数領域の信号を時間領域の信号へ変換する機能を有する。例えば、IFFT部151は、IFFTにより時間領域の信号を周波数領域の信号へ変換する。本変換処理には、IFFT以外の任意の方式が採用されてもよい。また、出力する信号が周波数領域の信号である場合、IFFT部151は省略されてもよい。
(4)
The
以上説明したように、本実施形態によれば、周波数領域の音響信号についても、特定音を抑制しつつ、聴覚上のノイズの発生を防止することができる。 As described above, according to the present embodiment, it is possible to prevent the generation of auditory noise while suppressing the specific sound for the acoustic signal in the frequency domain.
<6.ハードウェア構成>
最後に、図28を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図28は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図28に示す情報処理装置900は、例えば、図1、図16、図17、図19、図20、図23、図24及び図26にそれぞれ示した各実施形態に係る信号処理装置100を実現し得る。各実施形態に係る信号処理装置100による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
<6. Hardware configuration>
Finally, the hardware configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 28 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the present embodiment. Note that the
図28に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913及びセンサ915を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
As shown in FIG. 28, the
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図1、図16、図17、図19、図20、図23、図24及び図26にそれぞれ示した各実施形態に係る信号処理装置100に含まれる各構成要素を形成し得る。
The
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
The
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。
The
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
The
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
The
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。
The
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
The
以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
Heretofore, an example of the hardware configuration capable of realizing the functions of the
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
Note that a computer program for realizing each function of the
<7.まとめ>
以上、図1〜図28を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態係る信号処理装置100は、入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算して、差分信号に差分信号を処理した信号を加算する。信号処理装置100は、差分信号に差分信号を処理した信号を加算することにより、時間方向の急峻なレベルの変化を緩和して、耳障りな聴覚ノイズの発生を防ぐことができる。この効果は、入力された音響信号がジョイントステレオ符号化方式等により圧縮されていた場合により顕著に得られる。本実施形態によれば、聴覚ノイズが発生する大きな原因のひとつである時間方向の急峻なレベルの変化を、直接的に緩和することが可能である。このため、本実施形態に係る信号処理装置100は、時間方向の急峻なレベルの変化を間接的に緩和し得る第2の比較例と比較して、聴覚ノイズの発生の防止効果が高く且つ効率的であると考えられる。また、信号処理装置100は、特定音が抑制された差分信号を処理した信号を加算するので、特定音の抑制性能を代償とすることがなく、高い抑制性能を実現することが可能である。
<7. Summary>
The embodiment of the present disclosure has been described in detail above with reference to FIGS. As described above, the
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
例えば、本実施形態に係る信号処理装置100は多様な機器に搭載されることができる。例えば、ステレオコンポーネントシステム等の音源を再生する装置に本実施形態に係る信号処理装置100が搭載される場合、ユーザは、楽曲のボーカルを抑制して再生することで、手軽にカラオケを楽しむことができる。また、カーナビゲーションシステム等の音声ガイドを再生する装置に本実施形態に係る信号処理装置100が搭載される場合、信号処理装置100は、音声ガイドが再生されるときに再生中の楽曲のボーカルを抑制してもよい。その場合、音声ガイドが楽曲のボーカルに掻き消されることが防止されるので、ユーザは、楽曲の再生を楽しみつつ音声ガイドを鮮明に聞き取ることが可能となる。
For example, the
なお、本明細書において説明した各装置は、単独の装置として実現されてもよく、一部又は全部が別々の装置として実現されても良い。例えば、信号処理装置100の一部又は全部の構成要素がネットワーク等で接続されたサーバ等の装置に備えられていても良く、サーバ単体で又はサーバと信号処理装置100との協働で上述した処理が行われてもよい。
Each device described in this specification may be realized as a single device, or a part or all of the devices may be realized as separate devices. For example, some or all of the components of the
また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 Further, the processing described with reference to the flowcharts and sequence diagrams in this specification may not necessarily be executed in the order shown. Some processing steps may be performed in parallel. Further, additional processing steps may be employed, and some processing steps may be omitted.
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算する差分信号計算部と、
前記差分信号計算部により計算された前記差分信号に前記差分信号を処理した信号を加算する処理部と、
を備える信号処理装置。
(2)
前記処理部は、前記差分信号を処理した信号として、前記差分信号を遅延させた遅延信号を生成する、前記(1)に記載の信号処理装置。
(3)
前記信号処理装置は、前記遅延信号の遅延量を設定する遅延量設定部をさらに備える、前記(2)に記載の信号処理装置。
(4)
前記遅延量設定部は、前記入力された音響信号の圧縮符号化情報を用いて前記遅延量を設定する、前記(3)に記載の信号処理装置。
(5)
前記遅延量設定部は、前記遅延量を前記圧縮符号化情報が示すフレーム幅以下に設定する、前記(4)に記載の信号処理装置。
(6)
前記処理部は、IIR(Infinite impulse response)フィルタを用いて前記遅延信号を生成する、前記(2)〜(5)のいずれか一項に記載の信号処理装置。
(7)
前記処理部は、FIR(Finite impulse response)フィルタを用いて前記遅延信号を生成する、前記(2)〜(5)のいずれか一項に記載の信号処理装置。
(8)
前記信号処理装置は、前記処理部による前記加算に係る重み付け係数を設定する係数設定部をさらに備える、前記(2)〜(6)のいずれか一項に記載の信号処理装置。
(9)
前記係数設定部は、前記入力された音響信号の圧縮符号化情報に基づいて前記重み付け係数を設定する、前記(8)に記載の信号処理装置。
(10)
前記係数設定部は、前記入力された音響信号がモノラルに近い度合に基づいて、前記重み付け係数を設定する、前記(8)又は(9)に記載の信号処理装置。
(11)
前記信号処理装置は、
前記差分信号を複数の帯域に分割する帯域分割部と、
前記帯域分割部により分割された複数の前記差分信号を合成する合成部と、
をさらに備え、
前記処理部は、前記帯域分割部により分割された複数の帯域のうち少なくともひとつの帯域において前記差分信号に前記差分信号を処理した信号を加算し、
前記合成部は、前記処理部により処理された帯域の前記差分信号と前記帯域分割部により分割された複数の帯域のうち前記処理部による処理がなされなかった帯域の前記差分信号とを合成する、前記(1)〜(10)のいずれか一項に記載の信号処理装置。
(12)
前記信号処理装置は、
前記差分信号のゲインレベルを設定するゲインレベル設定部と、
前記ゲインレベル設定部により設定されたゲインレベルを用いて前記差分信号のゲインを制御するゲイン制御部と、
をさらに備える、前記(1)〜(11)のいずれか一項に記載の信号処理装置。
(13)
前記ゲインレベル設定部は、前記入力された音響信号がモノラルに近い度合に基づいて前記ゲインレベルを設定する、前記(12)に記載の信号処理装置。
(14)
前記信号処理装置は、
前記差分信号を複数の帯域に分割する帯域分割部と、
前記帯域分割部により分割された複数の前記差分信号を合成する合成部と、
をさらに備え、
前記ゲイン制御部は、前記帯域分割部により分割された複数の帯域のうち少なくともひとつの帯域において、前記ゲインレベル設定部により設定された前記ゲインレベルを用いて前記差分信号のゲインを制御し、
前記合成部は、前記ゲイン制御部により制御された帯域の前記差分信号と前記帯域分割部により分割された複数の帯域のうち前記ゲイン制御部による制御がなされなかった帯域の前記差分信号とを合成する、前記(12)又は(13)に記載の信号処理装置。
(15)
前記処理部は、前記帯域分割部により分割された複数の帯域のうち少なくともひとつの帯域において前記差分信号に前記差分信号を処理した信号を加算し、
前記ゲイン制御部は、前記ゲインレベル設定部により設定された前記ゲインレベルを用いて前記処理部により処理された信号のゲインを制御し、
前記合成部は、前記ゲイン制御部により制御された信号と前記帯域分割部により分割された複数の帯域のうち前記ゲイン制御部による制御がなされなかった帯域の前記差分信号とを合成する、前記(14)に記載の信号処理装置。
(16)
前記差分信号計算部は、時間領域で前記差分信号を計算する、前記(1)〜(15)のいずれか一項に記載の信号処理装置。
(17)
前記差分信号計算部は、周波数領域で前記差分信号を計算する、前記(1)〜(15)のいずれか一項に記載の信号処理装置。
(18)
入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算することと、
計算された前記差分信号に前記差分信号を処理した信号をプロセッサにより加算することと、
を含む信号処理方法。
(19)
コンピュータを、
入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算する差分信号計算部と、
前記差分信号計算部により計算された前記差分信号に前記差分信号を処理した信号を加算する処理部と、
として機能させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A differential signal calculation unit that calculates a differential signal between the acoustic signal of the first channel and the acoustic signal of the second channel forming the input acoustic signal;
A processing unit for adding a signal obtained by processing the differential signal to the differential signal calculated by the differential signal calculating unit;
A signal processing apparatus comprising:
(2)
The signal processing apparatus according to (1), wherein the processing unit generates a delayed signal obtained by delaying the differential signal as a signal obtained by processing the differential signal.
(3)
The signal processing device according to (2), further including a delay amount setting unit that sets a delay amount of the delay signal.
(4)
The signal processing device according to (3), wherein the delay amount setting unit sets the delay amount using compression encoding information of the input acoustic signal.
(5)
The signal processing device according to (4), wherein the delay amount setting unit sets the delay amount to be equal to or less than a frame width indicated by the compression encoding information.
(6)
The signal processing apparatus according to any one of (2) to (5), wherein the processing unit generates the delayed signal using an IIR (Infinite impulse response) filter.
(7)
The signal processing apparatus according to any one of (2) to (5), wherein the processing unit generates the delayed signal using a FIR (Finite impulse response) filter.
(8)
The signal processing device according to any one of (2) to (6), further including a coefficient setting unit that sets a weighting coefficient related to the addition performed by the processing unit.
(9)
The signal processing apparatus according to (8), wherein the coefficient setting unit sets the weighting coefficient based on compression coding information of the input acoustic signal.
(10)
The signal processing device according to (8) or (9), wherein the coefficient setting unit sets the weighting coefficient based on a degree to which the input acoustic signal is close to monaural.
(11)
The signal processing device includes:
A band dividing unit for dividing the difference signal into a plurality of bands;
A combining unit that combines the plurality of difference signals divided by the band dividing unit;
Further comprising
The processing unit adds a signal obtained by processing the difference signal to the difference signal in at least one band among a plurality of bands divided by the band dividing unit,
The synthesizing unit synthesizes the difference signal of the band processed by the processing unit and the difference signal of the band not processed by the processing unit among the plurality of bands divided by the band dividing unit. The signal processing device according to any one of (1) to (10).
(12)
The signal processing device includes:
A gain level setting unit for setting a gain level of the differential signal;
A gain control unit for controlling the gain of the differential signal using the gain level set by the gain level setting unit;
The signal processing apparatus according to any one of (1) to (11), further including:
(13)
The signal processing apparatus according to (12), wherein the gain level setting unit sets the gain level based on a degree to which the input acoustic signal is close to monaural.
(14)
The signal processing device includes:
A band dividing unit for dividing the difference signal into a plurality of bands;
A combining unit that combines the plurality of difference signals divided by the band dividing unit;
Further comprising
The gain control unit controls the gain of the differential signal using the gain level set by the gain level setting unit in at least one of the plurality of bands divided by the band dividing unit,
The synthesizing unit synthesizes the differential signal in the band controlled by the gain control unit and the differential signal in a band not controlled by the gain control unit among a plurality of bands divided by the band dividing unit. The signal processing device according to (12) or (13).
(15)
The processing unit adds a signal obtained by processing the difference signal to the difference signal in at least one band among a plurality of bands divided by the band dividing unit,
The gain control unit controls the gain of the signal processed by the processing unit using the gain level set by the gain level setting unit,
The synthesizing unit synthesizes the signal controlled by the gain control unit and the differential signal in a band not controlled by the gain control unit among a plurality of bands divided by the band dividing unit; 14) The signal processing apparatus according to 14).
(16)
The signal processing device according to any one of (1) to (15), wherein the difference signal calculation unit calculates the difference signal in a time domain.
(17)
The signal processing device according to any one of (1) to (15), wherein the difference signal calculation unit calculates the difference signal in a frequency domain.
(18)
Calculating a differential signal between the acoustic signal of the first channel and the acoustic signal of the second channel forming the input acoustic signal;
Adding a signal obtained by processing the difference signal to the calculated difference signal by a processor;
A signal processing method including:
(19)
Computer
A differential signal calculation unit that calculates a differential signal between the acoustic signal of the first channel and the acoustic signal of the second channel forming the input acoustic signal;
A processing unit for adding a signal obtained by processing the differential signal to the differential signal calculated by the differential signal calculating unit;
Program to function as.
100 信号処理装置
110 差分信号計算部
120 ぼかし処理部
121 遅延バッファDB
122 遅延器
123 遅延量設定部
124 係数設定部
125 ぼかしレベル計算部
130 帯域分割部
131 合成部
140 ゲインレベル設定部
141 ゲイン制御部
150 FFT部
151 IFFT部
DESCRIPTION OF
122
Claims (14)
前記差分信号計算部により計算された前記差分信号に前記差分信号を遅延させた遅延信号を加算する処理部と、
前記遅延信号の遅延量を、前記入力された音響信号の圧縮符号化情報が示すフレーム幅以下に設定する遅延量設定部と、
を備える信号処理装置。 A differential signal calculation unit that calculates a differential signal between the acoustic signal of the first channel and the acoustic signal of the second channel forming the input acoustic signal;
A processing unit for adding a delayed signal obtained by delaying the differential signal to the differential signal calculated by the differential signal calculating unit;
A delay amount setting unit for setting a delay amount of the delay signal to be equal to or less than a frame width indicated by the compression encoding information of the input acoustic signal;
A signal processing apparatus comprising:
前記差分信号を複数の帯域に分割する帯域分割部と、
前記帯域分割部により分割された複数の前記差分信号を合成する合成部と、
をさらに備え、
前記処理部は、前記帯域分割部により分割された複数の帯域のうち少なくともひとつの帯域において前記差分信号に前記遅延信号を加算し、
前記合成部は、前記処理部により処理された帯域の前記差分信号と前記帯域分割部により分割された複数の帯域のうち前記処理部による処理がなされなかった帯域の前記差分信号とを合成する、請求項1〜6のいずれか一項に記載の信号処理装置。 The signal processing device includes:
A band dividing unit for dividing the difference signal into a plurality of bands;
A combining unit that combines the plurality of difference signals divided by the band dividing unit;
Further comprising
The processing unit adds the delay signal to the differential signal in at least one band among a plurality of bands divided by the band dividing unit,
The synthesizing unit synthesizes the difference signal of the band processed by the processing unit and the difference signal of the band not processed by the processing unit among the plurality of bands divided by the band dividing unit. The signal processing device according to any one of claims 1 to 6 .
前記差分信号のゲインレベルを設定するゲインレベル設定部と、
前記ゲインレベル設定部により設定されたゲインレベルを用いて前記差分信号に前記遅延信号を加算した信号のゲインを制御するゲイン制御部と、
をさらに備える、請求項1〜6のいずれか一項に記載の信号処理装置。 The signal processing device includes:
A gain level setting unit for setting a gain level of the differential signal;
A gain control unit that controls the gain of the signal obtained by adding the delay signal to the differential signal using the gain level set by the gain level setting unit;
The signal processing apparatus according to any one of claims 1 to 6 , further comprising:
前記差分信号を複数の帯域に分割する帯域分割部と、
前記帯域分割部により分割された複数の前記差分信号を合成する合成部と、
をさらに備え、
前記処理部は、前記帯域分割部により分割された複数の帯域のうち少なくともひとつの帯域において前記差分信号に前記遅延信号を加算し、
前記ゲイン制御部は、前記ゲインレベル設定部により設定された前記ゲインレベルを用いて前記処理部により処理された信号のゲインを制御し、
前記合成部は、前記ゲイン制御部により制御された信号と前記帯域分割部により分割された複数の帯域のうち前記ゲイン制御部による制御がなされなかった帯域の前記差分信号とを合成する、請求項8又は9に記載の信号処理装置。 The signal processing device includes:
A band dividing unit for dividing the difference signal into a plurality of bands;
A combining unit that combines the plurality of difference signals divided by the band dividing unit;
Further comprising
The processing unit adds the delay signal to the differential signal in at least one band among a plurality of bands divided by the band dividing unit,
The gain control unit controls the gain of the signal processed by the processing unit using the gain level set by the gain level setting unit,
The synthesizer synthesizes the signal controlled by the gain controller and the differential signal in a band not controlled by the gain controller among a plurality of bands divided by the band divider. The signal processing device according to 8 or 9 .
計算された前記差分信号に前記差分信号を遅延させた遅延信号をプロセッサにより加算することと、
前記遅延信号の遅延量を、前記入力された音響信号の圧縮符号化情報が示すフレーム幅以下に設定することと、
を含む信号処理方法。 Calculating a differential signal between the acoustic signal of the first channel and the acoustic signal of the second channel forming the input acoustic signal;
Adding a delayed signal obtained by delaying the differential signal to the calculated differential signal by a processor;
Setting the delay amount of the delay signal to be equal to or less than the frame width indicated by the compression encoding information of the input acoustic signal;
A signal processing method including:
入力された音響信号を形成する第1のチャネルの音響信号及び第2のチャネルの音響信号の差分信号を計算する差分信号計算部と、
前記差分信号計算部により計算された前記差分信号に前記差分信号を遅延させた遅延信号を加算する処理部と、
前記遅延信号の遅延量を、前記入力された音響信号の圧縮符号化情報が示すフレーム幅以下に設定する遅延量設定部と、
として機能させるためのプログラム。 Computer
A differential signal calculation unit that calculates a differential signal between the acoustic signal of the first channel and the acoustic signal of the second channel forming the input acoustic signal;
A processing unit for adding a delayed signal obtained by delaying the differential signal to the differential signal calculated by the differential signal calculating unit;
A delay amount setting unit for setting a delay amount of the delay signal to be equal to or less than a frame width indicated by the compression encoding information of the input acoustic signal;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014239051A JP6314803B2 (en) | 2014-11-26 | 2014-11-26 | Signal processing apparatus, signal processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014239051A JP6314803B2 (en) | 2014-11-26 | 2014-11-26 | Signal processing apparatus, signal processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016099606A JP2016099606A (en) | 2016-05-30 |
JP2016099606A5 JP2016099606A5 (en) | 2017-03-09 |
JP6314803B2 true JP6314803B2 (en) | 2018-04-25 |
Family
ID=56077821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014239051A Active JP6314803B2 (en) | 2014-11-26 | 2014-11-26 | Signal processing apparatus, signal processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6314803B2 (en) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5218082Y2 (en) * | 1975-09-18 | 1977-04-23 | ||
JPH0539100U (en) * | 1991-10-25 | 1993-05-25 | 株式会社東芝 | Stereo audio player |
JPH07222298A (en) * | 1994-01-27 | 1995-08-18 | Matsushita Electric Ind Co Ltd | Surround stereo |
JP3381219B2 (en) * | 1999-06-09 | 2003-02-24 | 日本マランツ株式会社 | Stereo signal processor |
JP2006100869A (en) * | 2004-09-28 | 2006-04-13 | Sony Corp | Sound signal processing apparatus and sound signal processing method |
JP5151985B2 (en) * | 2006-09-25 | 2013-02-27 | ヤマハ株式会社 | Speaker array and microphone array |
JP5030627B2 (en) * | 2007-03-16 | 2012-09-19 | セイコーNpc株式会社 | Sound effect circuit and sound effect realization method |
JP5365380B2 (en) * | 2009-07-07 | 2013-12-11 | ソニー株式会社 | Acoustic signal processing apparatus, processing method thereof, and program |
-
2014
- 2014-11-26 JP JP2014239051A patent/JP6314803B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016099606A (en) | 2016-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5898534B2 (en) | Acoustic signal processing apparatus and acoustic signal processing method | |
JP5098404B2 (en) | Voice processing method and voice processing apparatus | |
RU2666316C2 (en) | Device and method of improving audio, system of sound improvement | |
JP2002078100A (en) | Method and system for processing stereophonic signal, and recording medium with recorded stereophonic signal processing program | |
JP4983694B2 (en) | Audio playback device | |
JP4448464B2 (en) | Noise reduction method, apparatus, program, and recording medium | |
US9071215B2 (en) | Audio signal processing device, method, program, and recording medium for processing audio signal to be reproduced by plurality of speakers | |
JP5340121B2 (en) | Audio signal playback device | |
JP2009296298A (en) | Sound signal processing device and method | |
JP2016134706A (en) | Mixing device, signal mixing method and mixing program | |
JP6314803B2 (en) | Signal processing apparatus, signal processing method, and program | |
JP6903242B2 (en) | Frequency band expansion device, frequency band expansion method, and frequency band expansion program | |
JP7427531B2 (en) | Acoustic signal processing device and acoustic signal processing program | |
JP6434333B2 (en) | Phase control signal generation apparatus, phase control signal generation method, and phase control signal generation program | |
JP2004343590A (en) | Stereophonic signal processing method, device, program, and storage medium | |
JP6155132B2 (en) | Low frequency complement device and low frequency complement method | |
JP2012027101A (en) | Sound playback apparatus, sound playback method, program, and recording medium | |
JP5998357B2 (en) | In-vehicle sound playback device | |
JP2015049470A (en) | Signal processor and program for the same | |
JP2012100117A (en) | Acoustic processing apparatus and method | |
JP6531418B2 (en) | Signal processor | |
JP2007251676A (en) | Audio processing apparatus, method thereof, program, and recording medium with program recorded thereon | |
WO2013024508A1 (en) | Audio processing device, playback device, audio processing method, and program | |
US9653065B2 (en) | Audio processing device, method, and program | |
JP5641187B2 (en) | Sound processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180312 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6314803 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |