JP2011147031A - Musical tone signal processing apparatus - Google Patents
Musical tone signal processing apparatus Download PDFInfo
- Publication number
- JP2011147031A JP2011147031A JP2010007376A JP2010007376A JP2011147031A JP 2011147031 A JP2011147031 A JP 2011147031A JP 2010007376 A JP2010007376 A JP 2010007376A JP 2010007376 A JP2010007376 A JP 2010007376A JP 2011147031 A JP2011147031 A JP 2011147031A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- localization
- extraction
- output
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 413
- 230000004807 localization Effects 0.000 claims abstract description 326
- 238000000605 extraction Methods 0.000 claims abstract description 258
- 230000005236 sound signal Effects 0.000 claims description 42
- 230000009467 reduction Effects 0.000 claims description 34
- 238000002360 preparation method Methods 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 5
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims 5
- 230000015572 biosynthetic process Effects 0.000 claims 3
- 238000003786 synthesis reaction Methods 0.000 claims 3
- 238000012886 linear function Methods 0.000 claims 1
- 238000012805 post-processing Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 179
- 230000008569 process Effects 0.000 description 177
- 230000006870 function Effects 0.000 description 141
- DRLFMBDRBRZALE-UHFFFAOYSA-N melatonin Chemical compound COC1=CC=C2NC=C(CCNC(C)=O)C2=C1 DRLFMBDRBRZALE-UHFFFAOYSA-N 0.000 description 44
- 230000008859 change Effects 0.000 description 26
- 239000012636 effector Substances 0.000 description 25
- 230000000694 effects Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000015654 memory Effects 0.000 description 14
- 238000011946 reduction process Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 4
- 230000008602 contraction Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000012888 cubic function Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007261 regionalization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は楽音信号処理装置に関し、特に、入力楽音中における所望の楽音の音像を自在に拡大又は縮小できる楽音信号処理装置に関する。 The present invention relates to a musical tone signal processing apparatus, and more particularly to a musical tone signal processing apparatus capable of freely expanding or reducing a desired musical tone image in an input musical tone.
特許文献1(特表2000−504526号公報)には、モノラル信号を周波数帯域によって左右に振り分け、それにより、モノラル音源であっても、擬似ステレオサウンドとして若干の拡がりを持たせて出力することのできる装置が記載されている。 Japanese Patent Laid-Open No. 2000-504526 discloses that a monaural signal is divided into left and right according to a frequency band so that even a monaural sound source is output with a slight spread as a pseudo stereo sound. A possible device is described.
特許文献2(特開平08−123410号公報)には、左右チャンネルから構成される各音源の音に拡がり感を持たせることのできる音響効果付加装置が開示されている。かかる音響効果付加装置では、具体的に、左右チャンネルの各チャンネル毎に時分割で与えられた各周波数帯域の音色データを、各周波数帯域毎に定位を調整して位相の反転などにより音の定位感をぼかすことによって、音に拡がり感を持たせている。 Patent Document 2 (Japanese Patent Laid-Open No. 08-123410) discloses an acoustic effect adding device that can give a sense of spread to the sound of each sound source composed of left and right channels. In such an acoustic effect adding device, specifically, the timbre data of each frequency band given by time division for each of the left and right channels is adjusted by adjusting the localization for each frequency band and reversing the phase, etc. By blurring the feeling, the sound is spread.
しかしながら、特許文献1及び特許文献2などの従来の手法では、入力音源の音像を所望に応じて自在に拡大することは困難であるという問題点があった。
However, the conventional methods such as
本発明は、上述した問題点を解決するためになされたものであり、入力楽音中における所望の楽音の音像を自在に拡大又は縮小できる楽音信号処理装置を提供することを目的としている。 The present invention has been made to solve the above-described problems, and an object thereof is to provide a musical tone signal processing apparatus capable of freely expanding or reducing a desired musical tone image in an input musical tone.
この目的を達成するために請求項1記載の楽音信号処理装置によれば、第2の設定手段によって、第2基準定位と、該方向範囲の一端側の境界の拡大度を規定する第1の関数と、該方向範囲の他端側の境界の拡大度を規定する第2の関数とが設定されると、そのように条件が設定された方向範囲内に存在する抽出信号の定位情報が示す出力方向が、音像拡大縮小手段により移動され、それによって、該方向範囲内の音像が拡大又は縮小される。具体的には、第2基準定位と第1の関数と第2の関数とが設定された方向範囲について、その方向範囲内から抽出手段により抽出された抽出信号のうち、第2基準定位よりも該方向範囲の一端側に位置する第1の抽出信号の定位情報が示す出力方向が、音像拡大縮小手段により、該第2基準定位を基準とする第1の関数に応じた線形写像によって移動されると共に、第2基準定位よりも該方向範囲の他端側に位置する第2の抽出信号の定位情報が示す出力方向が、同じく音像拡大縮小手段により、該第2基準定位を基準とする第2の関数に応じた線形写像によって移動される。なお、請求項1における第2の設定手段による各条件(第2基準定位、第1の関数、第2の関数)の設定は、予め固定的に設定されている場合と、可変的に設定される場合との両方の場合を含むことを意図する。また、請求項1における「拡大度」とは、その度合いによっては、拡大のみならず、縮小の意を含んでいる。
In order to achieve this object, according to the musical sound signal processing device of the first aspect, the second setting means defines the second reference localization and the degree of expansion of the boundary on one end side of the direction range by the first setting means. When a function and a second function that defines the degree of enlargement of the boundary on the other end side of the direction range are set, the localization information of the extracted signal existing in the direction range in which the condition is set indicates The output direction is moved by the sound image enlargement / reduction means, whereby the sound image within the direction range is enlarged or reduced. Specifically, with respect to the direction range in which the second reference localization, the first function, and the second function are set, out of the extracted signals extracted by the extraction means from within the direction range, the second reference localization is more than the second reference localization. The output direction indicated by the localization information of the first extraction signal located at one end of the direction range is moved by the linear mapping according to the first function based on the second reference localization by the sound image enlargement / reduction means. In addition, the output direction indicated by the localization information of the second extracted signal located on the other end side of the direction range with respect to the second reference localization is the same as that of the second reference localization with the second reference localization as a reference. It is moved by a linear mapping according to a function of 2. It should be noted that the setting of each condition (second reference localization, first function, second function) by the second setting means in
よって、設定された方向範囲内から抽出された各抽出信号の定位情報が示す出力方向を移動させる、即ち、各抽出信号の定位を移動させることにより、設定された方向範囲から抽出された抽出信号によって形成される音像を拡大又は縮小するので、ステレオ音源が示す各音像を自在に拡大又は縮小できるという効果がある。 Therefore, the output signal indicated by the localization information of each extraction signal extracted from the set direction range is moved, that is, the extraction signal extracted from the set direction range by moving the localization of each extraction signal. Since the sound image formed by the method is enlarged or reduced, each sound image indicated by the stereo sound source can be freely enlarged or reduced.
請求項2,3,4記載の楽音信号処理装置によれば、請求項1記載の楽音信号処理装置の奏する効果に加えて、次の効果を奏する。抽出手段は、設定手段に設定された出力方向における方向範囲内に、定位情報で示される出力方向が収まると判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における各チャンネルの信号を、その判定に用いられた方向範囲毎に、楽音信号から抽出信号として抽出する。このように、抽出手段は、各チャンネルの信号から、設定された方向範囲毎に、即ち、所望の定位毎に、抽出信号を抽出することができる。ここで、第2の設定手段は、設定手段により設定された方向範囲毎に、第2基準定位と第1の関数と第2の関数とを設定できるので、設定手段により設定された方向範囲毎に独立して音像を拡大又は縮小することができるという効果がある。また、抽出手段は、各チャンネルの信号から、設定された方向範囲毎に信号の抽出を行うので、抽出された信号(抽出信号)に対して信号処理を行った後に、それらの信号(信号処理が施された抽出信号)を再合成することができるという効果がある。 According to the musical sound signal processing device according to the second, third, and fourth aspects, in addition to the effect produced by the musical sound signal processing device according to the first aspect, the following effect is obtained. The extraction unit, when the determination unit determines that the output direction indicated by the localization information is within the direction range in the output direction set by the setting unit, the frequency band corresponding to the localization information determined to be included The signal of each channel is extracted as an extraction signal from the tone signal for each direction range used for the determination. In this way, the extraction means can extract the extraction signal from the signal of each channel for each set direction range, that is, for each desired localization. Here, since the second setting means can set the second reference localization, the first function, and the second function for each direction range set by the setting means, the second setting means can set each direction range set by the setting means. The effect is that the sound image can be enlarged or reduced independently. In addition, the extraction means extracts signals for each set direction range from the signals of each channel, so after performing signal processing on the extracted signals (extraction signals), those signals (signal processing) It is possible to re-synthesize the extracted signal).
請求項5記載の楽音信号処理装置によれば、請求項1記載の楽音信号処理装置の奏する効果に加えて、次の効果を奏する。処理対象とする前記抽出信号がモノラル信号である場合には、該抽出信号の定位情報が示す出力方向が、該抽出信号を含む方向範囲の一端又は他端の出力方向に、予め設定された連続する周波数範囲毎に交互となるように、準備手段によって自動的に振り分けられる。そして、その準備手段により振り分けられた抽出信号に対し、該抽出信号を含む方向範囲に対して設定された第2基準定位と第1の関数と第2の関数とを用いる線形写像が音像拡大縮小手段によって行われる。なお、請求項5において、「処理対象とする前記抽出信号がモノラル信号である場合」とは、入力楽音信号がモノラル信号(1チャンネルの信号)である場合と、入力楽音信号が複数チャンネルの信号であるが合成されてモノラル信号とされている場合との両方を含むことを意図している。 According to the musical tone signal processing device of the fifth aspect, in addition to the effect produced by the musical tone signal processing device according to the first aspect, the following effect is produced. When the extraction signal to be processed is a monaural signal, the output direction indicated by the localization information of the extraction signal is a preset continuous output direction at one end or the other end of the direction range including the extraction signal. It is automatically distributed by the preparation means so as to alternate for each frequency range to be performed. Then, a linear map using the second reference localization, the first function, and the second function set for the direction range including the extracted signal is extracted from the extracted signal distributed by the preparation means. By means. In addition, in claim 5, “when the extraction signal to be processed is a monaural signal” means that the input tone signal is a monaural signal (one-channel signal) and that the input tone signal is a signal of a plurality of channels. However, it is intended to include both the case where the signal is synthesized into a monaural signal.
よって、処理対象となる抽出信号がモノラル信号であっても、各抽出信号の出力方向(定位)を、準備手段によって、予め、方向範囲のいずれかの境界に自動的に振り分けるので、第2基準定位と第1の関数と第2の関数とを用いる線形写像によって定位を移動させることができるようになり、その結果、音像に拡がりを持たせることができるという効果がある。その上、準備手段による定位の振り分けは、所定の周波数毎のグループ単位で交互となるように振り分けられるので、バランスのよい拡がり感を持たせることができるという効果がある。 Therefore, even if the extraction signal to be processed is a monaural signal, the output direction (localization) of each extraction signal is automatically distributed to any boundary of the direction range in advance by the preparation unit. The localization can be moved by the linear mapping using the localization, the first function, and the second function. As a result, there is an effect that the sound image can be spread. In addition, since the localization by the preparation unit is performed so as to alternate in units of groups for each predetermined frequency, there is an effect that it is possible to have a well-balanced feeling of spread.
請求項6記載の楽音信号処理装置によれば、請求項2から5のいずれかに記載の楽音信号処理装置の奏する効果に加えて、次の効果を奏する。信号処理手段は、処理対象となる各チャンネルの信号を出力チャンネルに応じて分配して、その分配された各信号に対して、それぞれ独立した信号処理を施す。そして、出力手段は、上記の独立した信号処理に対応して複数設けられているので、所望の定位毎に抽出信号を抽出した後、所望の定位(即ち、1の定位)における抽出信号が分配され、分配後の各信号に対してそれぞれ独立した信号処理を施した後、それらを別々の出力手段から出力することができる。このとき、信号処理手段の一部である第2の設定手段は、第2基準定位、第1の関数、及び第2の関数を出力チャンネルに応じて分配される信号毎に設定でき、音像拡大縮小処理は、出力チャンネルに応じて分配される信号毎に設定された第2基準定位と第1の関数及び第2の関数とを用いて、分配された信号毎に線形写像を独立して行うものであるので、出力手段の配置に応じて適切に音像を拡大したり縮小したりすることができるという効果がある。 According to the musical tone signal processing device of the sixth aspect, in addition to the effect produced by the musical tone signal processing device according to any one of the second to fifth aspects, the following effect is produced. The signal processing means distributes the signal of each channel to be processed according to the output channel, and performs independent signal processing on each of the distributed signals. Since a plurality of output means are provided corresponding to the above independent signal processing, after extracting the extraction signal for each desired localization, the extraction signal at the desired localization (that is, one localization) is distributed. In addition, after each of the distributed signals is subjected to independent signal processing, they can be output from separate output means. At this time, the second setting means, which is a part of the signal processing means, can set the second reference localization, the first function, and the second function for each signal distributed according to the output channel. The reduction process is performed independently for each distributed signal using the second reference localization set for each signal distributed according to the output channel, the first function, and the second function. Therefore, there is an effect that the sound image can be appropriately enlarged or reduced according to the arrangement of the output means.
請求項7記載の楽音装置によれば、モノラル信号が入力された場合には、抽出信号の出力方向(予め定められた第1基準定位に等しい出力方向)が、該抽出信号に対応する方向範囲の一端又は他端の出力方向に、予め設定された連続する周波数範囲毎に交互となるように、準備手段によって自動的に振り分けられる。そして、その準備手段により振り分けられた抽出信号に対し、該抽出信号に対応する方向範囲に対して第2設定手段により設定された第2基準定位と第1の関数と第2の関数とを用いる線形写像が音像拡大縮小手段によって行われ、それによって、該方向範囲内の音像が拡大又は縮小される。 According to the musical sound device of claim 7, when a monaural signal is input, an output direction of the extraction signal (an output direction equal to a predetermined first reference localization) is a direction range corresponding to the extraction signal. In the output direction of one end or the other end, the preparatory means automatically distributes the signals so as to alternate every predetermined continuous frequency range. Then, the second reference localization, the first function, and the second function set by the second setting unit with respect to the direction range corresponding to the extraction signal are used for the extraction signal distributed by the preparation unit. The linear mapping is performed by the sound image enlargement / reduction means, whereby the sound image within the direction range is enlarged or reduced.
よって、入力信号モノラル信号であっても、各抽出信号の出力方向(定位)を、準備手段によって、予め、方向範囲のいずれかの境界に自動的に振り分けるので、第2基準定位と第1の関数と第2の関数とを用いる線形写像によって定位を移動させることができるようになり、その結果、音像に拡がりを持たせることができるという効果がある。その上、準備手段による定位の振り分けは、所定の周波数毎のグループ単位で交互となるように振り分けられるので、バランスのよい拡がり感を持たせることができるという効果がある。 Therefore, even in the case of an input signal monaural signal, the output direction (localization) of each extracted signal is automatically distributed to any boundary of the direction range in advance by the preparation means, so the second reference localization and the first The localization can be moved by the linear mapping using the function and the second function. As a result, there is an effect that the sound image can be spread. In addition, since the localization by the preparation unit is performed so as to alternate in units of groups for each predetermined frequency, there is an effect that it is possible to have a well-balanced feeling of spread.
以下、本発明の好ましい実施例について、添付図面を参照して説明する。まず、図1から図7を参照して本発明の第1実施形態について説明する。図1は、本発明における第1実施形態のエフェクタ1(楽音信号処理装置の一例)を示したブロック図である。このエフェクタ1は、信号処理を施す対象となる楽音信号(以後、「抽出信号」と称す)の抽出を、複数の各条件(周波数、定位および最大レベルが一組となった条件の各々)にわたって行うことができるものである。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing an effector 1 (an example of a musical tone signal processing apparatus) according to the first embodiment of the present invention. The
エフェクタ1は、Lch用アナログデジタルコンバータ(以下、「A/Dコンバータ」と称す)11Lと、Rch用A/Dコンバータ11Rと、デジタルシグナルプロセッサ(以下、「DSP」と称す)12と、Lch用第1デジタルアナログコンバータ(以下、「D/Aコンバータ」と称す)13L1と、Rch用第1D/Aコンバータ13R1と、Lch用第2D/Aコンバータ13L2と、Rch用第2D/Aコンバータ13R2と、CPU14と、ROM15と、RAM16と、バスライン17とを有している。各部11〜16は、バスライン17を介して互いに電気的に接続されている。
The
Lch用A/Dコンバータ11Lは、IN_L端子から入力された左チャンネル信号(楽音信号の一部)を、アナログ信号からデジタル信号へ変換して、デジタル化された左チャンネル信号を、バスライン17を介してDSP12へと出力するコンバータである。また、Rch用A/Dコンバータ11Rは、IN_R端子から入力された右チャンネル信号(楽音信号の一部)を、アナログ信号からデジタル信号へ変換して、デジタル化された右チャンネル信号を、バスライン17を介してDSP12へと出力するコンバータである。
The Lch A / D converter 11L converts the left channel signal (part of the musical tone signal) input from the IN_L terminal from an analog signal to a digital signal, and converts the digitized left channel signal to the
DSP12は、Lch用A/Dコンバータ11Lから出力された左チャンネル信号およびRch用A/Dコンバータ11Rから出力された右チャンネル信号を入力すると、その入力した左チャンネル信号および右チャンネル信号へ信号処理を施して、その信号処理を施した左チャンネル信号および右チャンネル信号を、Lch用第1D/Aコンバータ13L1、Rch用第1D/Aコンバータ13R1、Lch用第2D/Aコンバータ13L2およびRch用第2D/Aコンバータ13R2へ出力するプロセッサである。
When the
Lch用第1D/Aコンバータ13L1及びLch用第2D/Aコンバータ13L2は、DSP12で信号処理が施された左チャンネル信号を、デジタル信号からアナログ信号へ変換して、そのアナログ信号を、メインスピーカのLチャンネル側(図示せず)が接続される端子(OUT1_L端子,OUT2_L端子)へ出力するコンバータである。なお、Lch用第1D/Aコンバータ13L1及びLch用第2D/Aコンバータ13L2には、それぞれ、DSP12で各々独立した信号処理がなされて出力された左チャンネル信号が入力される。
The Lch first D / A converter 13L1 and the Lch second D / A converter 13L2 convert the left channel signal subjected to signal processing by the
Rch用第1D/Aコンバータ13R1及びRch用第2D/Aコンバータ13R2は、DSP12で信号処理が施された右チャンネル信号を、デジタル信号からアナログ信号へ変換して、そのアナログ信号を、メインスピーカのRチャンネル側(図示せず)が接続される端子(OUT1_R端子,OUT2_R端子)へ出力するコンバータである。なお、Rch用第1D/Aコンバータ13R1及びRch用第2D/Aコンバータ13R2には、それぞれ、DSP12で各々独立した信号処理がなされて出力された右チャンネル信号が入力される。
The first D / A converter 13R1 for Rch and the second D / A converter 13R2 for Rch convert the right channel signal, which has been subjected to signal processing by the
CPU14は、各部11L〜13R2,15,16を制御する中央制御装置である。ROM15は、エフェクタ1で実行される制御プログラム等を格納した書換不能なメモリである。図2〜図6で後述するDSP12による処理は、制御プログラムとして、ROM15に記憶されている。RAM16は、各種のデータを一時的に記憶するためのメモリである。
The
次に、図2を参照して、DSP12の処理について説明する。図2は、DSP12で実行される処理を、機能ブロックを用いて模式的に示した図である。DSP12は、機能ブロックとして、第1処理部S1と第2処理部S2とを有している。DSP12は、エフェクタ1の電源オン中、図2に示す処理を繰り返し実行する。
Next, the processing of the
DSP12は、IN_L端子から入力された時間領域における左チャンネル信号(以下、「IN_L[t]信号」と称す。[t]は、信号が時間領域で示されることを表わしている)と、IN_R端子から入力された時間領域における右チャンネル信号(以下、「IN_R[t]信号」と称す)とを入力し、第1処理部S1および第2処理部S2における処理を実行する。
The
ここで、第1処理部S1と第2処理部S2とにおける処理は、同一の処理であり、かつ、所定間隔毎に実行されるのであるが、第2処理部S2における処理は、第1処理部S1における処理の実行開始から所定時間遅れて実行開始される。これにより、第2処理部S2における処理は、第1処理部S1における処理の実行終了から実行開始までのつなぎ目を補い、第1処理部S1における処理は、第2処理部S2における処理の実行終了から実行開始までのつなぎ目を補っている。よって、第1処理部S1により生成された信号と第2処理部S2により生成された信号とが合成された信号、即ち、DSP12から出力される、時間領域における第1左チャンネル信号(以下、「OUT1_L[t]信号」と称す)と、時間領域における第1右チャンネル信号(以下、「OUT1_R[t]信号」と称す)と、時間領域における第2左チャンネル信号(以下、「OUT2_L[t]信号」と称す)と、時間領域における第2右チャンネル信号(以下、「OUT2_R[t]信号」と称す)とが、不連続となることを防止している。なお、本実施形態では、第1処理部S1及び第2処理部S2は、0.1秒毎に実行され、第2処理部S2における処理が、第1処理部S1における処理の実行開始から0.05秒後に実行開始されるものとする。しかし、第1処理部S1及び第2処理部S2の実行間隔、並びに、第1処理部S1における処理の実行開始から第2処理部S2における処理の実行開始までの遅延時間は、0.1秒及び0.05秒に限定されず、サンプリング周波数と楽音信号の数とに応じた値を適宜利用可能である。 Here, the processing in the first processing unit S1 and the second processing unit S2 is the same processing and is executed at predetermined intervals, but the processing in the second processing unit S2 is the first processing. Execution is started with a predetermined time delay from the start of execution of processing in the part S1. Thereby, the process in the second processing unit S2 supplements the joint from the end of the execution of the process in the first processing unit S1 to the start of the execution, and the process in the first processing unit S1 ends the execution of the process in the second processing unit S2 It supplements the joint from the start to the execution. Therefore, a signal obtained by combining the signal generated by the first processing unit S1 and the signal generated by the second processing unit S2, that is, the first left channel signal in the time domain (hereinafter, “ OUT1_L [t] signal ”, a first right channel signal in the time domain (hereinafter referred to as“ OUT1_R [t] signal ”), and a second left channel signal in the time domain (hereinafter referred to as“ OUT2_L [t] ”). The second right channel signal in the time domain (hereinafter referred to as “OUT2_R [t] signal”) is prevented from becoming discontinuous. In the present embodiment, the first processing unit S1 and the second processing unit S2 are executed every 0.1 second, and the processing in the second processing unit S2 is 0 from the start of the processing in the first processing unit S1. .Start execution after 05 seconds. However, the execution interval between the first processing unit S1 and the second processing unit S2 and the delay time from the start of the processing in the first processing unit S1 to the start of the processing in the second processing unit S2 are 0.1 seconds. The value according to the sampling frequency and the number of musical sound signals can be appropriately used.
第1処理部S1および第2処理部S2は、機能ブロックとして、Lch解析処理部S10、Rch解析処理部S20、メイン処理部S30、L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S80およびR2ch出力処理部S90をそれぞれ有している。 The first processing unit S1 and the second processing unit S2 are Lch analysis processing unit S10, Rch analysis processing unit S20, main processing unit S30, L1ch output processing unit S60, R1ch output processing unit S70, and L2ch output processing unit as functional blocks. S80 and R2ch output processing unit S90 are provided.
Lch解析処理部S10は、入力したIN_L[t]信号を、周波数領域で示される左チャンネル信号(以下、「IN_L[f]信号」と称す。[f]は、信号が周波数領域で示されることを表わしている)に変換して出力するものであり、Rch解析処理部S20は、入力したIN_R[t]信号を、周波数領域で示される右チャンネル信号(以下、「IN_R[f]信号」と称す)に変換して出力するものである。なお、Lch解析処理部S10およびRch解析処理部S20の詳細は、図3を参照して後述する。 The Lch analysis processing unit S10 refers to the input IN_L [t] signal as a left channel signal (hereinafter, “IN_L [f] signal”) indicated in the frequency domain. [F] indicates that the signal is indicated in the frequency domain. Rch analysis processing unit S20 converts the input IN_R [t] signal into a right channel signal (hereinafter referred to as “IN_R [f] signal”) shown in the frequency domain. To be output. Details of the Lch analysis processing unit S10 and the Rch analysis processing unit S20 will be described later with reference to FIG.
メイン処理部S30は、Lch解析処理部S10から入力されたIN_L[f]信号とRch解析処理部S20から入力されたIN_R[f]信号に対し、後述する第1信号処理、第2信号処理、及び、指定以外を取り出す処理を施し、各処理からの出力結果に基づき、周波数領域で示される左チャンネル信号及び右チャンネル信号を出力するものである。なお、メイン処理部S30の処理の詳細は、図4〜6を参照して後述する。 The main processing unit S30 performs first signal processing, second signal processing, which will be described later, on the IN_L [f] signal input from the Lch analysis processing unit S10 and the IN_R [f] signal input from the Rch analysis processing unit S20. In addition, processing other than the designation is performed, and the left channel signal and the right channel signal shown in the frequency domain are output based on the output result from each processing. Details of the processing of the main processing unit S30 will be described later with reference to FIGS.
L1ch出力処理部S60は、メイン処理部S30から出力された周波数領域で示される左チャンネル信号の1つ(以下、「OUT_L1[f]信号と称す)が入力された場合に、そのOUT_L1[f]信号を、時間領域で示される左チャンネル信号(以下、「OUT1_L[t]信号」と称す)へ変換するものである。R1ch出力処理部S70は、メイン処理部S30から出力された周波数領域で示される右チャンネル信号の1つ(以下、「OUT_R1[f]信号と称す)が入力された場合に、そのOUT_R1[f]信号を、時間領域で示される右チャンネル信号(以下、「OUT1_R[t]信号」と称す)へ変換するものである。 When one of the left channel signals (hereinafter referred to as “OUT_L1 [f] signal) indicated by the frequency domain output from the main processing unit S30 is input to the L1ch output processing unit S60, the OUT_L1 [f] The signal is converted into a left channel signal (hereinafter referred to as “OUT1_L [t] signal”) shown in the time domain. When one of the right channel signals (hereinafter referred to as “OUT_R1 [f] signal) output in the frequency domain output from the main processing unit S30 is input, the R1ch output processing unit S70 receives the OUT_R1 [f]. The signal is converted into a right channel signal (hereinafter referred to as “OUT1_R [t] signal”) shown in the time domain.
L2ch出力処理部S80は、メイン処理部S30から出力されたもう1つの周波数領域で示される左チャンネル信号(以下、「OUT_L2[f]信号と称す)が入力された場合に、そのOUT_L2[f]信号を、時間領域で示される左チャンネル信号(以下、「OUT2_L[t]信号」と称す)へ変換するものである。R2ch出力処理部S90は、メイン処理部S30から出力されたもう1つの周波数領域で示される右チャンネル信号(以下、「OUT_R2[f]信号と称す)が入力された場合に、そのOUT_R2[f]信号を、時間領域で示される右チャンネル信号(以下、「OUT2_R[t]信号」と称す)へ変換するものである。L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S80およびR2ch出力処理部S90の処理の詳細は、図3を参照して後述する。 When an L2ch output processing unit S80 receives a left channel signal (hereinafter referred to as an “OUT_L2 [f] signal) output from the main processing unit S30 and indicated by another frequency domain, the OUT_L2 [f] The signal is converted into a left channel signal (hereinafter referred to as “OUT2_L [t] signal”) indicated in the time domain. The R2ch output processing unit S90 receives the OUT_R2 [f] when a right channel signal (hereinafter referred to as an “OUT_R2 [f] signal) output from the main processing unit S30 and indicated by another frequency domain is input. The signal is converted into a right channel signal (hereinafter referred to as “OUT2_R [t] signal”) shown in the time domain. Details of the processes of the L1ch output processing unit S60, the R1ch output processing unit S70, the L2ch output processing unit S80, and the R2ch output processing unit S90 will be described later with reference to FIG.
なお、第1処理部S1の各出力処理部S60〜S90から出力されるOUT_L1[f]信号、OUT_R1[f]信号、OUT_L2[f]信号およびOUT_R2[f]信号と、第2処理部S2の各出力処理部S60〜S90から出力されるOUT_L1[f]信号、OUT_R1[f]信号、OUT_L2[f]信号、およびOUT_R2[f]信号とは、それぞれ、クロスフェードで合成される。 The OUT_L1 [f] signal, the OUT_R1 [f] signal, the OUT_L2 [f] signal and the OUT_R2 [f] signal output from the output processing units S60 to S90 of the first processing unit S1, and the second processing unit S2 The OUT_L1 [f] signal, the OUT_R1 [f] signal, the OUT_L2 [f] signal, and the OUT_R2 [f] signal output from each of the output processing units S60 to S90 are respectively combined by crossfading.
次に、図3を参照して、メイン処理部30を除く、Lch解析処理部S10、Rch解析処理部S20、L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S80およびR2ch出力処理部S90で実行される処理の詳細について説明する。図3は、各部S10、S20およびS60〜S90で実行される処理を示した図である。
Next, referring to FIG. 3, the Lch analysis processing unit S10, the Rch analysis processing unit S20, the L1ch output processing unit S60, the R1ch output processing unit S70, the L2ch output processing unit S80, and the R2ch output processing, excluding the
まず、Lch解析処理部S10およびRch解析処理部S20について説明する。Lch解析処理部S10では、まず、IN_L[t]信号に対して、ハニング窓をかける処理である窓関数処理を実行する(S11)。その後、IN_L[t]信号に対して、高速フーリエ変換(FFT)を行う(S12)。この高速フーリエ変換により、IN_L[t]信号は、IN_L[f]信号へ変換される(フーリエ変換された各周波数fを横軸とするスペクトル信号となる)。なお、このIN_L[f]信号は、実数部と虚数部を持つ式(以下、「複素式」と称す)で表現される。ここで、S11の処理で、IN_L[t]信号に対してハニング窓をかけるのは、入力されたIN_L[t]信号における始点と終点とが、高速フーリエ変換へ与える影響を軽減するためである。 First, the Lch analysis processing unit S10 and the Rch analysis processing unit S20 will be described. In the Lch analysis processing unit S10, first, a window function process that is a process of applying a Hanning window to the IN_L [t] signal is executed (S11). Thereafter, Fast Fourier Transform (FFT) is performed on the IN_L [t] signal (S12). By this fast Fourier transform, the IN_L [t] signal is converted to an IN_L [f] signal (a spectrum signal having the horizontal axis of each frequency f subjected to Fourier transform). The IN_L [f] signal is expressed by an expression having a real part and an imaginary part (hereinafter referred to as “complex expression”). Here, the reason why the Hanning window is applied to the IN_L [t] signal in the process of S11 is to reduce the influence of the start point and the end point in the input IN_L [t] signal on the fast Fourier transform. .
S12の処理後、Lch解析処理部S10では、IN_L[f]信号のレベル(以下、「INL_Lv[f]」と称す)およびIN_L[f]信号の位相(以下、「INL_Ar[f]」と称す)を、各周波数f毎に算出する(S13)。具体的には、INL_Lv[f]は、IN_L[f]信号の複素式における実数部を2乗した値と、IN_L[f]信号の複素式における虚数部を2乗した値とを足し合わせ、その足し合わせた値の平方根を算出することで求める。また、INL_Ar[f]は、IN_L[f]信号の複素式における虚数部を実数部で除した値のアークタンジェント(tan^(−1))を算出することで求める。S13の処理後、メイン処理部S30の処理へと移行する。 After the processing of S12, in the Lch analysis processing unit S10, the level of the IN_L [f] signal (hereinafter referred to as “INL_Lv [f]”) and the phase of the IN_L [f] signal (hereinafter referred to as “INL_Ar [f]”). ) Is calculated for each frequency f (S13). Specifically, INL_Lv [f] is a sum of a value obtained by squaring the real part of the complex expression of the IN_L [f] signal and a value obtained by squaring the imaginary part of the complex expression of the IN_L [f] signal. It is obtained by calculating the square root of the sum of the values. Further, INL_Ar [f] is obtained by calculating an arc tangent (tan ^ (-1)) of a value obtained by dividing the imaginary part in the complex expression of the IN_L [f] signal by the real part. After the process of S13, the process proceeds to the process of the main processing unit S30.
Rch解析処理部S20では、IN_R[t]信号に対して、S21〜S23の処理が行われる。なお、このS21〜S23の処理は、S11〜S13の処理と同様の処理であり、S11〜S13の処理と異なる点は、処理対象が、IN_R[t]信号であり、IN_R[f]信号が出力される点である。よって、S21〜S23の処理の詳細な説明は省略する。なお、S23の処理後、メイン処理部S30の処理へと移行する。 In the Rch analysis processing unit S20, the processes of S21 to S23 are performed on the IN_R [t] signal. Note that the processing of S21 to S23 is the same as the processing of S11 to S13, and is different from the processing of S11 to S13 in that the processing target is the IN_R [t] signal, and the IN_R [f] signal is This is the output point. Therefore, the detailed description of the processing of S21 to S23 is omitted. In addition, after the process of S23, it transfers to the process of main process part S30.
次に、L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S70、R2ch出力処理部S90について説明する。 Next, the L1ch output processing unit S60, the R1ch output processing unit S70, the L2ch output processing unit S70, and the R2ch output processing unit S90 will be described.
L1ch出力処理部S60では、まず、逆高速フーリエ変換(逆FFT)が実行される(S61)。この処理では、具体的には、メイン処理部S30で算出されたOUT_L1[f]信号と、Lch解析処理部S10のS13の処理で算出されたINL_Ar[f]とを使用して、複素式を求め、その複素式に対して、逆高速フーリエ変換を行う。その後、逆高速フーリエ変換で算出された値に対して、Lch解析処理部S10およびRch解析処理部S20で使用したハニング窓と同一の窓をかける窓関数処理を実行する(S62)。例えば、Lch解析処理部S10およびRch解析処理部S20で使用した窓関数が、ハニング窓であるとすれば、S62の処理でも、ハニング窓を、逆高速フーリエ変換で算出した値に対してかける。これにより、OUT1_L[t]信号が生成される。なお、S62の処理で、逆高速フーリエ変換で算出された値に対してハニング窓をかけるのは、各出力処理部S60〜S90から出力される信号をクロスフェードしながら合成するためである。 In the L1ch output processing unit S60, first, inverse fast Fourier transform (inverse FFT) is performed (S61). In this process, specifically, a complex expression is obtained by using the OUT_L1 [f] signal calculated by the main processing unit S30 and the INL_Ar [f] calculated by S13 of the Lch analysis processing unit S10. The inverse fast Fourier transform is performed on the complex expression. Thereafter, a window function process for applying the same window as the Hanning window used in the Lch analysis processing unit S10 and the Rch analysis processing unit S20 is executed on the value calculated by the inverse fast Fourier transform (S62). For example, if the window function used in the Lch analysis processing unit S10 and the Rch analysis processing unit S20 is a Hanning window, the Hanning window is applied to the value calculated by the inverse fast Fourier transform in the processing of S62. Thereby, an OUT1_L [t] signal is generated. The reason why the Hanning window is applied to the value calculated by the inverse fast Fourier transform in the processing of S62 is to synthesize the signals output from the output processing units S60 to S90 while cross-fading.
R1ch出力処理部S70では、S71〜S72の処理が行われる。なお、このS71〜S72の処理は、S61〜S62の処理と同様の処理であり、S61〜S62の処理と異なる点は、逆高速フーリエ変換で使用する複素式を求める際の値が、メイン処理部S30で算出されたOUT_R1[f]信号と、Rch解析処理部S20のS23の処理で算出されたINR_Ar[f]となるところである。それ以外は、S61〜S62の処理と同一である。よって、S71〜S72の処理の詳細な説明は省略する。 In the R1ch output processing unit S70, the processes of S71 to S72 are performed. Note that the processing of S71 to S72 is the same as the processing of S61 to S62. The difference from the processing of S61 to S62 is that the value for obtaining the complex expression used in the inverse fast Fourier transform is the main processing. The OUT_R1 [f] signal calculated in the unit S30 and the INR_Ar [f] calculated in the process of S23 of the Rch analysis processing unit S20. Other than that, it is the same as the process of S61-S62. Therefore, detailed description of the processing of S71 to S72 is omitted.
また、L2ch出力処理部S80では、S81〜S82の処理が行われる。なお、このS81〜S82の処理は、S61〜S62の処理と同様の処理であり、S61〜S62の処理と異なる点は、逆高速フーリエ変換で使用する複素式を求める際の値が、メイン処理部S30で算出されたOUT_L2[f]信号となるところである(Lch解析処理部S10のS13の処理で算出されたINL_Ar[f]を使用するところは同じ)。それ以外は、S61〜S62の処理と同一である。よって、S81〜S82の処理の詳細な説明は省略する。 In the L2ch output processing unit S80, the processes of S81 to S82 are performed. Note that the processing of S81 to S82 is the same as the processing of S61 to S62. The difference from the processing of S61 to S62 is that the value for obtaining the complex expression used in the inverse fast Fourier transform is the main processing. This is the OUT_L2 [f] signal calculated in the unit S30 (the same applies to the INL_Ar [f] calculated in the process of S13 of the Lch analysis processing unit S10). Other than that, it is the same as the process of S61-S62. Therefore, detailed description of the processing of S81 to S82 is omitted.
また、R2ch出力処理部S90では、S91〜S92の処理が行われる。なお、このS91〜S92の処理は、S61〜S62の処理と同様の処理であり、S61〜S62の処理と異なる点は、逆高速フーリエ変換で使用する複素式を求める際の値が、メイン処理部S30で算出されたOUT_R2[f]信号と、Rch解析処理部S20のS23の処理で算出されたINR_Ar[f]となるところである。それ以外は、S61〜S62の処理と同一である。よって、S91〜S92の処理の詳細は省略する。 In the R2ch output processing unit S90, the processes of S91 to S92 are performed. Note that the processing of S91 to S92 is the same as the processing of S61 to S62. The difference from the processing of S61 to S62 is that the value for obtaining the complex expression used in the inverse fast Fourier transform is the main processing. The OUT_R2 [f] signal calculated in the unit S30 and the INR_Ar [f] calculated in the process of S23 of the Rch analysis processing unit S20. Other than that, it is the same as the process of S61-S62. Therefore, details of the processing of S91 to S92 are omitted.
次に、図4を参照して、メイン処理部S30で実行される処理の詳細について説明する。図4は、メイン処理部S30で実行される処理を示した図である。 Next, with reference to FIG. 4, the detail of the process performed by main process part S30 is demonstrated. FIG. 4 is a diagram illustrating processing executed in the main processing unit S30.
メイン処理部S30では、まず、IN_L[t]信号及びIN_R[t]信号に対して行ったフーリエ変換(S12、S22)により得られた各周波数毎に定位w[f]を求めると共に、INL_Lv[f]とINR_Lv[f]とのうち、大きいほうのレベルを、各周波数における最大レベルML[f]として設定する(S31)。S31で求められた定位w[f]および設定された最大レベルML[f]は、RAM16の所定領域に記憶される。なお、S31において、定位w[f]は、(1/π)×(arctan(INR_Lv[f]/INL_Lv[f])+0.25で求められる。よって、任意の基準点で楽音を受音した場合に、即ち、任意の基準点でIN_L[t]およびIN_R[t]を入力した場合に、INR_Lv[f]がINL_Lv[f]に対して十分大きければ、定位w[f]は0.75となる一方、INL_Lv[f]がINR_Lv[f]に対して十分大きければ、定位w[f]は0.25となる。
In the main processing unit S30, first, the localization w [f] is obtained for each frequency obtained by the Fourier transform (S12, S22) performed on the IN_L [t] signal and the IN_R [t] signal, and the INL_Lv [ The larger level of f] and INR_Lv [f] is set as the maximum level ML [f] at each frequency (S31). The localization w [f] obtained in S31 and the set maximum level ML [f] are stored in a predetermined area of the
次に、メモリのクリアを行う(S32)。具体的には、RAM16の内部に設けられた、1L[f]メモリ、1R[f]メモリ、2L[f]メモリおよび2R[f]メモリをゼロクリアする。なお、1L[f]メモリおよび1R[f]メモリは、メイン処理部S30から出力されるOUT_L1[f]信号およびOUT_R1[f]信号によって形成される定位を変更する場合に使用されるメモリであり、2L[f]メモリおよび2R[f]メモリは、メイン処理部S30から出力されるOUT_L2[f]信号およびOUT_R2[f]信号によって形成される定位を変更する場合に使用されるメモリである。
Next, the memory is cleared (S32). Specifically, the 1L [f] memory, 1R [f] memory, 2L [f] memory, and 2R [f] memory provided in the
S32の実行後、第1取り出し処理(S100)、第2取り出し処理(S200)および指定以外を取り出す処理(S300)がそれぞれ実行される。第1取り出し処理(S100)は、予め設定された第1条件で、信号処理を施す対象となる信号を、つまり抽出信号を抽出する処理であり、第2取り出し処理(S200)は、予め設定された第2条件で、抽出信号を抽出する処理である。また、指定以外を取り出す処理(S300)は、第1条件および第2条件以外で、抽出信号を抽出する処理である。なお、指定以外を取り出す処理(S300)は、第1取り出し処理(S100)および第2取り出し処理(S200)の処理結果を使用するので、第1取り出し処理(S100)および第2取り出し処理(S200)の処理完了後に実行される。 After the execution of S32, a first extraction process (S100), a second extraction process (S200), and a process for extracting items other than the designation (S300) are executed. The first extraction process (S100) is a process of extracting a signal to be subjected to signal processing under a first condition set in advance, that is, an extraction signal, and the second extraction process (S200) is preset. This is a process of extracting the extraction signal under the second condition. Moreover, the process (S300) which takes out other than designation | designated is a process which extracts an extraction signal on conditions other than the 1st condition and the 2nd condition. In addition, since the process (S300) for taking out items other than the designation uses the processing results of the first take-out process (S100) and the second take-out process (S200), the first take-out process (S100) and the second take-out process (S200). It is executed after the process is completed.
第1取り出し処理(S100)の実行後は、その処理(S100)で抽出された抽出信号へ信号処理を施す第1信号処理が実行される(S110)。また、第2取り出し処理(S200)の実行後は、その処理(S200)で抽出された抽出信号へ信号処理を施す第2信号処理が実行される(S210)。更に、指定以外を取り出す処理(S300)の実行後は、その処理(S300)で抽出された抽出信号へ信号処理を施す指定外信号処理が実行される(S310)。 After the execution of the first extraction process (S100), a first signal process for performing signal processing on the extracted signal extracted in the process (S100) is executed (S110). Further, after the execution of the second extraction process (S200), a second signal process is performed (S210) for performing signal processing on the extracted signal extracted in the process (S200). Further, after execution of the processing for extracting non-designation (S300), non-designated signal processing for performing signal processing on the extracted signal extracted in the processing (S300) is executed (S310).
ここで、図5を参照して、第1取り出し処理(S100)、第1信号処理(S110)、第2取り出し処理(S200)および第2信号処理(S210)を説明し、次に、図6を参照して、指定以外を取り出す処理(S300)および指定外信号処理(S310)を説明する。 Here, the first extraction process (S100), the first signal process (S110), the second extraction process (S200), and the second signal process (S210) will be described with reference to FIG. Referring to FIG. 4, the process for extracting non-designation (S300) and the non-designation signal process (S310) will be described.
まず、第1取り出し処理(S100)、第1信号処理(S110)、第2取り出し処理(S200)および第2信号処理(S210)について説明する。図5は、第1取り出し処理(S100)、第1信号処理(S110)、第2取り出し処理(S200)および第2信号処理(S210)で行われる処理の詳細を示した図である。 First, the first extraction process (S100), the first signal process (S110), the second extraction process (S200), and the second signal process (S210) will be described. FIG. 5 is a diagram showing details of processing performed in the first extraction processing (S100), the first signal processing (S110), the second extraction processing (S200), and the second signal processing (S210).
第1取り出し処理(S100)では、周波数fが、予め設定された第1周波数範囲内であり、かつ、第1周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第1設定範囲内であるか否か、即ち、楽音信号が第1条件を満たすか否かが判定される(S101)。周波数fが、予め設定された第1周波数範囲内であり、かつ、第1周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第1設定範囲内である場合には(S101:Yes)、その周波数fにおける楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号であると判定され、配列rel[f][1]に1.0が代入される(S102)。なお、図面上では、配列relにおける「l(エル)」部分を、筆記体のエルとして表示している。配列rel[f][1]に記載のfには、S101でYesと判定された時点の周波数が代入される。また、配列rel[f][1]に記載の1は、配列rel[f][1]が、第1取り出し処理(S100)における抽出信号であることを示している。 In the first extraction process (S100), the frequency f is within a preset first frequency range, and the localization w [f] and the maximum level ML [f] in the frequency within the first frequency range are respectively It is determined whether it is within a preset first setting range, that is, whether the musical sound signal satisfies the first condition (S101). The frequency f is within a preset first frequency range, and the localization w [f] and the maximum level ML [f] at a frequency within the first frequency range are each within a preset first set range. (S101: Yes), it is determined that the tone signal (left channel signal and right channel signal) at the frequency f is an extracted signal, and 1.0 is assigned to the array rel [f] [1]. (S102). In the drawing, the “l (el)” portion in the array rel is displayed as a curly elbow. The frequency at the time point determined as Yes in S101 is substituted into f described in the array rel [f] [1]. Moreover, 1 described in the array rel [f] [1] indicates that the array rel [f] [1] is an extraction signal in the first extraction process (S100).
なお、周波数fが、予め設定された第1周波数範囲内でないか、または、第1周波数範囲内の周波数fにおける定位w[f]が第1設定範囲内でないか、或いは、第1周波数範囲内の周波数fにおける最大レベルML[f]が、第1設定範囲内でない場合には(S101:No)、その周波数fにおける楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号でないと判定され、配列rel[f][1]に0.0が代入される(S103)。 The frequency f is not within the preset first frequency range, or the localization w [f] at the frequency f within the first frequency range is not within the first set range, or is within the first frequency range. If the maximum level ML [f] at the frequency f is not within the first setting range (S101: No), it is determined that the tone signals (left channel signal and right channel signal) at the frequency f are not extracted signals. 0.0 is substituted into the array rel [f] [1] (S103).
S102またはS103の処理後、フーリエ変換された全ての周波数について、S101の処理が完了したか否かが判定され(S104)、S104の判定が否定される場合には(S104:No)、S101の処理へ戻る一方、S104の判定が肯定される場合には(S104:Yes)、第1信号処理(S110)へ移行する。 After the process of S102 or S103, it is determined whether or not the process of S101 is completed for all the Fourier-transformed frequencies (S104). If the determination of S104 is negative (S104: No), the process of S101 On the other hand, if the determination in S104 is affirmative (S104: Yes), the process proceeds to the first signal process (S110).
第1信号処理(S110)では、OUT_L1[f]信号の一部となる1L[f]信号のレベルを調整すると共に、OUT_R1[f]信号の一部となる1R[f]信号のレベルを調整することで、第1取り出し処理(S100)での抽出信号によって形成される定位(メインスピーカから出力される分)を調整するS111の処理が行われる。また、このS111の処理と平行して、第1信号処理(S110)では、OUT_L2[f]信号の一部となる2L[f]信号のレベルを調整すると共に、OUT_R2[f]信号の一部となる2R[f]信号のレベルを調整することで、第1取り出し処理(S100)での抽出信号によって形成される定位(サブスピーカから出力される分)を調整するS114の処理が行われる。 In the first signal processing (S110), the level of the 1L [f] signal that is a part of the OUT_L1 [f] signal is adjusted, and the level of the 1R [f] signal that is a part of the OUT_R1 [f] signal is adjusted. Thus, the process of S111 for adjusting the localization (the amount output from the main speaker) formed by the extraction signal in the first extraction process (S100) is performed. In parallel with the processing of S111, in the first signal processing (S110), the level of the 2L [f] signal that is a part of the OUT_L2 [f] signal is adjusted and a part of the OUT_R2 [f] signal is adjusted. By adjusting the level of the 2R [f] signal, the process of S114 for adjusting the localization (the amount output from the sub-speaker) formed by the extracted signal in the first extraction process (S100) is performed.
S111の処理では、OUT_L1[f]信号の一部となる1L[f]信号が算出される。具体的には、「INL_Lv[f]×ll+INR_Lv[f]×lr)×rel[f][1]×a」が、IN_L[t]信号及びIN_R[t]信号に対して行ったフーリエ変換(S12、S22)により得られた全ての周波数について行われて、1L[f]信号が算出される。同様に、S111の処理では、OUT_R1[f]信号の一部となる1R[f]信号が算出される。具体的には、「INL_Lv[f]×rl+INR_Lv[f]×rr)×rel[f][1]×a」が、S12,S22においてフーリエ変換された全ての周波数について行われて、1R[f]信号が算出される。 In the processing of S111, a 1L [f] signal that is a part of the OUT_L1 [f] signal is calculated. Specifically, “INL_Lv [f] × ll + INR_Lv [f] × lr) × rel [f] [1] × a” is a Fourier transform performed on the IN_L [t] signal and the IN_R [t] signal ( This is performed for all the frequencies obtained in S12, S22), and a 1L [f] signal is calculated. Similarly, in the process of S111, a 1R [f] signal that is a part of the OUT_R1 [f] signal is calculated. Specifically, “INL_Lv [f] × rl + INR_Lv [f] × rr) × rel [f] [1] × a” is performed for all the frequencies subjected to Fourier transform in S12 and S22, and 1R [f ] Signal is calculated.
なお、aは、第1信号処理に対して予め定められた係数であり、ll,lr,rl,rrは、楽音信号(左チャンネル信号、右チャンネル信号)から求められる定位w[f]と、第1信号処理に対して予め定められた目標とする定位(例えば、0.25〜0.75の範囲内の値)とに応じて決定される係数である。なお、図面上では、「l(エル)」を、筆記体のエルとして表記している。ここで、図7を参照して、ll,lr,rl,rrについて説明する。図7は、定位w[f]と目標とする定位とに応じて決定される各係数を説明するためのグラフである。図7のグラフにおいて、横軸は、(目標とする定位−定位w[f]+0.5)の値であり、縦軸は、各係数(ll,lr,rl,rr,ll´,lr´,rl´,rr´)である。 Here, a is a coefficient predetermined for the first signal processing, and ll, lr, rl, rr are localization w [f] obtained from the musical sound signals (left channel signal, right channel signal); It is a coefficient determined in accordance with a target localization (for example, a value within a range of 0.25 to 0.75) predetermined for the first signal processing. In the drawing, “l (el)” is written as cursive el. Here, ll, lr, rl, and rr will be described with reference to FIG. FIG. 7 is a graph for explaining each coefficient determined according to the localization w [f] and the target localization. In the graph of FIG. 7, the horizontal axis is a value of (target localization−localization w [f] +0.5), and the vertical axis is each coefficient (ll, lr, rl, rr, ll ′, lr ′). , Rl ′, rr ′).
llとrrとの関係は、図7(a)に示す通りである。よって、(目標とする定位−定位w[f]+0.5)の値が0.5である場合に、llとrrとは、互いに最大の係数となる。逆に、lrとrlとの関係は、図7(b)に示すようになり、(目標とする定位−定位w[f]+0.5)の値が0.5である場合に、lrとrlとは、互いに最小の(ゼロの)係数となる。 The relationship between ll and rr is as shown in FIG. Therefore, when the value of (target localization−localization w [f] +0.5) is 0.5, ll and rr are the maximum coefficients. On the other hand, the relationship between lr and rl is as shown in FIG. 7B, and when the value of (target localization-localization w [f] +0.5) is 0.5, rl is the smallest (zero) coefficient between each other.
図5の説明に戻る。S111の処理後、1L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S112)。なお、ピッチ変更、レベル変更、及びリバーブ付与(所謂、コンボリューション・リバーブ)については、いずれも公知技術であるので、それらの具体的説明は省略する。1L[f]信号に対してS112の処理が行われると、OUT_L1[f]信号を構成する1L_1[f]信号が生成される。同様に、S111の処理後、1R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S113)。1R[f]信号に対してS113の処理が行われると、OUT_R1[f]信号を構成する1R_1[f]信号が生成される。 Returning to the description of FIG. After the processing of S111, processing for performing pitch change, level change, and reverberation is performed on the 1L [f] signal (S112). Note that pitch change, level change, and reverberation (so-called convolution reverb) are all well-known techniques and will not be described in detail. When the process of S112 is performed on the 1L [f] signal, the 1L_1 [f] signal constituting the OUT_L1 [f] signal is generated. Similarly, after the processing of S111, processing for performing pitch change, level change, and reverberation is performed on the 1R [f] signal (S113). When the process of S113 is performed on the 1R [f] signal, the 1R_1 [f] signal constituting the OUT_R1 [f] signal is generated.
また、S114の処理では、OUT_L2[f]信号の一部となる2L[f]信号が算出される。具体的には、「INL_Lv[f]×ll´+INR_Lv[f]×lr´)×rel[f][1]×b」が、IN_L[t]信号及びIN_R[t]信号に対して行ったフーリエ変換(S12、S22)により得られた全ての周波数について行われて、2L[f]信号が算出される。同様に、S114の処理では、OUT_R2[f]信号の一部となる2R[f]信号が算出される。具体的には、「INL_Lv[f]×rl´+INR_Lv[f]×rr´)×rel[f][1]×b」が、S12,S22においてフーリエ変換された全ての周波数について行われて、2R[f]信号が算出される。 In the process of S114, a 2L [f] signal that is a part of the OUT_L2 [f] signal is calculated. Specifically, “INL_Lv [f] × ll ′ + INR_Lv [f] × lr ′) × rel [f] [1] × b” was performed on the IN_L [t] and IN_R [t] signals. This is performed for all the frequencies obtained by the Fourier transform (S12, S22), and a 2L [f] signal is calculated. Similarly, in the process of S114, a 2R [f] signal that is a part of the OUT_R2 [f] signal is calculated. Specifically, “INL_Lv [f] × rl ′ + INR_Lv [f] × rr ′) × rel [f] [1] × b” is performed for all the frequencies subjected to Fourier transform in S12 and S22. A 2R [f] signal is calculated.
なお、bは、第1信号処理に対して予め定められた係数である。この係数bは、係数aと同じであっても異なっていてもよい。また、ll´,lr´,rl´,rr´は、楽音信号から求められる定位w[f]と、第2信号処理に対して予め定められた目標とする定位(例えば、0.25〜0.75の範囲内の値)とによって決定される係数である。ここで、図7を参照して、ll´,lr´,rl´,rr´について説明する。ll´とrr´との関係は、図7(a)に示すようになり、(目標とする定位−定位w[f]+0.5)の値が0.0である場合に、ll´は最大の係数となる一方で、rr´は最小の(ゼロの)係数となる。逆に、(目標とする定位−定位w[f]+0.5)の値が1.0である場合に、ll´は最小の(ゼロの)係数となる一方で、rr´は最大の係数となる。 Note that b is a coefficient predetermined for the first signal processing. This coefficient b may be the same as or different from the coefficient a. In addition, ll ′, lr ′, rl ′, rr ′ are the localization w [f] obtained from the musical tone signal and the target localization predetermined for the second signal processing (for example, 0.25-0) A value in the range of .75). Here, ll ′, lr ′, rl ′, rr ′ will be described with reference to FIG. The relationship between ll ′ and rr ′ is as shown in FIG. 7A. When the value of (target localization−localization w [f] +0.5) is 0.0, ll ′ is While it is the largest coefficient, rr ′ is the smallest (zero) coefficient. Conversely, when the value of (target localization-localization w [f] +0.5) is 1.0, ll ′ is the minimum (zero) coefficient, while rr ′ is the maximum coefficient. It becomes.
同様に、lr´とrl´との関係は、図7(b)に示すようになり、(目標とする定位−定位w[f]+0.5)の値が0.0である場合に、lr´は最大の係数となる一方で、rl´は最小の(ゼロの)係数となる。逆に、(目標とする定位−定位w[f]+0.5)の値が1.0である場合に、lr´は最小の(ゼロの)係数となる一方で、rl´は最大の係数となる。 Similarly, the relationship between lr ′ and rl ′ is as shown in FIG. 7B, and when the value of (target localization−localization w [f] +0.5) is 0.0, lr ′ is the largest coefficient, while rl ′ is the smallest (zero) coefficient. Conversely, when the value of (target localization-localization w [f] +0.5) is 1.0, lr ′ is the minimum (zero) coefficient, while rl ′ is the maximum coefficient. It becomes.
図5の説明に戻る。S114の処理後、2L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S115)。2L[f]信号に対してS115の処理が行われると、OUT_L2[f]信号を構成する2L_1[f]信号が生成される。同様に、S114の処理後、2R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S116)。2R[f]信号に対してS116の処理が行われると、OUT_R2[f]信号を構成する2R_1[f]信号が生成される。 Returning to the description of FIG. After the process of S114, processing for changing the pitch, changing the level, and applying reverb is performed on the 2L [f] signal (S115). When the process of S115 is performed on the 2L [f] signal, the 2L_1 [f] signal constituting the OUT_L2 [f] signal is generated. Similarly, after the process of S114, a process for changing the pitch, changing the level, and applying a reverb is performed on the 2R [f] signal (S116). When the process of S116 is performed on the 2R [f] signal, the 2R_1 [f] signal constituting the OUT_R2 [f] signal is generated.
第1取り出し処理S100と平行して実行される第2取り出し処理S200では、周波数fが、予め設定された第2周波数範囲内であり、かつ、第2周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第2設定範囲内であるか否か、即ち、楽音信号が第2条件を満たすか否かが判定される(S201)。本実施形態では、第2周波数範囲は、第1周波数範囲とは異なる範囲(範囲開始と範囲終了とが完全には一致しない範囲)であり、第2設定範囲は、第1設定範囲とは異なる範囲(範囲開始と範囲終了とが完全には一致しない範囲)とする。なお、第2周波数範囲は、第1周波数範囲に一部重なる範囲であってもよいし、第1周波数範囲と完全に一致する範囲であってもよい。第2設定範囲もまた、第1設定範囲に一部重なる範囲であってもよく、第1設定範囲と完全に一致する範囲であってもよい。 In the second extraction process S200 executed in parallel with the first extraction process S100, the frequency f is within the preset second frequency range, and the localization w [f] at a frequency within the second frequency range. It is then determined whether or not the maximum level ML [f] is within a preset second setting range, that is, whether or not the musical tone signal satisfies the second condition (S201). In the present embodiment, the second frequency range is a range different from the first frequency range (a range where the range start and the range end do not completely match), and the second set range is different from the first set range. A range (a range where the start and end of the range do not completely match) is assumed. The second frequency range may be a range that partially overlaps the first frequency range, or may be a range that completely coincides with the first frequency range. The second setting range may also be a range that partially overlaps the first setting range, or may be a range that completely matches the first setting range.
周波数fが、予め設定された第2周波数範囲内であり、かつ、第2周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第2設定範囲内である場合には(S201:Yes)、その周波数fにおける楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号であると判定され、配列rel[f][2]に1.0が代入される(S102)。なお、配列rel[f][2]に記載の2は、配列rel[f][2]が、第2取り出し処理S200における抽出信号であることを示している。 The frequency f is within a preset second frequency range, and the localization w [f] and the maximum level ML [f] at a frequency within the second frequency range are each within a preset second set range. (S201: Yes), the tone signal (left channel signal and right channel signal) at the frequency f is determined to be an extracted signal, and 1.0 is assigned to the array rel [f] [2]. (S102). Note that 2 described in the array rel [f] [2] indicates that the array rel [f] [2] is an extraction signal in the second extraction process S200.
なお、周波数fが、予め設定された第2周波数範囲内でないか、または、第2周波数範囲内の周波数fにおける定位w[f]が第2設定範囲内でないか、或いは、第2周波数範囲内の周波数fにおける最大レベルML[f]が、第2設定範囲内でない場合には(S201:No)、その周波数fにおける楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号でないと判定され、配列rel[f][2]に0.0が代入される(S203)。 The frequency f is not within the preset second frequency range, or the localization w [f] at the frequency f within the second frequency range is not within the second set range, or is within the second frequency range. If the maximum level ML [f] at the frequency f is not within the second setting range (S201: No), it is determined that the tone signals (left channel signal and right channel signal) at the frequency f are not extracted signals. 0.0 is substituted into the array rel [f] [2] (S203).
S202またはS203の処理後、フーリエ変換された全ての周波数について、S201の処理が完了したか否かが判定され(S204)、S204の判定が否定される場合には(S204:No)、S201の処理へ戻る一方、S204の判定が肯定される場合には(S204:Yes)、第2信号処理(S210)へ移行する。 After the process of S202 or S203, it is determined whether or not the process of S201 has been completed for all the Fourier-transformed frequencies (S204). If the determination of S204 is negative (S204: No), the process of S201 On the other hand, if the determination in S204 is affirmative (S204: Yes), the process proceeds to the second signal process (S210).
第2信号処理(S210)では、OUT_L1[f]信号の一部となる1L[f]信号のレベルを調整すると共に、OUT_R1[f]信号の一部となる1R[f]信号のレベルを調整することで、第2取り出し処理(S200)での抽出信号によって形成される定位(メインスピーカから出力される分)を調整するS211の処理が行われる。また、このS211の処理と平行して、第2信号処理(S210)では、OUT_L2[f]信号の一部となる2L[f]信号のレベルを調整すると共に、OUT_R2[f]信号の一部となる2R[f]信号のレベルを調整することで、第2取り出し処理(S200)での抽出信号によって形成される定位(サブスピーカから出力される分)を調整するS214の処理が行われる。 In the second signal processing (S210), the level of the 1L [f] signal that is a part of the OUT_L1 [f] signal is adjusted, and the level of the 1R [f] signal that is a part of the OUT_R1 [f] signal is adjusted. Thus, the process of S211 for adjusting the localization (the amount output from the main speaker) formed by the extracted signal in the second extraction process (S200) is performed. In parallel with the processing of S211, in the second signal processing (S210), the level of the 2L [f] signal that is a part of the OUT_L2 [f] signal is adjusted, and a part of the OUT_R2 [f] signal is adjusted. By adjusting the level of the 2R [f] signal, the process of S214 for adjusting the localization (the amount output from the sub-speaker) formed by the extracted signal in the second extraction process (S200) is performed.
ここで、第2信号処理(S210)におけるS211〜S216の各処理は、以下に説明する点が異なっていること以外は、第1信号処理(S110)におけるS111〜S116の各処理と同様に行われるので、その説明は省略する。第2信号処理(S210)と第1信号処理(S110)との第1の相違点は、第1信号処理に入力される信号が、第1取り出し処理(S100)からの抽出信号であるのに対し、第2信号処理に入力される信号は、第2取り出し処理(S200)からの抽出信号である点であり、第2の相違点は、第1信号処理では、配列rel[f][1]を用いるのに対し、第2信号処理では、配列rel[f][2]をそれぞれ用いる点であり、第3の相違点は、第1信号処理から出力される信号が、1L_1[f]、1R_1[f]、1L_2[f]、及び1R_2[f]であるのに対し、第2信号処理から出力される信号は、2L_1[f]、2R_1[f]、2L_2[f]、及び2R_2[f]である点である。 Here, each process of S211 to S216 in the second signal process (S210) is the same as each process of S111 to S116 in the first signal process (S110) except that the points described below are different. Therefore, the description thereof is omitted. The first difference between the second signal processing (S210) and the first signal processing (S110) is that the signal input to the first signal processing is an extraction signal from the first extraction processing (S100). On the other hand, the signal input to the second signal processing is an extraction signal from the second extraction processing (S200), and the second difference is that in the first signal processing, the array rel [f] [1 ] Is used in the second signal processing, the array rel [f] [2] is used, and the third difference is that the signal output from the first signal processing is 1L_1 [f]. 1R_1 [f], 1L_2 [f], and 1R_2 [f], the signals output from the second signal processing are 2L_1 [f], 2R_1 [f], 2L_2 [f], and 2R_2. The point is [f].
なお、第1信号処理(S110)で目標とする定位と、第2信号処理(S210)で目標とする定位とは、同じであっても異なっていてもよい。つまり、第1信号処理と第2信号処理とで目標とする定位が異なる場合には、第1信号処理で用いる係数ll,lr,rl,rr,ll´,lr´,rl´,rr´と、第2信号処理で用いる係数ll,lr,rl,rr,ll´,lr´,rl´,rr´が異なることになる。また、第1信号処理で用いる係数a,bと、第2信号処理で用いる係数a,bとは、同じであっても異なっていてもよい。また、第1信号処理の中で実行される加工処理S112,S113,S115,S116の内容と、第2信号処理(S210)の中で実行される加工処理S212,S213,S215,S216の内容は、同じであっても異なっていてもよい。 Note that the target localization in the first signal processing (S110) and the target localization in the second signal processing (S210) may be the same or different. That is, when the target localization is different between the first signal processing and the second signal processing, the coefficients ll, rr, rl, rr, ll ′, rr ′, rl ′, rr ′ used in the first signal processing The coefficients ll, lr, rl, rr, ll ′, lr ′, rl ′, rr ′ used in the second signal processing are different. Further, the coefficients a and b used in the first signal processing and the coefficients a and b used in the second signal processing may be the same or different. The contents of the processing processes S112, S113, S115, and S116 executed in the first signal processing and the contents of the processing processes S212, S213, S215, and S216 executed in the second signal processing (S210) are as follows. , May be the same or different.
次に、指定以外を取り出す処理(S300)および指定外信号処理(S310)について説明する。図6は、指定以外を取り出す処理(S300)および指定外信号処理(S310)で行われる処理の詳細を示した図である。 Next, a process for extracting non-designation (S300) and a non-designation signal process (S310) will be described. FIG. 6 is a diagram showing the details of the processing performed in the processing for extracting non-designation (S300) and non-designated signal processing (S310).
指定以外を取り出す処理(S300)では、まず、S12,S22においてフーリエ変換された周波数のうち、最も低い周波数におけるrel[f][1]が0.0であり、かつ、最も低い周波数におけるrel[f][2]が0.0であるか、即ち、最も低い周波数における楽音信号(左チャンネル信号および右チャンネル信号)が抽出信号として、第1取り出し処理(S100)または第2取り出し処理(S200)で抽出されていないかを判定する(S301)。なお、本実施形態では、第1取り出し処理(S100)におけるS102,S103で設定されたrel[f][1]の値、及び、第2取り出し処理(S200)におけるS202,S203で設定されたrel[f][2]の値を用いてS301の判定を行うものとする。また、S301の処理を行う前に、第1、第2取り出し処理(S100,S200)と同様の処理を別途実行し、その際に得られたrel[f][1]の値及びrel[f][2]の値を用いてS301の判定を行ってもよい。 In the process of extracting other than specified (S300), first, rel [f] [1] at the lowest frequency among the frequencies subjected to Fourier transform in S12 and S22 is 0.0, and rel [f] at the lowest frequency is selected. f] [2] is 0.0, that is, the tone signal (left channel signal and right channel signal) at the lowest frequency is used as an extraction signal, the first extraction process (S100) or the second extraction process (S200). (S301). In the present embodiment, the value of rel [f] [1] set in S102 and S103 in the first extraction process (S100) and the rel set in S202 and S203 in the second extraction process (S200). Assume that the determination in S301 is performed using the values of [f] and [2]. Further, before performing the process of S301, a process similar to the first and second extraction processes (S100, S200) is separately executed, and the value of rel [f] [1] and rel [f obtained at that time are obtained. ] The determination in S301 may be performed using the value of [2].
最も低い周波数におけるrel[f][1]が0.0であり、かつ、最も低い周波数におけるrel[f][2]が0.0である場合には(S301:Yes)、最も低い周波数における楽音信号が抽出信号として、第1取り出し処理(S100)または第2取り出し処理(S200)で未だ抽出されていないと判定されて、配列remain[f]に、1.0を代入する(S302)。ここで、remain[f]に代入される1.0は、最も低い周波数における楽音信号が指定以外を取り出す処理(S300)における抽出信号であることを示している。なお、remain[f]に記載のfには、S301でYesと判定された時点の周波数が代入される。 When rel [f] [1] at the lowest frequency is 0.0 and rel [f] [2] at the lowest frequency is 0.0 (S301: Yes), at the lowest frequency It is determined that the tone signal has not yet been extracted as an extraction signal in the first extraction process (S100) or the second extraction process (S200), and 1.0 is substituted into the array remain [f] (S302). Here, 1.0 assigned to “remain [f]” indicates that the tone signal at the lowest frequency is an extracted signal in the process (S300) for extracting a non-designated signal. It should be noted that the frequency at the time when Yes is determined in S301 is substituted for f described in “remain [f]”.
一方、最も低い周波数におけるrel[f][1]が1.0である場合、または、最も低い周波数におけるrel[f][2]が1.0である場合、或いは、両方が1.0である場合には(S301:No)、最も低い周波数における楽音信号が抽出信号として、第1取り出し処理S100または第2取り出し処理S200で既に抽出されていると判定され、配列remain[f]に、0.0を代入する(S302)。ここで、remain[f]に代入される0.0は、最も低い周波数における楽音信号が指定以外を取り出す処理(S300)における抽出信号とはならないことを示している。 On the other hand, when rel [f] [1] at the lowest frequency is 1.0, or when rel [f] [2] at the lowest frequency is 1.0, or both are 1.0. In some cases (S301: No), it is determined that the musical tone signal at the lowest frequency has already been extracted as the extraction signal in the first extraction process S100 or the second extraction process S200, and the array remain [f] contains 0. .0 is substituted (S302). Here, 0.0 assigned to “remain [f]” indicates that the tone signal at the lowest frequency is not an extraction signal in the process (S300) for extracting other than specified.
S302またはS303の処理後、S12,S22においてフーリエ変換された全ての周波数について、S301の処理が完了したか否かが判定され(S304)、S304の判定が否定される場合には(S304:No)、S301の処理へ戻り、S301の判定が未だ行われていない周波数のうち、最も低い周波数に対して、S301の判定が行われる一方、S304の判定が肯定される場合には(S304:Yes)、指定外信号処理(S310)へ移行する。 After the process of S302 or S303, it is determined whether or not the process of S301 has been completed for all the frequencies subjected to Fourier transform in S12 and S22 (S304). If the determination of S304 is negative (S304: No) ), The process returns to the process of S301, and the determination of S301 is performed for the lowest frequency among the frequencies for which the determination of S301 has not been performed. On the other hand, if the determination of S304 is affirmative (S304: Yes) ), The process proceeds to non-designated signal processing (S310).
指定外信号処理(S310)では、OUT_L1[f]信号の一部となる1L[f]信号のレベルを調整すると共に、OUT_R1[f]信号の一部となる1R[f]信号のレベルを調整することで、指定以外を取り出す処理(S300)での抽出信号によって形成される定位(メインスピーカから出力される分)を調整するS311の処理が行われる。また、このS311の処理と平行して、指定外信号処理(S310)では、OUT_L2[f]信号の一部となる2L[f]信号のレベルを調整すると共に、OUT_R2[f]信号の一部となる2R[f]信号のレベルを調整することで、指定以外を取り出す処理(S300)での抽出信号によって形成される定位(サブスピーカから出力される分)を調整するS314の処理が行われる。 In the non-designated signal processing (S310), the level of the 1L [f] signal that is a part of the OUT_L1 [f] signal is adjusted, and the level of the 1R [f] signal that is a part of the OUT_R1 [f] signal is adjusted. Thus, the process of S311 for adjusting the localization (the amount output from the main speaker) formed by the extracted signal in the process (S300) of extracting other than the designation is performed. In parallel with the processing of S311, in the non-designated signal processing (S310), the level of the 2L [f] signal that is a part of the OUT_L2 [f] signal is adjusted, and a part of the OUT_R2 [f] signal is adjusted. By adjusting the level of the 2R [f] signal, the process of S314 is performed to adjust the localization (the amount output from the sub-speaker) formed by the extracted signal in the process (S300) of extracting other than the designation. .
S311の処理では、OUT_L1[f]信号の一部となる1L[f]信号が算出される。具体的には、「(INL_Lv[f]×ll+INR_Lv[f]×lr)×remain[f]×c」が、S12,S22においてフーリエ変換された全ての周波数について行われて、1L[f]信号が算出される。同様に、S311の処理では、OUT_R1[f]信号の一部となる1R[f]信号が算出される。具体的には、「(INL_Lv[f]×rl+INR_Lv[f]×rr)×remain[f]×c」が、S12,S22においてフーリエ変換された全ての周波数について行われて、1R[f]信号が算出される。なお、cは、この指定外信号処理(S310)において1L[f]及び1R[f]を算出するために予め定められた係数であり、この係数cは、上述した係数a,bと同じであっても異なっていてもよい。 In the process of S311, a 1L [f] signal that is a part of the OUT_L1 [f] signal is calculated. Specifically, “(INL_Lv [f] × ll + INR_Lv [f] × lr) × remain [f] × c” is performed for all frequencies subjected to Fourier transform in S12 and S22, and the 1L [f] signal is obtained. Is calculated. Similarly, in the process of S311, a 1R [f] signal that is a part of the OUT_R1 [f] signal is calculated. Specifically, “(INL_Lv [f] × rl + INR_Lv [f] × rr) × remain [f] × c” is performed for all the frequencies subjected to Fourier transform in S12 and S22, and the 1R [f] signal Is calculated. Note that c is a predetermined coefficient for calculating 1L [f] and 1R [f] in the non-designated signal processing (S310), and this coefficient c is the same as the above-described coefficients a and b. It may or may not be.
S311の処理後、1L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S312)。1L[f]信号に対してS312の処理が行われると、OUT_L1[f]信号を構成する1L_3[f]信号が生成される。同様に、S311の処理後、1R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S313)。1R[f]信号に対してS113の処理が行われると、OUT_R1[f]信号を構成する1R_3[f]信号が生成される。 After the processing in S311, processing for performing pitch change, level change, and reverberation is performed on the 1L [f] signal (S312). When the process of S312 is performed on the 1L [f] signal, the 1L_3 [f] signal constituting the OUT_L1 [f] signal is generated. Similarly, after the processing in S311, processing for performing pitch change, level change, and reverberation is performed on the 1R [f] signal (S313). When the process of S113 is performed on the 1R [f] signal, the 1R_3 [f] signal constituting the OUT_R1 [f] signal is generated.
また、S314の処理では、OUT_L2[f]信号の一部となる2L[f]信号が算出される。具体的には、「(INL_Lv[f]×ll´+INR_Lv[f]×lr´)×remain[f]×d」が、S12,S22においてフーリエ変換された全ての周波数について行われて、2L[f]信号が算出される。同様に、S314の処理では、OUT_R2[f]信号の一部となる2R[f]信号が算出される。具体的には、「(INL_Lv[f]×rl´+INR_Lv[f]×rr´)×remain[f]×d」が、S12,S22においてフーリエ変換された全ての周波数について行われて、2R[f]信号が算出される。なお、dは、この指定外信号処理(S310)において2L[f]及び2R[f]を算出するために予め定められた係数であり、この係数dは、上述した係数a,b,cと同じであっても異なっていてもよい。 In the process of S314, a 2L [f] signal that is a part of the OUT_L2 [f] signal is calculated. Specifically, “(INL_Lv [f] × ll ′ + INR_Lv [f] × lr ′) × remain [f] × d” is performed on all the frequencies subjected to Fourier transform in S12 and S22, and 2L [ f] The signal is calculated. Similarly, in the process of S314, a 2R [f] signal that is part of the OUT_R2 [f] signal is calculated. Specifically, “(INL_Lv [f] × rl ′ + INR_Lv [f] × rr ′) × remain [f] × d” is performed for all the frequencies subjected to Fourier transform in S12 and S22, and 2R [ f] The signal is calculated. Note that d is a predetermined coefficient for calculating 2L [f] and 2R [f] in the non-designated signal processing (S310), and this coefficient d is the coefficient a, b, c described above. They may be the same or different.
S314の処理後、2L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S315)。2L[f]信号に対してS315の処理が行われると、OUT_L2[f]信号を構成する2L_3[f]信号が生成される。同様に、S314の処理後、2R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S316)。2R[f]信号に対してS316の処理が行われると、OUT_R2[f]信号を構成する2R_3[f]信号が生成される。 After the processing of S314, processing for changing the pitch, changing the level, and applying reverb is performed on the 2L [f] signal (S315). When the process of S315 is performed on the 2L [f] signal, the 2L_3 [f] signal constituting the OUT_L2 [f] signal is generated. Similarly, after the processing of S314, processing for changing the pitch, changing the level, and applying reverb is performed on the 2R [f] signal (S316). When the process of S316 is performed on the 2R [f] signal, the 2R_3 [f] signal constituting the OUT_R2 [f] signal is generated.
上述した通り、メイン処理部S30では、図5及び図6に示すように、S111,S211,S311の処理に加え、S114,S214,S314の処理が実行される。これにより、抽出された抽出信号における左チャンネル信号および右チャンネル信号を分配して、その分配した左チャンネル信号および右チャンネル信号に対し、各々独立した信号処理を施すことができる。そのため、抽出された抽出信号から分配された左および右チャンネル信号の各々に対して、異なる信号処理(定位を変更する処理)を施すことができる。もちろん、抽出された抽出信号から分配された左および右チャンネル信号の各々に対して、同一の信号処理を施すことも可能である。ここで、S111,S211,S311の処理で生成された信号は、加工処理の後、メインスピーカ用の端子であるOUT1_L端子およびOUT1_R端子から出力される一方で、S114,S214,S314の処理で生成された信号は、加工処理の後、サブスピーカ用の端子であるOUT2_L端子およびOUT2_R端子から出力される。よって、所望の条件毎に抽出信号を抽出した後、所望の条件における抽出信号(言い換えれば、1の条件における抽出信号)に対して、異なる信号処理や加工処理を施した場合には、その異なる信号処理や加工処理を施した各々の抽出信号を、OUT1端子およびOUT2端子の各々から、別々に出力することができる。 As described above, in the main processing unit S30, as shown in FIGS. 5 and 6, in addition to the processes of S111, S211, and S311, the processes of S114, S214, and S314 are executed. Accordingly, the left channel signal and the right channel signal in the extracted extracted signal can be distributed, and independent signal processing can be performed on the distributed left channel signal and right channel signal. Therefore, different signal processing (processing for changing the localization) can be performed on each of the left and right channel signals distributed from the extracted signal. Of course, the same signal processing can be performed on each of the left and right channel signals distributed from the extracted signal. Here, the signals generated by the processes of S111, S211, and S311 are output from the OUT1_L terminal and the OUT1_R terminal, which are terminals for the main speaker, after the processing process, and are generated by the processes of S114, S214, and S314. The processed signal is output from the OUT2_L terminal and the OUT2_R terminal, which are sub-speaker terminals, after the processing. Therefore, after extracting an extraction signal for each desired condition, different signal processing and processing are performed on the extraction signal under the desired condition (in other words, the extraction signal under the one condition). Each extraction signal subjected to signal processing and processing can be output separately from each of the OUT1 terminal and the OUT2 terminal.
図4の説明に戻る。第1信号処理(S110)、第2信号処理(S210)および指定外信号処理(S310)が実行完了すると、第1信号処理(S110)で生成された1L_1[f]信号と第2信号処理(S210)で生成された1L_2[f]信号と指定外信号処理(S310)で生成された1L_3[f]信号とが合成されて、OUT_L1[f]信号が生成される。そして、そのOUT_L1[f]信号がL1ch出力処理部S60(図3参照)に入力されると、L1ch出力処理部S60は、入力したOUT_L1[f]信号をOUT1_L[t]へ変換して、バスライン17を介し、Lch用第1D/Aコンバータ13L1(図1参照)へ出力する。
Returning to the description of FIG. When the first signal processing (S110), the second signal processing (S210), and the non-designated signal processing (S310) are completed, the 1L_1 [f] signal generated in the first signal processing (S110) and the second signal processing ( The 1L_2 [f] signal generated in S210) and the 1L_3 [f] signal generated in the non-designated signal processing (S310) are combined to generate the OUT_L1 [f] signal. When the OUT_L1 [f] signal is input to the L1ch output processing unit S60 (see FIG. 3), the L1ch output processing unit S60 converts the input OUT_L1 [f] signal to OUT1_L [t], and The signal is output to the first D / A converter 13L1 for Lch (see FIG. 1) via the
同様に、第1信号処理(S110)で生成された1R_1[f]信号と第2信号処理(S210)で生成された1R_2[f]信号と指定外信号処理(S310)で生成された1R_3[f]信号とが合成されて、OUT_R1[f]信号が生成される。そして、そのOUT_R1[f]信号がR1ch出力処理部S70(図3参照)に入力されると、R1ch出力処理部S70は、入力したOUT_R1[f]信号をOUT1_R[t]信号へ変換して、バスライン17を介し、Rch用第1D/Aコンバータ13R1(図1参照)へ出力する。なお、OUT_L2[f]信号およびOUT_R2[f]信号の生成と、OUT2_L[t]信号およびOUT2_R[t]信号の変換も、上述と同様に行われる。
Similarly, the 1R_1 [f] signal generated in the first signal processing (S110), the 1R_2 [f] signal generated in the second signal processing (S210), and 1R_3 [generated in the non-designated signal processing (S310). The signal f] is combined with the signal OUT_R1 [f]. When the OUT_R1 [f] signal is input to the R1ch output processing unit S70 (see FIG. 3), the R1ch output processing unit S70 converts the input OUT_R1 [f] signal into an OUT1_R [t] signal, The data is output to the first D / A converter 13R1 for Rch (see FIG. 1) via the
このように、OUT_L1[f]信号の生成においては、第1信号処理(S110)で生成された1L_1[f]信号と第2信号処理(S210)で生成された1L_2[f]信号との合成に加え、指定外信号処理(S310)で生成された1L_3[f]信号が合成される。同様に、OUT_R1[f]信号の生成においては、第1信号処理(S110)で生成された1R_1[f]信号と第2信号処理(S210)で生成された1R_2[f]信号との合成に加え、指定外信号処理(S310)で生成された1R_3[f]信号が合成される。よって、所望の条件毎に抽出された抽出信号に対し、第1信号処理(S110)または第2信号処理(S210)で抽出されなかった信号を合成することができる。従って、OUT_L1[f]信号およびOUT_R1[f]を、入力された楽音信号と同様の信号に、即ち、広がりのある自然な楽音にすることができる。 Thus, in the generation of the OUT_L1 [f] signal, the 1L_1 [f] signal generated in the first signal processing (S110) and the 1L_2 [f] signal generated in the second signal processing (S210) are combined. In addition, the 1L_3 [f] signal generated in the non-designated signal processing (S310) is synthesized. Similarly, in the generation of the OUT_R1 [f] signal, the 1R_1 [f] signal generated in the first signal processing (S110) and the 1R_2 [f] signal generated in the second signal processing (S210) are combined. In addition, the 1R_3 [f] signal generated in the non-designated signal processing (S310) is synthesized. Therefore, a signal that has not been extracted in the first signal processing (S110) or the second signal processing (S210) can be synthesized with the extracted signal extracted for each desired condition. Therefore, the OUT_L1 [f] signal and the OUT_R1 [f] can be made to be the same signal as the input musical sound signal, that is, a natural sound having a spread.
上述した通り、第1実施形態のエフェクタ1では、第1取り出し処理(S100)あるいは第2取り出し処理(S200)で抽出された抽出信号に対し、信号処理(S110,S210)を行う。ここで、第1取り出し処理(S100)および第2取り出し処理(S200)は、設定された各条件毎に(周波数、定位および最大レベルが一組となった条件毎に)、各々の条件を満たす楽音信号を(左チャンネル信号および右チャンネル信号を)、抽出信号として抽出する。よって、信号処理を施す対象となる抽出信号の抽出を、複数の各条件(周波数、定位および最大レベルが一組となった条件の各々)にわたって行うことができる。
As described above, in the
次に、図8及び図9を参照して、第2実施形態のエフェクタ1について説明する。なお、この第2実施形態において、上述した第1実施形態と同一の部分には、同一の符号を付して、その説明を省略する。
Next, with reference to FIG.8 and FIG.9, the
この第2実施形態のエフェクタ1は、第1実施形態のエフェクタ1と同様に、第1又は第2取り出し処理(S100,S200)により設定条件に基づいて抽出された楽音信号(即ち、抽出信号)に対し、各取り出し処理の設定条件毎に独立して第1又は第2信号処理(S110,S210)を施すことができるものであるが、かかる第1又は第2信号処理において、音像拡大縮小処理を行い、音像を拡大(即ち、1倍より大きい拡大率での拡大)又は縮小(即ち、0倍より大きく1倍より小さい拡大率での拡大)できるように構成されている。
The
まず、図8を参照して、第2実施形態のエフェクタ1が行う音像拡大縮小処理の概要について説明する。図8は、第2実施形態における音像拡大縮小処理により音像が拡大又は縮小される様子を示した模式図である。
First, the outline of the sound image enlargement / reduction process performed by the
第1又は第2取り出し処理(S100,S200)により抽出信号を抽出するための条件(即ち、周波数、定位および最大レベルを一組として設定される条件)は、周波数及び定位を2軸として形成される座標面では、条件とされる周波数の範囲(第1周波数範囲、第2周波数範囲)と、条件とされる定位の範囲(第1設定範囲、第2設定範囲)とを隣接する2辺とする矩形領域(以下、この矩形領域を「取り出し領域」と称す)として表される。抽出信号は、その矩形領域内に存在する。なお、図8では、周波数の範囲を、Low≦周波数f≦Highとし、定位の範囲を、panL≦定位w[f]≦panRとし、取り出し領域を、周波数f=Lowであり、定位w[f]=panLである点と、周波数f=Lowであり、定位w[f]=panRである点と、周波数f=Highであり、定位w[f]=panRである点と、周波数f=Highであり、定位w[f]=panLである点との4点を頂点とする矩形領域として表している。 The condition for extracting the extracted signal by the first or second extraction process (S100, S200) (that is, the condition in which the frequency, localization and maximum level are set as a set) is formed with the frequency and localization as two axes. In the coordinate plane, two sides adjacent to a conditional frequency range (first frequency range, second frequency range) and a conditional localization range (first setting range, second setting range) are (Hereinafter, this rectangular area is referred to as “extraction area”). The extracted signal exists within the rectangular area. In FIG. 8, the frequency range is Low ≦ frequency f ≦ High, the localization range is panL ≦ localization w [f] ≦ panR, the extraction region is the frequency f = Low, and the localization w [f ] = PanL, frequency f = Low, localization w [f] = panR, frequency f = High, localization w [f] = panR, and frequency f = High And is represented as a rectangular region having four vertices with a point where the localization w [f] = panL.
音像拡大縮小処理は、取り出し領域内にある抽出信号の定位w[f]を、音像の拡大又は縮小の目標とする領域(以下、「目標領域」と称す)内に線形写像することにより移動させる処理である。目標領域は、その一端側の境界定位を周波数に応じて規定する音像拡大関数YL(f)と、他端側の境界定位を周波数に応じて規定する音像拡大関数YR(f)と、周波数範囲(Low≦周波数f≦High)とにより囲まれる領域である。 In the sound image enlargement / reduction process, the localization w [f] of the extracted signal in the extraction area is moved by linear mapping into a target area (hereinafter referred to as “target area”) for enlargement or reduction of the sound image. It is processing. The target area includes a sound image expansion function YL (f) that defines the boundary localization on one end side according to the frequency, a sound image expansion function YR (f) that defines the boundary localization on the other end side according to the frequency, and a frequency range. This is a region surrounded by (Low ≦ frequency f ≦ High).
本実施形態の音像拡大縮小処理では、定位の範囲(図8におけるpanL≦定位w[f]≦panRの範囲)の中心、即ち、図8におけるpanCを基準定位とし、取り出し領域内の抽出信号のうち、panCよりpanL側に定位する抽出信号の定位を、音像拡大関数YL(f)を用いて基準定位であるpanCを基準とする連続的な線形写像によって移動させ、その一方で、panCよりpanR側に定位する抽出信号の定位を、音像拡大関数YR(f)を用いて基準定位であるpanCを基準とする連続的な線形写像によって移動させる。 In the sound image enlargement / reduction processing of this embodiment, the center of the localization range (panL ≦ localization w [f] ≦ panR in FIG. 8), that is, panC in FIG. Among them, the localization of the extracted signal that is localized on the panL side from panC is moved by continuous linear mapping with reference to panC that is the reference localization using the sound image expansion function YL (f), while panR from panC. The localization of the extracted signal localized on the side is moved by a continuous linear mapping with reference to panC, which is the reference localization, using the sound image expansion function YR (f).
なお、panCよりpanL側に定位する抽出信号がpanL側に移動する、又は、panCよりpanR側に定位する抽出信号がpanR側に移動する場合が拡大であり、抽出信号が基準定位panC側に移動する場合が縮小である。つまり、音像拡大関数YL(f)が取り出し領域の外側に位置する周波数領域では、panCよりpanL側に定位する抽出信号によって形成される音像は拡大され、音像拡大関数YL(f)が取り出し領域の内側に位置する周波数領域では、panCよりpanL側に定位する抽出信号によって形成される音像は縮小される。同様に、音像拡大関数YR(f)が取り出し領域の外側に位置する周波数領域では、panCよりpanR側に定位する抽出信号によって形成される音像は拡大され、音像拡大関数YR(f)が取り出し領域の内側に位置する周波数領域では、panCよりpanR側に定位する抽出信号によって形成される音像は縮小される。 Note that the case where the extraction signal localized from panC to the panL side moves to the panL side or the extraction signal localized from panC to the panR side moves to the panR side is enlarged, and the extraction signal moves to the reference localization panC side. If you want to reduce it. That is, in the frequency region where the sound image expansion function YL (f) is located outside the extraction region, the sound image formed by the extraction signal localized on the panL side from panC is expanded, and the sound image expansion function YL (f) is stored in the extraction region. In the frequency region located on the inner side, the sound image formed by the extraction signal localized on the panL side from panC is reduced. Similarly, in the frequency region where the sound image expansion function YR (f) is located outside the extraction region, the sound image formed by the extraction signal localized on the panR side from panC is expanded, and the sound image expansion function YR (f) is extracted. In the frequency region located inside the sound image, the sound image formed by the extracted signal localized on the panR side from panC is reduced.
なお、図8に示す例では、音像拡大関数YL(f)及び音像拡大関数YR(f)をいずれも、周波数fの値に応じて直線を描く関数としているが、音像拡大関数YL(f)及び音像拡大関数YR(f)は、周波数fの値に応じて直線を描く関数に限らず、種々の形状を示す関数を適用できる。例えば、周波数fの範囲に応じて折れ線を描く関数、周波数fの値に応じて放物線(即ち、二次曲線)を描く関数、周波数fの値に応じた三次関数や、楕円や円の弧を表す関数や、指数又は対数関数などを適用できる。 In the example shown in FIG. 8, the sound image expansion function YL (f) and the sound image expansion function YR (f) are both functions that draw a straight line according to the value of the frequency f, but the sound image expansion function YL (f) The sound image expansion function YR (f) is not limited to a function that draws a straight line in accordance with the value of the frequency f, and functions having various shapes can be applied. For example, a function that draws a polygonal line according to the range of the frequency f, a function that draws a parabola (that is, a quadratic curve) according to the value of the frequency f, a cubic function according to the value of the frequency f, and an arc of an ellipse or circle Representing functions, exponential functions or logarithmic functions can be applied.
この音像拡大関数YL(f)及びYR(f)は、予め決められていても、ユーザにより設定されるものであってもよい。例えば、周波数領域や定位範囲に応じて、用いる音像拡大関数YL(f)及びYR(f)が予め設定されており、取り出し領域の位置(周波数領域や定位範囲)に応じた音像拡大関数YL(f)及びYR(f)が選定されるように構成されてもよい。 The sound image expansion functions YL (f) and YR (f) may be predetermined or set by the user. For example, the sound image enlargement functions YL (f) and YR (f) to be used are set in advance according to the frequency region and the localization range, and the sound image enlargement function YL (in accordance with the position of the extraction region (frequency region and localization range)) f) and YR (f) may be selected.
また、ユーザが、所望に応じて、取り出し領域を含む座標面における座標(即ち、周波数と定位との組)を2以上設定し、設定された周波数と定位との組に基づいて、音像拡大関数YL(f)又はYR(f)が設定されるように構成してもよい。例えば、周波数f=Lowにおける定位がYL(Low)である点と、周波数f=Highにおける定位がYL(High)である点とをユーザが設定し、それにより、周波数fの変化に対して定位が直線的に変化する関数である音像拡大関数YL(f)が設定され、一方で、周波数f=Lowにおける定位がYR(Low)である点と、周波数f=Highにおける定位がYR(High)である点とをユーザが設定し、それにより、周波数fの変化に対して定位が直線的に変化する関数である音像拡大関数YR(f)が設定されてもよい。あるいは、音像拡大関数YL(f)及び音像拡大関数YR(f)の変化パターン(直線、放物線、弧など)を、各々ユーザが設定するように構成してもよい。なお、音像拡大関数YL(f)又はYR(f)の周波数範囲は、図8に示すように、取り出し領域の周波数範囲を超えるものであってもよい。 Further, if desired, the user sets two or more coordinates (that is, a set of frequency and localization) on the coordinate plane including the extraction area, and based on the set frequency and localization set, the sound image expansion function You may comprise so that YL (f) or YR (f) may be set. For example, the user sets the point where the localization at the frequency f = Low is YL (Low) and the point where the localization at the frequency f = High is YL (High), and thereby the localization with respect to the change of the frequency f. Is set as a sound image expansion function YL (f) that is a function of linearly changing, while the localization at the frequency f = Low is YR (Low) and the localization at the frequency f = High is YR (High). The sound image expansion function YR (f), which is a function in which the localization changes linearly with respect to the change in the frequency f, may be set. Or you may comprise so that a user may each set the change pattern (a straight line, a parabola, an arc, etc.) of sound image expansion function YL (f) and sound image expansion function YR (f). Note that the frequency range of the sound image expansion function YL (f) or YR (f) may exceed the frequency range of the extraction region, as shown in FIG.
音像拡大関数YL(f)及び音像拡大関数YR(f)が、周波数fの値に応じて直線を描く関数である場合には、これらの音像拡大関数YL(f),YR(f)を以下のようにして求めることができる。 When the sound image enlargement function YL (f) and the sound image enlargement function YR (f) are functions that draw a straight line according to the value of the frequency f, these sound image enlargement functions YL (f) and YR (f) are expressed as follows. It can be obtained as follows.
まず、周波数fのLow側の拡大具合を決める係数として、BtmL,BtmRを仮定し、High側の拡大具合を決める係数として、TopL,TopRを仮定する。なお、BtmL及びTopLは、基準定位であるpanCより左方向(panL方向)の拡大具合を決めるものであり、BtmR及びTopRは、panCより右方向(panR方向)の拡大具合を決めるものである。これらの4つの係数BtmL,BtmR,TopL,TopRは、それぞれ、例えば、0.5〜10.0程度の範囲とされる。なお、この係数が1.0を超える場合は拡大となり、0より大きく1.0より小さい場合には縮小となる。 First, BtmL and BtmR are assumed as coefficients for determining the degree of expansion on the Low side of the frequency f, and TopL and TopR are assumed as coefficients for determining the degree of expansion on the High side. Note that BtmL and TopL determine the degree of enlargement in the left direction (panL direction) from panC, which is the reference localization, and BtmR and TopR determine the degree of enlargement in the right direction (panR direction) from panC. These four coefficients BtmL, BtmR, TopL, and TopR are each in the range of about 0.5 to 10.0, for example. Note that when this coefficient exceeds 1.0, enlargement occurs, and when it is greater than 0 and less than 1.0, reduction occurs.
ここで、直線である音像拡大関数YL(f)における両端の座標、即ち、YL(Low)及びYL(High)の座標を求めると、YL(Low)=panC+(panL−panC)×BtmLであり、YL(High)=panC+(panL−panC)×TopLである。このとき、Wl=panL−panCとすれば、YL(f)={Wl×(TopL−BtmL)/(High−Low)}×(f−Low)+panC+Wl×BtmLとなる。 Here, when the coordinates of both ends in the sound image expansion function YL (f) that is a straight line, that is, the coordinates of YL (Low) and YL (High) are obtained, YL (Low) = panC + (panL−panC) × BtmL. , YL (High) = panC + (panL−panC) × TopL. At this time, if Wl = panL−panC, YL (f) = {Wl × (TopL−BtmL) / (High−Low)} × (f−Low) + panC + Wl × BtmL.
同様に、音像拡大関数YR(f)について、YR(Low)=panC+(panR−panC)×BtmRであり、YR(High)=panC+(panR−panC)×TopRであるので、Wr=panR−panCとすると、YR(f)={Wr×(TopR−BtmR)/(High−Low)}×(f−Low)+panC+Wr×BtmRとなる。 Similarly, for the sound image enlargement function YR (f), YR (Low) = panC + (panR−panC) × BtmR and YR (High) = panC + (panR−panC) × TopR, so Wr = panR−panC Then, YR (f) = {Wr × (TopR−BtmR) / (High−Low)} × (f−Low) + panC + Wr × BtmR.
かかる音像拡大関数YL(f)用いて、基準定位PanCより左方向に定位している抽出信号PoL[f]の移動を行う場合、その移動先の定位PtL[f]は、panCを基準とすると、ある周波数fにおける、panCからPoL[f]までの長さと、panCからPtL[f]までの長さの比が、panCからpanLまでの長さと、panCからYL(f)までの長さの比に等しいことに基づいて算出することができる。即ち、移動先の定位PtL[f]は、(PtL[f]−panC):(PoL[f]−panC)=(YL(f)−panC):(panL−panC)であることから、PtL[f]=(PoL[f]−panC)×(YL(f)−panC)/(panL−panC)+panCにより算出できる。 When the extracted signal PoL [f], which is localized in the left direction from the reference localization PanC, is moved using the sound image expansion function YL (f), the localization PtL [f] of the movement destination is based on panC. The ratio of the length from panC to PoL [f] and the length from panC to PtL [f] at a certain frequency f is the length from panC to panL and the length from panC to YL (f). It can be calculated based on being equal to the ratio. That is, the localization PtL [f] of the movement destination is (PtL [f] -panC) :( PoL [f] -panC) = (YL (f) -panC) :( panL-panC). [F] = (PoL [f] −panC) × (YL (f) −panC) / (panL−panC) + panC.
同様に、音像拡大関数YR(f)用いて、基準定位PanCより右方向に定位している抽出信号PoR[f]の移動を行う場合、その移動先の定位PtR[f]は、(PtR[f]−panC):(PoR[f]−panC)=(YR(f)−panC):(panR−panC)であることから、PtR[f]=(PoR[f]−panC)×(YR(f)−panC)/(panR−panC)+panCにより算出できる。 Similarly, when moving the extraction signal PoR [f], which is localized to the right of the reference localization PanC, using the sound image expansion function YR (f), the localization PtR [f] of the movement destination is (PtR [ f] -panC): (PoR [f] -panC) = (YR (f) -panC): (panR-panC), so PtR [f] = (PoR [f] -panC) × (YR (F) −panC) / (panR−panC) + panC.
音像拡大縮小処理では、移動先とする定位PtL[f]及び定位PtR[f]を目標とする定位とすることにより、定位を移動させるための係数ll,lr,rl,rrや、係数ll´,lr´,rl´,rr´を決定し、それにより、抽出信号の定位を移動させる。その結果、取り出し領域の音像が拡大又は縮小される。 In the sound image enlargement / reduction processing, the localizations PtL [f] and PtR [f] that are the movement destinations are set as the target localizations, and the coefficients ll, lr, rl, rr for moving the localization, or the coefficient ll ′ , Lr ′, rl ′, rr ′, thereby moving the localization of the extracted signal. As a result, the sound image in the extraction area is enlarged or reduced.
つまり、本実施形態では、取り出し領域内の抽出信号のうち、panCよりpanL側に定位する抽出信号の定位を、音像拡大関数YL(f)を用いて基準定位であるpanCを基準とする連続的な線形写像によって移動させ、その一方で、panCよりpanR側に定位する抽出信号の定位を、音像拡大関数YR(f)を用いて基準定位であるpanCを基準とする連続的な線形写像によって移動させることにより、取り出し領域の音像が拡大又は縮小される。 That is, in the present embodiment, the localization of the extracted signal that is localized on the panL side of panC among the extracted signals in the extraction region is continuously performed with reference to panC that is the reference localization using the sound image expansion function YL (f). On the other hand, the localization of the extracted signal localized on the panR side from panC is moved by the continuous linear mapping with reference to panC as the reference localization using the sound image expansion function YR (f). By doing so, the sound image in the extraction area is enlarged or reduced.
なお、図8では、一例として、1の取り出し領域に対し音像拡大関数YL(f)及びYR(f)が設定されている様子を図示しているが、音像拡大関数YL(f)及びYR(f)は、取り出し領域毎に各々設定されていていてもよい。 In FIG. 8, as an example, a state in which the sound image expansion functions YL (f) and YR (f) are set for one extraction region is illustrated, but the sound image expansion functions YL (f) and YR ( f) may be set for each take-out area.
例えば、高音域を周波数範囲とする取り出し領域と、中音域を周波数範囲とする取り出し領域と、低音域を周波数範囲とする取り出し領域とで、各々異なる音像拡大関数YL(f)及びYR(f)を設定してもよい。なお、ステレオ信号の音像を全体的に拡大する場合において、高音域の全定位の範囲に対しては、周波数が高くなるにつれて拡大具合が小さくなるように音像拡大関数YL(f)及びYR(f)を設定し、中音域の全定位の範囲に対しては、周波数が高くなるにつれて拡大具合が大きくなるように音像拡大関数YL(f)及びYR(f)を設定すると、好ましい聴感を与えることができる。一方、低音域の信号抽出は行わず、音像の拡大(又は縮小)を行わないようにしてもよい。 For example, sound image enlargement functions YL (f) and YR (f) that are different in the extraction region in which the high sound region is the frequency range, the extraction region in which the middle sound region is the frequency range, and the extraction region in which the low sound region is the frequency range, respectively. May be set. When enlarging the sound image of a stereo signal as a whole, the sound image enlarging functions YL (f) and YR (f ) And the sound image expansion functions YL (f) and YR (f) are set so that the expansion becomes larger as the frequency is increased for the entire localization range in the middle range, and a favorable audibility is given. Can do. On the other hand, the low sound range signal extraction may not be performed, and the sound image may not be expanded (or reduced).
なお、複数の取り出し領域が存在する場合には、音像の拡大又は縮小を行う領域、即ち、基準定位、音像拡大関数YL(f)、及び音像拡大関数YR(f)の設定を行う領域は、全ての取り出し領域でなく、一部の取り出し領域に限定されていてもよい。 Note that when there are a plurality of extraction areas, an area for enlarging or reducing the sound image, that is, an area for setting the reference localization, the sound image enlarging function YL (f), and the sound image enlarging function YR (f), You may be limited to some extraction areas instead of all the extraction areas.
また、全ての取り出し領域に対して共通のBtmL,BtmR,TopL,TopRを設定することにより、全ての取り出し領域の拡大(又は縮小)具合が同じになるような音像拡大関数YL(f)及びYR(f)を設定してもよい。 In addition, by setting common BtmL, BtmR, TopL, and TopR for all extraction regions, the sound image enlargement functions YL (f) and YR that make all the extraction regions have the same expansion (or reduction) degree. (F) may be set.
また、BtmL,BtmR,TopL,TopRを、抽出する領域の位置及び/又は該領域の大きさの関数として設定してもよい。即ち、抽出領域に応じて、所定の規則に基づいて、拡大具合(又は縮小具合)が変化するようにしてもよい。例えば、周波数が大きくなるにつれ、拡大具合が大きくなるようにしたり、抽出信号の定位が基準定位(例えば、中央であるpanC)から離れるにつれて拡大具合が小さくなる、等のようにBtmL,BtmR,TopL,TopRを設定してもよい。 Further, BtmL, BtmR, TopL, and TopR may be set as a function of the position of the region to be extracted and / or the size of the region. That is, according to the extraction region, the enlargement degree (or reduction degree) may be changed based on a predetermined rule. For example, as the frequency increases, the degree of expansion increases, or the degree of expansion decreases as the localization of the extracted signal moves away from the reference position (for example, panC at the center), and so on. BtmL, BtmR, TopL , TopR may be set.
また、基準定位、音像拡大関数YL(f)、及び音像拡大関数YR(f)を、全ての取り出し領域に対して共通して設定してもよい。つまり、全ての取り出し領域内の抽出信号が、同じ基準定位を基準として、同じ音像拡大関数YL(f)及びYR(f)により線形写像させるようにしてもよい。なお、かかる場合には、楽音全体を1つの取り出し領域として選択することにより、楽音全体の音像を1の条件(即ち、共有に設定された基準定位、及び、音像拡大関数YL(f),YR(f))で拡大又は縮小するようにしてもよい。 Further, the reference localization, the sound image enlargement function YL (f), and the sound image enlargement function YR (f) may be set in common for all the extraction areas. That is, the extraction signals in all the extraction regions may be linearly mapped by the same sound image expansion functions YL (f) and YR (f) with the same reference localization as a reference. In such a case, by selecting the entire musical sound as one extraction area, the sound image of the entire musical sound is selected under the condition of one condition (that is, the reference localization set to sharing and the sound image expansion functions YL (f), YR). You may make it enlarge or reduce by (f)).
また、本実施形態では、取り出し領域における定位の範囲(図8におけるpanL≦定位w[f]≦panRの範囲)の中心、即ち、panCを基準定位としたが、基準定位は取り出し領域内又は取り出し領域外のいずれの定位にも設定可能である。複数の取り出し領域がある場合、取り出し領域毎に異なる基準定位を設定してもよいし、全取り出し領域に対して共通の基準定位を設定してもよい。なお、この基準定位は、取り出し領域毎に、又は、全取り出し領域に対し、予め設定されていても、ユーザがその都度設定するものであってもよい。 In this embodiment, the center of the localization range in the extraction region (the range of panL ≦ the localization w [f] ≦ panR in FIG. 8), that is, panC is set as the reference localization, but the reference localization is in the extraction region or in the extraction region. It can be set to any localization outside the area. In the case where there are a plurality of extraction areas, a different reference localization may be set for each extraction area, or a common reference localization may be set for all extraction areas. The reference localization may be set in advance for each extraction area or for all extraction areas, or may be set by the user each time.
次に、図9を参照して、本実施形態のエフェクタ1が行う音像拡大縮小処理について説明する。図9は、第2実施形態の第1信号処理S110および第2信号処理S210で行われる処理の詳細を示した図である。
Next, with reference to FIG. 9, the sound image enlargement / reduction processing performed by the
第2実施形態の第1信号処理(S110)では、図9に示すように、第1取り出し処理(S100)により第1条件を満たす楽音信号を抽出信号として抽出した後、抽出信号から形成される音像の拡大又は縮小を行うために、メインスピーカから出力される分の抽出信号の定位の移動量を算出する処理を実行する(S117)。同様に、第1取り出し処理(S100)により抽出された抽出信号から形成される音像の拡大又は縮小を行うために、サブスピーカから出力される分の抽出信号の定位の移動量を算出する処理を実行する(S118)。 In the first signal processing (S110) of the second embodiment, as shown in FIG. 9, after a musical sound signal satisfying the first condition is extracted as an extraction signal by the first extraction processing (S100), it is formed from the extraction signal. In order to enlarge or reduce the sound image, a process of calculating the localization movement amount of the extracted signal for the amount output from the main speaker is executed (S117). Similarly, in order to enlarge or reduce the sound image formed from the extracted signal extracted by the first extraction process (S100), a process of calculating the localization movement amount of the extracted signal for the amount output from the sub-speaker. Execute (S118).
S117の処理では、第1取り出し処理(S100)による取り出し領域(即ち、第1条件により決まる領域)内において、基準定位より左方向にある抽出信号を音像拡大関数YL1[1](f)によって移動させたときの移動量ML1[1][f]と、基準定位より右方向にある抽出信号を音像拡大関数YR1[1](f)によって移動させたときの移動量MR1[1][f]とを算出する。 In the process of S117, the extraction signal located in the left direction from the reference localization is moved by the sound image expansion function YL1 [1] (f) in the extraction area (that is, the area determined by the first condition) by the first extraction process (S100). The amount of movement ML1 [1] [f] when moved and the extracted signal located to the right from the reference localization is moved by the sound image enlargement function YR1 [1] (f). And calculate.
なお、音像拡大関数YL1[1](f)及び音像拡大関数YR1[1](f)は、いずれも、メインスピーカから出力される分の抽出信号の定位を移動させるための音像拡大関数であり、それぞれ、基準定位より左方向の抽出信号を移動させるための関数及び基準定位より右方向の抽出信号を移動させるための関数である。 Note that the sound image magnification function YL1 [1] (f) and the sound image magnification function YR1 [1] (f) are both sound image magnification functions for moving the localization of the extracted signal corresponding to the amount output from the main speaker. Respectively, a function for moving the extracted signal in the left direction from the reference localization and a function for moving the extracted signal in the right direction from the reference localization.
具体的に、S117の処理では、「{(w[f]−panC[1])×(YL1[1](f)−panC[1])/(panL[1]−panC[1])+panC[1]}−w[f]」を、S12及びS22においてフーリエ変換された全ての周波数に対して行うことにより、移動量ML1[1][f]を算出する。同様に、「{(w[f]−panC[1])×(YR1[1](f)−panC[1])/(panR[1]−panC[1])+panC[1]}−w[f]」を、S12及びS22においてフーリエ変換された全ての周波数に対して行うことにより、移動量MR1[1][f]を算出する。なお、panL[1]及びpanR[1]は、第1取り出し処理(S100)による取り出し領域における左右境界の定位であり、panC[1]は、第1取り出し処理(S100)による取り出し領域における基準定位、例えば、該取り出し領域における定位の範囲の中心である。 Specifically, in the process of S117, “{(w [f] −panC [1]) × (YL1 [1] (f) −panC [1]) / (panL [1] −panC [1]) + panC The movement amount ML1 [1] [f] is calculated by performing [1]} − w [f] ”on all the frequencies subjected to Fourier transform in S12 and S22. Similarly, “{(w [f] −panC [1]) × (YR1 [1] (f) −panC [1]) / (panR [1] −panC [1]) + panC [1]} − w The movement amount MR1 [1] [f] is calculated by performing [f] ”on all the frequencies subjected to Fourier transform in S12 and S22. Note that panL [1] and panR [1] are the localization of the left and right boundaries in the extraction region by the first extraction process (S100), and panC [1] is the reference localization in the extraction region by the first extraction process (S100). , For example, the center of the localization range in the extraction region.
S117の処理後、移動量ML1[1][f]及び移動量MR1[1][f]を用いて、第1取り出し処理(S100)によって取り出された抽出信号によって形成される定位(メインスピーカから出力される分)の調整を行う(S111)。具体的に、S111の処理では、移動量ML1[1][f]及び移動量MR1[1][f]は、目標とする定位(即ち、拡大又は縮小による移動先の定位)から抽出信号の定位w[f]を引いた差であるので、移動量ML1[1][f]及び移動量MR1[1][f]を用いて、定位を移動させるための係数ll,lr,rl,rrの決定を行い、決定された係数ll,lr,rl,rrを用いて、第1実施形態におけるS111と同様に定位の調整を行い、1L信号及び1R信号を得る。なお、調整された定位が0未満であれば、その定位を0とし、その一方で、調整された定位が1を超える場合には、その定位を1とする。S117の処理による移動量ML1[1][f],MR1[1][f]の算出と、S111の処理による定位の調整とが、音像拡大縮小処理に相当する。 After the process of S117, using the movement amount ML1 [1] [f] and the movement amount MR1 [1] [f], the localization (from the main speaker) formed by the extraction signal extracted by the first extraction process (S100). The output is adjusted) (S111). Specifically, in the processing of S111, the movement amount ML1 [1] [f] and the movement amount MR1 [1] [f] are calculated based on the target localization (that is, the localization of the movement destination by enlargement or reduction). Since the difference is obtained by subtracting the localization w [f], the coefficients ll, lr, rl, rr for moving the localization using the movement amount ML1 [1] [f] and the movement amount MR1 [1] [f] are used. Using the determined coefficients ll, lr, rl, rr, the localization is adjusted in the same manner as in S111 in the first embodiment to obtain the 1L signal and the 1R signal. When the adjusted localization is less than 0, the localization is set to 0. On the other hand, when the adjusted localization exceeds 1, the localization is set to 1. The calculation of the movement amounts ML1 [1] [f] and MR1 [1] [f] by the process of S117 and the localization adjustment by the process of S111 correspond to the sound image enlargement / reduction process.
その後、1L[f]信号は、S112において加工処理に供されて1L_1[f]信号とされ、1R[f]信号は、S113において加工処理に供されて1R_1[f]信号とされる。 Thereafter, the 1L [f] signal is subjected to processing in S112 to be a 1L_1 [f] signal, and the 1R [f] signal is subjected to processing in S113 to be a 1R_1 [f] signal.
一方、サブスピーカから出力される分の抽出信号の定位の移動量を算出するS118の処理では、第1取り出し処理(S100)による取り出し領域内において、基準定位より左方向にある抽出信号を音像拡大関数YL2[1](f)によって移動させたときの移動量ML2[1][f]と、基準定位より右方向にある抽出信号を音像拡大関数YR2[1](f)によって移動させたときの移動量MR2[1][f]とを算出する。 On the other hand, in the process of S118 for calculating the amount of localization movement of the extracted signal for the amount output from the sub-speaker, the extracted image that is to the left of the reference localization in the extraction area by the first extraction process (S100) is enlarged in the sound image. When the movement amount ML2 [1] [f] when moved by the function YL2 [1] (f) and the extracted signal in the right direction from the reference localization are moved by the sound image expansion function YR2 [1] (f) Movement amount MR2 [1] [f] is calculated.
なお、音像拡大関数YL2[1](f)及び音像拡大関数YR2[1](f)は、いずれも、サブスピーカから出力される分の抽出信号の定位を移動させるための音像拡大関数であり、それぞれ、基準定位より左方向の抽出信号を移動させるための関数及び基準定位より右方向の抽出信号を移動させるための関数である。音像拡大関数YL2[1](f)は、メインスピーカから出力される分の抽出信号の定位を移動させるために使用する音像拡大関数YL1[1](f)と同じであっても異なっていてもよい。同様に、音像拡大関数YR2[1](f)は、メインスピーカから出力される分の抽出信号の定位を移動させるために使用する音像拡大関数YR1[1](f)と同じであっても異なっていてもよい。 Note that the sound image magnification function YL2 [1] (f) and the sound image magnification function YR2 [1] (f) are both sound image magnification functions for moving the localization of the extracted signal that is output from the sub-speaker. Respectively, a function for moving the extracted signal in the left direction from the reference localization and a function for moving the extracted signal in the right direction from the reference localization. The sound image enlargement function YL2 [1] (f) is the same as or different from the sound image enlargement function YL1 [1] (f) used to move the localization of the extracted signal corresponding to the amount output from the main speaker. Also good. Similarly, the sound image enlargement function YR2 [1] (f) is the same as the sound image enlargement function YR1 [1] (f) used to move the localization of the extracted signal for the amount output from the main speaker. May be different.
例えば、メインスピーカとサブスピーカとを等間隔に配置させる場合には、YL1[1](f)とYL2[1](f)とを同じにすると共に、YR1[1](f)とYR2[1](f)とを同じとする。また、メインスピーカとサブスピーカとが極端に離れている場合には、移動量ML2[1][f]及び移動量MR2[1][f]が、移動量ML1[1][f]及び移動量MR1[1][f]より小さくなるような音像拡大関数YL2[1](f)及びYR2[1](f)を用いる。 For example, when the main speaker and the sub-speaker are arranged at equal intervals, YL1 [1] (f) and YL2 [1] (f) are made the same, and YR1 [1] (f) and YR2 [ 1] Same as (f). When the main speaker and the sub-speaker are extremely separated, the movement amount ML2 [1] [f] and the movement amount MR2 [1] [f] are changed to the movement amount ML1 [1] [f] and the movement amount. Sound image expansion functions YL2 [1] (f) and YR2 [1] (f) that are smaller than the quantity MR1 [1] [f] are used.
具体的に、S118の処理では、「{(w[f]−panC[1])×(YL2[1](f)−panC[1])/(panL[1]−panC[1])+panC[1]}−w[f]」を、S12及びS22においてフーリエ変換された全ての周波数に対して行うことにより、移動量ML2[1][f]を算出する。同様に、「{(w[f]−panC[1])×(YR2[1](f)−panC[1])/(panR[1]−panC[1])+panC[1]}−w[f]」を、S12及びS22においてフーリエ変換された全ての周波数に対して行うことにより、移動量MR2[1][f]を算出する。これらの移動量ML2[1][f]及びMR2[1][f]は、目標とする定位(即ち、拡大又は縮小による移動先の定位)から抽出信号の定位w[f]を引いた差に相当する。 Specifically, in the process of S118, “{(w [f] −panC [1]) × (YL2 [1] (f) −panC [1]) / (panL [1] −panC [1]) + panC The movement amount ML2 [1] [f] is calculated by performing [1]} − w [f] ”on all the frequencies subjected to Fourier transform in S12 and S22. Similarly, “{(w [f] −panC [1]) × (YR2 [1] (f) −panC [1]) / (panR [1] −panC [1]) + panC [1]} − w The movement amount MR2 [1] [f] is calculated by performing [f] ”on all the frequencies subjected to the Fourier transform in S12 and S22. These movement amounts ML2 [1] [f] and MR2 [1] [f] are differences obtained by subtracting the localization w [f] of the extraction signal from the target localization (that is, the localization of the movement destination by enlargement or reduction). It corresponds to.
S118の処理後、移動量ML2[1][f]及び移動量MR2[1][f]を用いて、第1取り出し処理(S100)によって取り出された抽出信号によって形成される定位(サブスピーカから出力される分)の調整を行う(S114)。具体的に、S114の処理では、移動量ML2[1][f]及び移動量MR2[1][f]を用いて、定位を移動させるための係数ll´,lr´,rl´,rr´の決定を行い、決定された係数ll´,lr´,rl´,rr´を用いて、第1実施形態におけるS114と同様に定位の調整を行い、2L信号及び2R信号を得る。なお、調整された定位が0未満であれば、その定位を0とし、その一方で、調整された定位が1を超える場合には、その定位を1とする。また、S118の処理による移動量ML2[1][f],MR2[1][f]の算出と、S114の処理による定位の調整とが、音像拡大縮小処理に相当する。 After the process of S118, using the movement amount ML2 [1] [f] and the movement amount MR2 [1] [f], the localization (from the sub-speaker) formed by the extraction signal extracted by the first extraction process (S100). The output is adjusted (S114). Specifically, in the process of S114, using the movement amount ML2 [1] [f] and the movement amount MR2 [1] [f], coefficients ll ′, lr ′, rl ′, rr ′ for moving the localization are used. Using the determined coefficients ll ′, lr ′, rl ′, and rr ′, the localization is adjusted in the same manner as S114 in the first embodiment to obtain the 2L signal and the 2R signal. When the adjusted localization is less than 0, the localization is set to 0. On the other hand, when the adjusted localization exceeds 1, the localization is set to 1. Further, the calculation of the movement amounts ML2 [1] [f] and MR2 [1] [f] by the process of S118 and the localization adjustment by the process of S114 correspond to the sound image enlargement / reduction process.
その後、2L[f]信号は、S115において加工処理に供されて2L_1[f]信号とされ、2R[f]信号は、S116において加工処理に供されて2R_1[f]信号とされる。 Thereafter, the 2L [f] signal is subjected to processing in S115 to be a 2L_1 [f] signal, and the 2R [f] signal is subjected to processing in S116 to be a 2R_1 [f] signal.
また、図9に示すように、第2実施形態の第2信号処理(S210)では、第2取り出し処理(S200)により第2条件を満たす楽音信号を抽出信号として抽出した後、抽出信号から形成される音像の拡大又は縮小を行うために、メインスピーカから出力される分の定位の移動量ML1[2][f]とを算出する処理を実行する(S217)。同様に、第2取り出し処理(S200)により抽出された抽出信号から形成される音像の拡大又は縮小を行うために、サブスピーカから出力される分の定位の移動量MR2[1][f]とを算出する処理を実行する(S218)。 Also, as shown in FIG. 9, in the second signal processing (S210) of the second embodiment, a tone signal that satisfies the second condition is extracted as an extraction signal by the second extraction processing (S200), and then formed from the extraction signal. In order to perform enlargement or reduction of the sound image to be performed, a process of calculating the localized movement amount ML1 [2] [f] for the amount output from the main speaker is executed (S217). Similarly, in order to enlarge or reduce the sound image formed from the extracted signal extracted by the second extraction process (S200), the localization movement amount MR2 [1] [f] corresponding to the amount output from the sub-speaker The process which calculates is performed (S218).
ここで、S217の処理では、以下に説明する点が異なること以外は、第1信号処理(S110)の中で実行されるS117の処理と同様に行われるので、その説明は省略する。S217の処理とS117の処理との相違点は、メインスピーカから出力される分の定位を移動させるための音像拡大関数として、基準定位より左方向の抽出信号を移動させるための関数であるYL1[2](f)と、
基準定位より右方向の抽出信号を移動させるための関数であるYR1[2](f)とを用いる点と、panL[1]及びpanR[1]に換えて、第2取り出し処理(S200)による取り出し領域における左右境界の定位、即ち、panL[2]及びpanR[2]を用いる点と、基準定位として、panC[1]に換えて、第2取り出し処理(S200)による取り出し領域内の定位(例えば、該取り出し領域における定位の範囲の中心)であるpanC[2]を用いる点である。
Here, the processing of S217 is performed in the same manner as the processing of S117 executed in the first signal processing (S110) except that the points described below are different, and thus the description thereof is omitted. The difference between the process of S217 and the process of S117 is that the sound image enlargement function for moving the localization output from the main speaker is a function for moving the extracted signal in the left direction from the reference localization as YL1 [ 2] (f),
Instead of using YR1 [2] (f), which is a function for moving the extracted signal in the right direction from the reference localization, instead of panL [1] and panR [1], the second extraction process (S200) is used. Localization of the left and right boundaries in the extraction area, that is, the point using panL [2] and panR [2], and the localization in the extraction area by the second extraction process (S200) instead of panC [1] as the reference localization ( For example, panC [2] that is the center of the localization range in the extraction region is used.
また、S218の処理では、以下に説明する点が異なること以外は、第1信号処理(S110)の中で実行されるS118の処理と同様に行われるので、その説明は省略する。S218の処理とS118の処理との相違点は、サブスピーカから出力される分の定位を移動させるための音像拡大関数として、基準定位より左方向の抽出信号を移動させるための関数であるYL2[2](f)と、
基準定位より右方向の抽出信号を移動させるための関数であるYL2[2](f)とを用いる点と、panL[1]及びpanR[1]に換えて、panL[2]及びpanR[2]を用いる点と、基準定位として、panC[1]に換えて、panC[2]を用いる点である。
Further, the processing of S218 is performed in the same manner as the processing of S118 executed in the first signal processing (S110) except that the points described below are different, and thus the description thereof is omitted. The difference between the process of S218 and the process of S118 is that YL2 [which is a function for moving the extracted signal in the left direction from the reference localization as a sound image enlargement function for moving the localization output from the sub-speaker. 2] (f),
Instead of using the function YL2 [2] (f) for moving the extracted signal in the right direction from the reference localization, instead of panL [1] and panR [1], panL [2] and panR [2 ] And the point of using panC [2] instead of panC [1] as the reference localization.
そして、S217の処理後は、算出した移動量ML1[2][f]及び移動量MR1[2][f]を用いて、係数ll,lr,rl,rrを決定し、それによって、第2取り出し処理(S200)によって取り出された抽出信号によって形成される定位(メインスピーカから出力される分)の調整を行う(S211)。S211の処理において、調整された定位が0(ゼロ)未満であれば、その定位を0(ゼロ)とし、その一方で、調整された定位が1を超える場合には、その定位を1とする。なお、S217の処理による移動量ML1[2][f],MR1[2][f]の算出と、S211の処理による定位の調整とが、音像拡大縮小処理に相当する。その後、S211の処理により得られた1L[f]信号及び1R[f]信号を、それぞれ、S212の加工処理及びS213の加工処理に供し、それによって、1L_2[f]信号及び1R_2[f]信号を得る。 Then, after the processing of S217, the coefficients ll, lr, rl, rr are determined using the calculated movement amount ML1 [2] [f] and the movement amount MR1 [2] [f]. The localization (the amount output from the main speaker) formed by the extracted signal extracted by the extraction process (S200) is adjusted (S211). In the processing of S211, if the adjusted localization is less than 0 (zero), the localization is set to 0 (zero). On the other hand, if the adjusted localization exceeds 1, the localization is set to 1. . Note that the calculation of the movement amounts ML1 [2] [f], MR1 [2] [f] by the process of S217 and the localization adjustment by the process of S211 correspond to the sound image enlargement / reduction process. After that, the 1L [f] signal and the 1R [f] signal obtained by the processing of S211 are used for the processing processing of S212 and the processing processing of S213, respectively, and thereby the 1L_2 [f] signal and the 1R_2 [f] signal Get.
一方、S218の処理後は、算出した移動量ML2[2][f]及び移動量MR2[2][f]を用いて、係数ll´,lr´,rl´,rr´を決定し、それによって、第2取り出し処理(S200)によって取り出された抽出信号によって形成される定位(サブスピーカから出力される分)の調整を行う(S214)。S214の処理において、調整された定位が0未満であれば、その定位を0とし、その一方で、調整された定位が1を超える場合には、その定位を1とする。なお、S218の処理による移動量ML2[2][f],MR2[2][f]の算出と、S214の処理による定位の調整とが、音像拡大縮小処理に相当する。その後、S214の処理により得られた2L[f]信号及び2R[f]信号を、それぞれ、S215の加工処理及びS216の加工処理に供し、それによって、2L_2[f]信号及び2R_2[f]信号を得る。 On the other hand, after the processing of S218, coefficients ll ′, lr ′, rl ′, rr ′ are determined using the calculated movement amount ML2 [2] [f] and movement amount MR2 [2] [f], Thus, the localization (the amount output from the sub-speaker) formed by the extracted signal extracted by the second extraction process (S200) is adjusted (S214). In the process of S214, if the adjusted localization is less than 0, the localization is set to 0. On the other hand, if the adjusted localization is greater than 1, the localization is set to 1. Note that the calculation of the movement amounts ML2 [2] [f] and MR2 [2] [f] by the process of S218 and the localization adjustment by the process of S214 correspond to the sound image enlargement / reduction process. Thereafter, the 2L [f] signal and the 2R [f] signal obtained by the process of S214 are respectively used for the process of S215 and the process of S216, whereby the 2L_2 [f] signal and the 2R_2 [f] signal Get.
上述した通り、第2実施形態のエフェクタ1では、第1取り出し処理(S100)あるいは第2取り出し処理(S200)によって取り出し領域内から抽出された抽出信号に対し、基準定位と、定位の範囲の一端側である左方向の境界の拡大具合(拡大度)を規定する音像拡大関数YL(f)と、該定位の範囲の他端側である右方向の境界の拡大具合を規定する音像拡大関数YR(f)とを設定し、基準定位より左方向にある抽出信号を、該基準定位を基準として、音像拡大関数YL(f)によって線形写像することにより移動させると共に、基準定位より右方向にある抽出信号を、該基準定位を基準として、音像拡大関数YR(f)によって線形写像することにより移動させることにより、取り出し領域内に形成される音像を拡大又は縮小することができる。よって、本実施形態のエフェクタ1によれば、ステレオ音源が示す各音像を自在に拡大又は縮小することができる。
As described above, in the
次に、図10及び図11を参照して、第3実施形態について説明する。なお、この第3実施形態において、上述した第2実施形態と同一の部分には、同一の符号を付して、その説明を省略する。 Next, a third embodiment will be described with reference to FIGS. 10 and 11. In the third embodiment, the same parts as those in the second embodiment described above are denoted by the same reference numerals, and the description thereof is omitted.
上述した第2実施形態では、左右チャンネルの楽音信号(即ち、ステレオ信号)から設定条件に応じて抽出した抽出信号の音像を拡大又は縮小することについて説明したが、この第3実施形態では、1チャンネルの楽音信号(即ち、モノラル信号)から設定条件に応じて抽出した抽出信号から形成される音像を拡大又は縮小することについて説明する。 In the second embodiment described above, the description has been given of enlarging or reducing the sound image of the extracted signal extracted from the musical sound signals (ie, stereo signals) of the left and right channels according to the setting conditions. However, in the third embodiment, 1 An explanation will be given of enlarging or reducing the sound image formed from the extracted signal extracted from the channel tone signal (ie, monaural signal) according to the setting condition.
具体的に、モノラル信号は、定位が中央(panC)に位置してしまうので、本実施形態では、音像拡大縮小処理を実行する前に、準備処理として、モノラル信号であるが故に中央(panC)に定位する抽出信号を、取り出し領域における定位の左方向の境界(panL)または右方向の境界(panR)のいずれかに分配する(振り分ける)処理を行う。 Specifically, since the localization of the monaural signal is located at the center (panC), in the present embodiment, before the sound image enlargement / reduction processing is performed, the monaural signal is a monaural signal because it is a monaural signal (panC). A process of distributing (distributing) the extracted signal that is localized to either the left boundary (panL) or the right boundary (panR) of the localization in the extraction region is performed.
図10は、第3実施形態における音像拡大縮小処理の概要を説明するための模式図である。図10において、黒く塗り潰された10個の箱Poは、各々、1の周波数範囲にあるモノラル信号からの1または複数の抽出信号を示す。なお、図10では、各箱Poの区別を付ける目的で、各箱Poの間には間隔(空白)を設けているが、実際には、各箱Poは隙間なく連続する(即ち、各箱Poの周波数範囲は連続する)。 FIG. 10 is a schematic diagram for explaining the outline of the sound image enlargement / reduction processing in the third embodiment. In FIG. 10, ten boxes Po filled in black each indicate one or a plurality of extracted signals from a monaural signal in one frequency range. In FIG. 10, for the purpose of distinguishing the boxes Po, spaces (blanks) are provided between the boxes Po. However, actually, the boxes Po are continuous without gaps (that is, the boxes Po). The frequency range of Po is continuous).
図10に示すように、本実施形態では、準備処理として、モノラル信号からの抽出信号を表す箱Poが、周波数領域が隣接する箱Poの分配先が、それぞれ、各取り出し領域O1,O2における定位の左方向の境界(panL)と右方向の境界(panR)とで交互になるように分配される。即ち、箱PoLまたは箱PoRに移動される。 As shown in FIG. 10, in the present embodiment, as preparation processing, the box Po representing the extracted signal from the monaural signal is assigned to the distribution destination of the box Po adjacent to the frequency domain, and the localization in the extraction areas O1 and O2, respectively. Are distributed alternately at the left boundary (panL) and the right boundary (panR). That is, it is moved to the box PoL or the box PoR.
その後、上述した第2実施形態と同様に、取り出し領域内の抽出信号のうち、panCよりpanL側に定位する抽出信号(即ち、箱PoLに含まれる抽出信号)を、各取り出し領域O1,O2に対して設けた音像拡大関数YL[1](f),YL[2](f)を左方向の定位の境界とする領域に線形写像することにより移動する。その一方で、panCよりpanR側に定位する抽出信号(即ち、箱PoRに含まれる抽出信号)を、各取り出し領域O1,O2に対して設けた音像拡大関数YR[1](f),YR[2](f)を左方向の定位の境界とする領域に線形写像することにより移動する。 Thereafter, as in the second embodiment described above, among the extraction signals in the extraction area, an extraction signal localized on the panL side from panC (that is, the extraction signal included in the box PoL) is supplied to each extraction area O1, O2. The sound image enlargement functions YL [1] (f) and YL [2] (f) provided for it are moved by linear mapping to a region having a left localization boundary. On the other hand, an extraction signal localized on the panR side of panC (that is, an extraction signal included in the box PoR) is converted into sound image expansion functions YR [1] (f), YR [ 2] Moves by linearly mapping to a region having (f) as the left localization boundary.
その結果、第1の取り出し領域O1(f1≦周波数f≦f2)内にあるモノラル信号からの抽出信号(即ち、箱Poに含まれる抽出信号)は、周波数範囲毎に交互に、音像拡大関数YL[1](f)又は音像拡大関数YR[1](f)上における各周波数に応じた定位、即ち、箱PtLまたは箱PtRに移動される。同様に、第2の取り出し領域O2(f2≦周波数f≦f3)内にある箱Poは、周波数範囲毎に交互に、音像拡大関数YL[2](f)又は音像拡大関数YR[2](f)上における各周波数に応じた定位(箱PtLまたは箱PtR)に移動される。 As a result, the extraction signal from the monaural signal in the first extraction region O1 (f1 ≦ frequency f ≦ f2) (that is, the extraction signal included in the box Po) is alternately changed for each frequency range. [1] (f) or sound image enlargement function YR [1] (f) is moved to a position corresponding to each frequency, that is, box PtL or box PtR. Similarly, the boxes Po in the second extraction region O2 (f2 ≦ frequency f ≦ f3) are alternately changed for each frequency range by the sound image expansion function YL [2] (f) or the sound image expansion function YR [2] ( f) It is moved to the localization (box PtL or box PtR) corresponding to each frequency on the above.
このように、モノラルの楽音信号の定位を、一旦、予め規定された連続する周波数範囲毎に交互にpanL又はpanRに分配した(振り分けた)後に、第2実施形態と同様に音像の拡大又は縮小を行うことにより、モノラル信号(モノラル音源)に、バランスのよい拡がり感を持たせることができる。 As described above, after the localization of the monaural musical sound signal is distributed (assigned) alternately to panL or panR for each predetermined continuous frequency range, the sound image is enlarged or reduced in the same manner as in the second embodiment. By performing the above, it is possible to give a balanced feeling to the monaural signal (monaural sound source).
第1取り出し領域O1が中音域を周波数範囲とする領域であり、第2取り出し領域O2が高音域を周波数範囲とする領域である場合には、図10に示した例と同様に、第1取り出し領域O1に対する音像拡大関数YL[1](f)及び音像拡大関数YR[1](f)を、高周波数側で定位が拡がるような拡大具合を表す関数とし、第2取り出し領域O2に対する音像拡大関数YL[2](f)及び音像拡大関数YR[2](f)を、高周波数側で定位が狭まるような拡大具合を表す関数とすることにより、好ましい聴感を与えることができる。 In the case where the first extraction area O1 is an area having the middle sound range as the frequency range and the second extraction area O2 is an area having the high sound area as the frequency range, the first extraction area O1 is the same as the example shown in FIG. The sound image magnification function YL [1] (f) and the sound image magnification function YR [1] (f) for the region O1 are functions representing the degree of magnification such that the localization is expanded on the high frequency side, and the sound image magnification for the second extraction region O2 The function YL [2] (f) and the sound image enlargement function YR [2] (f) can be given a favorable audibility by using functions that indicate the degree of enlargement such that the localization is narrowed on the high frequency side.
なお、図10において、第1取り出し領域O1の定位の範囲と、第2取り出し領域O2の定位の範囲は等しい場合を例示したが、各取り出し領域O1,O2の定位の範囲は異なっていてもよい。 In FIG. 10, the case where the localization range of the first extraction region O1 and the localization range of the second extraction region O2 are equal is illustrated, but the localization range of each extraction region O1, O2 may be different. .
次に、図11を参照して、第3実施形態の音像拡大縮小処理について説明する。図11は、第3実施形態のエフェクタで実行される主要な処理を示した図である。なお、本実施形態のエフェクタは、Lch用A/Dコンバータ11L及びRch用A/Dコンバータ11Rに換えて、IN_MONO端子から入力されたモノラル楽音信号をアナログ信号からデジタル信号に変換するA/Dコンバータを有している点で、第2実施形態で使用したエフェクタ1(図1参照)と相違する。
Next, the sound image enlargement / reduction processing according to the third embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating main processes executed by the effector of the third embodiment. The effector of this embodiment is an A / D converter that converts a monaural tone signal input from the IN_MONO terminal from an analog signal to a digital signal, instead of the Lch A / D converter 11L and the Rch A /
本実施形態では、モノラル信号を入力信号とするので、第2実施形態のエフェクタ1において、左チャンネル信号及び右チャンネル信号に対しそれぞれ行っていた処理は、モノラル信号に対して実行される。即ち、本実施形態のエフェクタは、図11に示すように、IN_MONO端子から入力した時間領域のIN_MONO[t]信号を、S10又はS20と同様の解析処理部S50により、周波数領域のIN_MONO[f]信号に変換し、メイン処理部S30に供給する。
In the present embodiment, since the monaural signal is used as the input signal, the processing performed on the left channel signal and the right channel signal in the
モノラル信号の状態では、各信号の定位w[f]は、全て、0.5(中央)、即ち、panCとなるので、上述した第2実施形態のメイン処理部S30において実行したS31の処理は省略することができる。よって、本実施形態におけるメイン処理部S30では、まず、メモリのクリアを実行した後(S32)、第1取り出し処理(S100)及び第2取り出し処理(S200)を実行し、予め設定された条件毎に信号の抽出を行うと共に、指定以外の信号の取り出しを行う(S300)。 In the state of the monaural signal, the localization w [f] of each signal is all 0.5 (center), that is, panC. Therefore, the process of S31 executed in the main processing unit S30 of the second embodiment described above is Can be omitted. Therefore, in the main processing unit S30 in the present embodiment, first, after clearing the memory (S32), the first extraction process (S100) and the second extraction process (S200) are executed, and each preset condition is set. In addition to extracting signals, signals other than those specified are extracted (S300).
なお、各モノラル信号の定位w[f]は中央(panC)であるので、本実施形態のS100,S200では、各信号の定位w[f]が第1又は第2設定範囲内にあるか否かを判定しなくてもよい。また、第2実施形態のS100,S200では、信号の抽出を行うために、最大レベルML[f]を用いたが、本実施形態では、IN_MONO[f]信号のレベルを用いる。また、上述した通り、本実施形態では、モノラル信号であるという理由で定位w[f]を求める処理(即ち、第2実施形態におけるS31の処理)を省略する構成としたが、モノラル信号の場合であっても、S31の処理、即ち、IN_MONO[f]信号に対して行ったフーリエ変換により得られた各周波数毎に定位w[f]を求める処理を実行してもよい。 Since the localization w [f] of each monaural signal is the center (panC), whether or not the localization w [f] of each signal is within the first or second setting range in S100 and S200 of the present embodiment. It is not necessary to determine whether or not. In S100 and S200 of the second embodiment, the maximum level ML [f] is used to extract a signal. In this embodiment, the level of the IN_MONO [f] signal is used. Further, as described above, in the present embodiment, the processing for obtaining the localization w [f] (that is, the processing of S31 in the second embodiment) is omitted because it is a monaural signal. Even so, the process of S31, that is, the process of obtaining the localization w [f] for each frequency obtained by the Fourier transform performed on the IN_MONO [f] signal may be executed.
第1取り出し処理(S100)の実行後、モノラルの抽出信号の定位を左右に分配(振り分ける)ことによって擬似ステレオ信号を生成する準備処理を実行する(S120)。この準備処理(S120)では、まず、抽出した信号の周波数fが、予め規定された連続する周波数範囲のうち、奇数番目の周波数範囲内にあるか否かを判定する(S121)。予め規定された連続する周波数範囲は、例えば、全周波数範囲を、セント単位(例えば、50セント単位や、100セント(半音階)単位)、又は、周波数単位(例えば、100Hz単位)で分割した範囲である。 After execution of the first extraction process (S100), a preparation process for generating a pseudo stereo signal by distributing (distributing) the localization of the monaural extracted signal to the left and right is executed (S120). In this preparation process (S120), first, it is determined whether or not the frequency f of the extracted signal is within an odd-numbered frequency range in a predetermined continuous frequency range (S121). The predetermined continuous frequency range is, for example, a range obtained by dividing the entire frequency range by a cent unit (for example, 50 cent unit or 100 cent (semitone) unit) or a frequency unit (for example, 100 Hz unit). It is.
S121の処理により、抽出した信号の周波数fが、奇数番目の周波数範囲内にあれば(S121:Yes)、定位w[f][1]を、panL[1]とする(S122)。一方、抽出した信号の周波数fが、偶数番目の周波数範囲内にあれば(S121:No)、定位w[f][1]を、panR[1]とする(S123)。S122またはS123の処理後、フーリエ変換された全ての周波数について、S121の処理が完了したか否かが判定され(S124)、S124の判定が否定される場合には(S124:No)、S121の処理に戻る一方、S124の判定が肯定される場合には(S124:Yes)、第1信号処理110へ移行する。 If the frequency f of the extracted signal is within the odd-numbered frequency range by the process of S121 (S121: Yes), the localization w [f] [1] is set to panL [1] (S122). On the other hand, if the frequency f of the extracted signal is within the even frequency range (S121: No), the localization w [f] [1] is set to panR [1] (S123). After the process of S122 or S123, it is determined whether or not the process of S121 has been completed for all the Fourier-transformed frequencies (S124). If the determination of S124 is negative (S124: No), the process of S121 is performed. On the other hand, if the determination in S124 is affirmative (S124: Yes), the process proceeds to the first signal processing 110.
よって、かかる準備処理(S120)によれば、第1条件を満たす抽出信号の定位は、予め規定された連続する周波数範囲毎に、定位に対して設定された第1設定範囲の左右境界の定位(panL[1],panR[1])となるよう交互に分配される。 Therefore, according to this preparatory process (S120), the localization of the extracted signal that satisfies the first condition is performed by localization of the left and right boundaries of the first setting range set for the localization for each continuous frequency range defined in advance. They are alternately distributed so that (panL [1], panR [1]).
その後、第2実施形態と同様に、S117の処理とS111の処理とを実行することにより、左右のメインスピーカから出力される分の抽出信号の定位を移動させる一方で、118の処理とS114の処理とを実行することにより、左右のサブスピーカから出力される分の抽出信号の定位を移動させる。本実施形態では、準備処理(S120)と、S117及びS111の処理又はS118及びS114の処理とが、音像拡大縮小処理に相当する。 Thereafter, as in the second embodiment, by performing the processing of S117 and the processing of S111, the localization of the extracted signals output from the left and right main speakers is moved, while the processing of 118 and the processing of S114 are performed. By executing the processing, the localization of the extracted signal corresponding to the amount output from the left and right sub-speakers is moved. In the present embodiment, the preparation process (S120) and the processes of S117 and S111 or the processes of S118 and S114 correspond to the sound image enlargement / reduction process.
一方、第2取り出し処理(S200)の実行後には、第2取り出し処理(S200)により抽出された抽出信号に対する準備処理を実行する(S220)。この準備処理(S220)については、処理対象が第2取り出し処理(S200)により抽出された抽出信号であること以外は、上述した準備処理(S110)と同様に行われるので、その説明は省略する。かかる準備処理(S220)により、第2条件を満たす抽出信号の定位は、予め規定された連続する周波数範囲毎に、定位に対して設定された第2設定範囲の左右境界の定位(panL[2],panR[2])となるよう交互に分配される。 On the other hand, after the execution of the second extraction process (S200), a preparation process for the extracted signal extracted by the second extraction process (S200) is executed (S220). Since this preparation process (S220) is performed in the same manner as the above-described preparation process (S110) except that the processing target is the extracted signal extracted by the second extraction process (S200), the description thereof is omitted. . With this preparatory process (S220), the localization of the extracted signal that satisfies the second condition is performed for each continuous frequency range defined in advance, and the localization of the left and right boundaries of the second setting range set for the localization (panL [2 ], PanR [2]).
その後、第2実施形態と同様に、S217の処理とS211の処理とを実行することにより、左右のメインスピーカから出力される分の抽出信号の定位を移動させる一方で、218の処理とS214の処理とを実行することにより、左右のサブスピーカから出力される分の抽出信号の定位を移動させる。本実施形態では、準備処理(S220)と、S217及びS211の処理又はS218及びS214の処理とが、音像拡大縮小処理に相当する。 Thereafter, as in the second embodiment, by performing the process of S217 and the process of S211, the localization of the extracted signals output from the left and right main speakers is moved, while the process of 218 and the process of S214 are performed. By executing the processing, the localization of the extracted signal corresponding to the amount output from the left and right sub-speakers is moved. In the present embodiment, the preparation process (S220) and the processes of S217 and S211 or the processes of S218 and S214 correspond to the sound image enlargement / reduction process.
上述した通り、第3実施形態では、モノラルの楽音信号を、一旦、予め規定された連続する周波数範囲毎に交互に分配した後に、音像の拡大又は縮小を行うことにより、モノラル信号に好適な拡がり感を持たせることができる。 As described above, in the third embodiment, after a monaural musical sound signal is distributed alternately for each predetermined continuous frequency range, the sound image is expanded or reduced, so that it is suitable for a monaural signal. A feeling can be given.
以上、各実施形態に基づき本発明を説明したが、本発明は上記形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能であることは容易に推察できるものである。 As described above, the present invention has been described based on each embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications can be easily made without departing from the gist of the present invention. It can be guessed.
上記第1及び第2実施形態では、第1取り出し処理(S100)および第2取り出し処理(S200)における抽出信号の抽出に、周波数、定位および最大レベルが一組となった条件を使用したが、これに限られるものではない。即ち、抽出信号を抽出する条件として、周波数だけ、定位だけ、または、最大レベルだけを用いても良い。或いは、これらを適宜組み合わせても良い(例えば、周波数と定位とを組み合わせても良い)。 In the first and second embodiments, the extraction signal extraction in the first extraction process (S100) and the second extraction process (S200) is performed using a condition in which the frequency, localization, and maximum level are a set. It is not limited to this. That is, only the frequency, the localization, or the maximum level may be used as a condition for extracting the extraction signal. Alternatively, these may be appropriately combined (for example, a frequency and a localization may be combined).
例えば、抽出信号を抽出する条件として、周波数だけを使用する場合には、第1取り出し処理(S100)内のS101の判定内容を、「周波数[f]が、予め設定された第1周波数範囲内であるか否か」へ変更すればよい。また、例えば、抽出信号を抽出する条件として、定位だけを使用する場合には、第1取り出し処理(S100)内のS101の判定内容を、「定位w[f]が、予め設定された第1設定範囲内であるか否か」へ変更すれば良い。また、例えば、抽出信号を抽出する条件として、最大レベルだけを使用する場合には、第1取り出し処理(S100)内のS101の判定内容を、「最大レベルML[f]が、予め設定された第1設定範囲内であるか否か」へ変更すれば良い。ここで、S101の判定内容変更に伴い、第2取り出し処理(S200)内のS201の判定内容を変更する場合には、S101の判定内容の変更と同様の変更を行えば良い。 For example, when only the frequency is used as a condition for extracting the extraction signal, the determination content of S101 in the first extraction process (S100) is set to “frequency [f] is within a preset first frequency range. It may be changed to “whether or not.” Further, for example, when only the localization is used as a condition for extracting the extraction signal, the determination content of S101 in the first extraction process (S100) is set to “first localization w [f] set in advance. It may be changed to “whether it is within the setting range”. For example, when only the maximum level is used as a condition for extracting the extraction signal, the determination content of S101 in the first extraction process (S100) is set to “maximum level ML [f] is set in advance. It may be changed to “whether it is within the first setting range”. Here, when the determination content of S201 in the second extraction process (S200) is changed in accordance with the determination content change of S101, the same change as the determination content change of S101 may be performed.
なお、上記第1及び第2実施形態では、抽出信号を抽出する条件として、周波数、定位および最大レベルが一組となった条件を使用しているので、条件外に中心周波数を持つノイズや、条件を超えたレベルを持つノイズ、或いは、条件を下回ったレベルを持つノイズから受ける影響を抑制することができる。これにより、抽出信号を正確に抽出することができる。 In the first and second embodiments, the condition for extracting the extracted signal is a condition in which the frequency, localization and maximum level are a set, so that noise having a center frequency outside the condition, It is possible to suppress the influence from noise having a level exceeding the condition or noise having a level below the condition. Thereby, an extraction signal can be extracted correctly.
上記第1及び第2実施形態のS101,S201では、周波数f、定位w[f]、および最大レベルML[f]がそれぞれ予め設定された範囲内であるか否かを判定したが、周波数f、定位w[f]、および最大レベルML[f]のうち少なくとも2つを変数とする任意の関数を用い、その関数により得られる値が設定された範囲内であるか否かを判定するようにしてもよい。これにより、より複雑な範囲を設定することができる。 In S101 and S201 of the first and second embodiments, it is determined whether the frequency f, the localization w [f], and the maximum level ML [f] are within preset ranges. , The localization w [f], and an arbitrary function having at least two of the maximum levels ML [f] as variables, and determining whether a value obtained by the function is within a set range. It may be. Thereby, a more complicated range can be set.
上記各実施形態で実行される各加工処理(S112,S113,S115,S116,S212,S213,S215,S216,S312,S313,S315,S316)では、ピッチ変更、レベル変更、リバーブ付与が行われたが、これらの変更やリバーブ付与を、全ての加工処理で同一の内容に設定しても良いし、各加工処理の内容が異なっていてもよい。例えば、第1信号処理における加工処理(S112,S113,S115,S116)と、第2信号処理における加工処理(S212,S213,S215,S216)と、指定外信号処理における加工処理(S312,S313,S315,S316)とで、それぞれ異なる内容に設定しても良い。なお、第1信号処理、第2信号処理、及び指定外信号処理における各加工処理の内容が異なる場合には、各条件毎に抽出された各抽出信号に対して、異なる信号処理を施すことができる。 In each processing (S112, S113, S115, S116, S212, S213, S215, S216, S312, S313, S315, and S316) executed in each of the above embodiments, pitch change, level change, and reverberation were performed. However, these changes and reverberation may be set to the same contents in all the machining processes, or the contents of each machining process may be different. For example, the processing in the first signal processing (S112, S113, S115, S116), the processing in the second signal processing (S212, S213, S215, S216), and the processing in the non-designated signal processing (S312, S313) S315 and S316) may be set to different contents. In addition, when the contents of each processing in the first signal processing, the second signal processing, and the non-designated signal processing are different, different signal processing is performed on each extracted signal extracted for each condition. it can.
上記第1及び第2実施形態では、左右2チャンネルの楽音信号を、信号処理を施す対象としてエフェクタ1に入力する構成としたが、左右に限らず、上下又は前後、あるいは任意の2方向に定位する2チャンネルの楽音信号を、信号処理を施す対象としてエフェクタ1に入力する構成であってもよい。また、エフェクタ1に入力する楽音信号を、3チャンネル以上の楽音信号としてもよい。エフェクタ1に3チャンネル以上の楽音信号を入力する場合には、各チャンネルの定位に応じた定位w[f](定位情報)を算出し、算出された各定位w[f]が設定範囲に収まるか否かを判定すればよい。例えば、左右の定位w[f]に加えて、上下及び/又は前後の定位を算出し、算出された左右の定位w[f]と上下及び/又は前後の定位が設定範囲に収まるか否かを判定する。左右前後4チャンネルの楽音信号を例にすると、それぞれ対となる2組の楽音信号(左右、前後)の定位を算出し、算出された左右の定位と前後の定位が設定範囲に収まるか否かを判定する。
In the first and second embodiments, the left and right two-channel music signal is input to the
上記各実施形態では、取り出し処理(S100,S200)において、設定範囲との比較を行う各信号のレベル(特に、第1及び第2実施形態では最大レベルML[f])として、楽音信号の振幅を用いる構成としたが、楽音信号のパワーを用いる構成としてもよい。例えば、上記第1及び第2実施形態では、INL_Lv[f]を求めるために、IN_L[f]信号の複素式における実数部を2乗した値と、IN_L[f]信号の複素式における虚数部を2乗した値とを足し合わせ、その足し合わせた値の平方根を算出するものとしたが、例えば、IN_L[f]信号の複素式における実数部を2乗した値と、IN_L[f]信号の複素式における虚数部を2乗した値とを足し合わせることにより、INL_Lv[f]を求めてもよい。 In each of the above embodiments, in the extraction process (S100, S200), the amplitude of the tone signal is used as the level of each signal to be compared with the set range (particularly, the maximum level ML [f] in the first and second embodiments). However, a configuration using the power of a musical tone signal may be used. For example, in the first and second embodiments, in order to obtain INL_Lv [f], a value obtained by squaring the real part of the complex expression of the IN_L [f] signal and the imaginary part of the complex expression of the IN_L [f] signal are obtained. The square root of the added value is calculated, and for example, the value obtained by squaring the real part in the complex expression of the IN_L [f] signal and the IN_L [f] signal INL_Lv [f] may be obtained by adding together the value obtained by squaring the imaginary part in the complex expression.
上記第1及び第2実施形態では、定位w[f]を左右チャンネル信号のレベルの比に基づいて算出する構成としたが、左右チャンネル信号のレベルの差に基づいて算出する構成としてもよい。 In the first and second embodiments, the localization w [f] is calculated based on the ratio of the left and right channel signal levels, but may be calculated based on the difference between the left and right channel signal levels.
上記第1及び第2実施形態では、定位w[f]を2チャンネルの楽音信号から各周波数帯域毎に一意的に求めたが、各周波数帯域においてそれぞれ求めた定位に基づいて、連続する複数の周波数帯域をグループとして、そのグループ内での定位の確率分布を求め、その定位の確率分布を定位情報(定位w[f])として用いてもよい。かかる場合、例えば、定位が所定の確率以上である範囲が、設定範囲(方向範囲として設定された範囲)に収まるか否かを判定することにより、所望する楽音信号を抽出することができる。 In the first and second embodiments, the localization w [f] is uniquely determined for each frequency band from the two-channel musical sound signals. However, based on the localization determined for each frequency band, a plurality of continuous positions are obtained. It is also possible to obtain a localization probability distribution within the frequency band as a group and use the localization probability distribution as localization information (localization w [f]). In such a case, for example, it is possible to extract a desired musical sound signal by determining whether or not a range in which the localization is equal to or greater than a predetermined probability falls within a set range (a range set as a direction range).
上記第1及び第2実施形態では、S111,S114,S211,S214,S311,S314において、各取り出し処理(S100,S200,S300)により抽出された左右の楽音信号(即ち、抽出信号)から求められる定位w[f]と目標とする定位とに基づいて、抽出信号によって形成される定位を調整する構成とした。これに換えて、抽出された左右の楽音信号から、例えばそれらの信号を単に足し合わせる等によってモノラルの楽音信号を合成し、合成したモノラルの楽音信号に対し、目標とする定位に基づいて、抽出信号によって形成される定位を調整する構成としてもよい。 In the first and second embodiments, in S111, S114, S211, S214, S311, and S314, the left and right musical sound signals (that is, the extracted signals) extracted by the respective extraction processes (S100, S200, and S300) are obtained. Based on the localization w [f] and the target localization, the localization formed by the extracted signal is adjusted. Instead, a monaural tone signal is synthesized from the extracted left and right tone signals, for example, by simply adding them together, and extracted based on the target localization for the synthesized monaural tone signal. It is good also as a structure which adjusts the localization formed with a signal.
また、上記第2実施形態では、音像を拡大(又は縮小)するための定位の移動先を目標とする定位として、係数ll,lr,rl,rr及び係数ll´,lr´,rl´,rr´を算出したが、音像を拡大(又は縮小)するための定位の移動先と、音像そのものの移動(取り出し領域の移動)による移動先とを組み合わせた移動先を目標とする定位としてもよい。 Further, in the second embodiment, the coefficients ll, lr, rl, rr and the coefficients ll ′, lr ′, rl ′, rr are set with the target of the target position of the localization for enlarging (or reducing) the sound image. Although 'is calculated, the target localization may be a combination of a moving destination of localization for enlarging (or reducing) a sound image and a moving destination of movement of the sound image itself (movement of the extraction area).
上記各実施形態では、各取り出し処理(S100,S200,S300)により抽出信号及び指定以外の信号をそれぞれ取り出した後、抽出信号及び指定以外の信号に対して各信号処理(S110,S210,S310)を施し、その後、得られた各信号(即ち、処理後の抽出信号及び指定以外の信号)を出力チャンネル毎に合成して、合成後の信号(OUT_L1[f]、OUT_R1[f]、OUT_L2[f]、およびOUT_R2[f])を得、その後、これらの合成後の信号に対してそれぞれ逆FFT処理(S61,S71,S81,S91)を施すことにより、出力チャンネル毎の時間領域の信号を得る構成とした。 In each of the embodiments described above, after extracting signals other than the extracted signal and designation by each extraction process (S100, S200, S300), each signal processing (S110, S210, S310) is performed on the extracted signal and signals other than the designation. Then, the obtained signals (that is, the extracted signal after processing and the signal other than the designation) are synthesized for each output channel, and the synthesized signals (OUT_L1 [f], OUT_R1 [f], OUT_L2 [ f] and OUT_R2 [f]), and then applying an inverse FFT process (S61, S71, S81, S91) to the combined signals, the time domain signal for each output channel is obtained. It was set as the structure to obtain.
これに換えて、各取り出し処理(S100,S200,S300)により抽出信号及び指定以外の信号をそれぞれ取り出した後、抽出信号及び指定以外の信号に対して各信号処理(S110などに相当する処理)を施し、その後、得られた各信号(即ち、処理後の抽出信号及び指定以外の信号)に対してそれぞれ逆FFT処理(S61などに相当する処理)を施すことにより時間領域の信号に変換し、その後、得られた各信号(即ち、時間領域で表された処理後の抽出信号及び指定以外の信号)を出力チャンネル毎に合成することにより、出力チャンネル毎の時間領域の信号を得る構成としてもよい。かかる場合もまた、上述した実施形態と同様に、周波数軸上での信号処理が可能である。 Instead, after extracting the extracted signal and signals other than the designation by each extraction processing (S100, S200, S300), each signal processing (processing corresponding to S110 and the like) is performed on the extracted signal and the signals other than the designation. After that, each obtained signal (ie, the extracted signal after processing and the signal other than the designated signal) is subjected to inverse FFT processing (processing corresponding to S61 etc.) to be converted into a time domain signal. After that, by synthesizing each obtained signal (that is, the extracted signal after processing represented in the time domain and the signal other than the designation) for each output channel, a signal in the time domain for each output channel is obtained. Also good. In such a case as well, signal processing on the frequency axis is possible as in the above-described embodiment.
あるいは、各取り出し処理(S100,S200,S300)により抽出信号及び指定以外の信号をそれぞれ取り出した後、抽出信号及び指定以外の信号に対してそれぞれ逆FFT処理(S61などに相当する処理)を施すことにより時間領域の信号に変換し、その後、得られた各信号(即ち、時間領域で表された抽出信号及び指定以外の信号)に対して各信号処理(S110などに相当する処理)を施し、その後、得られた各信号(即ち、時間領域で表された処理後の抽出信号及び指定以外の信号)を出力チャンネル毎に合成することにより、出力チャンネル毎の時間領域の信号を得る構成としてもよい。 Alternatively, after extraction signals and signals other than specified are respectively extracted by each extraction process (S100, S200, S300), inverse FFT processing (processing corresponding to S61 and the like) is performed on the extracted signals and signals other than the specification, respectively. Is converted to a time domain signal, and then each signal processing (ie, a process corresponding to S110) is performed on each obtained signal (ie, the extracted signal represented in the time domain and a signal other than that specified). After that, by synthesizing each obtained signal (that is, the extracted signal after processing represented in the time domain and the signal other than the designation) for each output channel, a signal in the time domain for each output channel is obtained. Also good.
上記第1及び第2実施形態では、左右チャンネル信号から抽出信号を抽出するための条件の1つとして、最大レベルML[f]を用いる構成としたが、最大レベルML[f]の代わりに、複数のチャンネル信号における各周波数帯域のレベルの和や平均などを抽出条件として用いる構成としてもよい。 In the first and second embodiments, the maximum level ML [f] is used as one of the conditions for extracting the extraction signal from the left and right channel signals, but instead of the maximum level ML [f], A configuration may be used in which the sum or average of the levels of each frequency band in a plurality of channel signals is used as the extraction condition.
上記各実施形態では、抽出信号を取り出すための取り出し処理を、2つ(第1取り出し処理(S100)、第2取り出し処理(S200))としたが、3つ以上の取り出し処理を設ける構成としてもよい。即ち、抽出条件(例えば、周波数、定位および最大レベルが一組となった条件)を2つでなく、3つ以上とする構成としてもよい。また、抽出信号を取り出すための取り出し処理を3つ以上とした場合に、その数に応じて信号処理を増やす構成としてもよい。 In each of the above-described embodiments, two extraction processes (first extraction process (S100) and second extraction process (S200)) are performed for extracting the extraction signal. However, three or more extraction processes may be provided. Good. That is, the extraction condition (for example, a condition in which the frequency, localization, and maximum level are set as one set) is not two, but may be three or more. Further, when there are three or more extraction processes for extracting the extraction signal, the signal processing may be increased according to the number of extraction processes.
上記各実施形態では、指定以外を取り出す処理(S300)を設け、左右チャンネル信号やモノラル信号などの入力楽音信号における抽出信号以外の信号を取り出す構成としたが、指定以外を取り出す処理(S300)を設けない構成としてもよい。即ち、入力楽音信号における抽出信号以外の信号は取り出さない構成としてもよい。指定以外を取り出す処理(S300)を設けない場合には、指定以外信号処理(S310)も設けないようにすればよい。 In each of the above-described embodiments, a process (S300) for extracting other than the designation is provided and a signal other than the extracted signal in the input musical tone signal such as a left and right channel signal or monaural signal is extracted. It is good also as a structure which does not provide. That is, it may be configured such that signals other than the extracted signal in the input musical sound signal are not extracted. In the case where the process for extracting data other than the designation (S300) is not provided, the signal process other than the designation (S310) may not be provided.
上記各実施形態では、左右1組の出力端子を、2組(即ち、OUT1_L端子とOUT1_R端子との組、及び、OUT2_L端子とOUT2_R端子との組)としたが、出力端子の組は、1組であってもよいし、3組以上であってもよい。例えば、5.1チャンネルなどであってもよい。出力端子の組が1組である場合には、各信号処理において各チャンネル信号の分配を行わず、図7(a)及び(b)のグラフにおける0.25〜0.75の範囲を0.0〜1.0に(つまり、2倍に)引き伸ばしたグラフを用いて、S111,S211,S311の計算を行うようにすればよい。 In each of the above embodiments, one set of output terminals on the left and right is two sets (that is, a set of OUT1_L terminal and OUT1_R terminal, and a set of OUT2_L terminal and OUT2_R terminal). A set may be sufficient and three or more sets may be sufficient. For example, it may be 5.1 channel. When there is one set of output terminals, distribution of each channel signal is not performed in each signal processing, and the range of 0.25 to 0.75 in the graphs of FIGS. The calculation of S111, S211 and S311 may be performed using a graph stretched to 0 to 1.0 (that is, doubled).
上記各実施形態の各信号処理(S110,S210,S310)では、抽出した楽音(抽出信号)の定位の変更と、ピッチ変更、レベル変更、及びリバーブ付加から構成される加工処理を行うものとしたが、抽出した楽音に対して行う信号処理は常時同じ処理でなくてもよい。即ち、抽出条件毎に信号処理の実行内容を適宜取捨選択し、抽出条件毎に信号処理の実行内容が異なるように構成してもよい。また、信号処理の内容として、定位の変更と、ピッチ変更、レベル変更、及びリバーブ付加に加えて、その他の公知の信号処理を行ってもよい。 In each signal processing (S110, S210, S310) in each of the above embodiments, a processing process including a change in the localization of the extracted musical sound (extracted signal), a pitch change, a level change, and a reverb addition is performed. However, the signal processing performed on the extracted musical sounds may not always be the same processing. In other words, the execution contents of the signal processing may be appropriately selected for each extraction condition, and the execution contents of the signal processing may be different for each extraction condition. Further, as the contents of the signal processing, other known signal processing may be performed in addition to the localization change, the pitch change, the level change, and the reverb addition.
上記各実施形態では、係数ll,lr,rl,rr,ll´,lr´,rl´,rr´が、図7(a)及び(b)に示すように、横軸に対して直線的に変化するものとしたが、増加又は減少する部分については、直線的増加又は直線的減少でなく、曲線(例えば、サインカーブ)的な増加又は減少としてもよい。 In each of the above embodiments, the coefficients ll, rr, rl, rr, ll ', rr', rl ', rr' are linear with respect to the horizontal axis as shown in FIGS. 7 (a) and 7 (b). Although it is assumed to change, the portion that increases or decreases may not be linearly increased or decreased linearly but may be increased or decreased in a curved line (for example, a sine curve).
上記各実施形態では、窓関数としてハニング窓を用いたが、ハミング窓やブラックマン窓を用いてもよい。 In each of the above embodiments, the Hanning window is used as the window function. However, a Hamming window or a Blackman window may be used.
上記第2及び第3実施形態では、音像拡大関数YL(f)及び音像拡大関数YR(f)が、周波数fに依存して拡大具合又は縮小具合が異なる関数、即ち、周波数fに応じて音像拡大関数YL(f)及び音像拡大関数YR(f)の値が変化する関数としたが、周波数fの変化に依存することなく音像拡大関数YL(f)及び音像拡大関数YR(f)の値が一定である関数であってもよい。つまり、BtmL=TopL、かつ、BtmR=TopRであれば、音像拡大YL(f)及びYR(f)は、拡大又は縮小具合が周波数fに依存しない関数となるので、そのような関数を用いてもよい。 In the second and third embodiments, the sound image enlargement function YL (f) and the sound image enlargement function YR (f) are functions with different degrees of enlargement or reduction depending on the frequency f, that is, the sound image according to the frequency f. Although the functions of the enlargement function YL (f) and the sound image enlargement function YR (f) are changed, the values of the sound image enlargement function YL (f) and the sound image enlargement function YR (f) are not dependent on the change of the frequency f. The function may be constant. That is, if BtmL = TopL and BtmR = TopR, the sound image enlargement YL (f) and YR (f) are functions whose enlargement or reduction does not depend on the frequency f. Also good.
また、上記第2実施形態では、音像拡大関数をYL(f)及びYR(f)、即ち、周波数fの関数としたが、基準定位(上記実施形態では、取り出し領域の定位の中心)からの抽出信号の定位の差分(即ち、抽出信号の、panCからの離れ具合)に応じて、拡大具合(又は縮小具合)が決まる関数、例えば、中心に近い程、拡大具合が大きくなる関数としてもよい。かかる場合には、図8に示す図の横軸(周波数f)を、基準定位であるpanCからの抽出信号の定位の差分とすることにより、上記第2実施形態で行った計算と同様に計算できる。また、周波数f及び基準定位(panC)からの抽出信号の定位の差分とを組み合わせ、周波数fと基準定位(panC)からの抽出信号の定位の差分とに応じて拡大具合(又は縮小具合)を決める関数を用いてもよい。 In the second embodiment, the sound image enlargement function is YL (f) and YR (f), that is, a function of the frequency f, but from the reference localization (in the above embodiment, the localization center of the extraction region). A function in which the degree of enlargement (or reduction degree) is determined according to the localization difference of the extracted signal (that is, the degree of separation of the extracted signal from panC), for example, a function in which the degree of enlargement increases as the distance from the center increases. . In such a case, the horizontal axis (frequency f) in the diagram shown in FIG. 8 is calculated as the difference in the localization of the extracted signal from panC, which is the reference localization, so that the calculation is the same as the calculation performed in the second embodiment. it can. Further, the frequency f and the difference in localization of the extracted signal from the reference localization (panC) are combined, and the expansion (or reduction) is determined according to the frequency f and the difference in localization of the extracted signal from the reference localization (panC). A function to decide may be used.
なお、上記第2及び第3実施形態では、音像拡大関数をYL(f)及びYR(f)、即ち、周波数fの関数としたが、処理対象の抽出信号が時間領域の信号である場合には、周波数fの関数に換えて、時間tに依存する音像拡大関数を用いればよい。 In the second and third embodiments, the sound image expansion function is YL (f) and YR (f), that is, a function of the frequency f. However, when the extraction signal to be processed is a time domain signal. May use a sound image expansion function depending on the time t instead of the function of the frequency f.
また、上記第3実施形態では、モノラルの入力楽音信号に対し、一旦、予め規定された連続する周波数範囲毎に交互に分配する準備処理を行った後に、音像拡大縮小処理を行うことについて説明したが、例えば、左右2チャンネルの楽音信号を単に足し合わせる等によってモノラルの楽音信号を合成し、合成したモノラルの楽音信号に対し、第3実施形態と同様の準備処理を行い、その後に音像拡大縮小処理を行ってもよい。 In the third embodiment, the description has been given of performing the sound image enlargement / reduction processing after performing the preparatory processing for alternately distributing each of the monaural input musical tone signals for each predetermined continuous frequency range. However, for example, a monaural tone signal is synthesized by simply adding the left and right channel tone signal, and the same preparation process as that of the third embodiment is performed on the synthesized monaural tone signal, and then the sound image is enlarged or reduced. Processing may be performed.
また、上記第3実施形態では、第1の取り出し領域O1及び第2の取り出し領域O2の定位範囲を等しいものとしたが、取り出し領域毎に定位範囲が異なっていてもよい。また、取り出し領域における左方向の境界(panL)と右方向の境界(panR)とが中央(panC)に対して非対称となるよう設定してもよい。 In the third embodiment, the localization ranges of the first extraction region O1 and the second extraction region O2 are equal. However, the localization range may be different for each extraction region. Further, the left boundary (panL) and the right boundary (panR) in the extraction region may be set to be asymmetric with respect to the center (panC).
1 エフェクタ(楽音信号処理装置)
11L,11R A/D(入力手段)
13L1,13L2 Lch用D/A
13R1,13R2 Rch用D/A
S12,S22 FFT処理(分割手段)
S13,S23 解析処理部における処理(レベル算出手段)
S31 メイン処理部における処理(定位情報算出手段)
S60,S80 出力処理部(合成手段、変換手段)
S70,S90 出力処理部(合成手段、変換手段)
S100,S200 取り出し処理(設定手段)
S101,S201 取り出し処理における処理(判定手段)
S102,S202 取り出し処理における処理(抽出手段)
S110,S210 信号処理(信号処理手段)
S111,S117 信号処理における処理(音像拡大縮小手段)
S114,S118 信号処理における処理(音像拡大縮小手段)
S211,S217 信号処理における処理(音像拡大縮小手段)
S214,S218 信号処理における処理(音像拡大縮小手段)
S120,S220 準備処理(準備手段)
1 Effector (musical sound signal processor)
11L, 11R A / D (input means)
D / A for 13L1, 13L2 Lch
D / A for 13R1, 13R2 Rch
S12, S22 FFT processing (dividing means)
S13, S23 Processing in the analysis processing unit (level calculation means)
S31 Processing in the main processing unit (localization information calculation means)
S60, S80 Output processing unit (combining means, converting means)
S70, S90 Output processing unit (combining means, converting means)
S100, S200 Extraction processing (setting means)
S101, S201 Processing in retrieval processing (determination means)
S102, S202 Processing in extraction processing (extraction means)
S110, S210 Signal processing (signal processing means)
S111, S117 Processing in signal processing (sound image enlargement / reduction means)
S114, S118 Processing in signal processing (sound image enlargement / reduction means)
S211, S217 Processing in signal processing (sound image enlargement / reduction means)
S214, S218 Processing in signal processing (sound image enlargement / reduction means)
S120, S220 Preparation process (preparation means)
Claims (7)
その入力手段に入力された楽音信号を構成する各チャンネルの信号を、それぞれ複数の周波数帯域に分割する分割手段と、
その分割手段により分割された周波数帯域の各々で、前記各チャンネルの信号のレベルを求めるレベル算出手段と、
そのレベル算出手段により求められたレベルに基づいて、予め定められた第1基準定位に対する前記楽音信号の出力方向を示す定位情報を前記周波数帯域の各々に対応付けて算出する定位情報算出手段と、
前記楽音信号の出力方向における少なくとも1つの方向範囲を設定可能な設定手段と、
その設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを判定する判定手段と、
前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、前記楽音信号から抽出信号として抽出する抽出手段と、
その抽出手段により抽出された抽出信号に対し、所定の信号処理の実施と時間領域への変換とを行うことにより、前記各チャンネルに対応して予め設定されている出力チャンネル毎に時間領域の出力信号を生成する出力信号生成手段と、
その出力信号生成手段により得られた時間領域の出力信号を前記出力チャンネル毎に出力する出力手段とを備え、
前記出力信号生成手段は、
前記設定手段により設定された方向範囲に対し、第2基準定位と、該方向範囲の一端側の境界の拡大度を規定する第1の関数と、該方向範囲の他端側の境界の拡大度を規定する第2の関数とを設定する第2の設定手段と、
その第2の設定手段により前記第2基準定位と前記第1の関数と前記第2の関数が設定された方向範囲について、その方向範囲内から前記抽出手段により抽出された抽出信号のうち、前記第2基準定位よりも前記方向範囲の一端側に位置する第1の抽出信号の定位情報が示す出力方向を、前記第2基準定位を基準とする前記第1の関数に応じた線形写像によって移動させると共に、前記第2基準定位よりもその方向範囲の他端側に位置する第2の抽出信号の定位情報が示す出力方向を、前記第2基準定位を基準とする前記第2の関数に応じた線形写像によって移動させることにより、その方向範囲内の音像を拡大又は縮小する音像拡大縮小手段とを含んで構成されることを特徴とする楽音信号処理装置。 Input means for inputting a musical sound signal composed of signals of one or a plurality of channels;
Dividing means for dividing each channel signal constituting the musical sound signal input to the input means into a plurality of frequency bands;
Level calculation means for obtaining the level of the signal of each channel in each of the frequency bands divided by the dividing means;
Localization information calculating means for calculating localization information indicating an output direction of the musical sound signal with respect to a predetermined first reference localization in association with each of the frequency bands based on the level obtained by the level calculating means;
Setting means capable of setting at least one direction range in the output direction of the musical sound signal;
Determining means for determining whether the output direction of the musical sound signal indicated by the localization information calculated by the localization information calculating means falls within the direction range set by the setting means;
When the determination means determines that the output direction of the musical sound signal indicated by the localization information falls within the direction range set by the setting means, the frequency band corresponding to the localization information determined to fall within Extraction means for extracting the signal of each channel in the musical sound signal as an extraction signal;
The extracted signal extracted by the extracting means is subjected to predetermined signal processing and converted into the time domain, thereby outputting the time domain for each preset output channel corresponding to each channel. Output signal generating means for generating a signal;
Output means for outputting the output signal in the time domain obtained by the output signal generating means for each of the output channels,
The output signal generation means includes
For the direction range set by the setting means, a second reference localization, a first function that defines the degree of enlargement of the boundary on one end side of the direction range, and the degree of enlargement of the boundary on the other end side of the direction range Second setting means for setting a second function that defines
Of the extracted signals extracted by the extracting means from within the direction range, the second reference localization, the first function, and the second function are set by the second setting means. The output direction indicated by the localization information of the first extracted signal located on one end side of the direction range with respect to the second reference localization is moved by a linear mapping according to the first function with respect to the second reference localization. And the output direction indicated by the localization information of the second extracted signal located on the other end side of the direction range with respect to the second reference localization depends on the second function based on the second reference localization. And a sound image enlarging / reducing means for enlarging or reducing the sound image in the direction range by moving the image by the linear mapping.
前記判定手段は、前記設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定するものであり、
前記抽出手段は、前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出するものであり、
前記出力信号生成手段は、
前記抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得る信号処理手段と、
その信号処理手段により得られた処理後抽出信号を、前記出力チャンネル毎に、前記方向範囲の全てについて合成する合成手段と、
その合成手段による合成により得られた信号をそれぞれ時間領域の信号に変換して時間領域の出力信号を得る変換手段とを含んで構成され、
前記信号処理手段は、前記第2の設定手段と前記音像拡大縮小手段とを含んで構成され、
前記第2の設定手段は、前記設定手段により設定された方向範囲毎に、前記第2基準定位と、前記第1の関数と、前記第2の関数とを設定できることを特徴とする請求項1記載の楽音信号処理装置。 The setting means is configured to be capable of setting a plurality of direction ranges in the output direction of the musical sound signal,
The determination means determines whether the output direction of the musical sound signal indicated by the localization information calculated by the localization information calculation means falls within the direction range set by the setting means for each set direction range. Is to judge
The extraction means determines the localization information determined to fall within the direction range set by the setting means when the determination means determines that the output direction of the musical sound signal indicated by the localization information falls within the direction range. The signal of each channel in the frequency band corresponding to is extracted as an extraction signal from the musical sound signal for each direction range used for the determination,
The output signal generation means includes
A signal processing unit that performs signal processing on the extraction signal extracted for each of the direction ranges by the extraction unit, and obtains an extracted signal after processing;
A synthesizing unit that synthesizes the extracted signal obtained by the signal processing unit for each of the output channels for all of the directional ranges;
Conversion means for converting each of the signals obtained by the synthesis by the synthesis means into a time domain signal to obtain a time domain output signal,
The signal processing means includes the second setting means and the sound image enlargement / reduction means,
2. The second setting unit can set the second reference localization, the first function, and the second function for each direction range set by the setting unit. The musical tone signal processing apparatus as described.
前記判定手段は、前記設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定するものであり、
前記抽出手段は、前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出するものであり、
前記出力信号生成手段は、
前記抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得る信号処理手段と、
その信号処理手段により得られた処理後抽出信号を時間領域の抽出信号に変換する変換手段と、
その変換手段により変換された前記時間領域の抽出信号を、前記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全てについて合成する合成手段とを含んで構成され、
前記信号処理手段は、前記第2の設定手段と前記音像拡大縮小手段とを含んで構成され、
前記第2の設定手段は、前記設定手段により設定された方向範囲毎に、前記第2基準定位と、前記第1の関数と、前記第2の関数とを設定できることを特徴とする請求項1記載の楽音信号処理装置。 The setting means is configured to be capable of setting a plurality of direction ranges in the output direction of the musical sound signal,
The determination means determines whether the output direction of the musical sound signal indicated by the localization information calculated by the localization information calculation means falls within the direction range set by the setting means for each set direction range. Is to judge
The extraction means determines the localization information determined to fall within the direction range set by the setting means when the determination means determines that the output direction of the musical sound signal indicated by the localization information falls within the direction range. The signal of each channel in the frequency band corresponding to is extracted as an extraction signal from the musical sound signal for each direction range used for the determination,
The output signal generation means includes
A signal processing unit that performs signal processing on the extraction signal extracted for each of the direction ranges by the extraction unit, and obtains an extracted signal after processing;
A conversion means for converting the post-processing extraction signal obtained by the signal processing means into a time domain extraction signal;
The time domain extraction signal converted by the conversion means is configured to include synthesis means for synthesizing all the directional ranges for each preset output channel corresponding to each channel,
The signal processing means includes the second setting means and the sound image enlargement / reduction means,
2. The second setting unit can set the second reference localization, the first function, and the second function for each direction range set by the setting unit. The musical tone signal processing apparatus as described.
前記判定手段は、前記設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定するものであり、
前記抽出手段は、前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出するものであり、
前記出力信号生成手段は、
前記抽出手段により前記方向範囲毎に抽出された抽出信号を時間領域の抽出信号に変換する変換手段と、
その変換手段により変換された前記時間領域の抽出信号に対して信号処理を施し、時間領域の処理後抽出信号として得る信号処理手段と、
その信号処理手段により信号処理が施された前記時間領域の処理後抽出信号を、前記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全てについて合成する合成手段とを含んで構成され、
前記信号処理手段は、前記第2の設定手段と前記音像拡大縮小手段とを含んで構成され、
前記第2の設定手段は、前記設定手段により設定された方向範囲毎に、前記第2基準定位と、前記第1の関数と、前記第2の関数とを設定できることを特徴とする請求項1記載の楽音信号処理装置。 The setting means is configured to be capable of setting a plurality of direction ranges in the output direction of the musical sound signal,
The determination means determines whether the output direction of the musical sound signal indicated by the localization information calculated by the localization information calculation means falls within the direction range set by the setting means for each set direction range. Is to judge
The extraction means determines the localization information determined to fall within the direction range set by the setting means when the determination means determines that the output direction of the musical sound signal indicated by the localization information falls within the direction range. The signal of each channel in the frequency band corresponding to is extracted as an extraction signal from the musical sound signal for each direction range used for the determination,
The output signal generation means includes
Conversion means for converting the extraction signal extracted for each direction range by the extraction means into an extraction signal in a time domain;
Signal processing means that performs signal processing on the time domain extracted signal converted by the converting means, and obtains the extracted signal after time domain processing;
Synthesizing means for synthesizing the extracted signal in the time domain, which has been subjected to signal processing by the signal processing means, for all of the directional ranges for each output channel set in advance corresponding to each channel; Comprising and including
The signal processing means includes the second setting means and the sound image enlargement / reduction means,
2. The second setting unit can set the second reference localization, the first function, and the second function for each direction range set by the setting unit. The musical tone signal processing apparatus as described.
前記出力手段は、前記独立した信号処理に対応して複数設けられ、
前記信号処理手段は前記第2の設定手段及び前記音像拡大縮小手段を含み、
前記第2の設定手段は、前記第2基準定位、前記第1の関数、及び前記第2の関数を前記出力チャンネルに応じて分配される信号毎に設定できるものであり、
前記音像拡大縮小手段は、前記出力チャンネルに応じて分配される信号毎に設定された前記第2基準定位と前記第1の関数及び前記第2の関数とを用い、前記線形写像を、前記分配された信号毎に独立して行うものであることを特徴とする請求項2から5のいずれかに記載の楽音信号処理装置。 The signal processing means distributes the signal of each channel to be processed according to the output channel, and performs independent signal processing on each distributed signal,
A plurality of the output means are provided corresponding to the independent signal processing,
The signal processing means includes the second setting means and the sound image enlargement / reduction means,
The second setting means can set the second reference localization, the first function, and the second function for each signal distributed according to the output channel,
The sound image enlargement / reduction means uses the second reference localization set for each signal distributed according to the output channel, the first function, and the second function, and converts the linear mapping to the distribution 6. The musical tone signal processing apparatus according to claim 2, wherein the musical tone signal processing apparatus is performed independently for each signal.
その入力手段に入力されたモノラルの楽音信号を、複数の周波数帯域に分割する分割手段と、
その分割手段により分割された周波数帯域の各々で、前記モノラル信号のレベルを求めるレベル算出手段と、
予め定められた第1基準定位に等しい前記モノラルの楽音信号の出力方向を含む方向範囲と前記分割手段により分割された周波数帯域の帯域範囲との組を少なくとも1組設定可能な設定手段と、
その設定手段により設定された各組の帯域範囲について、各帯域範囲内に収まる周波数帯域のモノラル信号を抽出する抽出手段と、
その抽出手段により抽出された抽出信号に対し、所定の信号処理の実施と時間領域への変換とを行うことにより、前記各チャンネルに対応して予め設定されている出力チャンネル毎に時間領域の出力信号を生成する出力信号生成手段と、
その出力信号生成手段により得られた時間領域の出力信号を前記出力チャンネル毎に出力する出力手段とを備え、
前記出力信号生成手段は、
前記設定手段により設定された各組の方向範囲について、各方向範囲に対し、第2基準定位と、該方向範囲の一端側の境界の拡大度を規定する第1の関数と、該方向範囲の他端側の境界の拡大度を規定する第2の関数とを設定する第2の設定手段と、
前記抽出信号の出力方向を、該抽出信号に対応する前記方向範囲の一端又は他端の出力方向に、予め設定された連続する周波数範囲毎に交互となるように自動的に振り分ける準備手段と、
前記第2の設定手段により前記第2基準定位と前記第1の関数と前記第2の関数が設定された方向範囲について、その方向範囲内から前記抽出手段により抽出されて前記準備手段により振り分けられた抽出信号のうち、前記第2基準定位よりも前記方向範囲の一端側に位置する第1の抽出信号の定位情報が示す出力方向を、前記第2基準定位を基準とする前記第1の関数に応じた線形写像によって移動させると共に、前記第2基準定位よりもその方向範囲の他端側に位置する第2の抽出信号の定位情報が示す出力方向を、前記第2基準定位を基準とする前記第2の関数に応じた線形写像によって移動させることにより、その方向範囲内の音像を拡大又は縮小する音像拡大縮小手段とを含んで構成されることを特徴とする楽音信号処理装置。
Input means for inputting a monaural tone signal;
A dividing means for dividing the monaural musical sound signal input to the input means into a plurality of frequency bands;
Level calculating means for obtaining the level of the monaural signal in each of the frequency bands divided by the dividing means;
Setting means capable of setting at least one set of a direction range including an output direction of the monaural musical sound signal equal to a predetermined first reference localization and a band range of the frequency band divided by the dividing means;
For each set of band ranges set by the setting means, extraction means for extracting a monaural signal in a frequency band that falls within each band range;
The extracted signal extracted by the extracting means is subjected to predetermined signal processing and converted into the time domain, thereby outputting the time domain for each preset output channel corresponding to each channel. Output signal generating means for generating a signal;
Output means for outputting the output signal in the time domain obtained by the output signal generating means for each of the output channels,
The output signal generation means includes
For each set of direction ranges set by the setting means, for each direction range, a second reference localization, a first function that defines the degree of expansion of the boundary on one end of the direction range, and the direction range A second setting means for setting a second function that defines the degree of enlargement of the boundary on the other end side;
A preparation means for automatically assigning the output direction of the extraction signal so as to alternate every predetermined continuous frequency range to the output direction of one end or the other end of the direction range corresponding to the extraction signal;
The direction range in which the second reference localization, the first function, and the second function are set by the second setting unit is extracted from the direction range by the extraction unit and distributed by the preparation unit. Among the extracted signals, the output direction indicated by the localization information of the first extraction signal located at one end side of the direction range from the second reference localization is the first function based on the second reference localization. The output direction indicated by the localization information of the second extracted signal located on the other end side of the direction range with respect to the second reference localization is based on the second reference localization. A musical sound signal processing apparatus comprising: a sound image enlarging / reducing means for enlarging or reducing a sound image within the direction range by moving the linear function according to the second function.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010007376A JP5651338B2 (en) | 2010-01-15 | 2010-01-15 | Music signal processor |
US12/947,631 US8207439B2 (en) | 2009-12-04 | 2010-11-16 | Musical tone signal-processing apparatus |
US12/947,692 US8124864B2 (en) | 2009-12-04 | 2010-11-16 | User interface apparatus for displaying vocal or instrumental unit signals in an input musical tone signal |
US12/947,671 US8129606B2 (en) | 2009-12-04 | 2010-11-16 | Musical tone signal-processing apparatus |
EP10192745.7A EP2355555B1 (en) | 2009-12-04 | 2010-11-26 | Musical tone signal-processing apparatus |
EP10192911.5A EP2355557B1 (en) | 2009-12-04 | 2010-11-29 | User interface apparatus |
EP10192878.6A EP2355554B1 (en) | 2009-12-04 | 2010-11-29 | Musical tone signal-processing apparatus |
EP10192906.5A EP2355556B1 (en) | 2009-12-04 | 2010-11-29 | User interface apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010007376A JP5651338B2 (en) | 2010-01-15 | 2010-01-15 | Music signal processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011147031A true JP2011147031A (en) | 2011-07-28 |
JP5651338B2 JP5651338B2 (en) | 2015-01-14 |
Family
ID=44461470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010007376A Expired - Fee Related JP5651338B2 (en) | 2009-12-04 | 2010-01-15 | Music signal processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5651338B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000504526A (en) * | 1996-11-15 | 2000-04-11 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | Mono-stereo conversion device, audio playback system using such device, and mono-stereo conversion method |
JP2003244800A (en) * | 2002-02-14 | 2003-08-29 | Matsushita Electric Ind Co Ltd | Sound image localization apparatus |
JP2007201818A (en) * | 2006-01-26 | 2007-08-09 | Sony Corp | Apparatus, method and program for processing audio signal |
JP2008042721A (en) * | 2006-08-09 | 2008-02-21 | Sony Corp | Audio signal processing apparatus, audio signal processing method, and audio signal processing program |
JP2009198947A (en) * | 2008-02-25 | 2009-09-03 | Yamaha Corp | Music signal output device |
-
2010
- 2010-01-15 JP JP2010007376A patent/JP5651338B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000504526A (en) * | 1996-11-15 | 2000-04-11 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | Mono-stereo conversion device, audio playback system using such device, and mono-stereo conversion method |
JP2003244800A (en) * | 2002-02-14 | 2003-08-29 | Matsushita Electric Ind Co Ltd | Sound image localization apparatus |
JP2007201818A (en) * | 2006-01-26 | 2007-08-09 | Sony Corp | Apparatus, method and program for processing audio signal |
JP2008042721A (en) * | 2006-08-09 | 2008-02-21 | Sony Corp | Audio signal processing apparatus, audio signal processing method, and audio signal processing program |
JP2009198947A (en) * | 2008-02-25 | 2009-09-03 | Yamaha Corp | Music signal output device |
Also Published As
Publication number | Publication date |
---|---|
JP5651338B2 (en) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101435016B1 (en) | Apparatus for changing an audio scene and an apparatus for generating a directional function | |
US10531217B2 (en) | Binaural synthesis | |
JP2006100869A (en) | Sound signal processing apparatus and sound signal processing method | |
JP5639362B2 (en) | User interface device | |
EP2355555B1 (en) | Musical tone signal-processing apparatus | |
KR102119240B1 (en) | Method for up-mixing stereo audio to binaural audio and apparatus using the same | |
US10013970B2 (en) | Sound effect producing apparatus, method of producing sound effect and program therefor | |
JP5651338B2 (en) | Music signal processor | |
US7330552B1 (en) | Multiple positional channels from a conventional stereo signal pair | |
JP5651328B2 (en) | Music signal processor | |
KR101371157B1 (en) | Controlling Sound Perspective by Panning | |
JP2022041721A (en) | Binaural signal generation device and program | |
US20240267696A1 (en) | Apparatus, Method and Computer Program for Synthesizing a Spatially Extended Sound Source Using Elementary Spatial Sectors | |
GB2574946A (en) | Binaural synthesis | |
CN118235433A (en) | Apparatus, method or computer program for synthesizing spatially extended sound sources using variance or covariance data | |
CN118235434A (en) | Apparatus, method or computer program for synthesizing spatially extended sound sources using modification data on potential modification objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5651338 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |