JP5651328B2 - Music signal processor - Google Patents

Music signal processor Download PDF

Info

Publication number
JP5651328B2
JP5651328B2 JP2009277054A JP2009277054A JP5651328B2 JP 5651328 B2 JP5651328 B2 JP 5651328B2 JP 2009277054 A JP2009277054 A JP 2009277054A JP 2009277054 A JP2009277054 A JP 2009277054A JP 5651328 B2 JP5651328 B2 JP 5651328B2
Authority
JP
Japan
Prior art keywords
signal
processing
extraction
channel
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009277054A
Other languages
Japanese (ja)
Other versions
JP2011120116A (en
Inventor
佐藤 健二
健二 佐藤
萩野 孝明
孝明 萩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland Corp
Original Assignee
Roland Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roland Corp filed Critical Roland Corp
Priority to JP2009277054A priority Critical patent/JP5651328B2/en
Priority to US12/947,692 priority patent/US8124864B2/en
Priority to US12/947,671 priority patent/US8129606B2/en
Priority to US12/947,631 priority patent/US8207439B2/en
Priority to EP10192745.7A priority patent/EP2355555B1/en
Priority to EP10192878.6A priority patent/EP2355554B1/en
Priority to EP10192911.5A priority patent/EP2355557B1/en
Priority to EP10192906.5A priority patent/EP2355556B1/en
Publication of JP2011120116A publication Critical patent/JP2011120116A/en
Application granted granted Critical
Publication of JP5651328B2 publication Critical patent/JP5651328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)

Description

本発明は楽音信号処理装置に関し、特に、信号処理を施す対象となる楽音信号の抽出を、複数の定位にわたって行うことができる楽音信号処理装置に関するものである。   The present invention relates to a musical tone signal processing apparatus, and more particularly to a musical tone signal processing apparatus that can extract a musical tone signal to be subjected to signal processing over a plurality of localizations.

所望の定位における楽音信号へ信号処理を施す楽音信号処理装置に関しては、例えば、特開2006−100869号公報に記載の装置が知られている。この装置では、入力された楽音信号(左チャンネル信号および右チャンネル信号)を、それぞれ複数の周波数帯域に分割し(スペクトル成分へ変換し)、左チャンネル信号と右チャンネル信号とのレベル比および位相差を、周波数帯域毎に比較する。そして、比較結果が、予め設定されたレベル比および位相差の範囲内となった場合に、その周波数帯域における楽音信号を減衰させる。これにより、所望の定位における楽音信号を減衰している。   As a musical tone signal processing apparatus that performs signal processing on a musical tone signal at a desired localization, for example, an apparatus described in Japanese Patent Application Laid-Open No. 2006-1000086 is known. In this device, the input musical sound signals (left channel signal and right channel signal) are divided into a plurality of frequency bands (converted into spectral components), respectively, and the level ratio and phase difference between the left channel signal and the right channel signal. Are compared for each frequency band. When the comparison result falls within the preset level ratio and phase difference ranges, the musical sound signal in that frequency band is attenuated. As a result, the tone signal at the desired localization is attenuated.

特開2006−100869号公報Japanese Patent Laid-Open No. 2006-1000086

上述の装置では、所望の定位を、位相差の範囲を用いることで決定(設定)している。ここで、この装置では、設定できる位相差の範囲は、1種類の範囲に限られている。よって、減衰に代表される信号処理が施される信号の抽出、即ち、信号処理を施す対象となる楽音信号の抽出は、1種類の位相差の範囲に限られる(1の定位に限られる)。従って、上述の装置では、信号処理を施す対象となる楽音信号の抽出を、複数の定位にわたって行うことができないという問題点があった。   In the above-described apparatus, a desired localization is determined (set) by using a phase difference range. Here, in this apparatus, the range of the phase difference that can be set is limited to one type of range. Therefore, extraction of a signal to be subjected to signal processing represented by attenuation, that is, extraction of a musical sound signal to be subjected to signal processing is limited to one phase difference range (limited to 1 localization). . Therefore, the above-described apparatus has a problem that it is not possible to extract a musical sound signal to be subjected to signal processing over a plurality of localizations.

本発明は、上述した問題点を解決するためになされたものであり、信号処理を施す対象となる楽音信号の抽出を、複数の定位にわたって行うことができる楽音信号処理装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a musical tone signal processing apparatus capable of performing extraction of musical tone signals to be subjected to signal processing over a plurality of localizations. It is said.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

この目的を達成するために請求項1,記載の楽音信号処理装置によれば、抽出手段は、設定手段に設定された出力方向における方向範囲内に、定位情報で示される出力方向が収まると判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における各チャンネルの信号を、その判定に用いられた方向範囲毎に、楽音信号から抽出信号として抽出する。このように、抽出手段は、各チャンネルの信号から、設定された方向範囲毎に、即ち、所望の定位毎に、抽出信号を抽出することができる。よって、各チャンネルの信号に含まれる所望の定位の信号に対して信号処理を施すことができるという効果がある。また、抽出手段は、各チャンネルの信号から、設定された方向範囲毎に信号の抽出を行うので、抽出された信号(抽出信号)に対して信号処理を行った後に、それらの信号(信号処理が施された抽出信号)を再合成することができるという効果がある。 In order to achieve this object, according to the musical sound signal processing apparatus according to claims 1, 2 , and 3 , the extraction means has an output direction indicated by the localization information within a direction range in the output direction set in the setting means. When it is determined by the determining means that the signal falls within the range, the signal of each channel in the frequency band corresponding to the localization information determined to be within is extracted as an extraction signal from the tone signal for each direction range used for the determination. . In this way, the extraction means can extract the extraction signal from the signal of each channel for each set direction range, that is, for each desired localization. Therefore, there is an effect that signal processing can be performed on a desired localization signal included in the signal of each channel. In addition, the extraction means extracts signals for each set direction range from the signals of each channel, so after performing signal processing on the extracted signals (extraction signals), those signals (signal processing) It is possible to re-synthesize the extracted signal).

また、請求項1,2,3記載の楽音信号処理装置によれば、上記効果に加えて次の効果を奏する。抽出手段により、複数の方向範囲の各々に対する複数の抽出信号が抽出された場合に、当該複数の抽出信号の周波数帯域のいずれにも含まれない周波数領域の各チャンネルの信号が、除去信号として取り出される。そして、その除去信号又は信号処理を施した除去信号を合成手段により、出力チャンネル毎に、抽出信号又は信号処理を施した抽出信号と合成する。よって、合成後に各出力チャンネルから出力される信号を、入力された楽音信号と同様の信号に、即ち、広がりのある自然な楽音にすることができるという効果がある。 Further, according to the tone signal processing device according to claim 1, 2, 3, wherein, in addition to the above effects, the following effects can be obtained. When a plurality of extracted signals for each of a plurality of directional ranges are extracted by the extraction means, the signal of each channel in the frequency domain that is not included in any of the frequency bands of the plurality of extracted signals is extracted as a removal signal. It is. Then, the removal signal or the removal signal subjected to the signal processing is combined with the extraction signal or the extraction signal subjected to the signal processing for each output channel by the combining unit. Therefore, there is an effect that the signal output from each output channel after the synthesis can be made into a signal similar to the input musical sound signal, that is, a wide natural musical sound.

請求項記載の楽音信号処理装置によれば、請求項1からのいずれかに記載の楽音信号処理装置の奏する効果に加え、信号処理手段は、方向範囲毎に抽出された抽出信号に対して、方向範囲毎に独立した信号処理を施す。よって、設定された方向範囲毎に、即ち、所望の定位毎に、独立した信号処理を施すことができるという効果がある。 According to the musical sound signal processing device according to claim 4 , in addition to the effect produced by the musical sound signal processing device according to any one of claims 1 to 3 , the signal processing means performs an extraction signal extracted for each direction range. Thus, independent signal processing is performed for each direction range. Therefore, there is an effect that independent signal processing can be performed for each set direction range, that is, for each desired localization.

請求項記載の楽音信号処理装置によれば、請求項1からのいずれかに記載の楽音信号処理装置の奏する効果に加え、抽出手段は、周波数設定手段により設定された周波数帯域の帯域範囲内に、定位情報に対応する周波数帯域が収まると周波数判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域と、設定された方向範囲内に収まると既に判定されている定位情報に対応する周波数帯域との両方の帯域に存在する各チャンネルの信号を、判定に用いられた方向範囲毎に、楽音信号から抽出信号として抽出する。このように、抽出信号の抽出においては、抽出手段は、方向範囲に加えて、周波数帯域の帯域範囲を使用する。よって、帯域範囲外に発生したノイズ等からの影響を抑制することができる。従って、所望の定位における楽音信号、即ち、抽出信号を、より正確に抽出することができる。 According to the musical sound signal processing device according to claim 5 , in addition to the effect produced by the musical sound signal processing device according to any one of claims 1 to 4 , the extraction means is a band range of the frequency band set by the frequency setting means. If it is determined by the frequency determination means that the frequency band corresponding to the localization information falls within, the frequency band corresponding to the localization information determined to fall within the set direction range has already been determined. The signal of each channel existing in both the frequency band corresponding to the localization information being extracted is extracted from the musical sound signal as an extraction signal for each direction range used for the determination. As described above, in the extraction of the extraction signal, the extraction unit uses the band range of the frequency band in addition to the direction range. Therefore, it is possible to suppress the influence from noise or the like generated outside the band range. Therefore, a musical sound signal at a desired localization, that is, an extraction signal can be extracted more accurately.

請求項記載の楽音信号処理装置によれば、請求項1からのいずれかに記載の楽音信号処理装置の奏する効果に加え、抽出手段は、レベル設定手段により設定された許容範囲内に、帯域レベルが収まるとレベル判定手段により判定された場合に、その収まると判定された帯域レベルに対応する周波数帯域と、設定された方向範囲内に収まると既に判定されている定位情報に対応する周波数帯域との両方の帯域に存在する各チャンネルの信号を、判定に用いられた方向範囲毎に、楽音信号から抽出信号として抽出する。このように、抽出信号の抽出においては、抽出手段は、方向範囲に加えて、帯域レベルの許容範囲を使用する。よって、許容範囲を超えたレベルで、或いは、許容範囲を下回ったレベルで発生したノイズ等からの影響を抑制することができる。従って、所望の定位における楽音信号、即ち、抽出信号を、より正確に抽出することができる。なお、請求項9記載の楽音信号処理装置において、「帯域レベル」とは、周波数帯域におけるレベルを示し、周波数帯域における各チャンネルの信号の最大レベルや、周波数帯域における各チャンネル信号のレベルの和や、周波数帯域における各チャンネルの信号のレベルの平均などである。 According to the musical sound signal processing device according to claim 6 , in addition to the effect produced by the musical sound signal processing device according to any one of claims 1 to 5 , the extraction means is within an allowable range set by the level setting means. When it is determined by the level determination means that the band level falls, the frequency band corresponding to the band level determined to fall within, and the frequency corresponding to the localization information already determined to fall within the set direction range The signal of each channel existing in both the bands is extracted as an extraction signal from the musical sound signal for each direction range used for the determination. As described above, in the extraction of the extraction signal, the extraction unit uses the allowable range of the band level in addition to the direction range. Therefore, it is possible to suppress the influence from noise or the like generated at a level exceeding the allowable range or at a level below the allowable range. Therefore, a musical sound signal at a desired localization, that is, an extraction signal can be extracted more accurately. In the musical tone signal processing apparatus according to claim 9, the “band level” indicates a level in the frequency band, the maximum level of the signal of each channel in the frequency band, the sum of the levels of the channel signals in the frequency band, And the average of the signal level of each channel in the frequency band.

請求項記載の楽音信号処理装置によれば、請求項1からのいずれかに記載の楽音信号処理装置の奏する効果に加え、信号処理手段は、処理対象となる各チャンネルの信号を出力チャンネルに応じて分配して、その分配された各信号に対して、それぞれ独立した信号処理を施す。そして、出力手段は、上記の独立した信号処理に対応して複数設けられているので、所望の定位毎に抽出信号を抽出した後、所望の定位(即ち、1の定位)における抽出信号が分配され、分配後の各信号に対してそれぞれ独立した信号処理を施した後、それらを別々の出力手段から出力することができるという効果がある。 According to the musical tone signal processing device according to claim 7, in addition to the effects of the tone signal processing device according to any one of claims 1 to 6, the signal processing means, output channel signals of each channel to be processed And each of the distributed signals is subjected to independent signal processing. Since a plurality of output means are provided corresponding to the above independent signal processing, after extracting the extraction signal for each desired localization, the extraction signal at the desired localization (that is, one localization) is distributed. In addition, there is an effect that after each signal after distribution is subjected to independent signal processing, they can be output from separate output means.

本発明の一実施形態であるエフェクタ(楽音信号処理装置の一例)を示したブロック図である。It is the block diagram which showed the effector (an example of a musical tone signal processing apparatus) which is one Embodiment of this invention. DSPで実行される処理を、機能ブロックを用いて模式的に示した図である。It is the figure which showed typically the process performed with DSP using a functional block. 各部S10、S20、S60〜S90で実行される処理を示した図である。It is the figure which showed the process performed by each part S10, S20, S60-S90. メイン処理部S30で実行される処理を示した図である。It is the figure which showed the process performed by main process part S30. 第1取り出し処理S100、第1信号処理S110、第2取り出し処理S200および第2信号処理S210で行われる処理の詳細を示した図である。It is the figure which showed the detail of the process performed by 1st extraction process S100, 1st signal process S110, 2nd extraction process S200, and 2nd signal process S210. 指定以外を取り出す処理S300および指定外信号処理S310で行われる処理の詳細を示した図である。It is the figure which showed the detail of the process performed by process S300 which takes out other than designation | designated, and signal process S310 which is not designated. (a),(b)は、定位w[f]と目標とする定位とによって決定される各係数を説明するためのグラフである。(A), (b) is a graph for demonstrating each coefficient determined by the localization w [f] and the target localization.

以下、本発明の好ましい実施例について、添付図面を参照して説明する。図1は、本発明の一実施形態であるエフェクタ1(楽音信号処理装置の一例)を示したブロック図である。このエフェクタ1は、信号処理を施す対象となる楽音信号(以後、「抽出信号」と称す)の抽出を、複数の各条件(周波数、定位および最大レベルが一組となった条件の各々)にわたって行うことができるものである。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing an effector 1 (an example of a musical tone signal processing apparatus) that is an embodiment of the present invention. The effector 1 extracts a musical tone signal (hereinafter referred to as an “extraction signal”) to be subjected to signal processing over a plurality of conditions (each of a set of frequency, localization and maximum level). Is something that can be done.

エフェクタ1は、Lch用アナログデジタルコンバータ(以下、「A/Dコンバータ」と称す)11Lと、Rch用A/Dコンバータ11Rと、デジタルシグナルプロセッサ(以下、「DSP」と称す)12と、Lch用第1デジタルアナログコンバータ(以下、「D/Aコンバータ」と称す)13L1と、Rch用第1D/Aコンバータ13R1と、Lch用第2D/Aコンバータ13L2と、Rch用第2D/Aコンバータ13R2と、CPU14と、ROM15と、RAM16と、バスライン17とを有している。各部11〜16は、バスライン17を介して互いに電気的に接続されている。   The effector 1 includes an Lch analog-digital converter (hereinafter referred to as “A / D converter”) 11L, an Rch A / D converter 11R, a digital signal processor (hereinafter referred to as “DSP”) 12, and an Lch A first digital-analog converter (hereinafter referred to as “D / A converter”) 13L1, an Rch first D / A converter 13R1, an Lch second D / A converter 13L2, and an Rch second D / A converter 13R2. The CPU 14, the ROM 15, the RAM 16, and the bus line 17 are included. The units 11 to 16 are electrically connected to each other via the bus line 17.

Lch用A/Dコンバータ11Lは、IN_L端子から入力された左チャンネル信号(楽音信号の一部)を、アナログ信号からデジタル信号へ変換して、デジタル化された左チャンネル信号を、バスライン17を介してDSP12へと出力するコンバータである。また、Rch用A/Dコンバータ11Rは、IN_R端子から入力された右チャンネル信号(楽音信号の一部)を、アナログ信号からデジタル信号へ変換して、デジタル化された右チャンネル信号を、バスライン17を介してDSP12へと出力するコンバータである。   The Lch A / D converter 11L converts the left channel signal (part of the musical tone signal) input from the IN_L terminal from an analog signal to a digital signal, and converts the digitized left channel signal to the bus line 17. It is a converter which outputs to DSP12 via this. The Rch A / D converter 11R converts the right channel signal (a part of the musical sound signal) input from the IN_R terminal from an analog signal to a digital signal, and converts the digitized right channel signal to the bus line. 17 is a converter that outputs the signal to the DSP 12 via 17.

DSP12は、Lch用A/Dコンバータ11Lから出力された左チャンネル信号およびRch用A/Dコンバータ11Rから出力された右チャンネル信号を入力すると、その入力した左チャンネル信号および右チャンネル信号へ信号処理を施して、その信号処理を施した左チャンネル信号および右チャンネル信号を、Lch用第1D/Aコンバータ13L1、Rch用第1D/Aコンバータ13R1、Lch用第2D/Aコンバータ13L2およびRch用第2D/Aコンバータ13R2へ出力するプロセッサである。   When the DSP 12 receives the left channel signal output from the Lch A / D converter 11L and the right channel signal output from the Rch A / D converter 11R, the DSP 12 performs signal processing on the input left channel signal and right channel signal. The left channel signal and the right channel signal subjected to the signal processing are converted into an Lch first D / A converter 13L1, an Rch first D / A converter 13R1, an Lch second D / A converter 13L2, and an Rch second D / A. It is a processor that outputs to the A converter 13R2.

Lch用第1D/Aコンバータ13L1及びLch用第2D/Aコンバータ13L2は、DSP12で信号処理が施された左チャンネル信号を、デジタル信号からアナログ信号へ変換して、そのアナログ信号を、メインスピーカのLチャンネル側(図示せず)が接続される端子(OUT1_L端子,OUT2_L端子)へ出力するコンバータである。なお、Lch用第1D/Aコンバータ13L1及びLch用第2D/Aコンバータ13L2には、それぞれ、DSP12で各々独立した信号処理がなされて出力された左チャンネル信号が入力される。   The Lch first D / A converter 13L1 and the Lch second D / A converter 13L2 convert the left channel signal subjected to signal processing by the DSP 12 from a digital signal to an analog signal, and convert the analog signal to the main speaker. It is a converter that outputs to terminals (OUT1_L terminal, OUT2_L terminal) to which the L channel side (not shown) is connected. It should be noted that the left channel signal that is output after the DSP 12 performs independent signal processing is input to the Lch first D / A converter 13L1 and the Lch second D / A converter 13L2.

Rch用第1D/Aコンバータ13R1及びRch用第2D/Aコンバータ13R2は、DSP12で信号処理が施された右チャンネル信号を、デジタル信号からアナログ信号へ変換して、そのアナログ信号を、メインスピーカのRチャンネル側(図示せず)が接続される端子(OUT1_R端子,OUT2_R端子)へ出力するコンバータである。なお、Rch用第1D/Aコンバータ13R1及びRch用第2D/Aコンバータ13R2には、それぞれ、DSP12で各々独立した信号処理がなされて出力された右チャンネル信号が入力される。   The first D / A converter 13R1 for Rch and the second D / A converter 13R2 for Rch convert the right channel signal, which has been subjected to signal processing by the DSP 12, from a digital signal to an analog signal, and convert the analog signal to the main speaker. This is a converter for outputting to terminals (OUT1_R terminal, OUT2_R terminal) to which the R channel side (not shown) is connected. The Rch first D / A converter 13R1 and the Rch second D / A converter 13R2 each receive a right channel signal that has been subjected to independent signal processing by the DSP 12 and output.

CPU14は、各部11L〜13R2,15,16を制御する中央制御装置である。ROM15は、エフェクタ1で実行される制御プログラム等を格納した書換不能なメモリである。図2〜図6で後述するDSP12による処理は、制御プログラムとして、ROM15に記憶されている。RAM16は、各種のデータを一時的に記憶するためのメモリである。   The CPU 14 is a central control device that controls the units 11L to 13R2, 15, and 16. The ROM 15 is a non-rewritable memory that stores a control program executed by the effector 1. Processing performed by the DSP 12 to be described later with reference to FIGS. 2 to 6 is stored in the ROM 15 as a control program. The RAM 16 is a memory for temporarily storing various data.

次に、図2を参照して、DSP12の処理について説明する。図2は、DSP12で実行される処理を、機能ブロックを用いて模式的に示した図である。DSP12は、機能ブロックとして、第1処理部S1と第2処理部S2とを有している。DSP12は、エフェクタ1の電源オン中、図2に示す処理を繰り返し実行する。   Next, the processing of the DSP 12 will be described with reference to FIG. FIG. 2 is a diagram schematically showing processing executed by the DSP 12 using functional blocks. The DSP 12 has a first processing unit S1 and a second processing unit S2 as functional blocks. The DSP 12 repeatedly executes the process shown in FIG. 2 while the effector 1 is powered on.

DSP12は、IN_L端子から入力された時間領域における左チャンネル信号(以下、「IN_L[t]信号」と称す。[t]は、信号が時間領域で示されることを表わしている)と、IN_R端子から入力された時間領域における右チャンネル信号(以下、「IN_R[t]信号」と称す)とを入力し、第1処理部S1および第2処理部S2における処理を実行する。   The DSP 12 receives a left channel signal (hereinafter referred to as “IN_L [t] signal”) input from the IN_L terminal in the time domain. [T] indicates that the signal is indicated in the time domain, and the IN_R terminal. The right channel signal (hereinafter referred to as “IN_R [t] signal”) in the time domain input from is input, and the processes in the first processing unit S1 and the second processing unit S2 are executed.

ここで、第1処理部S1と第2処理部S2とにおける処理は、同一の処理であり、かつ、所定間隔毎に実行されるのであるが、第2処理部S2における処理は、第1処理部S1における処理の実行開始から所定時間遅れて実行開始される。これにより、第2処理部S2における処理は、第1処理部S1における処理の実行終了から実行開始までのつなぎ目を補い、第1処理部S1における処理は、第2処理部S2における処理の実行終了から実行開始までのつなぎ目を補っている。よって、第1処理部S1により生成された信号と第2処理部S2により生成された信号とが合成された信号、即ち、DSP12から出力される、時間領域における第1左チャンネル信号(以後、「OUT1_L[t]信号」と称す)と、時間領域における第1右チャンネル信号(以後、「OUT1_R[t]信号」と称す)と、時間領域における第2左チャンネル信号(以後、「OUT2_L[t]信号」と称す)と、時間領域における第2右チャンネル信号(以後、「OUT2_R[t]信号」と称す)とが、不連続となることを防止している。なお、本実施形態では、第1処理部S1及び第2処理部S2は、0.1秒毎に実行され、第2処理部S2における処理が、第1処理部S1における処理の実行開始から0.05秒後に実行開始されるものとする。しかし、第1処理部S1及び第2処理部S2の実行間隔、並びに、第1処理部S1における処理の実行開始から第2処理部S2における処理の実行開始までの遅延時間は、0.1秒及び0.05秒に限定されず、サンプリング周波数と楽音信号の数とに応じた値を適宜利用可能である。   Here, the processing in the first processing unit S1 and the second processing unit S2 is the same processing and is executed at predetermined intervals, but the processing in the second processing unit S2 is the first processing. Execution is started with a predetermined time delay from the start of execution of processing in the part S1. Thereby, the process in the second processing unit S2 supplements the joint from the end of the execution of the process in the first processing unit S1 to the start of the execution, and the process in the first processing unit S1 ends the execution of the process in the second processing unit S2 It supplements the joint from the start to the execution. Therefore, a signal obtained by combining the signal generated by the first processing unit S1 and the signal generated by the second processing unit S2, that is, the first left channel signal in the time domain (hereinafter, “ OUT1_L [t] signal ”, a first right channel signal in the time domain (hereinafter referred to as“ OUT1_R [t] signal ”), and a second left channel signal in the time domain (hereinafter referred to as“ OUT2_L [t] ”). The second right channel signal in the time domain (hereinafter referred to as “OUT2_R [t] signal”) is prevented from becoming discontinuous. In the present embodiment, the first processing unit S1 and the second processing unit S2 are executed every 0.1 second, and the processing in the second processing unit S2 is 0 from the start of the processing in the first processing unit S1. .Start execution after 05 seconds. However, the execution interval between the first processing unit S1 and the second processing unit S2 and the delay time from the start of the processing in the first processing unit S1 to the start of the processing in the second processing unit S2 are 0.1 seconds. The value according to the sampling frequency and the number of musical sound signals can be appropriately used.

第1処理部S1および第2処理部S2は、機能ブロックとして、Lch解析処理部S10、Rch解析処理部S20、メイン処理部S30、L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S80およびR2ch出力処理部S90をそれぞれ有している。   The first processing unit S1 and the second processing unit S2 are Lch analysis processing unit S10, Rch analysis processing unit S20, main processing unit S30, L1ch output processing unit S60, R1ch output processing unit S70, and L2ch output processing unit as functional blocks. S80 and R2ch output processing unit S90 are provided.

Lch解析処理部S10は、入力したIN_L[t]信号を、周波数領域で示される左チャンネル信号(以後、「IN_L[f]信号」と称す。[f]は、信号が周波数領域で示されることを表わしている)に変換して出力するものであり、Rch解析処理部S20は、入力したIN_R[t]信号を、周波数領域で示される右チャンネル信号(以後、「IN_R[f]信号」と称す)に変換して出力するものである。なお、Lch解析処理部S10およびRch解析処理部S20の詳細は、図3を参照して後述する。   The Lch analysis processing unit S10 refers to the input IN_L [t] signal as a left channel signal (hereinafter referred to as “IN_L [f] signal”) indicated in the frequency domain. [F] indicates that the signal is indicated in the frequency domain. The Rch analysis processing unit S20 converts the input IN_R [t] signal into a right channel signal (hereinafter referred to as “IN_R [f] signal”) shown in the frequency domain. To be output. Details of the Lch analysis processing unit S10 and the Rch analysis processing unit S20 will be described later with reference to FIG.

メイン処理部S30は、Lch解析処理部S10から入力されたIN_L[f]信号とRch解析処理部S20から入力されたIN_R[f]信号に対し、後述する第1信号処理、第2信号処理、及び、指定外信号処理を施し、各処理からの出力結果に基づき、周波数領域で示される左チャンネル信号及び右チャンネル信号を出力するものである。なお、メイン処理部S30の処理の詳細は、図4〜6を参照して後述する。 The main processing unit S30 performs first signal processing, second signal processing, which will be described later, on the IN_L [f] signal input from the Lch analysis processing unit S10 and the IN_R [f] signal input from the Rch analysis processing unit S20. Further, non-designated signal processing is performed, and a left channel signal and a right channel signal shown in the frequency domain are output based on output results from each processing. Details of the processing of the main processing unit S30 will be described later with reference to FIGS.

L1ch出力処理部S60は、メイン処理部S30から出力された周波数領域で示される左チャンネル信号の1つ(以下、「OUT_L1[f]信号と称す)が入力された場合に、そのOUT_L1[f]信号を、時間領域で示される左チャンネル信号(以後、「OUT1_L[t]信号」と称す)へ変換するものである。R1ch出力処理部S70は、メイン処理部S30から出力された周波数領域で示される右チャンネル信号の1つ(以下、「OUT_R1[f]信号と称す)が入力された場合に、そのOUT_R1[f]信号を、時間領域で示される右チャンネル信号(以後、「OUT1_R[t]信号」と称す)へ変換するものである。   When one of the left channel signals (hereinafter referred to as “OUT_L1 [f] signal) indicated by the frequency domain output from the main processing unit S30 is input to the L1ch output processing unit S60, the OUT_L1 [f] The signal is converted into a left channel signal (hereinafter referred to as “OUT1_L [t] signal”) shown in the time domain. When one of the right channel signals (hereinafter referred to as “OUT_R1 [f] signal) output in the frequency domain output from the main processing unit S30 is input, the R1ch output processing unit S70 receives the OUT_R1 [f]. The signal is converted into a right channel signal (hereinafter referred to as “OUT1_R [t] signal”) shown in the time domain.

L2ch出力処理部S80は、メイン処理部S30から出力されたもう1つの周波数領域で示される左チャンネル信号(以下、「OUT_L2[f]信号と称す)が入力された場合に、そのOUT_L2[f]信号を、時間領域で示される左チャンネル信号(以後、「OUT2_L[t]信号」と称す)へ変換するものである。R2ch出力処理部S90は、メイン処理部S30から出力されたもう1つの周波数領域で示される右チャンネル信号(以下、「OUT_R2[f]信号と称す)が入力された場合に、そのOUT_R2[f]信号を、時間領域で示される右チャンネル信号(以後、「OUT2_R[t]信号」と称す)へ変換するものである。L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S80およびR2ch出力処理部S90の処理の詳細は、図3を参照して後述する。   When an L2ch output processing unit S80 receives a left channel signal (hereinafter referred to as an “OUT_L2 [f] signal) output from the main processing unit S30 and indicated by another frequency domain, the OUT_L2 [f] The signal is converted into a left channel signal (hereinafter referred to as “OUT2_L [t] signal”) shown in the time domain. The R2ch output processing unit S90 receives the OUT_R2 [f] when a right channel signal (hereinafter referred to as an “OUT_R2 [f] signal) output from the main processing unit S30 and indicated by another frequency domain is input. The signal is converted into a right channel signal (hereinafter referred to as “OUT2_R [t] signal”) shown in the time domain. Details of the processes of the L1ch output processing unit S60, the R1ch output processing unit S70, the L2ch output processing unit S80, and the R2ch output processing unit S90 will be described later with reference to FIG.

なお、第1処理部S1の各出力処理部S60〜S90から出力されるOUT_L[t]信号、OUT_R[t]信号、OUT_L[t]信号およびOUT_R[t]信号と、第2処理部S2の各出力処理部S60〜S90から出力されるOUT_L[t]信号、OUT_R[t]信号、OUT_L[t]信号、およびOUT_R[t]信号とは、それぞれ、クロスフェードで合成される。 Note that the OUT 1 —L [t ] signal, OUT 1 —R [t ] signal, OUT 2 —L [t ] signal, and OUT 2 —R [t ] signal output from the output processing units S60 to S90 of the first processing unit S1. If, OUT 1 _L [t] signal output from the output processing section S60~S90 of the second processing unit S2, OUT 1 _R [t] signal, OUT 2 _L [t] signal, and OUT 2 _R [t] Each signal is synthesized by cross-fading.

次に、図3を参照して、メイン処理部30を除く、Lch解析処理部S10、Rch解析処理部S20、L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S80およびR2ch出力処理部S90で実行される処理の詳細について説明する。図3は、各部S10、S20およびS60〜S90で実行される処理を示した図である。   Next, referring to FIG. 3, the Lch analysis processing unit S10, the Rch analysis processing unit S20, the L1ch output processing unit S60, the R1ch output processing unit S70, the L2ch output processing unit S80, and the R2ch output processing, excluding the main processing unit 30, are performed. Details of the processing executed in unit S90 will be described. FIG. 3 is a diagram illustrating processing executed in each unit S10, S20, and S60 to S90.

まず、Lch解析処理部S10およびRch解析処理部S20について説明する。Lch解析処理部S10では、まず、IN_L[t]信号に対して、ハニング窓をかける処理である窓関数処理を実行する(S11)。その後、IN_L[t]信号に対して、高速フーリエ変換(FFT)を行う(S12)。この高速フーリエ変換により、IN_L[t]信号は、IN_L[f]信号へ変換される(フーリエ変換された各周波数[f]を横軸とするスペクトル信号となる)。なお、このIN_L[f]信号は、実数部と虚数部を持つ式(以後、「複素式」と称す)で表現される。ここで、S11の処理で、IN_L[t]信号に対してハニング窓をかけるのは、入力されたIN_L[t]信号における始点と終点とが、高速フーリエ変換へ与える影響を軽減するためである。   First, the Lch analysis processing unit S10 and the Rch analysis processing unit S20 will be described. In the Lch analysis processing unit S10, first, a window function process that is a process of applying a Hanning window to the IN_L [t] signal is executed (S11). Thereafter, Fast Fourier Transform (FFT) is performed on the IN_L [t] signal (S12). By this fast Fourier transform, the IN_L [t] signal is converted into an IN_L [f] signal (becomes a spectrum signal having the horizontal axis of each Fourier-transformed frequency [f]). The IN_L [f] signal is expressed by an expression having a real part and an imaginary part (hereinafter referred to as “complex expression”). Here, the reason why the Hanning window is applied to the IN_L [t] signal in the process of S11 is to reduce the influence of the start point and the end point in the input IN_L [t] signal on the fast Fourier transform. .

S12の処理後、Lch解析処理部S10では、IN_L[f]信号のレベル(以後、「INL_Lv[f]」と称す)およびIN_L[f]信号の位相(以後、「INL_Ar[f]」と称す)を、各周波数[f]毎に算出する(S13)。具体的には、INL_Lv[f]は、IN_L[f]信号の複素式における実数部を2乗した値と、IN_L[f]信号の複素式における虚数部を2乗した値とを足し合わせ、その足し合わせた値の平方根を算出することで求める。また、INL_Ar[f]は、IN_L[f]信号の複素式における虚数部を実数部で除した値のアークタンジェント(tan^(−1))を算出することで求める。S13の処理後、メイン処理部S30の処理へと移行する。   After the processing of S12, in the Lch analysis processing unit S10, the level of the IN_L [f] signal (hereinafter referred to as “INL_Lv [f]”) and the phase of the IN_L [f] signal (hereinafter referred to as “INL_Ar [f]”). ) Is calculated for each frequency [f] (S13). Specifically, INL_Lv [f] is a sum of a value obtained by squaring the real part of the complex expression of the IN_L [f] signal and a value obtained by squaring the imaginary part of the complex expression of the IN_L [f] signal. It is obtained by calculating the square root of the sum of the values. Further, INL_Ar [f] is obtained by calculating an arc tangent (tan ^ (-1)) of a value obtained by dividing the imaginary part in the complex expression of the IN_L [f] signal by the real part. After the process of S13, the process proceeds to the process of the main processing unit S30.

Rch解析処理部S20では、IN_R[t]信号に対して、S21〜S23の処理が行われる。なお、このS21〜S23の処理は、S11〜S13の処理と同様の処理であり、S11〜S13の処理と異なる点は、処理対象が、IN_R[t]信号であり、IN_R[f]信号が出力される点である。よって、S21〜S23の処理の詳細な説明は省略する。なお、S23の処理後、メイン処理部S30の処理へと移行する。   In the Rch analysis processing unit S20, the processes of S21 to S23 are performed on the IN_R [t] signal. Note that the processing of S21 to S23 is the same as the processing of S11 to S13, and is different from the processing of S11 to S13 in that the processing target is the IN_R [t] signal, and the IN_R [f] signal is This is the output point. Therefore, the detailed description of the processing of S21 to S23 is omitted. In addition, after the process of S23, it transfers to the process of main process part S30.

次に、L1ch出力処理部S60、R1ch出力処理部S70、L2ch出力処理部S70、R2ch出力処理部S90について説明する。   Next, the L1ch output processing unit S60, the R1ch output processing unit S70, the L2ch output processing unit S70, and the R2ch output processing unit S90 will be described.

L1ch出力処理部S60では、まず、逆高速フーリエ変換(逆FFT)が実行される(S61)。この処理では、具体的には、メイン処理部S30で算出されたOUT_L1[f]信号と、Lch解析処理部S10のS13の処理で算出されたINL_Ar[f]とを使用して、複素式を求め、その複素式に対して、逆高速フーリエ変換を行う。その後、逆高速フーリエ変換で算出された値に対して、Lch解析処理部S10およびRch解析処理部S20で使用したハニング窓と同一の窓をかける窓関数処理を実行する(S62)。例えば、Lch解析処理部S10およびRch解析処理部S20で使用した窓関数が、ハニング窓であるとすれば、S62の処理でも、ハニング窓を、逆高速フーリエ変換で算出した値に対してかける。これにより、OUT1_L[t]信号が生成される。なお、S62の処理で、逆高速フーリエ変換で算出された値に対してハニング窓をかけるのは、各出力処理部S60〜S90から出力される信号をクロスフェードしながら合成するためである。   In the L1ch output processing unit S60, first, inverse fast Fourier transform (inverse FFT) is performed (S61). In this process, specifically, a complex expression is obtained by using the OUT_L1 [f] signal calculated by the main processing unit S30 and the INL_Ar [f] calculated by S13 of the Lch analysis processing unit S10. The inverse fast Fourier transform is performed on the complex expression. Thereafter, a window function process for applying the same window as the Hanning window used in the Lch analysis processing unit S10 and the Rch analysis processing unit S20 is executed on the value calculated by the inverse fast Fourier transform (S62). For example, if the window function used in the Lch analysis processing unit S10 and the Rch analysis processing unit S20 is a Hanning window, the Hanning window is applied to the value calculated by the inverse fast Fourier transform in the processing of S62. Thereby, an OUT1_L [t] signal is generated. The reason why the Hanning window is applied to the value calculated by the inverse fast Fourier transform in the processing of S62 is to synthesize the signals output from the output processing units S60 to S90 while cross-fading.

R1ch出力処理部S70では、S71〜S72の処理が行われる。なお、このS71〜S72の処理は、S61〜S62の処理と同様の処理であり、S61〜S62の処理と異なる点は、逆高速フーリエ変換で使用する複素式を求める際の値が、メイン処理部S30で算出されたOUT_R1[f]信号と、Rch解析処理部S20のS23の処理で算出されたINR_Ar[f]となるところである。それ以外は、S61〜S62の処理と同一である。よって、S71〜S72の処理の詳細な説明は省略する。   In the R1ch output processing unit S70, the processes of S71 to S72 are performed. Note that the processing of S71 to S72 is the same as the processing of S61 to S62. The difference from the processing of S61 to S62 is that the value for obtaining the complex expression used in the inverse fast Fourier transform is the main processing. The OUT_R1 [f] signal calculated in the unit S30 and the INR_Ar [f] calculated in the process of S23 of the Rch analysis processing unit S20. Other than that, it is the same as the process of S61-S62. Therefore, detailed description of the processing of S71 to S72 is omitted.

また、L2ch出力処理部S80では、S81〜S82の処理が行われる。なお、このS81〜S82の処理は、S61〜S62の処理と同様の処理であり、S61〜S62の処理と異なる点は、逆高速フーリエ変換で使用する複素式を求める際の値が、メイン処理部S30で算出されたOUT_L2[f]信号となるところである(Lch解析処理部S10のS13の処理で算出されたINL_Ar[f]を使用するところは同じ)。それ以外は、S61〜S62の処理と同一である。よって、S81〜S82の処理の詳細な説明は省略する。   In the L2ch output processing unit S80, the processes of S81 to S82 are performed. Note that the processing of S81 to S82 is the same as the processing of S61 to S62. The difference from the processing of S61 to S62 is that the value for obtaining the complex expression used in the inverse fast Fourier transform is the main processing. This is the OUT_L2 [f] signal calculated in the unit S30 (the same applies to the INL_Ar [f] calculated in the process of S13 of the Lch analysis processing unit S10). Other than that, it is the same as the process of S61-S62. Therefore, detailed description of the processing of S81 to S82 is omitted.

また、R2ch出力処理部S90では、S91〜S92の処理が行われる。なお、このS91〜S92の処理は、S61〜S62の処理と同様の処理であり、S61〜S62の処理と異なる点は、逆高速フーリエ変換で使用する複素式を求める際の値が、メイン処理部S30で算出されたOUT_R2[f]信号と、Rch解析処理部S20のS23の処理で算出されたINR_Ar[f]となるところである。それ以外は、S61〜S62の処理と同一である。よって、S91〜S92の処理の詳細は省略する。   In the R2ch output processing unit S90, the processes of S91 to S92 are performed. Note that the processing of S91 to S92 is the same as the processing of S61 to S62. The difference from the processing of S61 to S62 is that the value for obtaining the complex expression used in the inverse fast Fourier transform is the main processing. The OUT_R2 [f] signal calculated in the unit S30 and the INR_Ar [f] calculated in the process of S23 of the Rch analysis processing unit S20. Other than that, it is the same as the process of S61-S62. Therefore, details of the processing of S91 to S92 are omitted.

次に、図4を参照して、メイン処理部S30で実行される処理の詳細について説明する。図4は、メイン処理部S30で実行される処理を示した図である。   Next, with reference to FIG. 4, the detail of the process performed by main process part S30 is demonstrated. FIG. 4 is a diagram illustrating processing executed in the main processing unit S30.

メイン処理部S30では、まず、IN_L[t]信号及びIN_R[t]信号に対して行ったフーリエ変換(S12、S22)により得られた各周波数毎に定位w[f]を求めると共に、INL_Lv[f]とINR_Lv[f]とのうち、大きいほうのレベルを、各周波数における最大レベルML[f]として設定する(S31)。S31で求められた定位w[f]および設定された最大レベルML[f]は、RAM16の所定領域に記憶される。なお、S31において、定位w[f]は、(1/π)×(arctan(INR_Lv[f]/INL_Lv[f])+0.25で求められる。よって、任意の基準点で楽音を受音した場合に、即ち、任意の基準点でIN_L[t]およびIN_R[t]を入力した場合に、INR_Lv[f]がINL_Lv[f]に対して十分大きければ、定位w[f]は0.75となる一方、INL_Lv[f]がINR_Lv[f]に対して十分大きければ、定位w[f]は0.25となる。   In the main processing unit S30, first, the localization w [f] is obtained for each frequency obtained by the Fourier transform (S12, S22) performed on the IN_L [t] signal and the IN_R [t] signal, and the INL_Lv [ The larger level of f] and INR_Lv [f] is set as the maximum level ML [f] at each frequency (S31). The localization w [f] obtained in S31 and the set maximum level ML [f] are stored in a predetermined area of the RAM 16. In S31, the localization w [f] is obtained by (1 / π) × (arctan (INR_Lv [f] / INL_Lv [f]) + 0.25. Therefore, a musical sound is received at an arbitrary reference point. In this case, that is, when IN_L [t] and IN_R [t] are input at an arbitrary reference point, if the INR_Lv [f] is sufficiently larger than the INL_Lv [f], the localization w [f] is 0.75. On the other hand, if INL_Lv [f] is sufficiently larger than INR_Lv [f], the localization w [f] is 0.25.

次に、メモリのクリアを行う(S32)。具体的には、RAM16の内部に設けられた、1L[f]メモリ、1R[f]メモリ、2L[f]メモリおよび2R[f]メモリをゼロクリアする。なお、1L[f]メモリおよび1R[f]メモリは、メイン処理部S30から出力されるOUT_L1[f]信号およびOUT_R1[f]信号によって形成される定位を変更する場合に使用されるメモリであり、2L[f]メモリおよび2R[f]メモリは、メイン処理部S30から出力されるOUT_L2[f]信号およびOUT_R2[f]信号によって形成される定位を変更する場合に使用されるメモリである。   Next, the memory is cleared (S32). Specifically, the 1L [f] memory, 1R [f] memory, 2L [f] memory, and 2R [f] memory provided in the RAM 16 are cleared to zero. The 1L [f] memory and the 1R [f] memory are memories used when changing the localization formed by the OUT_L1 [f] signal and the OUT_R1 [f] signal output from the main processing unit S30. The 2L [f] memory and the 2R [f] memory are memories used when changing the localization formed by the OUT_L2 [f] signal and the OUT_R2 [f] signal output from the main processing unit S30.

S32の実行後、第1取り出し処理(S100)、第2取り出し処理(S200)および指定以外を取り出す処理(S300)がそれぞれ実行される。第1取り出し処理(S100)は、予め設定された第1条件で、信号処理を施す対象となる信号を、つまり抽出信号を抽出する処理であり、第2取り出し処理(S200)は、予め設定された第2条件で、抽出信号を抽出する処理である。また、指定以外を取り出す処理(S300)は、第1条件で抽出された信号または第2条件で抽出された信号以外の信号を抽出する処理である。なお、指定以外を取り出す処理(S300)は、第1取り出し処理(S100)および第2取り出し処理(S200)の処理結果を使用するので、第1取り出し処理(S100)および第2取り出し処理(S200)の処理完了後に実行される。 After the execution of S32, a first extraction process (S100), a second extraction process (S200), and a process for extracting items other than the designation (S300) are executed. The first extraction process (S100) is a process of extracting a signal to be subjected to signal processing under a first condition set in advance, that is, an extraction signal, and the second extraction process (S200) is preset. This is a process of extracting the extraction signal under the second condition. Further, the process (S300) for extracting other than specified is a process for extracting a signal extracted under the first condition or a signal other than the signal extracted under the second condition. In addition, since the process (S300) for taking out items other than the designation uses the processing results of the first take-out process (S100) and the second take-out process (S200), the first take-out process (S100) and the second take-out process (S200). It is executed after the process is completed.

第1取り出し処理(S100)の実行後は、その処理(S100)で抽出された抽出信号へ信号処理を施す第1信号処理が実行される(S110)。また、第2取り出し処理(S200)の実行後は、その処理(S200)で抽出された抽出信号へ信号処理を施す第2信号処理が実行される(S210)。更に、指定以外を取り出す処理(S300)の実行後は、その処理(S300)で抽出された抽出信号へ信号処理を施す指定外信号処理が実行される(S310)。   After the execution of the first extraction process (S100), a first signal process for performing signal processing on the extracted signal extracted in the process (S100) is executed (S110). Further, after the execution of the second extraction process (S200), a second signal process is performed (S210) for performing signal processing on the extracted signal extracted in the process (S200). Further, after execution of the processing for extracting non-designation (S300), non-designated signal processing for performing signal processing on the extracted signal extracted in the processing (S300) is executed (S310).

ここで、図5を参照して、第1取り出し処理(S100)、第1信号処理(S110)、第2取り出し処理(S200)および第2信号処理(S210)を説明し、次に、図6を参照して、指定以外を取り出す処理(S300)および指定外信号処理(S310)を説明する。   Here, the first extraction process (S100), the first signal process (S110), the second extraction process (S200), and the second signal process (S210) will be described with reference to FIG. Referring to FIG. 4, the process for extracting non-designation (S300) and the non-designation signal process (S310) will be described.

まず、第1取り出し処理(S100)、第1信号処理(S110)、第2取り出し処理(S200)および第2信号処理(S210)について説明する。図5は、第1取り出し処理(S100)、第1信号処理(S110)、第2取り出し処理(S200)および第2信号処理(S210)で行われる処理の詳細を示した図である。   First, the first extraction process (S100), the first signal process (S110), the second extraction process (S200), and the second signal process (S210) will be described. FIG. 5 is a diagram showing details of processing performed in the first extraction processing (S100), the first signal processing (S110), the second extraction processing (S200), and the second signal processing (S210).

第1取り出し処理(S100)では、周波数[f]が、予め設定された第1周波数範囲内であり、かつ、第1周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第1設定範囲内であるか否か、即ち、楽音信号が第1条件を満たすか否かが判定される(S101)。周波数[f]が、予め設定された第1周波数範囲内であり、かつ、第1周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第1設定範囲内である場合には(S101:Yes)、その周波数[f]における楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号であると判定され、配列rel[f][1]に1.0が代入される(S102)。なお、配列rel[f][1]に記載のfには、S101でYesと判定された時点の周波数が代入される。また、配列rel[f][1]に記載の1は、配列rel[f][1]が、第1取り出し処理(S100)における抽出信号であることを示している。   In the first extraction process (S100), the frequency [f] is within the preset first frequency range, and the localization w [f] and the maximum level ML [f] at the frequency within the first frequency range are set. It is determined whether or not each is within a preset first setting range, that is, whether or not the musical sound signal satisfies the first condition (S101). The frequency [f] is within a preset first frequency range, and the localization w [f] and the maximum level ML [f] at a frequency within the first frequency range are each set to a preset first setting. If it is within the range (S101: Yes), the tone signal (left channel signal and right channel signal) at that frequency [f] is determined to be an extracted signal, and 1 is assigned to the array rel [f] [1]. .0 is substituted (S102). It should be noted that the frequency at the time point determined as Yes in S101 is substituted for f described in the array rel [f] [1]. Moreover, 1 described in the array rel [f] [1] indicates that the array rel [f] [1] is an extraction signal in the first extraction process (S100).

なお、周波数[f]が、予め設定された第1周波数範囲内でないか、または、第1周波数範囲内の周波数[f]における定位w[f]が第1設定範囲内でないか、或いは、第1周波数範囲内の周波数[f]における最大レベルML[f]が、第1設定範囲内でない場合には(S101:No)、その周波数[f]における楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号でないと判定され、配列rel[f][1]に0.0が代入される(S103)。   Note that the frequency [f] is not within the preset first frequency range, or the localization w [f] at the frequency [f] within the first frequency range is not within the first set range, or When the maximum level ML [f] at the frequency [f] within one frequency range is not within the first setting range (S101: No), the tone signal (left channel signal and right channel signal) at that frequency [f] Is not an extracted signal, and 0.0 is substituted into the array rel [f] [1] (S103).

S102またはS103の処理後、フーリエ変換された全ての周波数について、S101の処理が完了したか否かが判定され(S104)、S104の判定が否定される場合には(S104:No)、S101の処理へ戻る一方、S104の判定が肯定される場合には(S104:Yes)、第1信号処理(S110)へ移行する。   After the process of S102 or S103, it is determined whether or not the process of S101 is completed for all the Fourier-transformed frequencies (S104). If the determination of S104 is negative (S104: No), the process of S101 On the other hand, if the determination in S104 is affirmative (S104: Yes), the process proceeds to the first signal process (S110).

第1信号処理(S110)では、OUT_L1[f]信号の一部となる1L[f]信号のレベルを調整すると共に、OUT_R1[f]信号の一部となる1R[f]信号のレベルを調整することで、第1取り出し処理(S100)での抽出信号によって形成される定位(メインスピーカから出力される分)を調整するS111の処理が行われる。また、このS111の処理と平行して、第1信号処理(S110)では、OUT_L2[f]信号の一部となる2L[f]信号のレベルを調整すると共に、OUT_R2[f]信号の一部となる2R[f]信号のレベルを調整することで、第1取り出し処理(S100)での抽出信号によって形成される定位(サブスピーカから出力される分)を調整するS114の処理が行われる。   In the first signal processing (S110), the level of the 1L [f] signal that is a part of the OUT_L1 [f] signal is adjusted, and the level of the 1R [f] signal that is a part of the OUT_R1 [f] signal is adjusted. Thus, the process of S111 for adjusting the localization (the amount output from the main speaker) formed by the extraction signal in the first extraction process (S100) is performed. In parallel with the processing of S111, in the first signal processing (S110), the level of the 2L [f] signal that is a part of the OUT_L2 [f] signal is adjusted and a part of the OUT_R2 [f] signal is adjusted. By adjusting the level of the 2R [f] signal, the process of S114 for adjusting the localization (the amount output from the sub-speaker) formed by the extracted signal in the first extraction process (S100) is performed.

S111の処理では、OUT_L1[f]信号の一部となる1L[f]信号が算出される。具体的には、「INL_Lv[f]×ll+INR_Lv[f]×lr)×rel[f][1]×a」が、IN_L[t]信号及びIN_R[t]信号に対して行ったフーリエ変換(S12、S22)により得られた全ての周波数について行われて、1L[f]信号が算出される。同様に、S111の処理では、OUT_R1[f]信号の一部となる1R[f]信号が算出される。具体的には、「INL_Lv[f]×rl+INR_Lv[f]×rr)×rel[f][1]×a」が、S12,S22においてフーリエ変換された全ての周波数について行われて、1R[f]信号が算出される。   In the processing of S111, a 1L [f] signal that is a part of the OUT_L1 [f] signal is calculated. Specifically, “INL_Lv [f] × ll + INR_Lv [f] × lr) × rel [f] [1] × a” is a Fourier transform performed on the IN_L [t] signal and the IN_R [t] signal ( This is performed for all the frequencies obtained in S12, S22), and a 1L [f] signal is calculated. Similarly, in the process of S111, a 1R [f] signal that is a part of the OUT_R1 [f] signal is calculated. Specifically, “INL_Lv [f] × rl + INR_Lv [f] × rr) × rel [f] [1] × a” is performed for all the frequencies subjected to Fourier transform in S12 and S22, and 1R [f ] Signal is calculated.

なお、aは、第1信号処理に対して予め定められた係数であり、ll,lr,rl,rrは、楽音信号(左チャンネル信号、右チャンネル信号)から求められる定位w[f]と、第1信号処理に対して予め定められた目標とする定位(例えば、0.25〜0.75の範囲内の値)とに応じて決定される係数である。ここで、図7を参照して、ll,lr,rl,rrについて説明する。図7は、定位w[f]と目標とする定位とに応じて決定される各係数を説明するためのグラフである。図7のグラフにおいて、横軸は、(目標とする定位−定位w[f]+0.5)の値であり、縦軸は、各係数(ll,lr,rl,rr,ll´,lr´,rl´,rr´)である。   Here, a is a coefficient predetermined for the first signal processing, and ll, lr, rl, rr are localization w [f] obtained from the musical sound signals (left channel signal, right channel signal); It is a coefficient determined in accordance with a target localization (for example, a value within a range of 0.25 to 0.75) predetermined for the first signal processing. Here, ll, lr, rl, and rr will be described with reference to FIG. FIG. 7 is a graph for explaining each coefficient determined according to the localization w [f] and the target localization. In the graph of FIG. 7, the horizontal axis is a value of (target localization−localization w [f] +0.5), and the vertical axis is each coefficient (ll, lr, rl, rr, ll ′, lr ′). , Rl ′, rr ′).

llとrrとの関係は、図7(a)に示す通りである。よって、(目標とする定位−定位w[f]+0.5)の値が0.5である場合に、llとrrとは、互いに最大の係数となる。逆に、lrとrlとの関係は、図7(b)に示すようになり、(目標とする定位−定位w[f]+0.5)の値が0.5である場合に、lrとrlとは、互いに最小の(ゼロの)係数となる。   The relationship between ll and rr is as shown in FIG. Therefore, when the value of (target localization−localization w [f] +0.5) is 0.5, ll and rr are the maximum coefficients. On the other hand, the relationship between lr and rl is as shown in FIG. 7B, and when the value of (target localization-localization w [f] +0.5) is 0.5, rl is the smallest (zero) coefficient between each other.

図5の説明に戻る。S111の処理後、1L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S112)。なお、ピッチ変更、レベル変更、及びリバーブ付与(所謂、コンボリューション・リバーブ)については、いずれも公知技術であるので、それらの具体的説明は省略する。1L[f]信号に対してS112の処理が行われると、OUT_L1[f]信号を構成する1L_1[f]信号が生成される。同様に、S111の処理後、1R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S113)。1R[f]信号に対してS113の処理が行われると、OUT_R1[f]信号を構成する1R_1[f]信号が生成される。   Returning to the description of FIG. After the processing of S111, processing for performing pitch change, level change, and reverberation is performed on the 1L [f] signal (S112). Note that pitch change, level change, and reverberation (so-called convolution reverb) are all well-known techniques and will not be described in detail. When the process of S112 is performed on the 1L [f] signal, the 1L_1 [f] signal constituting the OUT_L1 [f] signal is generated. Similarly, after the processing of S111, processing for performing pitch change, level change, and reverberation is performed on the 1R [f] signal (S113). When the process of S113 is performed on the 1R [f] signal, the 1R_1 [f] signal constituting the OUT_R1 [f] signal is generated.

また、S114の処理では、OUT_L2[f]信号の一部となる2L[f]信号が算出される。具体的には、「INL_Lv[f]×ll´+INR_Lv[f]×lr´)×rel[f][1]×b」が、IN_L[t]信号及びIN_R[t]信号に対して行ったフーリエ変換(S12、S22)により得られた全ての周波数について行われて、2L[f]信号が算出される。同様に、S114の処理では、OUT_R2[f]信号の一部となる2R[f]信号が算出される。具体的には、「INL_Lv[f]×rl´+INR_Lv[f]×rr´)×rel[f][1]×b」が、S12,S22においてフーリエ変換された全ての周波数について行われて、2R[f]信号が算出される。   In the process of S114, a 2L [f] signal that is a part of the OUT_L2 [f] signal is calculated. Specifically, “INL_Lv [f] × ll ′ + INR_Lv [f] × lr ′) × rel [f] [1] × b” was performed on the IN_L [t] and IN_R [t] signals. This is performed for all the frequencies obtained by the Fourier transform (S12, S22), and a 2L [f] signal is calculated. Similarly, in the process of S114, a 2R [f] signal that is a part of the OUT_R2 [f] signal is calculated. Specifically, “INL_Lv [f] × rl ′ + INR_Lv [f] × rr ′) × rel [f] [1] × b” is performed for all the frequencies subjected to Fourier transform in S12 and S22. A 2R [f] signal is calculated.

なお、bは、第1信号処理に対して予め定められた係数である。この係数bは、係数aと同じであっても異なっていてもよい。また、ll´,lr´,rl´,rr´は、楽音信号から求められる定位w[f]と、第1信号処理に対して予め定められた目標とする定位(例えば、0.25〜0.75の範囲内の値)とによって決定される係数である。ここで、図7を参照して、ll´,lr´,rl´,rr´について説明する。ll´とrr´との関係は、図7(a)に示すようになり、(目標とする定位−定位w[f]+0.5)の値が0.0である場合に、ll´は最大の係数となる一方で、rr´は最小の(ゼロの)係数となる。逆に、(目標とする定位−定位w[f]+0.5)の値が1.0である場合に、ll´は最小の(ゼロの)係数となる一方で、rr´は最大の係数となる。 Note that b is a coefficient predetermined for the first signal processing. This coefficient b may be the same as or different from the coefficient a. In addition, ll ′, lr ′, rl ′, rr ′ are the localization w [f] obtained from the musical tone signal and the target localization predetermined for the first signal processing (for example, 0.25-0) A value in the range of .75). Here, ll ′, lr ′, rl ′, rr ′ will be described with reference to FIG. The relationship between ll ′ and rr ′ is as shown in FIG. 7A. When the value of (target localization−localization w [f] +0.5) is 0.0, ll ′ is While it is the largest coefficient, rr ′ is the smallest (zero) coefficient. Conversely, when the value of (target localization-localization w [f] +0.5) is 1.0, ll ′ is the minimum (zero) coefficient, while rr ′ is the maximum coefficient. It becomes.

同様に、lr´とrl´との関係は、図7(b)に示すようになり、(目標とする定位−定位w[f]+0.5)の値が0.0である場合に、lr´は最大の係数となる一方で、rl´は最小の(ゼロの)係数となる。逆に、(目標とする定位−定位w[f]+0.5)の値が1.0である場合に、lr´は最小の(ゼロの)係数となる一方で、rl´は最大の係数となる。   Similarly, the relationship between lr ′ and rl ′ is as shown in FIG. 7B, and when the value of (target localization−localization w [f] +0.5) is 0.0, lr ′ is the largest coefficient, while rl ′ is the smallest (zero) coefficient. Conversely, when the value of (target localization-localization w [f] +0.5) is 1.0, lr ′ is the minimum (zero) coefficient, while rl ′ is the maximum coefficient. It becomes.

図5の説明に戻る。S114の処理後、2L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S115)。2L[f]信号に対してS115の処理が行われると、OUT_L2[f]信号を構成する2L_1[f]信号が生成される。同様に、S114の処理後、2R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S116)。2R[f]信号に対してS116の処理が行われると、OUT_R2[f]信号を構成する2R_1[f]信号が生成される。   Returning to the description of FIG. After the process of S114, processing for changing the pitch, changing the level, and applying reverb is performed on the 2L [f] signal (S115). When the process of S115 is performed on the 2L [f] signal, the 2L_1 [f] signal constituting the OUT_L2 [f] signal is generated. Similarly, after the process of S114, a process for changing the pitch, changing the level, and applying a reverb is performed on the 2R [f] signal (S116). When the process of S116 is performed on the 2R [f] signal, the 2R_1 [f] signal constituting the OUT_R2 [f] signal is generated.

第1取り出し処理S100と平行して実行される第2取り出し処理S200では、周波数[f]が、予め設定された第2周波数範囲内であり、かつ、第2周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第2設定範囲内であるか否か、即ち、楽音信号が第2条件を満たすか否かが判定される(S201)。本実施形態では、第2周波数範囲は、第1周波数範囲とは異なる範囲(範囲開始と範囲終了とが完全には一致しない範囲)であり、第2設定範囲は、第1設定範囲とは異なる範囲(範囲開始と範囲終了とが完全には一致しない範囲)とする。なお、第2周波数範囲は、第1周波数範囲に一部重なる範囲であってもよいし、第1周波数範囲と完全に一致する範囲であってもよい。第2設定範囲もまた、第1設定範囲に一部重なる範囲であってもよく、第1設定範囲と完全に一致する範囲であってもよい。   In the second extraction process S200 that is executed in parallel with the first extraction process S100, the frequency [f] is within a preset second frequency range, and the localization w [ It is determined whether or not f] and maximum level ML [f] are within a preset second setting range, that is, whether or not the musical tone signal satisfies the second condition (S201). In the present embodiment, the second frequency range is a range different from the first frequency range (a range where the range start and the range end do not completely match), and the second set range is different from the first set range. A range (a range where the start and end of the range do not completely match) is assumed. The second frequency range may be a range that partially overlaps the first frequency range, or may be a range that completely coincides with the first frequency range. The second setting range may also be a range that partially overlaps the first setting range, or may be a range that completely matches the first setting range.

周波数[f]が、予め設定された第2周波数範囲内であり、かつ、第2周波数範囲内の周波数における定位w[f]および最大レベルML[f]がそれぞれ、予め設定された第2設定範囲内である場合には(S201:Yes)、その周波数[f]における楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号であると判定され、配列rel[f][2]に1.0が代入される(S102)。なお、配列rel[f][2]に記載の2は、配列rel[f][2]が、第2取り出し処理S200における抽出信号であることを示している。   The frequency [f] is within a preset second frequency range, and the localization w [f] and the maximum level ML [f] at a frequency within the second frequency range are each preset second settings. If it is within the range (S201: Yes), the tone signal (left channel signal and right channel signal) at the frequency [f] is determined to be an extracted signal, and 1 is assigned to the array rel [f] [2]. .0 is substituted (S102). Note that 2 described in the array rel [f] [2] indicates that the array rel [f] [2] is an extraction signal in the second extraction process S200.

なお、周波数[f]が、予め設定された第2周波数範囲内でないか、または、第2周波数範囲内の周波数[f]における定位w[f]が第2設定範囲内でないか、或いは、第2周波数範囲内の周波数[f]における最大レベルML[f]が、第2設定範囲内でない場合には(S201:No)、その周波数[f]における楽音信号(左チャンネル信号および右チャンネル信号)は、抽出信号でないと判定され、配列rel[f][2]に0.0が代入される(S203)。   The frequency [f] is not within the preset second frequency range, the localization w [f] at the frequency [f] within the second frequency range is not within the second set range, or the first When the maximum level ML [f] at the frequency [f] within the two frequency range is not within the second setting range (S201: No), the tone signal (left channel signal and right channel signal) at the frequency [f] Is not an extracted signal, and 0.0 is substituted into the array rel [f] [2] (S203).

S202またはS203の処理後、フーリエ変換された全ての周波数について、S201の処理が完了したか否かが判定され(S204)、S204の判定が否定される場合には(S204:No)、S201の処理へ戻る一方、S204の判定が肯定される場合には(S204:Yes)、第2信号処理(S210)へ移行する。   After the process of S202 or S203, it is determined whether or not the process of S201 has been completed for all the Fourier-transformed frequencies (S204). If the determination of S204 is negative (S204: No), the process of S201 On the other hand, if the determination in S204 is affirmative (S204: Yes), the process proceeds to the second signal process (S210).

第2信号処理(S210)では、OUT_L1[f]信号の一部となる1L[f]信号のレベルを調整すると共に、OUT_R1[f]信号の一部となる1R[f]信号のレベルを調整することで、第2取り出し処理(S200)での抽出信号によって形成される定位(メインスピーカから出力される分)を調整するS211の処理が行われる。また、このS211の処理と平行して、第2信号処理(S210)では、OUT_L2[f]信号の一部となる2L[f]信号のレベルを調整すると共に、OUT_R2[f]信号の一部となる2R[f]信号のレベルを調整することで、第2取り出し処理(S200)での抽出信号によって形成される定位(サブスピーカから出力される分)を調整するS214の処理が行われる。   In the second signal processing (S210), the level of the 1L [f] signal that is a part of the OUT_L1 [f] signal is adjusted, and the level of the 1R [f] signal that is a part of the OUT_R1 [f] signal is adjusted. Thus, the process of S211 for adjusting the localization (the amount output from the main speaker) formed by the extracted signal in the second extraction process (S200) is performed. In parallel with the processing of S211, in the second signal processing (S210), the level of the 2L [f] signal that is a part of the OUT_L2 [f] signal is adjusted, and a part of the OUT_R2 [f] signal is adjusted. By adjusting the level of the 2R [f] signal, the process of S214 for adjusting the localization (the amount output from the sub-speaker) formed by the extracted signal in the second extraction process (S200) is performed.

ここで、第2信号処理(S210)におけるS211〜S216の各処理は、以下に説明する点が異なっていること以外は、第1信号処理(S110)におけるS111〜S116の各処理と同様に行われるので、その説明は省略する。第2信号処理(S210)と第1信号処理(S110)との第1の相違点は、第1信号処理に入力される信号が、第1取り出し処理(S100)からの抽出信号であるのに対し、第2信号処理に入力される信号は、第2取り出し処理(S200)からの抽出信号である点であり、第2の相違点は、第1信号処理では、配列rel[f][1]を用いるのに対し、第2信号処理では、配列rel[f][2]をそれぞれ用いる点であり、第3の相違点は、第1信号処理から出力される信号が、1L_1[f]、1R_1[f]、1L_2[f]、及び1R_2[f]であるのに対し、第2信号処理から出力される信号は、2L_1[f]、2R_1[f]、2L_2[f]、及び2R_2[f]である点である。   Here, each process of S211 to S216 in the second signal process (S210) is the same as each process of S111 to S116 in the first signal process (S110) except that the points described below are different. Therefore, the description thereof is omitted. The first difference between the second signal processing (S210) and the first signal processing (S110) is that the signal input to the first signal processing is an extraction signal from the first extraction processing (S100). On the other hand, the signal input to the second signal processing is an extraction signal from the second extraction processing (S200), and the second difference is that in the first signal processing, the array rel [f] [1 ] Is used in the second signal processing, the array rel [f] [2] is used, and the third difference is that the signal output from the first signal processing is 1L_1 [f]. 1R_1 [f], 1L_2 [f], and 1R_2 [f], the signals output from the second signal processing are 2L_1 [f], 2R_1 [f], 2L_2 [f], and 2R_2. The point is [f].

なお、第1信号処理(S110)で目標とする定位と、第2信号処理(S210)で目標とする定位とは、同じであっても異なっていてもよい。つまり、第1信号処理と第2信号処理とで目標とする定位が異なる場合には、第1信号処理で用いる係数ll,lr,rl,rr,ll´,lr´,rl´,rr´と、第2信号処理で用いる係数ll,lr,rl,rr,ll´,lr´,rl´,rr´が異なることになる。また、第1信号処理で用いる係数a,bと、第2信号処理で用いる係数a,bとは、同じであっても異なっていてもよい。また、第1信号処理の中で実行される加工処理S112,S113,S115,S116の内容と、第2信号処理(S210)の中で実行される加工処理S212,S213,S215,S216の内容は、同じであっても異なっていてもよい。   Note that the target localization in the first signal processing (S110) and the target localization in the second signal processing (S210) may be the same or different. That is, when the target localization is different between the first signal processing and the second signal processing, the coefficients ll, rr, rl, rr, ll ′, rr ′, rl ′, rr ′ used in the first signal processing The coefficients ll, lr, rl, rr, ll ′, lr ′, rl ′, rr ′ used in the second signal processing are different. Further, the coefficients a and b used in the first signal processing and the coefficients a and b used in the second signal processing may be the same or different. The contents of the processing processes S112, S113, S115, and S116 executed in the first signal processing and the contents of the processing processes S212, S213, S215, and S216 executed in the second signal processing (S210) are as follows. , May be the same or different.

次に、指定以外を取り出す処理(S300)および指定外信号処理(S310)について説明する。図6は、指定以外を取り出す処理(S300)および指定外信号処理(S310)で行われる処理の詳細を示した図である。   Next, a process for extracting non-designation (S300) and a non-designation signal process (S310) will be described. FIG. 6 is a diagram showing the details of the processing performed in the processing for extracting non-designation (S300) and the non-designated signal processing (S310).

指定以外を取り出す処理(S300)では、まず、S12,S22においてフーリエ変換された周波数のうち、最も低い周波数におけるrel[f][1]が0.0であり、かつ、最も低い周波数におけるrel[f][2]が0.0であるか、即ち、最も低い周波数における楽音信号(左チャンネル信号および右チャンネル信号)が抽出信号として、第1取り出し処理(S100)または第2取り出し処理(S200)で抽出されていないかを判定する(S301)。なお、本実施形態では、第1取り出し処理(S100)におけるS102,S103で設定されたrel[f][1]の値、及び、第2取り出し処理(S200)におけるS202,S203で設定されたrel[f][2]の値を用いてS301の判定を行うものとする。また、S301の処理を行う前に、第1、第2取り出し処理(S100,S200)と同様の処理を別途実行し、その際に得られたrel[f][1]の値及びrel[f][2]の値を用いてS301の判定を行ってもよい。   In the process of extracting other than specified (S300), first, rel [f] [1] at the lowest frequency among the frequencies subjected to Fourier transform in S12 and S22 is 0.0, and rel [f] at the lowest frequency is selected. f] [2] is 0.0, that is, the tone signal (left channel signal and right channel signal) at the lowest frequency is used as an extraction signal, the first extraction process (S100) or the second extraction process (S200). (S301). In the present embodiment, the value of rel [f] [1] set in S102 and S103 in the first extraction process (S100) and the rel set in S202 and S203 in the second extraction process (S200). Assume that the determination in S301 is performed using the values of [f] and [2]. Further, before performing the process of S301, a process similar to the first and second extraction processes (S100, S200) is separately executed, and the value of rel [f] [1] and rel [f obtained at that time are obtained. ] The determination in S301 may be performed using the value of [2].

最も低い周波数におけるrel[f][1]が0.0であり、かつ、最も低い周波数におけるrel[f][2]が0.0である場合には(S301:Yes)、最も低い周波数における楽音信号が抽出信号として、第1取り出し処理(S100)または第2取り出し処理(S200)で未だ抽出されていないと判定されて、配列remain[f]に、1.0を代入する(S302)。ここで、remain[f]に代入される1.0は、最も低い周波数における楽音信号が指定以外を取り出す処理(S300)における抽出信号であることを示している。なお、remain[f]に記載のfには、S301でYesと判定された時点の周波数が代入される。   When rel [f] [1] at the lowest frequency is 0.0 and rel [f] [2] at the lowest frequency is 0.0 (S301: Yes), at the lowest frequency It is determined that the tone signal has not yet been extracted as an extraction signal in the first extraction process (S100) or the second extraction process (S200), and 1.0 is substituted into the array remain [f] (S302). Here, 1.0 assigned to “remain [f]” indicates that the tone signal at the lowest frequency is an extracted signal in the process (S300) for extracting a non-designated signal. It should be noted that the frequency at the time when Yes is determined in S301 is substituted for f described in “remain [f]”.

一方、最も低い周波数におけるrel[f][1]が1.0である場合、または、最も低い周波数におけるrel[f][2]が1.0である場合、或いは、両方が1.0である場合には(S301:No)、最も低い周波数における楽音信号が抽出信号として、第1取り出し処理S100または第2取り出し処理S200で既に抽出されていると判定され、配列remain[f]に、0.0を代入する(S302)。ここで、remain[f]に代入される0.0は、最も低い周波数における楽音信号が指定以外を取り出す処理(S300)における抽出信号とはならないことを示している。   On the other hand, when rel [f] [1] at the lowest frequency is 1.0, or when rel [f] [2] at the lowest frequency is 1.0, or both are 1.0. In some cases (S301: No), it is determined that the musical tone signal at the lowest frequency has already been extracted as the extraction signal in the first extraction process S100 or the second extraction process S200, and the array remain [f] contains 0. .0 is substituted (S302). Here, 0.0 assigned to “remain [f]” indicates that the tone signal at the lowest frequency is not an extraction signal in the process (S300) for extracting other than specified.

S302またはS303の処理後、S12,S22においてフーリエ変換された全ての周波数について、S301の処理が完了したか否かが判定され(S304)、S304の判定が否定される場合には(S304:No)、S301の処理へ戻り、S301の判定が未だ行われていない周波数のうち、最も低い周波数に対して、S301の判定が行われる一方、S304の判定が肯定される場合には(S304:Yes)、指定外信号処理(S310)へ移行する。   After the process of S302 or S303, it is determined whether or not the process of S301 has been completed for all the frequencies subjected to Fourier transform in S12 and S22 (S304). If the determination of S304 is negative (S304: No) ), The process returns to the process of S301, and the determination of S301 is performed for the lowest frequency among the frequencies for which the determination of S301 has not been performed. On the other hand, if the determination of S304 is affirmative (S304: Yes) ), The process proceeds to non-designated signal processing (S310).

指定外信号処理(S310)では、OUT_L1[f]信号の一部となる1L[f]信号のレベルを調整すると共に、OUT_R1[f]信号の一部となる1R[f]信号のレベルを調整することで、指定以外を取り出す処理(S300)での抽出信号によって形成される定位(メインスピーカから出力される分)を調整するS311の処理が行われる。また、このS311の処理と平行して、指定外信号処理(S310)では、OUT_L2[f]信号の一部となる2L[f]信号のレベルを調整すると共に、OUT_R2[f]信号の一部となる2R[f]信号のレベルを調整することで、指定以外を取り出す処理(S300)での抽出信号によって形成される定位(サブスピーカから出力される分)を調整するS314の処理が行われる。   In the non-designated signal processing (S310), the level of the 1L [f] signal that is a part of the OUT_L1 [f] signal is adjusted, and the level of the 1R [f] signal that is a part of the OUT_R1 [f] signal is adjusted. Thus, the process of S311 for adjusting the localization (the amount output from the main speaker) formed by the extracted signal in the process (S300) of extracting other than the designation is performed. In parallel with the processing of S311, in the non-designated signal processing (S310), the level of the 2L [f] signal that is a part of the OUT_L2 [f] signal is adjusted, and a part of the OUT_R2 [f] signal is adjusted. By adjusting the level of the 2R [f] signal, the process of S314 is performed to adjust the localization (the amount output from the sub-speaker) formed by the extracted signal in the process (S300) of extracting other than the designation. .

S311の処理では、OUT_L1[f]信号の一部となる1L[f]信号が算出される。具体的には、「INL_Lv[f]×ll+INR_Lv[f]×lr)×remain[f]×c」が、S12,S22においてフーリエ変換された全ての周波数について行われて、1L[f]信号が算出される。同様に、S311の処理では、OUT_R1[f]信号の一部となる1R[f]信号が算出される。具体的には、「INL_Lv[f]×rl+INR_Lv[f]×rr)×remain[f]×c」が、S12,S22においてフーリエ変換された全ての周波数について行われて、1R[f]信号が算出される。なお、cは、この指定外信号処理(S310)において1L[f]及び1R[f]を算出するために予め定められた係数であり、この係数cは、上述した係数a,bと同じであっても異なっていてもよい。   In the process of S311, a 1L [f] signal that is a part of the OUT_L1 [f] signal is calculated. Specifically, “INL_Lv [f] × ll + INR_Lv [f] × lr) × remain [f] × c” is performed for all the frequencies subjected to Fourier transform in S12 and S22, and the 1L [f] signal is obtained. Calculated. Similarly, in the process of S311, a 1R [f] signal that is a part of the OUT_R1 [f] signal is calculated. Specifically, “INL_Lv [f] × rl + INR_Lv [f] × rr) × remain [f] × c” is performed for all the frequencies Fourier-transformed in S12 and S22, and the 1R [f] signal is obtained. Calculated. Note that c is a predetermined coefficient for calculating 1L [f] and 1R [f] in the non-designated signal processing (S310), and this coefficient c is the same as the above-described coefficients a and b. It may or may not be.

S311の処理後、1L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S312)。1L[f]信号に対してS312の処理が行われると、OUT_L1[f]信号を構成する1L_3[f]信号が生成される。同様に、S311の処理後、1R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S313)。1R[f]信号に対してS313の処理が行われると、OUT_R1[f]信号を構成する1R_3[f]信号が生成される。 After the processing in S311, processing for performing pitch change, level change, and reverberation is performed on the 1L [f] signal (S312). When the process of S312 is performed on the 1L [f] signal, the 1L_3 [f] signal constituting the OUT_L1 [f] signal is generated. Similarly, after the processing in S311, processing for performing pitch change, level change, and reverberation is performed on the 1R [f] signal (S313). When the process of S313 is performed on the 1R [f] signal, the 1R_3 [f] signal constituting the OUT_R1 [f] signal is generated.

また、S314の処理では、OUT_L2[f]信号の一部となる2L[f]信号が算出される。具体的には、「INL_Lv[f]×ll´+INR_Lv[f]×lr´)×remain[f]×d」が、S12,S22においてフーリエ変換された全ての周波数について行われて、2L[f]信号が算出される。同様に、S314の処理では、OUT_R2[f]信号の一部となる2R[f]信号が算出される。具体的には、「INL_Lv[f]×rl´+INR_Lv[f]×rr´)×remain[f]×d」が、S12,S22においてフーリエ変換された全ての周波数について行われて、2R[f]信号が算出される。なお、dは、この指定外信号処理(S310)において2L[f]及び2R[f]を算出するために予め定められた係数であり、この係数dは、上述した係数a,b,cと同じであっても異なっていてもよい。   In the process of S314, a 2L [f] signal that is a part of the OUT_L2 [f] signal is calculated. Specifically, “INL_Lv [f] × ll ′ + INR_Lv [f] × lr ′) × remain [f] × d” is performed for all frequencies Fourier-transformed in S12 and S22, and 2L [f ] Signal is calculated. Similarly, in the process of S314, a 2R [f] signal that is part of the OUT_R2 [f] signal is calculated. Specifically, “INL_Lv [f] × rl ′ + INR_Lv [f] × rr ′) × remain [f] × d” is performed for all frequencies Fourier-transformed in S12 and S22, and 2R [f ] Signal is calculated. Note that d is a predetermined coefficient for calculating 2L [f] and 2R [f] in the non-designated signal processing (S310), and this coefficient d is the coefficient a, b, c described above. They may be the same or different.

S314の処理後、2L[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S315)。2L[f]信号に対してS315の処理が行われると、OUT_L2[f]信号を構成する2L_3[f]信号が生成される。同様に、S314の処理後、2R[f]信号に対して、ピッチ変更、レベル変更やリバーブ付与を行う加工処理が行われる(S316)。2R[f]信号に対してS316の処理が行われると、OUT_R2[f]信号を構成する2R_3[f]信号が生成される。   After the processing of S314, processing for changing the pitch, changing the level, and applying reverb is performed on the 2L [f] signal (S315). When the process of S315 is performed on the 2L [f] signal, the 2L_3 [f] signal constituting the OUT_L2 [f] signal is generated. Similarly, after the processing of S314, processing for changing the pitch, changing the level, and applying reverb is performed on the 2R [f] signal (S316). When the process of S316 is performed on the 2R [f] signal, the 2R_3 [f] signal constituting the OUT_R2 [f] signal is generated.

上述した通り、メイン処理部S30では、図5及び図6に示すように、S111,S211,S311の処理に加え、S114,S214,S314の処理が実行される。これにより、抽出された抽出信号における左チャンネル信号および右チャンネル信号を分配して、その分配した左チャンネル信号および右チャンネル信号に対し、各々独立した信号処理を施すことができる。そのため、抽出された抽出信号から分配された左および右チャンネル信号の各々に対して、異なる信号処理(定位を変更する処理)を施すことができる。もちろん、抽出された抽出信号から分配された左および右チャンネル信号の各々に対して、同一の信号処理を施すことも可能である。ここで、S111,S211,S311の処理で生成された信号は、加工処理の後、メインスピーカ用の端子であるOUT1_L端子およびOUT1_R端子から出力される一方で、S114,S214,S314の処理で生成された信号は、加工処理の後、サブスピーカ用の端子であるOUT2_L端子およびOUT2_R端子から出力される。よって、所望の条件毎に抽出信号を抽出した後、所望の条件における抽出信号(言い換えれば、1の条件における抽出信号)に対して、異なる信号処理や加工処理を施した場合には、その異なる信号処理や加工処理を施した各々の抽出信号を、OUT1端子およびOUT2端子の各々から、別々に出力することができる。   As described above, in the main processing unit S30, as shown in FIGS. 5 and 6, in addition to the processes of S111, S211, and S311, the processes of S114, S214, and S314 are executed. Accordingly, the left channel signal and the right channel signal in the extracted extracted signal can be distributed, and independent signal processing can be performed on the distributed left channel signal and right channel signal. Therefore, different signal processing (processing for changing the localization) can be performed on each of the left and right channel signals distributed from the extracted signal. Of course, the same signal processing can be performed on each of the left and right channel signals distributed from the extracted signal. Here, the signals generated by the processes of S111, S211, and S311 are output from the OUT1_L terminal and the OUT1_R terminal, which are terminals for the main speaker, after the processing process, and are generated by the processes of S114, S214, and S314. The processed signal is output from the OUT2_L terminal and the OUT2_R terminal, which are sub-speaker terminals, after the processing. Therefore, after extracting an extraction signal for each desired condition, different signal processing and processing are performed on the extraction signal under the desired condition (in other words, the extraction signal under the one condition). Each extraction signal subjected to signal processing and processing can be output separately from each of the OUT1 terminal and the OUT2 terminal.

図4の説明に戻る。第1信号処理(S110)、第2信号処理(S210)および指定外信号処理(S310)が実行完了すると、第1信号処理(S110)で生成された1L_1[f]信号と第2信号処理(S210)で生成された1L_2[f]信号と指定外信号処理(S310)で生成された1L_3[f]信号とが合成されて、OUT_L1[f]信号が生成される。そして、そのOUT_L1[f]信号がL1ch出力処理部S60(図3参照)に入力されると、L1ch出力処理部S60は、入力したOUT_L1[f]信号をOUT1_L[t]へ変換して、バスライン17を介し、Lch用第1D/Aコンバータ13L1(図1参照)へ出力する。   Returning to the description of FIG. When the first signal processing (S110), the second signal processing (S210), and the non-designated signal processing (S310) are completed, the 1L_1 [f] signal generated in the first signal processing (S110) and the second signal processing ( The 1L_2 [f] signal generated in S210) and the 1L_3 [f] signal generated in the non-designated signal processing (S310) are combined to generate the OUT_L1 [f] signal. When the OUT_L1 [f] signal is input to the L1ch output processing unit S60 (see FIG. 3), the L1ch output processing unit S60 converts the input OUT_L1 [f] signal to OUT1_L [t], and The signal is output to the first D / A converter 13L1 for Lch (see FIG. 1) via the line 17.

同様に、第1信号処理(S110)で生成された1R_1[f]信号と第2信号処理(S210)で生成された1R_2[f]信号と指定外信号処理(S310)で生成された1R_3[f]信号とが合成されて、OUT_R1[f]信号が生成される。そして、そのOUT_R1[f]信号がR1ch出力処理部S70(図3参照)に入力されると、R1ch出力処理部S70は、入力したOUT_R1[f]信号をOUT1_R[t]信号へ変換して、バスライン17を介し、Rch用第1D/Aコンバータ13R1(図1参照)へ出力する。なお、OUT_L2[f]信号およびOUT_R2[f]信号の生成と、OUT2_L[t]信号およびOUT2_R[t]信号の変換も、上述と同様に行われる。   Similarly, the 1R_1 [f] signal generated in the first signal processing (S110), the 1R_2 [f] signal generated in the second signal processing (S210), and 1R_3 [generated in the non-designated signal processing (S310). The signal f] is combined with the signal OUT_R1 [f]. When the OUT_R1 [f] signal is input to the R1ch output processing unit S70 (see FIG. 3), the R1ch output processing unit S70 converts the input OUT_R1 [f] signal into an OUT1_R [t] signal, The data is output to the first D / A converter 13R1 for Rch (see FIG. 1) via the bus line 17. Note that generation of the OUT_L2 [f] signal and OUT_R2 [f] signal and conversion of the OUT2_L [t] signal and OUT2_R [t] signal are performed in the same manner as described above.

このように、OUT_L1[f]信号の生成においては、第1信号処理(S110)で生成された1L_1[f]信号と第2信号処理(S210)で生成された1L_2[f]信号との合成に加え、指定外信号処理(S310)で生成された1L_3[f]信号が合成される。同様に、OUT_R1[f]信号の生成においては、第1信号処理(S110)で生成された1R_1[f]信号と第2信号処理(S210)で生成された1R_2[f]信号との合成に加え、指定外信号処理(S310)で生成された1R_3[f]信号が合成される。よって、所望の条件毎に抽出された抽出信号に対し、第1信号処理(S110)または第2信号処理(S210)で抽出されなかった信号を合成することができる。従って、OUT_L1[f]信号およびOUT_R1[f]を、入力された楽音信号と同様の信号に、即ち、広がりのある自然な楽音にすることができる。   Thus, in the generation of the OUT_L1 [f] signal, the 1L_1 [f] signal generated in the first signal processing (S110) and the 1L_2 [f] signal generated in the second signal processing (S210) are combined. In addition, the 1L_3 [f] signal generated in the non-designated signal processing (S310) is synthesized. Similarly, in the generation of the OUT_R1 [f] signal, the 1R_1 [f] signal generated in the first signal processing (S110) and the 1R_2 [f] signal generated in the second signal processing (S210) are combined. In addition, the 1R_3 [f] signal generated in the non-designated signal processing (S310) is synthesized. Therefore, a signal that has not been extracted in the first signal processing (S110) or the second signal processing (S210) can be synthesized with the extracted signal extracted for each desired condition. Therefore, the OUT_L1 [f] signal and the OUT_R1 [f] can be made to be the same signal as the input musical sound signal, that is, a natural sound having a spread.

上述した通り、本実施形態のエフェクタ1では、第1取り出し処理(S100)あるいは第2取り出し処理(S200)で抽出された抽出信号に対し、信号処理(S110,S210)を行う。ここで、第1取り出し処理(S100)および第2取り出し処理(S200)は、設定された各条件毎に(周波数、定位および最大レベルが一組となった条件毎に)、各々の条件を満たす楽音信号を(左チャンネル信号および右チャンネル信号を)、抽出信号として抽出する。よって、信号処理を施す対象となる抽出信号の抽出を、複数の各条件(周波数、定位および最大レベルが一組となった条件の各々)にわたって行うことができる。   As described above, in the effector 1 of the present embodiment, signal processing (S110, S210) is performed on the extraction signal extracted in the first extraction process (S100) or the second extraction process (S200). Here, the first extraction process (S100) and the second extraction process (S200) satisfy each condition for each set condition (for each condition in which the frequency, localization, and maximum level are a set). A musical sound signal (left channel signal and right channel signal) is extracted as an extraction signal. Therefore, extraction of an extraction signal to be subjected to signal processing can be performed over a plurality of conditions (each of which is a set of frequency, localization and maximum level).

以上、本実施形態に基づき本発明を説明したが、本発明は上記形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能であることは容易に推察できるものである。   As described above, the present invention has been described based on the present embodiment, but the present invention is not limited to the above-described embodiment, and various modifications can be easily made without departing from the spirit of the present invention. It can be guessed.

上述の実施形態では、第1取り出し処理(S100)および第2取り出し処理(S200)における抽出信号の抽出に、周波数、定位および最大レベルが一組となった条件を使用したが、これに限られるものではない。即ち、抽出信号を抽出する条件として、周波数だけ、定位だけ、または、最大レベルだけを用いても良い。或いは、これらを適宜組み合わせても良い(例えば、周波数と定位とを組み合わせても良い)。   In the above-described embodiment, the extraction signal extraction in the first extraction process (S100) and the second extraction process (S200) is performed using a condition in which the frequency, the localization, and the maximum level are set as one set. It is not a thing. That is, only the frequency, the localization, or the maximum level may be used as a condition for extracting the extraction signal. Alternatively, these may be appropriately combined (for example, a frequency and a localization may be combined).

例えば、抽出信号を抽出する条件として、周波数だけを使用する場合には、第1取り出し処理(S100)内のS101の判定内容を、「周波数[f]が、予め設定された第1周波数範囲内であるか否か」へ変更すればよい。また、例えば、抽出信号を抽出する条件として、定位だけを使用する場合には、第1取り出し処理(S100)内のS101の判定内容を、「定位w[f]が、予め設定された第1設定範囲内であるか否か」へ変更すれば良い。また、例えば、抽出信号を抽出する条件として、最大レベルだけを使用する場合には、第1取り出し処理(S100)内のS101の判定内容を、「最大レベルML[f]が、予め設定された第1設定範囲内であるか否か」へ変更すれば良い。ここで、S101の判定内容変更に伴い、第2取り出し処理(S200)内のS201の判定内容を変更する場合には、S101の判定内容の変更と同様の変更を行えば良い。   For example, when only the frequency is used as a condition for extracting the extraction signal, the determination content of S101 in the first extraction process (S100) is set to “frequency [f] is within a preset first frequency range. It may be changed to “whether or not.” Further, for example, when only the localization is used as a condition for extracting the extraction signal, the determination content of S101 in the first extraction process (S100) is set to “first localization w [f] set in advance. It may be changed to “whether it is within the setting range”. For example, when only the maximum level is used as a condition for extracting the extraction signal, the determination content of S101 in the first extraction process (S100) is set to “maximum level ML [f] is set in advance. It may be changed to “whether it is within the first setting range”. Here, when the determination content of S201 in the second extraction process (S200) is changed in accordance with the determination content change of S101, the same change as the determination content change of S101 may be performed.

なお、上述の実施形態では、抽出信号を抽出する条件として、周波数、定位および最大レベルが一組となった条件を使用しているので、条件外に中心周波数を持つノイズや、条件を超えたレベルを持つノイズ、或いは、条件を下回ったレベルを持つノイズから受ける影響を抑制することができる。よって、上述の実施形態では、抽出信号を正確に抽出することができる。   In the above-described embodiment, a condition in which the frequency, localization, and maximum level are set as a set is used as a condition for extracting the extraction signal. It is possible to suppress the influence of noise having a level or noise having a level lower than the condition. Therefore, in the above-described embodiment, the extraction signal can be accurately extracted.

上述の実施形態のS101,S201では、周波数f、定位w[f]、および最大レベルML[f]がそれぞれ予め設定された範囲内であるか否かを判定したが、周波数f、定位w[f]、および最大レベルML[f]のうち少なくとも2つを変数とする任意の関数を用い、その関数により得られる値が設定された範囲内であるか否かを判定するようにしてもよい。これにより、より複雑な範囲を設定することができる。   In S101 and S201 of the above-described embodiment, it is determined whether the frequency f, the localization w [f], and the maximum level ML [f] are within preset ranges. f] and an arbitrary function having at least two of the maximum levels ML [f] as variables may be used to determine whether or not a value obtained by the function is within a set range. . Thereby, a more complicated range can be set.

上述の実施形態で実行される各加工処理(S112,S113,S115,S116,S212,S213,S215,S216,S312,S313,S315,S316)では、ピッチ変更、レベル変更、リバーブ付与が行われたが、これらの変更やリバーブ付与を、全ての加工処理で同一の内容に設定しても良いし、各加工処理の内容が異なっていてもよい。例えば、第1信号処理における加工処理(S112,S113,S115,S116)と、第2信号処理における加工処理(S212,S213,S215,S216)と、指定外信号処理における加工処理(S312,S313,S315,S316)とで、それぞれ異なる内容に設定しても良い。なお、第1信号処理、第2信号処理、及び指定外信号処理における各加工処理の内容が異なる場合には、各条件毎に抽出された各抽出信号に対して、異なる信号処理を施すことができる。   In each processing (S112, S113, S115, S116, S212, S213, S215, S216, S312, S313, S315, and S316) executed in the above-described embodiment, pitch change, level change, and reverberation were performed. However, these changes and reverberation may be set to the same contents in all the machining processes, or the contents of each machining process may be different. For example, the processing in the first signal processing (S112, S113, S115, S116), the processing in the second signal processing (S212, S213, S215, S216), and the processing in the non-designated signal processing (S312, S313) S315 and S316) may be set to different contents. In addition, when the contents of each processing in the first signal processing, the second signal processing, and the non-designated signal processing are different, different signal processing is performed on each extracted signal extracted for each condition. it can.

上述の実施形態では、左右2チャンネルの楽音信号を、信号処理を施す対象としてエフェクタ1に入力する構成としたが、左右に限らず、上下又は前後、あるいは任意の2方向に定位する2チャンネルの楽音信号を、信号処理を施す対象としてエフェクタ1に入力する構成であってもよい。また、エフェクタ1に入力する楽音信号を、3チャンネル以上の楽音信号としてもよい。エフェクタ1に3チャンネル以上の楽音信号を入力する場合には、各チャンネルの定位に応じた定位w[f](定位情報)を算出し、算出された各定位w[f]が設定範囲に収まるか否かを判定すればよい。例えば、左右の定位w[f]に加えて、上下及び/又は前後の定位を算出し、算出された左右の定位w[f]と上下及び/又は前後の定位が設定範囲に収まるか否かを判定する。左右前後4チャンネルの楽音信号を例にすると、それぞれ対となる2組の楽音信号(左右、前後)の定位を算出し、算出された左右の定位と前後の定位が設定範囲に収まるか否かを判定する。   In the above-described embodiment, the left and right two-channel musical sound signals are input to the effector 1 as a signal processing target. However, the left and right two-channel music signals are not limited to the left and right, and the two channels are localized in two directions. A configuration may be adopted in which a musical sound signal is input to the effector 1 as an object to be subjected to signal processing. Further, the tone signal input to the effector 1 may be a tone signal of three or more channels. When a sound signal of three or more channels is input to the effector 1, a localization w [f] (localization information) corresponding to the localization of each channel is calculated, and each calculated localization w [f] falls within the setting range. Or not. For example, in addition to the left and right localization w [f], the vertical and / or front / rear localization is calculated, and whether the calculated left / right localization w [f] and the vertical and / or front / rear localization are within the set range. Determine. Taking the left and right four-channel music signal as an example, the localization of two pairs of music signals (left and right, front and rear) is calculated, and whether the calculated left and right localization and the calculated localization are within the set range Determine.

上述の実施形態では、取り出し処理(S100,S200)において、設定範囲との比較を行う各信号のレベル(最大レベルML[f])として、楽音信号の振幅を用いる構成としたが、楽音信号のパワーを用いる構成としてもよい。即ち、上述の実施形態では、INL_Lv[f]を求めるために、IN_L[f]信号の複素式における実数部を2乗した値と、IN_L[f]信号の複素式における虚数部を2乗した値とを足し合わせ、その足し合わせた値の平方根を算出するものとしたが、例えば、IN_L[f]信号の複素式における実数部を2乗した値と、IN_L[f]信号の複素式における虚数部を2乗した値とを足し合わせることにより、INL_Lv[f]を求めてもよい。   In the above-described embodiment, in the extraction process (S100, S200), the amplitude of the tone signal is used as the level (maximum level ML [f]) of each signal to be compared with the set range. A configuration using power may also be used. That is, in the above-described embodiment, in order to obtain INL_Lv [f], the value obtained by squaring the real part of the complex expression of the IN_L [f] signal and the imaginary part of the complex expression of the IN_L [f] signal are squared. The value is added together and the square root of the added value is calculated. For example, the value obtained by squaring the real part in the complex expression of the IN_L [f] signal and the complex expression of the IN_L [f] signal INL_Lv [f] may be obtained by adding together the value obtained by squaring the imaginary part.

上述の実施形態では、定位w[f]を左右チャンネル信号のレベルの比に基づいて算出する構成としたが、左右チャンネル信号のレベルの差に基づいて算出する構成としてもよい。   In the above-described embodiment, the localization w [f] is calculated based on the level ratio of the left and right channel signals. However, the localization w [f] may be calculated based on the level difference between the left and right channel signals.

上述の実施形態では、定位w[f]を2チャンネルの楽音信号から各周波数帯域毎に一意的に求めたが、各周波数帯域においてそれぞれ求めた定位に基づいて、連続する複数の周波数帯域をグループとして、そのグループ内での定位の確率分布を求め、その定位の確率分布を定位情報(定位w[f])として用いてもよい。かかる場合、例えば、定位が所定の確率以上である範囲が、設定範囲(方向範囲として設定された範囲)に収まるか否かを判定することにより、所望する楽音信号を抽出することができる。   In the above-described embodiment, the localization w [f] is uniquely obtained for each frequency band from the two-channel musical sound signals. However, a plurality of continuous frequency bands are grouped based on the localization obtained in each frequency band. The localization probability distribution within the group may be obtained, and the localization probability distribution may be used as localization information (localization w [f]). In such a case, for example, it is possible to extract a desired musical sound signal by determining whether or not a range in which the localization is equal to or greater than a predetermined probability falls within a set range (a range set as a direction range).

上述の実施形態では、S111,S114,S211,S214,S311,S314において、各取り出し処理(S100,S200,S300)により抽出された左右の楽音信号(即ち、抽出信号)から求められる定位w[f]と目標とする定位とに基づいて、抽出信号によって形成される定位を調整する構成とした。これに換えて、抽出された左右の楽音信号から、例えばそれらの信号を単に足し合わせる等によってモノラルの楽音信号を合成し、合成したモノラルの楽音信号に対し、目標とする定位に基づいて、抽出信号によって形成される定位を調整する構成としてもよい。   In the above-described embodiment, the localization w [f obtained from the left and right musical sound signals (ie, the extracted signals) extracted by the respective extraction processes (S100, S200, S300) in S111, S114, S211, S214, S311, and S314. ] And the target localization, the localization formed by the extracted signal is adjusted. Instead, a monaural tone signal is synthesized from the extracted left and right tone signals, for example, by simply adding them together, and extracted based on the target localization for the synthesized monaural tone signal. It is good also as a structure which adjusts the localization formed with a signal.

上述の実施形態では、各取り出し処理(S100,S200,S300)により抽出信号及び指定以外の信号をそれぞれ取り出した後、抽出信号及び指定以外の信号に対して各信号処理(S110,S210,S310)を施し、その後、得られた各信号(即ち、処理後の抽出信号及び指定以外の信号)を出力チャンネル毎に合成して、合成後の信号(OUT_L1[f]、OUT_R1[f]、OUT_L2[f]、およびOUT_R2[f])を得、その後、これらの合成後の信号に対してそれぞれ逆FFT処理(S61,S71,S81,S91)を施すことにより、出力チャンネル毎の時間領域の信号を得る構成とした。   In the above-described embodiment, after extraction signals and signals other than the designation are respectively extracted by the extraction processes (S100, S200, S300), each signal processing (S110, S210, S310) is performed on the extraction signals and signals other than the designation. Then, the obtained signals (that is, the extracted signal after processing and the signal other than the designation) are synthesized for each output channel, and the synthesized signals (OUT_L1 [f], OUT_R1 [f], OUT_L2 [ f] and OUT_R2 [f]), and then applying an inverse FFT process (S61, S71, S81, S91) to the combined signals, the time domain signal for each output channel is obtained. It was set as the structure to obtain.

これに換えて、各取り出し処理(S100,S200,S300)により抽出信号及び指定以外の信号をそれぞれ取り出した後、抽出信号及び指定以外の信号に対して各信号処理(S110などに相当する処理)を施し、その後、得られた各信号(即ち、処理後の抽出信号及び指定以外の信号)に対してそれぞれ逆FFT処理(S61などに相当する処理)を施すことにより時間領域の信号に変換し、その後、得られた各信号(即ち、時間領域で表された処理後の抽出信号及び指定以外の信号)を出力チャンネル毎に合成することにより、出力チャンネル毎の時間領域の信号を得る構成としてもよい。かかる場合もまた、上述した実施形態と同様に、周波数軸上での信号処理が可能である。   Instead, after extracting the extracted signal and signals other than the designation by each extraction processing (S100, S200, S300), each signal processing (processing corresponding to S110 and the like) is performed on the extracted signal and the signals other than the designation. After that, each obtained signal (ie, the extracted signal after processing and the signal other than the designated signal) is subjected to inverse FFT processing (processing corresponding to S61 etc.) to be converted into a time domain signal. After that, by synthesizing each obtained signal (that is, the extracted signal after processing represented in the time domain and the signal other than the designation) for each output channel, a signal in the time domain for each output channel is obtained. Also good. In such a case as well, signal processing on the frequency axis is possible as in the above-described embodiment.

あるいは、各取り出し処理(S100,S200,S300)により抽出信号及び指定以外の信号をそれぞれ取り出した後、抽出信号及び指定以外の信号に対してそれぞれ逆FFT処理(S61などに相当する処理)を施すことにより時間領域の信号に変換し、その後、得られた各信号(即ち、時間領域で表された抽出信号及び指定以外の信号)に対して各信号処理(S110などに相当する処理)を施し、その後、得られた各信号(即ち、時間領域で表された処理後の抽出信号及び指定以外の信号)を出力チャンネル毎に合成することにより、出力チャンネル毎の時間領域の信号を得る構成としてもよい。   Alternatively, after extraction signals and signals other than specified are respectively extracted by each extraction process (S100, S200, S300), inverse FFT processing (processing corresponding to S61 and the like) is performed on the extracted signals and signals other than the specification, respectively. Is converted to a time domain signal, and then each signal processing (ie, a process corresponding to S110) is performed on each obtained signal (ie, the extracted signal represented in the time domain and a signal other than that specified). After that, by synthesizing each obtained signal (that is, the extracted signal after processing represented in the time domain and the signal other than the designation) for each output channel, a signal in the time domain for each output channel is obtained. Also good.

上述の実施形態では、左右チャンネル信号から抽出信号を抽出するための条件の1つとして、最大レベルML[f]を用いる構成としたが、最大レベルML[f]の代わりに、複数のチャンネル信号における各周波数帯域のレベルの和や平均などを抽出条件として用いる構成としてもよい。   In the above-described embodiment, the maximum level ML [f] is used as one of the conditions for extracting the extraction signal from the left and right channel signals. However, instead of the maximum level ML [f], a plurality of channel signals are used. It is also possible to use a sum or average of levels in each frequency band as extraction conditions.

上述の実施形態では、抽出信号を取り出すための取り出し処理を、2つ(第1取り出し処理S100、第2取り出し処理S200)としたが、3つ以上の取り出し処理を設ける構成としてもよい。即ち、抽出条件(例えば、周波数、定位および最大レベルが一組となった条件)を2つでなく、3つ以上とする構成としてもよい。また、抽出信号を取り出すための取り出し処理を3つ以上とした場合に、その数に応じて信号処理を増やす構成としてもよい。   In the above-described embodiment, two extraction processes (first extraction process S100 and second extraction process S200) are performed for extracting the extraction signal, but three or more extraction processes may be provided. That is, the extraction condition (for example, a condition in which the frequency, localization, and maximum level are set as one set) is not two, but may be three or more. Further, when there are three or more extraction processes for extracting the extraction signal, the signal processing may be increased according to the number of extraction processes.

上述の実施形態では、指定以外を取り出す処理(S300)を設け、左右チャンネル信号における抽出信号以外の信号を取り出す構成としたが、指定以外を取り出す処理(S300)を設けない構成としてもよい。即ち、左右チャンネル信号における抽出信号以外の信号は取り出さない構成としてもよい。指定以外を取り出す処理(S300)を設けない場合には、指定以外信号処理(S310)も設けないようにすればよい。   In the above-described embodiment, a process (S300) for extracting data other than the designation is provided and a signal other than the extracted signal in the left and right channel signals is extracted. However, a process for extracting the data other than the designation (S300) may be omitted. That is, a configuration may be adopted in which signals other than the extracted signals in the left and right channel signals are not extracted. In the case where the process for extracting data other than the designation (S300) is not provided, the signal process other than the designation (S310) may not be provided.

上述の実施形態では、左右1組の出力端子を、2組(即ち、OUT1_L端子とOUT1_R端子との組、及び、OUT2_L端子とOUT2_R端子との組)としたが、出力端子の組は、1組であってもよいし、3組以上であってもよい。例えば、5.1チャンネルなどであってもよい。出力端子の組が1組である場合には、各信号処理において各チャンネル信号の分配を行わず、図7(a)及び(b)のグラフにおける0.25〜0.75の範囲を0.0〜1.0に(つまり、2倍に)引き伸ばしたグラフを用いて、S111,S211,S311の計算を行うようにすればよい。   In the above-described embodiment, the left and right output terminal sets are two sets (that is, a set of OUT1_L terminal and OUT1_R terminal and a set of OUT2_L terminal and OUT2_R terminal). A set may be sufficient and three or more sets may be sufficient. For example, it may be 5.1 channel. When there is one set of output terminals, distribution of each channel signal is not performed in each signal processing, and the range of 0.25 to 0.75 in the graphs of FIGS. The calculation of S111, S211 and S311 may be performed using a graph stretched to 0 to 1.0 (that is, doubled).

上述の実施形態の各信号処理(S110,S210,S310)では、抽出した楽音(抽出信号)の定位の変更と、ピッチ変更、レベル変更、及びリバーブ付加から構成される加工処理を行うものとしたが、抽出した楽音に対して行う信号処理は常時同じ処理でなくてもよい。即ち、抽出条件毎に信号処理の実行内容を適宜取捨選択し、抽出条件毎に信号処理の実行内容が異なるように構成してもよい。また、信号処理の内容として、定位の変更と、ピッチ変更、レベル変更、及びリバーブ付加に加えて、その他の公知の信号処理を行ってもよい。   In each signal processing (S110, S210, S310) of the above-mentioned embodiment, the processing comprised from the change of the localization of the extracted musical sound (extracted signal), a pitch change, a level change, and reverb addition shall be performed. However, the signal processing performed on the extracted musical sounds may not always be the same processing. In other words, the execution contents of the signal processing may be appropriately selected for each extraction condition, and the execution contents of the signal processing may be different for each extraction condition. Further, as the contents of the signal processing, other known signal processing may be performed in addition to the localization change, the pitch change, the level change, and the reverb addition.

上述の実施形態では、係数ll,lr,rl,rr,ll´,lr´,rl´,rr´が、図7(a)及び(b)に示すように、横軸に対して直線的に変化するものとしたが、増加又は減少する部分については、直線的増加又は直線的減少でなく、曲線(例えば、サインカーブ)的な増加又は減少としてもよい。   In the above-described embodiment, the coefficients ll, lr, rl, rr, ll ′, lr ′, rl ′, rr ′ are linear with respect to the horizontal axis as shown in FIGS. Although it is assumed to change, the portion that increases or decreases may not be linearly increased or decreased, but may be increased or decreased in a curved line (for example, a sine curve).

上述の実施形態では、窓関数としてハニング窓を用いたが、ハミング窓やブラックマン窓を用いてもよい。
<その他>
<手段>
技術的思想1の楽音信号処理装置は、複数チャンネルの信号から構成される楽音信号を入力する入力手段と、その入力手段に入力された楽音信号を構成する各チャンネルの信号を、それぞれ複数の周波数帯域に分割する分割手段と、その分割手段により分割された前記周波数帯域の各々で、前記各チャンネルの信号のレベルを求めるレベル算出手段と、そのレベル算出手段により求められたレベルに基づいて、予め定められた基準点に対する前記楽音信号の出力方向を示す定位情報を前記周波数帯域の各々に対応付けて算出する定位情報算出手段と、前記楽音信号の出力方向における方向範囲を複数設定可能な設定手段と、その設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定する判定手段と、前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する抽出手段と、その抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得る信号処理手段と、その信号処理手段により得られた処理後抽出信号を、前記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全てについて合成する合成手段と、その合成手段による合成により得られた信号をそれぞれ時間領域の信号に変換して時間領域の信号を得る変換手段と、その変換手段により得られた前記時間領域の信号を前記出力チャンネル毎に出力する出力手段とを備えている。
技術的思想2の楽音信号処理装置は、技術的思想1の楽音信号処理装置において、前記抽出手段により抽出された抽出信号以外の前記各チャンネルの信号を、除去信号として前記楽音信号から取り出す取出手段を備え、前記信号処理手段は、前記抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得ると共に、前記取出手段により取り出された除去信号に対して信号処理を施し、処理後除去信号として得るものであり、前記合成手段は、前記出力チャンネル毎に、前記方向範囲の全ての前記処理後抽出信号と、前記処理後除去信号とを合成するものである。
技術的思想3の楽音信号処理装置は、複数チャンネルの信号から構成される楽音信号を入力する入力手段と、その入力手段に入力された楽音信号を構成する各チャンネルの信号を、それぞれ複数の周波数帯域に分割する分割手段と、その分割手段により分割された前記周波数帯域の各々で、前記各チャンネルの信号のレベルを求めるレベル算出手段と、そのレベル算出手段により求められたレベルに基づいて、予め定められた基準点に対する前記楽音信号の出力方向を示す定位情報を前記周波数帯域の各々に対応付けて算出する定位情報算出手段と、前記楽音信号の出力方向における方向範囲を複数設定可能な設定手段と、その設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定する判定手段と、前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する抽出手段と、その抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得る信号処理手段と、その信号処理手段により得られた処理後抽出信号を時間領域の抽出信号に変換する変換手段と、その変換手段により変換された前記時間領域の抽出信号を、前記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全てについて合成する合成手段と、その合成手段により得られた前記時間領域の信号を前記出力チャンネル毎に出力する出力手段とを備えている。
技術的思想4の楽音信号処理装置は、技術的思想3の楽音信号処理装置において、前記抽出手段により抽出された抽出信号以外の前記各チャンネルの信号を、除去信号として前記楽音信号から取り出す取出手段を備え、前記信号処理手段は、前記抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得ると共に、前記取出手段により取り出された除去信号に対して信号処理を施し、処理後除去信号として得るものであり、前記変換手段は、前記信号処理手段により得られた処理後抽出信号と前記除去信号処理手段により得られた処理後除去信号とを、それぞれ、時間領域の処理後抽出信号と時間領域の処理後除去信号とに変換するものであり、前記合成手段は、前記出力チャンネル毎に、前記方向範囲の全ての前記時間領域の処理後抽出信号と、前記時間領域の処理後除去信号とを合成するものである。
技術的思想5の楽音信号処理装置は、複数チャンネルの信号から構成される楽音信号を入力する入力手段と、その入力手段に入力された楽音信号を構成する各チャンネルの信号を、それぞれ複数の周波数帯域に分割する分割手段と、その分割手段により分割された前記周波数帯域の各々で、前記各チャンネルの信号のレベルを求めるレベル算出手段と、そのレベル算出手段により求められたレベルに基づいて、予め定められた基準点に対する前記楽音信号の出力方向を示す定位情報を前記周波数帯域の各々に対応付けて算出する定位情報算出手段と、前記楽音信号の出力方向における方向範囲を複数設定可能な設定手段と、その設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定する判定手段と、前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する抽出手段と、その抽出手段により前記方向範囲毎に抽出された抽出信号を時間領域の抽出信号に変換する変換手段と、その変換手段により変換された前記時間領域の抽出信号に対して信号処理を施し、時間領域の処理後抽出信号として得る信号処理手段と、その信号処理手段により信号処理が施された前記時間領域の処理後抽出信号を、前記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全てについて合成する合成手段と、その合成手段により得られた前記時間領域の信号を前記出力チャンネル毎に出力する出力手段とを備えている。
技術的思想6の楽音信号処理装置は、技術的思想5の楽音信号処理装置において、前記抽出手段により抽出された抽出信号以外の前記各チャンネルの信号を、除去信号として前記楽音信号から取り出す取出手段を備え、前記変換手段は、前記抽出手段により前記方向範囲毎に抽出された抽出信号と前記出手段により取り出された除去信号とを、それぞれ、時間領域の抽出信号と時間領域の除去信号とに変換するものであり、前記信号処理手段は、前記変換手段により得られた時間領域の抽出信号及び時間領域の除去信号に対して処理を施し、それぞれ、時間領域の処理後抽出信号及び時間領域の処理後除去信号として得るものであり、前記合成手段は、前記出力チャンネル毎に、前記方向範囲の全ての前記時間領域の処理後抽出信号と、前記時間領域の処理後除去信号とを合成するものである。
技術的思想7の楽音信号処理装置は、技術的思想1から6のいずれかにおいて、前記信号処理手段は、前記方向範囲毎に抽出された前記抽出信号に対して、前記方向範囲毎に独立した信号処理を施す。
技術的思想8の楽音信号処理装置は、技術的思想1から7のいずれかの楽音信号処理装置において、前記設定手段は、前記各チャンネルの信号における前記周波数帯域の帯域範囲を、前記方向範囲毎に設定する周波数設定手段を備え、前記判定手段は、その周波数設定手段により設定された前記帯域範囲内に、前記定位情報算出手段により算出された定位情報に対応する周波数帯域が収まるかを、前記方向範囲毎に判定する周波数判定手段を備え、前記抽出手段は、前記周波数設定手段により設定された前記帯域範囲内に、前記定位情報に対応する周波数帯域が収まると前記周波数判定手段により判定された場合に、その収まると判定された定位情報に対応する前記周波数帯域と、前記方向範囲内に収まると既に判定されている定位情報に対応する前記周波数帯域との両方の帯域に存在する前記各チャンネルの信号を、前記判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する。
技術的思想9の楽音信号処理装置は、技術的思想1から8のいずれかの楽音信号処理装置において、前記レベル算出手段により算出された前記各チャンネルの信号のレベルに基づいて、その周波数帯域における帯域レベルを決定する帯域レベル決定手段を備え、前記設定手段は、その帯域レベル決定手段により決定される帯域レベルの許容範囲を、前記方向範囲毎に設定するレベル設定手段を備え、前記判定手段は、そのレベル設定手段により設定された前記許容範囲内に、前記帯域レベル決定手段により決定された前記帯域レベルが収まるかを、前記方向範囲毎に判定するレベル判定手段を備え、前記抽出手段は、前記レベル設定手段により設定された前記許容範囲内に、前記帯域レベルが収まると前記レベル判定手段により判定された場合に、その収まると判定された帯域レベルに対応する前記周波数帯域と、前記方向範囲内に収まると既に判定されている定位情報に対応する前記周波数帯域との両方の帯域に存在する前記各チャンネルの信号を、前記判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する。
技術的思想10の楽音信号処理装置は、技術的思想1から9のいずれかの楽音信号処理装置において、前記信号処理手段は、処理対象となる前記各チャンネルの信号を前記出力チャンネルに応じて分配して、その分配された各信号に対して、それぞれ独立した信号処理を施すものであり、前記出力手段は、前記独立した信号処理に対応して複数設けられている。
<効果>
技術的思想1,3,5の楽音信号処理装置によれば、抽出手段は、設定手段に設定された出力方向における方向範囲内に、定位情報で示される出力方向が収まると判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における各チャンネルの信号を、その判定に用いられた方向範囲毎に、楽音信号から抽出信号として抽出する。このように、抽出手段は、各チャンネルの信号から、設定された方向範囲毎に、即ち、所望の定位毎に、抽出信号を抽出することができる。よって、各チャンネルの信号に含まれる所望の定位の信号に対して信号処理を施すことができるという効果がある。また、抽出手段は、各チャンネルの信号から、設定された方向範囲毎に信号の抽出を行うので、抽出された信号(抽出信号)に対して信号処理を行った後に、それらの信号(信号処理が施された抽出信号)を再合成することができるという効果がある。
技術的思想2の楽音信号処理装置によれば、技術的思想1の楽音信号処理装置の奏する効果に加えて次の効果を奏する。また、技術的思想4の楽音信号処理装置によれば、技術的思想3の楽音装置の奏する効果に加えて、次の効果を奏する。また、技術的思想6の楽音信号処理装置の奏する効果に加えて、次の効果を奏する。抽出手段により抽出した抽出信号以外の各チャンネルの信号を除去信号として取り出し、その除去信号又は信号処理を施した除去信号を合成手段により、出力チャンネル毎に、抽出信号又は信号処理を施した抽出信号と合成する。よって、合成後に各出力チャンネルから出力される信号を、入力された楽音信号と同様の信号に、即ち、広がりのある自然な楽音にすることができるという効果がある。
技術的思想7の楽音信号処理装置によれば、技術的思想1から6のいずれかの楽音信号処理装置の奏する効果に加え、信号処理手段は、方向範囲毎に抽出された抽出信号に対して、方向範囲毎に独立した信号処理を施す。よって、設定された方向範囲毎に、即ち、所望の定位毎に、独立した信号処理を施すことができるという効果がある。
技術的思想8の楽音信号処理装置によれば、技術的思想1から7のいずれかの楽音信号処理装置の奏する効果に加え、抽出手段は、周波数設定手段により設定された周波数帯域の帯域範囲内に、定位情報に対応する周波数帯域が収まると周波数判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域と、設定された方向範囲内に収まると既に判定されている定位情報に対応する周波数帯域との両方の帯域に存在する各チャンネルの信号を、判定に用いられた方向範囲毎に、楽音信号から抽出信号として抽出する。このように、抽出信号の抽出においては、抽出手段は、方向範囲に加えて、周波数帯域の帯域範囲を使用する。よって、帯域範囲外に発生したノイズ等からの影響を抑制することができる。従って、所望の定位における楽音信号、即ち、抽出信号を、より正確に抽出することができる。
技術的思想9の楽音信号処理装置によれば、技術的思想1から8のいずれかの楽音信号処理装置の奏する効果に加え、抽出手段は、レベル設定手段により設定された許容範囲内に、帯域レベルが収まるとレベル判定手段により判定された場合に、その収まると判定された帯域レベルに対応する周波数帯域と、設定された方向範囲内に収まると既に判定されている定位情報に対応する周波数帯域との両方の帯域に存在する各チャンネルの信号を、判定に用いられた方向範囲毎に、楽音信号から抽出信号として抽出する。このように、抽出信号の抽出においては、抽出手段は、方向範囲に加えて、帯域レベルの許容範囲を使用する。よって、許容範囲を超えたレベルで、或いは、許容範囲を下回ったレベルで発生したノイズ等からの影響を抑制することができる。従って、所望の定位における楽音信号、即ち、抽出信号を、より正確に抽出することができる。なお、技術的思想9の楽音信号処理装置において、「帯域レベル」とは、周波数帯域におけるレベルを示し、周波数帯域における各チャンネルの信号の最大レベルや、周波数帯域における各チャンネル信号のレベルの和や、周波数帯域における各チャンネルの信号のレベルの平均などである。
技術的思想10の楽音信号処理装置によれば、技術的思想1から9のいずれかの楽音信号処理装置の奏する効果に加え、信号処理手段は、処理対象となる各チャンネルの信号を出力チャンネルに応じて分配して、その分配された各信号に対して、それぞれ独立した信号処理を施す。そして、出力手段は、上記の独立した信号処理に対応して複数設けられているので、所望の定位毎に抽出信号を抽出した後、所望の定位(即ち、1の定位)における抽出信号が分配され、分配後の各信号に対してそれぞれ独立した信号処理を施した後、それらを別々の出力手段から出力することができるという効果がある。
In the above-described embodiment, the Hanning window is used as the window function, but a Hamming window or a Blackman window may be used.
<Others>
<Means>
The musical sound signal processing apparatus of the technical idea 1 includes an input means for inputting a musical sound signal composed of signals of a plurality of channels, and a signal of each channel constituting the musical sound signal input to the input means, each having a plurality of frequencies. Based on the level determined by the level calculating means, the level calculating means for determining the level of the signal of each channel in each of the frequency bands divided by the dividing means, and the level calculated by the level calculating means in advance Localization information calculation means for calculating localization information indicating the output direction of the musical sound signal with respect to a predetermined reference point in association with each of the frequency bands; and setting means capable of setting a plurality of direction ranges in the output direction of the musical sound signal And the musical tone signal indicated by the localization information calculated by the localization information calculation means within the direction range set by the setting means. Determining means for determining whether the output direction of the sound signal falls within the set direction range, and when the output direction of the musical sound signal indicated by the localization information falls within the direction range set by the setting means When determined by the determination means, the signal of each channel in the frequency band corresponding to the localization information determined to fit is extracted as an extraction signal from the musical sound signal for each direction range used for the determination. An extraction means, a signal processing means for obtaining an extraction signal after processing by performing signal processing on the extraction signal extracted for each direction range by the extraction means, and a post-processing extraction signal obtained by the signal processing means A synthesis unit that synthesizes all of the directional ranges for each preset output channel corresponding to each channel, and a combination by the synthesis unit. Conversion means for converting each of the signals obtained by the above into a time domain signal to obtain a time domain signal, and an output means for outputting the time domain signal obtained by the conversion means for each output channel. ing.
The musical sound signal processing apparatus of the technical idea 2 is an extraction means for extracting, from the musical sound signal, a signal of each channel other than the extraction signal extracted by the extraction means as a removal signal in the musical sound signal processing apparatus of the technical idea 1. The signal processing means performs signal processing on the extraction signal extracted for each of the direction ranges by the extraction means, obtains an extracted signal after processing, and applies to the removal signal extracted by the extraction means Signal processing is performed to obtain a post-processing removal signal, and the synthesis means synthesizes all the post-processing extraction signals in the direction range and the post-processing removal signal for each of the output channels. It is.
The musical sound signal processing apparatus according to the technical idea 3 includes an input means for inputting a musical sound signal composed of signals of a plurality of channels, and a signal for each channel constituting the musical sound signal input to the input means, each having a plurality of frequencies. Based on the level determined by the level calculating means, the level calculating means for determining the level of the signal of each channel in each of the frequency bands divided by the dividing means, and the level calculated by the level calculating means in advance Localization information calculation means for calculating localization information indicating the output direction of the musical sound signal with respect to a predetermined reference point in association with each of the frequency bands; and setting means capable of setting a plurality of direction ranges in the output direction of the musical sound signal And the musical tone signal indicated by the localization information calculated by the localization information calculation means within the direction range set by the setting means. Determining means for determining whether the output direction of the sound signal falls within the set direction range, and when the output direction of the musical sound signal indicated by the localization information falls within the direction range set by the setting means When determined by the determination means, the signal of each channel in the frequency band corresponding to the localization information determined to fit is extracted as an extraction signal from the musical sound signal for each direction range used for the determination. An extraction means, a signal processing means for obtaining an extraction signal after processing by performing signal processing on the extraction signal extracted for each direction range by the extraction means, and a post-processing extraction signal obtained by the signal processing means Conversion means for converting to a time domain extraction signal, and the time domain extraction signal converted by the conversion means are preset for each channel. For each output channel are provided with a combining means for combining all of the directional range, and output means for outputting a signal of the time domain obtained by the combining means to each of the output channels.
The musical sound signal processing apparatus according to the technical idea 4 is an extraction means for extracting the signal of each channel other than the extracted signal extracted by the extracting means from the musical sound signal as a removal signal in the musical sound signal processing apparatus according to the technical idea 3. The signal processing means performs signal processing on the extraction signal extracted for each of the direction ranges by the extraction means, obtains an extracted signal after processing, and applies to the removal signal extracted by the extraction means The signal is processed and obtained as a post-processing removal signal, and the conversion means obtains the post-processing extraction signal obtained by the signal processing means and the post-processing removal signal obtained by the removal signal processing means, Each of the signals is converted into a time-domain post-process extraction signal and a time-domain post-process removal signal. And processing after extraction signals of all the time domain direction range, is to combine the process after removal signal of the time domain.
The musical sound signal processing apparatus according to the technical idea 5 includes an input means for inputting a musical sound signal composed of signals of a plurality of channels, and a signal of each channel constituting the musical sound signal input to the input means, each having a plurality of frequencies. Based on the level determined by the level calculating means, the level calculating means for determining the level of the signal of each channel in each of the frequency bands divided by the dividing means, and the level calculated by the level calculating means in advance Localization information calculation means for calculating localization information indicating the output direction of the musical sound signal with respect to a predetermined reference point in association with each of the frequency bands; and setting means capable of setting a plurality of direction ranges in the output direction of the musical sound signal And the musical tone signal indicated by the localization information calculated by the localization information calculation means within the direction range set by the setting means. Determining means for determining whether the output direction of the sound signal falls within the set direction range, and when the output direction of the musical sound signal indicated by the localization information falls within the direction range set by the setting means When determined by the determination means, the signal of each channel in the frequency band corresponding to the localization information determined to fit is extracted as an extraction signal from the musical sound signal for each direction range used for the determination. Extraction means, conversion means for converting the extraction signal extracted for each direction range by the extraction means into a time domain extraction signal, and signal processing for the time domain extraction signal converted by the conversion means A signal processing means obtained as a time domain post-processing extraction signal, and the time domain post-processing extraction signal subjected to signal processing by the signal processing means, Synthesis means for synthesizing all of the direction ranges for each output channel set in advance corresponding to the channel; and output means for outputting the time-domain signal obtained by the synthesis means for each output channel. It has.
The musical sound signal processing apparatus according to the technical idea 6 is the musical sound signal processing apparatus according to the technical idea 5, in which the signal of each channel other than the extracted signal extracted by the extracting means is extracted from the musical sound signal as a removal signal. The conversion means converts the extraction signal extracted for each direction range by the extraction means and the removal signal extracted by the extraction means into a time-domain extraction signal and a time-domain removal signal, respectively. The signal processing means performs processing on the time-domain extracted signal and the time-domain removed signal obtained by the converting means, and the time-domain post-processed extracted signal and the time-domain extracted signal, respectively. Obtained as a post-processing removal signal, and the combining means, for each output channel, the post-processing extraction signals of all the time domains in the direction range, And a processing after removal signal between regions is to synthesize.
The musical sound signal processing apparatus according to the technical idea 7 is any one of the technical ideas 1 to 6, wherein the signal processing means is independent for each direction range with respect to the extracted signal extracted for each direction range. Apply signal processing.
The musical tone signal processing apparatus according to the technical idea 8 is the musical tone signal processing apparatus according to any one of the technical ideas 1 to 7, wherein the setting means determines a band range of the frequency band in the signal of each channel for each direction range. A frequency setting means for setting the frequency information corresponding to the localization information calculated by the localization information calculation means within the band range set by the frequency setting means. Frequency determining means for determining each direction range is provided, and the extracting means is determined by the frequency determining means when a frequency band corresponding to the localization information is within the band range set by the frequency setting means. The frequency band corresponding to the localization information determined to fall within the direction range and the localization information that has already been decided to fall within the direction range. The signals of the respective channels present in the band of both the frequency band, for each direction range used in the judgment, is extracted as the extraction signal from the tone signal.
The musical sound signal processing apparatus according to the technical idea 9 is the musical sound signal processing apparatus according to any one of the technical thoughts 1 to 8, in the frequency band based on the level of the signal of each channel calculated by the level calculation means. Band level determining means for determining a band level is provided, and the setting means includes level setting means for setting an allowable range of the band level determined by the band level determining means for each direction range, and the determining means The level determining unit includes, for each direction range, a level determining unit that determines whether the band level determined by the band level determining unit is within the allowable range set by the level setting unit. If the level determination means determines that the band level falls within the allowable range set by the level setting means. Each of the channels existing in both the frequency band corresponding to the band level determined to fall within the band and the frequency band corresponding to the localization information already determined to fall within the direction range. A signal is extracted as an extraction signal from the musical sound signal for each direction range used for the determination.
The musical tone signal processing apparatus according to technical idea 10 is the musical tone signal processing apparatus according to any one of technical ideas 1 to 9, wherein the signal processing means distributes the signal of each channel to be processed according to the output channel. Each of the distributed signals is subjected to independent signal processing, and a plurality of the output means are provided corresponding to the independent signal processing.
<Effect>
According to the musical sound signal processing apparatus of the technical ideas 1, 3, and 5, the extracting means determines that the output direction indicated by the localization information is within the direction range in the output direction set in the setting means. In this case, the signal of each channel in the frequency band corresponding to the localization information determined to fall within is extracted as an extraction signal from the tone signal for each direction range used for the determination. In this way, the extraction means can extract the extraction signal from the signal of each channel for each set direction range, that is, for each desired localization. Therefore, there is an effect that signal processing can be performed on a desired localization signal included in the signal of each channel. In addition, the extraction means extracts signals for each set direction range from the signals of each channel, so after performing signal processing on the extracted signals (extraction signals), those signals (signal processing) It is possible to re-synthesize the extracted signal).
According to the musical sound signal processing apparatus of the technical idea 2, the following effects are produced in addition to the effects produced by the musical sound signal processing apparatus of the technical idea 1. Further, according to the musical sound signal processing device of the technical idea 4, in addition to the effects produced by the musical sound device of the technical idea 3, the following effects are produced. Moreover, in addition to the effect which the musical tone signal processing apparatus of the technical idea 6 has, the following effect is produced. A signal of each channel other than the extraction signal extracted by the extraction means is taken out as a removal signal, and the removal signal or the removal signal subjected to the signal processing is extracted for each output channel by the synthesis means. And synthesize. Therefore, there is an effect that the signal output from each output channel after the synthesis can be made into a signal similar to the input musical sound signal, that is, a wide natural musical sound.
According to the musical sound signal processing device of the technical idea 7, in addition to the effects exhibited by any one of the musical sound signal processing devices of the technical thoughts 1 to 6, the signal processing means performs an extraction signal extracted for each direction range. Independent signal processing is performed for each direction range. Therefore, there is an effect that independent signal processing can be performed for each set direction range, that is, for each desired localization.
According to the musical sound signal processing device of the technical idea 8, in addition to the effect exhibited by any of the musical sound signal processing devices of the technical thoughts 1 to 7, the extraction means is within the band of the frequency band set by the frequency setting means. In addition, when it is determined by the frequency determination means that the frequency band corresponding to the localization information falls, it is already determined that the frequency band corresponds to the localization information determined to fall within the set direction range. The signal of each channel existing in both the frequency band corresponding to the localization information is extracted as an extraction signal from the musical sound signal for each direction range used for the determination. As described above, in the extraction of the extraction signal, the extraction unit uses the band range of the frequency band in addition to the direction range. Therefore, it is possible to suppress the influence from noise or the like generated outside the band range. Therefore, a musical sound signal at a desired localization, that is, an extraction signal can be extracted more accurately.
According to the musical sound signal processing device of the technical idea 9, in addition to the effect exhibited by any of the musical sound signal processing devices of the technical thoughts 1 to 8, the extraction means has a bandwidth within the allowable range set by the level setting means. When it is determined by the level determination means that the level falls, the frequency band corresponding to the band level determined to fall within, and the frequency band corresponding to the localization information already determined to fall within the set direction range The signal of each channel existing in both bands is extracted as an extraction signal from the tone signal for each direction range used for the determination. As described above, in the extraction of the extraction signal, the extraction unit uses the allowable range of the band level in addition to the direction range. Therefore, it is possible to suppress the influence from noise or the like generated at a level exceeding the allowable range or at a level below the allowable range. Therefore, a musical sound signal at a desired localization, that is, an extraction signal can be extracted more accurately. In the musical sound signal processing apparatus of the technical idea 9, “band level” indicates a level in the frequency band, and the maximum level of the signal of each channel in the frequency band, the sum of the levels of the channel signals in the frequency band, And the average of the signal level of each channel in the frequency band.
According to the musical sound signal processing device of the technical idea 10, in addition to the effects produced by any of the musical sound signal processing devices of the technical thoughts 1 to 9, the signal processing means uses the signal of each channel to be processed as an output channel. In accordance with the distribution, each of the distributed signals is subjected to independent signal processing. Since a plurality of output means are provided corresponding to the above independent signal processing, after extracting the extraction signal for each desired localization, the extraction signal at the desired localization (that is, one localization) is distributed. In addition, there is an effect that after each signal after distribution is subjected to independent signal processing, they can be output from separate output means.

1 エフェクタ(楽音信号処理装置)
11L,11R A/D(入力手段)
13L1,13L2 Lch用D/A
13R1,13R2 Rch用D/A
S12,S22 FFT処理(分割手段)
S13,S23 解析処理部における処理(レベル算出手段)
S31 メイン処理部における処理(定位情報算出手段、帯域レベル決定手段)
S60,S80 出力処理部(合成手段、変換手段)
S70,S90 出力処理部(合成手段、変換手段)
S100,S200 取り出し処理(設定手段、周波数設定手段、レベル設定手段)
S101,S201 取り出し処理における処理(判定手段、周波数判定手段、レベル判定手段)
S102,S202 取り出し処理における処理(抽出手段)
S110,S210 信号処理(信号処理手段)
S302 指定以外を取り出す処理における処理(取出手段)
S310 指定外信号処理(信号処理手段)
1 Effector (musical sound signal processor)
11L, 11R A / D (input means)
D / A for 13L1, 13L2 Lch
D / A for 13R1, 13R2 Rch
S12, S22 FFT processing (dividing means)
S13, S23 Processing in the analysis processing unit (level calculation means)
S31 Processing in the main processing unit (localization information calculation means, band level determination means)
S60, S80 Output processing unit (combining means, converting means)
S70, S90 Output processing unit (combining means, converting means)
S100, S200 Extraction processing (setting means, frequency setting means, level setting means)
S101, S201 Processing in extraction processing (determination means, frequency determination means, level determination means)
S102, S202 Processing in extraction processing (extraction means)
S110, S210 Signal processing (signal processing means)
S302 Processing in processing other than specified (extraction means)
S310 Non-designated signal processing (signal processing means)

Claims (7)

複数チャンネルの信号から構成される楽音信号を入力する入力手段と、
その入力手段に入力された楽音信号を構成する各チャンネルの信号を、それぞれ複数の周波数帯域に分割する分割手段と、
その分割手段により分割された前記周波数帯域の各々で、前記各チャンネルの信号のレベルを求めるレベル算出手段と、
そのレベル算出手段により求められたレベルに基づいて、予め定められた基準点に対する前記楽音信号の出力方向を示す定位情報を前記周波数帯域の各々に対応付けて算出する定位情報算出手段と、
前記楽音信号の出力方向における方向範囲を複数設定可能な設定手段と、
その設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定する判定手段と、
前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する抽出手段と、
前記抽出手段により、複数の前記方向範囲の各々に対する複数の前記抽出信号が抽出された場合に、当該複数の抽出信号をいずれも含まない周波数帯域の前記各チャンネルの信号を、除去信号として前記楽音信号から取り出す取出手段と、
前記抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得ると共に、前記取出手段により取り出された除去信号に対して信号処理を施し、処理後除去信号として得る信号処理手段と、
記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全ての前記処理後抽出信号と、前記処理後除去信号とを合成する合成手段と、
その合成手段による合成により得られた信号をそれぞれ時間領域の信号に変換して時間領域の信号を得る変換手段と、
その変換手段により得られた前記時間領域の信号を前記出力チャンネル毎に出力する出力手段とを備えていることを特徴とする楽音信号処理装置。
Input means for inputting a musical sound signal composed of signals of a plurality of channels;
Dividing means for dividing each channel signal constituting the musical sound signal input to the input means into a plurality of frequency bands;
Level calculating means for obtaining the level of the signal of each channel in each of the frequency bands divided by the dividing means;
Localization information calculation means for calculating localization information indicating an output direction of the musical sound signal with respect to a predetermined reference point in association with each of the frequency bands based on the level obtained by the level calculation means;
Setting means capable of setting a plurality of direction ranges in the output direction of the musical sound signal;
Determining means for determining, for each of the set direction ranges, whether the output direction of the musical sound signal indicated by the localization information calculated by the localization information calculating means falls within the direction range set by the setting means; ,
When the determination means determines that the output direction of the musical sound signal indicated by the localization information falls within the direction range set by the setting means, the frequency band corresponding to the localization information determined to fall within Extracting means for extracting the signal of each channel in the musical sound signal as an extraction signal for each direction range used for the determination;
When a plurality of the extracted signals for each of the plurality of directional ranges are extracted by the extraction means, the musical sound is used as a signal to remove the signal of each channel in a frequency band that does not include any of the plurality of extracted signals. Taking out means from the signal;
The extraction means by performing signal processing on the extracted signal extracted for each of the direction range both obtains a post-processing the extracted signal, performs signal processing on the extracted cancellation signal by said extracting means, after treatment Signal processing means obtained as a removal signal ;
Before SL for each output channel that is set in advance corresponding to each channel, and synthesizing means for synthesizing all of the processing after extraction signal of the directional range, and the processing after removal signal,
Conversion means for converting signals obtained by the synthesis by the synthesis means into respective time domain signals to obtain time domain signals;
A musical tone signal processing apparatus comprising: output means for outputting the time domain signal obtained by the converting means for each output channel.
複数チャンネルの信号から構成される楽音信号を入力する入力手段と、
その入力手段に入力された楽音信号を構成する各チャンネルの信号を、それぞれ複数の周波数帯域に分割する分割手段と、
その分割手段により分割された前記周波数帯域の各々で、前記各チャンネルの信号のレベルを求めるレベル算出手段と、
そのレベル算出手段により求められたレベルに基づいて、予め定められた基準点に対する前記楽音信号の出力方向を示す定位情報を前記周波数帯域の各々に対応付けて算出する定位情報算出手段と、
前記楽音信号の出力方向における方向範囲を複数設定可能な設定手段と、
その設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定する判定手段と、
前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する抽出手段と、
前記抽出手段により、複数の前記方向範囲の各々に対する複数の前記抽出信号が抽出された場合に、当該複数の抽出信号をいずれも含まない周波数帯域の前記各チャンネルの信号を、除去信号として前記楽音信号から取り出す取出手段と、
前記抽出手段により前記方向範囲毎に抽出された抽出信号に対して信号処理を施し、処理後抽出信号として得ると共に、前記取出手段により取り出された除去信号に対して信号処理を施し、処理後除去信号として得る信号処理手段と、
その信号処理手段により得られた処理後抽出信号と処理後除去信号とを、それぞれ、時間領域の処理後抽出信号と時間領域の処理後除去信号とに変換する変換手段と、
記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全ての前記時間領域の処理後抽出信号と、前記時間領域の処理後除去信号とを合成する合成手段と、
その合成手段により得られた前記時間領域の信号を前記出力チャンネル毎に出力する出力手段とを備えていることを特徴とする楽音信号処理装置。
Input means for inputting a musical sound signal composed of signals of a plurality of channels;
Dividing means for dividing each channel signal constituting the musical sound signal input to the input means into a plurality of frequency bands;
Level calculating means for obtaining the level of the signal of each channel in each of the frequency bands divided by the dividing means;
Localization information calculation means for calculating localization information indicating an output direction of the musical sound signal with respect to a predetermined reference point in association with each of the frequency bands based on the level obtained by the level calculation means;
Setting means capable of setting a plurality of direction ranges in the output direction of the musical sound signal;
Determining means for determining, for each of the set direction ranges, whether the output direction of the musical sound signal indicated by the localization information calculated by the localization information calculating means falls within the direction range set by the setting means; ,
When the determination means determines that the output direction of the musical sound signal indicated by the localization information falls within the direction range set by the setting means, the frequency band corresponding to the localization information determined to fall within Extracting means for extracting the signal of each channel in the musical sound signal as an extraction signal for each direction range used for the determination;
When a plurality of the extracted signals for each of the plurality of directional ranges are extracted by the extraction means, the musical sound is used as a signal to remove the signal of each channel in a frequency band that does not include any of the plurality of extracted signals. Taking out means from the signal;
Wherein performing signal processing on the direction range extracted extracted signal for each by the extraction means and obtained as the processed extracted signals, performs signal processing on the extracted removed signal by the extracting means, processing after removal Signal processing means for obtaining a signal;
Conversion means for converting the post-processing extraction signal and post-processing removal signal obtained by the signal processing means into a time-domain post-processing extraction signal and a time-domain post-processing removal signal, respectively ;
Before SL for each output channel that is set in advance corresponding to each channel, and combining means for combining the processed extract signals of all the time domain of the direction range, and a process after removal signal of the time domain,
A musical tone signal processing apparatus comprising: output means for outputting the time domain signal obtained by the synthesizing means for each output channel.
複数チャンネルの信号から構成される楽音信号を入力する入力手段と、
その入力手段に入力された楽音信号を構成する各チャンネルの信号を、それぞれ複数の周波数帯域に分割する分割手段と、
その分割手段により分割された前記周波数帯域の各々で、前記各チャンネルの信号のレベルを求めるレベル算出手段と、
そのレベル算出手段により求められたレベルに基づいて、予め定められた基準点に対する前記楽音信号の出力方向を示す定位情報を前記周波数帯域の各々に対応付けて算出する定位情報算出手段と、
前記楽音信号の出力方向における方向範囲を複数設定可能な設定手段と、
その設定手段により設定された方向範囲内に、前記定位情報算出手段により算出された定位情報で示される前記楽音信号の出力方向が収まるかを、前記設定された方向範囲毎に判定する判定手段と、
前記設定手段により設定された方向範囲内に、前記定位情報で示される前記楽音信号の出力方向が収まると前記判定手段により判定された場合に、その収まると判定された定位情報に対応する周波数帯域における前記各チャンネルの信号を、その判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出する抽出手段と、
前記抽出手段により、複数の前記方向範囲の各々に対する複数の前記抽出信号が抽出された場合に、当該複数の抽出信号をいずれも含まない周波数帯域の前記各チャンネルの信号を、除去信号として前記楽音信号から取り出す取出手段と、
前記抽出手段により前記方向範囲毎に抽出された抽出信号と、前記取出手段により取り出された除去信号とを、それぞれ、時間領域の抽出信号と時間領域の除去信号とに変換する変換手段と、
その変換手段により得られた時間領域の抽出信号及び時間領域の除去信号に対して信号処理を施し、それぞれ、時間領域の処理後抽出信号及び時間領域の処理後除去信号として得る信号処理手段と、
記各チャンネルに対応して予め設定されている出力チャンネル毎に、前記方向範囲の全ての前記時間領域の処理後抽出信号と、前記時間領域の処理後除去信号とを合成する合成手段と、
その合成手段により得られた前記時間領域の信号を前記出力チャンネル毎に出力する出力手段とを備えていることを特徴とする楽音信号処理装置。
Input means for inputting a musical sound signal composed of signals of a plurality of channels;
Dividing means for dividing each channel signal constituting the musical sound signal input to the input means into a plurality of frequency bands;
Level calculating means for obtaining the level of the signal of each channel in each of the frequency bands divided by the dividing means;
Localization information calculation means for calculating localization information indicating an output direction of the musical sound signal with respect to a predetermined reference point in association with each of the frequency bands based on the level obtained by the level calculation means;
Setting means capable of setting a plurality of direction ranges in the output direction of the musical sound signal;
Determining means for determining, for each of the set direction ranges, whether the output direction of the musical sound signal indicated by the localization information calculated by the localization information calculating means falls within the direction range set by the setting means; ,
When the determination means determines that the output direction of the musical sound signal indicated by the localization information falls within the direction range set by the setting means, the frequency band corresponding to the localization information determined to fall within Extracting means for extracting the signal of each channel in the musical sound signal as an extraction signal for each direction range used for the determination;
When a plurality of the extracted signals for each of the plurality of directional ranges are extracted by the extraction means, the musical sound is used as a signal to remove the signal of each channel in a frequency band that does not include any of the plurality of extracted signals. Taking out means from the signal;
An extraction signal extracted for each of the direction range by the extracting means, converting means for converting the cancellation signal extracted by said extraction means, respectively, into a removal signal of the extracted signal and the time domain of the time domain,
Signal processing means for performing signal processing on the time domain extraction signal and the time domain removal signal obtained by the conversion means, and obtaining a time domain post-processing extraction signal and a time domain post-processing removal signal , respectively ;
Before SL for each output channel that is set in advance corresponding to each channel, and combining means for combining the processed extract signals of all the time domain of the direction range, and a process after removal signal of the time domain,
A musical tone signal processing apparatus comprising: output means for outputting the time domain signal obtained by the synthesizing means for each output channel.
前記信号処理手段は、前記方向範囲毎に抽出された前記抽出信号に対して、前記方向範囲毎に独立した信号処理を施すことを特徴とする請求項1からのいずれかに記載の楽音信号処理装置。 Said signal processing means, the relative said extracted signal extracted for each direction range, tone signal according to any one of claims 1 to 3, characterized by applying independent signal processing for each of the direction range Processing equipment. 前記設定手段は、前記各チャンネルの信号における前記周波数帯域の帯域範囲を、前記方向範囲毎に設定する周波数設定手段を備え、
前記判定手段は、その周波数設定手段により設定された前記帯域範囲内に、前記定位情報算出手段により算出された定位情報に対応する周波数帯域が収まるかを、前記方向範囲毎に判定する周波数判定手段を備え、
前記抽出手段は、前記周波数設定手段により設定された前記帯域範囲内に、前記定位情報に対応する周波数帯域が収まると前記周波数判定手段により判定された場合に、その収まると判定された定位情報に対応する前記周波数帯域と、前記方向範囲内に収まると既に判定されている定位情報に対応する前記周波数帯域との両方の帯域に存在する前記各チャンネルの信号を、前記判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出することを特徴とする請求項1からのいずれかに記載の楽音信号処理装置。
The setting means includes a frequency setting means for setting a band range of the frequency band in the signal of each channel for each direction range,
The determination means determines, for each direction range, whether the frequency band corresponding to the localization information calculated by the localization information calculation means falls within the band range set by the frequency setting means. With
When the frequency determination unit determines that the frequency band corresponding to the localization information falls within the band range set by the frequency setting unit, the extraction unit adds the localization information determined to fall within the band range. The direction range used for the determination of the signal of each channel existing in both the corresponding frequency band and the frequency band corresponding to the localization information already determined to be within the direction range. every musical tone signal processing device according to any one of 4 claims 1, characterized in that the extraction as the extraction signal from the tone signal.
前記レベル算出手段により算出された前記各チャンネルの信号のレベルに基づいて、その周波数帯域における帯域レベルを決定する帯域レベル決定手段を備え、
前記設定手段は、その帯域レベル決定手段により決定される帯域レベルの許容範囲を、前記方向範囲毎に設定するレベル設定手段を備え、
前記判定手段は、そのレベル設定手段により設定された前記許容範囲内に、前記帯域レベル決定手段により決定された前記帯域レベルが収まるかを、前記方向範囲毎に判定するレベル判定手段を備え、
前記抽出手段は、前記レベル設定手段により設定された前記許容範囲内に、前記帯域レベルが収まると前記レベル判定手段により判定された場合に、その収まると判定された帯域レベルに対応する前記周波数帯域と、前記方向範囲内に収まると既に判定されている定位情報に対応する前記周波数帯域との両方の帯域に存在する前記各チャンネルの信号を、前記判定に用いられた方向範囲毎に、前記楽音信号から抽出信号として抽出することを特徴とする請求項1からのいずれかに記載の楽音信号処理装置。
Band level determining means for determining a band level in the frequency band based on the level of the signal of each channel calculated by the level calculating means,
The setting means includes level setting means for setting a permissible range of the band level determined by the band level determining means for each direction range,
The determination means includes level determination means for determining, for each direction range, whether or not the band level determined by the band level determination means is within the allowable range set by the level setting means,
The extraction means, when the level determination means determines that the band level falls within the allowable range set by the level setting means, the frequency band corresponding to the band level determined to fall within And the signal of each channel existing in both the frequency band corresponding to the localization information that has already been determined to fall within the direction range, for each direction range used for the determination, tone signal processing device according to claim 1, characterized in that the extraction as the extraction signal from the signal 5.
前記信号処理手段は、処理対象となる前記各チャンネルの信号を前記出力チャンネルに応じて分配して、その分配された各信号に対して、それぞれ独立した信号処理を施すものであり、
前記出力手段は、前記独立した信号処理に対応して複数設けられていることを特徴とする請求項1からのいずれかに記載の楽音信号処理装置。
The signal processing means distributes the signal of each channel to be processed according to the output channel, and performs independent signal processing on each distributed signal,
And the output means, the tone signal processing device according to any one of claims 1 to 6, characterized in that is provided with a plurality to correspond to the separate signal processing.
JP2009277054A 2009-12-04 2009-12-04 Music signal processor Active JP5651328B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2009277054A JP5651328B2 (en) 2009-12-04 2009-12-04 Music signal processor
US12/947,671 US8129606B2 (en) 2009-12-04 2010-11-16 Musical tone signal-processing apparatus
US12/947,631 US8207439B2 (en) 2009-12-04 2010-11-16 Musical tone signal-processing apparatus
US12/947,692 US8124864B2 (en) 2009-12-04 2010-11-16 User interface apparatus for displaying vocal or instrumental unit signals in an input musical tone signal
EP10192745.7A EP2355555B1 (en) 2009-12-04 2010-11-26 Musical tone signal-processing apparatus
EP10192878.6A EP2355554B1 (en) 2009-12-04 2010-11-29 Musical tone signal-processing apparatus
EP10192911.5A EP2355557B1 (en) 2009-12-04 2010-11-29 User interface apparatus
EP10192906.5A EP2355556B1 (en) 2009-12-04 2010-11-29 User interface apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009277054A JP5651328B2 (en) 2009-12-04 2009-12-04 Music signal processor

Publications (2)

Publication Number Publication Date
JP2011120116A JP2011120116A (en) 2011-06-16
JP5651328B2 true JP5651328B2 (en) 2015-01-14

Family

ID=44284864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009277054A Active JP5651328B2 (en) 2009-12-04 2009-12-04 Music signal processor

Country Status (1)

Country Link
JP (1) JP5651328B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5703807B2 (en) 2011-02-08 2015-04-22 ヤマハ株式会社 Signal processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3384540B2 (en) * 1997-03-13 2003-03-10 日本電信電話株式会社 Receiving method, apparatus and recording medium
JP4580210B2 (en) * 2004-10-19 2010-11-10 ソニー株式会社 Audio signal processing apparatus and audio signal processing method
JP5082327B2 (en) * 2006-08-09 2012-11-28 ソニー株式会社 Audio signal processing apparatus, audio signal processing method, and audio signal processing program

Also Published As

Publication number Publication date
JP2011120116A (en) 2011-06-16

Similar Documents

Publication Publication Date Title
EP2375785B1 (en) Stability improvements in hearing aids
EP1635611B1 (en) Audio signal processing apparatus and method
JP6198800B2 (en) Apparatus and method for generating an output signal having at least two output channels
JP3670562B2 (en) Stereo sound signal processing method and apparatus, and recording medium on which stereo sound signal processing program is recorded
JP5984943B2 (en) Improving stability and ease of listening to sound in hearing devices
RU2666316C2 (en) Device and method of improving audio, system of sound improvement
KR20060051592A (en) Audio signal processing apparatus and method for the same
US20190116442A1 (en) Binaural synthesis
CN103650538B (en) Method and apparatus for decomposing a stereo recording using frequency-domain processing employing a spectral weights generator
TWI492640B (en) Verfahren zum abmischen von mikrofonsignalen einer tonaufnahme mit mehreren mikrofonen mikrofonen
KR20060046526A (en) Pseudo-stereo signal making apparatus
JP2003274492A (en) Stereo acoustic signal processing method, stereo acoustic signal processor, and stereo acoustic signal processing program
US7840014B2 (en) Sound apparatus with howling prevention function
AU2012257865B2 (en) Apparatus and method and computer program for generating a stereo output signal for providing additional output channels
JP5651328B2 (en) Music signal processor
US10013970B2 (en) Sound effect producing apparatus, method of producing sound effect and program therefor
EP1905008A2 (en) Parametric multi-channel decoding
JP2013055439A (en) Sound signal conversion device, method and program and recording medium
CN111182441A (en) Multi-channel audio signal processing device and method
JP5651338B2 (en) Music signal processor
CN111093143A (en) Stereo sound channel audio signal processing device and method
CN112584300B (en) Audio upmixing method, device, electronic equipment and storage medium
CN109545176B (en) Dynamic echo processing method and device for audio
CN211128194U (en) Stereo sound channel audio signal processing device
GB2561595A (en) Ambience generation for spatial audio mixing featuring use of original and extended signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R150 Certificate of patent or registration of utility model

Ref document number: 5651328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150