JP7147814B2 - 音響処理装置、方法、およびプログラム - Google Patents

音響処理装置、方法、およびプログラム Download PDF

Info

Publication number
JP7147814B2
JP7147814B2 JP2020143616A JP2020143616A JP7147814B2 JP 7147814 B2 JP7147814 B2 JP 7147814B2 JP 2020143616 A JP2020143616 A JP 2020143616A JP 2020143616 A JP2020143616 A JP 2020143616A JP 7147814 B2 JP7147814 B2 JP 7147814B2
Authority
JP
Japan
Prior art keywords
crosstalk
output data
sound
acoustic
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020143616A
Other languages
English (en)
Other versions
JP2022038902A (ja
Inventor
益男 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020143616A priority Critical patent/JP7147814B2/ja
Priority to CN202110849074.2A priority patent/CN114120958A/zh
Publication of JP2022038902A publication Critical patent/JP2022038902A/ja
Application granted granted Critical
Publication of JP7147814B2 publication Critical patent/JP7147814B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、原音と効果音をミックスして出力することのできる音響処理装置、方法、及びプログラムに関する。
複数のマイクで録音され例えば2チャネルステレオにミックスダウンされたデータをヘッドホン聴取した場合に、スピーカ再生時のクロストークや反射成分がないことによる不自然感を低減するために、相互に逆チャネルの信号を加えることなどによりクロストークを模擬する従来技術が知られている(例えば特許文献1、2)。
音響処理装置の中には、例えば電子楽器のように、直接出力される楽器音(以下「直接音」と呼ぶ)に、その直接音にリバーブなどの残響効果や共鳴効果を付加して得た効果音(以下「間接音」と呼ぶ)をミキサでミックスして楽音出力データとして出力することにより、音の広がりを持たせるようにしたものがある。
特開2017-126944号公報 特開平09-198056号公報
ここで、直接音と間接音をミックスして楽音出力データを出力する電子楽器などにおいて、2チャネルステレオにミックスダウンされた楽音出力データを電子楽器のヘッドホン聴取した場合にスピーカ再生時のクロストークや反射成分がないことによる不自然感を低減するために前述した従来技術を適用した場合に、直接音と間接音の双方に同じクロストーク効果がかかることになり、残響や共鳴音の広がり感がかえって損なわれてしまう場合があった。
そこで、本発明は、間接音の効果を損なわないで出力音においてクロストークに関する不自然感を無くすことを目的とする。
態様の一例では、複数の出力チャネルの夫々の出力チャネル毎に、第1の音響出力データに、第1の音響出力データに音響効果を付加するための1種類以上の第2の音響出力データを混合することにより、第3の音響出力データを出力する音響データ出力部と、第1の音響出力データと第2の音響出力データ、又は第2の音響出力データと第3の音響出力データにおいて、夫々複数の出力チャネル間でクロストーク処理を実行するクロストーク処理部と、第3の音響出力データにおいて、第2の音響出力データの成分の複数の出力チャネル間でのクロストークの割合が第1の音響出力データの成分の複数の出力チャネル間でのクロストークの割合よりも小さくなるように、クロストーク処理部にクロストーク処理を実行させるクロストーク制御部と、を備える。
本発明によれば、間接音の効果を損なわないで出力音においてクロストークに関する不自然感を無くすことが可能となる。
電子楽器のハードウェア構成例を示すブロック図である。 第1の実施形態における音源及び効果付加部の構成例を示すブロック図である。 第1の実施形態における間接音クロストーク処理部を中心とする構成例を示すブロック図である。 第1の実施形態におけるクロストーク設定テーブルデータの構成例を示す図である。 第1の実施形態におけるクロストーク制御部の処理例を示すフローチャートである。 第1の実施形態における間接音クロストーク設定処理又は直接音クロストーク設定処理の詳細例を示すフローチャートである。 第2の実施形態における音源及び効果付加部の構成例を示すブロック図である。 第2の実施形態における間接音クロストーク処理部及び出力音クロストーク処理部を中心とする構成例を示すブロック図である。 第3の実施形態におけるクロストーク設定テーブルデータ群の構成例を示す図である。 第3の実施形態における間接音クロストーク設定処理又は直接音クロストーク設定処理の例を示すフローチャートである。 第4の実施形態における音源及び効果付加部の構成例を示すブロック図である。 第4の実施形態における間接音クロストーク処理部及び出力音クロストーク処理部を中心とする構成例を示すブロック図である。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、以下に説明する第1乃至第4の実施形態が適用される電子楽器100の実施形態の例を示すブロック図である。電子楽器100は、CPU(中央演算処理装置)101と、ROM(リードオンリーメモリ)102と、RAM(ランダムアクセスメモリ)103と、音源(TG:Tone Generator)104と、効果付与部105と、鍵盤106と、ペダル107と、操作子108が、システムバス109に接続された構成を有する。また、音源(TG)104の出力は、効果付与部105を介して、サウンドシステム110に接続される。
CPU101は、ROM102からRAM103にロードされた制御プログラムを実行することにより、鍵盤106や操作子108からの演奏操作情報に基づいて、音源104に発音指示を出す。
音源(TG)104は、上記発音指示に従って、特には図示しない波形ROMから波形データを読み出すことにより、楽音データを生成する。この楽音データは、例えば信号処理プロセッサ(DSP:Digital Signal Processor、以下「DSP」と呼ぶ)である効果付与部105を介して、サウンドシステム110に出力される。このとき、例えば効果付与部105は、楽音データにリバーブなどの残響音付与や、ペダル107が踏まれるとピアノの弦の共鳴音付与などの効果付与を実行する。この結果、効果付与部105から出力された楽音データは、サウンドシステム110において、デジタル-アナログ変換器によってアナログ楽音信号に変換され、アナログアンプで増幅され、スピーカから放音される。
図2は、第1の実施形態における音源(TG)104及び効果付与部105のブロック図であり、図1の構成を有する電子楽器における楽音データの流れの例を示している。音源(TG)104は、CH1~CHnのnチャネルの発音チャネルの楽音データを生成する楽音生成部201(CH1)~201(CHn)を備え、夫々、鍵盤106での押鍵に基づいて発生する図1のCPU101からの発音指示に従い、押鍵毎に独立した楽音データを生成する。発音チャネルCHiに対応する楽音生成部201(CHi)(1≦i≦n)は、波形データを生成する波形生成部WG.CHi、生成された波形データの音色を加工するフィルタ処理部TVF.CHi、及び生成された波形データの振幅エンベロープを加工するアンプエンベロープ処理部TVA.CHiを備える。
ミキシング部202内の第1の音源ミキサ部203(Lch)及び203(Rch)は夫々、各発音チャネル(CHi)の各楽音生成部201(CHi)(1≦i≦n)が出力する各楽音データに所定のレベルを乗算した後に累算する、即ちミックスダウンすることにより、夫々出力チャネルであるLch(左チャネル)及びRch(右チャネル)のための、Lch直接音出力データ205(Lch)及びRch直接音出力データ205(Rch)を生成し、夫々効果付与部105に出力する。
同様に、ミキシング部202内の第2の音源ミキサ部204(Lch)及び204(Rch)は夫々、各発音チャネル(CHi)の各楽音生成部201(CHi)(1≦i≦n)が出力する各楽音データに所定のレベルを乗算した後に累算する、即ちミックスダウンすることにより、Lch(左チャネル)及びRch(右チャネル)のための、Lch間接音入力データ206(Lch)及びRch間接音入力データ206(Rch)を生成し、夫々効果付与部105内のLch残響・共鳴部210(Lch)及びRch残響・共鳴部210(Rch)に入力させる。
なお、図2において、第1の音源ミキサ部203(Lch)及び203(Rch)と、第2の音源ミキサ部204(Lch)及び204(Rch)内の各記号「*、Σ」は、入力したデータに対して所定のレベルを乗算後に累算して出力することを示している。この場合、音源(TG)104内で生成される各発音チャネルからステレオ2チャネルの左右の出力チャネルであるLch又はRchへのミックスダウンが行われることになる。
Lch間接音入力データ206(Lch)及びRch間接音入力データ206(Rch)は夫々効果付与部105に入力した後、効果付与部105を構成するDSPの処理として実現されるLch残響・共鳴部210(Lch)及びRch残響・共鳴部210(Rch)によってLch及びRchの残響・共鳴効果が付与され、更にそれらの出力であるLch及びRchの間接音間で間接音クロストーク処理部208によってクロストーク処理が実行された後、Lch間接音出力データ211(Lch)及びRch間接音出力データ211(Rch)が出力される。更に、効果付与部105内で、最終段ミキサ部207(Lch)が、上記Lch間接音出力データ211(Lch)を音源(TG)104内の第1の音源ミキサ部203(Lch)から出力されるLch直接音出力データ205(Lch)に混合することにより、Lch楽音出力データ212(Lch)を図1のサウンドシステム110に出力する。同様に、効果付与部105内で、最終段ミキサ部207(Rch)が、上記Rch間接音出力データ211(Rch)を音源(TG)104内の第1の音源ミキサ部203(Rch)から出力されるRch直接音出力データ205(Rch)に混合することにより、Rch楽音出力データ212(Rch)を図1のサウンドシステム110に出力する。
サウンドシステム110は、上記Lch楽音出力データ212(Lch)及びRch楽音出力データ212(Rch)を夫々、Lchアナログ楽音信号及びRchアナログ楽音信号にデジタル/アナログ変換し、Lchアナログ楽音信号及びRchアナログ楽音信号を夫々アナログアンプで増幅し、各増幅出力をLch及びRchの各スピーカから放音する。
Lch残響・共鳴部210(Lch)及びRch残響・共鳴部210(Rch)は夫々例えば、効果付与部105を構成するDSPの処理として、Lch又はRch間接音入力データ206(Lch又はRch)の直接音に対してインパルス応答を畳み込むことにより残響効果や共鳴効果を付与する。Lch残響・共鳴部210(Lch)及びRch残響・共鳴部210(Rch)の具体的な構成としては、時間領域で上記畳込みを行うFIRフィルタと周波数領域で上記畳込みを行なうFFT/iFFT(Fast Fourier Transform/inverse FFT:高速フーリエ変換/逆高速フーリエ変換)とを組み合わせることにより、任意の長さの畳込み演算を実行できるようにした構成を採用することができる。この具体的な構成としては、例えば下記特許文献に記載の技術を採用できるため、その詳細な開示は省略する。
(特許文献):特開2018-151589号公報
図3は、図2の第1の実施形態の構成における間接音クロストーク処理部208の構成例を示すブロック図である。この構成は、従来では、最終出力段(例えば図2の最終段ミキサ部207(Lch)又は207(Rch)の出力側)に設けられていたものであるが、第1の実施形態では、効果付与部105を構成するDSP内での信号経路が変更されることにより、Lch残響・共鳴部210(Lch)及びRch残響・共鳴部201(Rch)の各出力側に配置されている。
図3に示されるように、間接音クロストーク処理部208において、Lch残響・共鳴部210(Lch)の出力データがクロストーク乗算器301(Lch)でA(Aは実数)倍されることにより、その乗算結果の符号が反転されてクロストーク加算器302(Rch)に入力する。同様に、Rch残響・共鳴部201(Rch)の出力データがクロストーク乗算器301(Rch)でA倍されることにより、その乗算結果の符号が反転されてクロストーク加算器302(Lch)に入力する。Lch残響・共鳴部210(Lch)の出力データからクロストーク乗算器301(Rch)の乗算結果がクロストーク加算器302(Lch)で減算され、その減算結果はクロストーク出力乗算器303(Lch)でb(bは実数)倍されて、その乗算結果がLch間接音出力データ211(Lch)として出力され図2の最終段ミキサ部207(Lch)に入力される。同様に、Rch残響・共鳴部210(Rch)の出力データからクロストーク乗算器301(Lch)の乗算結果がクロストーク加算器302(Rch)で減算され、その減算結果はクロストーク出力乗算器303(Rch)でb倍されて、その乗算結果がRch間接音出力データ211(Rch)として出力され図2の最終段ミキサ部207(Rch)に入力される。
図3の間接音クロストーク処理部208において、図1のCPU101の処理機能である図2のクロストーク制御部209からクロストーク乗算器301(Lch)及び301(Rch)における倍数値Aと、クロストーク出力乗算器303(Lch)及び303(Rch)における倍数値bとが、それぞれ設定されることにより、Lch間接音出力データ211(Lch)とRch間接音出力データ212のクロストークの割合が決まる。
一方、図2の第1の実施形態の構成において、音源(TG)104から効果付与部105に入力されるLch直接音出力データ205(Lch)とRch直接音出力データ205(Rch)に対しても、クロストーク処理が実行される。このクロストーク処理は、専用のクロストーク処理部を設けなくても、クロストーク制御部209から音源(TG)104内の第1の音源ミキサ部203(Lch)及び203(Rch)へのパラメータ設定により代用することができる。第1の音源ミキサ部203(Lch)及び203(Rch)はそれぞれ、図3におけるクロストーク乗算器301(Lch)及び301(Rch)とクロストーク加算器302(Lch)及び302(Rch)の両方の演算機能を持っている。このため、第1のミキサ部203(Lch)及び203(Rch)によるLch直接音出力データ205(Lch)及びRch直接音出力データ205(Rch)に対するクロストーク処理の構成は、図3に示した間接音クロストーク処理部208の機能構成と同様である。ただし、クロストーク乗算器301(Lch)及び301(Rch)に相当する乗算演算機能の各乗算結果は、図3の場合とは異なり符号は反転されずにクロストーク加算器302(Lch)及び302(Rch)に相当する加算演算機能に入力する。また、クロストーク制御部209から第1のミキサ部203(Lch)及び203(Rch)に設定される倍数値が、図3に示されるA及びbの組み合わせと異なり、例えばa(aはAとは異なる又は同じ実数値)倍が設定される。なお、第1のミキサ部203(Lch)及び203(Rch)は、図3のクロストーク出力乗算器303(Lch)及び303(Rch)に対応する機能は、有しておらず不要である。
以上の第1の実施形態の構成において、クロストーク制御部209は、Lch間接音出力データ211(Lch)及びRch間接音出力データ211(Rch)に対する図3の間接音クロストーク処理部208に倍数値A及びbとして設定されるクロストークの割合が、Lch直接音出力データ207及びRch直接音出力データ205(Rch)に対する図2の第1のミキサ部203(Lch)及び203(Rch)に倍数値aとして設定されるクロストークの割合よりも小さくなるように、各倍数値A及びbとaをそれぞれ設定する。
図4は、例えば図1のROM102に記憶される、第1の実施形態におけるクロストーク設定テーブルデータの構成例を示す図である。図4において、「CH1」「CH2」の各項目は図2の音源(TG)104において、図2の効果付与部105から図1のサウンドシステム110に出力されるステレオのLch楽音出力データ212(Lch)及びRch楽音出力データ212(Rch)を生成するために、音源(TG)104において「CH1」と「CH2」の2つの発音チャネル(CHi)(i=1,2)が使用され、これに対応して図2の楽音生成部201(CH1)と201(CH2)が使用されることを示している。図4において、「直接音Lch」行及び「直接音Rch」行の各パーセント値は夫々、Lch直接音出力データ205(Lch)及びRch直接音出力データ205(Rch)に対応する各倍率値(実際の値はパーセント値÷100)を示しており、「間接音Lch」行及び「間接音Rch」行の各パーセント値は夫々、間接音であるLch間接音出力データ211(Lch)及びRch間接音出力データ211(Rch)に対応する各倍率値を示している。また、「効果オフ時(通常動作時)」列の各パーセント値は、直接音、間接音ともにクロストーク処理が実施されない場合の各倍率値を示しており、「効果オン時」列の各パーセント値は、直接音、間接音ともにクロストーク処理が実施される場合の各倍率値を示している。
図4において、CH1の直接音Lchの行には、発音チャネルCH1の出力として、効果オン時及び効果オフ時ともに、第1のミキサ部203(Lch)のCH1を入力する乗算器に倍数値として100%の値1が設定され、その乗算器を通して楽音生成部201(CH1)で生成された楽音波形データがそのままLch直接音出力データ205(Lch)として出力されるべきことを示している。
また、図4において、CH1の直接音Rchの行には、発音チャネルCH1の出力として、効果オン時には、第1のミキサ部203(Rch)のCH1を入力する乗算器に倍数値として20%の値0.2が設定され、その乗算器を通して楽音生成部201(CH1)で生成された楽音波形データが0.2の割合でRch直接音出力データ205(Rch)にクロストークされるべきことを示している。一方、効果オフ時には、第1のミキサ部203(Rch)のCH1を入力する乗算器に倍数値として0%の値0が設定され、その乗算器設定によって楽音生成部201(CH1)で生成された楽音波形データはRch直接音出力データ205(Rch)にはクロストークされないことを示している。
更に、図4において、CH1の間接音Lchの行には、発音チャネルCH1の出力として、効果オン時及び効果オフ時ともに、図2及び図3の間接音クロストーク処理部208に対して、倍数値として40%の値0.4が設定され、楽音生成部201(CH1)で生成された楽音波形データが0.4の割合でLch間接音出力データ211(Lch)に出力されるべきことを示している。具体的には例えば、図3のクロストーク乗算器301(Rch)に倍率値A=0が設定され、クロストーク出力乗算器303(Lch)に倍率値b=0.4が設定される。
加えて、図4において、CH1の間接音Rchの行には、発音チャネルCH1の出力として、効果オン時及び効果オフ時ともに、図2及び図3の間接音クロストーク処理部208に対して、倍数値として0%の値0が設定され、楽音生成部201(CH1)で生成された楽音波形データはクロストークされないことを示している。従って、具体的には例えば、図3のクロストーク乗算器301(Rch)に倍率値A=0が設定され、クロストーク出力乗算器303(Lch)に倍率値b=0.4が設定される。
続いて、図4において、CH2の直接音Lchの行の設定値と直接音Rchの行の設定値は、上述したCH1の場合と逆で、夫々、CH1の直接音Rchの行の設定値とCH1の直接音Lchの行の設定値が設定されている。従って、具体的には例えば、CH2の直接音Rchの行には、発音チャネルCH2の出力として、効果オン時及び効果オフ時ともに、第1のミキサ部203(Rch)のCH2を入力する乗算器に倍数値として100%の値1が設定され、その乗算器を通して楽音生成部201(CH2)で生成された楽音波形データがそのままRch直接音出力データ205(Rch)として出力されるべきことを示している。また、CH2の直接音Lchの行には、発音チャネルCH2の出力として、効果オン時には、第1のミキサ部203(Lch)のCH2を入力する乗算器に倍数値として20%の値0.2が設定され、その乗算器を通して楽音生成部201(CH2)で生成された楽音波形データが0.2の割合でLch直接音出力データ205(Lch)にクロストークされるべきことを示している。一方、効果オフ時には、第1のミキサ部203(Lch)のCH2を入力する乗算器に倍数値として0%の値0が設定され、その乗算器設定によって楽音生成部201(CH2)で生成された楽音波形データはLch直接音出力データ205(Lch)にはクロストークされないことを示している。
また、CH2の間接音Lchの行の各設定値と間接音Rchの行の各設定値も、CH1の場合と逆で、0%の値0と、40%の値0.4が夫々設定されている。従って、具体的には例えば、図3のクロストーク乗算器301(Lch)に倍率値A=0が設定され、クロストーク出力乗算器303(Rch)に倍率値b=0.4が設定される。また、クロストーク乗算器301(Rch)に倍率値A=0が設定され、クロストーク出力乗算器303(Lch)に倍率値b=0.4が設定される。
図4に示される設定例によって、Lch直接音出力データ205(Lch)(直接音Lch)とRch直接音出力データ205(Rch)(直接音Rch)間のクロストークの割合は、20%対100%=0.2になる。一方、Lch間接音出力データ211(Lch)(間接音Lch)とRch間接音出力データ211(Rch)(間接音Rch)の間のクロストークの割合は、0%対40%=0(この場合クロストークをしない)になる。この例のように、間接音のクロストークの割合を直接音のクロックの割合よりも小さくなるように、自在に制御することが可能となる。
図5は、図1のCPU101が例えばROM102に記憶されているクロストーク制御プログラムをRAM103にロードして実行するクロストーク制御処理の処理例を示すフローチャートであり、図2のクロストーク制御部209の処理機能に対応する。このクロストーク制御処理は、CPU101が、実行中の特には図示しないメイン処理の中で、図1の鍵盤106におけるユーザによる押鍵操作を検出したときに、サブルーチンとして呼び出して実行する処理である。
CPU101はまず、図1の構成を有する電子鍵盤楽器100の特には図示しないスイッチパネルでのスイッチ操作により、効果オンを指示しているか否かを判定する(ステップS501)。
ステップS501の判定がYESならば、CPU101は、例えば図2のRAM203に変数として記憶されている状態フラグをオン(例えば値1に)する(ステップS502)。
ステップS501の判定がNOならば、CPU101は、上記状態フラグをオフ(例えば値0に)する(ステップS503)。
ステップS502又はS503の処理の後、CPU101は、図2又は図3の間接音クロストーク処理部208への倍数値の設定を行うための間接音クロストーク処理を実行する(ステップS504)。
更に、CPU101は、図2の第1のミキサ部203(Lch)及び203(Rch)への倍数値の設定を行うための直接音クロストーク処理を実行する(ステップS505)。その後、CPU101は、図5のフローチャートで例示されるクロストーク制御処理を終了し、特には図示しないメイン処理の実行にリターンする。
図6は、図5のステップS504の間接音クロストーク設定処理又はステップS505の直接音クロストーク設定処理の詳細例を示すフローチャートである。
CPU101は、ステップS603で発音指示がある発音チャネルの数分だけ処理したと判定するまで、即ちステップS603の判定がNOの間、ステップS601とS602の処理を、発音指示がある発音チャネル毎に繰り返し実行する。
まずCPU101は、ROM102に記憶されている図4に例示されるクロストーク設定テーブルデータから、現在処理中の発音チャネル(CH1又はCH2)に対応し、間接音(図5のステップS504として実行される場合)又は直接音(図5のステップS505として実行される場合)に対応する行であって、かつ図5のステップS502又はS503で設定された状態フラグに対応する状態の列の倍数値を取得する(ステップS601)。
そして、CPU101は、ステップS601で取得した倍数値を、図2の第1のミキサ部203(Lch)及び203(Rch)(図5のステップS504として実行さる場合)内の現在の発音チャネルを入力する各乗算器、又は図3のクロストーク乗算器301(Lch)及び301(Rch)とクロストーク出力乗算器303(Lch)及び303(Rch)(図5のステップS505として実行さる場合)に、図6の説明で前述したようにして設定する(ステップS602)。
CPU101は、ステップS603の判定がNOならば、ステップS601の処理に戻って、上記ステップS601とS602の処理を繰り返し実行する。CPU101は、ステップS603の判定がYESになったら、図6のフローチャートで例示される図5のステップS504又はS505の間接音又は直接音のクロストーク設定処理を終了する。
上述したようにして、第1の実施形態では、図4に例示されるクロストーク設定テーブルデータを用いた図5及び図6のクロストーク制御処理として実現される図2のクロストーク制御部209の機能により、Lch間接音出力データ211(Lch)とRch間接音出力データ211(Rch)の間のクロストークの割合が、Lch直接音出力データ205(Lch)とRch直接音出力データ205(Rch)の間のクロストークの割合よりも小さくなるように自在に制御することが可能となり、Lch残響・共鳴部210(Lch)及びRch残響・共鳴部201(Rch)による間接音の音響効果を損なうことなく、Lch楽音出力データ212(Lch)及びRch楽音出力データ212(Rch)におけるクロストークに関する不自然感を無くすことが可能となる。
また、図2及び図3に例示した第1の実施形態の構成では、前述したように、従来では最終出力段(例えば図2の最終段ミキサ部207(Lch)又は207(Rch)の出力側)に設けられていたクロストーク処理部を、効果付与部105を構成するDSP内での信号経路に変更するだけで、Lch残響・共鳴部210(Lch)及びRch残響・共鳴部201(Rch)の各出力側に間接音クロストーク処理部208として配置することができ、直接音側のクロストーク処理を図2の音源(TG)104内の第1のミキサ部203(Lch)及び203(Rch)で代用できることと併せて、従来のハードウェア構成を大きく変更することなく、従来技術の課題であったクロストークに関する不自然感を無くすことが可能となる。
上述した第1の実施形態に関連する他の実施形態として、図2のLch残響・共鳴部210(Lch)及びRch残響・共鳴部210(Rch)が、それらの出力段で出力レベルを調整する機能を持っている場合には、図3の間接音クロストーク処理部208内のクロストーク出力乗算器303(Lch)及び303(Rch)の機能を、上記出力レベル調整機能で代用し、更に、図3の間接音クロストーク処理部208内のクロストーク乗算器301(Lch)及び301(Lch)と、クロストーク加算器302(Lch)及び302(Lch)の機能を、直接音の場合における第1のミキサ部203(Lch)及び203(Rch)の場合と同様に、音源(TG)104内の第2のミキサ部204(Lch)及び204(Rch)で代用する構成が採用されてもよい。これにより、ハードウェアの規模を更に小さくすることが可能となる。
次に、第2の実施形態について説明する。図7は、第2の実施形態における音源(TG)104及び効果付与部105のブロック図である。図7において、図2の第1の実施形態の場合と同じ参照番号が付されたブロックは、第1の実施形態の場合と同じものである。図7の第2の実施形態では、最終段ミキサ部207(Lch)及び207(Rch)の出力側に、従来と同様の構成を有する出力音クロストーク処理部701が配置されている構成を有し、従って間接音クロストーク処理部208は新設される形となる。
図8は、第2の実施形態の間接音クロストーク処理部208及び出力音クロストーク処理部701を中心とする構成例を示すブロック図である。第2のクロストーク部として動作する間接音クロストーク処理部208の構成は、第1の実施形態における図3の構成と同じである。ただし、後述するように設定される倍率値A及びbが、第1の実施形態の場合と異なる。
図8に示されるように、第1のクロストーク部として動作する出力音クロストーク処理部701において、最終段ミキサ部207(Lch)の出力データがクロストーク乗算器801(Lch)でa(aは実数)倍されることにより、その乗算結果がその符号は反転されずにクロストーク加算器802(Rch)に入力する。同様に、最終段ミキサ部207(Rch)の出力データがクロストーク乗算器801(Rch)でa倍されることにより、その乗算結果がその符号は反転されずにクロストーク加算器802(Lch)に入力する。最終段ミキサ部207(Lch)の出力データとクロストーク乗算器801(Rch)の乗算結果はクロストーク加算器802(Lch)で加算され、その加算結果がLch楽音出力データ212(Lch)として出力される。同様に、最終段ミキサ部207(Rch)の出力データとクロストーク乗算器801(Lch)の乗算結果はクロストーク加算器802(Rch)で加算され、その加算結果がRch楽音出力データ212(Rch)として出力される。
図8の出力音クロストーク処理部701及び間接音クロストーク処理部208において、図1のCPU101の処理機能である図7のクロストーク制御部209から、クロストーク乗算器801(Lch)及び801(Rch)における倍数値aと、クロストーク乗算器301(Lch)及び301(Rch)における倍数値Aと、クロストーク出力乗算器303(Lch)及び303(Rch)における倍数値bとが、それぞれ設定されることにより、Lch間接音出力データ211(Lch)とRch間接音出力データ211(Rch)のクロストークの割合、及びLch楽音出力データ212(Lch)とRch楽音出力データ212(Rch)のクロストークの割合が決まる。
ここで、クロストーク制御部209は、間接音クロストーク処理部208が実行する第2のクロストーク処理である間接音クロストーク処理が出力音クロストーク処理部701が実行する第1のクロストーク処理である出力音クロストーク処理を軽減するように、上記各倍数値a、A、及びbを設定する。いま、Lch楽音出力データ212(Lch)及びRch楽音出力データ212(Rch)を夫々LchOut及びRchOut、Lch直接音出力データ205(Lch)及びRch直接音出力データ205(Rch)を夫々LchSOut及びRchSOut、最終段ミキサ部207(Lch)及び207(Rch)の各出力をLchMix及びRchMix、Lch残響・共鳴部210(Lch)及びRch残響・共鳴部210(Rch)の各出力をLchE及びRchE、Lch間接音出力データ211(Lch)及びRch間接音出力データ211(Rch)の各出力をLchEOut及びRchEOut、Lch楽音出力データ212(Lch)及びRch楽音出力データ212(Rch)に夫々含まれるLch間接音出力データ211(Lch)及びRch間接音出力データ211(Rch)の各成分とLch直接音出力データ205(Lch)及びRch直接音出力データ205(Rch)の各成分を、LchEOut′及びRchEOut′、並びにLchSOut′及びRchSOut′とする。
この場合、まず、最終段ミキサ部207(Lch)及び207(Rch)での演算は、下記(1)式及び(2)式で示される。
LchMix=LchSOut+LchEOut ・・・(1)
RchMix=RchSOut+RchEOut ・・・(2)
また、下記(3)式及び(4)式が成り立つ。
LchOut=LchSOut′+LchEOut′ ・・・(3)
RchOut=RchSOut′+RchEOut′ ・・・(4)
次に、出力音クロストーク処理部701での演算は、下記(5)及び(6)式で示される。
LchOut=LchMix+RchMix×a ・・・(5)
RchOut=RchMix+LchMix×a ・・・(6)
(1)式と(2)式及び(3)式と(4)式を夫々(5)式及び(6)式に代入することにより、下記(7)式と(8)式及び(9)式と(10)式が導出される。
(LchSOut′+LchEOut′)=(LchSOut+LchEOut)
+(RchSOut+RchEOut)×a
故に、
LchSOut′=LchSOut+RchSOut×a ・・・(7)
LchEOut′=LchEOut+RchEOut×a ・・・(8)
RchSOut′=RchSOut+LchSOut×a ・・・(9)
RchEOut′=RchEOut+LchEOut×a ・・・(10)
一方、間接音クロストーク処理部208での演算は、下記(11)式及び(12)式で示される。
LchEOut=(LchE-RchE×A)×b ・・・(11)
RchEOut=(RchE-LchE×A)×b ・・・(12)
また、第2の実施形態において、クロストーク制御部209は、倍数bを、倍数A及びaを用いて下記(13)式で演算する。
b=1/(1-A×a) ・・・(13)
上述した(8)式、(11)、(12)式、及び(13)式より、下記(14)式が導出される。
LchEOut′=LchEOut+RchEOut×a
=(LchE-RchE×A)×b+(RchE-LchE×A)×b×a
=LchE×(1-A×a)×b+RchE×b×(a-A)
故に、
LchEOut′=LchE+RchE×(a-A)×b
=LchE+RchE×(a-A)/(1-A×a)
・・・(14)
上記と同様にして、(10)式、(11)式、(12)式、及び(13)式より下記(15)式が導出される。
RchEOut′=RchEOut+LchEOut×a
=(RchE-LchE×A)×b+(LchE-RchE×A)×b×a
=RchE×(1-A×a)×b+LchE×b×(a-A)
故に、
RchEOut′=RchE+LchE×(a-A)×b
=RchE+LchE×(a-A)/(1-A×a)
・・・(15)
上記(14)式又は(15)式により、図7のクロストーク制御部209は、倍数値Aの範囲を 0≦A≦a とすることにより、Lch楽音出力データ212(Lch)中での間接音成分LchEOut′と、Rch楽音出力データ212(Rch)中での間接音成分RchEOut′における夫々のクロストークの割合を制御することが可能となる。
例えば、A=0の場合には、(14)式及び(15)式は、下記(16)式及び(17)式となって、従来技術と同様となる。
LchEOut′=LchE+RchE×(a-A)/(1-A×a)
=LchE+RchE×(a-0)/(1-0×a)
故に、
LchEOut′=LchE+RchE×a ・・・(16)

RchEOut′=RchE+LchE×(a-A)/(1-A×a)
=RchE+LchE×(a-0)/(1-0×a)
故に、
RchEOut′=RchE+LchE×a ・・・(17)
また例えば、A=aの場合には、(14)式及び(15)式は、下記(18)式及び(19)式となって、間接音側のクロストークの効果は相殺される。
LchEOut′=LchE+RchE×(a-A)/(1-A×a)
=LchE+RchE×(a-a)/(1-a×a)
故に、
LchEOut′=LchE ・・・(18)

RchEOut′=RchE+LchE×(a-A)/(1-A×a)
=RchE+LchE×(a-a)/(1-a×a)
故に、
RchEOut′=RchE ・・・(19)
このようにして、第2の実施形態によれば、従来構成に間接音クロストーク処理部208を付加し、クロストーク制御部209が、間接音クロストーク処理部208が実行する間接音クロストーク処理が出力音クロストーク処理部701が実行する出力音クロストーク処理を軽減するように(14)式、(15)式、及び(13)式で示される演算処理によって上記各倍数値a、A、及びbを設定することで、Lch残響・共鳴部210(Lch)及びRch残響・共鳴部201(Rch)による間接音の音響効果を損なうことなく、Lch楽音出力データ212(Lch)及びRch楽音出力データ212(Rch)におけるクロストークに関する不自然感を無くすことが可能となる。
上述した第2の実施形態に関連する他の実施形態として、第1の実施形態の場合と同様に、図2のLch残響・共鳴部210(Lch)及びRch残響・共鳴部210(Rch)が、それらの出力段で出力レベルを調整する機能を持っている場合には、図3の間接音クロストーク処理部208内のクロストーク出力乗算器303(Lch)及び303(Rch)の機能を、上記出力レベル調整機能で代用し、更に、図3の間接音クロストーク処理部208内のクロストーク乗算器301(Lch)及び301(Rch)と、クロストーク加算器302(Lch)及び302(Rch)の機能を、音源(TG)104内の第2のミキサ部204(Lch)及び204(Rch)で代用する構成が採用されてもよい。これにより、ハードウェアの規模を従来の規模から増大させることなく、上記第2の実施形態の効果を得ることが可能となる。
次に、第3の実施形態について説明する。第3の実施形態は、図2に例示した第1の実施形態又は図7に例示した第2の実施形態におけるクロストーク制御部209の制御に関するものである。第3の実施形態では、クロストーク制御部209は、出力されるべき楽音出力データの左右出力チャネル間の相関の大きさに応じて、例えば直接音のクロストークの割合を決定する。例えば、図1のROM102内に、出力されるべき楽音の音色、音域、又はベロシティの何れか1つ以上の値毎に相関値が記憶される。そして、クロストーク制御部209は、例えばユーザによる鍵盤106の押鍵操作に応じてCPU101から音源(TG)104に発音指示として指定される音色、音域、又はベロシティの何れか1つ以上に基づいて、例えばROM102に記憶されている相関値を参照し、その参照した相関値に基づいて第1又は第2の実施形態で示したクロストークの割合に対応する倍率値aを決定することができる。
図9は、第3の実施形態におけるクロストーク設定テーブルデータ群の構成例を示す図である。これらのテーブルデータ群は、例えば図1のROM102に記憶される。まず、図9(a)は音色データテーブルの例を示す図である。このテーブルには、音色名とチャネル数と波形スプリットデータへのポインタの組が、音色毎に複数組記憶される。
図9(b)は、図9(a)に例示される音色データテーブルの各エントリ内の波形スプリットデータへのポインタから参照される、複数組の波形スプリットデータを記憶する波形スプリットデータテーブルの例を示す図である。1つの波形スプリットデータのエントリは、例えば最低域、低域、中域、高域、最高域といった音域毎に、音源(TG)104で再生されるべき波形データへのポインタである再生波形情報(L、R)と、左右チャネルの波形データ間の相関の大きさを示す相関値が記憶される。
再生波形情報(L、R)のポインタは、左右チャネル毎に2つの波形データへのポインタが例えば配列データとして記憶される。図9(b)において、例えば「wav_0_0L_R」において、「wav_0」は、図9(a)に示されるように1つの音色に対応している。「wav_1」なら他の音色になる。「wav_0_0」は例えば最低域の音域に対応している。「wav_0_1」なら低域、「wav_0_2」なら中域である。「L_R」は、左右チャネルLch及びRchに対応する配列要素値である。
図9(c)は、図9(b)の再生波形情報(L、R)の1つの配列要素値から参照される1つの波形データの、特には図示しない波形ROM内での「先頭アドレス」、「ループ開始アドレス」、及び「ループ終了アドレス」を示している。図2に示される音源(TG)104内の楽音生成部201(CH1)~201(CHn)内の波形生成部WG.CHi(1≦i≦n)は、特には図示しない波形ROM内の上記「先頭アドレス」が示すアドレスから波形データの読出しを開始し、「ループ終了アドレス」が示すアドレスまで波形データを読み出したら、「ループ開始アドレス」が示すアドレスに戻って波形データの読出しを続行する。以降、その発音チャネル(CHi)についてノートオフ(離鍵)が発生するまで、「ループ開始アドレス」から「ループ終了アドレス」まで波形データの読出しが繰り返される。
相関値は、左右チャネルの波形データ同士について、値0が相関無しを示し、値1が最大相関を示す。図9(b)の右横のテーブル「ミキサ設定クロストーク値」は実際にはテーブルとして保持される必要はなく、下記(20)式に対応する演算処理により算出できる。
クロストーク割合mv=(1-相関値)×0.25 ・・・(20)
例えば、最低域又は最高域の音域が指定されている場合、図9(b)の波形スプリットデータより相関値0.2が参照され、上記(20)式に基づいて、ミキサ設定クロストーク割合=0.200が算出される。また、低域又は高域の音域が指定されている場合、図9(b)の波形スプリットデータより相関値0.5が参照され、上記(20)式に基づいて、ミキサ設定クロストーク割合=0.125が算出される。更に、中域の音域が指定されている場合、図9(b)の波形スプリットデータより相関値0.8が参照され、上記(20)式に基づいて、ミキサ設定クロストーク割合=0.050が算出される。
相関値の例としては、図9(b)に示されるように、鍵盤105の左右端、即ち最低域や最高域ほど広がり感のある波形に対応して左右チャネルの相関値は小さい値に設定され、鍵盤105の中央、即ち中域ほど中央に定位した波形に対応して左右チャネル相関値は大きい値に設定される。クロストーク制御部209は、図9(b)の波形スプリットデータから取得した相関値を用いて上記(20)式に対応する演算を実行することにより、クロストーク割合を取得することができ、前述した各倍率値A、b、及びaを決定することができる。
なお、クロストークの割合は上記(20)式に対応する演算として算出しているが、他に必要な処理が無い場合は、ミキサ用設定値として予めデータで持つ形態でもよい。
第3の実施形態において、クロストーク制御部209の処理例は、第1の実施形態における図5に例示したフローチャートと同じである。図10は、第3の実施形態における図5のステップS504の間接音クロストーク設定処理又はステップS505の直接音クロストーク設定処理の詳細例を示すフローチャートである。
図6に例示した第1の実施形態の場合と同様に、CPU101は、ステップS1003で発音指示がある発音チャネルの数分だけ処理したと判定するまで、即ちステップS1003の判定がNOの間、ステップS1001とS1002の処理を、発音指示がある発音チャネル毎に繰り返し実行する。
まずCPU101は、現在処理中の発音チャネル(CH1又はCH2)に対応する音色及び発音指示された音高が含まれる音域に基づいて、ROM102に記憶されている図9(a)に例示される音色データテーブル、更に図9(b)に例示される波形スプリットデータテーブルから、対応する相関値を取得する(ステップS1002)。
そして、CPU101は、(20)式に対応する演算処理により、クロストークの割合を算出し、対応する倍数値を、第1又は第2の実施形態と同様にして各クロストーク処理部に設定する(ステップS1003)。
CPU101は、ステップS1003の判定がNOならば、ステップS1001の処理に戻って、上記ステップS1001とS1002の処理を繰り返し実行する。CPU101は、ステップS1003の判定がYESになったら、図10のフローチャートで例示される第3の実施形態における図5のステップS504又はS505の間接音又は直接音のクロストーク設定処理を終了する。
第3の実施形態により、発音される楽音の音色、音域、又はベロシティ毎に、クロストークの処理を変更することができ、楽音の広がり感をきめ細かく制御することが可能となる。なお、直接音だけでなく、例えば特定の間接音(効果音)に対して第3の実施形態が適用されてもよい。
最後に、第4の実施形態について説明する。図11は、第4の実施形態における音源(TG)104及び効果付与部105のブロック図、図12は、第4の実施形態の間接音クロストーク処理部208(#1)と208(#2)及び出力音クロストーク処理部701を中心とする構成例を示すブロック図である。図11及び図12において、図7及び図8の第2の実施形態の場合と同じ参照番号が付されたブロックは、第2の実施形態の場合と同じものである。図11及び図12の第4の実施形態では、図7及び図8の第2の実施形態におけるLch残響・共鳴部210(Lch)及びRch残響・共鳴部201(Rch)の残響と共鳴の各効果部が分けられて、夫々第2のミキサ部204(#1)(Lch)及びLch共鳴部210(#1)(Lch)と第2のミキサ部204(#1)(Rch)及びRch共鳴部210(#1)(Rch)、並びに、第2のミキサ部204(#2)(Lch)及びLch残響部210(#2)(Lch)と第2のミキサ部204(#2)(Rch)及びRch残響部210(Rch)(#2)として独立した構成になり、それぞれに対応する間接音クロストーク処理部208(#1)及び間接音クロストーク処理部208(#2)が設けられている。そして、各間接音クロストーク処理部208(#1)及び208(#2)の各左右チャネルの出力が、夫々間接音ミキサ部1101(Lch)及び1101(Rch)で混合され、第2の実施形態の場合と同様にして、夫々、Lch間接音出力データ211(Lch)及びRch間接音出力データ211(Rch)として最終段ミキサ部207(Lch)及び207(Rch)に入力する。図12に示される間接音クロストーク処理部208(#1)及び208(#1)の構成は、夫々図8の第2の実施形態の場合の間接音クロストーク処理部208の構成と同じである。また、図12に示される出力音クロストーク処理部701の構成は、図8の第2の実施形態の場合と同じである。
第4の実施形態において、図11のクロストーク制御部209は、間接音クロストーク処理部208(#1)及び208(#2)毎に、異なるクロストーク割合を与えてよい。即ち、図12において、各倍率値A1とb1及びA2とb2は、それぞれ異なる値の組とすることができる。第4の実施形態では、間接音クロストーク処理部208は2つであることにより、例えば、クロストーク割合が多いほうから、直接音、ペダル共鳴音、残響音となるような設定とし、楽音の広がり感をきめ細かく制御することが可能となる。
第4の実施形態によれば、間接音の種別毎に、音の広がり感を制御することが可能となる。
前述した第3の実施形態において、クロストーク制御部209は、楽音の音色、音域、ベロシティなどによって決定される異なる相関値に基づいてクロストークの割合を制御したが、上記実施形態が電子楽器以外の音響処理装置に適用されてもよく、例えばヘッドホンの駆動装置において、ヘッドホンの種類によって決まる異なる相関値に基づいて左右チャネルの音響出力データ間のクロストークの割合が制御されてもよい。
以上説明した各実施形態は、ステレオ2チャネルに対して適用されたが、それ以上のチャネル数に対しても同様に適用できる。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
複数の出力チャネルの夫々の出力チャネル毎に、第1の音響出力データに、前記第1の音響出力データに音響効果を付加するための1種類以上の第2の音響出力データを混合することにより、第3の音響出力データを出力する音響データ出力部と、
前記第1の音響出力データと前記第2の音響出力データ、又は前記第2の音響出力データと前記第3の音響出力データにおいて、夫々前記複数の出力チャネル間でクロストーク処理を実行するクロストーク処理部と、
前記第3の音響出力データにおいて、前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合が前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させるクロストーク制御部と、
を備える音響処理装置。
(付記2)
前記クロストーク制御部は、出力されるべき音響出力データの前記複数の出力チャネル間の相関の大きさに応じて前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合又は前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合の何れか少なくとも一方を決定し、前記決定に基づいて前記クロストーク処理部に前記クロストーク処理を実行させる、付記1に記載の音響処理装置。
(付記3)
楽音を生成する音源部を含む電子楽器内に備えられ、
前記第1の音響出力データは前記音源部から出力される直接音出力データであり、前記第2の音響出力データは前記楽音に対して音響効果を付加する間接音出力データであり、前記第3の音響出力データは楽音出力データであり、
前記クロストーク制御部は、
出力されるべき楽音の音色、音域、又はベロシティの何れか1つ以上の値毎に記憶された相関値に基づいて、前記楽音出力データにおける、前記直接音出力データの成分の前記複数の出力チャネル間でのクロストークの割合を決定し、又は併せて前記間接音出力データの成分の前記複数の出力チャネル間でのクロストークの割合を決定する、
付記2に記載の音響処理装置。
(付記4)
前記クロストーク処理部は、前記音源部が生成する複数の発音チャネルの夫々の楽音データを前記複数の出力チャネルの前記直接音出力データ又は前記間接音出力データにミックスダウンする前記音源部内の音源ミキサ部で代用される、
付記3に記載の音響処理装置。
(付記5)
前記クロストーク処理部は、
前記第3の音響出力データの出力段において前記複数の出力チャネル間で第1のクロストーク処理を実行する第1のクロストーク部と、
前記第1の音響出力データと混合される前の前記第2の音響出力データにおいて前記複数の出力チャネル間で第2のクロストーク処理を実行する第2のクロストーク部と、
を備え、
前記クロストーク制御部は、前記第2のクロストーク処理が前記第1のクロストーク処理によるクロストークを軽減するように、前記クロストーク処理部に前記第1のクロストーク処理のためのパラメータと前記第2のクロストーク処理のためのパラメータを設定する、
付記1乃至4の何れかに記載の音響処理装置。
(付記6)
1つ以上の前記第2の音響出力データは、前記第1の音響出力データに共鳴音効果を付加するための共鳴音データと、前記第1の音響出力データに残響音効果を付加するための残響音データとを含み、
前記クロストーク制御部は、前記第3の音響出力データにおいて、各前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合がそれぞれ異なる割合を持ち得ながら前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させる、
付記1乃至5の何れかに記載の音響処理装置。
(付記7)
前記複数の出力チャネルは、ステレオの左チャネルと右チャネルの2チャネルである、付記1乃至6の何れかに記載の音響処理装置。
(付記8)
プロセッサに、
複数の出力チャネルの夫々の出力チャネル毎に、第1の音響出力データに、前記第1の音響出力データに音響効果を付加するための1種類以上の第2の音響出力データを混合することにより、第3の音響出力データを出力する音響データ出力処理と、
前記第1の音響出力データ、前記第2の音響出力データ、又は前記第3の音響出力データの何れか2つ以上において、夫々前記複数の出力チャネル間でクロストーク処理を実行するクロストーク処理と、
前記第3の音響出力データにおいて、前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合が前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させるクロストーク制御処理と、
を実行させるための音響処理方法。
(付記9)
プロセッサに、
複数の出力チャネルの夫々の出力チャネル毎に、第1の音響出力データに、前記第1の音響出力データに音響効果を付加するための1種類以上の第2の音響出力データを混合することにより、第3の音響出力データを出力する音響データ出力処理と、
前記第1の音響出力データ、前記第2の音響出力データ、又は前記第3の音響出力データの何れか2つ以上において、夫々前記複数の出力チャネル間でクロストーク処理を実行するクロストーク処理と、
前記第3の音響出力データにおいて、前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合が前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させるクロストーク制御処理と、
を実行させるためのプログラム。
100 電子楽器
101 CPU
102 ROM
103、306 RAM
104 音源(TG)
105 効果付与部
106 鍵盤
107 ペダル
108 操作子
109 システムバス
110 サウンドシステム
201 楽音生成部
202 ミキシング部
203(Lch)、203(Rch)、204(Lch)、204(Rch) ミキサ
205(Lch) Lch直接音出力データ
205(Rch) Rch直接音出力データ
206(Lch) Lch間接音入力データ
206(Rch) Rch間接音入力データ
207(Lch)、207(Rch) 最終段ミキサ部
208、208(#1)、208(#2) 間接音クロストーク処理部
209 クロストーク制御部
210(Lch) Lch残響・共鳴部
210(Rch) Rch残響・共鳴部
210(#1)(Lch) Lch共鳴部
210(#1)(Lch) Rch共鳴部
210(#2)(Lch) Lch残響部
210(#2)(Rch) Rch残響部
211(Lch) Lch間接音出力データ
211(Rch) Rch間接音出力データ
212(Lch) Lch楽音出力データ
212(Rch) Rch楽音出力データ
301(Lch)、301(Rch) クロストーク乗算器
302(Lch)、302(Rch) クロストーク加算器
303(Lch)、303(Rch) クロストーク出力乗算器
701 出力音クロストーク処理部
1101(Lch)、1101(Rch) 間接音ミキサ部

Claims (9)

  1. 複数の出力チャネルの夫々の出力チャネル毎に、第1の音響出力データに、前記第1の音響出力データに音響効果を付加するための1種類以上の第2の音響出力データを混合することにより、第3の音響出力データを出力する音響データ出力部と、
    前記第1の音響出力データと前記第2の音響出力データ、又は前記第2の音響出力データと前記第3の音響出力データにおいて、夫々前記複数の出力チャネル間でクロストーク処理を実行するクロストーク処理部と、
    前記第3の音響出力データにおいて、前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合が前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させるクロストーク制御部と、
    を備える音響処理装置。
  2. 前記クロストーク制御部は、出力されるべき音響出力データの前記複数の出力チャネル間の相関の大きさに応じて前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合又は前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合の何れか少なくとも一方を決定し、前記決定に基づいて前記クロストーク処理部に前記クロストーク処理を実行させる、請求項1に記載の音響処理装置。
  3. 楽音を生成する音源部を含む電子楽器内に備えられ、
    前記第1の音響出力データは前記音源部から出力される直接音出力データであり、前記第2の音響出力データは前記楽音に対して音響効果を付加する間接音出力データであり、前記第3の音響出力データは楽音出力データであり、
    前記クロストーク制御部は、
    出力されるべき楽音の音色、音域、又はベロシティの何れか1つ以上の値毎に記憶された相関値に基づいて、前記楽音出力データにおける、前記直接音出力データの成分の前記複数の出力チャネル間でのクロストークの割合を決定し、又は併せて前記間接音出力データの成分の前記複数の出力チャネル間でのクロストークの割合を決定する、
    請求項2に記載の音響処理装置。
  4. 前記クロストーク処理部は、前記音源部が生成する複数の発音チャネルの夫々の楽音データを前記複数の出力チャネルの前記直接音出力データ又は前記間接音出力データにミックスダウンする前記音源部内の音源ミキサ部で代用される、
    請求項3に記載の音響処理装置。
  5. 前記クロストーク処理部は、
    前記第3の音響出力データの出力段において前記複数の出力チャネル間で第1のクロストーク処理を実行する第1のクロストーク部と、
    前記第1の音響出力データと混合される前の前記第2の音響出力データにおいて前記複数の出力チャネル間で第2のクロストーク処理を実行する第2のクロストーク部と、
    を備え、
    前記クロストーク制御部は、前記第2のクロストーク処理が前記第1のクロストーク処理によるクロストークを軽減するように、前記クロストーク処理部に前記第1のクロストーク処理のためのパラメータと前記第2のクロストーク処理のためのパラメータを設定する、
    請求項1乃至4の何れかに記載の音響処理装置。
  6. 1つ以上の前記第2の音響出力データは、前記第1の音響出力データに共鳴音効果を付加するための共鳴音データと、前記第1の音響出力データに残響音効果を付加するための残響音データとを含み、
    前記クロストーク制御部は、前記第3の音響出力データにおいて、各前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合がそれぞれ異なる割合を持ち得ながら前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させる、
    請求項1乃至5の何れかに記載の音響処理装置。
  7. 前記複数の出力チャネルは、ステレオの左チャネルと右チャネルの2チャネルである、請求項1乃至6の何れかに記載の音響処理装置。
  8. プロセッサに、
    複数の出力チャネルの夫々の出力チャネル毎に、第1の音響出力データに、前記第1の音響出力データに音響効果を付加するための1種類以上の第2の音響出力データを混合することにより、第3の音響出力データを出力する音響データ出力処理と、
    前記第1の音響出力データ、前記第2の音響出力データ、又は前記第3の音響出力データの何れか2つ以上において、夫々前記複数の出力チャネル間でクロストーク処理を実行するクロストーク処理と、
    前記第3の音響出力データにおいて、前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合が前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させるクロストーク制御処理と、
    を実行させるための音響処理方法。
  9. プロセッサに、
    複数の出力チャネルの夫々の出力チャネル毎に、第1の音響出力データに、前記第1の音響出力データに音響効果を付加するための1種類以上の第2の音響出力データを混合することにより、第3の音響出力データを出力する音響データ出力処理と、
    前記第1の音響出力データ、前記第2の音響出力データ、又は前記第3の音響出力データの何れか2つ以上において、夫々前記複数の出力チャネル間でクロストーク処理を実行するクロストーク処理と、
    前記第3の音響出力データにおいて、前記第2の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合が前記第1の音響出力データの成分の前記複数の出力チャネル間でのクロストークの割合よりも小さくなるように、前記クロストーク処理部に前記クロストーク処理を実行させるクロストーク制御処理と、
    を実行させるためのプログラム。
JP2020143616A 2020-08-27 2020-08-27 音響処理装置、方法、およびプログラム Active JP7147814B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020143616A JP7147814B2 (ja) 2020-08-27 2020-08-27 音響処理装置、方法、およびプログラム
CN202110849074.2A CN114120958A (zh) 2020-08-27 2021-07-27 音响处理装置、方法和计算机程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020143616A JP7147814B2 (ja) 2020-08-27 2020-08-27 音響処理装置、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022038902A JP2022038902A (ja) 2022-03-10
JP7147814B2 true JP7147814B2 (ja) 2022-10-05

Family

ID=80359490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020143616A Active JP7147814B2 (ja) 2020-08-27 2020-08-27 音響処理装置、方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP7147814B2 (ja)
CN (1) CN114120958A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116600242B (zh) * 2023-07-19 2023-11-07 荣耀终端有限公司 音频声像优化方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015128208A (ja) 2013-12-27 2015-07-09 ヤマハ株式会社 スピーカ装置
JP2017126944A (ja) 2016-01-15 2017-07-20 株式会社コルグ 音響装置、電子鍵盤楽器およびプログラム
CN107431871A (zh) 2015-02-16 2017-12-01 华为技术有限公司 过滤音频信号的音频信号处理装置和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3074813B2 (ja) * 1991-08-07 2000-08-07 ヤマハ株式会社 クロストークキャンセル回路および音像定位装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015128208A (ja) 2013-12-27 2015-07-09 ヤマハ株式会社 スピーカ装置
CN107431871A (zh) 2015-02-16 2017-12-01 华为技术有限公司 过滤音频信号的音频信号处理装置和方法
JP2018506937A (ja) 2015-02-16 2018-03-08 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 音声信号のクロストーク低減のための音声信号処理装置および方法
JP2017126944A (ja) 2016-01-15 2017-07-20 株式会社コルグ 音響装置、電子鍵盤楽器およびプログラム

Also Published As

Publication number Publication date
JP2022038902A (ja) 2022-03-10
CN114120958A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
JP3578783B2 (ja) 電子楽器の音像定位装置
US20050216211A1 (en) Impulse response collecting method, sound effect adding apparatus, and recording medium
CN108242231B (zh) 乐音生成装置、电子乐器、乐音生成方法以及存储介质
CN108242232B (zh) 乐音生成装置、电子乐器、乐音生成方法以及存储介质
JP4702392B2 (ja) 共鳴音発生装置および電子楽器
JP7147814B2 (ja) 音響処理装置、方法、およびプログラム
US11893968B2 (en) Electronic musical instrument, electronic keyboard musical instrument, and method of generating musical sound
JP2009175677A (ja) 共鳴音付加装置および電子楽器
US20220199057A1 (en) Sound Signal Generation Method, Sound Signal Generation Device, Non-transitory Computer Readable Medium Storing Sound Signal Generation Program and Electronic Musical Apparatus
US5444180A (en) Sound effect-creating device
CN113453120B (zh) 效果赋予装置、方法及存储介质
US5526431A (en) Sound effect-creating device for creating ensemble effect
JP2003208182A (ja) 楽音発生装置
US5432856A (en) Sound effect-creating device
JP3613944B2 (ja) 音場効果付与装置
JP2008512699A (ja) 入力信号に残響を加える装置及び方法
JP3463313B2 (ja) 音場生成回路
US20230215407A1 (en) Electronic musical instrument, method of generating musical sound, and computer-readable storage medium
JP2852835B2 (ja) 音響効果装置
JP2024046785A (ja) 効果付与装置、方法、及びプログラム
JP2001272981A (ja) 電子楽器の共鳴音発生装置
JP2005338471A (ja) 残響効果付加装置
JP2024046786A (ja) 音響信号処理装置、方法、及びプログラム
JP2022049019A (ja) 電子楽器、楽音発生方法およびプログラム
JPH06130942A (ja) 音響効果装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7147814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150