JP2021189364A - 音信号処理方法、音信号処理装置および音信号処理プログラム - Google Patents

音信号処理方法、音信号処理装置および音信号処理プログラム Download PDF

Info

Publication number
JP2021189364A
JP2021189364A JP2020096757A JP2020096757A JP2021189364A JP 2021189364 A JP2021189364 A JP 2021189364A JP 2020096757 A JP2020096757 A JP 2020096757A JP 2020096757 A JP2020096757 A JP 2020096757A JP 2021189364 A JP2021189364 A JP 2021189364A
Authority
JP
Japan
Prior art keywords
sound
impulse response
reverberation
signal
control signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020096757A
Other languages
English (en)
Other versions
JP7524614B2 (ja
Inventor
悌 橋本
Dai Hashimoto
隆行 渡辺
Takayuki Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2020096757A priority Critical patent/JP7524614B2/ja
Priority to CN202110550548.3A priority patent/CN113766395A/zh
Priority to US17/329,291 priority patent/US11749254B2/en
Priority to EP21177095.3A priority patent/EP3920176A3/en
Publication of JP2021189364A publication Critical patent/JP2021189364A/ja
Application granted granted Critical
Publication of JP7524614B2 publication Critical patent/JP7524614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • G10K15/12Arrangements for producing a reverberation or echo sound using electronic time-delay networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H7/00Measuring reverberation time ; room acoustic measurements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • H04R29/002Loudspeaker arrays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/281Reverberation or echo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/305Source positioning in a soundscape, e.g. instrument positioning on a virtual soundstage, stereo panning or related delay or reverberation changes; Changing the stereo width of a musical source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/055Filters for musical processing or musical effects; Filter responses, filter architecture, filter coefficients or control parameters therefor
    • G10H2250/111Impulse response, i.e. filters defined or specified by their temporal impulse response features, e.g. for echo or reverberation applications
    • G10H2250/115FIR impulse, e.g. for echoes or room acoustics, the shape of the impulse response is specified in particular according to delay times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2203/00Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
    • H04R2203/12Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】より明瞭な音像と空間の拡がりを実現する音信号処理方法および音信号処理装置を提供する。【解決手段】音場支援システム1の音信号処理部10において、FIRフィルタ24Aは、入力した音信号に音源の位置に応じた初期反射音のインパルス応答のデータを畳み込み、所定の空間の初期反射音を再現した初期反射音制御信号を生成する。また、FIRフィルタ24Bは、入力した音信号に、残響音のインパルス応答のデータを畳み込み、所定の空間の残響音を再現した残響音制御信号を生成する。【選択図】図2

Description

この発明の一実施形態は、取得した音信号に対して処理を行なう音信号処理方法、音信号処理装置および音信号処理プログラムに関する。
コンサートホール等の施設では、様々なジャンルの音楽が演奏されたり、講演等のスピーチが行なわれたりする。このような施設は、多様な音響特性(例えば残響特性)が求められる。例えば、演奏では比較的長い残響が求められ、スピーチでは比較的短い残響が求められる。
しかし、ホール内の残響特性を物理的に変化させるには、例えば天井を移動させる等して音響空間の大きさを変化させる必要があり、非常に大がかりな設備が必要であった。
そこで、例えば特許文献1に示すような音場制御装置は、マイクで取得した音をFIR(Finite Impulse Response)フィルタで処理することにより残響音を生成し、ホール内に設置されたスピーカから当該残響音を出力することで、音場を支援する処理を行なっている。
特開平6−284493号公報
しかし、残響音を付与するだけでは定位感がぼやける。近時、より明瞭な音像定位と豊かな空間の拡がりを実現することが望まれている。
そこで、この発明の一実施形態は、より豊かな音響空間を制御する音信号処理方法および音信号処理装置を提供することを目的とする。
音信号処理方法は、音源の音信号を取得し、前記音信号に、前記音源の場所に応じた初期反射音のインパルス応答を畳み込んで初期反射音制御信号を生成し、前記音信号に、残響音のインパルス応答を畳み込んで残響音制御信号を生成する。
音信号処理方法は、より明瞭な音像定位および豊かな空間の拡がりを実現することができる。
実施形態1の空間を模式的に示した透過斜視図である。 実施形態1の音場支援システムの構成を示すブロック図である。 音信号処理装置の動作を示すフローチャートである。 室62、スピーカ51A〜スピーカ51J、および音源65の関係を模式的に示した平面図である。 図5(A)は、フィルタ係数に用いるインパルス応答の時間波形における音の種類の分類例を示す模式図であり、図5(B)は、FIRフィルタ24Aに設定するフィルタ係数の時間波形を示す模式図である。 図6(A)は、FIRフィルタ24Bに設定するインパルス応答を示す模式図であり、図6(B)は、FIRフィルタ24Bに設定するフィルタ係数の時間波形を示す模式図である。 空間620と室62との関係を模式的に示した平面図である。 FIRフィルタ24Aの機能的構成を示すブロック図である。 変形例1に係る音信号処理部10の構成を示すブロック図である。 変形例2に係る音信号処理部10の構成を示すブロック図である。
図1は、空間を構成する室62を模式的に示した透過斜視図である。図2は、音場支援システム1の構成を示すブロック図である。
室62は、概ね直方体形状の空間を構成する。音源65は、室62のうち前方のステージ60上に存在する。室62の後方はリスナの座る観客席に相当する。音源65は、例えば声、歌唱音、アコースティック楽器、エレキ楽器、または電子楽器等である。
なお、室62の形状、および音源の配置等は、図1の例に限らない。本発明の音信号処理方法および音信号処理装置は、どの様な形状の空間であっても所望の音場を提供でき、従来よりもより明瞭な音像定位および豊かな空間の拡がりを実現することができる。
音場支援システム1は、室62内に、指向性マイク11A、指向性マイク11B、指向性マイク11C、無指向性マイク12A、無指向性マイク12B、無指向性マイク12C、スピーカ51A〜スピーカ51J、スピーカ61A〜スピーカ61Fを備える。
スピーカ51A〜スピーカ51Jは、壁面に設定されている。スピーカ51A〜スピーカ51Jは、比較的指向性の高いスピーカであり、主に観客席に向けて音を出力する。スピーカ51A〜スピーカ51Jは、初期反射音を再現した初期反射音制御信号を出力する。また、スピーカ51A〜スピーカ51Jは、音源の直接音を再現した直接音制御信号を出力する
スピーカ61A〜スピーカ61Fは、天井に設置されている。スピーカ61A〜スピーカ61Fは、比較的指向性の低いスピーカであり、室62の全体に音を出力する。スピーカ61A〜スピーカ61Fは、残響音を再現した残響音制御信号を出力する。また、スピーカ61A〜スピーカ61Fは、音源の直接音を再現した直接音制御信号を出力する。なお、スピーカの数は、図1に示す数に限らない。
指向性マイク11A、指向性マイク11B、および指向性マイク11Cは、主に、ステージ上の音源65の音を収音する。図1に示す様に、指向性マイク11Aは、観客席から見てステージ60の左側の領域110Aの音を収音する。指向性マイク11Bは、観客席から見てステージ60の中央の領域110Bの音を収音する。指向性マイク11Cは、観客席から見てステージ60の右側の領域110Cの音を収音する。
ただし、音源65の音は、ライン入力してもよい。ライン入力とは、楽器等の音源から出力される音をマイクで収音して入力するのではなく、音源に接続されたオーディオケーブル等から音信号を入力することである。あるいは、音源65の音は、話者または歌唱者等の演者の音声または歌唱音をハンドマイク、スタンドマイク、ピンマイク等から入力してもよい。音源の音は、高いSN比で収音することが好ましい。
無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cは、天井に設置される。無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cは、音源65の直接音および室62内の反射音等を含む、室62内の全体の音を収音する。図1に示す指向性マイクおよび無指向性マイクの数はそれぞれ3つである。ただし、マイクの数は、図1に示す例に限らない。また、マイクおよびスピーカの設置位置は、図1に示す例に限るものではない。
図2において、音場支援システム1は、図1に示した構成に加えて、音信号処理部10と、メモリ31と、を備えている。音信号処理部10は、主にCPUおよびDSP(Digital Signal Processor)から構成される。音信号処理部10は、機能的に、音信号取得部21、ゲイン調整部22、ミキサ23、パニング処理部23D、FIR(Finite Impulse Response)フィルタ24A、FIRフィルタ24B、レベル設定部25A、レベル設定部25B、出力信号生成部26、出力部27、遅延調整部28、位置情報取得部29、インパルス応答取得部151、およびレベルバランス調整部152を備える。音信号処理部10は、本発明の音信号処理装置の一例である。
音信号処理部10を構成するCPUは、メモリ31に記憶されている動作用プログラムを読み出して、各構成を制御する。CPUは、該動作用プログラムにより、機能的に、インパルス応答取得部151およびレベルバランス調整部152を構成する。なお、動作用プログラムは、メモリ31に記憶されている必要はない。CPUは、例えば不図示のサーバから都度、動作用プログラムをダウンロードしてもよい。
図3は、音信号処理部10の動作を示すフローチャートである。まず、音信号取得部21は、音信号を取得する(S11)。音信号取得部21は、指向性マイク11A、指向性マイク11B、指向性マイク11C、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cから音信号を取得する。あるいは、音信号取得部21は、エレキ楽器または電子楽器等から音信号をライン入力してもよい。また、音信号取得部21は、ピンマイク等の楽器または演者に直接設置されたマイクから音信号を入力してもよい。音信号取得部21は、アナログ信号を取得した場合には、デジタル信号に変換して出力する。
ゲイン調整部22は、音信号取得部21で取得した音信号のゲインを調整する。ゲイン調整部22は、例えば、音源65に近い位置の指向性マイクのゲインを高く設定する。なお、ゲイン調整部22は、本発明において必須の構成ではない。
ミキサ23は、ゲイン調整部22でゲイン調整した音信号をミキシングする。また、ミキサ23は、ミキシングした音信号を複数の信号処理系統に分配する。ミキサ23は、分配した音信号をパニング処理部23D、FIRフィルタ24A、およびFIRフィルタ24Bに出力する。
例えば、ミキサ23は、指向性マイク11A、指向性マイク11B、および指向性マイク11Cから取得した音信号をスピーカ51A〜スピーカ51Jに合わせて、10個の信号処理系統に分配する。あるいは、ミキサ23は、ライン入力した音信号をスピーカ51A〜スピーカ51Jに合わせて、10個の信号処理系統に分配してもよい。
また、ミキサ23は、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cから取得した音信号をスピーカ61A〜スピーカ61Fに合わせて、6つの信号処理系統に分配する。
ミキサ23は、10個の信号処理系統にミキシングした音信号を、それぞれFIRフィルタ24Aに出力する。また、ミキサ23は、6つの信号処理系統にミキシングした音信号をFIRフィルタ24Bに出力する。
以後、FIRフィルタ24Bに出力する6つの信号処理系統は、第1系統または残響音系統と称し、FIRフィルタ24Aに出力する10の信号処理系統は、第2系統または初期反射音系統と称する。また、パニング処理部23Dに出力する10の信号処理系統は、第3系統または直接音系統と称する。FIRフィルタ24Aは、初期反射音制御信号生成部に対応し、FIRフィルタ24Bは、残響音制御信号生成部に対応する。パニング処理部23Dは、直接音制御信号生成部に対応する。
なお、分配の態様は、上記例に限らない。例えば、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cから取得した音信号は、直接音系統または初期反射音系統に分配してもよい。また、ライン入力した音信号を残響音系統に分配してもよい。また、ライン入力した音信号と、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cから取得した音信号と、をミキシングして直接音系統または初期反射音系統に分配してもよい。
なお、ミキサ23は、EMR(Electronic Microphone Rotator)の機能を備えていてもよい。EMRは、固定されたマイクとスピーカとの間の伝達関数を時間的に変化させることで、フィードバックループの周波数特性を平坦化する手法である。EMRは、マイクと信号処理系統の接続関係を時々刻々と切り換える機能である。ミキサ23は、指向性マイク11A、指向性マイク11B、および指向性マイク11Cから取得した音信号の出力先を切り換えるようにしてパニング処理部23DおよびFIRフィルタ24Aに出力する。あるいは、ミキサ23は、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cから取得した音信号の出力先を切り換えるようにしてFIRフィルタ24Bに出力する。これにより、ミキサ23は、室62においてスピーカからマイクに至る音響帰還系の周波数特性を平坦化できる。また、ミキサ23は、ハウリングに対する安定性を確保することができる。
次に、パニング処理部23Dは、音源65の位置に応じて、直接音系統のそれぞれの音信号の音量を制御する(S12)。これにより、パニング処理部23Dは、直接音制御信号を生成する。
図4は、室62、スピーカ51A〜スピーカ51J、および音源65の関係を模式的に示した平面図である。図4の例では、音源65は、観客席から向かってステージの右側の場所に位置する。パニング処理部23Dは、音源65の位置に音像が定位する様に、直接音系統のそれぞれの音信号の音量を制御する。
パニング処理部23Dは、位置情報取得部29から音源65の位置情報を取得する。位置情報は、室62のある位置を基準とした2次元または3次元の座標を示す情報である。音源65の位置情報は、例えばBluetooth(登録商標)等の電波を送受信するビーコンおよびタグで取得できる。室62は、予め少なくとも3つのビーコンを設置している。音源65は、タグを備える。つまり、演者または楽器は、タグを取り付ける。各ビーコンは、タグに電波を送受信する。各ビーコンは、電波を送信してから受信するまでの時間差に基づいて、タグとの距離を計測する。位置情報取得部29は、ビーコンの位置情報を予め取得しておけば、少なくとも3つのビーコンからタグまでの距離をそれぞれ測定することで、タグの位置を一意に求めることができる。
位置情報取得部29は、この様にして測定したタグの位置情報を取得することで、音源65の位置情報を取得する。また、位置情報取得部29は、スピーカ51A〜スピーカ51J、およびスピーカ61A〜スピーカ61Fのそれぞれの位置情報を予め取得する。
パニング処理部23Dは、取得した位置情報およびスピーカ51A〜スピーカ51J、およびスピーカ61A〜スピーカ61Fの位置情報に基づいて、音源65の位置に音像が定位する様にスピーカ51A〜スピーカ51J、およびスピーカ61A〜スピーカ61Fに出力するそれぞれの音信号の音量を制御することで、直接音制御信号を生成する。
パニング処理部23Dは、音源65と、スピーカ51A〜スピーカ51J、およびスピーカ61A〜スピーカ61Fのそれぞれのスピーカとの距離に応じて音量を制御する。例えば、パニング処理部23Dは、音源65の位置に近いスピーカに出力する音信号の音量を大きくし、音源65の位置から遠いスピーカに出力する音信号の音量を小さくする。これにより、パニング処理部23Dは、音源65の音像を所定の位置に定位させることができる。例えば、図4の例では、パニング処理部23Dは、音源65に近い3つのスピーカ51F、51G、および51Hに出力する音信号の音量を大きく、他のスピーカの音量を小さくする。これにより、音源65の音像は、観客席から向かってステージの右側に定位する。
仮に、音源65がステージの左側に移動すると、パニング処理部23Dは、移動した音源65の位置情報に基づいて、スピーカ51A〜スピーカ51J、スピーカ61A〜スピーカ61Fに出力するそれぞれの音信号の音量を変更する。例えば、パニング処理部23Dは、スピーカ51A、51B、および51Fに出力する音信号の音量を大きく、他のスピーカの音量を小さくする。これにより、音源65の音像は、観客席から向かってステージの左側に定位する。
以上の様にして、音信号処理部10は、ミキサ23およびパニング処理部23Dにより、分配処理部を実現する。
次に、インパルス応答取得部151は、FIRフィルタ24AおよびFIRフィルタ24Bのフィルタ係数をそれぞれ設定する(S13)。
ここで、フィルタ係数に設定するインパルス応答データについて説明する。図5(A)は、フィルタ係数に用いるインパルス応答の時間波形における音の種類の分類例を示す模式図であり、図5(B)は、FIRフィルタ24Aに設定するフィルタ係数の時間波形を示す模式図である。図6(A)、図6(B)は、FIRフィルタ24Bに設定するフィルタ係数の時間波形を示す模式図である。
図5(A)に示すように、インパルス応答は、時間軸上に並ぶ、直接音、初期反射音、および残響音に区別できる。そして、FIRフィルタ24Aに設定するフィルタ係数は、図5(B)に示すように、インパルス応答における直接音および残響音を除いた初期反射音の部分によって設定される。FIRフィルタ24Bに設定するフィルタ係数は、図6(A)に示すように、インパルス応答における直接音および初期反射音を除いた残響音によって設定される。なお、FIRフィルタ24Bは、図6(B)に示すように、インパルス応答における直接音を除いた初期反射音と残響音によって設定されていてもよい。
インパルス応答のデータは、メモリ31に記憶されている。インパルス応答取得部151は、メモリ31からインパルス応答のデータを取得する。ただし、インパルス応答のデータは、メモリ31に記憶されている必要はない。インパルス応答取得部151は、インパルス応答のデータを、例えば、不図示のサーバ等から都度ダウンロードしてもよい。
インパルス応答取得部151は、予め初期反射音だけ切り出されたインパルス応答のデータを取得して、FIRフィルタ24Aに設定してもよい。あるいは、インパルス応答取得部151は、直接音、初期反射音、および残響音の含まれたインパルス応答のデータを取得して、初期反射音だけを切り出してFIRフィルタ24Aに設定してもよい。同様に、インパルス応答取得部151は、残響音のみを用いる場合には、予め残響音だけ切り出されたインパルス応答のデータを取得して、FIRフィルタ24Bに設定してもよい。あるいは、インパルス応答取得部151は、直接音、初期反射音、および残響音の含まれたインパルス応答のデータを取得して、残響音だけを切り出してFIRフィルタ24Bに設定してもよい。
FIRフィルタ24Aは、入力した音信号に、初期反射音のインパルス応答のデータを畳み込むことで、所定の空間の初期反射音を再現した初期反射音制御信号を生成する(S14)。また、FIRフィルタ24Bは、入力した音信号に、残響音のインパルス応答のデータを畳み込むことで、所定の空間の残響音を再現した残響音制御信号を生成する(S14)。
図7は、空間620と室62との関係を模式的に示した平面図である。図7に示す様に、インパルス応答のデータは、音場を再現する対象となるコンサートホールまたは教会等の所定の空間620で予め測定する。例えば、インパルス応答のデータは、ステージ上の所定の位置でテスト音(パルス音)を発し、空間620に設置した複数のマイクでそれぞれテスト音を収音することにより測定する。
本実施形態では、インパルス応答のデータは、ステージ60の左側の領域110Aでテスト音を発した場合のインパルス応答、ステージ60の中央の領域110Bでテスト音を発した場合のインパルス応答、およびステージ60の右側の領域110Cでテスト音を発した場合のインパルス応答を測定する。
初期反射音のインパルス応答のデータは、壁面の近傍に設置した複数の指向性マイク510A〜510Jを用いて測定する。壁面の近傍に設置した指向性マイクを用いる場合、インパルス応答のデータは、信号処理系統毎に別々の指向性マイクで測定する。例えば、図7に示す様に、ステージ60に向かって右後方に設置されたスピーカ51Jに対応する信号処理系統に対して、インパルス応答のデータは、ステージ60に向かって右後方の壁面の近傍に設置した指向性マイク510Jで測定する。
インパルス応答のデータは、領域110A、領域110B、および領域110Cの3つの音源の系統に対して、それぞれ指向性マイク510A〜510Jの10系統で測定する。すなわち、インパルス応答のデータは、指向性マイク510A〜510Jで測定された10個のインパルス応答を音源の位置に応じて、3つ測定する。以下、領域110Aの音源で測定された10個のインパルス応答を第1インパルス応答、領域110Bの音源で測定された10個のインパルス応答を第2インパルス応答、領域110Cの音源で測定された10個のインパルス応答を第3インパルス応答と称する。領域110A、領域110B、および領域110Cの3つの系統はそれぞれ室62における指向性マイク11A、指向性マイク11B、および指向性マイク11Cに対応し、指向性マイク510A〜510Jの10系統は、スピーカ51A〜51Jに対応する。
図8は、FIRフィルタ24Aの機能的構成を示すブロック図である。図8に示すように、ミキサ23は、指向性マイク11A、指向性マイク11B、および指向性マイク11Cで取得した音信号を、それぞれ10個の系統の音信号に分配する。FIRフィルタ24Aは、第1インパルス応答、第2インパルス応答、および第3インパルス応答を、ミキサ23から分配された音信号に畳み込む。
FIRフィルタ24Aは、音源65が領域110A内に位置する場合に、第1インパルス応答に対応する10個のFIRフィルタLA〜FIRフィルタLJでフィルタ処理を行う。同様に、FIRフィルタ24Aは、音源65が領域110B内に位置する場合に、第2インパルス応答に対応する10個のFIRフィルタCA〜FIRフィルタCJでフィルタ処理を行う。FIRフィルタ24Aは、音源65が領域110C内に位置する場合に、第3インパルス応答に対応する10個のFIRフィルタRA〜FIRフィルタRJでフィルタ処理を行う。
FIRフィルタ24Aは、この様にして、3×10系統の初期反射音制御信号を生成する。FIRフィルタ24Bは、3×6系統の残響音制御信号を生成する。
なお、残響音は、音の到来方向の定まらない反射音である。したがって、残響音のインパルス応答のデータは、初期反射音に比べると音源の位置の変化による変化は小さい。したがって、残響音のインパルス応答のデータは、上記指向性マイク510A〜510Jではなく、別の無指向性マイクを用いて測定してもよい。また、FIRフィルタ24Bは、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cで取得した音信号をミキシングした音信号に、同じ1つのインパルス応答のデータを畳み込んで、残響音制御信号を生成してもよい。
レベル設定部25Aは、初期反射音制御信号のレベル調整を行なう。レベル設定部25Bは、残響音制御信号のレベル調整を行なう。レベルバランス調整部152は、パニング処理部23D、レベル設定部25Aおよびレベル設定部25Bのレベル調整量を設定する(S15)。レベルバランス調整部152は、直接音制御信号、初期反射音制御信号および残響音制御信号のそれぞれのレベルを参照し、これらの信号のレベルバランスを整える。例えば、レベルバランス調整部152は、直接音制御信号のうち時間的に最後のレベルと、初期反射音制御信号のうち時間的に最初の成分のレベルバランスを整える。また、レベルバランス調整部152は、初期反射音制御信号のうち時間的に最後の成分のレベルと、残響音制御信号のうち時間的に最初の成分のレベルとのバランスを整える。あるいは、レベルバランス調整部152は、初期反射音制御信号のうち時間的に後半部分となる複数成分のパワーと、残響音制御信号のうち時間的に前半部分となる成分のパワーとのバランスを整えてもよい。これにより、レベルバランス調整部152は、直接音制御信号、初期反射音制御信号および残響音制御信号の音を個別に制御し、適用する空間に合わせて、適切なバランスに制御することができる。
遅延調整部28は、任意のマイクと複数のスピーカとの距離に応じて、遅延時間を調整する(S16)。例えば、遅延調整部28は、複数のスピーカにおいて、指向性マイク11Bとスピーカとの距離が短い順に、遅延時間を小さく設定する。或いは、遅延調整部28は、音場を再現する空間620でのインパルス応答を測定する音源とマイクの位置から遅延時間を調整する。例えば、FIRフィルタ24Aにおいて、スピーカ51Jに空間620内に設置した指向性マイク510Jで測定したインパルス応答データを畳み込む場合、遅延調整部28におけるスピーカ51Jの遅延時間は、空間620の指向性マイク510Jと音源65の距離に相当する遅延時間を設定する。これにより、初期反射音制御信号および残響音制御信号は、直接音よりも遅れてリスナに到達し、明瞭な音像定位と豊かな空間の拡がりを実現する。
なお、音信号処理部10は、直接音制御信号に遅延調整を行わないことが好ましい。仮に、遅延調整により音像定位を制御する場合、音源65の位置が短時間の間に大きく変化すると、複数のスピーカから出力された音同士で位相干渉を起こす。音信号処理部10は、直接音制御信号に遅延調整を行わないことで、音源65の位置が短時間に大きく変化した場合でも、位相干渉を起こすことなく、音源65の音色を維持することができる。 出力信号生成部26は、直接音制御信号、初期反射音制御信号および残響音制御信号をミキシングして出力信号を生成する(S17)。なお、出力信号生成部26は、ミキシングの時に各信号のゲイン調整および周波数特性の調整等を行なってもよい。
出力部27は、出力信号生成部26から出力される出力信号をアナログ信号に変換する。また、出力部27は、アナログ信号を増幅する。出力部27は、増幅したアナログ信号を対応するスピーカに出力する(S18)。
以上の構成により、音信号処理部10は、音信号を取得し、取得した音信号に、音源の位置に応じた初期反射音のインパルス応答を畳み込んで初期反射音制御信号を生成する。また、音信号処理部10は、取得した音信号に、音源の場所に応じた残響音のインパルス応答を畳み込んで残響音制御信号を生成する。
例えば、図7の例では、音源65は、ステージ60の領域110Cに存在する。この場合、初期反射音制御信号は、図8に示すFIRフィルタRA〜RJで初期反射音制御信号が生成される。仮に、音源65がステージ60の領域110Bに移動すると、初期反射音制御信号は、図8に示すFIRフィルタCA〜CJで生成される。また、仮に、音源65がステージ60の領域110Aに移動すると、初期反射音制御信号は、図8に示すFIRフィルタLA〜LJで生成される。この様に、音信号処理部10は、音源の位置に応じてFIRフィルタのフィルタ係数を変更することで、従来よりも、より自然な音像の定位感と空間の拡がりを実現することができる。
ただし、指向性マイク11A〜C、無指向性マイク12A〜Cから取得した音信号から初期反射音制御信号および残響音制御信号を生成してもよい。例えば、図7の例では、音源65は、ステージ60の右側に存在する。この場合、指向性マイク11Cで取得した音信号のレベルが高くなる。したがって、初期反射音制御信号は、図8に示すFIRフィルタRA〜RJで生成される初期反射音制御信号のレベルが優位になる。仮に、音源65がステージ60の中央に移動すると、指向性マイク11Bで取得した音信号のレベルが高くなる。したがって、初期反射音制御信号は、図8に示すFIRフィルタCA〜CJで生成される初期反射音制御信号のレベルが優位になる。また、仮に、音源65がステージ60の左側に移動すると、指向性マイク11Cで取得した音信号のレベルが高くなる。したがって、初期反射音制御信号は、図8に示すFIRフィルタLA〜LJで生成される初期反射音制御信号のレベルが優位になる。すなわち、音信号処理部10は、音源の位置を検出することなく、音源の位置に応じてFIRフィルタのフィルタ係数を変更することができる。この様に、音信号処理部10は、音源の位置に応じてFIRフィルタのフィルタ係数を変更することで、従来よりも、より自然な初期反射音の定位感と響きを再現することができる。
図9は、変形例1に係る音信号処理部10の構成を示すブロック図である。図9のインパルス応答取得部151は、位置情報取得部29から音源65の位置情報を取得する。 インパルス応答取得部151は、取得した位置情報に基づいて、FIRフィルタ24AおよびFIRフィルタ24Bに設定するフィルタ係数をインパルス応答のデータから取得する。図7に示した様に、インパルス応答のデータは、音源の位置に応じて複数取得する。図7の例では、インパルス応答のデータは、第1インパルス応答、第2インパルス応答、および第3インパルス応答を有する。それぞれのインパルス応答は、それぞれの音源の位置情報に対応付けられている。
インパルス応答取得部151は、取得した音源の位置情報に対応するインパルス応答のデータを取得する。例えば、インパルス応答取得部151は、音源65の位置がステージ60の左側である場合、第1インパルス応答のデータをメモリ31から読み出し、FIRフィルタ24Aに設定する。インパルス応答取得部151は、音源65の位置がステージ60の中央である場合、第2インパルス応答のデータをメモリ31から読み出し、FIRフィルタ24Aに設定する。インパルス応答取得部151は、音源65の位置がステージ60の右側である場合、第3インパルス応答のデータをメモリ31から読み出し、FIRフィルタ24Aに設定する。
この様に、図9の例では、音信号処理部10は、音源の位置情報に基づいて、FIRフィルタ24Aに設定するフィルタ係数を変更する。
なお、インパルス応答のデータは、図7の例の様に、3つに限らない。例えば、インパルス応答取得部151は、さらに多数の位置毎にインパルス応答のデータを取得することで、より自然な音像の定位感と空間の拡がりを実現することができる。
図10は、変形例2に係る音信号処理部10の構成を示すブロック図である。図10の音信号処理部10は、ゲイン調整部22およびミキサ23に変えて、マトリクスミキサ23Mを備えている。
マトリクスミキサ23Mは、指向性マイク11A、指向性マイク11B、指向性マイク11C、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cで取得した音信号をそれぞれ所定のレベルでミキシングしてFIRフィルタ24AおよびFIRフィルタ24Bに分配する。
マトリクスミキサ23Mは、位置情報取得部29で取得した音源の位置情報に基づいて、FIRフィルタ24AおよびFIRフィルタ24Bに分配する音信号のレベルを制御する。
例えば、音源65の位置がステージ60の領域110B内にある場合、マトリクスミキサ23Mは、FIRフィルタCA〜FIRフィルタCJに出力する音信号のレベルを高くする。仮に、音源65の位置がステージ60の領域110A内に移動した場合、マトリクスミキサ23Mは、FIRフィルタLA〜FIRフィルタLJに出力する音信号のレベルを高くする。この様にして、マトリクスミキサ23Mは、音源の位置に応じて、各マイクから各系統に出力する音信号のレベルを調整することで、FIRフィルタのフィルタ係数を変更することができる。
なお、音源65が、図7で示した領域110A、領域110B、および領域110Cをまたがって移動する場合、マトリクスミキサ23Mは、音信号をクロスフェードしてFIRフィルタを変更することが好ましい。例えば、音源65が、領域110Aから領域110Bに移動する場合、マトリクスミキサ23Mは、指向性マイク11AからFIRフィルタLA〜FIRフィルタLJに出力する音信号のレベルを徐々に低くして、指向性マイク11BからFIRフィルタCA〜FIRフィルタCJに出力する音信号のレベルを徐々に高くする。この場合、マトリクスミキサ23Mは、クロスフェード処理部に対応する。
すなわち、音信号処理部10は、第1インパルス応答から第2インパルス応答に切り替える際に、第1インパルス応答を畳み込む音信号と、第2インパルス応答を畳み込む音信号と、をクロスフェードする。
これにより、音信号処理部10は、さらに滑らかで自然な音源の移動感を演出することができる。
なお、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cは、音源65の直接音および室62内の反射音等を含む、室62内の全体の音を収音する。したがって、音信号処理部10が、無指向性マイク12A、無指向性マイク12B、および無指向性マイク12Cで取得した音信号を用いて残響音制御信号を生成すれば、ステージの音も観客席の音も同じ残響が再現される。よって、例えば演者の音でも観客の拍手の音でも同じ残響が再現され、演者と観客は一体感を得ることができる。
また、初期反射音は、空間内を多重反射した残響音に比べて、反射回数が少ない。このため、初期反射音のエネルギーは、残響音のエネルギーよりも高い。したがって、初期反射音制御信号を出力するスピーカは、1個あたりのレベルを高くすることで、初期反射音が持つ主観的な印象付けの効果を向上させることができ、初期反射音の制御性を高めることができる。
また、初期反射音制御信号を出力するスピーカは、個数を少なくすることで、過剰な拡散音エネルギーの上昇を抑えることができる。すなわち、初期反射音制御信号による室内の残響延長を抑制でき、初期反射音の制御性を高めることができる。
初期反射音制御信号を出力するスピーカは、観客に近い位置である室内の側方に設置することで、初期反射音を観客に届けるのに制御し易く、初期反射音の制御性を高めることができる。また、残響音制御信号を出力するスピーカは、室内の天井に設置することで、観客の位置による残響音の差を抑制できる。
本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1…音場支援システム
10…音信号処理部
11A,11B,11C…指向性マイク
12A,12B,12C…無指向性マイク
21…音信号取得部
22…ゲイン調整部
23…ミキサ
23M…マトリクスミキサ
24A,24B…FIRフィルタ
25A,25B…レベル設定部
26…出力信号生成部
27…出力部
28…遅延調整部
29…位置情報取得部
31…メモリ
51A〜51J…スピーカ
60…ステージ
61A〜61F…スピーカ
62…室
65…音源
151…インパルス応答取得部
152…レベルバランス調整部
510A〜510J…指向性マイク
620…空間

Claims (15)

  1. 音源の音信号を取得し、
    前記音信号に、前記音源の場所に応じた初期反射音のインパルス応答を畳み込んで初期反射音制御信号を生成し、
    前記音信号に、残響音のインパルス応答を畳み込んで残響音制御信号を生成する、
    音信号処理方法。
  2. 前記残響音制御信号は、前記音源の場所に応じた前記残響音のインパルス応答を畳み込んで生成する、
    請求項1に記載の音信号処理方法。
  3. 前記初期反射音および前記残響音のインパルス応答は、それぞれ予め所定の空間で、前記音源の場所毎に測定したインパルス応答である、
    請求項1または請求項2に記載の音信号処理方法。
  4. 前記初期反射音および前記残響音のインパルス応答は、それぞれ予め所定の空間で、前記初期反射音制御信号および前記残響音制御信号を出力するスピーカ毎および前記音源の場所毎に、それぞれ測定する、
    請求項3に記載の音信号処理方法。
  5. 前記初期反射音および前記残響音のインパルス応答は、それぞれ第1インパルス応答および第2インパルス応答を含み、
    前記第1インパルス応答から前記第2インパルス応答に切り替える際に、前記第1インパルス応答を畳み込む音信号と、前記第2インパルス応答を畳み込む音信号と、をクロスフェードする、
    請求項1乃至請求項4のいずれか1項に記載の音信号処理方法。
  6. 前記音源の位置情報を取得し、
    取得した音源の位置情報に基づいて前記初期反射音制御信号および前記残響音制御信号を生成する、
    請求項1乃至請求項5のいずれか1項に記載の音信号処理方法。
  7. 前記残響音のインパルス応答を畳み込む音信号は、無指向性マイクから取得する、
    請求項1乃至請求項6のいずれか1項に記載の音信号処理方法。
  8. 音源の音信号を取得する音信号取得部と、
    前記音信号に、前記音源の場所に応じた初期反射音のインパルス応答を畳み込んで初期反射音制御信号を生成する初期反射音制御信号生成部と、
    前記音信号に、残響音のインパルス応答を畳み込んで残響音制御信号を生成する残響音制御信号生成部と、
    を備えた音信号処理装置。
  9. 前記残響音制御信号生成部は、前記音源の場所に応じた前記残響音のインパルス応答を畳み込んで前記残響音制御信号を生成する、
    請求項8に記載の音信号処理装置。
  10. 前記初期反射音および前記残響音のインパルス応答は、それぞれ予め所定の空間で、前記音源の場所毎に測定したインパルス応答である、
    請求項8または請求項9に記載の音信号処理装置。
  11. 前記インパルス応答は、前記初期反射音制御信号および前記残響音制御信号を出力するスピーカ毎および前記音源の場所毎に、それぞれ測定する、
    請求項10に記載の音信号処理装置。
  12. 前記初期反射音および前記残響音のインパルス応答は、それぞれ第1インパルス応答および第2インパルス応答を含み、
    前記第1インパルス応答から前記第2インパルス応答に切り替える際に、前記第1インパルス応答を畳み込む音信号と、前記第2インパルス応答を畳み込む音信号と、をクロスフェードするクロスフェード処理部を備えた
    請求項8乃至請求項11のいずれか1項に記載の音信号処理装置。
  13. 前記音源の位置情報を取得する位置情報取得部を備え、
    前記初期反射音制御信号生成部および前記残響音制御信号生成部は、取得した音源の位置情報に基づいて前記初期反射音制御信号および前記残響音制御信号を生成する、
    請求項8乃至請求項12のいずれか1項に記載の音信号処理装置。
  14. 前記音信号取得部は、前記残響音のインパルス応答を畳み込む音信号を、無指向性マイクから入力する、
    請求項8乃至請求項13のいずれか1項に記載の音信号処理装置。
  15. 音源の音信号を取得し、
    前記音信号に、前記音源の場所に応じた初期反射音のインパルス応答を畳み込んで初期反射音制御信号を生成し、
    前記音信号に、残響音のインパルス応答を畳み込んで残響音制御信号を生成する、
    処理を音信号処理装置に実行させる音信号処理プログラム。
JP2020096757A 2020-06-03 2020-06-03 音信号処理方法、音信号処理装置および音信号処理プログラム Active JP7524614B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020096757A JP7524614B2 (ja) 2020-06-03 2020-06-03 音信号処理方法、音信号処理装置および音信号処理プログラム
CN202110550548.3A CN113766395A (zh) 2020-06-03 2021-05-20 音信号处理方法、音信号处理装置及音信号处理程序
US17/329,291 US11749254B2 (en) 2020-06-03 2021-05-25 Sound signal processing method, sound signal processing device, and storage medium that stores sound signal processing program
EP21177095.3A EP3920176A3 (en) 2020-06-03 2021-06-01 Sound signal processing method, sound signal processing device, and sound signal processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020096757A JP7524614B2 (ja) 2020-06-03 2020-06-03 音信号処理方法、音信号処理装置および音信号処理プログラム

Publications (2)

Publication Number Publication Date
JP2021189364A true JP2021189364A (ja) 2021-12-13
JP7524614B2 JP7524614B2 (ja) 2024-07-30

Family

ID=76217763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020096757A Active JP7524614B2 (ja) 2020-06-03 2020-06-03 音信号処理方法、音信号処理装置および音信号処理プログラム

Country Status (4)

Country Link
US (1) US11749254B2 (ja)
EP (1) EP3920176A3 (ja)
JP (1) JP7524614B2 (ja)
CN (1) CN113766395A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7179079B2 (ja) * 2018-10-09 2022-11-28 ローランド株式会社 効果音発生方法、及び情報処理装置
US11924623B2 (en) * 2021-10-28 2024-03-05 Nintendo Co., Ltd. Object-based audio spatializer

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2737595B2 (ja) 1993-03-26 1998-04-08 ヤマハ株式会社 音場制御装置
WO1995034883A1 (fr) * 1994-06-15 1995-12-21 Sony Corporation Processeur de signaux et dispositif de reproduction sonore
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
JP6088747B2 (ja) 2012-05-11 2017-03-01 日本放送協会 インパルス応答生成装置、インパルス応答生成システム及びインパルス応答生成プログラム
JP6227295B2 (ja) 2013-06-25 2017-11-08 日本放送協会 空間音響生成装置およびそのプログラム
CN104407328B (zh) * 2014-11-20 2017-03-01 西北工业大学 基于空间脉冲响应匹配的封闭空间声源定位方法及系统
CN106772245A (zh) * 2015-11-19 2017-05-31 华为技术有限公司 声源定位方法和装置
CN108605193B (zh) * 2016-02-01 2021-03-16 索尼公司 声音输出设备、声音输出方法、计算机可读存储介质和声音系统
US10388268B2 (en) * 2017-12-08 2019-08-20 Nokia Technologies Oy Apparatus and method for processing volumetric audio
US20200402496A1 (en) * 2018-03-15 2020-12-24 Sony Corporation Reverberation adding apparatus, reverberation adding method, and reverberation adding program
US10764703B2 (en) * 2018-03-28 2020-09-01 Sony Corporation Acoustic metamaterial device, method and computer program
US10777214B1 (en) * 2019-06-28 2020-09-15 Amazon Technologies, Inc. Method for efficient autonomous loudspeaker room adaptation
US10757528B1 (en) * 2019-10-11 2020-08-25 Verizon Patent And Licensing Inc. Methods and systems for simulating spatially-varying acoustics of an extended reality world

Also Published As

Publication number Publication date
CN113766395A (zh) 2021-12-07
EP3920176A2 (en) 2021-12-08
EP3920176A3 (en) 2022-02-23
US20210383788A1 (en) 2021-12-09
US11749254B2 (en) 2023-09-05
JP7524614B2 (ja) 2024-07-30

Similar Documents

Publication Publication Date Title
JP4819823B2 (ja) 音響システム駆動装置、駆動方法および音響システム
JP2569872B2 (ja) 音場制御装置
EP3920176A2 (en) Sound signal processing method, sound signal processing device, and sound signal processing program
US11895485B2 (en) Sound signal processing method and sound signal processing device
JP7524613B2 (ja) 音信号処理方法、音信号処理装置および音信号処理プログラム
US11900913B2 (en) Sound signal processing method and sound signal processing device
US11615776B2 (en) Sound signal processing method and sound signal processing device
JP3369200B2 (ja) 多チャンネルステレオ再生方式
Ellison et al. Optimizing acoustics for spoken word using active acoustics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240701

R150 Certificate of patent or registration of utility model

Ref document number: 7524614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150