JP7388061B2 - 音信号処理方法、音信号処理システム、およびプログラム - Google Patents

音信号処理方法、音信号処理システム、およびプログラム Download PDF

Info

Publication number
JP7388061B2
JP7388061B2 JP2019160056A JP2019160056A JP7388061B2 JP 7388061 B2 JP7388061 B2 JP 7388061B2 JP 2019160056 A JP2019160056 A JP 2019160056A JP 2019160056 A JP2019160056 A JP 2019160056A JP 7388061 B2 JP7388061 B2 JP 7388061B2
Authority
JP
Japan
Prior art keywords
backtalk
signal processing
terminal
sound signal
performer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019160056A
Other languages
English (en)
Other versions
JP2021040227A (ja
Inventor
優 相曾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2019160056A priority Critical patent/JP7388061B2/ja
Priority to CN202010636165.3A priority patent/CN112449279A/zh
Priority to US17/007,440 priority patent/US11756542B2/en
Priority to EP20193833.9A priority patent/EP3790205B1/en
Publication of JP2021040227A publication Critical patent/JP2021040227A/ja
Application granted granted Critical
Publication of JP7388061B2 publication Critical patent/JP7388061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Function (AREA)

Description

この発明の一実施形態は、音信号処理方法、音信号処理システム、およびプログラムに関する。
特許文献1には、ミキサの操作者から演者に話すためのトークバック機能と、演者からミキサの操作者(以下、エンジニアと称する。)に話すためのバックトーク機能と、を備えたトークバック装置が開示されている。
特許文献1のトークバック装置は、トークバックスイッチがONの間、演者のマイクからエンジニアのスピーカへの音声をカットする。また、特許文献1のトークバック装置は、トークバックスイッチのONが解除された時点から予め設定された所定のタイマー時間の間、演者のマイクからエンジニアのスピーカへバックトーク音声を伝達する。
特開2008-193619号公報
特許文献1のバックトーク機能は、トークバックスイッチの解除後に利用可能になる。したがって、演者は、バックトーク機能を自由に利用できない。
そこで、この発明の一実施形態は、演者の好きなタイミングでバックトーク機能を利用することができる音信号処理方法、音信号処理システム、およびプログラムを提供することを目的とする。
音信号処理方法は、演者からバックトークの入力指示を端末で受け付け、演者の音声を前記端末のマイクで取得し、前記端末で前記バックトークの入力指示を受け付けた場合に、前記端末のマイクで取得した音声に係るバックトーク信号をミキサのモニタ用バスに出力する。
本発明の一実施形態によれば、演者の好きなタイミングでバックトーク機能を利用することができる。
音信号処理システムの構成を示すブロック図である。 オーディオミキサの構成を示すブロック図である。 信号処理部14、オーディオI/O13、およびCPU19で行われる信号処理の等価ブロック図である。 入力チャンネル302およびバス303の機能的構成を示す図である。 ミキサ10の操作パネルの構成を示す図である。 端末30の構成を示すブロック図である。 表示器31に表示する画面の一例である。 音信号処理システムの動作を示すフローチャートである。 入力チャンネル302およびバス303の機能的構成を示す図である。 音信号処理システムの動作を示すフローチャートである。
上述の様に、従来のバックトーク機能は、トークバックスイッチの解除後に利用可能になる。したがって、演者は、バックトーク機能を自由に利用できない。また、従来のバックトーク機能は、演者のマイク(演奏音または歌唱音等を取得するための通常のマイク)を用いる。演者のマイクの信号は、メインの出力チャンネル、および演者の利用する演者用モニタスピーカ用の出力チャンネルに出力する。しかし、バックトーク機能を利用する場合、演者のマイクの信号は、エンジニアの利用するエンジニア用モニタスピーカに出力する必要がある。したがって、エンジニアは、通常のマイクを用いてバックトーク機能を実現するために、煩雑な設定を行なう必要がある。
本実施形態の音信号処理システムは、演者の好きなタイミングでバックトーク機能を利用することができる。また、本実施形態の音信号処理システムは、煩雑な設定を行なう必要なくバックトーク機能を利用することができる。
図1は、本実施形態の音信号処理システム1の構成を示すブロック図である。音信号処理システム1は、ミキサ10、スピーカ20、端末30、マイク40、およびスピーカ50を備えている。スピーカ20は、演者用モニタスピーカの一例である。スピーカ50は、エンジニア用モニタスピーカの一例である。端末30は、演者が利用する情報処理装置(例えばパーソナルコンピュータ、スマートフォン、またはタブレット型PC等)である。
図2、ミキサ10の構成を示すブロック図である。ミキサ10は、表示器11、操作部12、オーディオI/O(Input/Output)13、信号処理部14、PC_I/O15、MIDI_I/O16、その他(Other)_I/O17、ネットワークI/F18、CPU19、フラッシュメモリ21、およびRAM22を備えている。
表示器11、操作部12、オーディオI/O13、信号処理部14、PC_I/O15、MIDI_I/O16、その他_I/O17、CPU19、フラッシュメモリ21、およびRAM22は、互いにバス25を介して接続されている。また、オーディオI/O13および信号処理部14は、音信号を伝送するための波形バス27にも接続されている。なお、後述のように、音信号は、ネットワークI/F18を介して送受信する場合がある。この場合、DSP14とネットワークI/F18は、不図示の専用バスを介して接続される。
オーディオI/O13は、信号処理部14で処理すべき音信号の入力を受け付けるためのインタフェースである。オーディオI/O13には、音信号の入力を受け付けるアナログ入力ポートまたはデジタル入力ポート等が設けられている。また、オーディオI/O13は、信号処理部14で処理された後の音信号を出力するためのインタフェースである。オーディオI/O13には、音信号を出力するアナログ出力ポートまたはデジタル出力ポート等が設けられている。
PC_I/O15、MIDI_I/O16、およびその他_I/O17は、それぞれ、種々の外部機器を接続し、入出力を行うためのインタフェースである。PC_I/O15には、例えばパーソナルコンピュータ等の情報処理装置が接続される。MIDI_I/O16には、例えばフィジカルコントローラまたは電子楽器のようなMIDI対応機器が接続される。その他_I/O17には、例えばディスプレイが接続される。あるいは、その他_I/O17には、マウスまたはキーボード等のUI(User Interface)デバイスが接続される。外部機器との通信に用いる規格は、イーサネット(登録商標)、またはUSB(Universal Serial Bus)等、任意のものを採用することができる。接続態様は、有線でも無線でも構わない。
ネットワークI/F18は、ネットワークを介して端末30等の他装置と通信する。また、ネットワークI/F18は、ネットワークを介して他装置から音信号を受信し、受信した音信号を信号処理部14に入力する。また、ネットワークI/F18は、信号処理部14で信号処理された後の音信号を受信し、ネットワークを介して他装置に送信する。
CPU19は、ミキサ10の動作を制御する制御部である。CPU19は、記憶部であるフラッシュメモリ21に記憶された所定のプログラムをRAM22に読み出すことにより各種の動作を行なう。なお、プログラムは、自装置のフラッシュメモリ21に記憶している必要はない。例えば、サーバ等の他装置から都度ダウンロードして、RAM22に読み出してもよい。
表示器11は、CPU19の制御に従って種々の情報を表示する。表示器11は、例えばLCDまたは発光ダイオード(LED)等によって構成される。
操作部12は、エンジニアからミキサ10に対する操作を受け付ける。操作部12は、種々のキー、ボタン、ロータリーエンコーダ、またはスライダ等によって構成される。また、操作部12は、表示器11であるLCDに積層したタッチパネルによって構成される場合もある。
信号処理部14は、ミキシングまたはエフェクト等の各種信号処理を行なうための複数のDSP(Digital Signal Processor)から構成される。信号処理部14は、オーディオI/O13から波形バス27を介して供給される音信号に、ミキシングまたはエフェクト等の信号処理を施す。信号処理部14は、信号処理後のデジタル音信号を、波形バス27を介して再びオーディオI/O13に出力する。
図3は、信号処理部14、オーディオI/O13、およびCPU19で行われる信号処理の機能を示すブロック図である。図3に示すように、信号処理は、機能的に、入力パッチ301、入力チャンネル302、バス303、出力チャンネル304、および出力パッチ305によって行なわれる。
入力パッチ301は、オーディオI/O13における複数の入力ポート(例えばアナログ入力ポートまたはデジタル入力ポート)から音信号を入力して、複数のポートのうちいずれか1つのポートを、複数チャンネル(例えば32ch)の少なくとも1つのチャンネルに割り当てる。これにより、音信号が入力チャンネル302の各チャンネルに供給される。
図4は、入力チャンネル302およびバス303の機能的構成を示す図である。入力チャンネル302は、例えば第1入力チャンネルの信号処理ブロック3001から第32入力チャンネルの信号処理ブロック3032まで、複数の信号処理ブロックを有する。各信号処理ブロックは、入力パッチ301から供給した音信号に対して、イコライザまたはコンプレッサ等の各種の信号処理を施す。
バス303は、ステレオバス313、MIXバス315、およびモニタ用バス316を有する。各入力チャンネルの信号処理ブロックは、信号処理後の音信号をステレオバス313、MIXバス315、およびモニタ用バス316に入力する。各入力チャンネルの信号処理ブロックは、それぞれのバスに対する送出レベルを設定する。
ステレオバス313は、出力チャンネル304におけるメイン出力となるステレオチャンネルに対応する。MIXバス315は、例えば演者のモニタ用スピーカ(例えばスピーカ20)に対応する。すなわち、MIXバス315は、演者用モニタバスの一例である。モニタ用バス316は、エンジニア用モニタスピーカ(例えばスピーカ50)に対応する。ステレオバス313、MIXバス315、およびモニタ用バス316は、それぞれ入力した音信号をミキシングする。ステレオバス313、MIXバス315、およびモニタ用バス316は、それぞれミキシングした音信号を、出力チャンネル304に出力する。
出力チャンネル304は、入力チャンネル302と同様に、バス303から入力した音信号に対して、各種の信号処理を施す。出力チャンネル304は、信号処理後の音信号を出力パッチ305へ出力する。出力パッチ305は、各出力チャンネルを、アナログ出力ポートまたはデジタル出力ポートにおける複数のポートのうち少なくともいずれか1つのポートに割り当てる。これにより、出力パッチ305は、信号処理を施した後の音信号を、オーディオI/O13に供給する。
エンジニアは、操作部12を介して、上述の各種の信号処理のパラメータを設定する。図5は、ミキサ10の操作パネルの構成を示す図である。図5に示すように、ミキサ10は、操作パネル上に、タッチスクリーン51およびチャンネルストリップ61等を設けている。これら構成は、図1に示した表示器11および操作部12に相当する。なお、図5では、タッチスクリーン51およびチャンネルストリップ61だけを示しているが、実際には多数のノブまたはスイッチ等がある。
タッチスクリーン51は、操作部12の一態様であるタッチパネルを積層した表示器11であり、ユーザの操作を受け付けるためのGUI(グラフィカルユーザインタフェース)を構成する。
チャンネルストリップ61は、1つのチャンネルに対する操作を受け付ける複数の操作子を縦に並べて配置した領域である。この図では、操作子として、チャンネル毎に1つフェーダと1つのノブだけを表示しているが、実際には多数のノブまたはスイッチ等がある。チャンネルストリップ61のうち、左側に配置された複数のフェーダおよびノブは、入力チャンネルに相当する。右側に配置された2つのフェーダおよびノブは、メイン出力に対応する操作子である。エンジニアは、フェーダおよびノブを操作して、各入力チャンネルのゲインを設定したり、バス303に対する送出レベルを設定したりする。
図6は、端末30の構成を示すブロック図である。端末30は、表示器31、マイク32、フラッシュメモリ33、RAM34、ネットワークI/F35、CPU36、およびタッチパネル37を備えている。表示器31、マイク32、フラッシュメモリ33、RAM34、ネットワークI/F35、CPU36、およびタッチパネル37は、バス39を介して接続されている。
ネットワークI/F35は、ネットワークを介してミキサ10等の他装置と通信する。ネットワークI/F35は、ネットワークを介してミキサ10に対し、各種の情報を送信する。
CPU36は、記憶媒体であるフラッシュメモリ33に記憶されているプログラムをRAM34に読み出して、各種の機能を実現する。なお、CPU36が読み出すプログラムも、自装置内のフラッシュメモリ33に記憶されている必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU36は、該サーバから都度プログラムをRAM34に読み出して実行すればよい。
図7は、表示器31に表示する画面の一例である。なお、表示器31は、タッチパネル37を積層していて、タッチパネル37とともにGUIを構成する。タッチパネルは、受付部の一例である。表示器31は、図7に示すような音量設定を行なうための設定画面を表示する。演者は、設定画面で、演者用モニタスピーカであるスピーカ20に送出する音信号の音量を設定する。
設定画面では、入力チャンネルに対応する各演奏音または歌唱音の名称が並んでいる。縦方向は、音量(ゲイン)に対応する。この例では、ドラム(DRUMS)、ベース(BASS)、ヴォーカル(VOLAL)、およびギター(GUITER)が横方向に並んで表示されている。各演奏音または歌唱音の表示された位置には、縦方向に移動するバーが表示されている。
演者は、タッチパネル37が積層された表示器31をタッチして、当該バーを上下に移動させるスワイプ操作を行なうことで、各名称に対応する入力チャンネルの送出レベルを変更できる。例えば、DRUMSのバーを上方向に移動させると、DRUMSに対応する入力チャンネルから、演者自身のモニタスピーカに対応するMIXバス315に対する送出レベルを高くすることができる。
端末30のCPU36は、タッチパネル37で受け付けた音量設定に係る情報を、ミキサ10に送信する。音量設定に係る情報は、MIXバス315を指定するための情報と、送出レベルの情報とが含まれる。ミキサ10は、端末30から音量設定に係る情報を受信して、対応するMIXバス315に対する送出レベルを設定する。
ここで、演者が設定画面内のバックトークボタン375をタッチすると、バックトーク機能が有効になる。バックトーク機能が有効になると、演者は、端末30のマイク32を用いて、エンジニアと会話することができる。
図8は、音信号処理システムの動作を示すフローチャートである。まず、端末30のCPU36は、バックトークの入力指示を受け付けたか否かを判断する(S11)。例えば、演者が設定画面内のバックトークボタン375をタッチすると、CPU36は、バックトークの入力指示を受け付ける。CPU36は、バックトークの入力指示を受け付けるまで、S11の判断を繰り返す。
CPU36は、バックトークの入力指示を受け付けると、マイク32で取得した音信号を、バックトーク信号として取得する(S12)。そして、CPU36は、ネットワークI/F35を介して、バックトークの入力指示、およびバックトーク信号を送信する(S13)。
ミキサ10のCPU19は、ネットワークI/F18を介して、バックトークの入力指示、およびバックトーク信号を受信する(S21)。CPU19は、信号処理部14に対して、バックトーク信号をモニタ用バス316に送出するよう設定する(S22)。例えば、信号処理部14は、図4に示す入力チャンネル302において、バックトークスイッチ352をオン状態に設定する。信号処理部14は、バックトークスイッチ352をオン状態にすると、端末30から受信したバックトーク信号を、モニタ用バス316に送出する状態になる。これにより、信号処理部14は、マイク32で取得したバックトーク信号を、エンジニア用モニタスピーカであるスピーカ50に出力する。したがって、エンジニアは、演者の音声を聞くことができる。
この様にして、本実施形態の音信号処理システムは、演者の好きなタイミングでバックトーク機能を利用することができる。また、本実施形態の音信号処理システムは、煩雑な設定を行なう必要なくバックトーク機能を利用することができる。
また、バックトーク機能を有効にした時、信号処理部14は、バックトーク信号以外の音信号のレベルを低減する(S23)。図4に示したように、モニタ用バス316には、信号処理ブロック3001から信号処理ブロック3032の信号も入力する。したがって、バックトーク機能を有効にしていない状態で、エンジニアは、任意の入力チャンネルの音を聞く状態になっている。この状態において、バックトーク信号をモニタ用バス316に送出しても、エンジニアは、演者の音声を聞くことができる。ただし、信号処理部14がバックトーク信号以外の音信号のレベルを低減すると、エンジニアは、演者の音声を明瞭に聞くことができる。ただし、S23の処理は、本発明において必須ではない。
なお、ミキサ10は、マイク40を接続している。マイク40は、エンジニアから演者に対して会話するためのトークバック用のマイクである。エンジニアは、ミキサ10の操作部12を操作して、トークバック機能をオンにする。ミキサ10は、例えば、操作パネル上に設けたトークバックボタンを介して、トークバックの入力指示を受け付ける。この場合、信号処理部14は、マイク40で取得した音声に係るトークバック信号をモニタ用バス以外の演者用モニタバスに出力する。図4の例では、信号処理部14は、入力チャンネル302におけるトークバックスイッチ351をオンにする。信号処理部14は、トークバックスイッチ351をオンすると、マイク40から受信したトークバック信号を、モニタ用バス316以外のバスに送出する。これにより、信号処理部14は、マイク40で取得したトークバック信号を演者用のモニタスピーカであるスピーカ20に出力する。したがって、演者は、エンジニアの音声を聞くことができる。
また、トークバック機能を有効にした時も、信号処理部14は、トークバック信号以外の音信号のレベルを低減してもよい。信号処理部14がトークバック信号以外の音信号のレベルを低減すると、演者は、エンジニアの音声を明瞭に聞くことができる。
なお、バックトークの音声は、スピーカ50から出力する例に限らない。例えば、ミキサ10は、エンジニアの利用する端末(第2端末)に接続して、エンジニアの利用する端末のスピーカからバックトークの音声を出力してもよい。
次に、図9は、変形例に係る入力チャンネル302およびバス303の機能的構成を示す図である。変形例の信号処理部14は、バックトークスイッチ352をオンすると、端末30から受信したバックトーク信号を、モニタ用バス316だけでなく、指定されたバスに接続する。したがって、バックトーク機能をオンにした演者の音声は、エンジニアのモニタスピーカだけでなく、指定された任意の演者のモニタスピーカからも出力される。
図10は、変形例に係る音信号処理システムの動作を示すフローチャートである。図8と共通する処理については同一の符号を付し、説明を省略する。端末30のCPU36は、S11でバックトークの入力指示を受け付けたと判断した場合に、さらに、バックトーク信号の送出先の指定を受け付ける(S102)。演者は、例えば図7に示した設定画面上の各演奏音または歌唱音の名称を選択することで、バックトーク信号の送出先を指定できる。
端末30のCPU36は、ネットワークI/F35を介して、バックトークの入力指示、バックトーク信号、および送出先の情報を送信する(S103)。
ミキサ10のCPU19は、ネットワークI/F18を介して、バックトークの入力指示、バックトーク信号、および送出先の情報を受信する(S201)。CPU19は、送出先の情報に基づいて、信号処理部14に対して、バックトーク信号を指定された送出先のバスに送出するよう設定する(S202)。例えば、信号処理部14は、図9に示す入力チャンネル302において、バックトークスイッチ352をオン状態に設定する。信号処理部14は、バックトークスイッチ352をオンすると、端末30から受信したバックトーク信号を、ステレオバス313、MIXバス315、およびモニタ用バス316に送出する状態になる。さらに、信号処理部14は、送出先の情報に基づいて、指定された送出先のバスに対する送出レベルを高く設定し、他のバスに対する送出レベルを低く設定する(S23)。これにより、信号処理部14は、マイク32で取得したバックトーク信号を指定された任意のスピーカに出力する。したがって、演者は、指定した任意の演者またはエンジニアと会話することができる。
なお、変形例においても、バックトークの音声は、スピーカ20から出力する例に限らない。例えば、ミキサ10は、各演者の利用する端末に接続して、演者の利用する端末のスピーカからバックトークの音声を出力してもよい。
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
例えば、本実施形態では、端末30は、音量の設定画面において、バックトークの入力指示を受け付けるためのアイコン画像(バックトークボタン375)を表示した。しかし、バックトークの入力指示を受け付ける手法は、この例に限らない。例えば、端末30は、設定画面上で特定の操作として、2本の指を用いるスワイプ操作を受け付けた場合に、バックトークの入力指示を受け付けてもよい。この場合、端末30は、音量の設定画面からバックトーク機能の専用画面に表示を変更する。また、端末30は、タッチパネル37を介してバックトークの入力指示を受け付ける必要はない。他追えば、端末30は、物理的なスイッチに対する操作により、バックトークの入力指示を受け付けてもよい。
1…音信号処理システム
10…ミキサ
11…表示器
12…操作部
13…オーディオI/O
14…信号処理部
15…PC_I/O
16…MIDI_I/O
17…Other_I/O
18…ネットワークI/F
19…CPU
20…スピーカ
21…フラッシュメモリ
22…RAM
25…バス
27…波形バス
30…端末
31…表示器
32…マイク
33…フラッシュメモリ
34…RAM
36…CPU
37…タッチパネル
39…バス
40…マイク
50…スピーカ
51…タッチスクリーン
61…チャンネルストリップ
301…入力パッチ
302…入力チャンネル
303…バス
304…出力チャンネル
305…出力パッチ
313…ステレオバス
315…MIXバス
316…モニタ用バス
351…トークバックスイッチ
352…バックトークスイッチ
375…バックトークボタン
3001…信号処理ブロック
3032…信号処理ブロック

Claims (15)

  1. 演者からバックトークの入力指示を端末で受け付け、
    演者の音声を前記端末のマイクで取得し、
    前記端末で前記バックトークの入力指示を受け付けた場合に、前記端末のマイクで取得した音声に係るバックトーク信号をミキサのモニタ用バスに出力し、
    前記端末において前記バックトーク信号の送出先の指定をさらに受け付けて、
    前記ミキサにおいて、指定された送出先に前記バックトーク信号を出力する、
    音信号処理方法。
  2. 前記ミキサから出力される音信号の音量設定を行なうための設定画面を前記端末で表示し、
    前記端末は、前記設定画面において、前記バックトークの入力指示を受け付けるための画面をさらに表示する、
    請求項1に記載の音信号処理方法。
  3. 前記端末は、タッチパネルを備え、
    前記バックトークの入力指示は、前記タッチパネルに対する特定の操作により受け付ける、
    請求項2に記載の音信号処理方法。
  4. トークバック用マイクで取得した音声に係るトークバック信号を前記モニタ用バス以外の演者用モニタバスに出力する、
    請求項1乃至請求項3のいずれかに記載の音信号処理方法。
  5. 前記バックトーク信号を前記モニタ用バスに出力する時に、前記バックトーク信号以外の音信号のレベルを低減する、
    請求項4に記載の音信号処理方法。
  6. 前記モニタ用バスは、前記ミキサに接続される第2端末に前記バックトーク信号を出力する、
    請求項1乃至請求項5のいずれかに記載の音信号処理方法。
  7. 前記端末において、前記バックトーク信号の送出先を示す情報を前記演者に示す、
    請求項1乃至請求項6のいずれかに記載の音信号処理方法。
  8. 演者からバックトークの入力指示を受け付ける受付部と、
    演者の音声を取得する端末用マイクと、
    を備えた端末と、
    モニタ用の音信号を送出するモニタ用バスと、
    前記端末で前記バックトークの入力指示を受け付けた場合に、前記端末用マイクで取得した音声に係るバックトーク信号を前記モニタ用バスに出力する信号処理部と、
    を備えたミキサと、
    を備え
    前記受付部は、前記バックトーク信号の送出先の指定をさらに受け付けて、
    前記信号処理部は、前記受付部で指定された送出先に前記バックトーク信号を出力する、
    音信号処理システム。
  9. 前記端末は、
    表示器と、
    前記ミキサから出力される音信号の音量設定を行なうための設定画面を前記表示器に表示する制御部と、
    を備え、
    前記制御部は、前記設定画面において、前記バックトークの入力指示を受け付けるための画面をさらに表示する、
    請求項に記載の音信号処理システム。
  10. 前記端末は、タッチパネルを備え、
    前記受付部は、前記タッチパネルに対する特定の操作により前記バックトークの入力指示を受け付ける、
    請求項に記載の音信号処理システム。
  11. 前記音信号処理システムは、トークバック用マイクをさらに備え、
    前記ミキサは、前記モニタ用バス以外の演者用モニタバスをさらに備え、
    前記信号処理部は、前記トークバック用マイクで取得した音声に係るトークバック信号を前記演者用モニタバスに出力する、
    請求項乃至請求項10のいずれかに記載の音信号処理システム
  12. 前記信号処理部は、前記バックトーク信号を前記モニタ用バスに出力する時に、前記バックトーク信号以外の音信号のレベルを低減する、
    請求項11に記載の音信号処理システム。
  13. 前記モニタ用バスは、前記ミキサに接続される第2端末に前記バックトーク信号を出力する、
    請求項乃至請求項12のいずれかに記載の音信号処理システム。
  14. 前記端末は、前記バックトーク信号の送出先を示す情報を前記演者に示す、
    請求項8乃至請求項13のいずれかに記載の音信号処理システム。
  15. 端末に、演者からバックトークの入力指示を受け付けさせ、
    前記端末に、演者の音声を前記端末のマイクで取得させ、
    ミキサに、前記端末で前記バックトークの入力指示を受け付けた場合に、前記端末のマイクで取得した音声に係るバックトーク信号をミキサのモニタ用バスに出力させ、
    前記端末に、前記バックトーク信号の送出先の指定をさらに受け付けさせて、
    前記ミキサに、指定された送出先に前記バックトーク信号を出力させる、
    プログラム。
JP2019160056A 2019-09-03 2019-09-03 音信号処理方法、音信号処理システム、およびプログラム Active JP7388061B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019160056A JP7388061B2 (ja) 2019-09-03 2019-09-03 音信号処理方法、音信号処理システム、およびプログラム
CN202010636165.3A CN112449279A (zh) 2019-09-03 2020-07-03 声音信号处理方法、声音信号处理系统以及程序
US17/007,440 US11756542B2 (en) 2019-09-03 2020-08-31 Audio signal processing method, audio signal processing system, and storage medium storing program
EP20193833.9A EP3790205B1 (en) 2019-09-03 2020-09-01 Audio signal processing method, audio signal processing system, and storage medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019160056A JP7388061B2 (ja) 2019-09-03 2019-09-03 音信号処理方法、音信号処理システム、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021040227A JP2021040227A (ja) 2021-03-11
JP7388061B2 true JP7388061B2 (ja) 2023-11-29

Family

ID=72322350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160056A Active JP7388061B2 (ja) 2019-09-03 2019-09-03 音信号処理方法、音信号処理システム、およびプログラム

Country Status (4)

Country Link
US (1) US11756542B2 (ja)
EP (1) EP3790205B1 (ja)
JP (1) JP7388061B2 (ja)
CN (1) CN112449279A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388061B2 (ja) * 2019-09-03 2023-11-29 ヤマハ株式会社 音信号処理方法、音信号処理システム、およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002320299A (ja) 2000-12-26 2002-10-31 Yamaha Corp ディジタル・ミキシングシステム
JP2004064485A (ja) 2002-07-30 2004-02-26 Yamaha Corp ミキシングシステムの制御方法、ミキシングシステム、ミキシングシステムの制御装置およびプログラム
JP2005094112A (ja) 2003-09-12 2005-04-07 Fujitsu Ten Ltd 演奏モニタ−装置、調整室通話ユニット、信号分配装置、及びスタジオ通話システム
JP2005159972A (ja) 2003-11-28 2005-06-16 Tamura Seisakusho Co Ltd 音声調整システム、音声調整装置、操作装置、音声調整用プログラム及び操作用プログラム
JP2007020028A (ja) 2005-07-11 2007-01-25 Nippon Hoso Kyokai <Nhk> グループ形成装置、端末機、連絡システムおよびグループ形成プログラム
JP2007074672A (ja) 2005-09-09 2007-03-22 Yamaha Corp デジタルミキサ
JP2010098562A (ja) 2008-10-17 2010-04-30 Tamura Seisakusho Co Ltd 音声調整システム、調整方法およびリモートコントローラ
US20140064519A1 (en) 2012-09-04 2014-03-06 Robert D. Silfvast Distributed, self-scaling, network-based architecture for sound reinforcement, mixing, and monitoring

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3907744B2 (ja) * 1996-04-30 2007-04-18 ティーオーエー株式会社 信号処理装置
US6928329B1 (en) * 2000-02-29 2005-08-09 Microsoft Corporation Enabling separate chat and selective enablement of microphone
JP4062905B2 (ja) * 2001-10-24 2008-03-19 ヤマハ株式会社 ディジタル・ミキサ
EP1387513A3 (en) * 2002-07-30 2005-01-26 Yamaha Corporation Digital mixing system with dual consoles and cascade engines
JP4539570B2 (ja) 2006-01-19 2010-09-08 沖電気工業株式会社 音声応答システム
JP2008193619A (ja) 2007-02-08 2008-08-21 Tamura Seisakusho Co Ltd トークバック装置、その制御方法及び制御プログラム
JP4893385B2 (ja) * 2007-03-12 2012-03-07 ヤマハ株式会社 ミキシングシステム
US8098851B2 (en) * 2009-05-29 2012-01-17 Mathias Stieler Von Heydekampf User interface for network audio mixers
JP5246085B2 (ja) * 2009-07-21 2013-07-24 ヤマハ株式会社 ミキシングコンソール
JP5664413B2 (ja) * 2011-03-31 2015-02-04 ヤマハ株式会社 音響信号処理装置
US9094742B2 (en) * 2012-07-24 2015-07-28 Fox Filmed Entertainment Event drivable N X M programmably interconnecting sound mixing device and method for use thereof
US8948575B2 (en) * 2012-12-13 2015-02-03 Reginald Webb System and method for providing device with integrated time code generator, transmitter, and reader with interruptible feedback monitoring and talkback
EP2997681A1 (en) 2013-05-17 2016-03-23 Harman International Industries Ltd. Audio mixer system
US9524294B2 (en) * 2014-04-10 2016-12-20 Institut Fur Rundfunktechnik Gmbh Circuitry for a commentator and/or simultaneous translator system, operating unit and commentator and/or simultaneous translator system
US10148373B2 (en) * 2016-04-04 2018-12-04 Yamaha Corporation Method for controlling audio signal processing device, audio signal processing device, and storage medium
US9853758B1 (en) * 2016-06-24 2017-12-26 Harman International Industries, Incorporated Systems and methods for signal mixing
JP7039985B2 (ja) * 2017-12-15 2022-03-23 ヤマハ株式会社 ミキサ、ミキサの制御方法およびプログラム
US10951243B2 (en) * 2019-07-26 2021-03-16 Shure Acquisition Holdings, Inc. Wireless system having diverse transmission protocols
JP7388061B2 (ja) * 2019-09-03 2023-11-29 ヤマハ株式会社 音信号処理方法、音信号処理システム、およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002320299A (ja) 2000-12-26 2002-10-31 Yamaha Corp ディジタル・ミキシングシステム
JP2004064485A (ja) 2002-07-30 2004-02-26 Yamaha Corp ミキシングシステムの制御方法、ミキシングシステム、ミキシングシステムの制御装置およびプログラム
JP2005094112A (ja) 2003-09-12 2005-04-07 Fujitsu Ten Ltd 演奏モニタ−装置、調整室通話ユニット、信号分配装置、及びスタジオ通話システム
JP2005159972A (ja) 2003-11-28 2005-06-16 Tamura Seisakusho Co Ltd 音声調整システム、音声調整装置、操作装置、音声調整用プログラム及び操作用プログラム
JP2007020028A (ja) 2005-07-11 2007-01-25 Nippon Hoso Kyokai <Nhk> グループ形成装置、端末機、連絡システムおよびグループ形成プログラム
JP2007074672A (ja) 2005-09-09 2007-03-22 Yamaha Corp デジタルミキサ
JP2010098562A (ja) 2008-10-17 2010-04-30 Tamura Seisakusho Co Ltd 音声調整システム、調整方法およびリモートコントローラ
US20140064519A1 (en) 2012-09-04 2014-03-06 Robert D. Silfvast Distributed, self-scaling, network-based architecture for sound reinforcement, mixing, and monitoring

Also Published As

Publication number Publication date
US11756542B2 (en) 2023-09-12
CN112449279A (zh) 2021-03-05
JP2021040227A (ja) 2021-03-11
US20210065710A1 (en) 2021-03-04
EP3790205A1 (en) 2021-03-10
EP3790205B1 (en) 2024-10-23

Similar Documents

Publication Publication Date Title
JP4380746B2 (ja) ディジタルミキサ
US10148373B2 (en) Method for controlling audio signal processing device, audio signal processing device, and storage medium
JP4683850B2 (ja) ミキシング装置
JP2019022148A (ja) 音処理装置及びパラメータ割り当て方法
US11178502B2 (en) Audio mixer and control method of audio mixer
JP2012209766A (ja) コントローラー
EP3021504B1 (en) Audio signal processing device
JP7388061B2 (ja) 音信号処理方法、音信号処理システム、およびプログラム
JP4462151B2 (ja) デジタルミキサ
JP5246085B2 (ja) ミキシングコンソール
JP2007053631A (ja) デジタルミキサ
JP4458006B2 (ja) デジタルミキサ
JP4465718B2 (ja) ミキサのパラメータ設定装置
WO2019163702A1 (ja) オーディオ信号入出力装置、音響システム、オーディオ信号入出力方法およびプログラム
JP5233886B2 (ja) デジタルミキサ
JP2020123803A (ja) 音信号処理装置、音信号処理方法およびプログラム
US11653132B2 (en) Audio signal processing method and audio signal processing apparatus
JP7452280B2 (ja) 情報処理端末、音響システム、情報処理方法およびプログラム
JP2018117245A (ja) 音処理装置及び方法
US20170277505A1 (en) Audio apparatus and audio system
JP2017076907A (ja) 音信号処理装置
JP2017076906A (ja) 音信号処理装置
JP2008041172A (ja) ミキシング装置
JP2012114643A (ja) 接続設定装置
JP2011071926A (ja) ミキシングコンソール

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R151 Written notification of patent or utility model registration

Ref document number: 7388061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151