JP2017073631A - 音信号処理装置用設定プログラム - Google Patents

音信号処理装置用設定プログラム Download PDF

Info

Publication number
JP2017073631A
JP2017073631A JP2015198503A JP2015198503A JP2017073631A JP 2017073631 A JP2017073631 A JP 2017073631A JP 2015198503 A JP2015198503 A JP 2015198503A JP 2015198503 A JP2015198503 A JP 2015198503A JP 2017073631 A JP2017073631 A JP 2017073631A
Authority
JP
Japan
Prior art keywords
data
sound signal
setting data
channel
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015198503A
Other languages
English (en)
Inventor
鈴木 真人
Masato Suzuki
真人 鈴木
裕 宮崎
Yutaka Miyazaki
裕 宮崎
瑞之 白井
Tamayuki Shirai
瑞之 白井
野口 真太郎
Shintaro Noguchi
真太郎 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015198503A priority Critical patent/JP2017073631A/ja
Priority to PCT/JP2016/079427 priority patent/WO2017061410A1/ja
Publication of JP2017073631A publication Critical patent/JP2017073631A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 過去に使用したパラメータセットの再現と、パラメータセットの各パラメータ値の変更とを、1つの楽器種別に基づいて行う。【解決手段】 音信号が信号処理されるチャンネルに一つの楽器種別が指定され、指定された楽器種別に適したパラメータセットのch設定データがチャンネルに設定される。そして、楽器種別応じたルールでパラメータの調整を行うと、バンドデータ5のカレントに格納される。また、バンドデータ5のシーン1〜シーン4のいずれかに保存することができる。バンドデータ5は複数のバンドのバンドデータからなり、他のバンドのメンバでも、過去に使用した色々な人の設定を試すことができるように、同じ楽器のパラメータセットを引いてくることができる。【選択図】 図5

Description

この発明は、音信号処理装置のパラメータ設定を行う音信号処理装置用設定プログラムに関する。
従来、ステージ等に配置されたマイクに入力された歌唱音や楽器の演奏音等の音信号のレベルや周波数特性を調整してミキシングし、パワーアンプに送り出すステージ等で使用されるミキサが知られている。ミキサは音信号処理装置の一種であって、従来のミキサでは、複数の入力ポートに、複数のパートのマイクや楽器を接続し、ミキサのユーザが、複数の各入力チャンネルに、何れか1つの入力ポートを選択し接続できるようになっている。各入力チャンネルは、接続された入力ポートからの音信号を受け取り、その音信号に対して、その入力チャンネルに設定されたパラメータに基づき信号処理を施して、混合バスへ出力する。ユーザは、その信号処理のパラメータを、処理後の音信号の音量や音色が、演奏を最もふさわしくなるよう調整する。
従来のミキサにおける各チャンネルのセッティングでは、ユーザが、入力ポートがどの入力チャンネルにつながれているかを確認することで、それぞれの入力チャンネルにどの楽器からの音信号が入力されているか、および、演奏される楽器の種別を把握して、各チャンネルの音量や音色の細かいパラメータの設定を行う。
各チャンネルには、信号処理用のモジュールとして、アッテネータ、イコライザ、ダイナミクス、フェーダが備えられているとして、チャンネルのセッティングを説明する(非特許文献1参照)。まず、ミキサのそれぞれのチャンネルに入力された音信号のレベルが信号処理に適したレベルになるよう、ゲインをアッテネータで調整する。各チャンネルの音信号のレベルが適正になったら、ユーザは、実際に曲を演奏してバランスよく聞こえるようにフェーダーを使って音量を調整する。この調整では、ユーザは、例えば、ミキシングされた音の中で、ボーカルの音が聞こえやすくなると共に、楽器本体の音が大きい楽器の音量がボーカルとバランスするよう調整する。また、ユーザは、イコライザを調整して、各楽器の音色を整える。さらに、ユーザは、ダイナミクスを調整して、音信号のレベルの時間変化を抑える。
また、ユーザは、演奏者のための音信号を、客席向けのスピーカ用とは独立に音量を調整してミキシングすることができる。
特開平11−133964号公報 特許第4973203号公報
ヤマハ株式会社 PAビギナーズガイド バンド編[online], [平成27年 9月15日検索],インターネット<http://www.yamahaproaudio.com/japan/ja/training_support/pa_guide_beginner/band_pa/>
上記したように、従来のミキサはいわゆるプロユースであり、ミキサの扱いに慣れていない初心者のユーザにとっては、客席で聴くのに適した音となるように、各チャンネルのアッテネータ、イコライザ、ダイナミクス、フェーダなどのパラメータの調整を行うことが難しいという問題点があった。
ここで、特許文献1には、楽器種別に応じて、ゲインや周波数特性を決めるようにした音響装置が開示されている。ミキサに入力される各音信号は、同じ楽器であっても音量特性や周波数特性がまちまちであり、演奏条件や収音条件によっても音信号の状態が変わってくるので、楽器種別に応じてパラメータセットを選ぶ方法では、ミキサの入力チャンネルのパラメータの設定が上手くいかない。
また、特許文献2に記載されたパラメータを設定する信号処理装置では、回転ノブの周回方向の5箇所に、「スウィートスポットデータ」というパラメータ群が対応付けられており、スウィートスポットデータA,B,C,D,Eとして、各々ギター用、ベース用、ドラム用、ボーカル用、マスタ用のパラメータ群を定義することができ、回転ノブの現在の操作位置に応じて、その操作位置を挟む2つのパラメータ群の各パラメータ間が補間されるようになっている。ここでは、楽器種別に応じたモーフィングを行えるが、そのモーフィング用の楽器種別を、ユーザがモーフィングして作成したパラメータセットに対して付与することは開示されていない。
そこで、本発明は、過去に使用したパラメータセットの再現と、パラメータセットの各パラメータ値の変更とを、共通の楽器種別に基づいて行うことができる音信号処理装置用設定プログラムを提供することを目的としている。
上記目的を達成するために、本発明の音信号処理装置用設定プログラムは、コンピュータに、一つの楽器種別が指定されており、かつ、音信号に対し現在の設定データの複数のパラメータ値に応じた信号処理を施すチャンネルに関して、ユーザの変更指示に応じて、前記指定された楽器種別に応じたルールでその設定データに含まれるパラメータ値の調整を行う調整手順と、ユーザからの保存指示に応じて、前記チャンネルの現在の設定データを、前記指定された楽器種別と対応付けて、記憶部に保存する保存手順と、前記記憶部に保存されている設定データの中から、前記指定された楽器種別をキーとして、同じ又は類似する楽器種別の設定データを選別する選別手順と、該選別手順で選別された設定データのうちから、ユーザによる何れかの設定データの呼出指示を受け付け、その呼出指示で指定された設定データを現在の設定データとして呼び出す呼出手順とを実行させることを最も主要な特徴としている。
本発明は、上記のようにプログラムとして実施する他、システム、方法、装置、記録媒体等、任意の態様で実施することができる。
本発明の音信号処理装置用設定プログラムは、チャンネルの楽器種別を指定し、そのチャンネルの設定データを指定された楽器種別に応じたルールに従って調整し、そのチャンネルの設定データを、指定された楽器種別と対応付けて保存するとともに、楽器種別をキーとして選別された設定データの中から、ユーザが呼び出す設定データを選択するようにしている。これにより、過去に使用した設定データの再現と、設定データに含まれるパラメータ値の変更とを、共通の楽器種別に基づいて行うことができるようになる。
本発明にかかる設定プログラムが実行されるタブレット端末が接続されたミキサの構成を示す機能ブロック図である。 図1に示すミキサにおけるミキシング処理の構成を示す図である。 図1に示すミキサにおける入力チャンネルの構成の詳細を示す図である。 本発明にかかる設定プログラムが実行されるタブレット端末の構成を示す機能ブロック図である。 本発明にかかる設定プログラムにおけるバンドデータのデータ構造を示す図である。 本発明にかかる設定プログラムにおけるルールデータおよびchライブラリのデータ構造を示す図である。 本発明にかかる設定プログラムで実行されるichの音源種別を指定時の処理、ichのつまみjを操作時の処理のフローチャートである。 本発明にかかる設定プログラムが実行される際に表示されるライブラリAポップアップ画面を示す図、ichにおいてライブラリAを開く操作時の処理のフローチャートである。 本発明にかかる設定プログラムが実行される際に表示されるライブラリBポップアップ画面を示す図、ichにおいてライブラリBを開く操作時の処理のフローチャートである。 本発明にかかる設定プログラムが実行される際に表示されるキャスティングモードの画面を示す図である。 本発明にかかる設定プログラムが実行される際に表示されるステージモードの画面を示す図である。
以下、本発明を実施するための形態を図面に基づいて具体的に説明する。
まず、図1に、本発明の音信号処理装置用設定プログラムの一例である設定プログラムが実行されるタブレット端末2と、そのタブレット端末2が接続されたミキサ1とを示す。
図1に示すミキサ1は、CPU(Central Processing Unit)10、フラッシュメモリ11、RAM(Random Access Memory)12、その他I/O13、波形I/O14、信号処理部15(DSP:Digital Signal Processor)、表示器16、電動フェーダ17、操作子18を備え、これらを通信バス19により接続している。
このうちCPU10は、ミキサ1の動作を統括制御する制御手段であり、フラッシュメモリ11に記憶された制御プログラムを実行することにより、波形I/O14における音信号の入出力や表示器16における表示の制御、電動フェーダ17および操作子18の操作に従ったパラメータの編集、信号処理部15における信号処理の制御といった処理を行う。フラッシュメモリ11は、CPU10が実行する制御プログラムやプリセット等を記憶する書き換え可能な不揮発性記憶手段である。RAM12は、CPU10が各種のデータを書き込み及び読み出しする揮発性記憶手段であり、CPU10のワークメモリ、ミキサ1のカレントデータを記憶するカレントメモリとしても使用される。
その他I/O13は、種々の外部機器を接続して通信を行うためのインタフェースであり、図ではタブレット端末2が接続されている。タブレット端末2で本発明にかかる設定プログラムを実行することにより、ユーザは、そのタブレット端末2を用いて、リモートから、ミキサ1のカレントデータ等をセッティングできる。その他I/O13における通信に用いる規格は、イーサネット(商標)、USB(Universal Serial Bus)等、任意のものを採用することができ、有線無線も問わない。また、その他I/O13には、複数の外部機器を同時に接続することができ、外部メモリやパーソナルコンピュータ(PC)も接続することができる。PCで、タブレット端末2が実行する設定プログラムと同様の設定プログラムを実行して、ミキサ1のリモートセッティングを行うようにしてもよい。
表示器16は、CPU10の制御に従って種々の情報を表示する表示手段であり、例えば液晶パネル(LCD)や発光ダイオード(LED)によって構成できる。電動フェーダ17は、ミキサ1に入力された音信号の音量などのパラメータ値を、ユーザが調整するために操作する操作子である。操作子18も、ユーザが各種のパラメータ値を調整するために操作する操作子であり、例えば、キー、ボタン、ロータリーエンコーダ等である。
波形I/O14は、信号処理部15で処理すべき音信号を、ミキサ1の外部から受け付け、また処理後の音信号を外部に出力するためのインタフェースである。波形I/O14は、1つの音信号を外部から受け取り信号処理部15に供給する入力ポート、信号処理部15からの1つの音信号を出力する出力ポートを、それぞれ複数備えている。
信号処理部15は、例えば、複数のDSPを含むDSP群として構成され、波形I/O14から供給される音信号にミキシングやイコライジング等の信号処理を施し、信号処理後の音信号を再び波形I/O14に出力する機能を備える。その信号処理は各種パラメータの現在値(カレントデータ)に基づいて制御される。そのカレントデータはRAM12のカレントメモリの領域に記憶されており、含まれる種々のパラメータの値は、ユーザによる上記操作子18の操作に応じて、CPU10が変更する。
なお、ミキサ1のカレントデータ等のセッティングは外部接続されたタブレット端末2を使用してユーザが行うことができるので、ミキサ1は、電動フェーダ17と操作子18の何れか一方または両方を備えなくてもよい。
次に、図2に、波形I/O14、信号処理部15により実現されるミキシング処理のブロック図を示す。なお、以降の説明ではチャンネルをchとして記載する。
図2に示すように、ミキサ1のミキシング処理は、入力ポート20、入力ch21、ミキシング用のバス22、出力ch23、出力ポート24というシンプル構成であり、一般的なデジタルミキサが備えている入力パッチおよび出力パッチは備えていない。
すなわち、20の入力ポート20からの20の音信号は、対応する20の入力ch21に供給される。各入力ch21は、対応する入力ポート20から供給された音信号に対してレベル特性や周波数特性を調整する信号処理を施し、信号処理後の音信号を、6のバス22のうちの1または複数のバスへ送出する。なお、ユーザは、その送出する音信号のレベルを、バス毎に個別に変更できる。各バス22は、複数の入力ch21から入力される複数の音信号をミキシングし、ミキシング結果の音信号を、そのバス22に対応する出力ch23へ送出する。6のバスに対応して、6の出力ch23が設けられている。各出力ch23は、バス22から供給される音信号に対してイコライザ、コンプレッサ等の一連のモジュールでそれぞれ信号処理を施し、信号処理後の音信号を出力ポート24から送出する。
次に、図3に、入力ch21における1つの入力チャンネルの詳細構成を示す。
図3に示すように、入力ch21の音信号を入力ポート20から受け取り、バス22へ供給するまでの経路には、アッテネータ30、イコライザ31、ダイナミクス32、レベル調整器33a〜33f、センドスイッチ34a〜34fのそれぞれ異なる信号処理を行う各モジュールが縦続して設けられている。ここで、アッテネータ30は、音信号のレベルを調整するレベル制御器である。また、イコライザ31は音信号の周波数特性を調整するイコライザであり、例えばHIGH、HIGH MID、LOW MID、LOWの4バンドを備えている。また、ダイナミクス32は、信号の入力レベルが閾値以上になると一定のレシオでゲインを小さくして、レベルの時間変化を抑える信号処理モジュールである。レベル調整器33a〜33fは、6のバス22に送る音信号のレベルをバス毎に調整する。センドスイッチ34a〜34fは、6のバス22に音信号を供給する/しないをバス毎に切り替えるスイッチである。なお、アッテネータ30、イコライザ31、ダイナミクス32が、入力ch21毎に1つ設けられている。すなわち、ユーザは、アッテネータ30、イコライザ31、ダイナミクス32を、入力ch21毎に調整し、バス22毎には調整しない。一方、レベル調整器33a〜33fおよびセンドスイッチ34a〜34fは、各入力ch21のバス22ごとに1つ設けられている。また、各入力ch21には、対応する入力ポート20からの音信号を検出する検出器(図示せず)が設けられている。
図4に、タブレット端末2のハードウェア構成を示す。
図4に示すタブレット端末2は、CPU40、フラッシュメモリ41、RAM42、外部I/O43、表示器44、操作子45を備え、これらを通信バス46により接続している。
このうちCPU40は、タブレット端末2の動作を統括制御する制御手段であり、所定のオペレーションシステム上で、フラッシュメモリ41に記憶された本発明にかかる設定プログラム等のアプリケーションプログラム(以下、「アプリ」という)を実行することにより、ミキサ1のリモートセッティングなどの、アプリに応じた処理を行う。フラッシュメモリ41はCPU40が実行する各種プログラムやプリセット等のデータを記憶する書き換え可能な不揮発性記憶手段であり、RAM42はCPU40が各種のデータを書き込み及び読み出しする揮発性記憶手段であり、CPU40のワークメモリとしても使用される。
外部I/O43は、種々の外部機器に接続して通信を行うためのインタフェースである。タブレット端末2を用いたミキサ1のリモートセッティングは、この外部I/O43を介して行われる。外部I/O43における通信に用いる規格は、イーサネット(商標)、USB等、任意のものを採用することができ、有線無線も問わない。表示器44は、CPU40による制御の下で種々の情報を表示する表示手段である。表示器44は、タッチパネルを積層したLCDの表示器で構成され、ユーザの操作を受け付けるためのGUI(グラフィカルユーザインタフェース)画面を表示する。例えば、後述するキャスティングモードの画面3やステージモードの画面4が表示される。操作子45は、タブレット端末2に対する操作を受け付けるためのものであり、種々のキー、ボタン等によって構成できる。
本発明にかかる設定プログラムを実行しているタブレット端末2で、ユーザが、キャスティングモードを選択すると、CPU40は、図10に示すキャスティングモードの画面3をタブレット端末2の表示器44に表示する。この場合、当該設定プログラムの起動時のデフォルト画面が、キャスティングモードの画面3でもよい。タブレット端末2が接続されたミキサ1では、ステージ上に配置されたボーカルや楽器用のマイクからのケーブルや電子楽器からのケーブルを、入力ポート20に接続すると共に、ステージ上に配置されたメインスピーカおよびモニタースピーカからのケーブルをミキサ1の出力ポート24に接続しておく。なお、この明細書では特に断らない限りボーカルも楽器として扱うことにする。
図10の画面3は、ユーザが、あるバンドのバンドデータを選択し、選択されたバンドデータがRAM42に読み込まれた時の画面である。選択されたバンドデータでは、バンドを構成する複数の演奏者(メンバ)が定義されており、メンバ数分の各演奏者のデータが含まれている。この画面3には、各演奏者を表す演奏者アイコン(Pアイコン)3fがそのメンバ数だけ、キャスティングモードの画面3の下部に表示されている。Pアイコン3fは、氏名(芸名)および顔写真や顔のイラストが表示されるカード(Pカード)とすることができ、図では、「メンバA」「メンバC」「メンバF」「メンバG」の4名のメンバが表示されている。
また、画面3の右下に「newメンバ」のアイコンが表示されているが、このアイコンはメンバ追加部3gのアイコンであり、ユーザがクリックすると、バンドデータに新たなメンバのメンバデータが追加されて、追加されたメンバを表すPアイコン3fが画面3に追加表示される。
ステージ上において、バンドのメンバが自分の楽器を演奏すると、その演奏された音信号が、その楽器のケーブルが接続された入力ポート20に入力される。ミキサ1は入力パッチを備えておらず、複数の入力ポート20と複数の入力ch21とは1対1で対応している。ある入力ポート20に供給された音信号は対応する入力ch21に供給され、その入力chの検出器において音信号が検出される。検出器により音信号が入力ch21で検出されると、CPU40は、表示器44を制御して、その入力ch21の楽器表示エリア3dを、キャスティングモードの画面3に表示する。図では、入力ch21の中の第1〜第6チャンネル(ch1〜ch6)の楽器表示エリア3dが表示されている。音信号が検出されたch1〜ch6の各入力ch21では、何れかのプロセッサが、供給された音信号について、その音源の楽器を識別するための波形分析やパターンマッチング等の識別処理を行って、その音源の楽器を推測し、推測された各楽器の可能性係数を算出する。この識別処理を行うプロセッサは、タブレット端末2のCPU40あるいは、ミキサ1のCPU10や信号処理部15のDSPの何れでもよい。また、外部I/O43を介してタブレット端末2をネットワーク上の分析サーバ(図示せず)に接続して、その分析サーバに識別処理を行わせてもよい。例えば、この識別処理に先立って、予め、各種楽器から発せられる音を解析して、その特徴を表現した特徴データを生成して音源データベースに登録しておき、識別処理では、供給された音信号を解析して特徴データを生成し、音源データベースに登録された各楽器の特徴データとの相関値を算出し、その相関値が閾値より高い楽器を「推測された楽器種別」として決定すると共に、その楽器の算出された相関値を可能性係数として出力するようにしてもよい。
推測された楽器がある入力ch21に関して、CPU40は、表示器44を制御して、当該入力ch21に対応する楽器表示エリア3dに、その推測された楽器を表す楽器アイコン(Iアイコン)3eを算出された可能性係数の大きさに応じた態様で表示する。例えば、図10では、ch1において「E guitar(エレキギター)」「A guitar(アコースティックギター)」「E bass(エレキベースギター)」の3つの楽器が推測され、その順で可能性係数が大きくされている場合は、ch1に対応する楽器表示エリア3d内に、それら3つの楽器の3つのIアイコン3eが、最も可能性係数が大きい「E guitar」から順に重ねて表示される。Iアイコン3eは、例えば、その楽器を表すイラストの図柄のカード(Iカード)とする。また、ch2に対応する楽器表示エリア3d内には、ch2の音信号から推測された「M vocal(男性ボーカル)」と「F vocal(女性ボーカル)」のIアイコン3eがその順で重ねて表示され、ch3に対応する楽器表示エリア3d内には、推測された「piano」と「organ」のIアイコン3eがその順で重ねて表示されている。
また、ch4に対応する楽器表示エリア3d内には、ch4の音信号から推測された「Hi-Hat」のIアイコン3eが表示され、ch5に対応する楽器表示エリア3d内には、ch5の音信号から推測された「Snare」のIアイコン3eが表示され、ch6に対応する楽器表示エリア3d内には、ch6の音信号から推測された「Kick」のIアイコン3eが表示されている。ch4〜ch6で推測された楽器は、一般に、ドラムキットを構成することから、CPU40は、これらが1つのドラムキットと推測して、ドラムキットとして表示する。具体的には、そのドラムキットを表すドラムキット3hの楽器アイコンを表示し、その周囲にch4,ch5,ch6の3つの楽器表示エリア3dを配置して、キットであることを示す円弧で接続する。
ユーザが、いずれかの楽器表示エリア3d内に表示されている何れかの入力chの何れかの楽器のIアイコン3eをドラッグして、Pアイコン3fのいずれかにドロップするなどの、1つの入力chの1つの楽器を1つのメンバに関連付ける操作(図中の矢印の操作)を行うと、CPU40は、そのIアイコン3eに対応する楽器をその入力chに指定するとともに、その入力chに、そのPアイコン3fに対応するメンバをアサインする。このとき、そのIアイコン3eに対応する楽器が推測された音信号(演奏音)が、そのIアイコン3eが含まれる楽器表示エリア3dに対応する入力ch21に入力されている。CPU40は、ミキサ1をリモート制御して、この入力ch21に、バンドデータの中のそのメンバのその指定された楽器のch設定データをアサインして設定する。ここで設定するch設定データは、そのメンバのその楽器のch設定データが既に有った場合は、そのch設定データであり、ない場合はch設定データの初期データであるが、その詳細は後述する。各入力chのch設定データは、その入力ch21の各モジュールのパラメータセットを含む。また、CPU40は、表示器44を制御して、そのIアイコン3eとそのPアイコン3fとを関連付けされていること(つまり、その入力chのその楽器がそのメンバにアサインされたこと)を示す表示態様で表示する。例えば、図10に示すように小さくされたIアイコン3eを関連付けされたPアイコン3fに密着させて表示する。
ユーザは、その関連付けの操作を、その入力chの音信号を聴くだけでなく、ステージ上にいるバンドのメンバや、楽器の演奏状況を実際に見ながら行うとよい。例えば、表示器44に画面3が表示されているとき、実際に、演奏者「メンバA」が楽器「E guitar」を演奏していれば、ユーザは、ch1の楽器表示エリア3d内に表示されている「E guitar」のIアイコン3eをドラッグして、矢印で示すように「メンバA」のPアイコン3fにドロップする。また、演奏者「メンバF」の楽器が、実際には「organ」であった場合は、ユーザは、ch3の楽器表示エリア3d内に表示されている「organ」のIアイコン3eをドラッグして、矢印で示すように「メンバF」のPアイコン3fにドロップする。さらに、歌手である「メンバG」が、実際は女性であった場合は、ch2の楽器表示エリア3d内に表示されている「F vocal(女性ボーカル)」のIアイコン3eをドラッグして、「メンバG」のPアイコン3fにドロップする。そして、ユーザがPアイコン3fにIアイコン3eをドラッグ&ドロップすると、CPU40は、そのIアイコン3eの楽器を入力ch21に指定し、そのIアイコン3eの入力ch21に、Pアイコン3fのメンバのその楽器のch設定データをアサインするとともに、Iアイコン3eに対応する楽器の楽器名あるいは楽器のイラストなどの小さくされたアイコンが、図5に示すようにPアイコン3fに密着して表示されるよう表示器44を制御する。つまり、入力ch21の楽器の指定は、ユーザが、Iアイコン3eをPアイコン3fにドラッグ&ドロップしたときに行われる。なお、楽器認識処理が上手くいかず、ある入力ch21の楽器表示エリア3dに、ユーザが指定したい楽器が表示されない場合は、ユーザは、設定プログラムで定義されている全楽器の中から所望の楽器を選択して、その楽器のIアイコン3eをその楽器表示エリア3dに追加することができる。つまり、ユーザは、各入力ch21に、推定された楽器に限定されない、任意の楽器を指定できる。
このように、キャスティングモードでは、ユーザが、楽器からのケーブルをミキサ1の入力ポート20に接続して、その楽器を担当するメンバが演奏すると、その楽器の音信号が入力された入力ch21が検出されて、タブレット端末2では、その楽器のIアイコン3eが、検出された入力ch21の楽器表示エリア3dに表示される。そして、ユーザが、ステージ上のバンドのメンバと、メンバが演奏する楽器を見ながら、画面上に表示されているその楽器アイコン(Iアイコン3e)を、そのメンバの演奏者アイコン(Pアイコン3f)にドラッグ&ドロップすると、ミキサ1のその入力chには、そのメンバのその楽器のch設定データがリモート設定される。
別の手法として、まず、ユーザが、タブレット端末2でステージ上のバンドのメンバの一人に対応するPアイコン3fを選択し、その後に、そのメンバに自分の楽器を演奏させる。そして、ミキサ1の入力ch21で音信号が検出されたとき、その音信号から楽器を推測して、CPU40が、そのメンバのその楽器のch設定データを、ミキサ1の当該入力ch21にリモート設定するようにしてもよい。この場合、音信号から推測された楽器の第1候補が、そのまま、入力ch21に指定されるようにするとよい。
次に、本発明にかかる設定プログラムを実行しているタブレット端末2で、ユーザが、ステージモードを選択すると、CPU40は、図11に示すステージモードの画面4をタブレット端末2の表示器44に表示する。
図11の画面4では、キャスティングモードで選択されたバンドデータがそのまま使用され、ユーザは、ステージモードで別のバンドデータを選択することはできない。画面4には、実際のステージを模したステージ4aが表示され、そのステージ4a上には、バンドの各メンバが演奏する各楽器を表す楽器アイコン(Iアイコン)4dと、客席用のスピーカ(SP1,SP2)とモニター用のスピーカ(SP3)とのSPアイコン4eが表示される。
ステージ4a上には、キャスティングモードで何れかのメンバにアサインされた全ての楽器のIアイコン4dが、それぞれ、アサイン先のメンバのステージ4a上の位置に表示される。また、Iアイコン4dは、楽器の楽器名やイラストで表示されているカード(Iカード)でもよい。さらに、Iアイコン4dには、その楽器がアサインされたメンバの氏名(芸名)、あるいは、顔写真や顔のイラストを表示してもよい。図では、「E guitar」、「E bass」、「F vocal」、「piano」と「organ」の5つのIアイコン4dがステージ4a上に表示されている。この場合、「E guitar」と「M vocal」の2つの楽器は「メンバA」に、「E bass」は「メンバC」に、「F vocal」は「メンバG」にアサインされ、「piano」と「organ」の2つの楽器は「メンバF」にアサインされている。また、各スピーカのSPアイコン4eは、それぞれ、ユーザが指定したステージ4a上の位置に表示されている。各Iアイコン4dは、キャスティングモードで説明したように、その楽器の音信号が入力される入力ch21に対応している。例えば、メンバAの「E guitar」と「M vocal」はch1とch9に、メンバCの「E bass」はch7に、メンバGの「F vocal」はch2に、メンバFの「piano」と「organ」はch8とch3に対応しており、ユーザがIアイコン4dを選択することは、1つの入力ch21を選択することに対応する。この設定プログラムでは、Iアイコン4dで1つの入力chが選択できるので、ユーザは、入力ch番号を意識せずに、パラメータの設定を行える。
画面4の右側には、1つの入力chの音信号の特性を調整する調整ツマミ4h〜4jと、その調整後の音信号を個別のスピーカに送って放音する音量を調整するフェーダ4kとスイッチ4sを含む操作子部と、調整される入力chのIアイコンを表示するメンバ選択表示部4mと、音信号の送り先のスピーカのSPアイコンを表示するスピーカ選択表示部4nとが表示される。画面4のステージ4a上で、ハッチングを施して示すように、ユーザが「メンバA E guitar」のIアイコン4dと「SP3」のSPアイコン4eとを選択すると、CPU40は、そのIアイコン4dに対応するch1を選択して、その「メンバA E guitar」のIアイコン4dに対応するch1を選択し、そのIアイコン4dをメンバ選択表示部4mに表示するとともに、「SP3」のSPアイコン4eに対応するスピーカを選択し、そのSPアイコン4eをスピーカ選択表示部4nに表示する。ユーザが「メンバA E guitar」のIアイコン4dを選択すると、CPU40は、対応するch1にアサインされたch設定データを選択し、そのch設定データに含まれるパラメータの値を操作子部の4h〜4kの各ツマミ位置およびスイッチ4sのオンオフ状態として表示する。この時、その入力ch(一般化してi番目のchとする)には楽器(音源種別)が指定されているので、CPU40は、その音源種別を用いて、図7(a)に示すichの音源種別を指定時の処理をスタートする。まず、ステップS10でCPU40は、ichで指定された音源種別をレジスタSS(i)に設定する。次いで、ステップS11でCPU40は、i番目の入力ポートからichに供給される音信号を、継続的に、楽器種別SS(i)に応じた後述するルールでレベル判定してゲインファインダに表示する。ゲインファインダには、「ゲインを上げた方がよい」、「下げた方がよい」の判定結果が表示され、ユーザのゲイン調整をガイドする。画面4上のゲインの調整ツマミ4hの左側に配置されたゲインファインダ4qは、2個の三角形を縦に並べ頂点を向き合わせた形状である。CPU40は、ゲインを上げた方が良い場合は、下側の三角形を点灯し、下げた方が良い場合は、上側の三角形を点灯する。ゲインファインダ4qでは、例えば、レベルが急激に変化する楽器音の場合は、音信号のレベルが低い目になるようガイドし、急激な変化の少ない楽器音の場合は、音信号のレベルが高い目になるようガイドする。すなわち、楽器種別に応じて、どのくらいのレベルが適正かを判断して、基準レベルを設定し、音信号のレベルがその基準レベルになるようガイドしている。図では、上側の逆三角形が点灯されており、ゲインを下げるように指示している。ステップS11のゲインファインダの表示処理は、画面4が表示されている間継続するが、その処理が終了すると、ichの音源種別を指定時の処理は終了する。
例えば、ユーザが「メンバA E guitar」のIアイコン4dと「SP3」のSPアイコン4eとを選択した場合、ユーザは、操作子部の各操作子4h〜4kを操作することにより、メンバAの「E guitar」の音信号が供給される入力ch21(図11ではch1)のch設定データに含まれる各種パラメータ値を調整できる。ユーザは、アッテネータ30のゲインを、ゲインファインダ4qのガイドを見ながら調整ツマミ4hで調整できる。ユーザは、イコライザ31の周波数特性を調整ツマミ4iで調整できる。ユーザは、ダイナミクス32の特性を、調整ツマミ4jにより調整できる。ユーザは、レベル調整器33a〜33fのゲインをフェーダ4kにより個別に調整することができる。そして、ユーザが、操作子4h〜4jを操作した時に、CPU40は、その操作(値変更指示)を検出して図7(b)に示すichのつまみjを操作時の処理をスタートする。まず、ステップS20でCPU40は、ichのつまみjで検出された操作量をレジスタxに設定する。次いで、ステップS21で、CPU40は、その操作量xに応じて、ichの1ないし複数のパラメータを、楽器種別SS(i)に応じたルールで変更する。ステップS21の処理が終了すると、ichのつまみjを操作時の処理は終了する。
ステップS11、ステップS21のルールは、図6(a)に示すデータ構造のルールデータとしてタブレット端末2のフラッシュメモリ41に予め保存されている。ルールとは、ユーザが指定するパラメータが楽器に適したものとなるよう、ユーザをガイドしたり、複数のパラメータ値のバランスを調整するルールであり、楽器の種別毎に用意されている。例えば、入力ch21に入力した音信号のレベルを、ユーザが信号処理に適したレベルに調整できるようガイドするルールであったり、入力ch21におけるイコライザ31またはダイナミクス32の多数のパラメータ値のパラメータ間のバランスを規定するルールである。ルールデータ6は、図6(a)のように、「vocal用ルール」「E guitar用ルール」「A guitar用ルール」「E bass用ルール」「organ用ルール」「piano用ルール」「brass用ルール」「strings用ルール」・・・などの楽器種別毎に用意され、ユーザは、楽器に応じたルールでパラメータを設定できるようになっている。
また、画面4には、イコライザ31、ダイナミクス32の各モジュールを調整する調整ツマミ4i,4jが1つずつ用意されており、ユーザが1つのツマミを操作すると、CPU40は、そのモジュールの複数のパラメータ値を、所定のバランスを持ちつつ変更する。例えば、調整ツマミ4i,4jの調整範囲(回転範囲)の中に複数の特定位置(特定角度)を設け、その各特定位置に異なるパラメータ値のセットを割り当てる。そして、ツマミが各特定位置のときは、モジュールに対して、割り当てられたセットのパラメータが適用され、2つの特定位置の間のときは、モジュールに対して、その2つの特定位置の2セットのパラメータ値間でモーフィング(直線補間)されたパラメータ値が適用されるようにする。これにより、イコライザ31、ダイナミクス32を1つの調整ツマミ4i,4jで、楽器に適したバランスで複数のパラメータ値を連動して設定できる。アッテネータ30に関しては、ゲインファインダ4qを参照しながらユーザの操作したツマミ位置に応じて、1つのパラメータ(ゲイン)の値が調整される。
なお、各バンドデータには、複数の各メンバのch設定データが、そのメンバが担当する楽器種別分だけ含まれている。バンドデータを用いたミキサ1のミキシング処理で、あるメンバが、過去にある楽器を演奏していれば、そのバンドデータには、その際に使用されたch設定データが含まれる。逆に、あるメンバに初めてある楽器をアサインした時には、過去のch設定データが無いことから、その楽器音が入力される入力ch21には、ch設定データとして所定の初期データが設定される。この初期データは、楽器種別が異なっても異ならないフラットな特性のデータとされる。例えば、ダイナミクスならレベルの時間変化を圧縮しないパラメータ値のセット、イコライザならばフラットな周波数特性となるパラメータ値のセット、ゲインならばゼロに絞ったデータ(−∞デシベル)が、初期データとして対応する入力ch21に設定される。このとき、その入力ch21には、そのアサインされた楽器が楽器種別として指定されており、以後、ユーザは、その楽器種別に応じたルールを用いて、そのch設定データの各パラメータ値を調整することになる。
画面4において、ユーザが、フェーダ4kを操作すると、CPU40は、選択されている入力ch21(この場合は「メンバA E Guitar」のチャンネル)から選択されているスピーカ(この場合は「SP3」)への経路のレベル調整器(33a〜33fのうちの1つ)のゲインの値を、そのフェーダ4kのつまみ位置に応じて変更する。また、ユーザが、スイッチ4sを操作すると、CPU40は、同経路のスイッチ(34a〜34fのうちの1つ)の状態を、オンとオフの間で反転する(トグル)。入力ch21で特性が調整された音信号は、複数の経路の複数のスピーカのうちの、スイッチ34a〜34fがオンされた経路のスピーカに、その経路のレベル調整器33a〜33fで調整されたレベルで供給される。
このように、図11の画面4では、ユーザは、「メンバA」が演奏した「E guitar」の演奏音の特性をその楽器に応じたルールで調整でき、また、その調整後の音信号をモニター用のスピーカ「SP3」へ供給か否か、および、その供給する際の音量を調整できる。ステージモードの画面4では、ユーザが、同じメンバ又は他のメンバの他のIアイコン4dを選択すると、その楽器の演奏音の特性を、その楽器に応じたルールで調整することができる。また、ユーザが、他のSPアイコン4cを選択すると、特性を調整した後の音信号の他のスピーカへの供給を制御できる。何れの場合も、調整されるパラメータは、ミキサ1のカレントメモリのカレントデータ中のパラメータである。
ステージモードの画面4の下部には、「1」から「4」の4つのシーン選択ボタン4fとストアボタン4gとが表示される。ユーザが、ストアボタン4gと1つのシーン選択ボタン4fとをクリックすると(保存指示)、CPU40は、カレントメモリのカレントデータが、そのボタンで選択されたシーン番号のシーンデータとして保存される。カレントデータは、調整ツマミ4h〜4j、フェーダ4k、スイッチ4sで調整された複数の各入力chのch設定データを含む。図5に示されるように、各バンドデータは、カレントデータとシーンデータとを含む。シーンデータとして、例えばシーン1〜シーン4の4データが保存される。ユーザが、1つのシーン選択ボタン4fを操作すると、CPU40は、そのボタンで選択されたシーン番号のシーンデータを読み出し、ミキサ1のカレントメモリに書き込んで、そのシーンが再現されるようにミキサ1をリモート設定する。
図5には、ユーザの保存指示に応じてミキサ1のフラッシュメモリ11(およびタブレット端末2)に格納された4つのバンドデータ5を示す。それぞれのバンドデータ5は類似のデータ構造とされ、ユーザにより選択されたバンドデータがミキサ1のRAM42に読み込まれ、ミキサ1の制御に使用される。図5のように、バンドデータ5は、カレントメモリにカレントデータとして読み込まれるカレントと、ユーザにより保存されたシーンデータであるシーン1〜シーン4から構成されている。カレントとシーン1〜シーン4は、それぞれ、ヘッダと、バンドの各メンバの各楽器のch設定データと、各スピーカのch設定データとから構成される。ヘッダには、バンドのメンバ数、そのメンバ数分の各メンバ(演奏者)の演奏者情報が含まれている。演奏者情報は、各メンバのID(名前でもよい)、そのメンバの1ないし複数の楽器の情報、そのメンバを表すPアイコン3fに表示される顔写真やイラストなどが含まれる。また、各メンバの各楽器のch設定データは、1つの入力ch21の複数のモジュールに設定されるパラメータのセットとされ、各スピーカのch設定データは、1つの出力ch23の複数のモジュールに設定されるパラメータのセットとされる。バンドデータ5に含まれる各ch設定データは、ヘッダで定義されたバンドの1のメンバの1の楽器に対応しており、上述したユーザの関連付け操作により、ミキサ1の1つの入力ch21にアサインされる。図5では、入力ch21にch設定データとして、「メンバA E guitar」「メンバA M vocal」「メンバC E bass」「メンバF organ」「メンバF piano」「メンバG F vocal」・・・が用意されている。ここでは、カレント、シーン1〜シーン4でメンバ構成や楽器構成が異なっている可能性があるので、カレント、シーン1〜シーン4にそれぞれヘッダが用意されている。
また、画面4の下部には、「A」「B」の2つのライブラリボタン4pがあり、ユーザが、ライブラリボタン4pの「A」をクリックすると、図8(a)のライブラリA画面8が、ライブラリボタン4pの「B」をクリックすると、図9(a)のライブラリB画面9が、それぞれタブレット端末2の表示器44にポップアップ表示される。chライブラリは、各バンドデータ5内に個別に用意してもよく、或いは、chライブラリを1つだけ用意し、それを複数のバンドデータで共用してもよい。chライブラリ7のデータ構造例を図6(b)に示す。chライブラリ7には、例えば、「プリセット1 vocal用」「プリセット2 piano用」「プリセット3 vocal用」「プリセット4 E guitar用」「プリセット5 E guitar用」「プリセット6 E bass用」「プリセット7 vocal用」「プリセット8 E guitar用」「プリセット9 E bass用」・・・の設定データ(プリセット)が記憶されている。
ユーザが、chライブラリ7のプリセット番号を指定して、カレントメモリの「メンバA E guitar」のch設定データの保存を指示すると(保存指示)、そのch設定データが、指定されたプリセット番号の設定データとして保存される。その際、その保存される設定データには、属性として「E guitar用」が付与される。ユーザが、「メンバA E guitar」のアサインされた入力chについて「A」のボタン4pでライブラリA画面8を表示したときは、chライブラリ7の中の「E guitar」の属性を有する設定データ(すなわちプリセット)だけが選択肢としてリスト表示される。
図11のich(ここでは「メンバA E guitar」の入力ch21)が選択されている画面4で、ユーザが、「A」のボタン4pをクリックすると、CPU40が、図8(b)の処理を実行して、図8(a)に示すライブラリA画面8が表示器44に表示される。すなわち、ライブラリボタン4p「A」のクリックが検出されると、CPU40は、まず、ステップS30で、chライブラリの中から音源種別SS(i)と同じ音源種別の設定データを抽出する。次いで、ステップS31で、CPU40は、ステップS30で抽出された設定データのリスト表示を含むライブラリA画面8を表示器44にポップアップ表示する。ステップS31の処理が終了すると、ichにおいてライブラリAを開く操作時の処理は終了する。
ここでは、もとの画面4で「メンバA E guitar」がアサインされた入力chが選択されていたので、ライブラリA画面8には、「E guitar」の属性(楽器種別)のプリセットのリストが表示される。そのリストの表示は、ユーザが各プリセットに付与したプリセット名を表示する欄8aと、各プリセットに付与したコメントを表示する欄8bとを含む。そのリストには、その入力chの楽器「E guitar」と同じ属性を有するプリセットだけが表示される。すなわち、「E guitar」の属性を有するプリセット4,5,8,9だけがプリセット名欄8aに表示される。なお、表示されるコメントは、「プリセット4」は「'15/06ライブ用」、「プリセット5」は「アナログCOMP使用」、「プリセット8」は「ピックアップA」である。「プリセット8」の欄8aと欄8bのハッチングは、そのプリセットが選択されていることを示し、この状態でユーザが「Store」8cをクリックすると(保存指示)、CPU40は、カレントの「メンバA E guitar」の入力chのch設定データに「E guitar」の属性を付与し、「プリセット8」としてchライブラリ7に保存する。また、ユーザが、「Recall」8dをクリックすると(呼出指示)、CPU40は、chライブラリ7から「プリセット8」の設定データを読み出して、その設定データをカレントの「メンバA E guitar」の入力chに設定する。ユーザが、「Exit」8eをクリックすると、CPU40は、表示中のライブラリA画面8を閉じる。
図11のich(ここでは「メンバA E guitar」の入力ch21)が選択されている画面4で、ユーザが、「B」のボタン4pをクリックすると、CPU40が、図9(b)の処理を実行して、図9(a)に示すライブラリB画面9が表示器44に表示される。すなわち、ライブラリボタン4p「B」のクリックが検出されると、CPU40は、まず、ステップS40で、複数バンドデータのシーン1〜シーン4の中から音源種別SS(i)と同じ音源種別(楽器)に対応するch設定データをプリセットとして抽出する。次いで、ステップS41で、CPU40は、ステップS40で抽出されたch設定データのリスト表示を含むライブラリB画面9を表示器44にポップアップ表示する。ステップS41の処理が終了すると、ichにおいてライブラリBを開く操作時の処理は終了する。
ここでは、もとの画面4で「メンバA E guitar」がアサインされた入力chが選択されていたので、ライブラリB画面8には、「E guitar」の音源種別(楽器種別)のプリセット(ch設定データ)のリストが表示される。そのリストの表示は、ch設定データを抽出したソース(どのバンドデータのどのシーンのどのメンバのデータか)を表示するデータソース欄9aと、そのシーンにユーザが付与したシーン名などのコメントを表示する欄9bとを含む。表示されるコメントは、例えば、ソース「バンドB シーン2 メンバV」のプリセットは「deep sea」、「バンドB シーン2 メンバW」は「deep sea」、「バンドC シーン1 メンバD」は「opening」、「バンドC シーン2 メンバD」は「wakuwaku」、「バンドC シーン4 メンバD」は「dokidoki」である。ここでは、リストの表示すべきプリセットが5より多いため、ユーザが、スクロールバー9cのつまみを上下することによりリストがスクロールされて、隠れている他のプリセットが表示される。ユーザが、リストのいずれかのプリセットを選択して「Recall」9dをクリックすると(呼出指示)、CPU40は、選択されたプリセット(ch設定データ)を、そのデータソースのバンドデータ5から読み出して、そのch設定データをカレントの「メンバA E guitar」の入力ch21に設定する。ユーザが、「Exit」9eをクリックすると、CPU40は、表示中のライブラリB画面8を閉じる。
バンドデータ5のカレントおよびシーン1〜シーン4の各ch設定データには、そのバンドデータのヘッダで定義された複数のメンバの複数の楽器の中の1のメンバの1の楽器が対応している。そこで、ライブラリBでは、各入力ch21に対して、その入力ch21で指定された楽器と同じ楽器のプリセットを、複数のバンドデータ5からリコールできる。これにより、他のバンドで同じ楽器を担当しているメンバのch設定データを試すことができる。
以上説明したステージモードの画面4では、ユーザは、各入力chのch設定データのパラメータを、その入力chで指定されている楽器に対応するルールで調整でき、また、保存されている複数のch設定データの中から、同じルールで調整されたch設定データを各入力chに呼び出すことができるようになっている。
バンドは、メンバが決まっているので、同じメンバ構成、同じ楽器構成で、本番や練習の演奏を繰り返し行う。本発明に係る設定プログラムを起動したタブレット端末では、バンドに新たなメンバ又は既存のメンバの新たな楽器が加わった際に、そのメンバが演奏する楽器の音信号が入力する入力chに初期データをch設定データとして設定し、ユーザは、その各パラメータを、その楽器種別に応じたルールで調整する。そして、調整後のch設定データは、バンドデータ内に保存される。これにより、次回に、そのメンバのその楽器を含むバンドでの演奏をする時は、保存されたバンドデータを読み出し、そのメンバのその楽器の音信号が入力される入力chにそのch設定データをアサインすることで、ミキサへのセッティングを完了することができる。
なお、本発明に係る設定プログラムの制御対象のミキサは、入力パッチが無く、入力ポートと入力chとが1対1で対応する。各楽器からのケーブルをミキサの入力ポートに接続して、その楽器をメンバが演奏するだけで、その入力ポートに対応する入力chにその楽器が指定され、ユーザは、それがミキサのどの入力chかを意識することなく、その入力chにその楽器のch設定データをアサインできる。
ステージモードの画面において、音量調整した楽器アイコン(選択された楽器に対応する)を、音量に応じた大きさで表示して、全体の音量バランスを把握しやすくしてもよい。この場合、客席向けのスピーカ(SP1,SP2)から放音される楽器の音量に応じて、その楽器に対応する楽器アイコンの大きさを変える。また、楽器アイコンとスピーカアイコンとを選択する時に、先にスピーカアイコンを選択した時は、そのスピーカアイコンに対応するスピーカから出力される楽器の音量に応じて、当該楽器に対応する楽器アイコンの大きさを変え、先に楽器アイコンを選択した時は、当該楽器アイコンに対応する楽器から出力されるスピーカに対応するスピーカアイコンの大きさを音量に応じて変えるようにしてもよい。また、楽器アイコンとスピーカアイコンとを選択した時に、楽器アイコンあるいはスピーカアイコンの大きさを変える操作に応じて、音量が調整されるようにしてもよい。
さらに、ステージモードの画面において、表示されたステージの大きさを変えることで、リバーブの深さを変えるようにしても良い。
以上説明した本発明に係る設定プログラムは、タブレット端末のアプリケーションプログラムとしたが、タブレット端末に限らずスマートフォンやパーソナルコンピュータ等の情報機器のアプリケーションプログラムとしてもよく、或いは、ミキサ1のCPU10が実行する制御プログラムの一部としてもよい。CPU10が実行する場合は、パラメータの設定を、リモート制御ではなく、ミキサ1のローカル制御で行うことになる。
1 ミキサ、2 タブレット端末、3 キャスティングモードの画面、3d 楽器表示エリア、3e Iアイコン、3f Pアイコン、3g メンバ追加部、3h ドラムキット、4 ステージモードの画面、4a ステージ、4d Iアイコン、4e SPアイコン、4f シーン選択ボタン、4g ストアボタン、4h〜4j 調整ツマミ、4k フェーダ、4m メンバ選択表示部、4n スピーカ選択表示部、4p ライブラリボタン、4q ゲインファインダ、5 バンドデータ、6 ルールデータ、7 ライブラリ、8 ライブラリ画面、8a 欄、8b 欄、9 ライブラリB画面、9a データソース欄、9b 欄、9c スクロールバー、10 CPU、11 フラッシュメモリ、12 RAM、13 その他I/O、14 波形I/O、15 信号処理部、16 表示器、17 電動フェーダ、18 操作子、19 通信バス、20 入力ポート、21 入力ch、22 バス、23 出力ch、24 出力ポート、30 アッテネータ、31 イコライザ、32 ダイナミクス、33a〜33f レベル調整器、34a〜34f センドスイッチ、40 CPU、41 フラッシュメモリ、42 RAM、43 外部I/O、44 表示器、45 操作子、46 通信バス

Claims (5)

  1. コンピュータに、
    一つの楽器種別が指定されており、かつ、音信号に対し現在の設定データの複数のパラメータ値に応じた信号処理を施すチャンネルに関して、ユーザの値変更指示に応じて、前記指定された楽器種別に応じたルールでその設定データに含まれるパラメータ値の調整を行う調整手順と、
    ユーザからの保存指示に応じて、前記チャンネルの現在の設定データを、前記指定された楽器種別と対応付けて、記憶部に保存する保存手順と、
    前記記憶部に保存されている設定データの中から、前記指定された楽器種別をキーとして、同じ又は類似する楽器種別の設定データを選別する選別手順と、
    該選別手順で選別された設定データのうちから、ユーザによる何れかの設定データの呼出指示を受け付け、その呼出指示で指定された設定データを現在の設定データとして呼び出す呼出手順と、
    を実行させることを特徴とする音信号処理装置用設定プログラム。
  2. 前記ルールは、ユーザに提示する前記チャンネルから送出される音信号のレベルの最適値を規定するルールであることを特徴とする請求項1に記載の音信号処理装置用設定プログラム。
  3. 前記ルールは、前記チャンネルにおけるイコライザまたはダイナミクスの複数のパラメータの連動した変化特性を規定するルールであることを特徴とする請求項1に記載の音信号処理装置用設定プログラム。
  4. 前記記憶手段には複数の演奏者に対応する複数の設定データが記憶されており、各演奏者の音信号を処理するチャンネルに、前記呼出手順を用いて、その演奏者が以前に使用した設定データを呼び出すことを特徴とする請求項1に記載の音信号処理装置用設定プログラム。
  5. 前記記憶手段には複数の演奏者に対応する複数の設定データからなるバンドデータが複数保存されており、前記選別手順は、前記チャンネルに関して、複数のバンドデータの複数の設定データの中から、前記指定された楽器種別に対応する設定データを選別することを特徴とする請求項1に記載の音信号処理装置用設定プログラム。
JP2015198503A 2015-10-05 2015-10-06 音信号処理装置用設定プログラム Pending JP2017073631A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015198503A JP2017073631A (ja) 2015-10-06 2015-10-06 音信号処理装置用設定プログラム
PCT/JP2016/079427 WO2017061410A1 (ja) 2015-10-05 2016-10-04 プログラムを記録した記録媒体および表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015198503A JP2017073631A (ja) 2015-10-06 2015-10-06 音信号処理装置用設定プログラム

Publications (1)

Publication Number Publication Date
JP2017073631A true JP2017073631A (ja) 2017-04-13

Family

ID=58538407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015198503A Pending JP2017073631A (ja) 2015-10-05 2015-10-06 音信号処理装置用設定プログラム

Country Status (1)

Country Link
JP (1) JP2017073631A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3863010A1 (en) 2020-02-04 2021-08-11 Yamaha Corporation Audio signal mixing device, system, method
EP4303865A1 (en) 2022-07-01 2024-01-10 Yamaha Corporation Audio signal processing method and audio signal processing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3863010A1 (en) 2020-02-04 2021-08-11 Yamaha Corporation Audio signal mixing device, system, method
US11651795B2 (en) 2020-02-04 2023-05-16 Yamaha Corporation Audio signal processing device, audio system, and audio signal processing method
EP4303865A1 (en) 2022-07-01 2024-01-10 Yamaha Corporation Audio signal processing method and audio signal processing apparatus

Similar Documents

Publication Publication Date Title
JP5258796B2 (ja) インテリジェント等化のためのシステム及び方法
Thompson Understanding audio: getting the most out of your project or professional recording studio
US10062367B1 (en) Vocal effects control system
US8704072B2 (en) Simulating several instruments using a single virtual instrument
US20150268924A1 (en) Method and system for selecting tracks on a digital file
JP6696140B2 (ja) 音響処理装置
White Creative Recording Part One: Effects And Processors
US8503698B2 (en) Mixing apparatus
US20050054305A1 (en) Multi-channel, signal controlled variable setting apparatus and program
JP2017073631A (ja) 音信号処理装置用設定プログラム
JP2013110585A (ja) 音響機器
JP6056195B2 (ja) 音響信号処理装置
WO2017061410A1 (ja) プログラムを記録した記録媒体および表示制御方法
JP2005080265A (ja) 複数チャンネルのミュート設定装置およびそのプログラム
JP5999408B2 (ja) 楽音信号制御システムおよびプログラム
US20160274858A1 (en) Displaying attenuating audio signal level in delayed fashion
JP2017073590A (ja) 音信号処理装置用プログラム
JP2014066922A (ja) 楽曲演奏装置
Coryat Guerrilla home recording: how to get great sound from any studio (no matter how weird or cheap your gear is)
JP2005080264A (ja) 複数チャンネルの信号制御量設定装置およびそのプログラム
US20090292378A1 (en) Linking Media Displays with Performance Enhancements and Methods Thereof
WO2023062865A1 (ja) 情報処理装置および方法、並びにプログラム
JP5731661B2 (ja) 記録装置、記録方法、及び記録制御用のコンピュータプログラム、並びに再生装置、再生方法、及び再生制御用のコンピュータプログラム
White Basic mixers
JP5861468B2 (ja) 音響信号処理システム