JP2017073590A - 音信号処理装置用プログラム - Google Patents

音信号処理装置用プログラム Download PDF

Info

Publication number
JP2017073590A
JP2017073590A JP2015197446A JP2015197446A JP2017073590A JP 2017073590 A JP2017073590 A JP 2017073590A JP 2015197446 A JP2015197446 A JP 2015197446A JP 2015197446 A JP2015197446 A JP 2015197446A JP 2017073590 A JP2017073590 A JP 2017073590A
Authority
JP
Japan
Prior art keywords
icon
musical instrument
instrument
sound signal
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015197446A
Other languages
English (en)
Inventor
鈴木 真人
Masato Suzuki
真人 鈴木
裕 宮崎
Yutaka Miyazaki
裕 宮崎
野口 真太郎
Shintaro Noguchi
真太郎 野口
瑞之 白井
Tamayuki Shirai
瑞之 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015197446A priority Critical patent/JP2017073590A/ja
Priority to PCT/JP2016/079427 priority patent/WO2017061410A1/ja
Publication of JP2017073590A publication Critical patent/JP2017073590A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】楽器と演奏者との対応付けを明確にして、音信号処理装置のセッティングを簡単に行う音信号処理装置用プログラムを提供する。【解決手段】楽器の演奏音である音信号が入力chに入力されると、その入力chの楽器表示エリア3dに、音信号を解析した楽器のIアイコン3eが表示される。また、画面3にはバンドのメンバのPアイコン3fが表示され、実際のステージ上のメンバが演奏する楽器を見て、その楽器のIアイコン3eをそのメンバのPアイコン3fにドラッグ&ドロップ等で関連付ける。入力chには、関連付けられた楽器のパラメータがセッティングされる。【選択図】図5

Description

この発明は、音信号処理装置のセッティングを簡単に行うことができる音信号処理装置用プログラムに関する。
従来、ステージ等に配置されたマイクに入力された歌唱音や楽器の演奏音等の音信号のレベルや周波数特性を調整してミキシングし、パワーアンプに送り出すステージ等で使用されるミキサが知られている。ミキサは音信号処理装置の一種であって、楽器音や歌唱音の音信号を扱う複数のチャンネルを有し、各チャンネルは、音信号の音量や音色を演奏を最もふさわしく表現していると思われる状態に調整されている。
ステージにおいてバンドが演奏を行う際のミキサのセッティングについて説明すると、ミキサとメインスピーカを設置して、それぞれのメインスピーカからのケーブルをミキサのアウトプットに接続する。次にステージ上に演奏者用のモニタスピーカを設置し、それぞれのモニタースピーカからのケーブルをミキサのモニター用アウトプットに接続する。さらに、歌唱音や楽器音が入力されるマイクや電子楽器からのケーブルをミキサのインプットに接続する。次に、各チャンネルのセッティングを行うが、インプットが入力パッチによりどのチャンネルにつながれているかを確認することで、それぞれのチャンネルに歌唱音および楽器音のうちのどの音信号が入力されているかを把握して、各チャンネルの音量や音色の細かいパラメータの設定を行う。
ここで、各チャンネルには、アッテネータ、イコライザ、ダイナミクス、フェーダが備えられているとして、チャンネルのセッティングを説明する(非特許文献1参照)。まず、ミキサのそれぞれのチャンネルのインプットのゲインをアッテネータで調整する。各チャンネルのレベルが適正になったら、実際に曲を演奏してバランスよく聞こえるようにフェーダーを使って音量を調整する。この調整では、ミキシングされた時に、ボーカルの音が聞こえやすくなると共に、楽器本体の音が大きい楽器の音量がボーカルとバランスするよう調整する。また、イコライザを調整して、各楽器の得意な音域を増幅し、不要な音域を減衰させることにより、各楽器同士の音域のすみ分けができバランスがよくなるようにする。さらに、ダイナミクスを調整して、音信号の音圧が上がり迫力が出てくるようにする。
また、各演奏者が周りの音や自分の演奏がよく聞こえるようモニタースピーカの音量や配置位置を調整する。
特開平2−68597号公報 特許第3170596号公報
ヤマハ株式会社 PAビギナーズガイド バンド編[online], [平成27年 9月15日検索],インターネット<http://www.yamahaproaudio.com/japan/ja/training_support/pa_guide_beginner/band_pa/>
上記したように、従来のミキサでは、多数のインプットおよびアウトプットの端子が並列的に存在している。このため、どの演奏者がどの楽器を演奏しているのかや、楽器ごとにどのスピーカーにどれだけの音量等がアサインされているのかを、ミキサの設定を見ても直感的に分かりづらかった。また、従来のミキサはいわゆるプロユースであり、初心者等のミキサの扱いに慣れていないユーザにとってはミキサをセッティングすることが難しいという問題点があった。
ここで、特許文献1には、演奏場内の楽器位置に応じた音場を再現するために使用されるパラメータを簡単な操作で所望の楽器位置に応じた音場を再現するようにした楽音パラメータ制御装置が開示されている。この楽音パラメータ制御装置では、演奏場に対応するパネルにタッチすることで楽器位置を指定し、指定した楽器位置に楽器アイコンを表示すると共に、指定した楽器位置情報を楽音パラメータ情報に変換するようにしている。この場合、演奏場の前後方向の楽器位置に対応したリバーブ効果の大きさとすることができる。また、特許文献2には、ステージ上に複数の演奏パートをそれぞれ表す楽器プレイヤーアイコンを複数表示し、この楽器プレイヤーアイコンが楽器と、その楽器を演奏する演奏者の図柄とされていることが開示されている。
しかしながら、いずれの文献においても、楽器と演奏者との対応付けや、楽器ごとにスピーカにどれだけの音量がアサインされるかについては、一切記載されていない。すなわち、ライブ会場におけるミキサをセッティングする現場では、音響エンジニアが演奏者ごとに調整を行うことから、楽器と演奏者との対応付けが明確でない従来のミキサでは、当該対応付けを把握するために時間を要し、作業が非効率的になってしまう。このため、ミキサに対するスキルの低いユーザでは、ミキサのセッティングを行うことが困難になり、ミキサに対するスキルが高いユーザでも、ミキサのセッティングを効率的に行うことが難しいという問題点があった。
そこで、本発明は、楽器と演奏者との対応付けを明確にして、音信号処理装置のセッティングを簡単に行うことができる音信号処理装置用プログラムを提供することを目的としている。
上記目的を達成するために、本発明の音信号処理装置用プログラムは、楽器の演奏音である音信号が入力チャンネルに入力され、入力された音信号が処理されて出力される音信号処理装置をセッティングする音信号処理装置用プログラムであって、コンピュータに、楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示する演奏者アイコン表示手順と、前記音信号が前記入力チャンネルに入力された際に、入力された前記音信号の種別に応じた楽器アイコンを、入力された前記入力チャンネルに対応させて、前記表示器に表示する楽器アイコン表示手順と、前記演奏者アイコンと、前記楽器アイコンとを関連付ける関連付け手順とを実行させることを最も主要な特徴としている。
本発明は、上記のようにプログラムとして実施する他、システム、方法、装置、記録媒体等、任意の態様で実施することができる。
本発明の音信号処理装置用プログラムは、演奏を行う演奏者に対応して表示器に表示された演奏者アイコンと、入力された音信号の種別に応じた楽器アイコンとを関連付けることで、演奏者アイコンに対応する演奏者に、楽器アイコンに対応する楽器がアサインされる。
これにより、本発明の音信号処理装置用プログラムでは、楽器と演奏者との対応付けが明確になる。
さらに、その楽器からの演奏音である音信号が入力されるチャンネルに、楽器アイコンで示される楽器に特有の音パラメータが設定されることで、音信号処理装置のセッティングを簡単に行うことができるようになる。
本発明にかかる音信号処理装置用プログラムが実行されるタブレット端末が接続されたミキサの構成を示す機能ブロック図である。 図1に示すミキサにおけるミキシング処理の構成を示す図である。 図1に示すミキサにおける入力チャンネルの構成の詳細を示す図である。 本発明にかかる音信号処理装置用プログラムが実行されるタブレット端末の構成を示す機能ブロック図である。 本発明にかかる音信号処理装置用プログラムが実行される際に表示されるキャスティングモードの画面を示す図である。 本発明にかかる音信号処理装置用プログラムが実行される際に表示されるステージモードの画面を示す図である。 本発明の音信号処理装置用プログラムで実行される第1実施例のキャスティングモード処理のフローチャートである。 本発明の音信号処理装置用プログラムで実行される第2実施例のキャスティングモード処理のフローチャートである。 本発明の音信号処理装置用プログラムで実行されるステージモード処理のフローチャートである。
以下、本発明を実施するための形態を図面に基づいて具体的に説明する。
まず、本発明の実施形態である音信号処理装置用プログラムが実行されるタブレット端末2が接続されたミキサ1の構成を図1に示す。
図1に示すミキサ1は、CPU(Central Processing Unit)10、フラッシュメモリ11、RAM(Random Access Memory)12、その他I/O13、波形I/O14、信号処理部15(DSP:Digital Signal Processor)、表示器16、電動フェーダ17、操作子18を備え、これらを通信バス19により接続している。
このうちCPU10は、ミキサ1の動作を統括制御する制御手段であり、フラッシュメモリ11に記憶された所要のプログラムを実行することにより、波形I/O14における音信号の入出力や表示器16における表示の制御、電動フェーダ17および操作子18の操作に従ったパラメータの編集、信号処理部15における信号処理の制御といった処理を行う。フラッシュメモリ11はCPU10が実行する制御プログラムやプリセット等を記憶する書き換え可能な不揮発性記憶手段であり、RAM12はCPU10が各種のデータを書き込み及び読み出しする揮発性記憶手段であり、CPU10のワークメモリ、ミキサ1のカレントメモリとしても使用される。
その他I/O13は、種々の外部機器を接続し入出力を行うためのインタフェースであり、図示する場合はタブレット端末2が接続されている。タブレット端末2で本発明の音信号処理装置用プログラムを実行することにより、ミキサ1のセッティングを行うことができる。その他I/O13における通信に用いる規格は、イーサネット(商標)、USB(Universal Serial Bus)等、任意のものを採用することができ、有線無線も問わない。また、その他I/O13には、複数の外部機器を同時に接続することができ、外部メモリやパーソナルコンピュータ(PC)も接続することができる。PCで本発明の音信号処理装置用プログラムを実行することにより、ミキサ1のセッティングを行うこともできる。
表示器16は、CPU10の制御に従って種々の情報を表示する表示手段であり、例えば液晶パネル(LCD)や発光ダイオード(LED)によって構成できる。電動フェーダ17は、ミキサ1に入力された音信号の音量などの音響特性を、使用目的に応じた状態に設定している。操作子18は、ユーザによるミキサ1に対する操作を受け付けるためのものであり、種々のキー、ボタン、ロータリーエンコーダ、スライダ等によって構成できる。
波形I/O14は、信号処理部15で処理すべき音信号の入力を受け付け、また処理後の音信号を出力するためのインタフェースである。波形I/O14は、音信号を外部から受け取り信号処理部15に供給する入力ポート、信号処理部15からの音信号を出力する出力ポートを、それぞれ複数備えている。
信号処理部15は、複数のDSPを含むDSP群として構成され、波形I/O14から供給される音信号にミキシングやイコライジング等の信号処理を施し、信号処理後の音信号を再び波形I/O14に出力する機能を備える。その信号処理は各種処理パラメータの現在値(カレントデータ)に基づいて制御される。そのカレントデータは、上記操作子18の操作によりユーザが編集可能であり、RAM12あるいはDSPに備える所定のメモリに記録される。カレントデータが記録されるメモリを、カレントメモリという。
なお、ミキサ1のセッティングは外部接続されたタブレット端末2を使用して行うことができるので、電動フェーダ17および操作子18を省略することができる。
次に、図2に、波形I/O14、信号処理部15により実現されるミキシング処理の構成を示す。なお、以降の説明ではチャンネルをchとして記載する。
図2に示すように、信号処理部15は、入力ch21、ミキシング用のバス22、出力ch23から構成され、一般的なミキサが備えている入力パッチおよび出力パッチは備えていない。
入力ポート20からの音信号は入力chに供給される。例えば、20chとされる各入力ch21では、供給された音信号に対してレベルや周波数特性を調整する信号処理を施し、信号処理後の音信号を、例えば6系統のバス22のうちの1または複数系統のバスへ送出する。なお、その送出時には、送出する音信号のレベルをバス毎に個別に変更できる。各バス22では、各入力ch21から入力される音信号をミキシングし、ミキシング結果の音信号を、バス22の系統ごとに設けられている出力ch23へ送出する。例えば、6chとされた各出力ch23では、バス22から供給される音信号に対してヘッドアンプ、イコライザ、コンプレッサ等の一連の処理ブロックでそれぞれ信号処理を施し、信号処理後の音信号を出力ポート24から送出する。
次に、図3に、入力ch21における1つの入力チャンネルの詳細構成を示す。
図3に示すように、入力ch21には、入力ポート20からの音信号が入力され、バス22へ音信号を送る経路には、アッテネータ30、イコライザ31、ダイナミクス32、フェーダ33a〜33f、chスイッチ34a〜34fのそれぞれ異なる信号処理を行う各コンポーネントが縦続して設けられている。ここで、アッテネータ30は入力信号のゲインを調整する処理を行うレベル制御器である。また、イコライザ31は入力信号の周波数特性を調整する処理を行うイコライザであり、例えばHIGH、HIGH MID、LOW MID、LOWの4バンドを備えている。また、ダイナミクス32は、信号の入力レベルが閾値以上になると一定のレートで出力レベル(ゲイン)を小さくしてダイナミックレンジを圧縮する信号処理モジュールである。フェーダ33a〜33fは、6系統のバス22に対してそれぞれ設けられており、バス22に送るレベルをバス毎に調整している。chスイッチ34a〜34fは、6系統のバス22に対してそれぞれ設けられており、入力chのオン/オフをバス毎に行うスイッチである。なお、マイクや楽器のゲインは様々なことからアッテネータ30、イコライザ31、ダイナミクス32が、入力ch21毎に設けられている。すなわち、ユーザは、アッテネータ30、イコライザ31、ダイナミクス32を、入力ch21毎に調整し、バス22毎には調整しない。ただし、ユーザは、バス22への送りレベルはフェーダ33a〜33fによりバス22ごとに調整する。
図4に、タブレット端末2のハードウェア構成を示す。
図4に示すタブレット端末2は、CPU40、フラッシュメモリ41、RAM42、外部I/O43、表示器44、操作子45を備え、これらを通信バス46により接続している。
このうちCPU40は、タブレット端末2の動作を統括制御する制御手段であり、フラッシュメモリ41に記憶された本発明の音信号処理装置用プログラム等の所要のアプリケーションプログラム(以下、「アプリ」という)を実行することにより、ミキサ1のセッティングなどの、アプリに応じた処理を行う。フラッシュメモリ41はCPU40が実行する各種プログラムやプリセット等を記憶する書き換え可能な不揮発性記憶手段であり、RAM42はCPU40が各種のデータを書き込み及び読み出しする揮発性記憶手段であり、CPU40のワークメモリとしても使用される。
外部I/O43は、種々の外部機器に接続し入出力を行うためのインタフェースである。外部I/O43を介してミキサ1に接続したタブレット端末2で本発明の音信号処理装置用プログラムを実行することにより、ミキサ1のセッティングを行うことができる。外部I/O43における通信に用いる規格は、イーサネット(商標)、USB等、任意のものを採用することができ、有線無線も問わない。表示器44は、CPU10の制御に従って種々の情報を表示する表示手段であり、タッチパネルを積層したLCDの表示器で構成され、ユーザの操作を受け付けるためのGUI(グラフィカルユーザインタフェース)画面を表示する。例えば、後述するキャスティングモードの画面3やステージモードの画面4が表示される。操作子45は、タブレット端末2に対する操作を受け付けるためのものであり、種々のキー、ボタン、タッチパネル等によって構成できる。
次に、本発明の音信号処理装置用プログラムがタブレット端末2で実行された時に、タブレット端末2の表示器44に表示されるキャスティングモードの画面3を図5に示す。
図5に示すようにキャスティングモードの画面3の上部には、バンド名表示部3a、バンド選択部3b、モード選択部3cが設けられている。バンド選択部3bをクリックすると、図示しないバンド選択画面のウィンドウが開き、このバンド選択画面において、ミキサ1が備えられたステージを使用するバンドを選択する。「Ambient くらげ」のバンド名のバンドが選択された場合が図5に示されており、バンド名表示部3aに「Ambient くらげ」と表示される。モード選択部3cでは、キャスティングモードとステージモードのいずれかを選択でき、「Casting」の字が白抜きで表示されてキャスティングモードが選択されていることが図示されている。キャスティングモードの画面3の下部には、選択されたバンドを構成している演奏者であるメンバを表す演奏者アイコン(Pアイコン)3fがメンバ数だけ表示されている。Pアイコン3fは、氏名(芸名)および顔写真や顔のイラストが表示されるカード(Pカード)とすることができ、図示する場合は、「メンバA」「メンバC」「メンバF」「メンバG」の4名のバンドメンバが表示されている。
また、画面3の右下に「newメンバ」のアイコンが表示されているが、このアイコンはメンバ追加部3gのアイコンであり、クリックするとメンバが追加されて追加されたメンバを表すPアイコン3fが画面3に追加表示される。
キャスティングモードでは、バンドの各メンバに、各メンバが演奏する楽器を関連付ける処理を行うことができ、キャスティングモード処理を図7に示すキャスティングモード処理のフローチャートで説明する。
なお、ユーザは、キャスティングモード処理を起動するに先立ち、ステージ上に配置されたボーカル用および楽器用のマイクや電子楽器からのケーブルを、ミキサ1の入力ポート20に接続すると共に、ステージ上に配置されたメインスピーカおよびモニタースピーカからのケーブルをミキサ1の出力ポート24に接続しておく。また、ミキサ1のその他I/O13にタブレット端末2を接続しておく。
タブレット端末2において、本発明の音信号処理装置用プログラムが起動されて、モード選択部3cでキャスティングモードが選択されると、キャスティングモード処理がスタートする。なお、音信号処理装置用プログラムが起動された際に、デフォルトでキャスティングモード処理がスタートしてもよい。キャスティングモード処理はタブレット端末2のCPU40が実行する。ここでは、第1実施例である図7に示すキャスティングモード処理(その1)について説明する。
キャスティングモード処理(その1)がスタートすると、ステップS10にてバンド名表示部3aに表示されているバンド名「Ambient くらげ」のメンバデータをCPU40が読み出して、メンバデータにおける演奏者情報を取得する。この場合、「Ambient くらげ」のバンドが選択されており、選択可能なバンドのメンバデータを予め音信号処理装置用プログラムのフォルダや外部接続された外部メモリに保存しておく。メンバデータには、バンド名、バンドを構成しているメンバのメンバ数、各メンバ(演奏者)の演奏者情報が含まれている。演奏者情報は、各メンバのID(氏名(芸名)としてもよい)、そのメンバが演奏可能な楽器の情報、そのメンバを表すPアイコン3fに表示される顔写真やイラストなどからなる情報が登録されている。CPU40は、バンド名から検索されたバンドのメンバデータにおける演奏者情報を取得すると、ステップS11にて演奏者情報に基づいて、演奏者アイコンであるPアイコン3fをキャスティングモードの画面3に表示する。「Ambient くらげ」のバンドが「メンバA」「メンバC」「メンバF」「メンバG」の4名で構成されていることがメンバデータから取得され、この4名のメンバのPアイコン3fがキャスティングモードの画面3に表示されている。メンバを表すPアイコン3fが画面3に表示しきれない時は、スクロールやレイヤー切り替えで表示する。
ステージ上において楽器を持つメンバが自分の楽器を演奏すると、その演奏音である音信号が、当該楽器が接続されている入力ポート20に対応する入力ch21に供給され、特定の入力ch21に音信号が供給されたことをステップS12でCPU40が検出する。この場合、メンバの全員が自分の楽器を演奏し、当該楽器に対応する入力ch21のそれぞれにおいて音信号が供給されたことが検出される。ステップS13でCPU40は、ステップS12で音信号が検出された入力chに対応する楽器表示エリア3dを画面3に表示する。図5では、ch1〜ch6において音信号が検出され、その6チャンネル分の楽器表示エリア3dが表示されている。楽器表示エリア3dが画面3に表示しきれない時は、スクロールやレイヤー切り替えで表示する。なお、この明細書では特に断らない限りボーカルも楽器として扱うと共に、携帯用を含む楽器再生装置も楽器として扱うことにする。なお、携帯用を含む楽器再生装置は、ミキサ1のある入力ポート20に接続され、その入力ポート20に対応する入力ch21に音信号を供給することができる。ステップS14でCPU40は、音信号が検出されたch1〜ch6の各入力ch21において、供給された音信号の音源について、楽器を割り出すために波形分析を行う。次いで、ステップS15で各入力ch21に供給された音源の楽器を割り出し、割り出された楽器である可能性係数を算出する。この可能性係数の算出は、CPU40あるいは、ミキサ1の信号処理部15のDSPに行わせることができる。また、外部I/O43を介してタブレット端末2をネットワークに接続して、ネットワーク上のサーバに可能性係数の算出を行わせてもよい。ステップS15の処理では、音源から発せられる音を解析して、その特徴を表現した特徴データを生成して音源データベースに登録しておき、供給された音信号を解析して特徴データを生成して、音源データベースに登録された特徴データと相関演算し、相関値を可能性係数として算出する。
ステップS16でCPU40は、割り出された楽器があるか否かを判断する。この場合、ステップS15で演算を行った入力ch21において算出した可能性係数が所定値を超えている場合は、割り出された楽器がある(ステップS16のYes)と判断して、ステップS17でCPU40は、当該入力ch21に対応する楽器表示エリア3dにおいて、割り出された楽器を表す楽器アイコン(Iアイコン)3eを算出された可能性係数の大きさに応じた態様で表示する。例えば、図示するch1において「E guitar(エレキギター)」「A guitar(アコースティックギター)」「E bass(エレキベースギター)」の3つの楽器が割り出され、その順で可能性係数が大きくされている場合は、ch1に対応する楽器表示エリア3d内に最も可能性係数が大きい「E guitar」のIアイコン3eが最前面に、最も可能性係数の小さい「E bass」が最後面になるよう重ねて表示される。Iアイコン3eはその楽器を表すイラストの図柄のカード(Iカード)とすることができる。また、ch2に対応する楽器表示エリア3d内には、割り出された「M vocal(男性ボーカル)」と「F vocal(女性ボーカル)」のIアイコン3eがその順で表示され、ch3に対応する楽器表示エリア3d内には、割り出された「piano」と「organ」のIアイコン3eがその順で表示されている。また、算出された可能性係数の大きさに応じた態様の表示では、Iアイコン3eの大きさ、Iアイコン3eの光り具合や色、または、Iアイコン3eの振動具合等の表示態様としてもよい。また、可能性係数の最も高いIアイコン3eを強調して表示するようにしてもよい。
また、ch4〜ch6を用いてドラムキットが表示されている。この場合、ドラムキットは特定の複数の楽器で構成されることから、予め「Snare」、「Kick」、「Hi-Hat」などの特定の楽器をドラムキットとしてグループ化されるように定めておくとよい。そして、グループ化されるよう定めておくと、これらの特定の楽器が検出された際に、各チャンネル(楽器)が自動的に図5に示すようにグループ表示される。なお、ドラムキットは、複数の楽器の数に対応した複数chを使うので、ドラムキットの回りにその複数chの楽器表示エリア3dが図示するように表示される。複数chの各楽器表示エリア3dのほぼ中央には、ドラムキットを表すドラムキット3hの楽器アイコンが表示される。具体的には、ドラムキット3hの周囲にch4,ch5,ch6に対応する3つの楽器表示エリア3dが配置され、ch4に対応する楽器表示エリア3d内には、割り出された「Hi-Hat」のIアイコン3eが2つ表示され、ch5に対応する楽器表示エリア3d内には、割り出された「Snare」のIアイコン3eが2つ表示され、ch6に対応する楽器表示エリア3d内には、割り出された「Kick」のIアイコン3eが2つ表示されている。ch4,ch5,ch6に対応する3つの楽器表示エリア3dは円弧でつながれており、ch4〜ch6がグループとなっていることが示されている。
ステップS15に戻り、ステップS15で演算を行った入力ch21において算出した可能性係数が低く楽器を割り出せない場合は、割り出された楽器がない(No)と判断して、分岐したステップS18でCPU40は、当該入力ch21に対応する楽器表示エリア3d内に、楽器が不明であることを示すアイコン(例えば、「?」のアイコン)を表示する。
ステップS17あるいはステップS18の処理が終了するとステップS19に進み、ステップS19でCPU40は、ステップS10で取得した演奏者情報と、割り出された楽器の情報とに応じて、Pアイコン3fと、楽器表示エリア3dとの距離を調節して画面3に表示する。すなわち、特定の演奏者情報における演奏可能な楽器の情報と、割り出された楽器の情報とが一致する場合は、当該演奏者情報に対応するPアイコン3fに、割り出された楽器のIアイコン3eが表示されている楽器表示エリア3dを近づけるよう移動させて表示する。この場合の、楽器の情報はギター系とかキーボード系とかの系統として捉えた楽器の情報とされる。
次いで、ステップS20でCPU40は、いずれかの楽器表示エリア3d内に表示されているIアイコン3eの一つが選択されて、Pアイコン3fのいずれかにドロップされるなどの操作が行われて、Iアイコン3eとPアイコン3fとが関連付けされたか否かを判断する。ここで、Iアイコン3eのいずれもPアイコン3fに関連付けされていない場合(ステップS20のNo)は、ステップS12に戻り、次の入力ch21に対するステップS12ないしステップS20の処理が再度行われる。ステップS12ないしステップS20の処理が繰り返し行われることにより、各入力ch21に供給された音信号の音源の波形分析を行い、楽器を割り出すために可能性係数が全入力ch21について算出される。さらに、割り出された楽器に対応するIアイコン3eが、該当する入力ch21に対応する楽器表示エリア3d内に表示される。
また、選択されたIアイコン3eがPアイコン3fに関連付けされた場合(ステップS20のYes)は、ステップS21でCPU40は、選択されたIアイコン3eに対応する楽器を、関連付けされたPアイコン3fに対応するメンバにアサインする。さらに、アサインされた楽器の種別である楽器情報を、そのメンバの演奏者情報に追加して、メンバは当該楽器を演奏することができると定義する。この場合、選択されたIアイコン3eに対応するステージ上の楽器からの音信号(演奏音)が、選択されたIアイコン3eが表示されている楽器表示エリア3dに対応する入力ch21に入力されることから、この入力ch21に当該楽器に特有のパラメータをセッティングする。パラメータは、その入力ch21におけるイコライザ31およびダイナミクス32のパラメータとされる。次いで、ステップS22でCPU40は、関連付けされていることを示す表示態様で、関連付けされたIアイコン3eとPアイコン3fとを表示する。例えば、図5に示すように小さくされたIアイコン3eを関連付けされたPアイコン3fに密着させて表示する。
以上の処理が終了すると、ステップS23でCPU40は、キャスティングモードが終了されたか否かを判断する。ここで、Iアイコン3eの他の一つが選択されて、Pアイコン3fのいずれかにドロップされるなどの操作が行われ、Iアイコン3eとPアイコン3fとを関連付ける操作が行われた(ステップS23のNo)場合は、ステップS21に戻り上記したステップS21およびステップS22の処理が再度行われる。ステップS21およびステップS22の処理を繰り返し行うことにより、バンドの全てのメンバに自分が演奏する楽器が関連付けられると共に、その楽器からの音信号が供給される入力ch21に、その楽器に特有のパラメータがセッティングされるようになる。また、モード選択部3cにおいて「Stage」ボタンがクリックされたり、音信号処理装置用プログラムが終了された場合(ステップS23のYes)は、キャスティングモード処理(その1)は終了する。
上記説明したように、Iアイコン3eとPアイコン3fとを関連付ける操作は、ユーザが複数回行うことができる。そして、Iアイコン3eとPアイコン3fとを関連付ける操作は、ステージ上にいるバンドのメンバが演奏している楽器をユーザが実際に見て、その楽器をそのメンバに関連付ける操作を行うことになる。例えば、キャスティングモードの画面3が図5に示す表示態様となっており、「メンバA」が「E guitar」を演奏していた場合は、ch1の楽器表示エリア3d内に表示されている「E guitar」のIアイコン3eを選択して、矢印で示すように「メンバA」のPアイコン3fにドラッグ&ドロップする。また、「メンバF」が「organ」を演奏していた場合は、ch3の楽器表示エリア3d内に表示されている「organ」のIアイコン3eを選択して、矢印で示すように「メンバF」のPアイコン3fにドラッグ&ドロップする。さらに、「メンバG」が「F vocal」を演奏(歌唱)していた場合は、ch2の楽器表示エリア3d内に表示されている「F vocal」のIアイコン3eを選択して、「メンバG」のPアイコン3fにドラッグ&ドロップする。そして、Pアイコン3fにIアイコン3eをドラッグ&ドロップすると、Iアイコン3eに対応する楽器の楽器名あるいは楽器のイラストなどの小さくされたアイコンが、図5に示すようにPアイコン3fに密着して表示される。
第1実施例のキャスティングモード処理(その1)では、ミキサ1に入力パッチが無く、楽器からの音信号が供給される入力ポート20と入力ch21とは1対1で対応している。これにより、楽器からのケーブルをミキサ1の入力ポート20に接続して、その楽器の演奏を担当するメンバが演奏するだけで、その楽器が音信号が入力された入力chに関連付けられて、その楽器のIアイコン3eが画面3に表示されるようになる。そして、関連付けられた入力chには、その楽器に特有のパラメータがセッティングされる。そして、ステージ上のバンドのメンバと、メンバが演奏する楽器を見ながら、画面上に表示されている楽器を表す楽器アイコン(Iアイコン)を、楽器の演奏者であるバンドのメンバの演奏者アイコン(Pアイコン)にドラッグ&ドロップなどの操作で関連付けることにより、メンバと楽器と入力chとのセッティングを簡単に行うことができるようになる。
次に、第2実施例である図8に示すキャスティングモード処理(その2)について説明する。
キャスティングモード処理(その2)がスタートすると、ステップS40にてバンド名表示部3aに表示されているバンド名「Ambient くらげ」のメンバデータをCPU40が読み出して、そのバンドを構成している演奏者情報を取得する。CPU40は演奏者情報を取得すると、ステップS41にて演奏者情報に基づいて、演奏者アイコンであるPアイコン3fをキャスティングモードの画面3に表示する。「Ambient くらげ」のバンドが「メンバA」「メンバC」「メンバF」「メンバG」の4名で構成されていることがメンバデータから取得され、この4名のメンバのPアイコン3fがキャスティングモードの画面3に表示されている。メンバを表すPアイコン3fが画面3に表示しきれない時は、スクロールやレイヤー切り替えで表示する。
ここで、ステージ上の一人のメンバに自分の楽器を演奏させると共に、複数のPアイコン3fのうちの、演奏させたメンバに対応する1つのPアイコン3fを選択すると、ステップS42でCPU40は、選択されたPアイコン3fを検出する。次いで、ステップS43でCPU40は、音検出された入力ch21があるか否かを判断する。ここで、選択されたメンバが楽器を演奏して音検出された入力ch21がある場合(ステップS43のYes)は、ステップS44でCPU40が、音検出された入力ch21に対応する楽器表示エリア3dを画面3に表示する。また、音検出された入力ch21がない場合(ステップS43のNo)は、選択されたメンバが楽器を演奏して音検出されるまで待機する。次に、ステップS45でCPU40は、ステップS42で検出されたPアイコン3fに対応するメンバ(演奏者)と、ステップS43で音検出された入力ch21とを関連付ける。すなわち、選択されたメンバによる演奏音(音信号)が、音検出された入力ch21に供給されることに基づき、関連付けられることになる。ステップS46でCPU40は、音検出された入力ch21に供給された音信号の音源について、楽器を割り出すために波形分析を行う。次いで、ステップS47で各入力ch21に供給された音源の楽器を割り出し、割り出された楽器である可能性係数を算出する。この可能性係数の算出は、CPU40あるいは、ミキサ1の信号処理部15のDSPに行わせることができる。また、外部I/O43を介してタブレット端末2をネットワークに接続して、ネットワーク上のサーバに可能性係数の算出を行わせてもよい。
そして、ステップS48でCPU40は、割り出された楽器があるか否かを判断する。この場合、ステップS47で演算を行った入力ch21において算出した可能性係数が所定値を超えている場合は、割り出された楽器がある(ステップS48のYes)と判断して、ステップS49でCPU40は、当該入力ch21に対応する楽器表示エリア3dにおいて、割り出された楽器を表す楽器アイコン(Iアイコン)3eを算出された可能性係数の大きさに応じた態様で表示する。例えば、入力ch21がch1であった場合は、図5に示すように「E guitar(エレキギター)」「A guitar(アコースティックギター)」「E bass(エレキベースギター)」の3つの楽器が割り出され、その順で可能性係数が大きくされている場合は、ch1に対応する楽器表示エリア3d内に最も可能性係数が大きい「E guitar」のIアイコン3eが最前面に、最も可能性係数の小さい「E bass」が最後面になるよう重ねて表示される。次いで、ステップS50でCPU40は、割り出された楽器について、その可能性係数が最も大きい楽器を、その入力ch21の楽器情報として、この入力ch21に当該楽器に特有のパラメータをセッティングする。パラメータは、その入力ch21におけるイコライザ31およびダイナミクス32のパラメータとされる。また、算出された可能性係数の大きさに応じた態様の表示では、Iアイコン3eの大きさ、Iアイコン3eの光り具合や色、または、Iアイコン3eの振動具合等の表示態様としてもよい。また、可能性係数の最も高いIアイコン3eを強調して表示するようにしてもよい。
さらに、ステップS51でCPU40は、当該楽器をステップS42で選択された演奏者の楽器としてアサインし、その演奏者情報にアサインされた楽器の楽器情報を追加して、選択された演奏者(メンバ)は当該楽器を演奏することができると定義する。また、割り出された楽器がない(ステップS48のNo)場合は、ステップS52でCPU40は、当該入力ch21に対応する楽器表示エリア3d内に、楽器が不明であることを示すアイコン(例えば、「?」のアイコン)を表示する。次いで、ステップS53でCPU40は、関連付けされていることを示す表示態様で、関連付けされたIアイコン3eとPアイコン3fとを表示する。例えば、図5に示すように小さくされたIアイコン3eを関連付けされたPアイコン3fに密着させて表示する。
以上の処理が終了すると、ステップS54でCPU40は、キャスティングモードが終了されたか否かを判断する。ここで、複数のPアイコン3fのうちの次のPアイコン3fが選択された場合(ステップS54のNo)は、ステップS42に戻り上記したステップS42ないしステップS53の処理が再度行われる。ステップS42ないしステップS53の処理を繰り返し行うことにより、バンドの全てのメンバに自分が演奏する楽器が関連付けられると共に、その楽器からの音信号が供給される入力ch21に、その楽器に特有のパラメータがセッティングされるようになる。ただし、ステップS42の処理を行う際には、選択されたPアイコン3fに対応するメンバだけに、自分の楽器を演奏させることが必要となる。また、モード選択部3cにおいて「Stage」ボタンがクリックされたり、音信号処理装置用プログラムが終了された場合(ステップS54のYes)は、キャスティングモード処理(その2)は終了する。
このように、第2実施例のキャスティングモード処理(その2)では、ミキサ1に入力パッチが無く、楽器からの音信号が供給される入力ポート20と入力ch21とは1対1で対応している。楽器からのケーブルをミキサ1の入力ポート20に接続して、ステージ上のバンドのメンバの一人に対応するPアイコン3fを選択し、そのメンバに自分の楽器を演奏させる。これにより、その楽器が音検出された入力chに関連付けられて、その楽器に特有のパラメータがセッティングされる。また、関連付けられた楽器を割り出して、選択されたPアイコン3fに対応するメンバにアサインされるので、メンバと楽器と入力chとのセッティングを簡単に行うことができるようになる。
次に、モード選択部3cにおいて「Stage」ボタンがタッチされると、図6に示すステージモードの画面4が表示器44に表示される。
図6に示すようにステージモードの画面4の上部には、バンド名表示部4b、モード選択部4cが設けられている。バンド名表示部4bで表示されているバンド名「Ambient くらげ」は、キャスティングモードで選択されたバンド名であり、ステージモードでは選択することはできない。モード選択部4cでは、キャスティングモードとステージモードのいずれかを選択でき、「Stage」の字が白抜きで表示されてステージモードが選択されていることが図示されている。ステージモードの画面4の全体に選択されたバンドが演奏する実際のステージを模したステージ4aが表示され、ステージ4a上には選択されたバンドを構成しているメンバを表す演奏者アイコン(Pアイコン)4pと、メンバが演奏する楽器を表す楽器アイコン(Iアイコン)4dと、客席用のスピーカ(SP1,SP2)とモニター用のスピーカ(SP3)とのSPアイコン4eが表示される。
Iアイコン4dは、キャスティングモードで割り出された楽器数だけ表示されており、その楽器に関連付けられたメンバのステージ4a上の位置、すなわち、楽器が配置されている位置にIアイコン4dが表示されている。また、Pアイコン4pはキャスティングモードで指定されたバンドのメンバ数だけ表示され、そのメンバのステージ4a上の位置に表示されている。この場合、楽器にメンバが関連付けされている(メンバはその楽器を担当している)ことからIアイコン4dの表示位置はPアイコン4pの表示位置と同じとなる。また、Iアイコン4dは、楽器の楽器名やイラストで表示されているカード(Iカード)とすることができ、Pアイコン4pは、メンバの氏名(芸名)、あるいは、顔写真や顔のイラストで表示されているカード(Pカード)とすることができる。図示する場合は、「E guitar」、「E bass」、「F vocal」、「piano」と「organ」の5つのIアイコン4dがステージ4a上に配置された位置であって、当該楽器がアサインされたメンバのPアイコン4pの上にそれぞれ密着して表示されている。この場合、「E guitar」が「メンバA」に、「E bass」が「メンバC」に、「F vocal」が「メンバG」にアサインされ、「piano」と「organ」の2つの楽器が「メンバF」にアサインされている。ただし、2つ以上の楽器が一人のメンバにアサインされる場合は、Iアイコン4dは横に並べて表示される。また、各スピーカのSPアイコン4eは、実際のステージ上の配置位置に対応するステージ4a上の位置に表示されている。
画面4の右側には各メンバが演奏する楽器の演奏音(音信号)の音質を調整する調整ツマミ4h〜4jと、スピーカから放音する音量を調整するフェーダ4kと、調整されるメンバを表示するメンバ選択表示部4mとスピーカを表示するスピーカ選択表示部4nとが表示されている。画面4のステージ4a上において、ハッチングを施して示すように「メンバA」のPアイコン4pおよび「E guitar」のIアイコン4dと、「SP3」のSPアイコン4eとがユーザにより選択されると、選択された「メンバA」のPアイコン4pおよび「E guitar」のIアイコン4dとがメンバ選択表示部4mに表示され、「SP3」のSPアイコン4eがスピーカ選択表示部4nに表示される。なお、Pアイコン4pとIアイコン4dとはいずれかをユーザが選択すると、関連付けられている他方も選択される。この場合、ユーザは、メンバAが演奏する「E guitar」の演奏音(音信号)が供給される入力ch21のアッテネータ30のゲインを調整ツマミ4hにより、イコライザ31の特性を調整ツマミ4iにより、ダイナミクス32の特性を調整ツマミ4jにより調整できる。また、ユーザは、フェーダ33a〜33fのレベルをフェーダ4kにより一括して調整することができる。このように、ユーザは、「メンバA」が演奏した「E guitar」の演奏音がモニター用のスピーカ「SP3」から放音される際の音質および音量を調整ツマミ4h〜4jとフェーダ4kにより調整することができる。上記のようにして、各楽器の演奏音がスピーカから放音される際の音質や音量を、楽器毎に調整することができる。そして、調整されたパラメータでミキサ1のカレントメモリのカレントデータが更新される。
画面4の下部には、4つのシーン選択ボタン4fとストアボタン4gとが表示されており、ストアボタン4gをクリックするとシーン選択ボタンで選択されたシーン番号のシーンに調整ツマミ4h〜4jとフェーダ4kで調整されたパラメータ値で更新されたカレントデータが保存されるようになる。このシーンには、選択されたバンドの各メンバが演奏する楽器に特有のパラメータが含まれ、取得したステージ情報のステージで選択されたバンドが演奏する時のシーンを再現することができる。シーンは、例えばシーン1〜4を保存することができ、シーンのいずれかを読み出すことにより、そのシーンが再現されるようにミキサ1がセッティングされる。シーン1〜4のデータは、タブレット端末2やミキサ1、あるいは、外部接続されたメモリに保存することができる。
図9にステージモード処理のフローチャートを示し、次に、ステージモード処理を説明する。
図9に示すステージモード処理は、キャスティングモードの画面3においてモード選択部3cの「Stage」ボタンがクリックされるとスタートし、ステップS60でCPU40は、選択されたバンドが演奏するステージの奥行きや大きさなどのステージ情報、バンドを構成する各メンバの演奏者情報、ステージ上のメンバの位置である演奏者位置情報、メンバが演奏する楽器の楽器情報、客席用やモニター用などのスピーカ情報、スピーカの配置位置であるスピーカ位置情報を取得する。次に、ステップS61でCPU40は、ステップS60で取得したステージ情報に基づいて画面4にステージ4aを表示し、表示したステージ4a上に、取得した演奏者情報、演奏者位置情報、楽器情報に基づいて、バンドの「メンバA」「メンバC」「メンバF」「メンバG」のPアイコン4pと、これらの各メンバにアサインされた「E guitar」、「E bass」、「F vocal」、「piano」と「organ」の5つのIアイコン4dを関連付けされたメンバのPアイコン4pの上に密着して表示し、スピーカ情報およびスピーカ位置情報に基づいて、客席用のスピーカ(SP1,SP2)とモニター用のスピーカ(SP3)とのスピーカアイコン4eを表示する。この場合、バンドの各メンバにアサインされた楽器のIアイコン4dと各スピーカのSPアイコン4eは、実際のステージ上の配置位置に対応する画面4のステージ4a上の位置に表示される。
ステップS62でCPU40は、ステージ上の演奏者位置あるいはスピーカ位置の変更操作が行われたか否かを判断する。実際のステージ上において演奏者位置あるいはスピーカ位置が変更された場合(ステップS62のYes)は、その変更に応じて演奏者位置情報あるいはスピーカ位置情報が更新(ステップS63)され、ステップS64でCPU40は、更新された演奏者位置情報あるいはスピーカ位置情報に応じてPアイコン4pおよびIアイコン4d、あるいは、SPアイコン4eの表示位置を変更する。演奏者位置あるいはスピーカ位置が変更されない場合(ステップS62のNo)、あるいは、ステップS64の処理が終了した場合に、関連付けられた1組のIアイコン4dおよびPアイコン4pと、1つのSPアイコン4eとが選択される(または、選択に変更があった場合は、更新する)と、ステップS65でCPU40は、選択されたIアイコン4dおよびPアイコン4pとSPアイコン4eとにハッチングを施して示す。また、選択されたIアイコン4dおよびPアイコン4pをメンバ選択表示部4mに、選択されたSPアイコン4eをスピーカ選択表示部4nに表示する。また、ステップS66でCPU40は、選択されたIアイコン4dに対応する楽器に、キャスティングモード処理で関連付けされた入力ch21から、選択されたSPアイコンのスピーカへ出力する出力ch23への音量を調節する音量調節操作子(フェーダ4k)を表示する。また、ステップS67でCPU40は、選択されたIアイコン4dに関連付けされた入力チャンネルにおけるエフェクタ(ゲイン、イコライザ、ダイナミクス)のパラメータ操作子(調整ツマミ4h〜4j)を表示する。
次いで、ステップS68でCPU40は、画面4上において音量調整操作子(4k)、または、パラメータ操作子(4h〜4j)の値が変更されたか否かを判断する。音量調整操作子(4k)あるいはパラメータ操作子(4h〜4j)が操作された場合(ステップS68のYes)は、ステップS69でCPU40は、音量調整操作子(4k)あるいはパラメータ操作子(4h〜4j)の操作に応じて変更されたパラメータ値でカレントメモリ上のカレントデータを更新して、変更を反映させる。音量調整操作子(4k)あるいはパラメータ操作子(4h〜4j)が操作されない場合(ステップS68のNo)、または、ステップS69の処理が終了した場合は、ステップS70でCPU40は、ステージモードが終了されたか否かを判断する。モード選択部3cにおいてユーザにより「Casting」ボタンがクリックされたり、音信号処理装置用プログラムが終了された場合(ステップS70のYes)は、ステージモード処理は終了する。また、上記したステージモードにおいて何らかの操作が行われた場合(ステップS70のNo)は、ステップS62に戻りステップS52ないしステップS69の処理が再度行われる。ステップS62に戻りステップS52ないしステップS69の処理が繰り返し行われることにより、バンドの全てのメンバにおける演奏音が各スピーカ(SP1,SP2,SP3)から放音される際の音質および音量を調整することができる。この場合、一人のメンバが複数の楽器を演奏する場合は、そのメンバにキャスティングモード処理において複数の楽器がアサインされる。例えば、ステージモードの画面4において「piano」と「organ」の2つの楽器は「メンバF」にアサインされて、2つのIアイコン4dが重ねて表示されており、ステップS65で2つのIアイコン4dを順次選択することにより、メンバFが2つの楽器を演奏した際のそれぞれの演奏音(音信号)の音質および音量を調整することができる。
以上説明したステージモードの画面4では、ユーザは、ある楽器の音質や音量を調整したい時に、画面4でその楽器が表示されたIアイコン4dを見るだけでどのメンバが演奏する楽器なのか分かり、その楽器の音質や音量を簡単に調整することができるようになっている。
本発明の音信号処理装置用プログラムを実行するタブレット端末が接続されるミキサは、入力パッチを備えていないことから、入力ポートと入力chとは1対1で対応している。そこで、楽器からのケーブルをミキサの入力ポートに接続して、その楽器をメンバが演奏するだけで、その入力ポートに対応する入力chにその楽器が関連付けられるようになる。そして、関連付けられた入力chには、その楽器に特有のパラメータがセッティングされる。次いで、ステージ上のバンドのメンバと、メンバが演奏する楽器を見ながら、画面上に表示されている楽器を表す楽器アイコンを、楽器を演奏するバンドのメンバの演奏者アイコンにドラッグ&ドロップなどの操作で関連付けることにより、メンバと楽器と入力chとのセッティングを簡単に行うことができる。
また、音信号の音源について、楽器を割り出すために波形分析を行い、楽器が割り出された時に、演奏者情報を参照して割り出された楽器を演奏するメンバが一人であった時は、そのメンバに割り出された楽器を自動的にアサインするようにしてもよい。また、アサインされた楽器の種別である楽器情報を、そのメンバの演奏者情報に追加するようにしたので、キャスティングモードを初めて立ち上げた時に、メンバの演奏者情報に何の楽器が演奏できるかという情報がなくても、アサインされた楽器の楽器情報を演奏者情報に割り当てていくことで、演奏者情報にその楽器を演奏できるという情報が設定されていくようになる。
バンドは、本番の演奏を行うステージを、本番の演奏に備える練習で複数回使用することが一般的である。初めてステージを使用して演奏する際には、本発明の音信号処理装置用プログラムをタブレット端末で起動してバンドの各メンバが演奏する楽器をミキサにセッティングしていく。このセッティングしたバンドデータは、タブレット端末の内蔵メモリや外部接続されたメモリに保存することができ、次回にステージを使用する時は、保存されたバンドデータを読み出すことで、ミキサへのセッティングを完了することができる。
また、キャスティングモードを立ち上げた際に、バンドを組むメンバの全員が揃っていない場合は、キャステイングモードではその時に不在のメンバも表示されるが、キャスティングモードで楽器がアサインされないメンバの演奏者アイコンには、楽器アイコンが表示されないことからステージモードでは、不在のメンバは表示されない。
ステージモードにおいて、音量調整した楽器アイコン(選択された楽器に対応する)を、音量に応じた大きさで表示して、全体の音量バランスを把握しやすくしてもよい。この場合、客席向けのスピーカ(SP1,SP2)から放音される楽器の音量に応じて、その楽器に対応する楽器アイコンの大きさを変える。また、楽器アイコンとスピーカアイコンとを選択する時に、先にスピーカアイコンを選択した時は、そのスピーカアイコンに対応するスピーカから出力される楽器の音量に応じて、当該楽器に対応する楽器アイコンの大きさを変え、先に楽器アイコンを選択した時は、当該楽器アイコンに対応する楽器から出力されるスピーカに対応するスピーカアイコンの大きさを音量に応じて変えるようにしてもよい。また、楽器アイコンとスピーカアイコンとを選択した時に、楽器アイコンあるいはスピーカアイコンの大きさを変える操作に応じて、音量が調整されるようにしてもよい。また、ステージモードでは携帯用を含む楽音再生装置から入力されるバックグランドミュージックを表すBGMアイコンを表示して、BGMアイコンとBGMを流すスピーカに対応するSPアイコンとを選択して、BGMの音量を調整することができる。
さらに、ステージモードの画面において、表示されたステージの大きさを変えることで、リバーブの深さを変えるようにしても良い。この場合、ステージの大きさは、画面にタッチされた複数本の指の間隔に応じて表示されたステージの大きさを変えることができ、例えば、タッチしている指間の間隔が広がった場合は、ステージの大きさが大きくなり、指間の間隔が縮まった場合は、ステージの大きさが小さくなるようにすることができる。
以上説明した本発明の音信号処理装置用プログラムは、タブレット端末のアプリケーションプログラムとしたが、タブレット端末に限らずスマートフォンやパーソナルコンピュータ等の情報機器のアプリケーションプログラムとしてもよい。
1 ミキサ、2 タブレット端末、3 キャスティングモードの画面、3a バンド名表示部、3b バンド選択部、3c モード選択部、3d 楽器表示エリア、3e Iアイコン、3f Pアイコン、3g メンバ追加部、3h ドラムキット、4 ステージモードの画面、4a ステージ、4b バンド名表示部、4c モード選択部、4d Iアイコン、4e SPアイコン、4f シーン選択ボタン、4g ストアボタン、4h〜4j 調整ツマミ、4m メンバ選択表示部、4n スピーカ選択表示部、4p Pアイコン、10 CPU、11 フラッシュメモリ、12 RAM、13 その他I/O、14 波形I/O、15 信号処理部、16 表示器、17 電動フェーダ、18 操作子、19 通信バス、20 入力ポート、21 入力ch、22 バス、23 出力ch、24 出力ポート、30 アッテネータ、31 イコライザ、32 ダイナミクス、33a〜33f フェーダ、34a〜34f スイッチ、40 CPU、41 フラッシュメモリ、43 外部I/O、44 表示器、45 操作子、46 通信バス

Claims (7)

  1. 楽器の演奏音である音信号が入力チャンネルに入力され、入力された音信号が処理されて出力される音信号処理装置をセッティングする音信号処理装置用プログラムであって、
    コンピュータに、
    楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示する演奏者アイコン表示手順と、
    前記音信号が前記入力チャンネルに入力された際に、入力された前記音信号の種別に応じた楽器アイコンを、入力された前記入力チャンネルに対応させて、前記表示器に表示する楽器アイコン表示手順と、
    前記演奏者アイコンと、前記楽器アイコンとを関連付ける関連付け手順と、
    を実行させることを特徴とする音信号処理装置用プログラム。
  2. コンピュータに、
    ステージ情報を取得して表示器にステージを表示するステージ表示手順と、
    前記ステージにおける演奏者の位置情報と、スピーカの位置情報とを取得する位置情報取得手順と、
    前記表示器に表示された前記ステージ上であって、前記位置情報取得手順で取得した前記演奏者の位置情報に対応する位置に、前記演奏者の演奏者アイコンと、当該演奏者にアサインされた楽器を表す楽器アイコンをそれぞれ表示すると共に、前記位置情報取得手順で取得した前記各スピーカの位置情報に対応する位置に、スピーカアイコンを表示するアイコン表示手順と、
    前記アイコン表示手順で表示された前記演奏者アイコンあるいは前記楽器アイコンと前記スピーカアイコンとの選択・処理操作に基づいて、選択された前記楽器アイコンに対応する楽器からの前記音信号を処理する処理手順と、
    を実行させることを特徴とする音信号処理装置用プログラム。
  3. 楽器アイコン表示手順では、前記チャンネルに入力された音信号をもとに割り出された少なくとも1つの楽器候補が、前記楽器アイコンとして前記表示器に表示されることを特徴とする請求項1に記載の音信号処理装置用プログラム。
  4. 前記少なくとも1つの楽器候補を前記楽器アイコンとして前記表示器に表示する場合に、最も可能性の高い楽器候補を強調して前記表示器に表示することを特徴とする請求項3に記載の音信号処理装置用プログラム。
  5. 前記楽器アイコン表示手順において、前記チャンネルに入力された音信号をもとに割り出された複数の楽器候補が複数の楽器アイコンとして前記表示器に表示される場合は、前記関連付け手順において、前記楽器候補のうちの一番可能性のある楽器を、前記演奏者アイコンに対応する前記演奏者に関連付けることを特徴とする請求項1に記載の音信号処理装置用プログラム。
  6. 前記演奏者アイコンと楽器アイコンとを関連付ける関連付け手順が以前行われて、前記演奏者アイコンに対応する演奏者と、前記楽器アイコンに対応する楽器とを関連付ける対応情報が保存されている場合は、前記関連付け手順において、前記対応情報を読み出して前記演奏者アイコンと、前記楽器アイコンとを関連付けることを特徴とする請求項1に記載の音信号処理装置用プログラム。
  7. 前記アイコン表示手順では、音源処理部の操作アイコンを前記表示器にさらに表示し、
    前記処理手順では、前記演奏者アイコンおよび前記スピーカアイコンを音源処理の対象として選択し、選択された前記楽器アイコンに対応する前記楽器からの前記音信号を、選択された前記スピーカアイコンに対応するスピーカの出力の設定が、前記音源処理部の前記操作アイコンを操作して設定された所定の音源出力指示情報に基づいてなされること
    を特徴とする請求項2に記載の音信号処理装置用プログラム。
JP2015197446A 2015-10-05 2015-10-05 音信号処理装置用プログラム Pending JP2017073590A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015197446A JP2017073590A (ja) 2015-10-05 2015-10-05 音信号処理装置用プログラム
PCT/JP2016/079427 WO2017061410A1 (ja) 2015-10-05 2016-10-04 プログラムを記録した記録媒体および表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015197446A JP2017073590A (ja) 2015-10-05 2015-10-05 音信号処理装置用プログラム

Publications (1)

Publication Number Publication Date
JP2017073590A true JP2017073590A (ja) 2017-04-13

Family

ID=58538405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015197446A Pending JP2017073590A (ja) 2015-10-05 2015-10-05 音信号処理装置用プログラム

Country Status (1)

Country Link
JP (1) JP2017073590A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017798A1 (en) * 2018-07-16 2020-01-23 Samsung Electronics Co., Ltd. A method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017798A1 (en) * 2018-07-16 2020-01-23 Samsung Electronics Co., Ltd. A method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces
CN112262428A (zh) * 2018-07-16 2021-01-22 三星电子株式会社 在数字和非数字表面上使用手绘图案/文本进行音乐合成的方法和系统
US10991349B2 (en) 2018-07-16 2021-04-27 Samsung Electronics Co., Ltd. Method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces

Similar Documents

Publication Publication Date Title
JP5258796B2 (ja) インテリジェント等化のためのシステム及び方法
Thompson Understanding audio: getting the most out of your project or professional recording studio
JP6696140B2 (ja) 音響処理装置
WO2015002238A1 (ja) ミキシング管理装置及びミキシング管理方法
WO2015143076A1 (en) Method and system for selecting tracks on a digital file
JP5200434B2 (ja) 音響設定支援装置
US20050054305A1 (en) Multi-channel, signal controlled variable setting apparatus and program
JP6056195B2 (ja) 音響信号処理装置
JP2017073631A (ja) 音信号処理装置用設定プログラム
JP2005080265A (ja) 複数チャンネルのミュート設定装置およびそのプログラム
JP2017073590A (ja) 音信号処理装置用プログラム
JP2007093679A (ja) 音源設定装置及び音源設定プログラム
WO2017061410A1 (ja) プログラムを記録した記録媒体および表示制御方法
WO2018003729A1 (ja) 音色設定装置、電子楽器システム及び音色設定方法
JP2014066922A (ja) 楽曲演奏装置
US20160274858A1 (en) Displaying attenuating audio signal level in delayed fashion
JP2005080264A (ja) 複数チャンネルの信号制御量設定装置およびそのプログラム
JP5731661B2 (ja) 記録装置、記録方法、及び記録制御用のコンピュータプログラム、並びに再生装置、再生方法、及び再生制御用のコンピュータプログラム
JP5370210B2 (ja) ミキサー
JP7408955B2 (ja) 音信号処理方法、音信号処理装置およびプログラム
US20230260490A1 (en) Selective tone shifting device
JP2018117245A (ja) 音処理装置及び方法
US10083680B2 (en) Mixing console
WO2010119541A1 (ja) 音発生装置、音発生方法、音発生プログラム、及び記録媒体
JP5861468B2 (ja) 音響信号処理システム