JP5071290B2 - Electronic acoustic system - Google Patents

Electronic acoustic system Download PDF

Info

Publication number
JP5071290B2
JP5071290B2 JP2008189585A JP2008189585A JP5071290B2 JP 5071290 B2 JP5071290 B2 JP 5071290B2 JP 2008189585 A JP2008189585 A JP 2008189585A JP 2008189585 A JP2008189585 A JP 2008189585A JP 5071290 B2 JP5071290 B2 JP 5071290B2
Authority
JP
Japan
Prior art keywords
acoustic
pad
parameter
detected
acoustic input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008189585A
Other languages
Japanese (ja)
Other versions
JP2010028620A (en
Inventor
怜 森田
祐嗣 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008189585A priority Critical patent/JP5071290B2/en
Publication of JP2010028620A publication Critical patent/JP2010028620A/en
Application granted granted Critical
Publication of JP5071290B2 publication Critical patent/JP5071290B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

この発明は、複数の音響入力機器からの音響信号をパラメータに基づいて処理する際に、パラメータを変更できる電子音響システムに関する。   The present invention relates to an electronic acoustic system capable of changing parameters when processing acoustic signals from a plurality of acoustic input devices based on the parameters.

従来、多数のマイクロホンあるいは電気・電子楽器などの音響入力機器から出力される音響信号の音量レベルや周波数特性を調整してミキシングし、音量、パン、効果などの音響特性を制御してパワーアンプに送り出すコンサートホール等で使用されるミキサー装置と称される音響信号処理装置(以下、「ミキサー装置」という)が知られている。ミキサー装置を操作するオペレータは、エレキギターやドラム、ボーカル等の音響入力機器からの音響信号の各音響特性を、各系列に対応して備えられた操作子(フェーダやノブ)を操作することにより、演奏を最もふさわしく表現していると思われる状態に調整している。この場合、一般的には、各系列の操作子は整然と並べられており、どの操作子がどの系列の音響入力機器に対応しているか(たとえばどの操作子がボーカル用で、どの操作子がドラム用か、など)が直感的にわからず、各音響入力機器からの音響信号の音響特性を直感的に対応付けて調整することが困難であった。
そこで、上記の不都合を解決する目的で、透明又は半透明のタッチ操作子付きの平面状とされた表示手段をミキサー装置のパネルに立設し、該表示手段を透過して見える演奏者(音響入力機器)と重なるように、該表示手段上に操作子を表示したミキサー装置が従来提案されている。
特開2006−203303号公報
Conventionally, the volume level and frequency characteristics of acoustic signals output from a large number of microphones or acoustic input devices such as electric and electronic musical instruments are adjusted and mixed, and the acoustic characteristics such as volume, pan, and effect are controlled and used as a power amplifier. 2. Description of the Related Art An acoustic signal processing device called a mixer device (hereinafter referred to as “mixer device”) used in a concert hall to be sent out is known. The operator who operates the mixer apparatus operates the operation elements (faders and knobs) corresponding to the respective acoustic characteristics of the acoustic signals from the acoustic input devices such as electric guitars, drums, and vocals. , And adjusted to the state that seems to represent the most appropriate performance. In this case, in general, the operators of each series are arranged in an orderly manner, and which operator corresponds to the acoustic input device of which series (for example, which operator is for vocals and which is drums) It is difficult to intuitively associate and adjust the acoustic characteristics of the acoustic signals from each acoustic input device.
Therefore, for the purpose of solving the above inconvenience, a display means having a flat shape with a transparent or semi-transparent touch operator is erected on the panel of the mixer device, and a player (acoustic sound) that is visible through the display means. Conventionally, there has been proposed a mixer apparatus in which an operation element is displayed on the display means so as to overlap the input device.
JP 2006-203303 A

しかしながら、従来提案されているミキサー装置では、ミキサー装置を操作するオペレータの頭の位置を検出して、該オペレータがどの演奏者(音響入力機器)を見ているかを推定するといった高度な処理が必要とされて、高性能の処理装置が必要とされており、場合によっては音響特性を操作をしたい演奏者ではなく、間違った演奏者を推定してしまう恐れがあった。さらに、操作子は平面状とされた表示手段において各演奏者の位置に対応して表示されることから、操作子をオペレータの好みの位置に配置することができないという問題点もあった。
そこで、本発明は複数の音響入力機器のパラメータを直感的に操作手段に対応付けて制御することができる電子音響システムを提供することを目的としている。
However, the conventionally proposed mixer device requires advanced processing such as detecting the position of the head of the operator who operates the mixer device and estimating which player (sound input device) the operator is looking at. Therefore, there is a need for a high-performance processing device, and in some cases, there is a risk of estimating a wrong player instead of a player who wants to operate the acoustic characteristics. Furthermore, since the operation element is displayed in correspondence with the position of each player on the flat display means, there is a problem in that the operation element cannot be arranged at a position desired by the operator.
Therefore, an object of the present invention is to provide an electronic acoustic system that can control parameters of a plurality of acoustic input devices in an intuitive manner in association with operating means.

上記目的を達成するために、本発明の電子音響システムは、複数の音響入力機器の各々の配置位置を検出し、検出された位置に対応する操作テーブル上の位置に、音響入力機器の各々に対応するオブジェクトを設定するようにしたことを最も主要な特徴としている。   In order to achieve the above object, the electronic acoustic system of the present invention detects the position of each of a plurality of sound input devices, and places each of the sound input devices at a position on the operation table corresponding to the detected position. The most important feature is that the corresponding object is set.

本発明によれば、複数の音響入力機器の各々の配置位置を検出し、検出された位置に対応する操作テーブル上の位置に、音響入力機器の各々に対応するオブジェクトを設定するようにしたことから、各々の音響入力機器に対応するオブジェクトを直感的に対応付けて制御することができるようになる。これにより、日曜日に集まってバンド演奏するような場合に時々しか電子音響システムを操作しない素人がミキシングする場合には好適とすることができる。   According to the present invention, the arrangement position of each of the plurality of sound input devices is detected, and the object corresponding to each of the sound input devices is set at the position on the operation table corresponding to the detected position. Thus, it becomes possible to intuitively associate and control objects corresponding to the respective sound input devices. Thereby, when gathering on Sunday and performing a band, it can be suitable when the amateur who operates the electronic acoustic system only occasionally mixes.

本発明の第1実施例にかかる電子音響システム1のブロック構成を示すブロック図を図1に示す。本発明にかかる電子音響システム1は、ステージ上の演奏者が演奏する楽器からの音響信号や、ステージ上の演奏者の歌唱音を拾うマイクからの音響信号等が入力され、これらの音響信号に音響信号処理を施しミキシングしてスピーカ等に出力している。
図1に示す第1実施例の電子音響システム1は、電子音響システム1の全体の動作を管理プログラム(OS:Operating System)を実行することにより制御するCPU(Central Processing Unit)10と、CPU10が実行するミキシング制御プログラム等の動作ソフトウェアが格納されている不揮発性のROM(Read Only Member)11と、CPU10のワークエリアや各種データ等が記憶されるRAM(Random Access Memory)12を備えている。CPU10は、ミキシング制御プログラムを実行することにより、入力された複数の音響信号に音響信号処理を施してミキシング処理を行っている。なお、ROM11をフラッシュメモリ等の書き換え可能なROMとすることで、動作ソフトウェアの書き換えを可能とすることができ、動作ソフトウェアのバージョンアップを容易に行うことができる。また、一定間隔でCPU10に対して割り込みを発生させるタイマ13が備えられている。外部記憶装置14は、ハードディスク(HD)、FD(フレキシブルディスク又はフロッピーディスク(商標)、CD(コンパクトディスク)−ROM、、MO(Magneto-Optical disk)、DVD(ディジタル多目的ディスク)、フラッシュメモリや半導体メモリなどの記憶媒体と、その駆動装置からなり、管理プログラム(OS)、動作ソフトウェアや各種データが記憶されている。この場合、記憶媒体は着脱可能であってもよいし、電子音響システム1に内蔵されていてもよい。通信I/F15は、外部機器との間でデータ等の授受を行うためのイーサネット(商標)等の通信用のインタフェース(I/F)であり、インターネット等の通信ネットワーク16を介してサーバ装置17に接続して各種データやプログラム等をダウンロードすることができる。MIDI I/F18は、MIDI(Musical Instrument Digital Interface)機器19と接続するためのMIDIインタフェースであり、MIDIインタフェースを有するシンセサイザや音源などと接続することができる。
FIG. 1 is a block diagram showing a block configuration of an electroacoustic system 1 according to the first embodiment of the present invention. The electronic acoustic system 1 according to the present invention receives an acoustic signal from a musical instrument played by a performer on the stage, an acoustic signal from a microphone that picks up the singing sound of the performer on the stage, and the like. Acoustic signal processing is performed and mixed and output to a speaker or the like.
The electronic acoustic system 1 of the first embodiment shown in FIG. 1 includes a CPU (Central Processing Unit) 10 that controls the overall operation of the electronic acoustic system 1 by executing a management program (OS), and a CPU 10 A nonvolatile ROM (Read Only Member) 11 in which operation software such as a mixing control program to be executed is stored, and a RAM (Random Access Memory) 12 in which a work area of the CPU 10 and various data are stored are provided. The CPU 10 performs a mixing process by executing a mixing control program to perform an acoustic signal process on a plurality of input acoustic signals. Note that by making the ROM 11 a rewritable ROM such as a flash memory, the operation software can be rewritten, and the version of the operation software can be easily upgraded. In addition, a timer 13 is provided that generates an interrupt to the CPU 10 at regular intervals. The external storage device 14 is a hard disk (HD), FD (flexible disk or floppy disk (trademark), CD (compact disk) -ROM, MO (Magneto-Optical disk), DVD (digital multipurpose disk), flash memory or semiconductor. It consists of a storage medium such as a memory and its driving device, and stores a management program (OS), operation software, and various data.In this case, the storage medium may be detachable or may be attached to the electronic acoustic system 1. The communication I / F 15 is a communication interface (I / F) such as Ethernet (trademark) for transferring data to and from an external device, and is a communication network such as the Internet. 16 to connect to the server device 17 via 16 and download various data, programs, etc. The MIDI I / F 18 is a MIDI interface for connecting to a MIDI (Musical Instrument Digital Interface) device 19 and can be connected to a synthesizer or a sound source having a MIDI interface.

また、LED表示回路20は電子音響システム1の調整卓等に設けられているLED(Light Emitting Diode)表示器21を駆動して発光表示させる表示回路であり、設定操作検出回路22は、電子音響システム1の調整卓等に設けられているフェーダやノブの設定操作子23をスキャンして、設定操作子23に対する操作を検出している。検出された操作信号に基づいて音響信号処理に用いるパラメータの値が変更される。タッチパネル24は、音響信号処理に用いるパラメータの値を制御可能な操作テーブルを構成しており、ディスプレイ表示回路25により表示されるディスプレイと、タッチ検出回路26によりタッチ操作された位置が検出されるマトリクス・スイッチ等を備えている。タッチパネル24のディスプレイには、ステージ上の楽器やマイク等の複数の音響入力機器30が実際に配置されている位置に対応して、各々の音響入力機器30を表すオブジェクトとされる図形がディスプレイ表示回路25によりそれぞれ表示される。これにより、表示されている各図形の表示位置が対応する音響入力機器30の実際の配置位置を模擬するようになり、各図形と各音響入力機器30とを直感的に対応付けることができる。これにより、パラメータを変更したい音響入力機器30に即座に対応する図形を特定することができ、特定した図形に対してタッチパネル24上において操作を行うことにより、パラメータを変更したい音響入力機器30のパラメータの値を操作することができる。このように、タッチパネル24上に表示されたオブジェクトに対してタッチパネル24上において操作を行うことにより、当該オブジェクトに対応する音響入力機器30である楽器やマイクのレベルやパン等のパラメータを制御することができる。   The LED display circuit 20 is a display circuit that drives and displays an LED (Light Emitting Diode) display 21 provided on an adjustment console of the electroacoustic system 1, and the setting operation detection circuit 22 The operation of the setting operator 23 is detected by scanning a setting operator 23 of a fader or knob provided on an adjustment console or the like of the system 1. Based on the detected operation signal, the value of the parameter used for the acoustic signal processing is changed. The touch panel 24 constitutes an operation table capable of controlling parameter values used for acoustic signal processing. The display is displayed by the display display circuit 25 and a matrix in which the position touched by the touch detection circuit 26 is detected.・ Equipped with switches. On the display of the touch panel 24, a graphic representing an object representing each acoustic input device 30 is displayed on the display corresponding to the position where a plurality of acoustic input devices 30 such as musical instruments and microphones are actually arranged. Each is displayed by the circuit 25. As a result, the actual arrangement position of the acoustic input device 30 corresponding to the display position of each displayed graphic is simulated, and each graphic and each acoustic input device 30 can be intuitively associated with each other. As a result, it is possible to immediately specify the graphic corresponding to the acoustic input device 30 whose parameter is to be changed, and by operating the specified graphic on the touch panel 24, the parameter of the acoustic input device 30 whose parameter is to be changed is determined. Can be manipulated. In this way, by operating the object displayed on the touch panel 24 on the touch panel 24, the parameters such as the level and pan of the musical instrument or microphone that is the acoustic input device 30 corresponding to the object are controlled. Can do.

メッシュ型センサー群27は、楽器やマイク等の複数の音響入力機器30が配置されるステージの床下に設置されている。ステージ上の楽器やマイク等の音響入力機器30のそれぞれにはRFID31等のICタグが埋め込まれており、メッシュ型センサー群27は、RFID31から埋め込まれている機器特有の機器固有IDをそれぞれ読み取るセンサー群とされている。実体位置検出回路28は、メッシュ型センサー群27で読み取られた機器固有IDの情報から、音響入力機器30のそれぞれの位置を検出している。なお、メッシュ型センサー群27を構成している複数のセンサーは、それぞれ電波を用いてRFID31から機器固有IDを読み取るが、読み取れるのはそのセンサーの近傍に位置するRFID31のみとされる。実体位置検出回路28は、機器固有IDを読み取ったセンサーの位置に基づいて各音響入力機器30の位置を検出しており、検出された複数の音響入力機器30の各位置の情報に基づいて、CPU10はタッチパネル24に表示させる各音響入力機器30に対応する図形の表示位置を算出してディスプレイ表示回路25を駆動している。これにより、タッチパネル24に各音響入力機器30を表す図形がステージ上の各音響入力機器30の位置に対応して表示されるようになる。   The mesh type sensor group 27 is installed under the floor of a stage on which a plurality of acoustic input devices 30 such as musical instruments and microphones are arranged. An IC tag such as RFID 31 is embedded in each of the acoustic input devices 30 such as a musical instrument and a microphone on the stage, and the mesh type sensor group 27 is a sensor that reads a device-specific ID unique to the device embedded from the RFID 31. It is a group. The entity position detection circuit 28 detects the position of each acoustic input device 30 from the information of the device unique ID read by the mesh type sensor group 27. The plurality of sensors constituting the mesh type sensor group 27 read the device unique ID from the RFID 31 using radio waves, but only the RFID 31 located in the vicinity of the sensor can be read. The entity position detection circuit 28 detects the position of each acoustic input device 30 based on the position of the sensor that has read the device unique ID, and based on the detected information on each position of the plurality of acoustic input devices 30, The CPU 10 calculates the display position of the graphic corresponding to each acoustic input device 30 displayed on the touch panel 24 and drives the display display circuit 25. As a result, a graphic representing each acoustic input device 30 is displayed on the touch panel 24 corresponding to the position of each acoustic input device 30 on the stage.

また、ステージ上のマイクやエレキギターや電子キーボード等の複数の音響入力機器30から出力された音響信号は、ステージ外に配置されたミキシングエンジン部29における入力信号I/F40の別々の入力チャンネルに入力され、それぞれの音響信号はディジタル信号に変換されてデジタル信号処理回路42に供給される。デジタル信号処理回路42は、入力された音響信号の音量レベルや周波数特性をそのパラメータに基づいて調整してミキシングし、音量、パン、効果などの音響特性をそのパラメータに基づいて制御するDSP(Digital Signal Processor)から構成されている。また、デジタル信号処理回路42から出力されるミキシング等された音響信号を客席に向けられたメインスピーカ等の複数の音響出力機器32にアンプを介して出力する出力信号I/F41を備えている。各部はバス33を介してデータ等の授受を行っている。
このように構成された電子音響システム1において、ユーザがタッチパネル24からなる操作テーブルに表示されている音響入力機器30を表す図形に対して所定の操作をすると、電子音響システム1は図形に対する操作を検知し、操作に応じて、その図形に対応する音響入力機器30に割り当てられたチャンネルの音響特性を制御するパラメータを変更する。ミキシングエンジン部29は、変更されたパラメータ値に基づいてミキシングレベルや定位等の音響信号処理を実行すると共に、変更されたパラメータ値がタッチパネル24上の当該図形の近傍に表示される。
In addition, acoustic signals output from a plurality of acoustic input devices 30 such as microphones, electric guitars, and electronic keyboards on the stage are sent to separate input channels of the input signal I / F 40 in the mixing engine unit 29 arranged outside the stage. Each acoustic signal is inputted and converted into a digital signal and supplied to the digital signal processing circuit 42. The digital signal processing circuit 42 adjusts and mixes the volume level and frequency characteristics of the input acoustic signal based on the parameters, and controls the acoustic characteristics such as volume, pan, and effect based on the parameters. Signal Processor). In addition, an output signal I / F 41 is provided that outputs the mixed acoustic signal output from the digital signal processing circuit 42 to a plurality of acoustic output devices 32 such as a main speaker directed to the passenger seat via an amplifier. Each unit exchanges data and the like via the bus 33.
In the electronic acoustic system 1 configured as described above, when the user performs a predetermined operation on the graphic representing the acoustic input device 30 displayed on the operation table including the touch panel 24, the electronic acoustic system 1 performs an operation on the graphic. A parameter for controlling the acoustic characteristics of the channel assigned to the acoustic input device 30 corresponding to the graphic is detected and detected according to the operation. The mixing engine unit 29 performs acoustic signal processing such as mixing level and localization based on the changed parameter value, and the changed parameter value is displayed in the vicinity of the figure on the touch panel 24.

次に、本発明の第1実施例にかかる電子音響システム1においてパラメータを変更する態様の概略構成を図2に示す。
図2において、ステージ50上にはマイクAを使用して歌唱する演奏者、楽器Aを演奏する演奏者、マイクBを使用して歌唱する演奏者が所定の位置に立っている。マイクAにはRFID31等のタグ1が埋め込まれており、同様に、楽器Aにはタグ2が埋め込まれており、マイクBにはタグ3が埋め込まれている。マイクA,Bおよび楽器Aからの音響信号はミキシングエンジン部29のそれぞれに割り当てられたチャンネルに入力される。ミキシングエンジン部29では制御部51の制御の基で、各チャンネルのパラメータに基づいて音量レベルや周波数特性が調整されてミキシングされ、音量、パン、効果などの音響特性が付与されて、ステージ50の脇に設けられているメインスピーカL32aおよびメインスピーカR32bから、歌唱音や演奏音が客席に向けて出力されるようになる。なお、制御部51はCPU10、ROM11、RAM12等から構成される。
Next, FIG. 2 shows a schematic configuration of a mode in which parameters are changed in the electronic acoustic system 1 according to the first embodiment of the present invention.
In FIG. 2, on the stage 50, a player who sings using the microphone A, a player who plays the musical instrument A, and a player who sings using the microphone B are standing at predetermined positions. A tag 1 such as an RFID 31 is embedded in the microphone A. Similarly, a tag 2 is embedded in the musical instrument A, and a tag 3 is embedded in the microphone B. Acoustic signals from the microphones A and B and the musical instrument A are input to channels assigned to the mixing engine unit 29. Under the control of the control unit 51, the mixing engine unit 29 adjusts and mixes the volume level and frequency characteristics based on the parameters of each channel, and gives the acoustic characteristics such as volume, pan, and effect, so that the stage 50 Singing sound and performance sound are output toward the passenger seat from the main speaker L32a and the main speaker R32b provided on the side. The control unit 51 includes a CPU 10, a ROM 11, a RAM 12, and the like.

ステージ50の床下にはマトリクス状に配置された多数のセンサーからなるメッシュ型センサー群27が設置されており、各センサーでセンシングされた信号は実体位置検出回路28に入力されている。メッシュ型センサー群27を構成する各センサーは、電磁誘導方式あるいは電波方式を用いてタグ1〜タグ3を検出している。この場合、各センサーから発せられる磁界変動あるいは電波によって、マイクA,Bおよび楽器Aに設けられたタグ1〜タグ3は電力を得て内蔵する回路を作動させ、機器固有IDの情報を送信する。タグ1〜タグ3から送信された機器固有IDの情報は、タグ1〜タグ3の近傍に配置されたセンサーしか受信することができず、受信されたセンサーからは機器固有IDの情報信号が実体位置検出回路28に送られる。実体位置検出回路28は、入力された情報信号から機器固有IDを検出し、特定の機器固有IDが一つのセンサーのみから送られた情報信号から検出された場合は、そのセンサーの配置位置に当該機器固有IDに対応するマイクA,2あるいは楽器Aが配置されていると検出する。また、同じ機器固有IDが二つ以上のセンサーから送られた情報信号から検出された場合は、受信レベルの強度の割合に応じたセンサーとセンサーの間の位置に当該機器固有IDに対応するマイクA,Bあるいは楽器Aが配置されていると検出する。なお、初期設定にてタグ1〜タグ3の各機器固有IDとマイクA,Bおよび楽器Aとの対応付けがされていると共に、マイクA,Bおよび楽器Aとされる音響入力機器30と、音響入力機器30にそれぞれ割り当てられるミキシングエンジン部29のチャンネルとが予め対応付けされている。   A mesh type sensor group 27 including a large number of sensors arranged in a matrix is installed under the floor of the stage 50, and signals sensed by each sensor are input to the actual position detection circuit 28. Each sensor constituting the mesh type sensor group 27 detects the tags 1 to 3 using an electromagnetic induction method or a radio wave method. In this case, the tags 1 to 3 provided in the microphones A and B and the musical instrument A obtain power and operate the built-in circuit by the magnetic field fluctuation or radio wave emitted from each sensor, and transmit the information of the device unique ID. . The device unique ID information transmitted from the tags 1 to 3 can be received only by the sensors arranged in the vicinity of the tags 1 to 3, and the information signal of the device unique ID is actually received from the received sensor. It is sent to the position detection circuit 28. The entity position detection circuit 28 detects the device unique ID from the input information signal, and when a specific device unique ID is detected from the information signal sent from only one sensor, the actual position detection circuit 28 detects the device unique ID. It is detected that the microphones A and 2 or the musical instrument A corresponding to the device unique ID is arranged. In addition, when the same device unique ID is detected from information signals sent from two or more sensors, a microphone corresponding to the device unique ID is positioned between the sensors according to the intensity ratio of the reception level. It is detected that A, B or musical instrument A is arranged. Note that the device-specific IDs of the tags 1 to 3 are associated with the microphones A and B and the musical instrument A in the initial setting, and the acoustic input device 30 that is the microphones A and B and the musical instrument A, The channels of the mixing engine unit 29 assigned to the sound input devices 30 are associated in advance.

実体位置検出回路28において検出されたマイクA,Bおよび楽器Aの位置情報は制御部51に送られて、制御部51は位置情報に対応するタッチパネル24上の位置にマイクAに対応するCH1オブジェクトの図形と、楽器Aに対応するCH2オブジェクトの図形と、マイクBに対応するCH3オブジェクトの図形とを表示させるようにディスプレイ表示回路25を駆動する。タッチパネル24は操作テーブル52を構成しており、マイクAはチャンネル1に割り当てられ、楽器Aはチャンネル2に割り当てられ、マイクBはチャンネル3に割り当てられているものとする。これにより、タッチパネル24にはマイクAのステージ50上の配置位置に対応する矩形枠のCH1オブジェクトの図形が左下に、楽器Aのステージ50上の配置位置に対応する矩形枠のCH2オブジェクトの図形が中央上に、マイクBのステージ50上の配置位置に対応する矩形枠のCH3オブジェクトの図形が右下に表示される。このように、マイクA,Bおよび楽器Aのステージ50の配置位置に対応して操作テーブル52上にCH1オブジェクト〜CH3オブジェクトが表示されることから、各オブジェクトとマイクA,Bおよび楽器Aとされる音響入力機器30とを直感的に対応付けることができる。また、マイクA,Bおよび楽器Aのステージ50の配置位置が移動すると、移動した位置が実体位置検出回路28において検出されることから、この検出信号を受けた制御回路51は操作テーブル52上に表示されるCH1オブジェクト〜CH3オブジェクトを音響入力機器30の移動に追随させてタッチパネル24上に表示していくようになる。   The position information of the microphones A and B and the musical instrument A detected by the entity position detection circuit 28 is sent to the control unit 51, and the control unit 51 places the CH1 object corresponding to the microphone A at the position on the touch panel 24 corresponding to the position information. The display display circuit 25 is driven so as to display the figure of CH2, the figure of the CH2 object corresponding to the musical instrument A, and the figure of the CH3 object corresponding to the microphone B. The touch panel 24 constitutes an operation table 52. The microphone A is assigned to channel 1, the musical instrument A is assigned to channel 2, and the microphone B is assigned to channel 3. Thus, the rectangular frame CH1 object graphic corresponding to the arrangement position on the stage 50 of the microphone A is displayed on the touch panel 24 at the lower left, and the rectangular frame CH2 object graphic corresponding to the arrangement position on the stage 50 of the musical instrument A is displayed on the touch panel 24. A rectangular frame CH3 object figure corresponding to the position of the microphone B on the stage 50 is displayed at the lower right. Thus, since the CH1 to CH3 objects are displayed on the operation table 52 corresponding to the arrangement positions of the microphones A and B and the stage 50 of the musical instrument A, the respective objects, the microphones A and B, and the musical instrument A are designated. The sound input device 30 can be intuitively associated. Further, when the arrangement positions of the microphones A and B and the stage 50 of the musical instrument A are moved, the moved positions are detected by the actual position detection circuit 28, and the control circuit 51 that has received this detection signal is placed on the operation table 52. The displayed CH1 to CH3 objects are displayed on the touch panel 24 following the movement of the sound input device 30.

また、表示されたCH1オブジェクト〜CH3オブジェクトを取り囲むように、当該オブジェクトに割り当てられているチャンネルのパラメータ値が表示されている。この表示は、半円形の目盛24aと、この目盛に沿って太線の円弧で表示されると共に数値で表示される現在設定されているパラメータ値を表すパラメータ値指示部24bとから構成されている。パラメータは、対応するオブジェクトに割り当てられるチャンネルのミキシングレベル、パンやイコライザ設定値等とされ、図示する例では、各チャンネルのミキシングレベルが表示されている。チャンネル1では−3dB、チャンネル2では−10dB、チャンネル3では0dBのミキシングレベルに設定されている。CH1オブジェクト〜CH3オブジェクトでは、当該チャンネルにおける複数種類のパラメータの内の一つのパラメータが選択され、選択されたパラメータ種類に応じてパラメータ値の表示態様が変更される。図2に示すタッチパネル24上の表示態様は、ミキシングレベルの表示態様とされており、例えばCH1オブジェクトにおいてパンのパラメータが選択された場合は、図2の下部に破線で囲って示したCH1オブジェクト2の表示態様とされる。CH1オブジェクト2の表示態様では、矩形枠と、矩形枠を取り囲む半円形の目盛24aと、この目盛のいずれかの目盛位置を指示する5角形のベース状の図形で現在設定されている定位位置を示すパン指示部24cとからなる表示態様とされる。   Further, the parameter values of the channels assigned to the objects are displayed so as to surround the displayed CH1 object to CH3 object. This display is composed of a semicircular scale 24a and a parameter value indicating section 24b representing a currently set parameter value displayed as a numerical value and displayed as a thick arc along the scale. The parameter is a mixing level of a channel assigned to the corresponding object, a pan or equalizer setting value, and the mixing level of each channel is displayed in the illustrated example. The mixing level is set to -3 dB for channel 1, -10 dB for channel 2, and 0 dB for channel 3. In the CH1 object to CH3 object, one parameter among a plurality of types of parameters in the channel is selected, and the display mode of the parameter value is changed according to the selected parameter type. The display mode on the touch panel 24 shown in FIG. 2 is a display mode of the mixing level. For example, when the pan parameter is selected in the CH1 object, the CH1 object 2 indicated by a broken line at the bottom of FIG. The display mode is as follows. In the display mode of the CH1 object 2, the currently set localization position is indicated by a rectangular frame, a semicircular scale 24a surrounding the rectangular frame, and a pentagonal base-shaped figure indicating one of the scale positions. The display mode includes a pan instruction unit 24c.

タッチパネル24とされている操作テーブル52に表示されているCH1オブジェクト〜CH3オブジェクトの図形に対してユーザがタッチパネル24の2カ所に指をタッチさせる所定の操作を行うと、操作されたことがタッチ検出回路26において検出され、検出された操作内容を示す操作情報は制御部51に送られる。制御部51は、送られた操作情報から対応するチャンネルにおける変更されたパラメータ値を算出し、変更後の対応するチャンネルのパラメータ値をミキシングエンジン部29に送ると共に、変更後のパラメータ値を該当するCH1オブジェクト〜CH3オブジェクトで表示する表示情報をディスプレイ表示回路25に送り、タッチパネル24に変更後のパラメータ値が該当するCH1オブジェクト〜CH3オブジェクトのパラメータ値指示部24bで表示されるようになる。このように、ユーザがタッチパネル24上に表示されているCH1オブジェクト〜CH3オブジェクトのいずれかにタッチする操作を行うと、タッチした位置等の情報に基づいてタッチされたオブジェクトのパラメータ値が変更され、そのオブジェクトのパラメータ値指示部24bの表示が変更後のパラメータ値に更新されると共に、変更後のパラメータ値がミキシングエンジン部29で反映されて当該チャンネルの音響特性であるミキシングレベルや定位位置が変更されるようになる。   When the user performs a predetermined operation of touching a finger on two places on the touch panel 24 with respect to the figures of the CH1 object to the CH3 object displayed on the operation table 52 which is the touch panel 24, it is detected that the operation has been performed. Operation information detected by the circuit 26 and indicating the detected operation content is sent to the control unit 51. The control unit 51 calculates the changed parameter value in the corresponding channel from the sent operation information, sends the changed parameter value of the corresponding channel to the mixing engine unit 29, and applies the changed parameter value to the corresponding value. Display information to be displayed by the CH1 object to CH3 object is sent to the display display circuit 25, and the changed parameter value is displayed on the touch panel 24 by the parameter value indicating unit 24b of the corresponding CH1 object to CH3 object. As described above, when the user performs an operation of touching any of the CH1 object to CH3 object displayed on the touch panel 24, the parameter value of the touched object is changed based on the information such as the touched position. The display of the parameter value indicating unit 24b of the object is updated to the changed parameter value, and the changed parameter value is reflected by the mixing engine unit 29 to change the mixing level and the localization position which are the acoustic characteristics of the channel. Will come to be.

次に、本発明の第2実施例にかかる電子音響システム2を説明する。まず、第2実施例の電子音響システム2においてパラメータを変更する態様の概略構成を図4に示す。
図4に示すように、ステージ50上の構成は図2に示す第1実施例の概略構成と同様とされており、音響入力機器30とされるマイクA、楽器A、マイクBにはそれぞれRFID31等のタグ1〜タグ3が埋め込まれている。マイクA,Bおよび楽器Aからの音響信号はミキシングエンジン部29のそれぞれ割り当てられたチャンネルに入力され、各チャンネルのパラメータに基づいて音量レベルや周波数特性が調整されてミキシングされ、音量、パン、効果などの音響特性が付与されて、ステージ50の脇に設けられているメインスピーカL32aおよびメインスピーカR32bから、歌唱音や演奏音が客席に向けて出力されるようになる。なお、ミキシングエンジン部29においてマイクAはチャンネル1に割り当てられ、楽器Aはチャンネル2に割り当てられ、マイクBはチャンネル3に割り当てられているものとする。
Next, an electroacoustic system 2 according to a second embodiment of the present invention will be described. First, FIG. 4 shows a schematic configuration of a mode for changing parameters in the electronic acoustic system 2 of the second embodiment.
As shown in FIG. 4, the configuration on the stage 50 is the same as the schematic configuration of the first embodiment shown in FIG. 2, and the microphone 31, the musical instrument A, and the microphone B, which are the acoustic input devices 30, each have an RFID 31. Tags 1 to 3 such as are embedded. The acoustic signals from the microphones A and B and the musical instrument A are input to the respective assigned channels of the mixing engine unit 29, mixed with the volume level and frequency characteristics adjusted based on the parameters of each channel, and the volume, pan, and effect. Thus, the singing sound and the performance sound are output toward the audience from the main speaker L32a and the main speaker R32b provided on the side of the stage 50. In the mixing engine unit 29, it is assumed that microphone A is assigned to channel 1, instrument A is assigned to channel 2, and microphone B is assigned to channel 3.

ステージ50の床下には多数のセンサーからなるメッシュ型センサー群27が設置されており、各センサーでセンシングされた信号は実体位置検出回路28に入力されている。タグ1〜タグ3から送信された機器固有IDの情報を受信したセンサーからの機器固有IDの情報信号は実体位置検出回路28に入力され、実体位置検出回路28において、入力された情報信号から機器固有IDに基づいてマイクA,Bおよび楽器Aが配置されている位置が前述したように検出される。実体位置検出回路28において検出されたマイクA,Bおよび楽器Aの位置情報は制御部51に送られて、制御部51はマイクAに対応するCH1オブジェクトであるパッド34−1と、楽器Aに対応するCH2オブジェクトであるパッド34−2と、マイクBに対応するCH3オブジェクトであるパッド34−3とを、位置情報に対応する操作テーブル52上のそれぞれの位置に配置させる。この場合、パッド34−1〜パッド34−3は自走式パッドとされ、例えば赤外線通信等のワイヤレス通信手段を介して制御部51から所定の位置への移動指示を受信して、指示された位置へ自動的に移動するようにされている。操作テーブル52は、パッド34−1〜パッド34−3の操作テーブル52上のそれぞれの位置を検出して制御部51へフィードバックするための左上隅に設けられた共振タグセンサー38a、右上隅に設けられた共振タグセンサー38b、下縁中央に設けられた共振タグセンサー38cを備えている。   A mesh type sensor group 27 including a large number of sensors is installed under the floor of the stage 50, and signals sensed by the sensors are input to the actual position detection circuit 28. The information signal of the device unique ID from the sensor that has received the information of the device unique ID transmitted from the tag 1 to the tag 3 is input to the entity position detection circuit 28, and the entity position detection circuit 28 receives the device signal from the input information signal. Based on the unique ID, the positions where the microphones A and B and the musical instrument A are arranged are detected as described above. The position information of the microphones A and B and the musical instrument A detected by the entity position detection circuit 28 is sent to the control unit 51, and the control unit 51 applies the pad 3-1 that is the CH1 object corresponding to the microphone A and the musical instrument A. A pad 34-2 which is a corresponding CH2 object and a pad 34-3 which is a CH3 object corresponding to the microphone B are arranged at respective positions on the operation table 52 corresponding to the position information. In this case, the pads 34-1 to 34-3 are self-propelled pads, and are instructed by receiving an instruction to move to a predetermined position from the control unit 51 via wireless communication means such as infrared communication. It automatically moves to the position. The operation table 52 is provided at the upper right corner with the resonance tag sensor 38a provided at the upper left corner for detecting the respective positions of the pads 34-1 to 34-3 on the operation table 52 and feeding back to the control unit 51. And a resonance tag sensor 38c provided at the center of the lower edge.

また、操作テーブル52はディスプレイ表示回路36により表示制御される液晶ディスプレイ35を備えており、液晶ディスプレイ35にはパッド34−1〜パッド34−3を取り囲むように、当該パッドに割り当てられているチャンネルのパラメータ値が表示されている。この表示は、半円形の目盛24aと、この目盛に沿って太線の円弧で表示されると共に数値で表示される現在設定されているパラメータ値を表すパラメータ値指示部24bとから構成されている。パラメータは、各パッド34−1〜パッド34−3に割り当てられるチャンネルのミキシングレベル、パンやイコライザ設定値等とされ、図示する例では、各チャンネルのミキシングレベルが表示されており、チャンネル1では−3dB、チャンネル2では−10dB、チャンネル3では0dBのミキシングレベルに設定されている。パッド34−1〜パッド34−3からなるCH1オブジェクト〜CH3オブジェクトでは、当該チャンネルにおける複数種類のパラメータの内の一つのパラメータが選択され、選択されたパラメータ種類に応じてパラメータ値の表示態様が変更される。図4に示す液晶ディスプレイ35上の表示態様は、ミキシングレベルの表示態様とされており、例えばCH1オブジェクトにおいてパンのパラメータが選択された場合は、図4の下部に破線で囲って示したCH1オブジェクト2の表示態様とされる。CH1オブジェクト2の表示態様では、パッド34−1はそのままとされ、パッド34−1を取り囲む半円形の目盛24aと、この目盛のいずれかの目盛位置を指示する5角形のベース状の図形で現在設定されている定位位置を示すパン指示部24cとからなる表示態様とされる。   Further, the operation table 52 includes a liquid crystal display 35 whose display is controlled by the display display circuit 36. The liquid crystal display 35 has channels assigned to the pads so as to surround the pads 34-1 to 34-3. The parameter value of is displayed. This display is composed of a semicircular scale 24a and a parameter value indicating section 24b representing a currently set parameter value displayed as a numerical value and displayed as a thick arc along the scale. The parameters are the mixing level of the channel assigned to each pad 34-1 to pad 34-3, pan and equalizer setting values, etc. In the example shown in the figure, the mixing level of each channel is displayed. The mixing level is set to 3 dB, channel 2 is −10 dB, and channel 3 is 0 dB. In the CH1 object to CH3 object made up of the pads 34-1 to 34-3, one parameter is selected from a plurality of types of parameters in the channel, and the parameter value display mode is changed according to the selected parameter type. Is done. The display mode on the liquid crystal display 35 shown in FIG. 4 is a display mode of the mixing level. For example, when the pan parameter is selected in the CH1 object, the CH1 object indicated by a broken line at the bottom of FIG. 2 display modes. In the display mode of the CH1 object 2, the pad 34-1 is left as it is, and a semicircular scale 24a that surrounds the pad 34-1 and a pentagonal base-shaped figure that indicates the position of any scale on this scale. The display mode includes a pan instruction unit 24c indicating the set localization position.

ここで、パッド34−1〜パッド34−3の構成例を示す斜視図を図5に示す。図5では内部の構造を透過して示している。なお、パッド34−1〜パッド34−3の構成は同様とされていることから、図5ではパッド34−1〜パッド34−3をパッド34として示している。
図5に示すように、パッド34の外形は円盤状とされており、パッド34内には球状のトラックボール34cがほぼ中央に設けられている。トラックボール34cはパッド34を移動させるための手段であり、下部がパッド34の下面より下方に突出しているトラックボール34cが回転されることにより、その回転方向にパッド34が移動していくようになる。パッド34の下面の内側であってトラックボール34cの周囲に駆動部がほぼ直交して設けられているX軸モータ34eとY軸モータ34dとにより、トラックボール34cは回転駆動することができ、X軸モータ34eとY軸モータ34dの回転方向および速度を制御することによりパッド34を任意の方向に移動することができる。このように、パッド34は自走式パッドとされている。また、パッド34の下面の内側に2つのタグ共振回路34aとタグ共振回路34bとが離隔されると共に対向して設けられている。タグ共振回路34a,34bはそれぞれLC共振回路を内蔵しており、タグ共振回路34aの共振周波数faとタグ共振回路34bの共振周波数fbは異なるように設定されている。そして、操作テーブル52に設けられた3つの共振タグセンサー38a〜共振タグセンサー38cの各アンテナから周波数がスキャンされた電波が放射された際に、タグ共振回路34a,34bは共振周波数fa,fbの電波のみを再放射(反射)するようになる。この再放射された電波を3つの共振タグセンサー38a〜共振タグセンサー38cの各アンテナにより受信して、受信信号をパッド位置検出回路39に供給する。パッド位置検出回路39は、供給された受信信号の強度や波形から3つの共振タグセンサー38a〜共振タグセンサー38cとタグ共振回路34a,34bとのそれぞれの距離を検出し、検出された各距離情報からパッド34の位置と向きを算出する。
Here, a perspective view showing a configuration example of the pads 34-1 to 34-3 is shown in FIG. In FIG. 5, the internal structure is shown transparently. Since the pads 34-1 to 34-3 have the same configuration, the pads 34-1 to 34-3 are shown as pads 34 in FIG.
As shown in FIG. 5, the outer shape of the pad 34 is a disc shape, and a spherical track ball 34 c is provided in the pad 34 at substantially the center. The trackball 34c is a means for moving the pad 34. When the trackball 34c whose lower part projects downward from the lower surface of the pad 34 is rotated, the pad 34 moves in the rotation direction. Become. The trackball 34c can be rotationally driven by the X-axis motor 34e and the Y-axis motor 34d, which are provided on the inner side of the lower surface of the pad 34 and around the trackball 34c so as to be orthogonal to each other. The pad 34 can be moved in any direction by controlling the rotation direction and speed of the shaft motor 34e and the Y-axis motor 34d. Thus, the pad 34 is a self-propelled pad. In addition, two tag resonance circuits 34a and a tag resonance circuit 34b are spaced apart and provided inside the lower surface of the pad 34. Each of the tag resonance circuits 34a and 34b incorporates an LC resonance circuit, and the resonance frequency fa of the tag resonance circuit 34a and the resonance frequency fb of the tag resonance circuit 34b are set to be different. When radio waves whose frequencies are scanned are radiated from the respective antennas of the three resonance tag sensors 38a to 38c provided in the operation table 52, the tag resonance circuits 34a and 34b have resonance frequencies fa and fb. Only radio waves are re-radiated (reflected). The reradiated radio wave is received by each of the antennas of the three resonance tag sensors 38 a to 38 c, and the received signal is supplied to the pad position detection circuit 39. The pad position detection circuit 39 detects the distances between the three resonance tag sensors 38a to 38c and the tag resonance circuits 34a and 34b from the intensity and waveform of the supplied reception signal, and the detected distance information. From the above, the position and orientation of the pad 34 are calculated.

すなわち、操作テーブル52上のパッド34−1〜パッド34−3のそれぞれの位置と向きは3つの共振タグセンサー38a〜共振タグセンサー38cとパッド位置検出回路39により検出される。この場合、パッド34−1の2つの共振タグセンサーの共振周波数はfa,fbとされ、パッド34−2の2つの共振タグセンサーの共振周波数はfc,fdとされ、パッド34−3の2つの共振タグセンサーの共振周波数はfe,fgとされているものとし、パッド34−1〜パッド34−3がそれぞれ2つずつ備える共振タグセンサーの共振周波数は互いに異なるようにされている。そして、3つの共振タグセンサー38a〜共振タグセンサー38cは、それぞれ所定の周期毎に周波数スキャンされた電波を放射することで、パッド34−1〜パッド34−3における合計6つのタグ共振回路34a,34b・・・・の共振周波数fa,fb,fc,fd,fe,fgにおける反射波をそれぞれ受信して受信信号をパッド位置検出回路39に供給している。パッド位置検出回路39は、3つの共振タグセンサー38a〜共振タグセンサー38cからの受信信号に基づいてそれぞれのパッドにおける2つのタグ共振回路のそれぞれの位置を検出して、検出された2つのタグ共振回路の位置情報から当該パッドの位置と向きとを算出している。このようにして、パッド位置検出回路39により得られたパッド34−1〜パッド34−3のそれぞれの位置と向きの情報は制御部51にフィードバックされて、制御部51は実体位置検出回路28で検出されたマイクA,マイクBおよび楽器Aが配置されている位置へ対応するよう操作テーブル52上においてパッド34−1〜パッド34−3を自動的に移動させて配置するようにしている。また、マイクA,Bおよび楽器Aのステージ50の配置位置が移動すると、移動した位置が実体位置検出回路28において検出されることから、この検出信号を受けた制御回路51は操作テーブル52上に表示されるパッド34−1〜34−3を音響入力機器30の移動に追随させてタッチパネル24上で移動させていくようになる。   That is, the positions and orientations of the pads 34-1 to 34-3 on the operation table 52 are detected by the three resonance tag sensors 38a to 38c and the pad position detection circuit 39. In this case, the resonance frequencies of the two resonance tag sensors of the pad 34-1 are fa and fb, the resonance frequencies of the two resonance tag sensors of the pad 34-2 are fc and fd, and the two resonance tags of the pad 34-3 are two. The resonance frequency of the resonance tag sensor is assumed to be fe and fg, and the resonance frequency of the resonance tag sensor provided with two pads 34-1 to 34-3 is set to be different from each other. The three resonance tag sensors 38a to 38c radiate radio waves that are frequency-scanned at predetermined intervals, respectively, so that a total of six tag resonance circuits 34a and 34a in the pads 34-1 to 34-3 are provided. The reflected waves at the resonance frequencies fa, fb, fc, fd, fe, and fg of 34b... Are received and the received signals are supplied to the pad position detection circuit 39. The pad position detection circuit 39 detects the positions of the two tag resonance circuits in the respective pads based on the received signals from the three resonance tag sensors 38a to 38c, and detects the detected two tag resonances. The position and orientation of the pad are calculated from the circuit position information. Thus, the information on the positions and orientations of the pads 34-1 to 34-3 obtained by the pad position detection circuit 39 is fed back to the control unit 51. The pads 34-1 to 34-3 are automatically moved and arranged on the operation table 52 so as to correspond to the positions where the detected microphone A, microphone B, and musical instrument A are arranged. Further, when the arrangement positions of the microphones A and B and the stage 50 of the musical instrument A are moved, the moved positions are detected by the actual position detection circuit 28, and the control circuit 51 that has received this detection signal is placed on the operation table 52. The displayed pads 34-1 to 34-3 are moved on the touch panel 24 following the movement of the acoustic input device 30.

これにより、操作テーブル52上にはマイクAのステージ50上の配置位置に対応するCH1オブジェクトのパッド34−1が左下に、楽器Aのステージ50上の配置位置に対応するCH2オブジェクトのパッド34−2が中央上に、マイクBのステージ50上の配置位置に対応するCH3オブジェクトのパッド34−3が右下に配置される。このように、マイクA,Bおよび楽器Aのステージ50の配置位置に対応して操作テーブル52上にCH1オブジェクト〜CH3オブジェクトが表示されることから、各オブジェクトであるパッド34−1〜パッド34−3とマイクA,Bおよび楽器Aとされる音響入力機器30とを直感的に対応付けることができる。   Thereby, on the operation table 52, the pad 34-1 of the CH1 object corresponding to the arrangement position on the stage 50 of the microphone A is located on the lower left, and the pad 34- of the CH2 object corresponding to the arrangement position on the stage 50 of the musical instrument A is displayed. 2 is arranged at the center, and the pad 34-3 of the CH3 object corresponding to the arrangement position on the stage 50 of the microphone B is arranged at the lower right. Thus, since the CH1 object to CH3 object are displayed on the operation table 52 corresponding to the arrangement positions of the microphones A and B and the stage 50 of the musical instrument A, the respective pads 34-1 to 34- 3 can be intuitively associated with the microphones A and B and the acoustic input device 30 as the musical instrument A.

操作テーブル52上の所定の位置に配置されたCH1オブジェクト〜CH3オブジェクトとされているパッド34−1〜パッド34−3のいずれかをユーザが摘んで図4に示すように回転操作を行うと、回転操作されたパッドの向きが変更されたことがパッド位置検出回路39において検出され、検出された変更後の向きを示す操作情報は制御部51に送られる。制御部51は、パッド34−1〜パッド34−3を回転させることによりパラメータ値を変更できる操作摘みに見立てており、送られたパッドの回転後の向きを表す操作情報から対応するチャンネルにおける変更されたパラメータ値を算出し、変更後の対応するチャンネルのパラメータ値をミキシングエンジン部29に送る。さらに、変更後のパラメータ値を該当するCH1オブジェクト〜CH3オブジェクトで表示する表示情報をディスプレイ表示回路36に送り、液晶ディスプレイ35に変更後のパラメータ値が該当するCH1オブジェクト〜CH3オブジェクトのパラメータ値指示部24bで表示されるようになる。このように、ユーザが操作テーブル52上に配置されているCH1オブジェクト〜CH3オブジェクトのパッド34−1〜パッド34−3を回転させる操作を行うと、回転後のパッドの向きの情報に基づいて回転操作されたパッドに割り当てられたパラメータ値が変更され、そのオブジェクトにおけるパラメータ値指示部24bの表示が変更後のパラメータ値に更新されると共に、変更後のパラメータ値がミキシングエンジン部29で反映されて当該チャンネルの音響特性であるミキシングレベルや定位位置が変更されるようになる。   When the user picks any of the pads 34-1 to 34-3, which are CH1 objects to CH3 objects arranged at predetermined positions on the operation table 52, and performs a rotation operation as shown in FIG. The pad position detection circuit 39 detects that the direction of the pad that has been rotated is changed, and the detected operation information indicating the changed direction is sent to the control unit 51. The control unit 51 is regarded as an operation knob that can change the parameter value by rotating the pad 34-1 to the pad 34-3, and the change in the corresponding channel from the operation information indicating the direction of the sent pad after rotation. The calculated parameter value is calculated, and the parameter value of the corresponding channel after the change is sent to the mixing engine unit 29. Further, display information for displaying the changed parameter value in the corresponding CH1 object to CH3 object is sent to the display display circuit 36, and the parameter value indicating section of the CH1 object to CH3 object to which the changed parameter value corresponds to the liquid crystal display 35. 24b is displayed. As described above, when the user performs an operation of rotating the pads 34-1 to 34-3 of the CH1 object to the CH3 object arranged on the operation table 52, the rotation is performed based on the information on the orientation of the pad after the rotation. The parameter value assigned to the operated pad is changed, the display of the parameter value indicating unit 24b in the object is updated to the changed parameter value, and the changed parameter value is reflected in the mixing engine unit 29. The mixing level and the localization position, which are the acoustic characteristics of the channel, are changed.

次に、本発明の第2実施例にかかる電子音響システム2のブロック構成を示すブロック図を図3に示す。第2実施例の電子音響システム2は、操作テーブル52に関連する構成が異なるだけで、その他の構成は第1実施例の電子音響システム1と同様とされていることから、操作テーブル52に関連する構成について説明し、それ以外の構成の説明は省略する。
図3に示す第2実施例の電子音響システム2において、液晶ディスプレイ35は、電子音響システム2の各チャンネルの音響特性を制御可能な操作テーブル52を構成しており、ディスプレイ表示回路36によりパラメータ値等を表示する所定の画像が表示される。液晶ディスプレイ35の上面とされる操作テーブル52上には、ステージ50上の楽器やマイク等の複数の音響入力機器30が実際に配置されている位置に対応して、各々の音響入力機器30を表す複数のパッド34が自動的に配置される。この場合のマイクA,Bおよび楽器Aのステージ50上の配置位置は、ステージ50の床下に配設されたメッシュ型センサー群27および実体位置検出回路28により検出され、複数のパッド34の操作テーブル52上の位置は、操作テーブル52上に設けられた例えば3つのタグセンサーを備える共振タグセンサー群38およびパッド位置検出回路39により検出される。そして、CPU10を含む制御部51が実体位置検出回路28等により検出された音響入力機器30の配置位置に、パッド位置検出回路39等により検出された位置が対応するように、複数のパッド34の移動制御を行っている。
Next, FIG. 3 is a block diagram showing a block configuration of the electroacoustic system 2 according to the second embodiment of the present invention. The electroacoustic system 2 of the second embodiment is different from the operation table 52 only in the configuration related to the operation table 52, and the other configurations are the same as those of the electroacoustic system 1 of the first embodiment. The configuration to be described is described, and the description of the other configuration is omitted.
In the electroacoustic system 2 of the second embodiment shown in FIG. 3, the liquid crystal display 35 constitutes an operation table 52 that can control the acoustic characteristics of each channel of the electroacoustic system 2. A predetermined image for displaying the above is displayed. On the operation table 52 on the upper surface of the liquid crystal display 35, each acoustic input device 30 is arranged corresponding to the position where a plurality of acoustic input devices 30 such as musical instruments and microphones are actually arranged on the stage 50. A plurality of pads 34 to be represented are automatically arranged. In this case, the arrangement positions of the microphones A and B and the musical instrument A on the stage 50 are detected by the mesh type sensor group 27 and the actual position detection circuit 28 arranged under the floor of the stage 50, and the operation tables of the plurality of pads 34 are detected. The position on 52 is detected by a resonance tag sensor group 38 including, for example, three tag sensors provided on the operation table 52 and a pad position detection circuit 39. Then, the control unit 51 including the CPU 10 has a plurality of pads 34 so that the positions detected by the pad position detection circuit 39 and the like correspond to the arrangement positions of the acoustic input device 30 detected by the entity position detection circuit 28 and the like. Movement control is performed.

制御部51からの各パッド34への移動制御の指示はパッド指示赤外線I/F37を介してワイヤレスで行われている。各パッド34は、指示受信赤外線I/F46を備えパッド指示赤外線I/F37から送信された移動制御の指示情報を受信し、この指示情報を制御回路45に供給する。制御回路45は、指示情報に応じてX軸モータ34eおよびY軸モータ34dの駆動制御を行うことにより、指示情報で指示された位置にパッド34が移動していくようになる。なお、各パッド34は当該パッド34の位置と向きを検出するための2つのタグ共振回路34a,34bを備えている。
第2実施例の電子音響システム2においては、操作テーブル52上に配置されている各パッド34−1〜パッド34−3に対応するステージ50上の音響入力機器30をそれぞれ直感的に対応付けることができる。そして、このパッド34−1〜パッド34−3に対して操作テーブル52上において回転操作を行うことにより、パッド34−1〜パッド34−3のそれぞれに対応する音響入力機器30が割り当てられたチャンネルのパラメータの値を操作することができる。このように、操作テーブル52上に配置されたオブジェクトに対して操作テーブル52上において操作を行うことにより、当該オブジェクトに対応する音響入力機器30である楽器やマイクのレベル等を制御することができる。
The movement control instruction to each pad 34 from the control unit 51 is performed wirelessly via a pad instruction infrared I / F 37. Each pad 34 includes an instruction receiving infrared I / F 46, receives movement control instruction information transmitted from the pad instruction infrared I / F 37, and supplies the instruction information to the control circuit 45. The control circuit 45 controls the driving of the X-axis motor 34e and the Y-axis motor 34d according to the instruction information, so that the pad 34 moves to the position instructed by the instruction information. Each pad 34 includes two tag resonance circuits 34a and 34b for detecting the position and orientation of the pad 34.
In the electronic acoustic system 2 of the second embodiment, the acoustic input devices 30 on the stage 50 corresponding to the pads 34-1 to 34-3 disposed on the operation table 52 can be intuitively associated with each other. it can. Then, by performing a rotation operation on the operation table 52 with respect to the pads 34-1 to 34-3, channels to which the acoustic input devices 30 corresponding to the pads 34-1 to 34-3 are assigned. The value of the parameter can be manipulated. As described above, by operating the object arranged on the operation table 52 on the operation table 52, it is possible to control the level of the musical instrument or microphone that is the acoustic input device 30 corresponding to the object. .

次に、本発明にかかる電子音響システムにおいて電源が投入された際にCPU10がOS上で実行する電源投入処理のフローチャートを図6に示す。
電子音響システムにおいて電源が投入されると図6に示す電源投入処理が起動され、ステップS10にてミキシングエンジン部29の初期設定が行われる。初期設定では、シーンメモリから読み出された設定データがミキシングエンジン部29に設定されたり、前回設定した設定データがミキシングエンジン部29に設定されて、所望の音響特性が付与されたミキシング信号がミキシングエンジン部29から出力可能とされる。初期設定が終了するとステップS11にてステージ50上に実際に配置されているマイクA,Bや楽器Aの音響入力機器30の各々と、それぞれ特有の機器固有IDを有する各RFID31との対応付けが行われると共に、音響入力機器30(機器固有ID)にそれぞれ割り当てられるチャンネルとの対応付けが行われ、対応付けの結果はテーブルとして記憶される。次いで、ステップS12にて音響入力機器30のステージ50上のそれぞれの現在位置を検出する実体位置検出処理が行われる。さらに、ステップS13にてタッチパネル24に表示された図形に対する操作を検出するタッチ検出処理あるいは操作テーブル52上のパッド34に対する操作を検出するパッド検出処理を行う検出処理が行われる。この検出処理で検出された操作情報により、ステップS14においてミキシングエンジン部29に設定されるパラメータを更新するパラメータ変更処理が行われ、続いて、ステップS15において表示されるパラメータ値を更新するパラメータ表示処理が行われる。ステップS12ないしステップS15の処理は電源がオフされるまで繰り返し実行され、ミキシングエンジン部29で音響信号処理する際に用いるパラメータを随時に変更することができるようになる。
Next, FIG. 6 shows a flowchart of the power-on process executed by the CPU 10 on the OS when the power is turned on in the electronic acoustic system according to the present invention.
When power is turned on in the electroacoustic system, the power-on process shown in FIG. 6 is started, and the mixing engine unit 29 is initialized in step S10. In the initial setting, the setting data read from the scene memory is set in the mixing engine unit 29, or the setting data set last time is set in the mixing engine unit 29, and the mixing signal to which desired acoustic characteristics are given is mixed. Output from the engine unit 29 is enabled. When the initial setting is completed, each of the sound input devices 30 of the microphones A and B and the musical instrument A actually arranged on the stage 50 is associated with each RFID 31 having a unique device unique ID in step S11. At the same time, the channels are respectively associated with the sound input devices 30 (device unique IDs), and the association results are stored as a table. Next, in step S12, an actual position detection process for detecting each current position on the stage 50 of the acoustic input device 30 is performed. Further, in step S13, a detection process for performing a touch detection process for detecting an operation on the graphic displayed on the touch panel 24 or a pad detection process for detecting an operation on the pad 34 on the operation table 52 is performed. Based on the operation information detected in this detection process, a parameter change process for updating a parameter set in the mixing engine unit 29 is performed in step S14, and subsequently, a parameter display process for updating a parameter value displayed in step S15. Is done. The processing from step S12 to step S15 is repeatedly executed until the power is turned off, and the parameters used when the acoustic signal processing is performed by the mixing engine unit 29 can be changed at any time.

次に、電源投入処理のステップS12において実行される実体位置検出処理のフローチャートを図7に示す。
図7に示す実体位置検出処理がスタートされると、ステップS20にてこの処理を行う対象チャンネルの順番が決められ、決められた順となった対象チャンネルに対応する機器固有IDが、ステップS11において記憶されたテーブルを参照することによりステップS21にて取得される。次いで、ステップS22にて実体位置検出回路28により対象チャンネルに対応する機器固有IDとされているRFID31の位置を検出することにより対象チャンネルに対応する音響入力機器30の位置を検出する。次いで、検出された対象チャンネルの音響入力機器30の位置に対応して設定する図形あるいはパッド34とされるオブジェクトの目標位置がステップS23にて算出される。そして、検出された対象チャンネルにおける音響入力機器30の位置情報および対応するオブジェクトの目標位置情報が対象チャンネルに関連付けてステップS24にて一時記憶される。次いで、ステップS25にて全てのチャンネルにおいて上記した処理が行われたか否かが判断される。ここで、全てのチャンネルにおいて上記した処理が行われていないと判断された場合は、ステップS20に戻り次の順とされているチャンネルに対して上記した処理が行われ、全てのチャンネルにおいて上記した処理が行われるまでステップS20ないしステップS25の処理が繰り返し行われる。そして、ステップS25にて全てのチャンネルにおいて上記した処理が行われたと判断された場合は実体位置検出処理が終了し、電源投入処理のステップS13へリターンされる。
Next, FIG. 7 shows a flowchart of the actual position detection process executed in step S12 of the power-on process.
When the entity position detection process shown in FIG. 7 is started, the order of the target channels for performing this process is determined in step S20, and the device unique ID corresponding to the target channel in the determined order is determined in step S11. It is acquired in step S21 by referring to the stored table. Next, in step S22, the actual position detection circuit 28 detects the position of the RFID 31 that is the device unique ID corresponding to the target channel, thereby detecting the position of the acoustic input device 30 corresponding to the target channel. Next, in step S23, the target position of the object to be the figure or pad 34 set corresponding to the detected position of the sound input device 30 of the target channel is calculated. Then, the detected position information of the acoustic input device 30 in the target channel and the target position information of the corresponding object are temporarily stored in step S24 in association with the target channel. Next, in step S25, it is determined whether or not the above processing has been performed for all channels. If it is determined that the above processing is not performed on all channels, the process returns to step S20 and the above processing is performed on the next channel, and the above processing is performed on all channels. Steps S20 to S25 are repeated until the processing is performed. If it is determined in step S25 that the above-described processing has been performed for all channels, the entity position detection processing ends, and the process returns to step S13 of the power-on processing.

次に、第1実施例の電子音響システム1であった場合に電源投入処理のステップS13において実行されるタッチ検出処理のフローチャートを図8に示す。
図8に示すタッチ検出処理がスタートされると、ステップS60にてこの処理を行う対象チャンネルの順番が決められる。次いで、決められた順となった対象チャンネルにおけるオブジェクトとされる矩形枠状の図形の表示位置が電源投入処理のステップS12において実行される実体位置検出処理において得られたオブジェクト目標位置に基づいてステップS61にて更新される。そして、表示位置が更新された対象チャンネルにおける図形の近傍にタッチされている2点の向きをステップS62にて検出する処理が行われる。次いで、ステップS62の処理において図形の近傍にタッチされている2点が検出されて2点の向きが検出されたか否かがステップS63にて判断される。ここで、図形の近傍にタッチされている2点が検出されて2点の向きが検出された場合は、ステップS64へ進み検出された向きが記憶されてステップS65へ進む。また、図形の近傍にタッチされている2点が検出されなかったり、2点の向きが検出されなかった場合はステップS64の処理はスキップされてステップS65へ分岐する。ステップS65では全てのチャンネルにおいて上記した処理が行われたか否かが判断される。ここで、全てのチャンネルにおいて上記した処理が行われていないと判断された場合は、ステップS60に戻り次の順とされているチャンネルに対して上記した処理が行われ、全てのチャンネルにおいて上記した処理が行われるまでステップS60ないしステップS65の処理が繰り返し行われる。そして、ステップS65にて全てのチャンネルにおいて上記した処理が行われたと判断された場合はタッチ検出処理が終了し、電源投入処理のステップS14へリターンする。
Next, FIG. 8 shows a flowchart of the touch detection process executed in step S13 of the power-on process when the electronic acoustic system 1 of the first embodiment is used.
When the touch detection process shown in FIG. 8 is started, the order of target channels to be subjected to this process is determined in step S60. Next, based on the object target position obtained in the actual position detection process executed in step S12 of the power-on process, the display position of the rectangular frame-like figure as the object in the target channel in the determined order is stepped. Updated in S61. Then, the process of detecting the orientations of the two points touched in the vicinity of the figure in the target channel whose display position has been updated is performed in step S62. Next, in step S62, it is determined in step S63 whether two points touched in the vicinity of the graphic are detected and the direction of the two points is detected. If two points touched in the vicinity of the figure are detected and the directions of the two points are detected, the process proceeds to step S64, the detected direction is stored, and the process proceeds to step S65. If two points touched in the vicinity of the figure are not detected or the direction of the two points is not detected, the process of step S64 is skipped and the process branches to step S65. In step S65, it is determined whether or not the above processing has been performed for all channels. If it is determined that the above processing is not performed on all channels, the process returns to step S60 and the above processing is performed on the next channel, and the above processing is performed on all channels. Steps S60 to S65 are repeated until the processing is performed. If it is determined in step S65 that the above-described processing has been performed for all channels, the touch detection processing ends, and the process returns to step S14 of the power-on processing.

次に、第2実施例の電子音響システム2であった場合に電源投入処理のステップS13において実行されるパッド検出処理のフローチャートを図9に示す。
図9に示すパッド検出処理がスタートされると、パッド位置検出回路39が共振タグセンサー38a〜38cを用いて周波数スキャンを行うことにより、パッド34−1〜34−3が2つずつ備えるタグ共振回路からの反射波を検出する処理がステップS30にて行われる。次いで、ステップS31にてこの処理を行う対象チャンネルの順番が決められる。そして、決められた順となった対象チャンネルにおけるパッド34に備えられている2つのタグ共振回路34a,34bの位置が、ステップS30の処理におけるスキャン結果である反射波の検出信号を解析することにより求められる。求められた対象チャンネルにおける2つのタグ共振回路34a,34bの位置情報から、ステップS34にて対象チャンネルにおけるパッド34の現在位置と向きとを算出し、算出されたパッド34の現在位置と向きの情報を記憶する。そして、算出されたパッド34の現在位置の情報と対象チャンネルにおけるオブジェクトであるパッド34を配置する目標位置との差ベクトルがステップS35にて求められる。次いで、求めた差ベクトルの大きさと方向およびパッド34の現在の向きに応じてX軸モータ34eとY軸モータ34dとを駆動する移動指示をパッド34に赤外線通信で送信し、パッド34において受信された移動指示情報に基づいてX軸モータ34eとY軸モータ34dとが駆動されて、対象チャンネルのパッド34が目標位置へ移動していくようになる。続いて、ステップS37にて全てのチャンネルにおいて上記した処理が行われたか否かが判断される。ここで、全てのチャンネルにおいて上記した処理が行われていないと判断された場合は、ステップS30に戻り次の順とされているチャンネルに対して上記した処理が行われ、全てのチャンネルにおいて上記した処理が行われるまでステップS30ないしステップS37の処理が繰り返し行われる。そして、ステップS37にて全てのチャンネルにおいて上記した処理が行われたと判断された場合はパッド検出処理が終了し、電源投入処理のステップS14へリターンする。
Next, FIG. 9 shows a flowchart of the pad detection process executed in step S13 of the power-on process when the electronic acoustic system 2 of the second embodiment is used.
When the pad detection process shown in FIG. 9 is started, the pad position detection circuit 39 performs a frequency scan using the resonance tag sensors 38a to 38c, whereby the tag resonance provided by the pads 34-1 to 34-3 two by two. A process of detecting a reflected wave from the circuit is performed in step S30. Next, in step S31, the order of target channels for performing this process is determined. Then, the positions of the two tag resonance circuits 34a and 34b provided in the pad 34 in the target channel in the determined order are analyzed by analyzing the detection signal of the reflected wave that is the scan result in the process of step S30. Desired. In step S34, the current position and orientation of the pad 34 in the target channel are calculated from the obtained position information of the two tag resonance circuits 34a and 34b in the target channel, and the calculated current position and orientation information of the pad 34 is calculated. Remember. Then, a difference vector between the calculated information on the current position of the pad 34 and the target position where the pad 34 as the object in the target channel is arranged is obtained in step S35. Next, a movement instruction for driving the X-axis motor 34e and the Y-axis motor 34d in accordance with the magnitude and direction of the obtained difference vector and the current orientation of the pad 34 is transmitted to the pad 34 by infrared communication, and is received by the pad 34. The X-axis motor 34e and the Y-axis motor 34d are driven based on the movement instruction information, and the pad 34 of the target channel moves to the target position. Subsequently, in step S37, it is determined whether or not the above processing has been performed for all channels. If it is determined that the above processing is not performed on all channels, the process returns to step S30, the above processing is performed on the next channel, and the above processing is performed on all channels. Steps S30 to S37 are repeated until the processing is performed. If it is determined in step S37 that the above-described processing has been performed on all channels, the pad detection processing ends, and the process returns to step S14 of the power-on processing.

次に、電源投入処理のステップS14において実行されるパラメータ変更処理のフローチャートを図10に示す。
図10に示すパラメータ変更処理がスタートされると、ステップS40にてこの処理を行う対象チャンネルの順番が決められる。そして、決められた対象チャンネルのオブジェクトの向きが前回処理されたときから変更されているか否かがステップS41にて判断される。このステップS41では、タッチ検出処理のステップS63にて記憶された向きの情報あるいはパッド検出処理のステップS34にて記憶された向きの情報が、前回処理時の向きの情報から変更されているか否かを判断することにより行われる。ここで、対象チャンネルのオブジェクトの向きが前回処理されたときから変更されていると判断された場合は、ステップS42へ進み向きの変更分が反映されたパラメータを算出する。次いで、算出されたパラメータをステップS43にてミキシングエンジン部29へ供給されてパラメータが更新され、更新されたパラメータを用いて音響信号処理が行われるようになる。さらに、ステップS44にて記憶された向きの情報が変更後の向きの情報に更新され、ステップS45へ進む。また、ステップS41にて対象チャンネルのオブジェクトの向きが前回処理されたときから変更されていないと判断された場合は、ステップS45へ分岐し、全てのチャンネルにおいて上記した処理が行われたか否かがステップS45で判断される。ここで、全てのチャンネルにおいて上記した処理が行われていないと判断された場合は、ステップS40に戻り次の順とされているチャンネルに対して上記した処理が行われ、全てのチャンネルにおいて上記した処理が行われるまでステップS40ないしステップS45の処理が繰り返し行われる。そして、ステップS45にて全てのチャンネルにおいて上記した処理が行われたと判断された場合はパラメータ変更処理が終了し、電源投入処理のステップS15へリターンする。
Next, FIG. 10 shows a flowchart of the parameter changing process executed in step S14 of the power-on process.
When the parameter changing process shown in FIG. 10 is started, the order of the target channels on which this process is performed is determined in step S40. Then, it is determined in step S41 whether or not the orientation of the determined object of the target channel has been changed since the previous processing. In this step S41, whether the orientation information stored in step S63 of the touch detection process or the orientation information stored in step S34 of the pad detection process has been changed from the orientation information in the previous process. It is done by judging. If it is determined that the orientation of the object of the target channel has been changed since the previous processing, the process proceeds to step S42 to calculate a parameter reflecting the change in orientation. Next, the calculated parameters are supplied to the mixing engine unit 29 in step S43, the parameters are updated, and acoustic signal processing is performed using the updated parameters. Furthermore, the direction information stored in step S44 is updated to the changed direction information, and the process proceeds to step S45. If it is determined in step S41 that the orientation of the object of the target channel has not been changed since the previous processing, the process branches to step S45 to check whether or not the above processing has been performed for all channels. This is determined in step S45. If it is determined that the above processing is not performed on all channels, the process returns to step S40 and the above processing is performed on the next channel, and the above processing is performed on all channels. Steps S40 to S45 are repeated until the processing is performed. If it is determined in step S45 that the above-described processing has been performed for all channels, the parameter change processing ends, and the process returns to step S15 of the power-on processing.

次に、電源投入処理のステップS15において実行されるパラメータ表示処理のフローチャートを図11に示す。
図11に示すパラメータ表示処理がスタートされると、ステップS50にてこの処理を行う対象チャンネルの順番が決められる。そして、決められた対象チャンネルにおけるパラメータが設定されているミキシングエンジン部29から該当するパラメータがステップS51にて取得され、取得されたパラメータの値がステップS52にて対象チャンネルのオブジェクトの近傍に表示される。この場合の対象チャンネルのオブジェクトの位置は、実態位置検出処理のステップS24において記憶されている当該オブジェクトの目標位置とされる。次いで、全てのチャンネルにおいて上記した処理が行われたか否かがステップS53で判断される。ここで、全てのチャンネルにおいて上記した処理が行われていないと判断された場合は、ステップS50に戻り次の順とされているチャンネルに対して上記した処理が行われ、全てのチャンネルにおいて上記した処理が行われるまでステップS50ないしステップS53の処理が繰り返し行われる。そして、ステップS53にて全てのチャンネルにおいて上記した処理が行われたと判断された場合はパラメータ表示処理が終了し、電源投入処理のステップS12へリターンする。
Next, FIG. 11 shows a flowchart of the parameter display process executed in step S15 of the power-on process.
When the parameter display process shown in FIG. 11 is started, the order of target channels to be subjected to this process is determined in step S50. In step S51, the corresponding parameter is acquired from the mixing engine unit 29 in which the parameter for the determined target channel is set, and the acquired parameter value is displayed in the vicinity of the object of the target channel in step S52. The In this case, the position of the object of the target channel is set as the target position of the object stored in step S24 of the actual position detection process. Next, in step S53, it is determined whether or not the above processing has been performed for all channels. If it is determined that the above processing is not performed on all channels, the process returns to step S50, the above processing is performed on the next channel, and the above processing is performed on all channels. Steps S50 to S53 are repeated until the processing is performed. If it is determined in step S53 that the above processing has been performed for all channels, the parameter display processing ends, and the process returns to step S12 of the power-on processing.

以上説明した本発明において、音響入力機器30はドラム等のアコースティック楽器やボーカルのや音を拾うマイク、電子楽器等とすることができる。また、ステージ50上の音響入力機器30の位置をメッシュ型センサー群27および実体位置検出回路28により検出するようにしたが、これに限ることはなくステージ50上方に設置したカメラにてステージ50上を撮像し、画像認識処理を行うことにより音響入力機器30の輪郭を識別することによりその位置を検出するようにしてもよい。この場合、画像認識処理を所定の周期ごとに行うようにして、音響入力機器30の移動を追跡するようにする。
さらに、第2実施例の電子音響システム2において操作テーブル52は液晶ディスプレイ35を備えていたが、これに替えてスクリーンを備えるようにして、スクリーンに上方や下方から映像を照射することで、ステージ50上の各音響入力機器30に対応して配置されたパッド34−1〜34−3の近傍に、対応するチャンネルのパラメータを表示するようにしてもよい。さらにまた、パッド34を自走式としたが、これに替えて、操作テーブル52を弾性表面波モータで構成したり、パッド34と操作テーブル52とで平面リニアモータを構成してもよい。あるいは、バルクマイクロマシニングによるアレイ型エアーフローアクチェータを操作テーブル52に敷き詰めて、パッド34を移動させるようにしてもよい。さらにまた、操作テーブル52に設ける共振タグセンサーは3つに限るものではなく、2つでも4つ以上としてもよい。
In the present invention described above, the acoustic input device 30 may be an acoustic instrument such as a drum, a microphone for picking up vocals, an electronic musical instrument, or the like. Further, the position of the acoustic input device 30 on the stage 50 is detected by the mesh type sensor group 27 and the actual position detection circuit 28. However, the present invention is not limited to this. The position of the sound input device 30 may be detected by identifying the contour of the sound input device 30 by performing image recognition processing. In this case, the movement of the acoustic input device 30 is tracked by performing the image recognition process every predetermined period.
Further, in the electronic acoustic system 2 of the second embodiment, the operation table 52 is provided with the liquid crystal display 35, but instead of this, a screen is provided so that the screen is irradiated with an image from above or below, thereby providing a stage. The parameters of the corresponding channel may be displayed in the vicinity of the pads 34-1 to 34-3 arranged corresponding to each acoustic input device 30 on 50. Furthermore, although the pad 34 is self-propelled, instead of this, the operation table 52 may be constituted by a surface acoustic wave motor, or the pad 34 and the operation table 52 may constitute a planar linear motor. Alternatively, an array type airflow actuator by bulk micromachining may be spread on the operation table 52 to move the pad 34. Furthermore, the number of resonance tag sensors provided on the operation table 52 is not limited to three, and may be two or four or more.

本発明の第1実施例にかかる電子音響システムのブロック構成を示すブロック図である。It is a block diagram which shows the block configuration of the electroacoustic system concerning 1st Example of this invention. 本発明の第1実施例にかかる電子音響システムにおいてパラメータを変更する態様の概略構成を示す図である。It is a figure which shows schematic structure of the aspect which changes a parameter in the electroacoustic system concerning 1st Example of this invention. 本発明の第2実施例にかかる電子音響システムのブロック構成を示すブロック図である。It is a block diagram which shows the block configuration of the electroacoustic system concerning 2nd Example of this invention. 本発明の第2実施例にかかる電子音響システムにおいてパラメータを変更する態様の概略構成を示す図である。It is a figure which shows schematic structure of the aspect which changes a parameter in the electroacoustic system concerning 2nd Example of this invention. 本発明の第2実施例にかかる電子音響システムにおけるパッドの構成例を示す斜視図である。It is a perspective view which shows the structural example of the pad in the electronic acoustic system concerning 2nd Example of this invention. 本発明の電子音響システムにおいて電源が投入された際にCPUが実行する電源投入処理のフローチャートである。It is a flowchart of the power-on process which CPU performs when the power is turned on in the electroacoustic system of this invention. 本発明の電子音響システムにおける電源投入処理のステップS12において実行される実体位置検出処理のフローチャートである。It is a flowchart of the actual position detection process performed in step S12 of the power-on process in the electronic acoustic system of this invention. 本発明の電子音響システムが第1実施例であった場合に電源投入処理のステップS13において実行されるタッチ検出処理のフローチャートである。It is a flowchart of the touch detection process performed in step S13 of a power-on process when the electroacoustic system of this invention is a 1st Example. 本発明の電子音響システムが第2実施例であった場合に電源投入処理のステップS13において実行されるパッド検出処理のフローチャートである。It is a flowchart of the pad detection process performed in step S13 of a power-on process when the electroacoustic system of this invention is a 2nd Example. 本発明の電子音響システムにおける電源投入処理のステップS14において実行されるパラメータ変更処理のフローチャートである。It is a flowchart of the parameter change process performed in step S14 of the power-on process in the electronic acoustic system of this invention. 本発明の電子音響システムにおける電源投入処理のステップS15において実行されるパラメータ表示処理のフローチャートである。It is a flowchart of the parameter display process performed in step S15 of the power-on process in the electroacoustic system of this invention.

符号の説明Explanation of symbols

1 電子音響システム、2 電子音響システム、10 CPU、11 ROM、12 RAM、13 タイマ、14 外部記憶装置、15 通信I/F、16 通信ネットワーク、17 サーバ装置、18 MIDI I/F、19 MIDI機器、20 LED表示回路、21 LED表示器、22 設定操作検出回路、23 設定操作子、24 タッチパネル、24a 目盛、24b パラメータ値指示部、24c パン指示部、25 ディスプレイ表示回路、26 タッチ検出回路、27 メッシュ型センサー群、28 実体位置検出回路、29 ミキシングエンジン部、30 音響入力機器、31 RFID、32 音響出力機器、32a メインスピーカL、32b メインスピーカR、33 バス、34 パッド、34a タグ共振回路、34b タグ共振回路、34c トラックボール、34d Y軸モータ、34e X軸モータ、35 液晶ディスプレイ、36 ディスプレイ表示回路、37 パッド指示赤外線I/F、38 共振タグセンサー群、38a,38b,38c 共振タグセンサー、39 パッド位置検出回路、40 入力信号I/F、41 出力信号I/F、42 デジタル信号処理回路、45 制御回路、46 指示受信赤外線I/F、50 ステージ、51 制御部、52 操作テーブル 1 electronic acoustic system, 2 electronic acoustic system, 10 CPU, 11 ROM, 12 RAM, 13 timer, 14 external storage device, 15 communication I / F, 16 communication network, 17 server device, 18 MIDI I / F, 19 MIDI device , 20 LED display circuit, 21 LED display, 22 setting operation detection circuit, 23 setting operation element, 24 touch panel, 24a scale, 24b parameter value instruction unit, 24c pan instruction unit, 25 display display circuit, 26 touch detection circuit, 27 Mesh type sensor group, 28 entity position detection circuit, 29 mixing engine unit, 30 acoustic input device, 31 RFID, 32 acoustic output device, 32a main speaker L, 32b main speaker R, 33 bus, 34 pad, 34a tag resonance circuit, Both 34b tags Vibration circuit, 34c trackball, 34d Y-axis motor, 34e X-axis motor, 35 liquid crystal display, 36 display display circuit, 37 pad indicating infrared I / F, 38 resonance tag sensor group, 38a, 38b, 38c resonance tag sensor, 39 Pad position detection circuit, 40 input signal I / F, 41 output signal I / F, 42 digital signal processing circuit, 45 control circuit, 46 instruction reception infrared I / F, 50 stage, 51 control unit, 52 operation table

Claims (4)

複数の音響入力機器から入力された音響信号の各々をそれぞれのパラメータに基づいて音響処理する音響処理手段と、
前記複数の音響入力機器の各々の配置位置を検出する位置検出手段と、
該位置検出手段により検出された位置に対応する操作テーブル上の位置に、前記音響入力機器の各々の前記パラメータの値を変更可能なオブジェクトを、前記音響入力機器の各々に対応して設定する設定手段と、
各々の前記音響入力機器の前記パラメータの値を、対応する前記オブジェクトの近傍に表示するパラメータ表示手段と、
を備えたことを特徴とする電子音響システム。
Acoustic processing means for acoustically processing each of acoustic signals input from a plurality of acoustic input devices based on respective parameters;
Position detecting means for detecting the arrangement position of each of the plurality of acoustic input devices;
Setting for setting an object that can change the value of each parameter of the acoustic input device at a position on the operation table corresponding to the position detected by the position detection unit, corresponding to each of the acoustic input devices. Means,
Parameter display means for displaying the value of the parameter of each acoustic input device in the vicinity of the corresponding object;
An electronic acoustic system comprising:
複数の音響入力機器から入力された音響信号の各々をそれぞれのパラメータに基づいて音響処理する音響処理手段と、
前記複数の音響入力機器の各々の配置位置を検出する位置検出手段と、
該位置検出手段により検出された位置に対応する操作テーブル上の位置に、前記音響入力機器の各々の前記パラメータの値を変更可能なオブジェクトを、前記音響入力機器の各々に対応して設定する設定手段と、
各々の前記オブジェクトに対する操作を検出する操作検出手段と、
該操作検出手段において検出された操作に基づいて、操作が検出された前記オブジェクトに対応する前記音響入力機器の前記パラメータの値を変更するパラメータ変更手段と、
を備えたことを特徴とする電子音響システム。
Acoustic processing means for acoustically processing each of acoustic signals input from a plurality of acoustic input devices based on respective parameters;
Position detecting means for detecting the arrangement position of each of the plurality of acoustic input devices;
Setting for setting an object that can change the value of each parameter of the acoustic input device at a position on the operation table corresponding to the position detected by the position detection unit, corresponding to each of the acoustic input devices. Means,
Operation detection means for detecting an operation on each of the objects;
Parameter changing means for changing the value of the parameter of the acoustic input device corresponding to the object for which an operation has been detected based on the operation detected by the operation detecting means;
An electronic acoustic system comprising:
前記操作テーブルはタッチパネルとされており、前記設定手段により、前記タッチパネルにおける画面の所定の位置に前記オブジェクトとされる図形が表示されることを特徴とする請求項1あるいは2記載の電子音響システム。   The electroacoustic system according to claim 1, wherein the operation table is a touch panel, and the setting unit displays a graphic as the object at a predetermined position on the screen of the touch panel. 前記設定手段は、前記操作テーブル上の所定の位置に前記オブジェクトとされる移動および回転可能なパッドを配置するようにしたことを特徴とする請求項1あるいは2記載の電子音響システム。   3. The electronic acoustic system according to claim 1, wherein the setting means arranges a movable and rotatable pad as the object at a predetermined position on the operation table.
JP2008189585A 2008-07-23 2008-07-23 Electronic acoustic system Expired - Fee Related JP5071290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008189585A JP5071290B2 (en) 2008-07-23 2008-07-23 Electronic acoustic system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008189585A JP5071290B2 (en) 2008-07-23 2008-07-23 Electronic acoustic system

Publications (2)

Publication Number Publication Date
JP2010028620A JP2010028620A (en) 2010-02-04
JP5071290B2 true JP5071290B2 (en) 2012-11-14

Family

ID=41733996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008189585A Expired - Fee Related JP5071290B2 (en) 2008-07-23 2008-07-23 Electronic acoustic system

Country Status (1)

Country Link
JP (1) JP5071290B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6027314B2 (en) * 2011-11-21 2016-11-16 富士通テン株式会社 Acoustic apparatus, parameter changing method and program
JP6372298B2 (en) * 2014-10-16 2018-08-15 ヤマハ株式会社 Sound effect data generator
JP6477096B2 (en) * 2015-03-20 2019-03-06 ヤマハ株式会社 Input device and sound synthesizer
GB2540225A (en) * 2015-07-08 2017-01-11 Nokia Technologies Oy Distributed audio capture and mixing control
WO2018055860A1 (en) * 2016-09-20 2018-03-29 ソニー株式会社 Information processing device, information processing method and program
IT202100010547A1 (en) * 2021-04-27 2022-10-27 Wisycom S R L LOCALIZATION AND COMMUNICATION SYSTEM FOR MICROPHONES

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4449755B2 (en) * 2005-01-18 2010-04-14 ヤマハ株式会社 Control device
JP4595819B2 (en) * 2006-01-19 2010-12-08 ヤマハ株式会社 Acoustic signal processing device

Also Published As

Publication number Publication date
JP2010028620A (en) 2010-02-04

Similar Documents

Publication Publication Date Title
JP5071290B2 (en) Electronic acoustic system
US20070225831A1 (en) Electronic apparatus and computer-readable medium containing program for implementing control method thereof
JP5742163B2 (en) Information processing terminal and setting control system
JP2018163423A (en) Construction management system, construction management method, noise measuring method, portable terminal, and program
JP5194985B2 (en) Control device
JP5589326B2 (en) Program for realizing electronic music apparatus and control method thereof
JP5071291B2 (en) Electronic acoustic system
JP5682285B2 (en) Parameter setting program and electronic music apparatus
US9916824B2 (en) Electronic percussion controller, instrument and method
JP4626546B2 (en) Electronics
JP5035090B2 (en) Control device
US9921553B2 (en) Audio signal processing apparatus for parameter assignment
CN109416906B (en) Tone color setting device, electronic musical instrument system, and tone color setting method
JP4905708B2 (en) GUI development apparatus, program for realizing the control method, and electronic music apparatus
JP2007256503A (en) Electronic equipment and program for implementing its control method
JP2008083625A (en) Acoustic signal processor and program
KR100588526B1 (en) Method for making a library of multi-channel vibration type, and multi-channel vibration control device
JP5029400B2 (en) Management program and information processing apparatus
JP3862989B2 (en) Electronic musical instruments
KR101871102B1 (en) Wearable guitar multi effecter apparatus and method for controlling the apparatus with arm band
JP3901166B2 (en) Electronic musical instruments
JP5135922B2 (en) Electronic music apparatus and program
JP2007256489A (en) Electronic musical instrument
JP5315827B2 (en) Mixing apparatus and program
JP5375363B2 (en) Electronic percussion instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120806

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees