JP2002044778A - Microphone, microphone adapter, display device, mixer, public address system and method - Google Patents

Microphone, microphone adapter, display device, mixer, public address system and method

Info

Publication number
JP2002044778A
JP2002044778A JP2000229598A JP2000229598A JP2002044778A JP 2002044778 A JP2002044778 A JP 2002044778A JP 2000229598 A JP2000229598 A JP 2000229598A JP 2000229598 A JP2000229598 A JP 2000229598A JP 2002044778 A JP2002044778 A JP 2002044778A
Authority
JP
Japan
Prior art keywords
microphone
information
acceleration
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000229598A
Other languages
Japanese (ja)
Inventor
Takaaki Makino
貴昭 牧野
隆二 ▲若▼槻
Ryuji Wakatsuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000229598A priority Critical patent/JP2002044778A/en
Publication of JP2002044778A publication Critical patent/JP2002044778A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereophonic Arrangements (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve a precise localization of an acoustic image and also achieve precise prevention of hauling. SOLUTION: In a public address system, a vocal microphone 10 converts the voice of a singer to an electric signal at a microphone unit 11 to output a voice signal S. An adapter 12 has a built-in angle sensor and an acceleration sensor, and then a microphone output data Dout is created through combining a signal showing a spatial state of the microphone 10 obtained from those sensors with the voice signal S. A display device 21 outputs sound data Ds to a mixer 22 achieving separation of voice sound data Ds from the data Dout; furthermore the device 21 acquires a position of the microphone 10 with double integration of acceleration information to display it on a screen and also displays the direction of the microphone 10 on the screen based on angle information. Therefore, a PA engineer can localize accurately the image operating the mixer 22 without grasping the microphone 10 and also can prevent hauling with certainty.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ハウリングを防止
するとともに音像を定位させるのに好適な拡声システム
および拡声方法並びにこれらに好適なマイクロフォン、
マイクロフォンアダプタ、表示装置およびミキサに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a loudspeaker system and a loudspeaker method suitable for preventing howling and for localizing a sound image, and a microphone suitable for them.
The present invention relates to a microphone adapter, a display device, and a mixer.

【0002】[0002]

【従来の技術】コンサートホールにおける拡声システム
では、ボーカルマイクから出力される信号や楽器マイク
などから出力される信号をミキサを用いて合成し、合成
された信号を増幅して拡声スピーカやモニタスピーカか
ら放音している。拡声スピーカは、ステージと客席との
境界において左端と右端に客席方向を向いて配置されお
り、歌い手の声や楽器の演奏音がステージから離れた観
客にも聞こえるように大音量で放音を行う。
2. Description of the Related Art In a loudspeaker system in a concert hall, a signal output from a vocal microphone or a signal output from a musical instrument microphone or the like is synthesized using a mixer, and the synthesized signal is amplified and output from a loudspeaker or monitor speaker. Sounding. Loudspeakers are arranged at the left and right ends of the boundary between the stage and the seats, facing the direction of the seats, and emit a loud sound so that the singer's voice or the sound of the instrument can be heard by the audience away from the stage. .

【0003】ところで、歌い手は、楽器の演奏音や拡声
スピーカからの放音がホールの壁に反射して戻ってくる
反射音などで自分の声が聞き取りにくくなる。これを解
消するのがモニタスピーカである。モニタスピーカは、
ステージ上に設けられており、拡声スピーカとは逆に客
席からステージの方向を向いて配置されている。このモ
ニタスピーカからは歌い手の音声が放音され、これによ
り、歌い手は大音量の中で自分の歌唱を確認することが
できる。
[0003] The singer is difficult to hear his voice due to the sound of the musical instrument or the sound emitted from the loudspeaker reflected off the wall of the hall and returned. The monitor speaker solves this problem. The monitor speaker is
It is provided on the stage, and is arranged facing the stage from the audience seat opposite to the loudspeaker. The singer's voice is emitted from the monitor speaker, so that the singer can confirm his or her singing at a high volume.

【0004】このような拡声システムにおいてミキサは
客席の中に配置されている。PAエンジニアは、ミキサ
を操作して拡声スピーカやモニタスピーカから放音され
る音の音量を調整する。実際のコンサートでは、歌い手
がボーカルマイクを持ってステージ上を移動しながら歌
唱したり、観客に語りかけたりしながら進行していく。
この場合、PAエンジニアは、ハウリングを防止すると
ともに歌い手の音像が定位するように、ボーカルマイク
の移動に応じてミキサを調整する必要がある。
[0004] In such a loudspeaker system, the mixer is located in a passenger seat. The PA engineer operates the mixer to adjust the volume of the sound emitted from the loudspeaker or the monitor speaker. In an actual concert, a singer moves on stage with a vocal microphone, sings and speaks to the audience.
In this case, the PA engineer needs to adjust the mixer in accordance with the movement of the vocal microphone so that the howling is prevented and the sound image of the singer is localized.

【0005】歌い手の音声は、ボーカルマイクから入力
され増幅等された後にモニタスピーカから放音される
が、その音が再びボーカルマイクで拾われるとフィード
バックループが形成され正帰還がかかる。したがって、
フィードバックゲインが「1」を越える周波数では発振
条件を満たし、ハウリングを起こすことになる。このた
め、PAエンジニアは、ボーカルマイクの位置を目視に
よって確認し、歌い手がモニタスピーカに近寄るとその
音量を下げ、モニタスピーカから遠ざかるとその音量を
上げるといった調整を手動で行っている。
A singer's voice is input from a vocal microphone, amplified, and then emitted from a monitor speaker. When the sound is picked up again by the vocal microphone, a feedback loop is formed and positive feedback is applied. Therefore,
At a frequency where the feedback gain exceeds “1”, the oscillation condition is satisfied, and howling occurs. For this reason, the PA engineer visually confirms the position of the vocal microphone, and manually adjusts the volume when the singer approaches the monitor speaker and decreases the volume when the singer moves away from the monitor speaker.

【0006】また、PAエンジニアは、歌い手がステー
ジの中央で歌唱しているときには、左右の拡声スピーカ
から放音される歌唱音声の音量が等しくなるようにミキ
サを調整する一方、歌い手がステージの右側で歌唱して
いるときには、右側の拡声スピーカから放音される歌唱
音声の音量が左側の音量よりも大きくなるようにミキサ
を調整する。これにより、歌い手の音像を定位させるこ
とができる。
[0006] When the singer is singing in the center of the stage, the PA engineer adjusts the mixer so that the volumes of the singing sounds emitted from the left and right loudspeakers are equal, while the singer is on the right side of the stage. , The mixer is adjusted such that the volume of the singing voice emitted from the right loudspeaker is higher than the left volume. Thereby, the sound image of the singer can be localized.

【0007】すなわち、従来の拡声システムにあって
は、PAエンジニアがボーカルマイクの動きを目視で確
認し、その位置に応じてミキサを操作することにより、
ハウリングを防止するとともに音像を定位させていた。
That is, in the conventional loudspeaker system, the PA engineer visually checks the movement of the vocal microphone and operates the mixer in accordance with the position of the vocal microphone.
Howling was prevented and the sound image was localized.

【0008】[0008]

【発明が解決しようとする課題】ところで、ボーカルマ
イクの位置を正確に把握するには、ステージ全体を見渡
せる必要があることから、従来の拡声システムにあって
は客席前より中央付近にミキサを配置することが望まし
い。しかしながら、そのような場所は、歌い手の姿を身
近に見ることができるプレミアムシートであり客席とし
ての価値が非常に高い。このため、コンサートの運営上
の都合から、ミキサは客席の中央からはずれた場所に配
置されることが多く、PAエンジニアがボーカルマイク
の位置を正確に把握するのが困難であった。
By the way, in order to accurately grasp the position of the vocal microphone, it is necessary to look over the entire stage. Therefore, in the conventional loudspeaker system, a mixer is arranged near the center rather than in front of the audience. It is desirable to do. However, such a place is a premium seat where the singer's figure can be seen at hand, and is extremely valuable as a seat. For this reason, the mixer is often placed off the center of the audience seats for the convenience of the operation of the concert, making it difficult for the PA engineer to accurately grasp the position of the vocal microphone.

【0009】また、仮にミキサを客席の中央に配置した
としても、ボーカルマイクの位置はPAエンジニアの目
視によって認識されるものであるから、ステージの照明
が落とされたり、あるいはスモークによる演出が行われ
たりすると、ボーカルマイクの位置を正確に把握するこ
とが困難であった。
Further, even if the mixer is arranged in the center of the seat, the position of the vocal microphone is visually recognized by the PA engineer, so that the illumination of the stage is turned off or an effect by smoke is performed. In some cases, it was difficult to accurately grasp the position of the vocal microphone.

【0010】さらに、ハウリングは、上述したようにボ
ーカルマイクがモニタスピーカの音を拾うことによって
発生するため、ボーカルマイクとモニタスピーカの相対
的な位置関係だけでなく、ボーカルマイクの向きが問題
となる。例えば、歌い手が客席に向かって歌っている場
合には、ボーカルマイクには主として歌い手の音声が入
力されるが、歌い手が客席に背を向けて歌っている場合
にはボーカルマイクとモニタスピーカが向かい合うこと
になるから、ハウリングが発生し易くなる。しかしなが
ら、ステージから離れた場所にいるPAエンジニアがボ
ーカルマイクの向きを正確に把握することは困難であっ
た。
[0010] Furthermore, howling occurs when the vocal microphone picks up the sound of the monitor speaker as described above, so that not only the relative positional relationship between the vocal microphone and the monitor speaker, but also the orientation of the vocal microphone becomes a problem. . For example, when the singer is singing toward the audience, the vocal microphone mainly receives the singer's voice, but when the singer is singing with the back facing the audience, the vocal microphone and the monitor speaker face each other. Therefore, howling is likely to occur. However, it was difficult for a PA engineer located away from the stage to accurately grasp the direction of the vocal microphone.

【0011】加えて、複数の歌い手がステージ上で踊り
ながら歌唱するような場合には、PAエンジニアは、各
ボーカルマイクの位置を各々把握して、ハウリングを防
止するとともに音像を定位させるために多数の操作子を
操作する必要があるが、それには高度の熟練が必要であ
り、また、人の手で行うには限界があった。
[0011] In addition, when a plurality of singers sing while dancing on the stage, the PA engineer grasps the position of each vocal microphone, prevents howling, and localizes the sound image. , But it requires a high degree of skill, and there is a limit to manual operation.

【0012】本発明は、上述した事情に鑑みてなされた
ものであり、音声情報の他にその空間的な状態を示す付
加情報を出力することができるマイクロフォンとマイク
ロフォンアダプタ、付加情報に基づいてマイクの位置を
表示する表示装置、および付加情報に基づいて音量を自
動的に調整することができるミキサ、これらを用いた拡
声システム等を提供することを目的とする。
The present invention has been made in view of the above circumstances, and has a microphone and a microphone adapter capable of outputting, in addition to audio information, additional information indicating its spatial state, a microphone based on the additional information. It is an object of the present invention to provide a display device for displaying the position of a sound source, a mixer capable of automatically adjusting the volume based on the additional information, a loudspeaker system using the same, and the like.

【0013】[0013]

【課題を解決するための手段】上記課題を解決するた
め、請求項1に係る発明は、音を電気信号に変換して音
情報を出力する変換部を有するマイクロフォンにおい
て、当該マイクロフォンの加速度を検出して加速度情報
を生成する加速度検出部と、前記音情報と前記加速度情
報とを合成して出力する合成部とを備えることを特徴と
するマイクロフォンを提供する。請求項2に係る発明
は、音を電気信号に変換して音情報を出力する変換部を
有するマイクロフォンにおいて、当該マイクロフォンの
向きを検出して向き情報を出力する向き情報検出部と、
前記音情報と前記向き情報とを合成して出力する合成部
とを備えることを特徴とするマイクロフォンを提供す
る。請求項3に係る発明は、音を電気信号に変換して音
情報を出力する変換部を有するマイクロフォンにおい
て、当該マイクロフォンの加速度を検出して加速度情報
を生成する加速度検出部と、当該マイクロフォンの向き
を検出して向き情報を出力する向き情報検出部と、前記
音情報、前記加速度情報、および前記向き情報とを合成
して出力する合成部とを備えることを特徴とするマイク
ロフォンを提供する。請求項4に係る発明は、前記向き
情報検出部は、当該マイクロフォンの姿勢角と方位角と
を検出して姿勢角情報と方位角情報とを出力する角度検
出部によって構成されることを特徴とする請求項2また
は3に記載のマイクロフォンを提供する。請求項5に係
る発明は、前記合成部は、サブフレーム内に音声データ
とユーザーデータとを含むデジタルオーディオフォーマ
ットに準拠したデータを生成するものであり、前記音情
報を前記サブフレーム内の音声データビットに割り当て
るとともに前記加速度情報および前記向き情報を前記ユ
ーザーデータビットに割り当てることを特徴とする請求
項3に記載のマイクロフォンを提供する。
According to a first aspect of the present invention, there is provided a microphone having a conversion unit for converting sound into an electric signal and outputting sound information, wherein the acceleration of the microphone is detected. A microphone that includes an acceleration detection unit that generates acceleration information by combining the sound information and the acceleration information. The invention according to claim 2 is a microphone having a conversion unit that converts sound into an electric signal and outputs sound information, a direction information detection unit that detects a direction of the microphone and outputs direction information,
A microphone is provided, comprising: a synthesizing unit that synthesizes the sound information and the direction information and outputs the synthesized information. According to a third aspect of the present invention, there is provided a microphone having a conversion unit that converts sound into an electric signal and outputs sound information, wherein an acceleration detection unit that detects acceleration of the microphone and generates acceleration information, and a direction of the microphone A microphone comprising: a direction information detecting unit that detects direction and outputs direction information; and a combining unit that combines and outputs the sound information, the acceleration information, and the direction information. The invention according to claim 4 is characterized in that the orientation information detection unit is configured by an angle detection unit that detects the attitude angle and the azimuth angle of the microphone and outputs the attitude angle information and the azimuth angle information. A microphone according to claim 2 or 3 is provided. The invention according to claim 5, wherein the synthesizing unit generates data conforming to a digital audio format including audio data and user data in a subframe, and converts the sound information into audio data in the subframe. The microphone according to claim 3, wherein the acceleration information and the orientation information are allocated to the user data bits while being allocated to bits.

【0014】請求項6に係る発明は、音を電気信号に変
換して音情報を出力するマイクロフォンとともに用いら
れるマイクロフォンアダプタであって、前記マイクロフ
ォンと本体とを接続する入力接続コネクタと、付加情報
を生成する付加情報生成部と、前記入力接続コネクタを
介して供給される前記音情報と生成された付加情報とを
合成して出力情報を生成する合成部とを備えたことを特
徴とするマイクロフォンアダプタを提供する。請求項7
に係る発明は、接続ケーブルと前記本体とを接続するた
めの出力接続コネクタを備え、当該出力接続コネクタを
介して前記出力情報を出力することを特徴とする請求項
6に記載のマイクロフォンアダプタを提供する。請求項
8に係る発明は、出力情報を変調して送信する送信部を
備えることを特徴とする請求項6に記載のマイクロフォ
ンアダプタを提供する。請求項9に係る発明は、前記付
加情報は、前記本体の空間的な状態を示す情報であるこ
とを特徴とする請求項6に記載のマイクロフォンアダプ
タを提供する。請求項10に係る発明は、前記付加情報
生成部は加速度センサを有し、前記本体の加速度を示す
加速度情報を前記付加情報として生成することを特徴と
する請求項6に記載のマイクロフォンアダプタを提供す
る。請求項11に係る発明は、前記付加情報生成部は角
度センサを有し、前記本体の向きを示す角度情報を前記
付加情報として生成することを特徴とする請求項6に記
載のマイクロフォンアダプタを提供する。
According to a sixth aspect of the present invention, there is provided a microphone adapter used together with a microphone for converting sound into an electric signal and outputting sound information, wherein an input connector for connecting the microphone to a main body, and additional information. A microphone adapter comprising: an additional information generating unit that generates the information; and a synthesizing unit that generates the output information by synthesizing the sound information supplied through the input connector and the generated additional information. I will provide a. Claim 7
The invention according to claim 6, further comprising: an output connector for connecting a connection cable to the main body, wherein the output information is output via the output connector. I do. According to an eighth aspect of the present invention, there is provided the microphone adapter according to the sixth aspect, further comprising a transmission unit for modulating and transmitting output information. The invention according to claim 9 provides the microphone adapter according to claim 6, wherein the additional information is information indicating a spatial state of the main body. The invention according to claim 10 provides the microphone adapter according to claim 6, wherein the additional information generation unit has an acceleration sensor and generates acceleration information indicating an acceleration of the main body as the additional information. I do. The invention according to claim 11 provides the microphone adapter according to claim 6, wherein the additional information generation unit has an angle sensor and generates angle information indicating a direction of the main body as the additional information. I do.

【0015】請求項12に係る発明は、マイクロフォン
の空間的な状態を示す付加情報と音声情報とが合成され
たマイク出力情報に基づいて、前記マイクロフォンの状
態を表示する表示装置であって、前記マイク出力情報か
ら前記付加情報を分離する分離部と、分離された付加情
報に基づいて前記マイクロフォンの空間的な状態を表示
する表示部とを備えたことを特徴とする表示装置を提供
する。請求項13に係る発明は、前記付加情報は、前記
マイクロフォンの加速度を示す加速度情報を有してお
り、前記分離部は前記マイク出力情報から前記加速度情
報を分離し、前記表示部は、前記加速度情報を2重積分
して得た移動情報と予め入力される前記マイクロフォン
の初期位置情報とに基づいて、前記マイクロフォンの現
在位置を示す位置情報を生成する位置情報生成部を備
え、前記位置情報に基づいて前記マイクロフォンの位置
を表示することを特徴とする請求項12に記載の表示装
置を提供する。請求項14に係る発明は、前記付加情報
は、前記マイクロフォンの加速度を示す加速度情報と前
記マイクロフォンの向きを示す向き情報とを有してお
り、前記分離部は、前記マイク出力情報から前記加速度
情報と前記向き情報とを各々分離し、前記表示部は、前
記加速度情報を2重積分して得た移動情報と予め入力さ
れる前記マイクロフォンの初期位置情報とに基づいて、
前記マイクロフォンの現在位置を示す位置情報を生成す
る位置情報生成部を備え、前記位置情報に基づいて前記
マイクロフォンの位置を表示するとともに前記向き情報
に基づいて前記マイクロフォンの向きを表示することを
特徴とする請求項12に記載の表示装置を提供する。
A twelfth aspect of the present invention is a display device for displaying the state of the microphone based on microphone output information obtained by synthesizing additional information indicating the spatial state of the microphone and audio information, Provided is a display device, comprising: a separation unit that separates the additional information from microphone output information; and a display unit that displays a spatial state of the microphone based on the separated additional information. The invention according to claim 13, wherein the additional information includes acceleration information indicating an acceleration of the microphone, the separation unit separates the acceleration information from the microphone output information, and the display unit includes the acceleration information. A position information generation unit that generates position information indicating a current position of the microphone based on movement information obtained by performing double integration of information and initial position information of the microphone that is input in advance; 13. The display device according to claim 12, wherein the position of the microphone is displayed based on the display. The invention according to claim 14, wherein the additional information has acceleration information indicating an acceleration of the microphone and direction information indicating a direction of the microphone, and the separation unit determines the acceleration information from the microphone output information. And the orientation information, respectively, the display unit, based on the movement information obtained by double integration of the acceleration information and the initial position information of the microphone previously input,
A position information generating unit that generates position information indicating a current position of the microphone, wherein the position of the microphone is displayed based on the position information and the direction of the microphone is displayed based on the direction information. A display device according to claim 12 is provided.

【0016】請求項15に係る発明は、マイクロフォン
の空間的な状態を示す付加情報と音声情報とが合成され
たマイク出力情報に基づいて、複数のスピーカに供給す
る出力信号のレベルを調整するミキサであって、前記マ
イク出力情報から前記付加情報と前記音声情報とを分離
する分離部と、分離された付加情報に基づいて制御信号
を生成する制御信号生成部と、生成された制御信号に基
づいて、分離された音声情報のレベルを調整して前記各
出力信号を生成する調整部とを備えたことを特徴とする
ミキサを提供する。請求項16に係る発明は、前記付加
情報は、前記マイクロフォンの加速度を示す加速度情報
を有しており、前記分離部は、前記マイク出力情報から
前記加速度情報と前記音声情報とを各々分離し、前記制
御信号生成部は、前記加速度情報を2重積分して得た移
動情報と予め入力される前記マイクロフォンの初期位置
情報とに基づいて、前記マイクロフォンの現在位置を示
す位置情報を生成する位置情報生成部を備え、前記位置
情報に基づいて前記マイクロフォンの音像を定位させる
ように前記制御信号を生成することを特徴とする請求項
15に記載のミキサを提供する。請求項17に係る発明
は、前記付加情報は、前記マイクロフォンの加速度を示
す加速度情報を有しており、前記分離部は、前記マイク
出力情報から前記加速度情報と前記音声情報とを分離
し、前記制御信号生成部は、前記加速度情報を2重積分
して得た移動情報と予め入力される前記マイクロフォン
の初期位置情報とに基づいて、前記マイクロフォンの現
在位置を示す位置情報を生成する位置情報生成部を備
え、当該位置情報と予め入力されるモニタスピーカの位
置情報とに基づいて前記マイクロフォンと前記モニタス
ピーカとの間の距離を算出し、算出された距離に応じて
前記制御信号を生成することを特徴とする請求項15に
記載のミキサを提供する。請求項18に係る発明は、前
記付加情報は、前記マイクロフォンの加速度を示す加速
度情報と前記マイクロフォンの向きを示す向き情報とを
有しており、前記分離部は前記マイク出力情報から前記
加速度情報、前記向き情報および前記音声情報を各々分
離し、前記制御信号生成部は、前記加速度情報を2重積
分して得た移動情報と予め入力される前記マイクロフォ
ンの初期位置情報とに基づいて、前記マイクロフォンの
現在位置を示す位置情報を生成する位置情報生成部を備
え、当該位置情報と予め入力されるモニタスピーカの位
置情報とに基づいて前記マイクロフォンと前記モニタス
ピーカとの間の距離および両者を結ぶ基準軸を特定し、
前記向き情報によって特定される前記マイクロフォンの
中心軸と前記基準軸との角度を算出し、算出された距離
および角度に基づいて前記制御信号を生成することを特
徴とする請求項15に記載のミキサを提供する。
According to a fifteenth aspect of the present invention, a mixer for adjusting a level of an output signal supplied to a plurality of speakers based on microphone output information in which additional information indicating a spatial state of a microphone and audio information are synthesized. A separation unit that separates the additional information and the audio information from the microphone output information, a control signal generation unit that generates a control signal based on the separated additional information, and a control unit that generates a control signal based on the generated control signal. And an adjusting unit for adjusting the level of the separated audio information to generate each of the output signals. The invention according to claim 16, wherein the additional information has acceleration information indicating acceleration of the microphone, and the separation unit separates the acceleration information and the audio information from the microphone output information, The control signal generation unit generates position information indicating a current position of the microphone based on movement information obtained by double integrating the acceleration information and initial position information of the microphone input in advance. The mixer according to claim 15, further comprising a generation unit, wherein the control signal is generated to localize a sound image of the microphone based on the position information. The invention according to claim 17, wherein the additional information has acceleration information indicating acceleration of the microphone, and the separation unit separates the acceleration information and the audio information from the microphone output information, A control signal generation unit configured to generate position information indicating a current position of the microphone based on movement information obtained by double integrating the acceleration information and initial position information of the microphone input in advance. And calculating a distance between the microphone and the monitor speaker based on the position information and the pre-input position information of the monitor speaker, and generating the control signal according to the calculated distance. A mixer according to claim 15, characterized in that: The invention according to claim 18, wherein the additional information has acceleration information indicating acceleration of the microphone and direction information indicating a direction of the microphone, and the separation unit determines the acceleration information from the microphone output information. The control information generator separates the direction information and the audio information, and the control signal generation unit performs the microphone based on the movement information obtained by double integrating the acceleration information and the initial position information of the microphone input in advance. And a distance between the microphone and the monitor speaker based on the position information and the previously input position information of the monitor speaker, and a reference connecting the both. Identify the axis,
The mixer according to claim 15, wherein an angle between a central axis of the microphone specified by the orientation information and the reference axis is calculated, and the control signal is generated based on the calculated distance and angle. I will provide a.

【0017】請求項19に係る発明は、客席に向けて配
置される複数の拡声用スピーカと、歌い手に自分の歌唱
音声を聞き取らせるためにステージに配置されるモニタ
スピーカとを備え、歌い手の音声を増幅して前記拡声用
スピーカおよび前記モニタスピーカから放音させる拡声
システムにおいて、歌い手のワイヤレスマイクロフォン
と、前記ワイヤレスマイクロフォンから送信される電波
の強度を測定して、前記ワイヤレスマイクロフォンの位
置を示す位置情報を生成する位置情報生成装置と、生成
された位置情報に基づいて前記ワイヤレスマイクロフォ
ンの位置をステージ画像内に表示する表示装置と、前記
ワイヤレスマイクロフォンから送信される電波を受信し
て音声情報を再生する受信機と、再生された音声情報を
増幅するとともに前記拡声用スピーカおよび前記モニタ
スピーカに出力する出力信号のレベルを調整するミキサ
とを備えたことを特徴とする拡声システムを提供する。
請求項20に係る発明は、前記ワイヤレスマイクロフォ
ンは、音声を電気信号に変換して音声情報を出力する変
換部と、当該マイクロフォンの向きを検出して向き情報
を出力する向き情報検出部と、前記音声情報と前記向き
情報とを異なるキャリア周波数で各々変調して周波数多
重した信号を送信する送信部とを備え、前記受信機は、
受信した信号を周波数分離する分離部と、分離された各
信号を各々復調して前記音声情報と前記位置情報を再生
する復調部とを備え、前記表示装置は、生成された位置
情報に基づいて前記ワイヤレスマイクロフォンの位置を
ステージ画像内に表示するとともに予め記憶されている
前記モニタスピーカの位置情報に基づいてモニタスピー
カの位置をステージ画像内に表示し、さらに再生された
向き情報に基づいて前記ワイヤレスマイクロフォンの向
きを表示することを備えたことを特徴とする請求項19
に記載の拡声システムを提供する。
According to a nineteenth aspect of the present invention, there are provided a plurality of speakers for loudspeakers arranged toward a customer seat, and a monitor speaker arranged on a stage for allowing a singer to listen to his or her own singing voice. In the loudspeaker system which amplifies the sound and emits the sound from the loudspeaker and the monitor speaker, the singer's wireless microphone and the position information indicating the position of the wireless microphone by measuring the intensity of the radio wave transmitted from the wireless microphone , A display device that displays the position of the wireless microphone in a stage image based on the generated position information, and receives radio waves transmitted from the wireless microphone to reproduce audio information. Receiver and amplify the reproduced audio information Providing a loudspeaker system, characterized in that a mixer for adjusting the level of the serial loud speaker and an output signal to be output to the monitor speaker.
The invention according to claim 20, wherein the wireless microphone converts a sound into an electric signal and outputs sound information, a direction information detecting unit that detects a direction of the microphone and outputs direction information, A transmitting unit that transmits a frequency-multiplexed signal by modulating each of the voice information and the direction information with a different carrier frequency, the receiver includes:
A separating unit that separates the frequency of the received signal, and a demodulating unit that demodulates each of the separated signals to reproduce the audio information and the position information, wherein the display device is configured based on the generated position information. The position of the wireless microphone is displayed in the stage image, the position of the monitor speaker is displayed in the stage image based on the position information of the monitor speaker stored in advance, and the wireless microphone is displayed based on the reproduced direction information. 20. The method of claim 19, further comprising displaying an orientation of the microphone.
The loudspeaker system according to the above is provided.

【0018】請求項21に係る発明は、音声情報を増幅
して複数のスピーカから放音する拡声方法において、マ
イクロフォンにおいて、音声を電気信号に変換して得た
音声情報と当該マイクロフォンの空間的な状態を検出し
て得た付加情報とを合成してマイク出力情報として出力
し、前記マイク出力情報から前記音声情報と前記付加情
報とを各々分離し、分離された前記付加情報に基づい
て、前記音声情報のレベルを調整し前記複数のスピーカ
に出力する各出力信号を生成することを特徴とする拡声
方法を提供する。
According to a twenty-first aspect of the present invention, in the loudspeaker method for amplifying audio information and emitting the sound from a plurality of speakers, the microphone converts the audio information into an electric signal and the spatial information of the microphone. The additional information obtained by detecting the state is synthesized and output as microphone output information, the audio information and the additional information are separated from the microphone output information, and based on the separated additional information, There is provided a loudspeaker method characterized by adjusting the level of audio information and generating each output signal to be output to the plurality of speakers.

【0019】[0019]

【発明の実施の形態】<1.第1実施形態>以下、本発
明の第1実施形態に係わる拡声システムについて、図面
を参照しつつ説明する。 <1−1:拡声システムの概要>図1は、本発明の第1
実施形態に係わる拡声システムを適用したコンサートホ
ールの一例を示す平面図である。また、図2は拡声シス
テムの電気的な構成を示すブロック図である。図1に示
すように拡声システムAは、ボーカルマイク10、左チ
ャンネル用拡声スピーカSPL、右チャンネル用拡声ス
ピーカSPR、第1乃至第3モニタスピーカSPM1〜S
PM3、および調整卓20を備えている。そして、ボーカ
ルマイク10と調整卓20は図示せぬ接続ケーブルで接
続されており、また、調整卓20と各スピーカとは、接
続ケーブルとアンプ(図示略)を介して接続されてい
る。なお、ステージには、ボーカルマイク10の他に複
数の楽器用マイクが配置されており、また必要に応じて
他のボーカルマイクが配置されている。そして、それら
のマイクから出力される信号は調整卓20に供給され、
ボーカルマイク10からの信号と合成されて、各スピー
カに出力されるようになっている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <1. First Embodiment> A loudspeaker system according to a first embodiment of the present invention will be described below with reference to the drawings. <1-1: Overview of the Loudspeaking System> FIG. 1 shows a first embodiment of the present invention.
FIG. 1 is a plan view illustrating an example of a concert hall to which a sound enhancement system according to an embodiment is applied. FIG. 2 is a block diagram showing an electrical configuration of the loudspeaker system. As shown in FIG. 1, a loudspeaker system A includes a vocal microphone 10, a left channel loudspeaker SPL, a right channel loudspeaker SPR, and first to third monitor speakers SPM1 to SPM1 to SPM.
It is provided with a PM3 and an adjustment console 20. The vocal microphone 10 and the adjustment console 20 are connected by a connection cable (not shown), and the adjustment console 20 and each speaker are connected via a connection cable and an amplifier (not shown). Note that a plurality of instrument microphones are arranged on the stage in addition to the vocal microphone 10, and other vocal microphones are arranged as necessary. Then, the signals output from those microphones are supplied to the control console 20,
The signal is synthesized with a signal from the vocal microphone 10 and output to each speaker.

【0020】左右チャンネル用拡声スピーカSPR,S
PLは、ステージ手前の左右端に客席側を向いて配置さ
れる一方、第1乃至第3モニタスピーカSPM1〜SPM3
は、ステージの前よりにステージ奥を向いて配置され
る。そして、左右チャンネル用拡声スピーカSPR,S
PLから、客席奥の観客にも聞き取れるように歌い手の
音声や演奏音が大音量で放音されるようになっている。
また、第1乃至第3モニタスピーカSPM1〜SPM3から
は、歌い手の音声が所定のレベルで放音されるようにな
っている。
Left and right channel loudspeakers SPR, S
The PLs are arranged at the left and right ends in front of the stage, facing the seats, while the first to third monitor speakers SPM1 to SPM3 are arranged.
Are placed facing the back of the stage more than in front of the stage. And left and right channel loudspeakers SPR, S
From the PL, the singer's voice and performance sound are emitted at a high volume so that the audience behind the audience can hear it.
The singer's voice is emitted at a predetermined level from the first to third monitor speakers SPM1 to SPM3.

【0021】また、ボーカルマイク10は、図2に示す
ようにマイクユニット11とアダプタ12を備えてい
る。マイクユニット11は歌い手の音声を電気信号に変
換して音声信号Sとして出力する。アダプタ12の詳細
については後述するが、アダプタ12は、ボーカルマイ
ク10の加速度を検出する加速度センサとボーカルマイ
ク10の向き(姿勢や方位)を検出する角度センサを内
蔵しており、これらによって得られた加速度データおよ
びマイク角度データを音声データに時分割多重してマイ
ク出力データDoutを生成している。
The vocal microphone 10 has a microphone unit 11 and an adapter 12 as shown in FIG. The microphone unit 11 converts the voice of the singer into an electric signal and outputs it as a voice signal S. Although the details of the adapter 12 will be described later, the adapter 12 includes an acceleration sensor for detecting the acceleration of the vocal microphone 10 and an angle sensor for detecting the direction (posture or direction) of the vocal microphone 10. The obtained acceleration data and microphone angle data are time-division multiplexed with audio data to generate microphone output data Dout.

【0022】さらに、調整卓20は、図2に示すように
表示装置21とミキサ22を備えている。表示装置21
はマイク出力データDoutから音声データDsを分離して
ミキサ22に出力する一方、マイク出力データDoutか
ら分離した加速度データおよびマイク角度データに基づ
いてボーカルマイク10のステージ上の位置と、向きを
モニタ(図示略)に表示するようになっている。
Further, the adjusting console 20 includes a display device 21 and a mixer 22, as shown in FIG. Display device 21
Separates the audio data Ds from the microphone output data Dout and outputs it to the mixer 22, while monitoring the position and orientation of the vocal microphone 10 on the stage based on the acceleration data and the microphone angle data separated from the microphone output data Dout ( (Not shown).

【0023】以上の拡声システムAによれば、PAエン
ジニアは、表示装置21を見ながらボーカルマイク10
の位置やその方向を正確に把握することができるため、
ミキサ22を調整してハウリングを防止するとともに、
ボーカルの音像を的確に定位させることが可能となる。
また、PAエンジニアはステージ上のボーカルマイク1
0を直接目視してその位置を把握する必要がないので、
図1にも示すように調整卓20を客席の奥右隅といった
歌い手の姿が見えにくい位置に配置することができ、客
席として価値の高い場所を観客に提供できるといった利
点がある。
According to the above loudspeaker system A, the PA engineer looks at the display device 21 and
Location and its direction,
Adjusting the mixer 22 to prevent howling,
It is possible to accurately localize the vocal sound image.
In addition, the PA engineer has a vocal microphone 1 on the stage.
Since there is no need to see the position of 0 directly to know its position,
As shown in FIG. 1, the adjusting table 20 can be arranged at a position where the singer's figure is difficult to see, such as the back right corner of the audience seat, and there is an advantage that a place with a high value as the audience seat can be provided to the audience.

【0024】<1−2:ボーカルマイク>次に、ボーカ
ルマイク10について説明する。コンサートなどにおい
て、歌い手は自分の好みにあったマイクロフォンを選択
して使用することが多い。歌い手の声質には、例えば、
「低音に張りがある」あるいは「高音に伸びがある」と
いった個性がある。歌い手は、自分の歌唱によって観客
を引き付けるために、個性を十分発揮できるマイクロフ
ォンを選択することになる。
<1-2: Vocal Microphone> Next, the vocal microphone 10 will be described. In a concert or the like, a singer often selects and uses a microphone that suits his or her taste. The singer's voice quality, for example,
There is a personality such as "the bass has tension" or "the treble has extension". The singer will select a microphone that can express his or her personality in order to attract the audience by singing.

【0025】この選択をするに際の重要な要素として、
マイクロフォンの周波数特性や歪特性がある。例えば、
低音に張りがある歌い手は、低音の周波数特性が優れて
おり、かつ、低い周波数で歪率の小さいマイクロホンを
選択することが多い。一方、高音に伸びがある歌い手
は、周波数特性が高音まで伸びているマイクロフォンを
選択するのが通常である。したがって、プロの歌い手
は、自分専用のマイクロフォンを持っていることが多
い。
An important factor in making this choice is:
There are frequency characteristics and distortion characteristics of the microphone. For example,
A singer who has tension in the bass often selects a microphone that has excellent bass frequency characteristics and has a low frequency and a small distortion factor. On the other hand, a singer whose treble has an extension usually selects a microphone whose frequency characteristic extends to the treble. Therefore, professional singers often have their own microphone.

【0026】しかしながら、例えば本実施形態において
求められるようなマイクロフォンは、歌い手の音声を電
気信号に変換して得た音声情報に他の情報を付加して出
力する機能が必要である。そのために専用のマイクロフ
ォンを歌い手に提供する方法も考えられるが、かかる方
法を採るとすると、歌い手がそれまでに慣れ親しんだ自
分専用のマイクロフォンを使えないという問題が生じ
る。
However, for example, the microphone as required in the present embodiment needs a function of adding voice information obtained by converting the voice of the singer to an electric signal and adding other information. For this purpose, a method of providing a dedicated microphone to the singer is conceivable. However, if this method is adopted, a problem arises in that the singer cannot use his / her own microphone that he has been accustomed to.

【0027】そこで、本実施形態では、ボーカルマイク
10の加速度を検出する加速度センサとボーカルマイク
10の向きを検出する角度センサをアダプタ12内に設
け、これらによって得られた加速度データおよびマイク
角度データを音声データに時分割多重してマイク出力デ
ータDoutを生成するように構成することにより、慣れ
親しんだマイクロフォンをそのまま使用したいというプ
ロの歌い手の要求と、マイクロフォンの位置やその方向
を正確に把握したいというPAエンジニアの要求の両方
を満たしているのである。以下、このボーカルマイクに
ついて詳述する。
Therefore, in this embodiment, an acceleration sensor for detecting the acceleration of the vocal microphone 10 and an angle sensor for detecting the direction of the vocal microphone 10 are provided in the adapter 12, and the acceleration data and microphone angle data obtained by these are provided. A configuration in which the microphone output data Dout is generated by time-division multiplexing with audio data, so that a professional singer who wants to use a familiar microphone as it is and a PA that wants to accurately grasp the position and direction of the microphone. It satisfies both engineer requirements. Hereinafter, the vocal microphone will be described in detail.

【0028】図3はボーカルマイクの概観を示す斜視図
である。この図に示すようにボーカルマイク10は、メ
スタイプの接続コネクタ11aを備えるマイクユニット
11と、入力端子がオスタイプの接続コネクタ12aで
ある一方、出力端子がメスタイプの接続コネクタ12b
であるアダプタ12とを備えており、オスタイプの接続
コネクタ13aを有する接続ケーブルと接続されるよう
になっている。なお、接続コネクタとしては音響機器間
の接続に用いられるいわゆるキャノンコネクタ等を用い
ることができる。
FIG. 3 is a perspective view showing an overview of the vocal microphone. As shown in this figure, a vocal microphone 10 includes a microphone unit 11 having a female connector 11a, and a male connector 12a having input terminals and a female connector 12b having output terminals.
And an adapter 12 which is connected to a connection cable having a male connection connector 13a. As the connection connector, a so-called cannon connector used for connection between audio devices can be used.

【0029】このようにボーカルマイク10をマイクユ
ニット11とアダプタ12とに分離できるように構成し
たのは、第1に、既存のマイクユニット11を使用でき
るようにするためである。すなわち、従来のマイクユニ
ット11はアダプタ12を介することなく接続ケーブル
13に直接接続されていたが、アダプタ12を用いるこ
とによってこれらの資産を有効に利用することができる
ようになる。第2に歌い手の好みに応じたマイクユニッ
ト11を使用できるようにするためである。すなわち、
上述したように歌い手の声質には、例えば、「低音に張
りがある」あるいは「高音に伸びがある」といった各々
の個性がある。歌い手は、そのような個性を十分に引き
出せるマイクユニット11を用いて歌唱し、観客を魅了
したいと望むことが多い。したがって、好みのマイクユ
ニット11を使えるようにする必要がある。そのために
アダプタ12によって新機能を付加することにより、マ
イクユニット11を取り替えて使用できるようにしたの
である。
The reason that the vocal microphone 10 can be separated into the microphone unit 11 and the adapter 12 is firstly to enable the use of the existing microphone unit 11. That is, the conventional microphone unit 11 is directly connected to the connection cable 13 without the intervention of the adapter 12, but the use of the adapter 12 allows these resources to be effectively used. Second, the microphone unit 11 according to the singer's preference can be used. That is,
As described above, the voice quality of a singer has individuality such as "the bass has tension" or "the treble has extension". The singer often wants to attract the audience by singing using the microphone unit 11 that can sufficiently bring out such individuality. Therefore, it is necessary to be able to use a favorite microphone unit 11. For this purpose, a new function is added by the adapter 12, so that the microphone unit 11 can be replaced and used.

【0030】次に、アダプタ12の電気的な構成を説明
する。図4は、アダプタ12の構成を示すブロック図で
ある。図に示すようにアダプタ12は、角度センサ12
2、加速度センサ125、デジタルオーディオフォーマ
ット変換部129、A/D変換器121、123、12
4、126〜128、および接続コネクタ12a、12
bを備えている。
Next, the electrical configuration of the adapter 12 will be described. FIG. 4 is a block diagram illustrating a configuration of the adapter 12. As shown in FIG.
2, acceleration sensor 125, digital audio format converter 129, A / D converters 121, 123, 12
4, 126-128 and connectors 12a, 12
b.

【0031】まず、角度センサ122は、ボーカルマイ
ク10の姿勢角θ1を検出して姿勢角信号A1を出力す
るとともにボーカルマイク10の方位角θ2を検出して
方位角信号A2を出力する。ここで、姿勢角θ1と方位
角θ2について図5を参照しつつ説明する。同図におい
てX軸とY軸を含む平面は図1に示すステージの平面で
ある。また、X軸はステージの長手方向と平行であり、
Y軸はステージの短手方向と平行であり、さらにZ軸は
ステージに対して垂直方向の軸である。また、中心軸C
はボーカルマイク10の中心を貫いている。そして、中
心軸CとXY平面との交点をXYZ軸の原点とする。こ
の場合、姿勢角θ1は、XY平面に対する中心軸Cの角
度であり、一方、方位角θ1は、中心軸CをXY平面に
写像した直線C’とY軸との間の角度をいう。また、角
度センサ122から出力された姿勢角信号A1と方位角
信号A2とは、A/D変換器123、124によってア
ナログ信号からデジタル信号に変換され、姿勢角データ
Da1および方位角データDa2としてデジタルオーデ
ィオフォーマット変換部129に供給されるようになっ
ている。
First, the angle sensor 122 detects the attitude angle θ1 of the vocal microphone 10 and outputs an attitude angle signal A1, and also detects the azimuth angle θ2 of the vocal microphone 10 and outputs an azimuth angle signal A2. Here, the attitude angle θ1 and the azimuth angle θ2 will be described with reference to FIG. In the figure, the plane including the X axis and the Y axis is the plane of the stage shown in FIG. The X axis is parallel to the longitudinal direction of the stage,
The Y axis is parallel to the short direction of the stage, and the Z axis is an axis perpendicular to the stage. Also, the center axis C
Penetrates the center of the vocal microphone 10. Then, the intersection between the central axis C and the XY plane is set as the origin of the XYZ axes. In this case, the attitude angle θ1 is the angle of the center axis C with respect to the XY plane, while the azimuth angle θ1 is the angle between the straight line C ′ that maps the center axis C on the XY plane and the Y axis. The attitude angle signal A1 and the azimuth signal A2 output from the angle sensor 122 are converted from analog signals into digital signals by A / D converters 123 and 124, and are converted into digital signals as attitude angle data Da1 and azimuth angle data Da2. The data is supplied to the audio format conversion unit 129.

【0032】次に、加速度センサ125は、図5に示す
XYZ軸の各方向について加速度を各々検出し、X軸加
速度信号Bx、Y軸加速度信号By、およびZ軸加速度
信号Bzとして出力するようになっている。各加速度信
号Bx、By、Bzは、A/D変換器126、127、
128を介して、X軸加速度データDbx、Y軸加速度
データDby、およびZ軸加速度データDbzとしてデ
ジタルオーディオフォーマット変換部129に供給され
るようになっている。
Next, the acceleration sensor 125 detects the acceleration in each of the X, Y, and Z directions shown in FIG. 5 and outputs it as an X-axis acceleration signal Bx, a Y-axis acceleration signal By, and a Z-axis acceleration signal Bz. Has become. Each of the acceleration signals Bx, By, and Bz is output from an A / D converter 126, 127,
The digital audio format converter 129 supplies X-axis acceleration data Dbx, Y-axis acceleration data Dby, and Z-axis acceleration data Dbz via 128.

【0033】次に、デジタルオーディオフォーマット変
換部129は、A/D変換器121を介して得られる音
声データDsと、付加データDaddとを多重してAES
/EBUデジタルオーディオフォーマットに準拠したマ
イク出力データDoutを生成する。ここで、付加データ
Daddは、姿勢角データDa1、方位角データDa2、
X軸加速度データDbx、Y軸加速度データDby、お
よびZ軸加速度データDbzによって構成される。
Next, the digital audio format converter 129 multiplexes the audio data Ds obtained via the A / D converter 121 and the additional data Dadd to multiplex the AES
/ EBU Generates microphone output data Dout conforming to the digital audio format. Here, the additional data Dadd includes the attitude angle data Da1, the azimuth angle data Da2,
It is composed of X-axis acceleration data Dbx, Y-axis acceleration data Dby, and Z-axis acceleration data Dbz.

【0034】図6は、マイク出力データDoutのサブフ
レームフォーマットを示す図である。マイク出力データ
Doutは、同図に示すサブフレームを複数用いて構成さ
れている。サブフレームにおけるユーザーデータのビッ
ト(第29ビット)はユーザーが自由に使用することが
できるビットである。この例では、ユーザーデータとし
て、付加データDaddを挿入することによってマイクの
向きや加速度といった付加情報を伝送している。例え
ば、姿勢角データDa1と方位角データDa2とが各々
5ビットであり、各加速度データDbx、Dby、Db
zが各々8ビットで構成されるとすれば、34個のサブ
フレームで1個の付加データDaddが伝送されることに
なる。
FIG. 6 is a diagram showing a subframe format of the microphone output data Dout. The microphone output data Dout is configured using a plurality of subframes shown in FIG. The bit (the 29th bit) of the user data in the subframe is a bit that can be freely used by the user. In this example, additional information such as the direction and acceleration of the microphone is transmitted by inserting additional data Dadd as user data. For example, each of the attitude angle data Da1 and the azimuth angle data Da2 is 5 bits, and each of the acceleration data Dbx, Dby, Db
If z is composed of 8 bits each, one additional data Dadd is transmitted in 34 subframes.

【0035】このようにボーカルマイク10は、音声デ
ータDsに付加データDaddを時分割多重するアダプタ
12を備えるので、マイクの角度や加速度といった情報
を出力することができ、くわえて、マイクユニット11
を自由に交換することができるので、歌い手は好みのマ
イクユニット11を使用することができる。
As described above, the vocal microphone 10 is provided with the adapter 12 for time-division multiplexing of the additional data Dadd to the audio data Ds, so that information such as the angle and acceleration of the microphone can be output.
Can be freely exchanged, so that the singer can use his favorite microphone unit 11.

【0036】<1−3:表示装置>次に、表示装置21
としては、例えば、パーソナルコンピュータを用いるこ
とができる。図7は、パーソナルコンピュータを用いて
構成した表示装置21のブロック図である。この図に示
すように表示装置21は、装置全体を制御するCPU2
11と、記憶手段として機能するハードディスク21
2、ROM213、およびRAM214と、入力手段と
して機能するマウス215およびキーボード216とを
備えており、さらにマイクの位置や向きを表示するモニ
タ217と、ボーカルマイク11やミキサ12との間で
データの授受を行うインターフェース218とを有して
いる。
<1-3: Display Device> Next, the display device 21
For example, a personal computer can be used. FIG. 7 is a block diagram of the display device 21 configured using a personal computer. As shown in this figure, the display device 21 is provided with a CPU 2 for controlling the entire device.
11 and a hard disk 21 functioning as storage means
2, a ROM 213, a RAM 214, a mouse 215 and a keyboard 216 functioning as input means, and a monitor 217 for displaying the position and orientation of the microphone, and data transfer between the vocal microphone 11 and the mixer 12. And an interface 218 for performing

【0037】ここで、ハードディスク212には、マイ
クの表示に用いるアプリケーションプログラムの他、各
種のコンサートホールに関する基礎データDcが予め記
憶されており、必要に応じてプログラムやデータが読み
出されるようになっている。また、基礎データDcはス
テージや客席の寸法といったホールの構造に関する情報
を含んでいる。ROM213にはコンピュータシステム
を起動するためにブートプログラムが格納されており、
起動時に読み出されるようになっている。また、RAM
214はCPU211の作業領域として機能し、ハード
ディスク212から読み出されたアプリケーションプロ
グラム等が記憶される。
Here, the hard disk 212 stores in advance basic data Dc relating to various concert halls in addition to application programs used for displaying microphones, and programs and data are read out as necessary. I have. The basic data Dc includes information on the structure of the hall, such as the dimensions of the stage and the seats. The ROM 213 stores a boot program for starting the computer system.
It is read at startup. Also, RAM
214 functions as a work area of the CPU 211, and stores application programs and the like read from the hard disk 212.

【0038】このような構成において、CPU211は
各構成部分を制御してモニタ217に所定の画像を表示
させる。図8は、表示装置21におけるCPU211の
機能を説明するための機能ブロック図である。まず、ボ
ーカルマイク10からマイク出力データDoutが供給さ
れると、分離部30はマイク出力データDoutから音声
データDsを分離してミキサ22へ出力するとともに、
複数のサブフレームからユーザーデータを分離して、付
加データDaddを生成する。付加データDaddのうち加速
度データDbx、Dby、Dbzはマイク位置検出部3
1に出力される一方、姿勢角データDa1および方位角
データDa2は表示制御部32に出力される。マイク位
置算出部31は、加速度データDbx、Dby、Dbz
を各々2重積分してマイク位置を算出し、これをマイク
位置データDmとして表示制御部32に出力する。表示
制御部32は、マイク位置データDmに基づいてステー
ジ上のマイク位置を示す画像を表示するようにモニタ2
17を制御するとともに、マイク角度を示す画像を表示
するようにモニタ217を制御する。
In such a configuration, the CPU 211 controls each component to cause the monitor 217 to display a predetermined image. FIG. 8 is a functional block diagram for explaining functions of the CPU 211 in the display device 21. First, when the microphone output data Dout is supplied from the vocal microphone 10, the separation unit 30 separates the audio data Ds from the microphone output data Dout and outputs it to the mixer 22,
User data is separated from a plurality of subframes to generate additional data Dadd. The acceleration data Dbx, Dby, and Dbz of the additional data Dadd are the microphone position detector 3
1, while the attitude angle data Da1 and the azimuth angle data Da2 are output to the display control unit 32. The microphone position calculator 31 calculates acceleration data Dbx, Dby, Dbz
Are respectively double integrated to calculate a microphone position, and this is output to the display control unit 32 as microphone position data Dm. The display controller 32 controls the monitor 2 to display an image indicating the microphone position on the stage based on the microphone position data Dm.
17 and the monitor 217 so as to display an image indicating the microphone angle.

【0039】次に、図9は表示装置21の動作を示すフ
ローチャートである。まず、PAエンジニアは、キーボ
ード216を操作してアプリケーションプログラムを起
動する。すると、モニタ217には複数のコンサートホ
ール名がアイコンとして表示される。対象となるホール
がその中にあれば該当するアイコンを選択し、なければ
基礎データDcの入力画面を読み出し、その入力を行う
(S1)。この際、拡声スピーカSPL、SPRの位置、
モニタスピーカSPM1、SPM2、SPM3の位置も併せて
入力する。
FIG. 9 is a flowchart showing the operation of the display device 21. First, the PA engineer operates the keyboard 216 to activate the application program. Then, a plurality of concert hall names are displayed on the monitor 217 as icons. If the target hole is in the hole, the corresponding icon is selected. If not, the input screen of the basic data Dc is read and the input is performed (S1). At this time, the positions of the loudspeakers SPL and SPR,
The positions of the monitor speakers SPM1, SPM2, and SPM3 are also input.

【0040】この後、PAエンジニアは、ボーカルマイ
クの初期位置を示すマイク初期データDmrをマウス2
15やキーボード216を用いて入力する(S2)。例
えば、コンサートの開始時において、ボーカルマイク1
0が、ステージ上のマイクスタンドに配置されているの
であれば、マイクスタンドに取りつけられたボーカルマ
イク10のXYZ座標を入力する。より具体的には、図
10に示す入力画面からXYZ座標を入力することがで
きる。この入力画面にあっては各種のスピーカが配置さ
れたステージの平面を示すウインドW1が表示される。
PAエンジニアは、マウス215を操作してボーカルマ
イク10を示すアイコンGにポインタPを重ねて、ドラ
ッグ&ドロップの操作を行うことにより、アイコンGの
位置を自由に変更することができる。そして、アイコン
Gの移動に伴って画面右上に表示される点線で囲まれた
ウインドW2内のX、Y座標値が変化する。したがっ
て、アイコンGを移動させることにより、ボーカルマイ
ク10のX、Y座標を入力することができる。また、Z
座標は、点線で囲まれたウインドW2中の「Z= m」
が表示されている領域にポインタPを移動させ、そこで
マウス215をクリックして入力をアクティブにさせた
後にキーボード216を操作することにより、入力され
るようになっている。なお、XY座標は当該ウインド内
に直接入力してもよいことは勿論である。このようにし
て入力されたマイク初期データDmrは、RAM214
に記憶され、マイク位置データDmrを算出する際の初
期値となる。
Thereafter, the PA engineer inputs the microphone initial data Dmr indicating the initial position of the vocal microphone to the mouse 2.
15 or the keyboard 216 (S2). For example, at the start of the concert, vocal microphone 1
If 0 is placed on the microphone stand on the stage, the XYZ coordinates of the vocal microphone 10 attached to the microphone stand are input. More specifically, XYZ coordinates can be input from the input screen shown in FIG. On this input screen, a window W1 indicating the plane of the stage on which various speakers are arranged is displayed.
The PA engineer can freely change the position of the icon G by operating the mouse 215 to place the pointer P on the icon G indicating the vocal microphone 10 and performing a drag and drop operation. Then, as the icon G moves, the X and Y coordinate values in the window W2 surrounded by the dotted line displayed at the upper right of the screen change. Therefore, the X and Y coordinates of the vocal microphone 10 can be input by moving the icon G. Also, Z
The coordinates are “Z = m” in window W2 surrounded by a dotted line.
Is moved to the area where is displayed, the mouse 215 is clicked to activate the input, and then the keyboard 216 is operated to input. Note that the XY coordinates may be input directly into the window. The microphone initial data Dmr thus input is stored in the RAM 214
And becomes an initial value when calculating the microphone position data Dmr.

【0041】そして、コンサートが始まると、PAエン
ジニアはキーボード216を操作して開始指示を入力す
る(S3)。この開始指示をCPU211が検知する
と、CPU211は、マイク出力データDoutから加速
度データDbx、Dby、Dbzと、姿勢角データDa
1および方位角データDa2とを分離する(S4)。さ
らにCPU211は加速度データDbx、Dby、Db
とマイク初期データDmrとに基づいて、マイク位置デ
ータDmを生成する(S5)。ここで、DmのXYZ成
分を(Xm,Ym,Zm)で表し、DmrのXYZ成分
を(X0,Y0,Z0)で表すものとすれば、マイク位
置データDmは以下に示す式で与えられる。Xm=∫∫
Dbx+X0、Ym=∫∫Dby+Y0、Xz=∫∫Db
z+Z0CPU211は上記式を演算してマイク位置デ
ータDmを生成する。
When the concert starts, the PA engineer operates the keyboard 216 to input a start instruction (S3). When the CPU 211 detects this start instruction, the CPU 211 calculates the acceleration data Dbx, Dby, Dbz and the posture angle data Da from the microphone output data Dout.
1 and the azimuth data Da2 (S4). Further, the CPU 211 stores the acceleration data Dbx, Dby, Db
The microphone position data Dm is generated based on and the microphone initial data Dmr (S5). Here, if the XYZ components of Dm are represented by (Xm, Ym, Zm) and the XYZ components of Dmr are represented by (X0, Y0, Z0), the microphone position data Dm is given by the following equation. Xm = ∫∫
Dbx + X0, Ym = ∫∫Dby + Y0, Xz = ∫∫Db
The z + Z0 CPU 211 calculates the above equation to generate microphone position data Dm.

【0042】この後、CPU211は、マイク位置デー
タDmと、姿勢角データDa1および方位角データDa
2とに基づいて、マイクの位置および向きをモニタ21
7に表示する(S6)。図11は、マイクの位置および
向きを表示するモニタ217の画面の一例を示す図であ
る。この表示画面では、ウインドW1中にボーカルマイ
ク10の位置を示すアイコンGがマイク位置データDm
に基づいて表示される一方、ウインドW2にはマイク位
置データDmに基づいてボーカルマイク10のXYZ座
標値が表示される。したがって、歌い手がボーカルマイ
ク10を持ってステージ上を移動すると、これに伴って
ウインドW1中のアイコンGの位置が変化するとともに
ウインドW2中のXYZ座標値が変化する。
Thereafter, the CPU 211 sets the microphone position data Dm, the attitude angle data Da1, and the azimuth angle data Da.
2 to monitor 21 the position and orientation of the microphone.
7 (S6). FIG. 11 is a diagram illustrating an example of a screen of the monitor 217 that displays the position and orientation of the microphone. On this display screen, the icon G indicating the position of the vocal microphone 10 is displayed in the window W1 with the microphone position data Dm.
On the other hand, the window W2 displays the XYZ coordinate values of the vocal microphone 10 based on the microphone position data Dm. Therefore, when the singer moves on the stage with the vocal microphone 10, the position of the icon G in the window W1 changes and the XYZ coordinate values in the window W2 change accordingly.

【0043】また、ウインドW3には姿勢角データDa
1に基づいて、マイクの姿勢が表示されるともに姿勢角
θ1の値が表示される。さらに、ウインドW4には方位
角データDa2に基づいて、マイクの方位が表示される
ともに方位角θ2の値が表示される。したがって、歌い
手がボーカルマイク10の向きを変えながら歌唱する
と、時々刻々と変化するマイクの姿勢や方位がモニタ2
17に表示されることになる。
The window W3 contains the attitude angle data Da.
1, the value of the attitude angle θ1 is displayed while the attitude of the microphone is displayed. Further, based on the azimuth data Da2, the window W4 displays the azimuth of the microphone and the value of the azimuth θ2. Therefore, when the singer sings while changing the direction of the vocal microphone 10, the attitude and orientation of the microphone, which changes every moment, are monitored.
17 will be displayed.

【0044】このように表示装置21のモニタ217に
は、ボーカルマイク10の位置と向きが表示されるの
で、PAエンジニアはステージ上のボーカルマイク10
を直接目視しなくても、すぐ近くにあるモニタ217の
表示画面で位置および向きを正確に把握することができ
る。
As described above, the position and orientation of the vocal microphone 10 are displayed on the monitor 217 of the display device 21.
Can be accurately grasped on the display screen of the monitor 217 in the immediate vicinity without directly observing.

【0045】<1−4:ミキサ>次に、ミキサ22につ
いて説明する。図12はミキサ22のブロック図であ
る。この図に示すようにミキサ22は、入力ユニットU
1、U2、…、各出力系統毎に設けられたバスラインB
L1〜BL5、出力レベル(マスターレベル)を調整す
るための出力アンプ223a〜223eを備えている。
<1-4: Mixer> Next, the mixer 22 will be described. FIG. 12 is a block diagram of the mixer 22. As shown in this figure, the mixer 22 includes an input unit U
1, U2,..., Bus line B provided for each output system
L1 to BL5 and output amplifiers 223a to 223e for adjusting output levels (master levels) are provided.

【0046】また、入力ユニットU1は、音声データD
sをデジタル信号からアナログ信号に変換して音声信号
Sを出力するD/A変換器221と、入力レベル(セン
ドレベル)を調整するための入力アンプ222a〜22
2eを備えている。なお、他の入力ユニットU2、U
3、…、は入力ユニットU1と同様に構成されており、
他のボーカルマイクや楽器マイクからのデータが供給さ
れるようになっている。また、入力アンプ223a〜2
23eおよび出力アンプ223a〜223eは、スライ
ダ型の可変抵抗器VRを各々有しており、PAエンジニ
アが可変抵抗器VRのつまみを操作することによって、
それらのアンプゲインが可変できるようになっている。
The input unit U1 receives the audio data D
a D / A converter 221 for converting s from a digital signal to an analog signal and outputting an audio signal S, and input amplifiers 222a to 222 for adjusting an input level (send level)
2e. The other input units U2, U
, Are configured in the same manner as the input unit U1,
Data from other vocal microphones and instrument microphones is supplied. Also, the input amplifiers 223a to 223a
23e and the output amplifiers 223a to 223e each have a slider-type variable resistor VR, and the PA engineer operates the knob of the variable resistor VR to
These amplifier gains can be changed.

【0047】このような構成において、各入力ユニット
U1、U2、…、の出力信号がバスラインBL1〜BL
5に供給されると、同一ラインに供給される信号が合成
される。さらに、合成された信号が出力アンプ223a
〜223eによって増幅されて各スピーカに供給され
る。
In such a configuration, the output signals of the input units U1, U2,.
5, the signals supplied to the same line are combined. Further, the synthesized signal is output from the output amplifier 223a.
223e and supplied to each speaker.

【0048】例えば、モニタ217に図13に示す画面
が表示されたとする。PAエンジニアは、ウインドW1
からボーカルマイク10がモニタスピーカSPM2に近接
しており、ウインドW3からマイクの姿勢がやや下向き
であり、さらにウインドW4からマイクの方位がモニタ
スピーカSPM2を向いていることを一見して把握でき
る。ボーカルマイク10とモニタスピーカSPM2との相
対的な位置関係がこのような場合には、モニタスピーカ
SPM2からの音をボーカルマイク10が拾い易いので、
ハウリングが発生し易い。そこで、PAエンジニアは、
出力アンプ222dの出力レベルを下げるように、出力
アンプ222dの可変抵抗器VRを操作する。すると、
モニタスピーカSPM2から放音される音量が減少するこ
とになる。これにより、ハウリングを防止することがで
きる。
For example, assume that the screen shown in FIG. 13 is displayed on the monitor 217. PA engineer, Wind W1
It can be seen at a glance that the vocal microphone 10 is close to the monitor speaker SPM2, the microphone is slightly downward from the window W3, and the microphone orientation is facing the monitor speaker SPM2 from the window W4. In such a case where the relative positional relationship between the vocal microphone 10 and the monitor speaker SPM2 is such, the vocal microphone 10 can easily pick up the sound from the monitor speaker SPM2.
Howling easily occurs. So the PA engineer
The variable resistor VR of the output amplifier 222d is operated so as to lower the output level of the output amplifier 222d. Then
The volume emitted from the monitor speaker SPM2 will decrease. Thereby, howling can be prevented.

【0049】また、例えば、ステージ中央にあったボー
カルマイク10がステージ右側に移動して、モニタ21
7に図14に示す画面が表示されたとする。この場合、
PAエンジニアは、ウインドW1からボーカルマイク1
0の移動を認識して、歌い手の音像を定位させるべく、
ミキサ22を調整することになる。具体的には、アイコ
ンGの動きに応じて、入力アンプ222eの出力レベル
を減衰させる一方、入力アンプ222dの出力レベルを
増加させるように各アンプの可変抵抗器VRを操作す
る。これにより、左チャンネル用拡声スピーカSPLの
音量を減衰させる一方、右チャンネル用拡声スピーカS
PRの音量を増加させることができるので、歌い手の音
像を右側に移動させることができる。
For example, the vocal microphone 10 at the center of the stage moves to the right side of the stage,
It is assumed that the screen shown in FIG. 14 is displayed in FIG. in this case,
PA engineer starts vocal microphone 1 from window W1
Recognizing the movement of 0, to localize the sound image of the singer,
The mixer 22 will be adjusted. Specifically, the variable resistor VR of each amplifier is operated so as to attenuate the output level of the input amplifier 222e and increase the output level of the input amplifier 222d in accordance with the movement of the icon G. Thereby, the volume of the left channel loudspeaker SPL is attenuated, while the right channel loudspeaker SPL is attenuated.
Since the volume of PR can be increased, the singer's sound image can be moved to the right.

【0050】このように本実施形態によれば、ボーカル
マイク10のアダプタ12に角度センサ122と加速度
センサ125とを内蔵し、検出された向き情報(Da
1、Da2)および加速度情報(Dbx、Dby、Db
z)と音声情報(Ds)とを多重して伝送し、表示装置
21において、加速度情報に基づいてマイクの位置情報
を生成して、位置情報と向き情報に基づいてボーカルマ
イク10の位置と向きを表示するようにした。このた
め、PAエンジニアはステージ上のボーカルマイク10
を目視しなくてもモニタ217の画面でその位置や向き
を正確に把握することができる。したがって、調整卓2
0をステージを見渡せる場所に配置する必要がなくなる
ので、歌い手の姿が良く見える客席を増やすことができ
る。また、ステージの照明が暗かったりスモーク等の演
出によって、ボーカルマイク10を見ることが不可能な
場合であっても、モニタ画面上でその位置や向きを正確
に把握することができる。これにより、PAエンジニア
に正確な情報を提供して、ハウリングを防止や音像定位
のために行うミキサ操作を容易にすることができる。
As described above, according to the present embodiment, the angle sensor 122 and the acceleration sensor 125 are incorporated in the adapter 12 of the vocal microphone 10, and the detected direction information (Da
1, Da2) and acceleration information (Dbx, Dby, Db)
z) and the audio information (Ds) are multiplexed and transmitted, and the display device 21 generates the position information of the microphone based on the acceleration information, and the position and the direction of the vocal microphone 10 based on the position information and the direction information. Was displayed. For this reason, the PA engineer decided to use the vocal microphone 10 on the stage.
Can be accurately grasped on the screen of the monitor 217 without visually observing. Therefore, adjustment table 2
Since there is no need to place the “0” in a place overlooking the stage, it is possible to increase the number of seats where the singer can be clearly seen. Further, even when it is impossible to see the vocal microphone 10 due to the stage lighting being dark or the effect of smoke or the like, the position and the direction can be accurately grasped on the monitor screen. As a result, accurate information can be provided to the PA engineer, and the mixer operation for preventing howling and localizing the sound image can be facilitated.

【0051】<2.第2実施形態>以下、本発明の第2
実施形態に係わる拡声システムについて、図面を参照し
つつ説明する。 <2−1:拡声システムの構成>図15は、本発明の第
2実施形態に係わる拡声システムの電気的な構成を示す
ブロック図である。第2実施形態に係る拡声システムB
は、表示装置21の替わりに制御装置21’を用いる
点、およびミキサ22の替わりにミキサ22’を用いる
点を除いて、図2に示す第1実施形態の拡声システムA
と同様である。すなわち、ボーカルマイク10は、第1
実施形態で説明したものと同一のものを使用する。
<2. Second Embodiment> Hereinafter, a second embodiment of the present invention will be described.
A sound enhancement system according to an embodiment will be described with reference to the drawings. <2-1: Configuration of a loudspeaker system> FIG. 15 is a block diagram showing an electrical configuration of a loudspeaker system according to a second embodiment of the present invention. Loudspeaker system B according to second embodiment
2 except that a control device 21 ′ is used instead of the display device 21 and a mixer 22 ′ is used instead of the mixer 22 in the first embodiment shown in FIG.
Is the same as That is, the vocal microphone 10 is
The same components as those described in the embodiment are used.

【0052】制御装置21’は、ボーカルマイク10か
ら供給されるマイク出力データDoutに含まれる付加デ
ータDaddに基づいてミキサ22’のセンドレベルとマ
スターレベルとを制御するようになっている。換言すれ
ば、第1実施形態では、PAエンジニアが、表示装置2
1に表示される画面を見ながらミキサ22の可変抵抗器
VRを手動で操作したのに対して、第2実施形態の拡声
システムBでは、ボーカルマイク10の位置や向きの情
報に基づいて、制御装置21’がミキサ22’を自動的
に制御している。
The control device 21 'controls the send level and the master level of the mixer 22' based on the additional data Dadd included in the microphone output data Dout supplied from the vocal microphone 10. In other words, in the first embodiment, the PA engineer operates the display device 2
In contrast to the manual operation of the variable resistor VR of the mixer 22 while looking at the screen displayed in 1, the loudspeaker system B of the second embodiment performs control based on information on the position and orientation of the vocal microphone 10. The device 21 'controls the mixer 22' automatically.

【0053】この例の制御装置21’としてはパーソナ
ルコンピュータを用いることができ、その具体的な構成
は、図7に示す第1実施形態の表示装置21と同様であ
る。ただし、パーソナルコンピュータで実行されるアプ
リケーションプログラムの機能が異なる。図16は、制
御装置21’におけるCPU211の機能を説明するた
めの機能ブロック図である。分離部30およびマイク位
置算出部31は、第1実施形態(図8参照)と同様であ
るから、その説明を省略し、センドレベル調整部33と
マスターレベル調整部34について説明する。センドレ
ベル調整部33は、マイク位置算出部31から供給され
るマイク位置データDmに基づいて、左チャンネル用拡
声スピーカSPLおよび右チャンネル用拡声スピーカS
PRに対応するセンドレベルを制御するためのセンドレ
ベル制御信号Cs1、Cs2を生成してミキサ22’に
出力する。センドレベル制御信号Cs1、Cs2は音像
定位のために用いられる。一方、マスターレベル調整部
34は、マイク位置データDmと姿勢角データDa1お
よび方位角データDa2とに基づいて、各モニタスピー
カSPM1〜SPM3に対応するマスターレベルを制御する
ためのマスターレベル制御信号Cm1〜Cm3を生成し
てミキサ22’に出力する。マスターレベル制御信号C
m1〜Cm3は、ハウリングを防止するために用いられ
る。
A personal computer can be used as the control device 21 'of this example, and the specific configuration is the same as that of the display device 21 of the first embodiment shown in FIG. However, the functions of the application programs executed on the personal computer are different. FIG. 16 is a functional block diagram for explaining functions of the CPU 211 in the control device 21 ′. Since the separation unit 30 and the microphone position calculation unit 31 are the same as those in the first embodiment (see FIG. 8), the description thereof is omitted, and the send level adjustment unit 33 and the master level adjustment unit 34 will be described. The send level adjuster 33, based on the microphone position data Dm supplied from the microphone position calculator 31, performs a left channel loudspeaker SPL and a right channel loudspeaker S
It generates send level control signals Cs1 and Cs2 for controlling the send level corresponding to PR and outputs them to mixer 22 '. The send level control signals Cs1 and Cs2 are used for sound image localization. On the other hand, based on the microphone position data Dm, the attitude angle data Da1, and the azimuth angle data Da2, the master level adjusting unit 34 controls the master level control signals Cm1 to Cm1 for controlling the master levels corresponding to the monitor speakers SPM1 to SPM3. Cm3 is generated and output to the mixer 22 '. Master level control signal C
m1 to Cm3 are used to prevent howling.

【0054】次に、ミキサ22’の主要部構成を図17
を参照して説明する。同図に示すようにミキサ22’の
基本的な構成は、図12に示す第1実施形態のミキサ2
2と同様であり、各入力アンプ222a’〜222e’
および各出力アンプ223a’〜223e’のゲイン
が、センドレベル制御信号Cmとマスターレベル制御信
号Cmに基づいて制御される点で相違している。そし
て、センドレベル制御信号Cs1、Cs2は入力アンプ
222d’、222e’に供給される一方、マスターレ
ベル制御信号Cm1〜Cm3は出力アンプ223c’〜
223e’に供給されるようになっている。
Next, FIG. 17 shows the main configuration of the mixer 22 '.
This will be described with reference to FIG. As shown in the figure, the basic configuration of the mixer 22 'is the same as the mixer 2 of the first embodiment shown in FIG.
2 and the input amplifiers 222a 'to 222e'.
The difference is that the gains of the output amplifiers 223a 'to 223e' are controlled based on the send level control signal Cm and the master level control signal Cm. The send level control signals Cs1 and Cs2 are supplied to input amplifiers 222d ′ and 222e ′, while the master level control signals Cm1 to Cm3 are output amplifiers 223c ′ to 223c ′.
223e '.

【0055】したがって、センドレベル制御信号Cs
1、Cs2に基づいて、左チャンネル用拡声スピーカS
PLおよび右チャンネル用拡声スピーカSPRに供給され
る信号レベルが自動的に調整される一方、マスターレベ
ル制御信号Cm1〜Cm3に基づいてモニタスピーカS
PM1〜SPM3に供給される信号レベルが自動的に調整さ
れることになる。
Therefore, the send level control signal Cs
1. Based on Cs2, left channel loudspeaker S
The signal levels supplied to PL and the right channel loudspeaker SPR are automatically adjusted, while the monitor speakers S based on the master level control signals Cm1 to Cm3.
The signal levels supplied to PM1 to SPM3 are automatically adjusted.

【0056】<2−2:拡声システムの動作>次に、拡
声システムBの動作について説明する。 <2−2−1:音像定位処理>まず、音像定位の自動調
整について説明する。図18は音像定位の自動調整を説
明するためのフローチャートである。最初にPAエンジ
ニアは、制御装置21’のキーボード216を操作して
基礎データDcと基準位置データDrを入力する(S2
1)。この際、拡声スピーカSPL、SPRの位置、モニ
タスピーカSPM1、SPM2、SPM3の位置も併せて入力
する。ここで、基準位置データDrは、音像を定位させ
る基準位置を指示するデータである。基準位置は、通
常、客席前より中央付近に選ばれる。例えば、図19に
示す例では、Prefが基準位置となる。次に、マイク初
期データDmrの入力に関するステップS22からマイ
ク位置データDmの算出に関するステップS25までの
処理は、第1実施形態で説明した図9に示すフローチャ
ートのステップS2からステップS5までの処理と同様
であるから、ここでは説明を省略する。
<2-2: Operation of the loudspeaker system> Next, the operation of the loudspeaker system B will be described. <2-2-1: Sound Image Localization Processing> First, automatic adjustment of sound image localization will be described. FIG. 18 is a flowchart for explaining the automatic adjustment of the sound image localization. First, the PA engineer operates the keyboard 216 of the control device 21 ′ to input the basic data Dc and the reference position data Dr (S2).
1). At this time, the positions of the loudspeakers SPL, SPR and the positions of the monitor speakers SPM1, SPM2, SPM3 are also input. Here, the reference position data Dr is data indicating a reference position at which the sound image is localized. The reference position is usually selected near the center rather than in front of the audience. For example, in the example shown in FIG. 19, Pref is the reference position. Next, the processing from step S22 relating to the input of the microphone initial data Dmr to step S25 relating to the calculation of the microphone position data Dm is the same as the processing from step S2 to step S5 in the flowchart shown in FIG. 9 described in the first embodiment. Therefore, the description is omitted here.

【0057】ステップS25においてマイク位置データ
Dmが算出されると、CPU211は、マイク位置デー
タDmと基準位置データDrとに基づいて、左チャンネ
ル用拡声スピーカSPLと右チャンネル用拡声スピーカ
SPRとを結ぶX軸と、ボーカルマイク10と基準位置
Prefとを結ぶ直線との交点のX座標を算出する(S2
6)。この点について、図19を参照して具体的に説明
する。同図に示すようにマイク位置データDmの指示す
るボーカルマイク10の座標が(Xb、Yb)であり、
基準位置の座標が(Xr、Yr)であったとすると、交
点のX座標Xaは、以下の式で与えられる。 Xa=Xb+(Xr−Xb)Yb/(Yb−Yr) CPU211は上記した式を演算してX座標Xaを算出
している。
When the microphone position data Dm is calculated in step S25, the CPU 211 connects the left channel loudspeaker SPL and the right channel loudspeaker SPR based on the microphone position data Dm and the reference position data Dr. The X coordinate of the intersection of the axis and the straight line connecting the vocal microphone 10 and the reference position Pref is calculated (S2).
6). This point will be specifically described with reference to FIG. As shown in the figure, the coordinates of the vocal microphone 10 indicated by the microphone position data Dm are (Xb, Yb),
Assuming that the coordinates of the reference position are (Xr, Yr), the X coordinate Xa of the intersection is given by the following equation. Xa = Xb + (Xr-Xb) Yb / (Yb-Yr) The CPU 211 calculates the X coordinate Xa by calculating the above equation.

【0058】次に、CPU211はX座標Xaに基づい
て、パンニングテーブルTBLaを参照してセンドレベ
ル制御信号Cs1、Cs2を生成する(S27)。パン
ニングテーブルTBLaは、センドレベル制御データD
Cs1、DCs2を格納しており、この処理を開始する
前にハードディスク212から読み出されRAM214
に転送されるようになっている。図20にパンニングテ
ーブルTBLaの記憶内容の一例を示す。この例のパン
テーブルTBLaは各センドレベル制御データDCs
1、DCs2を各々N個格納しており、アドレスnが大
きくなるにつれDCs1の値が減少する一方、DCs2
の値が増加するようになっている。あるアドレスnにお
けるDCs1とDCs2の値をDCs1(n)、DCs
2(n)で表すものとすれば、「K=DCs1(n)2
+DCs2(n)2」が一定となるようになっている。
基準位置Prefにおける左チャンネルの音量をV1、右
チャンネルの音量をV2とすると、そこで聞こえる歌い
手の音声は図19に示すようにベクトルVzで表すこと
ができる。この例では、Kが固定になるようにDCs1
(n)、DCs2(n)が選ばれるから、ボーカルマイ
ク10が移動しても基準位置Prefでは音量を一定にす
ることができる。
Next, based on the X coordinate Xa, the CPU 211 generates send level control signals Cs1 and Cs2 with reference to the panning table TBLa (S27). The panning table TBLa stores the send level control data D
Cs1 and DCs2 are stored and read out from the hard disk 212 before starting this processing.
To be forwarded to. FIG. 20 shows an example of the stored contents of the panning table TBLa. The pan table TBLa in this example includes the send level control data DCs
1, DCs2 are stored, and the value of DCs1 decreases as the address n increases, while DCs2
Is to be increased. The values of DCs1 and DCs2 at a certain address n are DCs1 (n), DCs
2 (n), “K = DCs1 (n) 2
+ DCs2 (n) 2 ”is fixed.
Assuming that the left channel volume at the reference position Pref is V1 and the right channel volume is V2, the singer's voice heard there can be represented by a vector Vz as shown in FIG. In this example, DCs1 is set so that K is fixed.
Since (n) and DCs2 (n) are selected, the volume can be kept constant at the reference position Pref even if the vocal microphone 10 moves.

【0059】ステップS27の処理において、CPU2
11は、まず、ステップS21で入力された左チャンネ
ル用スピーカSPLの位置(図19に示す例では原点)
と右チャンネル用スピーカSPRの位置に基づいて、そ
れらの間の距離Lを算出し、さらに、n=N・Xa/L
の演算を行って、アドレスnを生成する。このように正
規化処理を行うことによって、パンニングテーブルTB
Laに汎用性を持たせている。そして、算出されたアド
レスnを用いてパンニングテーブルTBLaを参照して
センドレベル制御データDCs1、DCs2を読み出
し、さらに、これらをインターフェース218に転送し
ている。センドレベル制御データDCs1、DCs2
は、インターフェース218においてアナログ信号に変
換され、センドレベル制御信号Cs1、Cs2としてミ
キサ22’に供給される。
In the process of step S27, the CPU 2
Reference numeral 11 denotes the position of the left-channel speaker SPL input in step S21 (origin in the example shown in FIG. 19).
And the distance L between them based on the positions of the right channel speaker SPR and n = N · Xa / L
To generate an address n. By performing the normalization processing in this manner, the panning table TB
La has versatility. Then, the send level control data DCs1 and DCs2 are read with reference to the panning table TBLa using the calculated address n, and further, these are transferred to the interface 218. Send level control data DCs1, DCs2
Are converted into analog signals at the interface 218 and supplied to the mixer 22 ′ as send level control signals Cs1 and Cs2.

【0060】次に、ミキサ22’に入力したセンドレベ
ル制御信号Cs1、Cs2は入力アンプ222d’、2
22e’に供給される。入力アンプ222d’、222
e’は、左チャンネル用拡声スピーカSPLと右チャン
ネル用拡声スピーカSPRに対応するセンドレベルをセ
ンドレベル制御信号Cs1、Cs2に応じて各々調整す
る(S28)。これにより、左チャンネル用スピーカS
PLから放音されるボーカルレベルと右チャンネル用ス
ピーカSPRから放音されるボーカルレベルが自動的に
調整される。この結果、PAエンジニアがミキサの可変
抵抗器VRを操作しなくても、ボーカルマイク10の移
動に追随して歌い手の音像を自動的に定位させることが
可能となる。
Next, the send level control signals Cs1 and Cs2 input to the mixer 22 'are input to the input amplifiers 222d' and 222d ', respectively.
22e '. Input amplifier 222d ', 222
e ′ adjusts send levels corresponding to the left channel loudspeaker SPL and the right channel loudspeaker SPR in accordance with the send level control signals Cs1 and Cs2 (S28). Thereby, the left channel speaker S
The vocal level emitted from the PL and the vocal level emitted from the right channel speaker SPR are automatically adjusted. As a result, the sound image of the singer can be automatically localized following the movement of the vocal microphone 10 without the PA engineer operating the variable resistor VR of the mixer.

【0061】<2−2−2:ハウリング防止処理>次
に、ハウリングを防止するための自動調整について説明
する。図21はハウリングを防止するための自動調整を
説明するためのフローチャートである。なお、ハウリン
グ防止処理では、上述した音像定位処理と同様に基礎デ
ータDcの入力(S21)からマイク位置データの算出
(S25)までの処理を行うが、同図に示すフローチャ
ートでは省略して記載してある。
<2-2-2: Howling Prevention Processing> Next, automatic adjustment for preventing howling will be described. FIG. 21 is a flowchart for explaining automatic adjustment for preventing howling. In the howling prevention process, the processes from the input of the basic data Dc (S21) to the calculation of the microphone position data (S25) are performed as in the sound image localization process described above, but are omitted from the flowchart shown in FIG. It is.

【0062】ステップS25においてマイク位置データ
Dmが算出されると、CPU211は、マイク位置デー
タDmとスピーカの位置データに基づいて、各モニタス
ピーカSPM1〜SPM3を基準としてボーカルマイク10
の相対位置座標を算出する(S31)。例えば、図22
に示すようにボーカルマイク10が座標(Xm、Ym、
Zm)にあり、モニタスピーカSPM2が座標(Xs、Y
s、Zs)にあるならば、モニタスピーカSPM2に対す
るボーカルマイク10の相対座標は、(Xm−Xs、Y
m−Ys、Zm−Zs)となる。
When the microphone position data Dm is calculated in step S25, the CPU 211 determines the vocal microphone 10 based on the monitor speakers SPM1 to SPM3 based on the microphone position data Dm and the speaker position data.
Is calculated (S31). For example, FIG.
The vocal microphone 10 has coordinates (Xm, Ym,
Zm), and the monitor speaker SPM2 has coordinates (Xs, Y
s, Zs), the relative coordinates of the vocal microphone 10 with respect to the monitor speaker SPM2 are (Xm-Xs, Y
m-Ys, Zm-Zs).

【0063】次に、CPU211は、マイク位置データ
Dmとスピーカの位置データに基づいて、ボーカルマイ
ク10から各モニタスピーカSPM1〜SPM3までの距離
d1、d2、d3を各々算出する(S32)。算出され
た距離d1、d2、d3は、ハウリングの程度を示す第
1指標データKd1、Kd2、Kd3としてRAM21
4に記憶される。図22に示す例では、CPU211は
以下の式に従って距離d2を算出する。 d2={(Xm−Xs)2+(Ym−Ys)2+(Zm−
Zs)21/2
Next, the CPU 211 calculates distances d1, d2, and d3 from the vocal microphone 10 to the monitor speakers SPM1 to SPM3 based on the microphone position data Dm and the speaker position data (S32). The calculated distances d1, d2, d3 are used as first index data Kd1, Kd2, Kd3 indicating the degree of howling in the RAM 21.
4 is stored. In the example shown in FIG. 22, the CPU 211 calculates the distance d2 according to the following equation. d2 = {(Xm−Xs) 2 + (Ym−Ys) 2 + (Zm−
Zs) 21/2

【0064】次に、CPU211は、モニタスピーカS
PM1〜SPM3に対するボーカルマイク10の相対角度を
各々算出して、各モニタスピーカSPM1〜SPM3とボー
カルマイク10を結ぶ基準軸Q1〜Q3を特定する。図
22に示す例では基準軸Q2は、モニタスピーカSPM2
に対するボーカルマイク10の相対角度である仰角θq1
と方位角θq2で特定することができる。CPU211は
仰角θq1および方位角θq2を以下の式に従って算出する
(S33)。 θq1=tan-1[(Zm−Zs)/{(Xm−Xs)2+(Ym
−Ys)2}1/2] θq2=tan-1{(Xm−Xs)/(Ym−Ys)}
Next, the CPU 211 sets the monitor speaker S
The relative angles of the vocal microphone 10 with respect to PM1 to SPM3 are calculated, and reference axes Q1 to Q3 connecting the monitor speakers SPM1 to SPM3 and the vocal microphone 10 are specified. In the example shown in FIG. 22, the reference axis Q2 is the monitor speaker SPM2.
Elevation angle θq1, which is the relative angle of the vocal microphone 10 with respect to
And the azimuth θq2. The CPU 211 calculates the elevation angle θq1 and the azimuth angle θq2 according to the following equations (S33). θq1 = tan −1 [(Zm−Zs) / {(Xm−Xs) 2 + (Ym
−Ys) 2 } 1/2 ] θq2 = tan −1 {(Xm−Xs) / (Ym−Ys)}

【0065】次に、CPU211は、ボーカルマイク1
0から伝送されてくる姿勢角データDa1および方位角
データDa2と、ステップS31で各モニタスピーカS
PM1〜SPM3毎に算出した仰角θq1および方位角θq2と
に基づいて、ボーカルマイク10の中心軸Mと基準軸Q
1〜Q3との間の角度ψ1〜ψ3を算出する(S3
4)。算出された角度ψ1、ψ2、ψ3は、ハウリング
の程度を示す第2指標データKψ1、Kψ2、Kψ3と
してRAM214に記憶される。図22には中心軸Mと
基準軸Q2との間の角度ψ2を示してある。
Next, the CPU 211 controls the vocal microphone 1
0 and the attitude angle data Da1 and the azimuth angle data Da2 transmitted from each of the monitor speakers S in step S31.
Based on the elevation angle θq1 and azimuth θq2 calculated for each of PM1 to SPM3, the center axis M and the reference axis Q of the vocal microphone 10 are set.
The angles ψ1 to ψ3 between 1 and Q3 are calculated (S3
4). The calculated angles ψ1, ψ2, ψ3 are stored in the RAM 214 as second index data Kψ1, Kψ2, Kψ3 indicating the degree of howling. FIG. 22 shows an angle ψ2 between the central axis M and the reference axis Q2.

【0066】この後、CPU211は、第1指標データ
Kd1、Kd2、Kd3と第2指標データKψ1、Kψ
2、Kψ3とに基づいて、2次元制御テーブルTBLb
を参照して、マスターレベル制御データDCm1〜DC
m3を読み出し、さらに、これらをインターフェース2
18に転送している。マスターレベル制御データDCm
1、DCm2、DCm3は、インターフェース218に
おいてアナログ信号に変換され、マスターレベル制御信
号Cm1、Cm2、Cm3としてミキサ22’に供給さ
れる(S35)。
Thereafter, the CPU 211 outputs the first index data Kd1, Kd2, Kd3 and the second index data K {1, K}.
2, two-dimensional control table TBLb based on Kψ3
With reference to master level control data DCm1-DCm
m3 and read them through interface 2
18. Master level control data DCm
1, DCm2 and DCm3 are converted into analog signals at the interface 218 and supplied to the mixer 22 'as master level control signals Cm1, Cm2 and Cm3 (S35).

【0067】図23は2次元制御テーブルTBLbの概
念図である。この図に示すように2次元制御テーブルT
BLbは、3個のサブテーブルTBLb1〜TBLb3
から構成されており、各サブテーブルTBLb1〜TB
Lb3には、第1指標データKd1〜Kd3と第2指標
データKψ1〜Kψ3に対応付けられてマスターレベル
制御データDCm1〜DCm3が各々格納されている。
サブテーブルTBLb1からマスターレベル制御データ
DCm1を読み出すときには、第1指標データKd1と
第2指標データKψ1とに基づいて記憶領域を特定し、
当該記憶領域から対応するマスターレベル制御データD
Cm1を読み出す。他のサブテーブルTBLb2、TB
Lb3についても同様である。なお、2次元制御テーブ
ルTBLbは、ボーカルマイク10の指向特性と各モニ
タスピーカSPM1〜SPM3の放音特性に基づいて予め作
成されハードディスク212に格納されており、この処
理を開始する前にハードディスク212から読み出され
RAM214に転送されるようになっている。
FIG. 23 is a conceptual diagram of the two-dimensional control table TBLb. As shown in this figure, the two-dimensional control table T
BLb has three sub-tables TBLb1 to TBLb3.
And each of the sub-tables TBLb1-TB
Lb3 stores the master level control data DCm1 to DCm3 in association with the first index data Kd1 to Kd3 and the second index data K # 1 to K # 3, respectively.
When reading the master level control data DCm1 from the sub-table TBLb1, the storage area is specified based on the first index data Kd1 and the second index data K # 1,
The corresponding master level control data D from the storage area
Read Cm1. Other sub-tables TBLb2, TB
The same applies to Lb3. The two-dimensional control table TBLb is created in advance and stored in the hard disk 212 based on the directional characteristics of the vocal microphone 10 and the sound emission characteristics of each of the monitor speakers SPM1 to SPM3. The data is read and transferred to the RAM 214.

【0068】このようにボーカルマイク10からモニタ
スピーカSPM1〜SPM3までの距離d1〜d3、および
中心軸Mと基準軸Q1〜Q3との角度ψ1〜ψ3に基づ
いて、マスターレベル制御データDCm1〜DCm3を
生成したのは、ハウリングはボーカルマイク10がモニ
タスピーカSPM1〜SPM3からの音を拾うことによって
発生するものであり、その要素としてはスピーカからマ
イクまでの距離とスピーカに対するマイクの向きが重要
だからである。すなわち、ボーカルマイク10がモニタ
スピーカSPM1〜SPM3に近寄っていてもボーカルマイ
ク10の中心軸Mと基準軸Q1〜Q3の角度ψ1〜ψ3
が小さければ、ボーカルマイク10はモニタスピーカS
PM1〜SPM3からの音をあまり拾わないためハウリング
が起こりにくいが、ボーカルマイク10がモニタスピー
カSPM1〜SPM3から遠ざかっていてもボーカルマイク
10の中心軸Mと基準軸Q1〜Q3の角度ψ1〜ψ3が
180度に近ければ、ボーカルマイク10はモニタスピ
ーカSPM1〜SPM3からの音を効率良く拾うためハウリ
ングが起こり易くなる。そこで、本実施形態では距離d
1〜d3と角度ψ1〜ψ3とを考慮してマスターレベル
制御データDCm1〜DCm3を生成したのである。
As described above, based on the distances d1 to d3 from the vocal microphone 10 to the monitor speakers SPM1 to SPM3, and the angles ψ1 to ψ3 between the center axis M and the reference axes Q1 to Q3, the master level control data DCm1 to DCm3 are obtained. The reason for the generation is that howling occurs when the vocal microphone 10 picks up sounds from the monitor speakers SPM1 to SPM3, and the distance between the speakers and the microphone and the orientation of the microphone with respect to the speakers are important factors. . That is, even when the vocal microphone 10 is close to the monitor speakers SPM1 to SPM3, the angles ψ1 to ψ3 between the central axis M of the vocal microphone 10 and the reference axes Q1 to Q3.
Is smaller, the vocal microphone 10 is connected to the monitor speaker S
Howling hardly occurs because the sound from PM1 to SPM3 is not picked up very much. If the angle is close to 180 degrees, the vocal microphone 10 efficiently picks up sounds from the monitor speakers SPM1 to SPM3, so that howling tends to occur. Therefore, in the present embodiment, the distance d
The master level control data DCm1 to DCm3 are generated in consideration of 1 to d3 and the angles ψ1 to ψ3.

【0069】このようにて生成されたマスターレベル制
御データDCm1〜DCm3は、インターフェース21
8においてアナログ信号に変換され、マスターレベル制
御信号Cm1〜Cm3としてミキサ22’に供給され
る。
The master level control data DCm1 to DCm3 generated as described above are
8, the signal is converted into an analog signal and supplied to the mixer 22 'as master level control signals Cm1 to Cm3.

【0070】次に、ミキサ22’に入力したマスターレ
ベル制御信号Cm1〜Cm3は出力アンプ223c’、
223d’、223e’に供給される。出力アンプ22
3c’、223d’、223e’は、モニタスピーカS
PM1〜SPM3に対応するマスターレベルをマスターレベ
ル制御信号Cm1〜Cm3に応じて各々調整する(S3
6)。これにより、モニタスピーカSPM1〜SPM3の音
量が自動的に調整される。この結果、PAエンジニアが
ミキサの可変抵抗器VRを操作しなくても、ボーカルマ
イク10の移動(位置と向き)に追随して、ハウリング
を確実に防止することができる。
Next, the master level control signals Cm1 to Cm3 input to the mixer 22 'are output from the output amplifier 223c',
223d 'and 223e'. Output amplifier 22
3c ', 223d' and 223e 'are monitor speakers S
The master levels corresponding to PM1 to SPM3 are adjusted according to the master level control signals Cm1 to Cm3 (S3
6). Thereby, the volume of the monitor speakers SPM1 to SPM3 is automatically adjusted. As a result, even if the PA engineer does not operate the variable resistor VR of the mixer, it is possible to reliably prevent howling by following the movement (position and direction) of the vocal microphone 10.

【0071】<3.第3実施形態>以下、本発明の第3
実施形態に係わる拡声システムCについて、図面を参照
しつつ説明する。 <3−1:拡声システムの概要>図24は、本発明の第
3実施形態に係わる拡声システムCの電気的な構成を示
すブロック図である。第3実施形態に係る拡声システム
Cは、ボーカルマイク10の替わりにワイヤレスマイク
10’を用いる点、および第1乃至第3受信機50〜5
2を用いる点を除いて、図2に示す第1実施形態の拡声
システムAと大略同様である。すなわち、表示装置21
およびミキサ22としては第1実施形態で説明したもの
と同じものを使用する。
<3. Third Embodiment> Hereinafter, a third embodiment of the present invention will be described.
The loudspeaker system C according to the embodiment will be described with reference to the drawings. <3-1: Overview of the loudspeaker system> FIG. 24 is a block diagram showing an electrical configuration of a loudspeaker system C according to the third embodiment of the present invention. The loudspeaker system C according to the third embodiment uses a wireless microphone 10 ′ instead of the vocal microphone 10, and first to third receivers 50 to 5.
2, except that the second embodiment uses the second embodiment. That is, the display device 21
As the mixer 22, the same mixer as that described in the first embodiment is used.

【0072】また、詳細には後述するが、この拡声シス
テムCにあっては、図27に示すようにステージの左下
隅の位置Paに第1受信機50のアンテナを配置する一
方、ステージの右下隅の位置Pbに第2受信機51のア
ンテナを配置して、それらで受信した電波強度に基づい
てマイク位置角度φ1、φ2を示す第1角度データDφ
1および第2角度データDφ2を生成する。そして、第
1角度データDφ1および第2角度データDφ2に基づ
いてステージ上のワイヤレスマイク10’の位置を特定
している。
As will be described in detail later, in this loudspeaker system C, as shown in FIG. 27, the antenna of the first receiver 50 is arranged at the position Pa at the lower left corner of the stage, while the right The antenna of the second receiver 51 is arranged at the lower corner position Pb, and the first angle data Dφ indicating the microphone position angles φ1 and φ2 based on the radio wave intensity received by them.
The first and second angle data Dφ2 are generated. Then, the position of the wireless microphone 10 ′ on the stage is specified based on the first angle data Dφ1 and the second angle data Dφ2.

【0073】<3−2:ワイヤレスマイク>次に、ワイ
ヤレスマイク10’について説明する。図25は、ワイ
ヤレスマイク10’の構成を示すブロック図である。こ
の図に示すようにワイヤレスマイク10’は、マイクユ
ニット11とアダプタ12’とを備えており、接続コネ
クタ11a、12aによって、両者は接続されるように
なっている。したがって、第3実施形態においても、第
1実施形態と同様に歌い手の好みにあったマイクユニッ
ト11を使用することができる。
<3-2: Wireless Microphone> Next, the wireless microphone 10 'will be described. FIG. 25 is a block diagram illustrating a configuration of the wireless microphone 10 ′. As shown in the figure, the wireless microphone 10 'includes a microphone unit 11 and an adapter 12', and both are connected by connection connectors 11a and 12a. Therefore, also in the third embodiment, the microphone unit 11 that suits the singer's preference can be used as in the first embodiment.

【0074】アダプタ12’は、FM変調器41〜4
3、加算回路44、増幅回路45およびアンテナ46の
他、姿勢角信号A1と方位角信号A2とを出力する角度
センサ122を備えている。FM変調器41〜43は、
各々異なるキャリア周波数f1、f2、f3を中心周波
数として音声信号S、姿勢角信号A1、および方位角信
号A2を各々FM変調して、被変調音声信号Ms、被変
調姿勢角信号Ma1、および被変調方位角信号Ma2を
各々生成する。加算回路44は、これらの信号Ms、M
a1、およびMa2を加算して周波数多重された多重信
号SSを生成する。この多重信号SSは増幅回路45に
よって増幅された後、無指向性のアンテナ46によって
送信されるようになっている。
The adapter 12 'includes FM modulators 41 to 4
3, an addition circuit 44, an amplification circuit 45, and an antenna 46, and an angle sensor 122 that outputs an attitude angle signal A1 and an azimuth signal A2. The FM modulators 41 to 43 are
The audio signal S, the attitude angle signal A1, and the azimuth angle signal A2 are FM-modulated, respectively, using the different carrier frequencies f1, f2, and f3 as center frequencies, and the modulated audio signal Ms, the modulated attitude angle signal Ma1, and the modulated An azimuth signal Ma2 is generated. The addition circuit 44 outputs these signals Ms, M
a1 and Ma2 are added to generate a frequency-multiplexed multiplexed signal SS. The multiplex signal SS is amplified by the amplifier circuit 45 and then transmitted by the non-directional antenna 46.

【0075】このワイヤレスマイク10’によれば、多
重信号SSは音声情報だけでなくマイクの向き情報も有
しているので、受信側では両者を分離することによっ
て、マイクの向きを知ることができる。
According to the wireless microphone 10 ', since the multiplex signal SS has not only voice information but also microphone direction information, the receiving side can know the microphone direction by separating the two. .

【0076】<3−3:第1および第2受信機>次に、
第1および第2受信機50、51について説明する。図
26は、第1受信機50の構成を示すブロック図であ
る。なお、第2受信機51は第1受信機50と同様に構
成されているので、その説明を省略する。同図に示すよ
うに第1受信機50は、第1および第2アンテナ51
1,512、第1および第2電波強度測定ユニットU
A,UB、角度データ算出部513を備えている。
<3-3: First and second receivers>
The first and second receivers 50 and 51 will be described. FIG. 26 is a block diagram showing a configuration of the first receiver 50. Note that the second receiver 51 is configured in the same manner as the first receiver 50, and a description thereof will be omitted. As shown in the figure, the first receiver 50 includes first and second antennas 51.
1,512, first and second radio field intensity measurement units U
A, UB, and angle data calculation unit 513 are provided.

【0077】ここで、第1および第2受信機50、51
の第1および第2アンテナ511,512の指向性につ
いて図27を参照しつつ説明する。なお、以下の説明で
は第1受信機50の第1および第2アンテナに符号51
1a,512aを用い、第2受信機51の第1および第
2アンテナに符号511b,512bを用いることにす
る。図27において第1受信機50の第1および第2ア
ンテナ511a,512aは位置Paに配置し、第1ア
ンテナ511aにはXA方向の指向性を持たせる一方、
第2アンテナ512aにはYA方向の指向性を持たせて
ある。また、第2受信機51の第1および第2アンテナ
511b,512bを位置Pbに配置し、第1アンテナ
511bにはXB方向の指向性を持たせる一方、第2ア
ンテナ512bにはYB方向の指向性を持たせてある。
したがって、図に示す位置Pmにワイヤレスマイク1
0’があったとすると、第1受信機50の第1アンテナ
511aで受信した第1電波強度Vxaと第2アンテナ
512aで受信した第2電波強度Vyaに基づいてマイ
ク位置角度φ1を算出することができる。また、第2受
信機51でも同様に第1電波強度Vxbと第2電波強度
Vybに基づいてマイク位置角度φ2を算出することが
できる。
Here, the first and second receivers 50 and 51
The directivity of the first and second antennas 511 and 512 will be described with reference to FIG. In the following description, reference numeral 51 denotes the first and second antennas of the first receiver 50.
1a and 512a, and reference numerals 511b and 512b are used for the first and second antennas of the second receiver 51. In FIG. 27, the first and second antennas 511a and 512a of the first receiver 50 are arranged at a position Pa, and the first antenna 511a has directivity in the XA direction.
The second antenna 512a has directivity in the YA direction. Further, the first and second antennas 511b and 512b of the second receiver 51 are arranged at the position Pb, and the first antenna 511b has directivity in the XB direction, while the second antenna 512b has directivity in the YB direction. It has sex.
Therefore, the wireless microphone 1 is located at the position Pm shown in FIG.
If there is 0 ', the microphone position angle φ1 can be calculated based on the first radio wave intensity Vxa received by the first antenna 511a of the first receiver 50 and the second radio wave intensity Vya received by the second antenna 512a. it can. Similarly, the second receiver 51 can calculate the microphone position angle φ2 based on the first radio wave intensity Vxb and the second radio wave intensity Vyb.

【0078】図26に示す第1および第2電波強度測定
ユニットUA,UBは、第1電波強度Vxaと第2電波
強度Vyaとを測定するために設けられている。第1ア
ンテナ511で受信された信号は増幅回路514Aで増
幅された後、周波数f1を中心周波数とするバンドパス
フィルタ515Aを通過して、レベル検出回路516A
に供給される。レベル検出回路516Aはバンドパスフ
ィルタ515Aの出力信号の信号振幅を検出するように
構成されており、例えば、両波整流回路とキャリア周波
数f1の成分を十分減衰させるローパスフィルタによっ
て構成することができる。これにより、第1電波強度測
定ユニットUAは、第1電波強度Vxaを示す第1電波
強度信号Vaを生成する。また、第2電波強度測定ユニ
ットUBも第1強度測定ユニットUAと同様に構成され
ており、第2電波強度Vyaを示す第2電波強度信号V
bを生成する。
The first and second radio wave intensity measurement units UA and UB shown in FIG. 26 are provided for measuring the first radio wave intensity Vxa and the second radio wave intensity Vya. The signal received by the first antenna 511 is amplified by the amplifier circuit 514A, passes through a band-pass filter 515A having a frequency f1 as a center frequency, and passes through a level detection circuit 516A.
Supplied to The level detection circuit 516A is configured to detect the signal amplitude of the output signal of the band-pass filter 515A, and may be configured by, for example, a dual-wave rectifier circuit and a low-pass filter that sufficiently attenuates the component of the carrier frequency f1. Thereby, the first radio field intensity measurement unit UA generates a first radio field intensity signal Va indicating the first radio field intensity Vxa. The second radio field intensity measurement unit UB has the same configuration as that of the first radio field intensity measurement unit UA, and the second radio field intensity signal V indicating the second radio field intensity Vya.
Generate b.

【0079】次に、角度データ算出部513は第1電波
強度信号Vaと第2電波強度信号Vbとに基づいて、図
27に示すマイク位置角度φ1を示す第1角度データD
φ1を生成出力する。
Next, based on the first radio field intensity signal Va and the second radio field intensity signal Vb, the angle data calculation section 513 outputs the first angle data D indicating the microphone position angle φ1 shown in FIG.
Generate and output φ1.

【0080】このように第1および第2受信機50、5
1は、第1角度データDφ1と第2角度データDφ2を
生成するので、アンテナの位置Pa、Pbの情報と併せ
ることで、ワイヤレスマイク10’の位置を特定するこ
とできる。したがって、この例にあっては、マイクの位
置を特定するためのセンサ(例えば、加速度センサ)を
マイクに内蔵しなくても、その位置を特定することが可
能である。
As described above, the first and second receivers 50, 5
1 generates the first angle data Dφ1 and the second angle data Dφ2, so that the position of the wireless microphone 10 ′ can be specified by combining it with the information of the positions Pa and Pb of the antenna. Therefore, in this example, the position of the microphone can be specified without incorporating a sensor (for example, an acceleration sensor) for specifying the position of the microphone.

【0081】<3−4:第3受信機>次に、第3受信機
53について説明する。図28は、第3受信機53の構
成を示すブロック図である。同図に示すように第3受信
機53は、アンテナ531、増幅回路532、バンドパ
スフィルタ533〜535、およびFM復調器536〜
538を備えている。
<3-4: Third Receiver> Next, the third receiver 53 will be described. FIG. 28 is a block diagram illustrating a configuration of the third receiver 53. As shown in the drawing, the third receiver 53 includes an antenna 531, an amplification circuit 532, band-pass filters 533 to 535, and FM demodulators 536 to 536.
538.

【0082】アンテナ531で受信された信号は増幅回
路532で増幅された後、バンドパスフィルタ533〜
535に供給される。バンドパスフィルタ533〜53
5は周波数f1,f2,f3を各々中心周波数とする帯
域通過型のフィルタである。このため、バンドパスフィ
ルタ533〜535によって周波数多重された信号(図
25に示す信号SSに相当)が分離される。これによ
り、各バンドパスフィルタ533〜535から、上述し
た被変調音声信号Ms、被変調姿勢角信号Ma1、およ
び被変調方位角信号Ma2に各々対応する信号Ms’、
Ma1’、およびMa2’が出力される。そして、これ
らの信号をFM復調器536〜538で復調することに
よって、音声信号S、姿勢角信号A1、および方位角信
号A2が各々得られることになる。
The signal received by the antenna 531 is amplified by the amplifier circuit 532, and then amplified by the band-pass filters 533 to 533.
535. Bandpass filters 533-53
Reference numeral 5 denotes a band-pass filter having frequencies f1, f2, and f3 as center frequencies. Therefore, signals (corresponding to the signal SS shown in FIG. 25) frequency-multiplexed by the band-pass filters 533 to 535 are separated. As a result, the signals Ms ′ respectively corresponding to the above-described modulated voice signal Ms, modulated attitude angle signal Ma1, and modulated azimuth angle signal Ma2 are output from the band-pass filters 533 to 535.
Ma1 'and Ma2' are output. Then, by demodulating these signals with the FM demodulators 536 to 538, the audio signal S, the attitude angle signal A1, and the azimuth angle signal A2 are obtained.

【0083】<3−5:表示装置の動作>次に、表示装
置21の動作について、図29に示すフロチャートを参
照しつつ説明する。まず、PAエンジニアは、表示装置
21のマウス215やキーボード216を操作して基礎
データDcの入力を行い(S41)、これに続いてアン
テナの位置データを入力する(S42)。図27に示す
例にあっては、位置PaのXY座標(この例では(0,
0))と、位置PbのXY座標(この例でステージの長
手方向の長さをXdとすれば(Xd,0))とを入力す
る。入力されたデータはCPU211の制御の下、RA
M214に記憶される。
<3-5: Operation of Display Device> Next, the operation of the display device 21 will be described with reference to the flowchart shown in FIG. First, the PA engineer operates the mouse 215 and the keyboard 216 of the display device 21 to input basic data Dc (S41), and subsequently inputs antenna position data (S42). In the example shown in FIG. 27, the XY coordinates of the position Pa ((0,
0)) and the XY coordinates of the position Pb ((Xd, 0) if the length of the stage in the longitudinal direction is Xd in this example). Under the control of the CPU 211, the input data
Stored in M214.

【0084】次に、CPU211は、第1および第2受
信機から供給される第1角度データDcm1および第2
角度データDcm2と、アンテナの位置データとに基づ
いてワイヤレスマイク10’の位置を指示するマイク位
置データDmを生成する(s43)。これにより、図2
7に示す例にあっては、マイク位置PmのXY座標が算
出される。
Next, the CPU 211 controls the first angle data Dcm1 and the second angle data Dcm1 supplied from the first and second receivers.
Microphone position data Dm indicating the position of the wireless microphone 10 'is generated based on the angle data Dcm2 and the position data of the antenna (s43). As a result, FIG.
In the example shown in FIG. 7, the XY coordinates of the microphone position Pm are calculated.

【0085】この後、CPU211は、マイク位置デー
タDmと、姿勢角データDa1および方位角データDa
2とに基づいて、マイクの位置および向きをモニタ21
7に表示する(S45)。この表示処理は、第1実施形
態で説明したものと同様であり、図12に示す表示画面
によって、PAエンジニアにマイクの位置や向きを知ら
せることができる。
Thereafter, the CPU 211 transmits the microphone position data Dm, the posture angle data Da1, and the azimuth angle data Da.
2 to monitor 21 the position and orientation of the microphone.
7 is displayed (S45). This display processing is the same as that described in the first embodiment, and the position and orientation of the microphone can be notified to the PA engineer on the display screen shown in FIG.

【0086】このように、第3実施形態にあっては、ワ
イヤレスマイク10’から送信される電波強度に基づい
てワイヤレスマイク10’の位置を特定するようにした
ので、位置を特定するために特別なセンサをアダプタ1
2’に内蔵する必要がなくなる。また、第1および第2
実施形態で説明したように加速度センサ125を用いる
場合には、マイクの初期位置が必要となるが、本実施形
態ではこの入力は不要である。
As described above, in the third embodiment, the position of the wireless microphone 10 ′ is specified based on the radio wave intensity transmitted from the wireless microphone 10 ′. Sensor 1
There is no need to incorporate it in 2 '. In addition, the first and second
When the acceleration sensor 125 is used as described in the embodiment, the initial position of the microphone is required, but this input is not required in the present embodiment.

【0087】<4.第4実施形態>以下、本発明の第4
実施形態に係わる拡声システムDについて、図面を参照
しつつ説明する。図30は、第4実施形態の拡声システ
ムDの構成を示すブロック図である。この図に示すよう
に拡声システムDは、表示装置21の替わりに第2実施
形態で説明した制御装置21’を用いる点と、ミキサ2
2の替わりに第2実施形態で説明したミキサ22’を用
いる点を除いて、図24に示す拡声システムCと同様に
構成されている。
<4. Fourth Embodiment> Hereinafter, a fourth embodiment of the present invention will be described.
A loudspeaker system D according to the embodiment will be described with reference to the drawings. FIG. 30 is a block diagram illustrating a configuration of the loudspeaker system D according to the fourth embodiment. As shown in this figure, the loudspeaker system D uses the control device 21 ′ described in the second embodiment instead of the display device 21, and
The configuration is the same as that of the loudspeaker system C shown in FIG. 24, except that the mixer 22 'described in the second embodiment is used instead of 2.

【0088】このような構成において、制御装置21’
は、第1および第2角度データDφ1,Dφ2とアンテ
ナの位置データに基づいて、ワイヤレスマイク10’の
マイク位置データDmを生成し、さらに、マイク位置デ
ータDmを用いて、第2実施形態で詳述した音像定位処
理やハウリング防止処理を行って、センドレベル制御信
号Cs1、Cs2とマスターレベル制御信号Cm1、C
m2、Cm3を生成している。また、ミキサ22’は、
これらの制御信号に基づいてセンドレベルやマスターレ
ベルを制御している。ただし、この例にあっては、第3
実施形態で説明したようにマイク位置データDmは、2
次元のXY座標で表されるので、ワイヤレスマイク1
0’と各モニタスピーカSPM1〜SPM3との間の距離
は、2次元で求める。くわえて、ワイヤレスマイク1
0’の向きは、姿勢角θ1を省略して方位角θ2のみで
表す。したがって、角度センサ122は方位角θ2のみ
を出力するもので十分である。
In such a configuration, the control device 21 '
Generates microphone position data Dm of the wireless microphone 10 ′ based on the first and second angle data Dφ1 and Dφ2 and the position data of the antenna, and further uses the microphone position data Dm to describe in detail in the second embodiment. By performing the above-described sound image localization processing and howling prevention processing, the send level control signals Cs1 and Cs2 and the master level control signals Cm1 and Cs1
m2 and Cm3 are generated. Also, the mixer 22 ′
The send level and the master level are controlled based on these control signals. However, in this example, the third
As described in the embodiment, the microphone position data Dm is 2
Wireless microphone 1
The distance between 0 'and each of the monitor speakers SPM1 to SPM3 is obtained in two dimensions. In addition, wireless microphone 1
The orientation of 0 ′ is represented only by the azimuth angle θ2 without the posture angle θ1. Therefore, it is sufficient for the angle sensor 122 to output only the azimuth angle θ2.

【0089】したがって、拡声システムDによれば、加
速度センサ125を内蔵しないワイヤレスマイク10’
を用いて、マイクの位置や向きを特定し、その結果に基
づいてミキサ22’を自動的に制御することができる。
これにより、PAエンジニアが目視でマイク位置を把握
してミキサを手動で操作しなくても、歌い手の音像を正
確に定位させることができるとともに、ハウリングを確
実に防止することができる。
Therefore, according to the loudspeaker system D, the wireless microphone 10 ′ without the built-in acceleration sensor 125 is used.
, The position and orientation of the microphone can be specified, and the mixer 22 'can be automatically controlled based on the result.
Thus, the sound image of the singer can be accurately localized and the howling can be surely prevented without the PA engineer visually grasping the microphone position and manually operating the mixer.

【0090】<5.変形例>以上、本発明に係わる実施
形態を説明したが、本発明は上述した実施形態に限定さ
れるものではなく、以下に述べる各種の変形が可能であ
る。 (1)上述した各実施形態にあっては、ボーカルマイク
10またはワイヤレスマイク10’を1本として説明し
たが、複数本のボーカルマイク10またはワイヤレスマ
イク10’を使用してもよいことは勿論である。これら
の場合には、各実施形態で説明した音像定位処理とハウ
リング防止処理を各マイク毎に並行して処理すればよ
い。
<5. Modifications> Although the embodiment according to the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications described below are possible. (1) In each of the embodiments described above, the vocal microphone 10 or the wireless microphone 10 'is described as one. However, a plurality of vocal microphones 10 or the wireless microphone 10' may be used. is there. In these cases, the sound image localization processing and the howling prevention processing described in each embodiment may be performed in parallel for each microphone.

【0091】(2)上述した各実施形態にあっては、ボ
ーカルマイク10またはワイヤレスマイク10’の向き
を検出するようにしたが、本発明はこれに限定されるも
のではなく、アダプタ12,12’において、角度セン
サ122を省略してもよい。この場合には、マイク位置
データDmに基づいて、音像定位処理を行うとともにハ
ウリング防止処理を行うことになる。上述したようにハ
ウリング防止処理において、マイクの向きは重要である
が、マイクと各モニタスピーカSPM1〜SPM3との距離
に応じて上述した実施形態よりも低めにマスターレベル
を調整することによって、ハウリングを防止することが
できる。
(2) In each of the above embodiments, the direction of the vocal microphone 10 or the wireless microphone 10 'is detected. However, the present invention is not limited to this. In ', the angle sensor 122 may be omitted. In this case, based on the microphone position data Dm, the sound image localization processing and the howling prevention processing are performed. As described above, in howling prevention processing, the direction of the microphone is important, but howling is reduced by adjusting the master level lower than in the above-described embodiment according to the distance between the microphone and each of the monitor speakers SPM1 to SPM3. Can be prevented.

【0092】(3)上述した第1〜第3実施形態におい
て、角度センサ122は、姿勢角θ1および方位角θ2
を検出したが、本発明はこれに限定されるものではな
く、第4実施形態と同様に方位角θ2のみを検出する角
度センサを用いて構成してもよいことは勿論である。
(3) In the above-described first to third embodiments, the angle sensor 122 detects the attitude angle θ1 and the azimuth angle θ2.
However, the present invention is not limited to this, and it goes without saying that an angle sensor that detects only the azimuth angle θ2 may be used similarly to the fourth embodiment.

【0093】(4)上述した第1および第2実施形態に
あっては、角度センサ122と加速度センサ125を用
いてボーカルマイク10の空間的な状態を検出する一
方、第3および第4実施形態にあっては、角度センサ1
22を用いてワイヤレスマイク10’の空間的な状態を
検出するようにしたが、本発明はこれに限定されるもの
ではなく、他の検出手段を用いてマイクの空間的な状態
を検出し、検出結果を付加情報とし、それを音情報と合
成して出力するようにしてもよいことは勿論である。例
えば、マイクの中心軸上に2つの加速度センサを配置
し、各加速度センサの出力信号を音声信号と合成して出
力するようにしてもよい。この場合には、各加速度セン
サの位置を上述した実施形態で説明した方法で算出し、
それらの位置データからマイクの向きを特定することが
可能となる。
(4) In the first and second embodiments described above, the spatial state of the vocal microphone 10 is detected using the angle sensor 122 and the acceleration sensor 125, while the third and fourth embodiments are used. , The angle sensor 1
Although the spatial state of the wireless microphone 10 ′ is detected by using 22, the present invention is not limited to this, and the spatial state of the microphone is detected by using other detecting means, Of course, the detection result may be used as the additional information, and may be synthesized with the sound information and output. For example, two acceleration sensors may be arranged on the central axis of the microphone, and an output signal of each acceleration sensor may be combined with an audio signal and output. In this case, the position of each acceleration sensor is calculated by the method described in the above-described embodiment,
The direction of the microphone can be specified from the position data.

【0094】(5)上述した各実施形態では、アダプタ
においてマイクの空間的な状態を示す加速度情報や向き
情報を付加情報として音情報に付加したが、本発明の特
徴はマイクロフォンを自由に選択できる点にあるので、
付加情報の内容は上述した実施形態に限定されるもので
はなく、どのような情報であってもよい。例えば、この
アダプタをカラオケ用のマイクに適用する場合にあって
は、楽曲の音階を半音上げる、半音下げるといった指示
を入力するスライドスイッチをアダプタに設け、当該ス
イッチによって検出された指示入力情報を付加情報とし
て音情報に合成して出力するようにしてもよい。また、
エコーの程度を調整できるボリュームをアダプタに設
け、ボリュームの操作に応じた指示入力情報を付加情報
として音情報に合成して出力するようにしてもよい。
(5) In each of the embodiments described above, the acceleration information and the orientation information indicating the spatial state of the microphone are added to the sound information as additional information in the adapter, but the feature of the present invention is that the microphone can be freely selected. At the point
The content of the additional information is not limited to the above-described embodiment, and may be any information. For example, when this adapter is applied to a karaoke microphone, a slide switch for inputting an instruction to raise or lower the musical scale by one semitone is provided on the adapter, and the instruction input information detected by the switch is added. You may make it synthesize | combine with sound information as information, and may output it. Also,
A volume that can adjust the degree of echo may be provided in the adapter, and instruction input information according to the operation of the volume may be combined with sound information as additional information and output.

【0095】[0095]

【発明の効果】以上説明したように、本発明によれば、
表示装置にマイクの位置が表示されたり、あるいは、マ
イクの位置情報等に基づいてミキサを自動的に調整する
ことができるので、PAエンジニアが目視によってマイ
クの位置を把握する必要がなくなり、音像を正確に定位
させるとともにハウリングが確実に防止することができ
る。また、本発明に係るマイクロフォンアダプタによれ
ば、マイクロフォンを自由に選択できるので、歌い手は
好みにあったマイクロフォンを使用することができ、さ
らに音情報に付加情報を合成して出力することができ
る。
As described above, according to the present invention,
Since the position of the microphone is displayed on the display device or the mixer can be automatically adjusted based on the position information of the microphone, the PA engineer does not need to visually grasp the position of the microphone, and the sound image can be obtained. Accurate localization and howling can be reliably prevented. Further, according to the microphone adapter according to the present invention, the microphone can be freely selected, so that the singer can use a microphone suitable for his / her preference, and further can synthesize and output additional information with sound information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1実施形態に係わる拡声システム
Aを適用したコンサートホールの一例を示す平面図であ
る。
FIG. 1 is a plan view showing an example of a concert hall to which a loudspeaker system A according to a first embodiment of the present invention is applied.

【図2】 同実施形態に係わる拡声システムAの電気的
な構成を示すブロック図である。
FIG. 2 is a block diagram showing an electrical configuration of a loudspeaker system A according to the embodiment.

【図3】 同システムに用いるボーカルマイク10の概
観を示す斜視図である。
FIG. 3 is a perspective view showing an overview of a vocal microphone 10 used in the system.

【図4】 同マイクに用いるアダプタ12の構成を示す
ブロック図である。
FIG. 4 is a block diagram showing a configuration of an adapter 12 used for the microphone.

【図5】 同マイクの姿勢角θ1と方位角θ2を説明す
るための概念図である。
FIG. 5 is a conceptual diagram for explaining an attitude angle θ1 and an azimuth angle θ2 of the microphone.

【図6】 同マイクのマイク出力データDoutのサブフ
レームフォーマットを示す図である。
FIG. 6 is a diagram showing a subframe format of microphone output data Dout of the microphone.

【図7】 同システムに用いる表示装置21のブロック
図である。
FIG. 7 is a block diagram of a display device 21 used in the system.

【図8】 同表示装置におけるCPU211の機能を説
明するための機能ブロック図である。
FIG. 8 is a functional block diagram for explaining functions of a CPU 211 in the display device.

【図9】 同表示装置の動作を示すフローチャートであ
る。
FIG. 9 is a flowchart showing an operation of the display device.

【図10】 同表示装置の入力画面の一例を示す図であ
る。
FIG. 10 is a diagram showing an example of an input screen of the display device.

【図11】 同表示装置においてマイクの位置および向
きを表示する画面の一例を示す図である。
FIG. 11 is a diagram showing an example of a screen for displaying the position and orientation of the microphone on the display device.

【図12】 同システムに用いるミキサ22のブロック
図である。
FIG. 12 is a block diagram of a mixer 22 used in the system.

【図13】 ハウリング防止操作を行う場合の同表示装
置の画面の一例を示す図である。
FIG. 13 is a diagram showing an example of a screen of the display device when performing a howling prevention operation.

【図14】 音像定位操作を行う場合の同表示装置の画
面の一例を示す図である。
FIG. 14 is a diagram showing an example of a screen of the display device when performing a sound image localization operation.

【図15】 本発明の第2実施形態に係わる拡声システ
ムBの電気的な構成を示すブロック図である。
FIG. 15 is a block diagram illustrating an electrical configuration of a loudspeaker system B according to a second embodiment of the present invention.

【図16】 制御装置21’におけるCPU211の機
能を説明するための機能ブロック図である。
FIG. 16 is a functional block diagram for explaining functions of a CPU 211 in a control device 21 ′.

【図17】 同システムに用いるミキサ22’の主要部
構成を示すブロック図である。
FIG. 17 is a block diagram illustrating a main configuration of a mixer 22 ′ used in the system.

【図18】 同システムにおける音像定位の自動調整を
説明するためのフローチャートである。
FIG. 18 is a flowchart illustrating automatic adjustment of sound image localization in the same system.

【図19】 音像定位の概念を説明するための説明図で
ある。
FIG. 19 is an explanatory diagram for explaining the concept of sound image localization.

【図20】 音像定位処理に用いるパンニングテーブル
TBLaの記憶内容の一例を示す図である。
FIG. 20 is a diagram illustrating an example of storage contents of a panning table TBLa used for a sound image localization process.

【図21】 ハウリングを防止するための自動調整を説
明するためのフローチャートである。
FIG. 21 is a flowchart for explaining automatic adjustment for preventing howling.

【図22】 モニタスピーカSPM2とボーカルマイク1
0の位置関係を具体的に説明するための図である。
FIG. 22: Monitor speaker SPM2 and vocal microphone 1
FIG. 7 is a diagram for specifically explaining a positional relationship of 0.

【図23】 ハウリング防止処理に用いる2次元制御テ
ーブルTBLbの概念図である。
FIG. 23 is a conceptual diagram of a two-dimensional control table TBLb used for howling prevention processing.

【図24】 本発明の第3実施形態に係わる拡声システ
ムCの電気的な構成を示すブロック図である。
FIG. 24 is a block diagram illustrating an electrical configuration of a loudspeaker system C according to a third embodiment of the present invention.

【図25】 同システムに用いるワイヤレスマイク1
0’の構成を示すブロック図である。
FIG. 25 shows a wireless microphone 1 used in the system.
It is a block diagram which shows the structure of 0 '.

【図26】 同システムに用いる第1受信機50の構成
を示すブロック図である。
FIG. 26 is a block diagram showing a configuration of a first receiver 50 used in the system.

【図27】 同システムに用いる第1および第2受信機
50、51の第1および第2アンテナ511,512の
指向性を説明するための説明図である。
FIG. 27 is an explanatory diagram for explaining the directivity of first and second antennas 511 and 512 of first and second receivers 50 and 51 used in the system.

【図28】 同システムに用いる第3受信機53の構成
を示すブロック図である。
FIG. 28 is a block diagram showing a configuration of a third receiver 53 used in the system.

【図29】 同システムに用いる表示装置21の動作を
示すフロチャートである。
FIG. 29 is a flowchart showing the operation of the display device 21 used in the system.

【図30】 第4実施形態に係わる拡声システムの構成
を示すブロック図である。
FIG. 30 is a block diagram showing a configuration of a loudspeaker system according to a fourth embodiment.

【符号の説明】[Explanation of symbols]

A,B,C,D……拡声システム、10……ボーカルマ
イク(マイクロフォン)、10’……ワイヤレスマイク
(マイクロフォン)、11……マイクユニット(変換
部)、122……角度センサ(向き情報検出部)、12
5……加速度センサ(加速度検出部)、129……デジ
タルオーディオフォーマット変換部(合成部)、217
……モニタ(表示部)、21……表示装置、21’……
制御装置(制御信号生成部)、22、22’……ミキ
サ、30……分離部、31……マイク位置算出部(位置
情報生成部)、44……加算回路(合成部)、45……
増幅回路(送信部)、46……アンテナ(送信部)、5
33〜535……バンドパスフィルタ(分離部)、53
6〜538……FM復調器(復調部)、Cs1,Cs2
……センドレベル制御信号(制御信号)、Cm1〜Cm
2……マスターレベル制御信号(制御信号)、Dout…
…マイク出力データ(マイク出力情報)、SPM1〜SP
M3……モニタスピーカ、SPL,SPR……左右チャンネ
ル用拡声スピーカ(拡声用スピーカ)、S……音声信号
(音情報)、A1……姿勢角信号(向き情報、付加情
報)、A2……方位角信号(向き情報、付加情報)、B
x,By,Bz……XYZ軸加速度信号(加速度情報、
付加情報)。
A, B, C, D ... loudspeaker system, 10 ... vocal microphone (microphone), 10 '... wireless microphone (microphone), 11 ... microphone unit (converter), 122 ... angle sensor (direction information detection) Part), 12
5 Accelerometer (acceleration detector), 129 Digital audio format converter (synthesizer), 217
... monitor (display unit), 21 ... display device, 21 '...
Control device (control signal generation unit), 22, 22 '... mixer, 30 ... separation unit, 31 ... microphone position calculation unit (position information generation unit), 44 ... addition circuit (synthesis unit), 45 ...
Amplifying circuit (transmitting unit), 46 antenna (transmitting unit), 5
33 to 535: band-pass filter (separation unit), 53
6 to 538: FM demodulator (demodulation unit), Cs1, Cs2
... Send level control signal (control signal), Cm1 to Cm
2 ... Master level control signal (control signal), Dout ...
… Microphone output data (microphone output information), SPM1 to SP
M3: monitor speaker, SPL, SPR: left / right channel loudspeaker (loudspeaker), S: voice signal (sound information), A1: attitude angle signal (direction information, additional information), A2: azimuth Angle signal (direction information, additional information), B
x, By, Bz ... XYZ axis acceleration signals (acceleration information,
Additional information).

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04R 5/027 H04R 5/04 C 5/04 H04S 7/00 F // H04S 7/00 G01P 15/00 A Fターム(参考) 5D011 AA02 AB00 5D017 BD05 BD10 5D020 BB01 BB06 CC01 CC02 CC06 5D062 CC01 CC13 DD10 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04R 5/027 H04R 5/04 C 5/04 H04S 7/00 F // H04S 7/00 G01P 15/00 A F term (reference) 5D011 AA02 AB00 5D017 BD05 BD10 5D020 BB01 BB06 CC01 CC02 CC06 5D062 CC01 CC13 DD10

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 音を電気信号に変換して音情報を出力す
る変換部を有するマイクロフォンにおいて、 当該マイクロフォンの加速度を検出して加速度情報を生
成する加速度検出部と、 前記音情報と前記加速度情報とを合成して出力する合成
部とを備えることを特徴とするマイクロフォン。
1. A microphone having a conversion unit that converts sound into an electric signal and outputs sound information, an acceleration detection unit that detects acceleration of the microphone to generate acceleration information, the sound information and the acceleration information. And a combining unit for combining and outputting the signals.
【請求項2】 音を電気信号に変換して音情報を出力す
る変換部を有するマイクロフォンにおいて、 当該マイクロフォンの向きを検出して向き情報を出力す
る向き情報検出部と、 前記音情報と前記向き情報とを合成して出力する合成部
とを備えることを特徴とするマイクロフォン。
2. A microphone having a conversion unit that converts sound into an electric signal and outputs sound information, a direction information detection unit that detects a direction of the microphone and outputs direction information, and the sound information and the direction. And a combining unit for combining and outputting information.
【請求項3】 音を電気信号に変換して音情報を出力す
る変換部を有するマイクロフォンにおいて、 当該マイクロフォンの加速度を検出して加速度情報を生
成する加速度検出部と、 当該マイクロフォンの向きを検出して向き情報を出力す
る向き情報検出部と、 前記音情報、前記加速度情報、および前記向き情報とを
合成して出力する合成部とを備えることを特徴とするマ
イクロフォン。
3. A microphone having a conversion unit for converting sound into an electric signal and outputting sound information, wherein the acceleration detection unit detects acceleration of the microphone to generate acceleration information, and detects a direction of the microphone. A microphone comprising: a direction information detecting unit that outputs direction information; and a combining unit that combines and outputs the sound information, the acceleration information, and the direction information.
【請求項4】 前記向き情報検出部は、当該マイクロフ
ォンの姿勢角と方位角とを検出して姿勢角情報と方位角
情報とを出力する角度検出部によって構成されることを
特徴とする請求項2または3に記載のマイクロフォン。
4. The apparatus according to claim 1, wherein the direction information detecting unit includes an angle detecting unit that detects an attitude angle and an azimuth angle of the microphone and outputs the attitude angle information and the azimuth angle information. 4. The microphone according to 2 or 3.
【請求項5】 前記合成部は、サブフレーム内に音声デ
ータとユーザーデータとを含むデジタルオーディオフォ
ーマットに準拠したデータを生成するものであり、前記
音情報を前記サブフレーム内の音声データビットに割り
当てるとともに前記加速度情報および前記向き情報を前
記ユーザーデータビットに割り当てることを特徴とする
請求項3に記載のマイクロフォン。
5. The synthesizing unit generates data conforming to a digital audio format including audio data and user data in a subframe, and assigns the audio information to audio data bits in the subframe. The microphone according to claim 3, wherein the acceleration information and the orientation information are assigned to the user data bits.
【請求項6】 音を電気信号に変換して音情報を出力す
るマイクロフォンとともに用いられるマイクロフォンア
ダプタであって、 前記マイクロフォンと本体とを接続する入力接続コネク
タと、 付加情報を生成する付加情報生成部と、 前記入力接続コネクタを介して供給される前記音情報と
生成された付加情報とを合成して出力情報を生成する合
成部とを備えたことを特徴とするマイクロフォンアダプ
タ。
6. A microphone adapter used together with a microphone for converting sound into an electric signal and outputting sound information, comprising: an input connector for connecting the microphone to a main body; and an additional information generating unit for generating additional information. And a synthesizing unit for synthesizing the sound information supplied via the input connection connector and the generated additional information to generate output information.
【請求項7】 接続ケーブルと前記本体とを接続するた
めの出力接続コネクタを備え、当該出力接続コネクタを
介して前記出力情報を出力することを特徴とする請求項
6に記載のマイクロフォンアダプタ。
7. The microphone adapter according to claim 6, further comprising an output connection connector for connecting a connection cable to the main body, and outputting the output information via the output connection connector.
【請求項8】 出力情報を変調して送信する送信部を備
えることを特徴とする請求項6に記載のマイクロフォン
アダプタ。
8. The microphone adapter according to claim 6, further comprising a transmission unit for modulating and transmitting output information.
【請求項9】 前記付加情報は、前記本体の空間的な状
態を示す情報であることを特徴とする請求項6に記載の
マイクロフォンアダプタ。
9. The microphone adapter according to claim 6, wherein the additional information is information indicating a spatial state of the main body.
【請求項10】 前記付加情報生成部は加速度センサを
有し、前記本体の加速度を示す加速度情報を前記付加情
報として生成することを特徴とする請求項6に記載のマ
イクロフォンアダプタ。
10. The microphone adapter according to claim 6, wherein the additional information generation unit has an acceleration sensor, and generates acceleration information indicating the acceleration of the main body as the additional information.
【請求項11】 前記付加情報生成部は角度センサを有
し、前記本体の向きを示す角度情報を前記付加情報とし
て生成することを特徴とする請求項6に記載のマイクロ
フォンアダプタ。
11. The microphone adapter according to claim 6, wherein the additional information generation unit has an angle sensor, and generates angle information indicating a direction of the main body as the additional information.
【請求項12】 マイクロフォンの空間的な状態を示す
付加情報と音声情報とが合成されたマイク出力情報に基
づいて、前記マイクロフォンの状態を表示する表示装置
であって、 前記マイク出力情報から前記付加情報を分離する分離部
と、 分離された付加情報に基づいて前記マイクロフォンの空
間的な状態を表示する表示部とを備えたことを特徴とす
る表示装置。
12. A display device for displaying a state of the microphone based on microphone output information in which additional information indicating a spatial state of the microphone and audio information are combined, wherein the additional information is obtained from the microphone output information. A display device comprising: a separation unit that separates information; and a display unit that displays a spatial state of the microphone based on the separated additional information.
【請求項13】 前記付加情報は、前記マイクロフォン
の加速度を示す加速度情報を有しており、 前記分離部は前記マイク出力情報から前記加速度情報を
分離し、 前記表示部は、前記加速度情報を2重積分して得た移動
情報と予め入力される前記マイクロフォンの初期位置情
報とに基づいて、前記マイクロフォンの現在位置を示す
位置情報を生成する位置情報生成部を備え、前記位置情
報に基づいて前記マイクロフォンの位置を表示すること
を特徴とする請求項12に記載の表示装置。
13. The additional information includes acceleration information indicating acceleration of the microphone, the separation unit separates the acceleration information from the microphone output information, and the display unit displays the acceleration information as 2 A position information generation unit that generates position information indicating a current position of the microphone based on the movement information obtained by the multiple integration and the initial position information of the microphone that is input in advance, and based on the position information, The display device according to claim 12, wherein a position of the microphone is displayed.
【請求項14】 前記付加情報は、前記マイクロフォン
の加速度を示す加速度情報と前記マイクロフォンの向き
を示す向き情報とを有しており、 前記分離部は、前記マイク出力情報から前記加速度情報
と前記向き情報とを各々分離し、 前記表示部は、前記加速度情報を2重積分して得た移動
情報と予め入力される前記マイクロフォンの初期位置情
報とに基づいて、前記マイクロフォンの現在位置を示す
位置情報を生成する位置情報生成部を備え、前記位置情
報に基づいて前記マイクロフォンの位置を表示するとと
もに前記向き情報に基づいて前記マイクロフォンの向き
を表示することを特徴とする請求項12に記載の表示装
置。
14. The additional information includes acceleration information indicating an acceleration of the microphone and direction information indicating a direction of the microphone, wherein the separation unit determines the acceleration information and the direction from the microphone output information. Position information indicating the current position of the microphone based on movement information obtained by double integrating the acceleration information and initial position information of the microphone which is input in advance. 13. The display device according to claim 12, further comprising: a position information generating unit configured to generate a position of the microphone based on the position information and to display a direction of the microphone based on the direction information. 14. .
【請求項15】 マイクロフォンの空間的な状態を示す
付加情報と音声情報とが合成されたマイク出力情報に基
づいて、複数のスピーカに供給する出力信号のレベルを
調整するミキサであって、 前記マイク出力情報から前記付加情報と前記音声情報と
を分離する分離部と、 分離された付加情報に基づいて制御信号を生成する制御
信号生成部と、 生成された制御信号に基づいて、分離された音声情報の
レベルを調整して前記各出力信号を生成する調整部とを
備えたことを特徴とするミキサ。
15. A mixer for adjusting a level of an output signal supplied to a plurality of speakers based on microphone output information obtained by combining additional information indicating a spatial state of a microphone and audio information, wherein the microphone A separating unit that separates the additional information and the audio information from the output information; a control signal generating unit that generates a control signal based on the separated additional information; and a separated audio based on the generated control signal. A mixer for adjusting the level of information to generate each of the output signals.
【請求項16】 前記付加情報は、前記マイクロフォン
の加速度を示す加速度情報を有しており、 前記分離部は、前記マイク出力情報から前記加速度情報
と前記音声情報とを各々分離し、 前記制御信号生成部は、前記加速度情報を2重積分して
得た移動情報と予め入力される前記マイクロフォンの初
期位置情報とに基づいて、前記マイクロフォンの現在位
置を示す位置情報を生成する位置情報生成部を備え、前
記位置情報に基づいて前記マイクロフォンの音像を定位
させるように前記制御信号を生成することを特徴とする
請求項15に記載のミキサ。
16. The additional information includes acceleration information indicating an acceleration of the microphone, wherein the separation unit separates the acceleration information and the audio information from the microphone output information, respectively, A position information generation unit that generates position information indicating a current position of the microphone based on movement information obtained by performing a double integration of the acceleration information and initial position information of the microphone that is input in advance. The mixer according to claim 15, further comprising: generating the control signal so as to localize a sound image of the microphone based on the position information.
【請求項17】 前記付加情報は、前記マイクロフォン
の加速度を示す加速度情報を有しており、 前記分離部は、前記マイク出力情報から前記加速度情報
と前記音声情報とを分離し、 前記制御信号生成部は、前記加速度情報を2重積分して
得た移動情報と予め入力される前記マイクロフォンの初
期位置情報とに基づいて、前記マイクロフォンの現在位
置を示す位置情報を生成する位置情報生成部を備え、当
該位置情報と予め入力されるモニタスピーカの位置情報
とに基づいて前記マイクロフォンと前記モニタスピーカ
との間の距離を算出し、算出された距離に応じて前記制
御信号を生成することを特徴とする請求項15に記載の
ミキサ。
17. The control apparatus according to claim 17, wherein the additional information includes acceleration information indicating an acceleration of the microphone, the separation unit separates the acceleration information and the audio information from the microphone output information, The unit includes a position information generation unit that generates position information indicating a current position of the microphone based on movement information obtained by double integrating the acceleration information and initial position information of the microphone that is input in advance. Calculating a distance between the microphone and the monitor speaker based on the position information and the position information of the monitor speaker input in advance, and generating the control signal according to the calculated distance. The mixer of claim 15, wherein:
【請求項18】 前記付加情報は、前記マイクロフォン
の加速度を示す加速度情報と前記マイクロフォンの向き
を示す向き情報とを有しており、 前記分離部は前記マイク出力情報から前記加速度情報、
前記向き情報および前記音声情報を各々分離し、 前記制御信号生成部は、前記加速度情報を2重積分して
得た移動情報と予め入力される前記マイクロフォンの初
期位置情報とに基づいて、前記マイクロフォンの現在位
置を示す位置情報を生成する位置情報生成部を備え、当
該位置情報と予め入力されるモニタスピーカの位置情報
とに基づいて前記マイクロフォンと前記モニタスピーカ
との間の距離および両者を結ぶ基準軸を特定し、前記向
き情報によって特定される前記マイクロフォンの中心軸
と前記基準軸との角度を算出し、算出された距離および
角度に基づいて前記制御信号を生成することを特徴とす
る請求項15に記載のミキサ。
18. The additional information includes acceleration information indicating an acceleration of the microphone and direction information indicating a direction of the microphone, wherein the separation unit calculates the acceleration information from the microphone output information,
The direction information and the audio information are separated from each other, and the control signal generation unit is configured to control the microphone based on movement information obtained by double integrating the acceleration information and initial position information of the microphone input in advance. And a distance between the microphone and the monitor speaker based on the position information and the previously input position information of the monitor speaker, and a reference connecting the both. An axis is specified, an angle between a central axis of the microphone specified by the orientation information and the reference axis is calculated, and the control signal is generated based on the calculated distance and angle. 15. The mixer according to 15.
【請求項19】 客席に向けて配置される複数の拡声用
スピーカと、歌い手に自分の歌唱音声を聞き取らせるた
めにステージに配置されるモニタスピーカとを備え、歌
い手の音声を増幅して前記拡声用スピーカおよび前記モ
ニタスピーカから放音させる拡声システムにおいて、 歌い手のワイヤレスマイクロフォンと、 前記ワイヤレスマイクロフォンから送信される電波の強
度を測定して、前記ワイヤレスマイクロフォンの位置を
示す位置情報を生成する位置情報生成装置と、 生成された位置情報に基づいて前記ワイヤレスマイクロ
フォンの位置をステージ画像内に表示する表示装置と、 前記ワイヤレスマイクロフォンから送信される電波を受
信して音声情報を再生する受信機と、 再生された音声情報を増幅するとともに前記拡声用スピ
ーカおよび前記モニタスピーカに出力する出力信号のレ
ベルを調整するミキサとを備えたことを特徴とする拡声
システム。
19. A loudspeaker comprising: a plurality of loudspeakers arranged toward the audience; and a monitor speaker arranged on a stage for allowing a singer to hear his or her singing voice, wherein the singer's voice is amplified to amplify the singer's voice A loudspeaker and a loudspeaker system for emitting sound from the monitor speaker, a singer's wireless microphone, and position information generation for measuring the intensity of radio waves transmitted from the wireless microphone to generate position information indicating the position of the wireless microphone A display device that displays the position of the wireless microphone in a stage image based on the generated position information; a receiver that receives radio waves transmitted from the wireless microphone and reproduces audio information; Speaker for amplifying amplified speech information Loudspeaker system is characterized in that a mixer for adjusting the level of the output signal outputted to the spare the monitor speaker.
【請求項20】 前記ワイヤレスマイクロフォンは、音
声を電気信号に変換して音声情報を出力する変換部と、
当該マイクロフォンの向きを検出して向き情報を出力す
る向き情報検出部と、前記音声情報と前記向き情報とを
異なるキャリア周波数で各々変調して周波数多重した信
号を送信する送信部とを備え、 前記受信機は、受信した信号を周波数分離する分離部
と、分離された各信号を各々復調して前記音声情報と前
記位置情報を再生する復調部とを備え、 前記表示装置は、生成された位置情報に基づいて前記ワ
イヤレスマイクロフォンの位置をステージ画像内に表示
するとともに予め記憶されている前記モニタスピーカの
位置情報に基づいてモニタスピーカの位置をステージ画
像内に表示し、さらに再生された向き情報に基づいて前
記ワイヤレスマイクロフォンの向きを表示することを備
えたことを特徴とする請求項19に記載の拡声システ
ム。
20. The wireless microphone, wherein the conversion unit converts voice into an electric signal and outputs voice information;
A direction information detection unit that detects the direction of the microphone and outputs direction information, and a transmission unit that transmits a frequency-multiplexed signal by modulating each of the audio information and the direction information with a different carrier frequency, The receiver includes: a separating unit that separates a frequency of a received signal; and a demodulating unit that demodulates each of the separated signals to reproduce the audio information and the position information. The display device includes a generated position. The position of the wireless microphone is displayed in the stage image based on the information, and the position of the monitor speaker is displayed in the stage image based on the pre-stored position information of the monitor speaker. 20. The loudspeaker system according to claim 19, comprising displaying the orientation of the wireless microphone based on the wireless microphone.
【請求項21】音声情報を増幅して複数のスピーカから
放音する拡声方法において、 マイクロフォンにおいて、音声を電気信号に変換して得
た音声情報と当該マイクロフォンの空間的な状態を検出
して得た付加情報とを合成してマイク出力情報として出
力し、 前記マイク出力情報から前記音声情報と前記付加情報と
を各々分離し、 分離された前記付加情報に基づいて、前記音声情報のレ
ベルを調整し前記複数のスピーカに出力する各出力信号
を生成することを特徴とする拡声方法。
21. A loudspeaker method for amplifying audio information and emitting sound from a plurality of speakers, comprising: a microphone for detecting audio information obtained by converting a voice into an electric signal and a spatial state of the microphone; The additional information is synthesized and output as microphone output information, the audio information and the additional information are separated from the microphone output information, and the level of the audio information is adjusted based on the separated additional information. And generating each output signal to be output to the plurality of speakers.
JP2000229598A 2000-07-28 2000-07-28 Microphone, microphone adapter, display device, mixer, public address system and method Pending JP2002044778A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000229598A JP2002044778A (en) 2000-07-28 2000-07-28 Microphone, microphone adapter, display device, mixer, public address system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000229598A JP2002044778A (en) 2000-07-28 2000-07-28 Microphone, microphone adapter, display device, mixer, public address system and method

Publications (1)

Publication Number Publication Date
JP2002044778A true JP2002044778A (en) 2002-02-08

Family

ID=18722689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000229598A Pending JP2002044778A (en) 2000-07-28 2000-07-28 Microphone, microphone adapter, display device, mixer, public address system and method

Country Status (1)

Country Link
JP (1) JP2002044778A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005117485A1 (en) * 2004-05-26 2005-12-08 Matsushita Electric Industrial Co., Ltd. Volume adjusting apparatus
JP2006060615A (en) * 2004-08-20 2006-03-02 Tamura Seisakusho Co Ltd Wireless microphone system, sound transmitting and reproducing method, wireless microphone transmitter, sound transmitting method and program, receiver, and sound receiving and reproducing method and program
JP2006340276A (en) * 2005-06-06 2006-12-14 Takenaka Komuten Co Ltd Acoustic regulation facility and acoustic regulation method
JP2008519726A (en) * 2004-11-15 2008-06-12 シーメンス アクチエンゲゼルシヤフト Traveling mechanisms used in automobiles
JP2009036867A (en) * 2007-07-31 2009-02-19 Brother Ind Ltd Karaoke device
JP2010136125A (en) * 2008-12-05 2010-06-17 Yamaha Corp Audio apparatus
JP2010136043A (en) * 2008-12-04 2010-06-17 Yamaha Corp Acoustic device
WO2011035570A1 (en) * 2009-09-27 2011-03-31 宣威科技股份有限公司 Intelligent microphone
JP2011141284A (en) * 2006-03-15 2011-07-21 Qualcomm Inc Sensor-based orientation system
JP2012244511A (en) * 2011-05-23 2012-12-10 Audio Technica Corp Narrow-directivity microphone and adaptor for the same
JP2013066225A (en) * 2012-12-04 2013-04-11 Yamaha Corp Acoustic device, microphone, loudspeaker, and mixer
JP2015505201A (en) * 2011-12-16 2015-02-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated Optimize audio processing capabilities by dynamically compensating for variable distances between speakers and microphones in accessory devices
JP5954606B1 (en) * 2015-12-16 2016-07-20 富士ゼロックス株式会社 Diagnostic device, diagnostic system, device and program
JP2019186611A (en) * 2018-04-02 2019-10-24 株式会社タムラ製作所 Wireless microphone system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005117485A1 (en) * 2004-05-26 2005-12-08 Matsushita Electric Industrial Co., Ltd. Volume adjusting apparatus
JP2006060615A (en) * 2004-08-20 2006-03-02 Tamura Seisakusho Co Ltd Wireless microphone system, sound transmitting and reproducing method, wireless microphone transmitter, sound transmitting method and program, receiver, and sound receiving and reproducing method and program
JP4705349B2 (en) * 2004-08-20 2011-06-22 株式会社タムラ製作所 Wireless microphone system, audio transmission / reproduction method, wireless microphone transmitter, audio transmission method, and program
JP4700695B2 (en) * 2004-11-15 2011-06-15 シーメンス アクチエンゲゼルシヤフト Traveling mechanisms used in automobiles
JP2008519726A (en) * 2004-11-15 2008-06-12 シーメンス アクチエンゲゼルシヤフト Traveling mechanisms used in automobiles
JP2006340276A (en) * 2005-06-06 2006-12-14 Takenaka Komuten Co Ltd Acoustic regulation facility and acoustic regulation method
US8910522B2 (en) 2006-03-15 2014-12-16 Qualcomm Incorporated Sensor-based orientation system
JP2011141284A (en) * 2006-03-15 2011-07-21 Qualcomm Inc Sensor-based orientation system
JP2009036867A (en) * 2007-07-31 2009-02-19 Brother Ind Ltd Karaoke device
JP2010136043A (en) * 2008-12-04 2010-06-17 Yamaha Corp Acoustic device
JP2010136125A (en) * 2008-12-05 2010-06-17 Yamaha Corp Audio apparatus
WO2011035570A1 (en) * 2009-09-27 2011-03-31 宣威科技股份有限公司 Intelligent microphone
JP2012244511A (en) * 2011-05-23 2012-12-10 Audio Technica Corp Narrow-directivity microphone and adaptor for the same
JP2015505201A (en) * 2011-12-16 2015-02-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated Optimize audio processing capabilities by dynamically compensating for variable distances between speakers and microphones in accessory devices
JP2013066225A (en) * 2012-12-04 2013-04-11 Yamaha Corp Acoustic device, microphone, loudspeaker, and mixer
JP5954606B1 (en) * 2015-12-16 2016-07-20 富士ゼロックス株式会社 Diagnostic device, diagnostic system, device and program
US10352820B2 (en) 2015-12-16 2019-07-16 Fuji Xerox Co., Ltd. Diagnostic device, diagnostic system, diagnostic method, and non-transitory computer-readable medium
JP2019186611A (en) * 2018-04-02 2019-10-24 株式会社タムラ製作所 Wireless microphone system
JP7089392B2 (en) 2018-04-02 2022-06-22 株式会社タムラ製作所 Wireless microphone system

Similar Documents

Publication Publication Date Title
US6954538B2 (en) Remote control apparatus and a receiver and an audio system
JP2002044778A (en) Microphone, microphone adapter, display device, mixer, public address system and method
JP2001503165A (en) Apparatus and method for creating a spatial audio environment in an audio conference system
US11290839B2 (en) Headphone
WO2019237667A1 (en) Method and apparatus for playing audio data
US20120008801A1 (en) &#34;POSSE&#34; -- an acronym for &#34;Personal OnStage Sound Enhancer&#34;
JP2000295698A (en) Virtual surround system
US9853758B1 (en) Systems and methods for signal mixing
JP2008216402A (en) Karaoke system
EP1784049A1 (en) A method and system for sound reproduction, and a program product
WO2023061330A1 (en) Audio synthesis method and apparatus, and device and computer-readable storage medium
US10536778B2 (en) Information processing apparatus, information processing method and audio system
US20200128324A1 (en) Networked speaker system with combined power over ethernet and audio delivery
JP2001215977A (en) Karaoke system
WO2022113289A1 (en) Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method
WO2022113288A1 (en) Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method
US20220284873A1 (en) Transmitter interface module for musical instruments
WO2023195353A1 (en) Sound processing device and karaoke system
US10863259B2 (en) Headphone set
KR101657110B1 (en) portable set-top box of music accompaniment
JP2006295233A (en) Monitor control apparatus
CN116723229A (en) Immersive remote audio transmission system and method
JP2022114151A (en) Wireless communication device, wireless communication system, and wireless communication method
JP2022128177A (en) Sound generation device, sound reproduction device, sound reproduction method, and sound signal processing program
JP2008241761A (en) In-vehicle karaoke system