JPH08221081A - Sound transmission device - Google Patents

Sound transmission device

Info

Publication number
JPH08221081A
JPH08221081A JP7217858A JP21785895A JPH08221081A JP H08221081 A JPH08221081 A JP H08221081A JP 7217858 A JP7217858 A JP 7217858A JP 21785895 A JP21785895 A JP 21785895A JP H08221081 A JPH08221081 A JP H08221081A
Authority
JP
Japan
Prior art keywords
sound
speakers
audio signal
speaker
collection range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7217858A
Other languages
Japanese (ja)
Inventor
Kenichi Harakawa
健一 原川
Kenji Kageyama
健二 影山
Norio Igawa
憲男 井川
Daisaku Sou
大作 荘
Kenichi Unno
健一 海野
Tatsumi Nakajima
立美 中島
Nobuyoshi Murai
信義 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP7217858A priority Critical patent/JPH08221081A/en
Publication of JPH08221081A publication Critical patent/JPH08221081A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)

Abstract

PURPOSE: To provide a sound transmission device which can transmit sound to an aimed listener alone. CONSTITUTION: By mutually shifting phases of aural signals to be supplies to individual speakers 36 to form synthesis sound waves whose surface wavefronts 104 are concave on the side of sound collecting region 100 whereas convex on the side of nondirectional speakers 36, the surface wave front 104 gradually become small and the synthesis sound waves converge to the region 100 by adjusting phase differences among respective aural signals. Then, the amplitude of the aural signal to be fed to each speaker 36 is controlled so that the sound pressure of the sound emitted from each speaker 36 is of a hearing level or lower. Since the synthesis sound waves are formed by superposing the sound waves emitted from each speaker 36, the sound pressure of the sound converged to the region 100 is of the hearing level or higher.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、音伝達装置に係
り、特に、複数の無指向性のスピーカを備え、複数のス
ピーカの各々に所定の音声信号を供給することにより複
数のスピーカの各々から音声信号に対応する音を発生さ
せ、予め定められた集音範囲又はオブジェクト(音の伝
達対象としての人間、動物、マイク等)の位置に基づい
て設定した集音範囲に音を伝達する音伝達装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound transmitting device, and more particularly, to a plurality of omnidirectional speakers, and by supplying a predetermined audio signal to each of the plurality of speakers, Sound transmission that generates a sound corresponding to an audio signal and transmits the sound to a predetermined sound collection range or to a sound collection range set based on the position of an object (human, animal, microphone, etc. as a sound transmission target) Regarding the device.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】従来、
所定の場所に集まっている多数の人々のうちの特定の人
への所定の情報の伝達(例えば駅構内における駅職員へ
の業務連絡等)は、前記所定の情報をスピーカにより一
斉放送することにより行うことが一般的である。しかし
ながら、上記のような一斉放送による情報伝達では、前
記特定の人以外の多数の人に対し、無関係な情報を放送
することで騒々しい等の不快感を与える虞れがある。ま
た、情報の機密性も損なわれるので好ましくない。
2. Description of the Related Art Conventionally, the problems to be solved by the invention
The transmission of predetermined information to a specific person among a large number of people gathering in a predetermined place (for example, contacting a station staff at a station premises, etc.) is performed by broadcasting the predetermined information through speakers. It is common to do so. However, in the information transmission by the above-mentioned simultaneous broadcasting, there is a possibility that a large number of people other than the specific person may be annoyed by broadcasting unrelated information. In addition, the confidentiality of information is impaired, which is not preferable.

【0003】また、上記に関連して、単一の仮想の球面
上に位置するように複数のスピーカを配置して、各スピ
ーカから同時に同一の音を発生させるか、又は同一平面
上に配置した複数のスピーカから互いに位相をずらして
同一の音を発生させることにより、複数のスピーカの各
々から発せられた音が収束する音の焦点(仮想音源)を
形成させる技術が知られている(特開平3−15950
0号公報参照)。
Further, in relation to the above, a plurality of speakers are arranged so as to be located on a single virtual spherical surface, and the same sound is generated from each speaker at the same time, or they are arranged on the same plane. There is known a technique of forming a focus (virtual sound source) of a sound at which sounds emitted from each of the plurality of speakers are converged by generating the same sound by shifting the phases of the plurality of speakers to each other (Japanese Patent Laid-Open No. Hei 10). 3-15950
No. 0 publication).

【0004】しかしながら、上記技術は、仮想音源から
放射された音を聴取者に聴取させるものであり、特定の
聴取者に対してのみ音声を伝達するものではない。
However, the above technique allows the listener to hear the sound radiated from the virtual sound source, and does not transmit the sound only to a specific listener.

【0005】一方、従来より天井に複数のテレビカメラ
を配置し、該複数のテレビカメラにより撮影した画像情
報に基づいて、部屋の中に存在するオブジェクト(所定
の人間、動物、物体等)の位置を検出する画像認識技術
が存在する。
On the other hand, conventionally, a plurality of TV cameras are arranged on the ceiling, and the positions of objects (predetermined humans, animals, objects, etc.) existing in the room are based on the image information taken by the plurality of TV cameras. There is an image recognition technology for detecting the.

【0006】しかしながら、オブジェクトが移動する場
合、この移動するオブジェクトに合わせて複数のテレビ
カメラを動かし且つ焦点調整を行うことにより、当該移
動するオブジェクトを撮影していた。このように、テレ
ビカメラを動かし焦点調整を行う必要があるので、オブ
ジェクトを含む画像データを得るまでに遅延時間が発生
するという問題点があった。
However, when an object moves, the moving object is photographed by moving a plurality of television cameras and adjusting the focus in accordance with the moving object. As described above, since it is necessary to move the television camera to adjust the focus, there is a problem that a delay time occurs until the image data including the object is obtained.

【0007】本発明は、上記のような事実を考慮して成
されたものであり、特定のオブジェクトのみに音声を伝
達することができる音伝達装置を提供することを第1の
目的とし、上記の位置検出に関する画像認識技術と音の
伝達技術とを組合せ、音の伝達対象としてのオブジェク
トの位置検出を効率的に行い、その検出位置に基づいて
オブジェクトのみに音声を伝達することができる音伝達
装置を提供することを第2の目的とする。
The present invention has been made in consideration of the above facts, and it is a first object of the present invention to provide a sound transmission device capable of transmitting sound only to a specific object. Sound transmission that can efficiently detect the position of an object as a sound transmission target by combining image recognition technology and sound transmission technology related to position detection, and can transmit sound only to the object based on the detected position. A second object is to provide a device.

【0008】[0008]

【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1記載の発明は、供給された音声信号
に対応する音を発する複数の無指向性のスピーカと、集
音させるべき領域範囲としての集音範囲を設定し、前記
複数のスピーカの各々から発した音波の波面の包絡面を
波面とする合成音波が前記集音範囲に収束するように前
記複数のスピーカの各々に供給するべき音声信号の位相
を互いにずらして設定し、前記複数のスピーカの各々か
ら発せられた音の音圧が正確に内容を把握することが困
難なレベルとなるように前記音声信号の振幅を設定し、
位相及び振幅を設定した前記音声信号を前記複数のスピ
ーカの各々に供給する制御手段と、を有することを特徴
とする。
In order to achieve the first object, the invention according to claim 1 is to provide a plurality of omnidirectional speakers which emit a sound corresponding to a supplied audio signal, and a sound collecting device. Each of the plurality of speakers is set such that a sound collection range is set as an area range to be made, and a synthetic sound wave having a wavefront of an envelope surface of a wavefront of a sound wave emitted from each of the plurality of speakers is converged in the sound collection range. The phase of the audio signal to be supplied to the speaker is set to be offset from each other, and the amplitude of the audio signal is set so that the sound pressure of the sound emitted from each of the plurality of speakers becomes a level at which it is difficult to accurately grasp the content. Set
Control means for supplying the audio signal having the set phase and amplitude to each of the plurality of speakers.

【0009】一般に、無指向性のスピーカから発せられ
た音波の波面(同一時刻での振動の状態が全く等しい点
を結んだ面)はスピーカ側を凹とする球面となり、ホイ
ヘンスの原理によれば、この波面上の各点を波源とする
球面波の包絡面が次の波面となる。このようにして波面
が連鎖的に形成されることにより音が伝達される。これ
は複数の無指向性スピーカを略同一の方向を向くように
並べ、各スピーカに略同一のタイミングで同一の音声信
号を供給した場合にも当てはまり、各スピーカから発せ
られた複数の音波が重ね合わされて複数の音波の各々の
波面の包絡面を波面とする合成音波が形成され、この合
成音波は、前記各々の波面の包絡面(すなわち合成音波
の波面)上の各点を波源とする球面波の包絡面が次の波
面となり、音が伝達される。
In general, the wavefront of a sound wave emitted from an omnidirectional speaker (a surface connecting points at which vibration states are exactly the same at the same time) is a spherical surface having a concave side, and according to Huygens's principle. , The envelope surface of a spherical wave whose source is each point on this wave surface is the next wave surface. In this way, the sound is transmitted by forming the wavefronts in a chain. This also applies when a plurality of omnidirectional speakers are arranged so as to face in substantially the same direction and the same audio signal is supplied to each speaker at substantially the same timing, and a plurality of sound waves emitted from each speaker are superposed. To form a composite sound wave whose wavefront is the envelope surface of each wavefront of the plurality of sound waves. The composite sound wave is a spherical surface whose source is each point on the envelope surface of each wavefront (that is, the wavefront of the composite sound wave). The envelope surface of the wave becomes the next wave surface, and the sound is transmitted.

【0010】上記に基づき請求項1記載の発明では、ま
ず制御手段が、集音させるべき領域範囲としての集音範
囲を設定する。ここで集音範囲は、予め定められた領域
範囲に設定しても良いし、オブジェクトの位置に基づい
て、例えば、該オブジェクトの頭部の位置に設定しても
良い。
Based on the above, in the invention according to claim 1, first, the control means sets a sound collection range as a region range in which sound is to be collected. Here, the sound collection range may be set to a predetermined area range, or may be set to the position of the head of the object, for example, based on the position of the object.

【0011】次に、制御手段は、複数の無指向性スピー
カの各々から発せられた音波の波面の包絡面を波面とす
る合成音波が前記集音範囲に収束するように、前記複数
のスピーカの各々に供給する音声信号の位相を互いにず
らすように設定する。具体的には、前述のように複数の
音波の重ね合わせで形成される合成音波の波面に関して
もホイヘンスの原理が当てはまるので、図5にも示すよ
うに、制御手段が、集音範囲100を設定し、該集音範
囲100側が凹(スピーカ36側が凸)となる波面10
4の合成音波が形成されるように、各スピーカに供給す
る音声信号の位相を互いにずらすように設定する。これ
により、合成音波の波面は徐々に小さくなることになる
ので、各音声信号の位相差を調整することにより合成音
波を集音範囲に収束させることができる。
Next, the control means controls the plurality of omnidirectional speakers so that a synthetic sound wave whose wavefront is the envelope surface of the wavefront of the sound wave emitted from each of the plurality of omnidirectional speakers converges in the sound collection range. The phases of the audio signals supplied to each are set so as to be shifted from each other. Specifically, since the Huygens' principle applies to the wavefront of the synthetic sound wave formed by superimposing a plurality of sound waves as described above, the control means sets the sound collection range 100 as shown in FIG. Then, the wavefront 10 in which the sound collection range 100 side is concave (the speaker 36 side is convex)
The phases of the audio signals supplied to the speakers are set to be shifted from each other so that the synthetic sound wave of No. 4 is formed. As a result, the wavefront of the synthetic sound wave gradually becomes smaller, so that the synthetic sound wave can be converged to the sound collection range by adjusting the phase difference between the respective audio signals.

【0012】更に制御手段は、複数のスピーカの各々か
ら発せられる音の音圧が正確に内容を把握することが困
難なレベルとなるように(例えば人間の可聴レベル以下
となるように)各スピーカに供給する音声信号の振幅を
設定し、上記のようにして位相及び振幅を設定した音声
信号を複数のスピーカの各々に供給する。そして、複数
の無指向性のスピーカによって、前記供給された音声信
号に対応する音が発せられる。
Further, the control means sets each speaker so that the sound pressure of the sound emitted from each of the plurality of speakers is at a level at which it is difficult to accurately grasp the content (for example, the sound pressure is below an audible level for humans). The amplitude of the audio signal to be supplied to the speaker is set, and the audio signal whose phase and amplitude are set as described above is supplied to each of the plurality of speakers. Then, a sound corresponding to the supplied audio signal is emitted by the plurality of omnidirectional speakers.

【0013】これにより、集音範囲外に発散する音波に
ついては振幅が微弱となり、スピーカから発せられた音
が集音範囲外で聴取されることが防止される。また、合
成音波は各スピーカから発せられた音波が重ね合わされ
て形成されるので、この合成音波が収束する集音範囲内
では、合成音波によりスピーカから発せられた音が正確
に内容を把握することが可能なレベルの音圧、例えば人
間の可聴レベル以上の音圧で聴取されることになる。従
って、集音範囲内のみに音声を伝達することができる。
As a result, the amplitude of the sound wave that diverges outside the sound collection range becomes weak, and the sound emitted from the speaker is prevented from being heard outside the sound collection range. Further, since the synthetic sound wave is formed by superimposing the sound waves emitted from the respective speakers, it is necessary to accurately grasp the content of the sound emitted from the speaker by the synthetic sound wave within the sound collection range where the synthetic sound waves converge. Is heard at a sound pressure level that is possible, for example, a sound pressure higher than the human audible level. Therefore, the sound can be transmitted only within the sound collection range.

【0014】また、上記第1の目的を達成するために、
請求項2記載の発明は、請求項1記載の発明において、
前記制御手段は、前記複数のスピーカのうち前記集音範
囲からの距離が所定距離よりも短いスピーカに供給する
音声信号の振幅が他のスピーカに供給する音声信号の振
幅よりも大きくなるように、音声信号の振幅を設定する
ことを特徴とする。
In order to achieve the above first object,
The invention according to claim 2 is the same as the invention according to claim 1,
The control means, so that the amplitude of the audio signal supplied to the speaker whose distance from the sound collection range is shorter than a predetermined distance among the plurality of speakers is larger than the amplitude of the audio signal supplied to other speakers. It is characterized in that the amplitude of the audio signal is set.

【0015】前述した請求項1記載の発明において、複
数のスピーカのうち集音範囲からの距離が小さいスピー
カから発せられる音波は、合成音波の形成に寄与する度
合いが大きい。そこで、請求項2に記載したように、制
御手段が、複数のスピーカのうち集音範囲からの距離が
短いスピーカに供給する音声信号の振幅が他のスピーカ
に供給する音声信号の振幅よりも大きくなるように、音
声信号の振幅を設定することにより、スピーカから発せ
られた音が集音範囲外で聴取されることなく、集音範囲
内で聴取される音の音量のみを効率的に大きくすること
ができる。
In the invention according to claim 1 described above, the sound wave emitted from the speaker having a small distance from the sound collection range among the plurality of speakers has a large contribution to the formation of the synthetic sound wave. Therefore, as described in claim 2, the control means causes the amplitude of the audio signal supplied to the speaker of the plurality of speakers having a short distance from the sound collection range to be larger than the amplitude of the audio signal supplied to the other speakers. By setting the amplitude of the audio signal so that the sound emitted from the speaker is not heard outside the sound collection range, only the volume of the sound heard within the sound collection range is effectively increased. be able to.

【0016】また、上記第1の目的を達成するために、
請求項3記載の発明は、請求項1記載の発明において、
前記集音範囲に向けて配置された指向性を有する第1の
補助スピーカ及び前記集音範囲の近傍に配置された第2
の補助スピーカの少なくとも一方を更に備え、前記制御
手段は前記第1の補助スピーカ及び前記第2の補助スピ
ーカの少なくとも一方にも音声信号を供給することを特
徴とする。
Further, in order to achieve the first object,
The invention according to claim 3 is the same as the invention according to claim 1,
A first auxiliary speaker having directivity arranged toward the sound collecting range and a second auxiliary speaker arranged near the sound collecting range.
Further comprising at least one of the auxiliary speakers, and the control means supplies an audio signal to at least one of the first auxiliary speaker and the second auxiliary speaker.

【0017】上述した合成音波の収束範囲の大きさは音
波の波長に依存し、音波の波長を直径とする範囲よりも
小さな範囲に、合成音波を収束させることは理論的に不
可能である。これに対し、一般に音声信号には各周波数
の成分が重ね合わされており、集音範囲の大きさにもよ
るが、比較的低い周波数の音成分に関しては集音範囲内
に収束しないことも考えられる。
The size of the range of convergence of the synthetic sound wave depends on the wavelength of the sound wave, and it is theoretically impossible to converge the synthetic sound wave to a range smaller than the range where the wavelength of the sound wave is the diameter. On the other hand, in general, a sound signal has components of respective frequencies superposed on each other, and it may be possible that a sound component of a relatively low frequency does not converge within the sound collection range, although it depends on the size of the sound collection range. .

【0018】このため、請求項3記載の発明にも記載し
たように、集音範囲に向けて配置された指向性を有する
第1の補助スピーカ及び集音範囲の近傍に配置された第
2の補助スピーカの少なくとも一方を設け、制御手段
は、第1の補助スピーカ及び第2の補助スピーカの少な
くとも一方にも音声信号を供給して音を発生させること
が好ましい。これにより、合成音波により伝達される比
較的低い周波数の音成分が集音範囲外に発散すること
で、集音範囲内における低周波帯域の音が不足する場合
にも、第1の補助スピーカ及び第2の補助スピーカの少
なくとも一方から発せられる音により、集音範囲内で聴
取される、特に低周波帯域の音が充実し、集音範囲内で
聴取される音の音質が向上することになる。
Therefore, as described in the invention of claim 3, the first auxiliary speaker having directivity arranged toward the sound collecting range and the second auxiliary speaker arranged near the sound collecting range. It is preferable that at least one of the auxiliary speakers is provided, and the control means supplies a sound signal to at least one of the first auxiliary speaker and the second auxiliary speaker to generate a sound. As a result, the relatively low frequency sound component transmitted by the synthetic sound wave is diverged to the outside of the sound collection range, and even when the sound in the low frequency band within the sound collection range is insufficient, the first auxiliary speaker and the The sound emitted from at least one of the second auxiliary speakers enhances the sound heard in the sound collection range, particularly the sound in the low frequency band, and improves the sound quality of the sound heard in the sound collection range. .

【0019】なお、合成音波により伝達される比較的低
い周波数の音成分が集音範囲外に発散することにより、
比較的低い周波数の音が集音範囲外で聴取される場合に
は、制御手段を、複数のスピーカの各々に供給する音声
信号の所定周波数以下の成分を除去又は減衰するように
構成することが好ましい。
Note that the relatively low frequency sound component transmitted by the synthetic sound wave diverges outside the sound collection range,
When a sound of a relatively low frequency is heard outside the sound collection range, the control means may be configured to remove or attenuate a component below a predetermined frequency of the audio signal supplied to each of the plurality of speakers. preferable.

【0020】また、上記第1の目的を達成するために、
請求項4記載の発明は、請求項1記載の発明において、
前記制御手段は、前記合成音波の波面に所定値以下の乱
れが生ずるように前記複数のスピーカの各々に供給する
音声信号の位相を互いにずらして設定することを特徴と
する。
In order to achieve the above first object,
The invention according to claim 4 is the invention according to claim 1,
The control means sets the phases of the audio signals supplied to each of the plurality of speakers so as to be shifted from each other so that the wavefront of the synthesized sound wave is disturbed by a predetermined value or less.

【0021】前述したように合成音波の収束範囲の大き
さは音波の波長に依存するので、比較的高い周波数の音
成分に関しては集音範囲内のうちの特定の範囲に過度に
収束し、聴きにくくなることも考えられる。このような
場合には、請求項4に記載したように、制御手段が合成
音波の波面に所定値以下の乱れが生ずるように複数のス
ピーカの各々に供給する音声信号の位相を互いにずらし
て設定することが好ましい。これにより、合成音波によ
って伝達される比較的高い周波数の音成分が過度に収束
することが防止され略均一化されるので、集音範囲内に
おいて比較的高い周波数の音が聴き易くなる。
As described above, since the size of the range of convergence of the synthetic sound wave depends on the wavelength of the sound wave, the sound component having a relatively high frequency is excessively converged in a specific range within the sound collection range, and the sound is heard. It can be difficult. In such a case, as described in claim 4, the control means sets the phases of the audio signals supplied to each of the plurality of speakers so that they are displaced from each other so that the wavefront of the synthetic sound wave is disturbed by a predetermined value or less. Preferably. As a result, the relatively high frequency sound component transmitted by the synthetic sound wave is prevented from excessively converging and is made substantially uniform, so that the relatively high frequency sound is easily heard within the sound collection range.

【0022】また、上記第1の目的を達成するために、
請求項5記載の発明は、請求項1記載の発明において、
音響環境の状態を表す情報に基づいて、所定のスピーカ
から発せられた音のうち被反射体に反射した後に集音範
囲に到達する反射音波の波形を前記複数のスピーカの各
々について演算する第1の演算手段と、前記第1の演算
手段により演算された反射音の波形に基づいて、所定の
スピーカから集音範囲に直接到達する音波により前記反
射波が打ち消すために前記所定のスピーカに供給すべき
音声信号の波形を、前記複数のスピーカの各々について
演算する第2の演算手段と、を更に備え、前記制御手段
は、前記第2の演算手段により各スピーカ毎に演算され
た音声信号を前記複数のスピーカの各々に供給すること
を特徴とする。
Further, in order to achieve the above first object,
The invention of claim 5 is the same as the invention of claim 1,
Based on information indicating the state of the acoustic environment, a waveform of a reflected sound wave that reaches a sound collection range after being reflected by a reflector among sounds emitted from a predetermined speaker is calculated for each of the plurality of speakers. Based on the waveform of the reflected sound calculated by the calculation means and the first calculation means, the reflected wave is supplied to the predetermined speaker in order to cancel it by a sound wave that directly reaches the sound collection range from the predetermined speaker. A second calculation means for calculating a waveform of a sound signal to be reproduced for each of the plurality of speakers, and the control means outputs the sound signal calculated for each speaker by the second calculation means. It is characterized in that it is supplied to each of a plurality of speakers.

【0023】ところで、壁や天井等で囲まれた室内等の
音響環境において上記のように音を集音させる場合、集
音範囲にはスピーカから直接到達する音以外に、スピー
カから発せられ、被反射体、即ち、壁面、天井、床、カ
ーテン、窓ガラス等に反射した反射音も到達するので、
集音範囲内で聴取される音は、スピーカから直接到達す
る音に上記の反射音が重畳された音となる。従って、集
音範囲内で聴取される音の音質が劣化するという不都合
が生ずる。
By the way, in the case of collecting sound as described above in an acoustic environment such as a room surrounded by a wall or a ceiling, the sound collection range is not limited to the sound directly arriving from the speaker but is also emitted from the speaker and Since the reflected sound reflected on the reflector, that is, the wall surface, ceiling, floor, curtain, window glass, etc. also reaches,
The sound heard within the sound collection range is a sound in which the above-mentioned reflected sound is superimposed on the sound that directly reaches from the speaker. Therefore, there arises an inconvenience that the sound quality of the sound heard within the sound collection range deteriorates.

【0024】そこで、請求項5記載の発明では、第1の
演算手段が、音響環境の状態を表す情報、例えば、音響
環境の広さ、気温、被反射体毎の反射係数と位相回転特
性等に基づいて、所定のスピーカから発せられた音のう
ち被反射体に反射した後に集音範囲に到達する反射音波
の波形を複数のスピーカの各々について演算し、第2の
演算手段が第1の演算手段により演算された反射音の波
形に基づいて、所定のスピーカから集音範囲に直接到達
する音波により反射波が打ち消されるために所定のスピ
ーカに供給すべき音声信号の波形を、複数のスピーカの
各々について演算する。そして、制御手段が、第2の演
算手段により各スピーカ毎に演算された音声信号を複数
のスピーカの各々に供給する。これにより、壁や天井等
で囲まれた室内等の音響環境において音を集音させる場
合でも、集音範囲内で聴取される音の音質を向上させる
ことができる。
Therefore, in the invention according to claim 5, the first computing means uses the information indicating the state of the acoustic environment, for example, the size of the acoustic environment, the temperature, the reflection coefficient and the phase rotation characteristic of each reflector. Of the sound emitted from the predetermined speaker, the waveform of the reflected sound wave that reaches the sound collection range after being reflected by the object to be reflected is calculated for each of the plurality of speakers, and the second calculating means calculates Based on the waveform of the reflected sound calculated by the calculation means, the waveform of the audio signal to be supplied to the predetermined speaker in order to cancel the reflected wave by the sound wave that directly reaches the sound collection range from the predetermined speaker For each of the. Then, the control means supplies the audio signal calculated for each speaker by the second calculation means to each of the plurality of speakers. As a result, even when a sound is collected in an acoustic environment such as a room surrounded by a wall or a ceiling, the sound quality of the sound heard within the sound collection range can be improved.

【0025】また、上記第1の目的を達成するために、
請求項6記載の発明は、請求項1記載の発明において、
音の伝達対象としてのオブジェクトの位置を検出する位
置検出手段を更に備え、前記制御手段は、前記位置検出
手段により検出されたオブジェクトの位置に基づいて前
記集音範囲を設定することを特徴とする。
In order to achieve the above first object,
The invention according to claim 6 is the same as the invention according to claim 1,
It is characterized by further comprising position detection means for detecting the position of an object as a sound transmission target, and the control means sets the sound collection range based on the position of the object detected by the position detection means. .

【0026】この請求項6記載の発明では、制御手段
が、位置検出手段により検出されたオブジェクトの位置
に基づいて集音範囲を設定する。例えば、オブジェクト
の頭部の位置を集音範囲として設定する。これにより、
オブジェクトの位置が変化したとしても、該オブジェク
トにのみ音が聴取されるように制御することができる。
なお、位置検出手段は、オブジェクトを含む映像を撮影
するテレビカメラ及び該テレビカメラにより撮影された
映像情報を画像処理してオブジェクトの位置を検出する
画像処理装置で構成したり、室内における温度分布を検
出しオブジェクトの位置を検出する赤外線センサ等で構
成することができる。
In the sixth aspect of the invention, the control means sets the sound collection range based on the position of the object detected by the position detection means. For example, the position of the head of the object is set as the sound collection range. This allows
Even if the position of the object changes, it is possible to control so that only the object hears the sound.
The position detecting means may be composed of a television camera that captures an image including an object and an image processing device that performs image processing of the image information captured by the television camera to detect the position of the object, and detects the temperature distribution in the room. It can be configured by an infrared sensor or the like that detects the position of the object.

【0027】また、上記第1の目的を達成するために、
請求項7記載の発明は、請求項6記載の発明において、
前記位置検出手段により位置が検出されたオブジェクト
の耳の位置及び方向を推定する位置推定手段を更に備
え、前記制御手段は、前記位置推定手段により推定され
たオブジェクトの耳の位置及び方向に基づいて、オブジ
ェクトの聴覚の指向性に合った位置に前記集音範囲を設
定することを特徴とする。
In order to achieve the above first object,
The invention of claim 7 is the same as the invention of claim 6,
The position detecting means further comprises position estimating means for estimating the position and direction of the ear of the object whose position is detected, and the control means is based on the position and direction of the ear of the object estimated by the position estimating means. , The sound collection range is set at a position that matches the hearing directivity of the object.

【0028】この請求項7記載の発明では、位置推定手
段は位置検出手段により位置が検出されたオブジェクト
の耳の位置及び方向を推定し、制御手段は、位置推定手
段により推定されたオブジェクトの耳の位置及び方向に
基づいて、オブジェクトの聴覚の指向性に合った位置に
集音範囲を設定する。これにより、オブジェクトが音を
より明瞭に聞き取れるようにすることができる。
In the invention according to claim 7, the position estimating means estimates the position and direction of the ear of the object whose position is detected by the position detecting means, and the control means is the ear of the object estimated by the position estimating means. Based on the position and direction of, the sound collection range is set to a position that matches the hearing directivity of the object. This allows the object to hear the sound more clearly.

【0029】また、上記第1の目的を達成するために、
請求項8記載の発明は、請求項1記載の発明において、
所定のスピーカから複数の集音範囲の各々に対して発せ
られるべき複数の音に対応する複数の音声信号の位相差
を前記複数のスピーカの各々について演算する第3の演
算手段と、前記第3の演算手段により位相差が演算され
た複数の音声信号を重畳した音声信号の波形を前記複数
のスピーカの各々について演算する第4の演算手段と、
を更に備え、前記制御手段は、前記第4の演算手段によ
り各スピーカ毎に演算された複数の音声信号を重畳した
音声信号を前記複数のスピーカの各々に供給することを
特徴とする。
In order to achieve the above first object,
The invention according to claim 8 is the same as the invention according to claim 1,
Third calculating means for calculating, for each of the plurality of speakers, a phase difference between a plurality of audio signals corresponding to a plurality of sounds to be emitted from a predetermined speaker to each of the plurality of sound collection ranges; Fourth computing means for computing a waveform of an audio signal obtained by superimposing a plurality of audio signals whose phase difference has been computed by the computing means for each of the plurality of speakers,
Further, the control means supplies the audio signal obtained by superimposing the plurality of audio signals calculated for each speaker by the fourth calculating means to each of the plurality of speakers.

【0030】複数の集音範囲を設定し各集音範囲に音を
集音したい場合には、請求項8にも記載したように、第
3の演算手段が所定のスピーカから複数の集音範囲の各
々に対して発せられるべき複数の音に対応する複数の音
声信号の位相差を複数のスピーカの各々について演算
し、第4の演算手段が第3の演算手段により位相差が演
算された複数の音声信号を重畳した音声信号の波形を複
数のスピーカの各々について演算する。そして、制御手
段は、第4の演算手段により各スピーカ毎に演算された
複数の音声信号を重畳した音声信号を複数のスピーカの
各々に供給することが好ましい。これにより、本発明に
係る音伝達装置を複数設けることなく、複数の集音範囲
に各々音を集音することができる。
When a plurality of sound collection ranges are set and sounds are to be collected in each sound collection range, as described in claim 8, the third calculation means causes a plurality of sound collection ranges from a predetermined speaker. Of the plurality of loudspeaker signals corresponding to the plurality of sounds to be emitted to each of the plurality of speakers, the fourth computing means calculates the phase difference by the third computing means. The waveform of the audio signal on which the audio signal of 1 is superimposed is calculated for each of the plurality of speakers. Then, it is preferable that the control means supplies to each of the plurality of speakers an audio signal in which the plurality of audio signals calculated for each speaker by the fourth calculation means are superimposed. Thereby, it is possible to collect sounds in a plurality of sound collection ranges without providing a plurality of sound transmission devices according to the present invention.

【0031】なお、上記では第3の演算手段が所定のス
ピーカから複数の集音範囲の各々に対して発せられるべ
き複数の音に対応する複数の音声信号の位相差を複数の
スピーカの各々について演算するので、集音範囲毎に異
なる音を集音させることもできることは言うまでもな
い。
In the above, the third computing means calculates the phase difference of the plurality of audio signals corresponding to the plurality of sounds to be emitted from the predetermined speaker to each of the plurality of sound collection ranges, for each of the plurality of speakers. Needless to say, different sounds can be collected for each sound collection range because the calculation is performed.

【0032】また、上記第1の目的を達成するために、
請求項9記載の発明は、請求項8記載の発明において、
音の伝達対象としてのオブジェクトの位置を検出する位
置検出手段と、前記位置検出手段により位置が検出され
たオブジェクトの左耳の位置及び右耳の位置を推定する
位置推定手段と、を更に備え、前記制御手段は、前記位
置推定手段により推定された前記左耳及び右耳の位置に
基づいて、各耳に対応した集音範囲を設定することを特
徴とする。
In order to achieve the above first object,
The invention according to claim 9 is the same as the invention according to claim 8,
Position detecting means for detecting the position of the object as a sound transmission target, and position estimating means for estimating the position of the left ear and the position of the right ear of the object whose position is detected by the position detecting means, The control means sets a sound collection range corresponding to each ear based on the positions of the left ear and the right ear estimated by the position estimation means.

【0033】この請求項9記載の発明では、請求項8の
発明において、位置検出手段がオブジェクトの位置を検
出し、位置推定手段が位置検出手段により位置を検出さ
れたオブジェクトの左耳及び右耳の位置を推定する。制
御手段は、位置推定手段により推定された左耳及び右耳
の位置に基づいて、各耳に対応した集音範囲を設定す
る。例えば、推定された左耳の位置を含む所定の大きさ
の領域範囲を、左耳に対応した集音範囲として設定して
も良い。
According to a ninth aspect of the present invention, in the invention of the eighth aspect, the position detecting means detects the position of the object, and the position estimating means detects the left and right ears of the object whose position is detected by the position detecting means. Estimate the position of. The control means sets the sound collection range corresponding to each ear based on the positions of the left and right ears estimated by the position estimation means. For example, an area range having a predetermined size including the estimated position of the left ear may be set as the sound collection range corresponding to the left ear.

【0034】これにより、オブジェクトの左耳の位置に
対応する集音範囲及び右耳の位置に対応する集音範囲の
各々に、所定音源から発せられた音を該音源に向かって
左側の位置で記録した音、右側の位置で記録した音を集
音することにより、オブジェクトにステレオ感を感じさ
せることができる。
Thus, in each of the sound collection range corresponding to the position of the left ear and the sound collection range corresponding to the position of the right ear of the object, the sound emitted from the predetermined sound source is located at the left side of the sound source. By collecting the recorded sound and the sound recorded at the position on the right side, it is possible to make the object feel stereo.

【0035】また、上記第1の目的を達成するために、
請求項10記載の発明は、請求項1記載の発明におい
て、音の伝達対象としてのオブジェクトが予め定められ
た集音範囲内に到来したか否かを検出するオブジェクト
検出手段を更に備え、前記制御手段は、前記オブジェク
ト検出手段により集音範囲内にオブジェクトが到来した
ことが検出された場合に、前記複数のスピーカの各々に
音声信号を供給することを特徴とする。
In order to achieve the above first object,
The invention according to claim 10 is the invention according to claim 1, further comprising an object detection means for detecting whether or not an object as a sound transmission target has arrived within a predetermined sound collection range, and the control is performed. The means supplies an audio signal to each of the plurality of speakers when the object detection means detects that an object has arrived within the sound collection range.

【0036】この請求項10記載の発明では、検出手段
がオブジェクトが予め定められた集音範囲内に到来した
か否かを検出する。制御手段は、検出手段によりオブジ
ェクトが集音範囲内に到来したと検出された場合に、複
数のスピーカの各々に音声信号を供給する。これによ
り、オブジェクトが集音範囲内に到来した場合のみ、集
音範囲に音を集音し、オブジェクトに当該音を聞かせる
ことができるので、例えば、オブジェクトが所定の展示
物の前に到来した場合に、当該展示物を説明するアナウ
ンスを集音することにより、オブジェクトに上記のアナ
ウンスを最初から聞かせることができる。
According to the tenth aspect of the invention, the detecting means detects whether or not the object has arrived within a predetermined sound collection range. The control means supplies an audio signal to each of the plurality of speakers when the detection means detects that the object has arrived within the sound collection range. As a result, it is possible to collect sound in the sound collection range and make the object hear the sound only when the object arrives within the sound collection range. For example, the object arrived in front of a predetermined exhibit. In this case, by collecting the announcement explaining the exhibit, the object can hear the announcement from the beginning.

【0037】また、上記第1の目的を達成するために、
請求項11記載の発明は、請求項1記載の発明におい
て、音響環境の状態を検出する環境検出手段を更に備
え、前記制御手段は、前記環境検出手段によって検出さ
れた音響環境の状態が変化した場合に、変化した音響環
境の状態に基づいて前記複数のスピーカの各々に供給す
る音声信号の振幅及び位相差の少なくとも一方を変更す
ることを特徴とする。
In order to achieve the above-mentioned first object,
The invention according to claim 11 is the invention according to claim 1, further comprising environment detecting means for detecting a state of the acoustic environment, wherein the control means changes the state of the acoustic environment detected by the environment detecting means. In this case, at least one of the amplitude and the phase difference of the audio signal supplied to each of the plurality of speakers is changed based on the changed state of the acoustic environment.

【0038】この請求項11記載の発明では、環境検出
手段が音響環境の状態、例えば、室内の温度、スピーカ
から発せられた音を反射する被反射体としての部屋の壁
面、床面、天井等の状態(例えば窓ガラスにカーテンが
かかっているか否か等)を検出する。制御手段は、環境
検出手段によって検出された音響環境の状態が変化した
場合に、変化した音響環境の状態に基づいて複数のスピ
ーカの各々に供給する音声信号の反射波打ち消し成分の
振幅及び位相差の少なくとも一方を変更する。これによ
り、音響環境の状態の変化に拘わらず、集音範囲内で聴
取される音の音質を向上させることができる。
According to the eleventh aspect of the present invention, the environment detecting means is a state of the acoustic environment, for example, the temperature in the room, the wall surface, the floor surface, the ceiling, etc. of the room as a reflector that reflects the sound emitted from the speaker. The state (for example, whether or not the window glass is covered with a curtain) is detected. The control means, when the state of the acoustic environment detected by the environment detecting means changes, based on the changed state of the acoustic environment, the amplitude and phase difference of the reflected wave canceling component of the audio signal supplied to each of the plurality of speakers. Change at least one of. As a result, the sound quality of the sound heard within the sound collection range can be improved regardless of the change in the state of the acoustic environment.

【0039】また、上記第2の目的を達成するために、
請求項12記載の発明は、供給された音声信号に対応す
る音を発する複数の無指向性のスピーカと、予め定めら
れた位置に配置された広角固定焦点レンズを備え、音の
伝達対象としてのオブジェクトを含む領域を撮影する撮
影手段と、前記撮影手段により撮影された領域の画像情
報よりオブジェクトの位置を認識する位置認識手段と、
前記位置認識手段により認識されたオブジェクトの位置
に基づいて集音範囲を設定し、前記複数のスピーカの各
々から発した音波の波面の包絡面を波面とする合成音波
が前記集音範囲に収束するように前記複数のスピーカの
各々に供給するべき音声信号の位相を互いにずらして設
定し、前記複数のスピーカの各々から発せられた音の音
圧が正確に内容を把握することが困難なレベルとなるよ
うに前記音声信号の振幅を設定し、位相及び振幅を設定
した前記音声信号を前記複数のスピーカの各々に供給す
る制御手段と、を有することを特徴とする。
In order to achieve the second object,
According to a twelfth aspect of the present invention, a plurality of omnidirectional speakers that emit a sound corresponding to the supplied audio signal and a wide-angle fixed-focus lens that is arranged at a predetermined position are provided. Photographing means for photographing an area including the object, position recognizing means for recognizing the position of the object from image information of the area photographed by the photographing means,
A sound collection range is set based on the position of the object recognized by the position recognition means, and a synthetic sound wave having a wavefront of the envelope of the wavefront of the sound wave emitted from each of the plurality of speakers converges in the sound collection range. As described above, the phase of the audio signal to be supplied to each of the plurality of speakers is set to be offset from each other, and the sound pressure of the sound emitted from each of the plurality of speakers is at a level at which it is difficult to accurately grasp the contents. A control means for setting the amplitude of the audio signal so as to supply the audio signal with the phase and the amplitude set to each of the plurality of speakers.

【0040】この請求項12記載の発明では、撮影手段
は、予め定められた位置に配置された広角固定焦点レン
ズを備えている。これにより、オブジェクトが移動して
いる場合、静止している場合を問わず、撮影手段(例え
ばテレビカメラ等)の向きをオブジェクトの移動に追従
させて変更させることなく、オブジェクトを撮影するこ
とができる。また、物や人・動物等のオブジェクトは床
や地面からの高さが概ね決まっており、更に、広角固定
焦点レンズは焦点深度が大きいという特性を有している
ので、撮影手段が焦点調整機構を有していなくても、即
ち焦点調整を行うことなく、オブジェクトを撮影するこ
とができる。
According to the twelfth aspect of the invention, the photographing means includes a wide-angle fixed focus lens arranged at a predetermined position. As a result, regardless of whether the object is moving or stationary, the object can be photographed without changing the direction of the photographing means (such as a television camera) following the movement of the object. . In addition, since the height of objects, people, animals, etc. from the floor and the ground is almost fixed, and the wide-angle fixed-focus lens has the characteristic that the depth of focus is large. The object can be photographed without having it, that is, without performing focus adjustment.

【0041】このように、オブジェクトの移動に追従し
た撮影手段の向きの変更や焦点調整を行うことなく、オ
ブジェクトの位置を速やかに認識することができる。ま
た、上記のような撮影手段の向きの変更や焦点調整を行
うための機械的な作動機構が不要となるので、撮影手段
並びに音抽出装置の構造を簡単にすることができると共
に、機械的な作動部を減らすことにより耐久性を向上さ
せることができる。
In this way, the position of the object can be quickly recognized without changing the direction of the photographing means or adjusting the focus following the movement of the object. Further, since the mechanical actuation mechanism for changing the orientation of the photographing means and adjusting the focus as described above is not required, the structure of the photographing means and the sound extraction device can be simplified and the mechanical operation can be simplified. Durability can be improved by reducing the number of operating parts.

【0042】なお、広角固定焦点レンズの配置位置とし
ては、例えば、部屋の天井等の平面部の他、天井と壁と
の2面が作る角部や、天井と壁2面との計3面が作る角
部とすることができる。
The wide-angle fixed-focus lens is arranged at, for example, a flat surface such as a ceiling of a room, a corner formed by two surfaces of the ceiling and a wall, and a total of three surfaces including the ceiling and the wall. It can be a corner made by.

【0043】さらに、請求項12記載の発明では、上記
のような撮影手段により撮影された領域の画像情報よ
り、画像認識手段によってオブジェクトの位置を認識
し、制御手段が、このオブジェクトの位置に基づいて集
音範囲を設定する。例えば、オブジェクトが人間である
場合、該オブジェクトの頭部の位置を集音範囲として設
定しても良い。
Further, in the invention of claim 12, the position of the object is recognized by the image recognition means from the image information of the area photographed by the photographing means as described above, and the control means is based on the position of the object. To set the sound collection range. For example, when the object is a human, the position of the head of the object may be set as the sound collection range.

【0044】そして、制御手段は、上記請求項1記載の
発明と同様に、複数の無指向性スピーカの各々から発せ
られた音波の波面の包絡面を波面とする合成音波が前記
集音範囲に収束するように、前記複数のスピーカの各々
に供給する音声信号の位相を互いにずらすように設定
し、複数のスピーカの各々から発せられる音の音圧が正
確に内容を把握することが困難なレベルとなるように前
記音声信号の振幅を設定する。さらに、制御手段がこの
ようにして位相及び振幅を設定した音声信号を複数のス
ピーカの各々に供給すると、複数の無指向性のスピーカ
によって、前記供給された音声信号に対応する音が発せ
られる。
Then, the control means is similar to the invention described in claim 1, in which the synthetic sound wave having the wavefront of the envelope surface of the sound wave emitted from each of the plurality of omnidirectional speakers falls within the sound collection range. In order to converge, the phase of the audio signal supplied to each of the plurality of speakers is set to be shifted from each other, and the sound pressure of the sound emitted from each of the plurality of speakers is difficult to accurately grasp the contents. The amplitude of the audio signal is set so that Further, when the control means supplies the audio signal whose phase and amplitude are set in this way to each of the plurality of speakers, the plurality of omnidirectional speakers emit a sound corresponding to the supplied audio signal.

【0045】これにより、集音範囲外に発散する音波に
ついては振幅が微弱となり、スピーカから発せられた音
が集音範囲外で聴取されることが防止され、合成音波は
各スピーカから発せられた音波が重ね合わされて形成さ
れるので、この合成音波が収束する集音範囲内では、正
確に内容を把握することが可能なレベルの音圧で聴取さ
れることになる。従って、オブジェクトの位置に基づい
て設定された集音範囲内のみに音声を伝達することがで
きる。
As a result, the amplitude of the sound wave diverging outside the sound collection range becomes weak, the sound emitted from the speaker is prevented from being heard outside the sound collection range, and the synthetic sound wave is emitted from each speaker. Since the sound waves are formed by being superposed, the sound waves are heard at a sound pressure level at which the content can be accurately grasped within the sound collection range where the synthetic sound waves converge. Therefore, the sound can be transmitted only within the sound collection range set based on the position of the object.

【0046】また、上記第2の目的を達成するために、
請求項13記載の発明は、請求項12記載の発明におい
て、前記撮影手段は複数設けられており、各撮影手段
は、前記広角固定焦点レンズによる結像点に配置された
エリアセンサを更に備え、前記位置認識手段は、該複数
の撮影手段により撮影された各々異なる撮影情報を処理
してオブジェクトの形状を認識する形状認識手段と、前
記形状認識手段により認識されたオブジェクトの3次元
座標を演算する3次元座標演算手段と、を含んで構成さ
れたことを特徴とする。
In order to achieve the second object,
According to a thirteenth aspect of the present invention, in the invention according to the twelfth aspect, a plurality of the photographing means are provided, and each photographing means further includes an area sensor arranged at an image forming point of the wide-angle fixed focus lens, The position recognizing means processes different photographic information photographed by the plurality of photographic means to recognize the shape of the object, and calculates three-dimensional coordinates of the object recognized by the shape recognizing means. And a three-dimensional coordinate calculation means.

【0047】この請求項13記載の発明では、撮影手段
は複数設けられており、各撮影手段は、広角固定焦点レ
ンズによる結像点に配置されたエリアセンサを更に備え
ている。即ち、撮影手段によって、広角固定焦点レンズ
を介して撮影されたオブジェクトの像はエリアセンサ上
に結像される。このようにして、複数の撮影手段によ
り、オブジェクトを含む領域が各々異なる位置から撮影
される。
According to the thirteenth aspect of the present invention, a plurality of photographing means are provided, and each photographing means further comprises an area sensor arranged at the image forming point of the wide-angle fixed focus lens. That is, the image of the object photographed by the photographing means through the wide-angle fixed focus lens is formed on the area sensor. In this way, the regions including the object are photographed from different positions by the plurality of photographing means.

【0048】形状認識手段により複数の撮影手段で撮影
された各々異なる撮影情報が処理されてオブジェクトの
形状が認識される。オブジェクトの形状を認識するに
は、例えば、後述する請求項14記載の発明のように、
3次元空間をX軸、Y軸及びZ軸の各方向に沿って仮想
的に細分割することにより得られる多数の立方体状の微
小空間のうち、オブジェクトが占有する微小空間により
形成される領域を求めることにより認識してもよいし、
また、例えば、複数の撮影手段により各々異なる撮影情
報を平面化した画像情報に変換し、該変換された画像情
報から少なくともオブジェクトの正面、背面、左側面、
右側面及び平面の画像情報を求め、該求められた画像情
報を合成して認識してもよい。
The shape recognition means processes the different photographing information photographed by the plurality of photographing means to recognize the shape of the object. To recognize the shape of an object, for example, as in the invention of claim 14 described later,
Of a large number of cubic microspaces obtained by virtually subdividing the three-dimensional space along each of the X-axis, Y-axis, and Z-axis, the region formed by the microspace occupied by the object You may recognize by asking,
Further, for example, different photographing information is converted into flattened image information by a plurality of photographing means, and at least the front surface, the back surface, the left side surface of the object are converted from the converted image information.
The image information of the right side surface and the plane surface may be obtained, and the obtained image information may be combined and recognized.

【0049】3次元座標演算手段により形状認識手段で
認識されたオブジェクト又は該オブジェクトの所定の部
位の3次元座標が演算される。一般にオブジェクトは点
とは限らず点の集合体であるので、オブジェクトが含む
点の全ての3次元座標を全て演算してもよいし、オブジ
ェクトと3次元空間とを画する境界に属する点の全ての
3次元座標を演算してもよい。また、例えば特定の位置
を予め設定(記憶)しておいて該特定の位置の3次元座
標を演算することにより、高さや長さ等を求めても良
い。
The three-dimensional coordinate calculation means calculates the three-dimensional coordinates of the object recognized by the shape recognition means or a predetermined part of the object. In general, an object is not limited to points, but is a set of points. Therefore, all three-dimensional coordinates of points included in an object may be calculated, or all points belonging to a boundary that demarcates the object and the three-dimensional space. The three-dimensional coordinates of may be calculated. Further, for example, the height or length may be obtained by presetting (storing) a specific position and calculating the three-dimensional coordinates of the specific position.

【0050】このようにして画像認識手段を構成する形
状認識手段及び3次元座標演算手段によって、オブジェ
クトの3次元座標を速やかに求め、オブジェクトの位置
を速やかに認識することができる。
The shape recognizing means and the three-dimensional coordinate calculating means which constitute the image recognizing means in this manner can promptly determine the three-dimensional coordinates of the object and promptly recognize the position of the object.

【0051】また、上記第2の目的を達成するために、
請求項14記載の発明は、請求項13記載の発明におい
て、前記形状認識手段は、前記複数の撮影手段により撮
影された各々異なる画像情報に基づいて、3次元空間を
X軸、Y軸及びZ軸の各方向に沿って仮想的に細分割す
ることにより得られる多数の立方体状の微小空間のう
ち、オブジェクトが占有する微小空間により形成される
領域を求めることによりオブジェクトの形状を認識する
ことを特徴とする。この請求項14記載の発明では、形
状認識手段により、3次元空間をX軸、Y軸及びZ軸の
各方向に沿って仮想的に細分割することにより得られる
多数の立方体状の微小空間のうち、オブジェクトが占有
する微小空間により形成される領域を求めることにより
オブジェクトの形状を認識する。ここで、微小領域はエ
リアセンサの解像度の限界まで細分化することができ
る。このため、オブジェクトの形状を細部まで認識する
ことができる。
In order to achieve the above second object,
According to a fourteenth aspect of the present invention, in the thirteenth aspect of the present invention, the shape recognizing means sets a three-dimensional space in an X axis, a Y axis, and a Z based on different image information captured by the plurality of capturing means. It is possible to recognize the shape of an object by finding the area formed by the minute space occupied by the object among the many cubic minute spaces obtained by virtually subdividing along each direction of the axis. Characterize. According to the fourteenth aspect of the present invention, by the shape recognition means, a three-dimensional space is virtually subdivided along each of the X-axis, Y-axis, and Z-axis, and a large number of cubic microspaces are obtained. The shape of the object is recognized by finding the area formed by the minute space occupied by the object. Here, the minute area can be subdivided to the limit of the resolution of the area sensor. Therefore, the shape of the object can be recognized in detail.

【0052】また、上記第2の目的を達成するために、
請求項15記載の発明は、請求項13記載の発明におい
て、前記形状認識手段は、前記複数の撮影手段により撮
影された各々異なる画像情報に基づいて、3次元空間を
X軸、Y軸及びZ軸の各方向に沿って仮想的に細分割す
ることにより得られる多数の立方体状の微小空間のう
ち、各撮影手段からオブジェクトを投影する視野角内に
含まれる微小空間をそれぞれ抽出し、抽出した微小空間
の全てに含まれる微小空間により形成される領域を求め
ることによりオブジェクトの形状を認識することを特徴
とする。
In order to achieve the above second object,
According to a fifteenth aspect of the invention, in the thirteenth aspect of the invention, the shape recognizing means sets a three-dimensional space in an X-axis, a Y-axis, and a Z-axis based on different image information captured by the plurality of image capturing means. From a large number of cubic microspaces obtained by virtually subdividing along each direction of the axis, the microspaces included in the viewing angle for projecting the object from each photographing means are extracted and extracted. It is characterized in that the shape of an object is recognized by obtaining a region formed by a minute space included in all the minute spaces.

【0053】上述した請求項13記載の複数の撮影手段
により撮影された画像情報には、例えば図34に示すよ
うに影(死角)の領域が生ずる。そこで、請求項15に
記載したように、形状認識手段が、複数の撮影手段によ
り撮影された各々異なる画像情報に基づいて、3次元空
間をX軸、Y軸及びZ軸の各方向に沿って仮想的に細分
割することにより得られる多数の立方体状の微小空間の
うち、各撮影手段からオブジェクトを投影する視野角内
に含まれる微小空間をそれぞれ抽出し、抽出した微小空
間の全てに含まれる微小空間により形成される領域を求
めることによりオブジェクトの形状を認識する。
In the image information photographed by the plural photographing means according to the thirteenth aspect, there is a shadow (blind spot) area as shown in FIG. 34, for example. Therefore, according to the fifteenth aspect, the shape recognition means sets the three-dimensional space along the X-axis, Y-axis, and Z-axis directions based on the different image information captured by the plurality of image capturing means. Of a large number of cubic microspaces obtained by virtually subdividing, microspaces included in the viewing angle for projecting an object from each photographing means are extracted, and included in all of the extracted microspaces. The shape of the object is recognized by finding the area formed by the minute space.

【0054】このようにしてオブジェクトの形状を認識
することにより、影(死角)の領域を排除することがで
き、オブジェクトの形状を正確に認識することができ
る。
By recognizing the shape of the object in this way, the shadow (blind spot) region can be eliminated and the shape of the object can be accurately recognized.

【0055】また、上記第2の目的を達成するために、
請求項16記載の発明は、請求項12記載の発明におい
て、前記撮影手段は複数設けられており、各撮影手段
は、前記広角固定焦点レンズによる結像点に配置された
エリアセンサを更に備え、前記位置認識手段は、各撮影
手段のエリアセンサ上に結像された2次元座標を取得
し、該取得した複数の2次元座標に基づいてオブジェク
トの位置を認識する、ことを特徴とする。
In order to achieve the above second object,
According to a sixteenth aspect of the present invention, in the invention according to the twelfth aspect, a plurality of the photographing means are provided, and each photographing means further includes an area sensor arranged at an image forming point of the wide-angle fixed focus lens, It is characterized in that the position recognition means acquires the two-dimensional coordinates formed on the area sensor of each photographing means, and recognizes the position of the object based on the plurality of acquired two-dimensional coordinates.

【0056】この請求項16記載の発明では、複数の撮
影手段の各々のエリアセンサ上の点の2次元座標が分か
れば3次元座標を逆算することができるので、画像認識
手段が、各撮影手段のエリアセンサ上に結像された2次
元座標を取得し、該取得した複数の2次元座標に基づい
てオブジェクトの位置(3次元座標)を正確に認識する
ことができる。
In the sixteenth aspect of the present invention, the three-dimensional coordinates can be calculated backward if the two-dimensional coordinates of the points on the area sensors of the plurality of photographing means are known. The two-dimensional coordinates imaged on the area sensor can be acquired, and the position (three-dimensional coordinates) of the object can be accurately recognized based on the acquired two-dimensional coordinates.

【0057】また、上記第2の目的を達成するために、
請求項17記載の発明は、供給された音声信号に対応す
る音を発する複数の無指向性のスピーカと、予め定めら
れた位置に配置された広角固定焦点レンズ及び該レンズ
による結像点に配設されたエリアセンサを備え、音の伝
達対象としてのオブジェクトを含む領域を撮影する撮影
手段と、前記撮影手段の近傍に配置され、前記エリアセ
ンサ上に結像するようにオブジェクトの像を反射する反
射手段と、前記反射手段により反射されて前記エリアセ
ンサ上に結像されたオブジェクト像、及び前記反射手段
により反射されることなく前記エリアセンサ上に結像さ
れたオブジェクト像の各々の該エリアセンサ上における
2次元座標を取得し、該取得した複数の2次元座標に基
づいてオブジェクトの3次元座標を演算することによ
り、オブジェクトの位置を認識する位置認識手段と、前
記位置認識手段により認識されたオブジェクトの位置に
基づいて集音範囲を設定し、前記複数のスピーカの各々
から発した音波の波面の包絡面を波面とする合成音波が
前記集音範囲に収束するように前記複数のスピーカの各
々に供給するべき音声信号の位相を互いにずらして設定
し、前記複数のスピーカの各々から発せられた音の音圧
が正確に内容を把握することが困難なレベルとなるよう
に前記音声信号の振幅を設定し、位相及び振幅を設定し
た前記音声信号を前記複数のスピーカの各々に供給する
制御手段と、を有することを特徴とする。
In order to achieve the above second object,
According to a seventeenth aspect of the present invention, a plurality of omnidirectional speakers emitting a sound corresponding to the supplied audio signal, a wide-angle fixed focus lens arranged at a predetermined position, and an image forming point formed by the lenses are arranged. An image pickup unit that is provided with an area sensor and takes an image of an area including an object as a sound transmission target, and is arranged in the vicinity of the image pickup unit, and reflects an image of the object so as to form an image on the area sensor. Reflecting means, an object image reflected by the reflecting means and formed on the area sensor, and an area image of each of the object images formed on the area sensor without being reflected by the reflecting means. The two-dimensional coordinates of the object are acquired by calculating the three-dimensional coordinates of the object based on the acquired two-dimensional coordinates. Position recognizing means for recognizing the position, and setting a sound collection range based on the position of the object recognized by the position recognizing means, and synthesizing the envelope surface of the wavefront of the sound wave emitted from each of the plurality of speakers as the wavefront. The phase of the audio signal to be supplied to each of the plurality of speakers is set to be offset from each other so that the sound wave converges in the sound collection range, and the sound pressure of the sound emitted from each of the plurality of speakers is accurately set. Control means for setting the amplitude of the audio signal to a level at which it is difficult to grasp and supplying the audio signal with the phase and amplitude set to each of the plurality of speakers. To do.

【0058】この請求項17記載の発明では、撮影手段
が、予め定められた位置に配置された広角固定焦点レン
ズ及び該レンズによる結像点に配設されたエリアセンサ
を備えている。また、撮影手段により、オブジェクトを
含む領域が撮影される。
According to the seventeenth aspect of the present invention, the photographing means includes a wide-angle fixed focus lens arranged at a predetermined position and an area sensor arranged at an image forming point of the lens. Moreover, the area including the object is photographed by the photographing means.

【0059】反射手段は撮影手段の近傍に配置されてい
る。この反射手段は、例えば図39の(G)〜(L)に
示したように、壁に沿って配置したり、L字型でもよ
く、また、湾曲したものであってもよい。反射手段によ
りエリアセンサ上に結像するようにオブジェクトの像が
反射される。
The reflecting means is arranged near the photographing means. The reflecting means may be arranged along a wall, may be L-shaped, or may be curved, as shown in (G) to (L) of FIG. 39, for example. The image of the object is reflected by the reflecting means so as to form an image on the area sensor.

【0060】そして、画像認識手段は、反射手段により
反射されてエリアセンサ上に結像されたオブジェクト
像、及び反射手段により反射されることなくエリアセン
サ上に結像されたオブジェクト像の各々のエリアセンサ
上における2次元座標を取得する。このようにして、撮
影手段がたとえ1つであっても、その単一の撮影手段に
備えたエリアセンサに複数のオブジェクト像が結像さ
れ、複数の2次元座標が取得されることになる。従っ
て、上述した請求項16記載の発明と同様に、画像認識
手段は、取得した複数の2次元座標に基づいてオブジェ
クトの位置(3次元座標)を正確に認識することができ
る。
Then, the image recognizing means has areas of the object image reflected on the area sensor by being reflected by the reflecting means and the object image formed on the area sensor without being reflected by the reflecting means. Obtain two-dimensional coordinates on the sensor. In this way, even if there is only one photographing means, a plurality of object images are formed on the area sensor provided in the single photographing means, and a plurality of two-dimensional coordinates are acquired. Therefore, similarly to the invention described in claim 16 described above, the image recognition means can accurately recognize the position (three-dimensional coordinate) of the object based on the acquired two-dimensional coordinates.

【0061】このように反射手段により、もう1つのオ
ブジェクト像をエリアセンサ上に結像させることができ
るので、撮影手段が1つであってもオブジェクトの3次
元座標を演算し、オブジェクトの位置を正確に認識する
ことができる。
As described above, since the reflecting means can form another object image on the area sensor, the three-dimensional coordinates of the object can be calculated and the position of the object can be calculated even if there is only one photographing means. Can be accurately recognized.

【0062】また、請求項17記載の発明では、上記の
ようにして画像認識手段によってオブジェクトの位置を
認識し、請求項12記載の発明と同様の要領で、制御手
段によってオブジェクトの位置に基づいて集音位置を設
定した後、該集音範囲内のみに音声を伝達することがで
きる。
According to the seventeenth aspect of the invention, the position of the object is recognized by the image recognizing means as described above, and based on the position of the object by the control means in the same manner as the invention of the twelfth aspect. After setting the sound collecting position, the sound can be transmitted only within the sound collecting range.

【0063】また、上記第2の目的を達成するために、
請求項18記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、前記制御手段は、前記複数
のスピーカのうち前記集音範囲からの距離が所定距離よ
りも短いスピーカに供給する音声信号の振幅が他のスピ
ーカに供給する音声信号の振幅よりも大きくなるよう
に、音声信号の振幅を設定することを特徴とする。
In order to achieve the above second object,
The invention according to claim 18 is the invention according to any one of claims 12 to 17, wherein the control unit is a speaker whose distance from the sound collection range is shorter than a predetermined distance among the plurality of speakers. The amplitude of the audio signal is set so that the amplitude of the audio signal supplied is larger than the amplitude of the audio signal supplied to the other speaker.

【0064】この請求項18記載の発明では、請求項2
記載の発明と同様に、複数のスピーカのうち集音範囲か
らの距離が小さいスピーカから発せられる音波は、合成
音波の形成に寄与する度合いが大きいので、制御手段に
よって、複数のスピーカのうち集音範囲からの距離が小
さいスピーカに供給する音声信号の振幅が他のスピーカ
に供給する音声信号の振幅よりも大きくなるように、音
声信号の振幅を設定することにより、スピーカから発せ
られた音が集音範囲外で聴取されることなく、集音範囲
内で聴取される音の音量のみを効率的に大きくすること
ができる。
According to the invention of claim 18, claim 2
Similar to the invention described above, the sound wave emitted from the speaker of the plurality of speakers whose distance from the sound collection range is small contributes to the formation of the synthetic sound wave to a large extent. The sound emitted from the speaker is collected by setting the amplitude of the audio signal so that the amplitude of the audio signal supplied to the speaker whose distance from the range is small is larger than the amplitude of the audio signal supplied to other speakers. It is possible to efficiently increase only the volume of the sound heard within the sound collection range without being heard outside the sound range.

【0065】また、上記第2の目的を達成するために、
請求項19記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、前記集音範囲に向けて配置
された指向性を有する第1の補助スピーカ及び前記集音
範囲の近傍に配置された第2の補助スピーカの少なくと
も一方を更に備え、前記制御手段は前記第1の補助スピ
ーカ及び前記第2の補助スピーカの少なくとも一方にも
音声信号を供給することを特徴とする。
In order to achieve the second object,
A nineteenth aspect of the invention is the invention according to any one of the twelfth to seventeenth aspects, in which the first auxiliary speaker having directivity arranged toward the sound collecting range and the vicinity of the sound collecting range are provided. Further, at least one of the second auxiliary speakers arranged in the above is further provided, and the control means supplies an audio signal to at least one of the first auxiliary speaker and the second auxiliary speaker.

【0066】この請求項19記載の発明では、請求項3
記載の発明と同様に、合成音波により伝達される比較的
低い周波数の音成分が集音範囲外に発散することで、集
音範囲内における低周波帯域の音が不足する場合にも、
第1の補助スピーカ及び第2の補助スピーカの少なくと
も一方から発せられる音により、集音範囲内で聴取され
る、特に低周波帯域の音が充実し、集音範囲内で聴取さ
れる音の音質が向上することになる。
According to the invention of claim 19, claim 3
Similarly to the invention described above, the sound component of a relatively low frequency transmitted by the synthetic sound wave is diverged outside the sound collection range, so that when the sound in the low frequency band within the sound collection range is insufficient,
The sound quality of the sound heard in the sound collection range, particularly the sound in the low frequency band, and the sound heard in the sound collection range due to the sound emitted from at least one of the first auxiliary speaker and the second auxiliary speaker. Will be improved.

【0067】なお、合成音波により伝達される比較的低
い周波数の音成分が集音範囲外に発散することにより、
比較的低い周波数の音が集音範囲外で聴取される場合に
は、制御手段を、複数のスピーカの各々に供給する音声
信号の所定周波数以下の成分を除去又は減衰するように
構成することが好ましい。
By the way, the sound component of relatively low frequency transmitted by the synthetic sound wave diverges outside the sound collection range,
When a sound of a relatively low frequency is heard outside the sound collection range, the control means may be configured to remove or attenuate a component below a predetermined frequency of the audio signal supplied to each of the plurality of speakers. preferable.

【0068】また、上記第2の目的を達成するために、
請求項20記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、前記制御手段は、前記合成
音波の波面に所定値以下の乱れが生ずるように前記複数
のスピーカの各々に供給する音声信号の位相を互いにず
らして設定することを特徴とする。
Further, in order to achieve the second object,
According to a twentieth aspect of the present invention, in the invention according to any one of the twelfth to seventeenth aspects, the control means includes each of the plurality of loudspeakers so that a disturbance of a predetermined value or less occurs in a wavefront of the synthesized sound wave. It is characterized in that the phases of the audio signals to be supplied to are set to be shifted from each other.

【0069】前述したように合成音波の収束範囲の大き
さは音波の波長に依存するので、比較的高い周波数の音
成分に関しては集音範囲内のうちの特定の範囲に過度に
収束し、聴きにくくなることも考えられる。このような
場合には、請求項20に記載したように、制御手段が合
成音波の波面に所定値以下の乱れが生ずるように複数の
スピーカの各々に供給する音声信号の位相を互いにずら
して設定することが好ましい。これにより、合成音波に
よって伝達される比較的高い周波数の音成分が過度に収
束することが防止され略均一化されるので、集音範囲内
において比較的高い周波数の音が聴き易くなる。
As described above, since the size of the range of convergence of the synthetic sound wave depends on the wavelength of the sound wave, the sound component of relatively high frequency is excessively converged in a specific range within the sound collection range, and the sound is heard. It can be difficult. In such a case, as described in claim 20, the control means sets the phases of the audio signals supplied to each of the plurality of speakers so as to be shifted from each other so that the wavefront of the synthetic sound wave is disturbed by a predetermined value or less. Preferably. As a result, the relatively high frequency sound component transmitted by the synthetic sound wave is prevented from excessively converging and is made substantially uniform, so that the relatively high frequency sound is easily heard within the sound collection range.

【0070】また、上記第2の目的を達成するために、
請求項21記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、音響環境の状態を表す情報
に基づいて、所定のスピーカから発せられた音のうち被
反射体に反射した後に集音範囲に到達する反射音波の波
形を前記複数のスピーカの各々について演算する第1の
演算手段と、前記第1の演算手段により演算された反射
音の波形に基づいて、所定のスピーカから集音範囲に直
接到達する音波により前記反射波が打ち消すために前記
所定のスピーカに供給すべき音声信号の波形を、前記複
数のスピーカの各々について演算する第2の演算手段
と、を更に備え、前記制御手段は、前記第2の演算手段
により各スピーカ毎に演算された音声信号を前記複数の
スピーカの各々に供給することを特徴とする。
In order to achieve the above second object,
The invention according to claim 21 is the invention according to any one of claims 12 to 17, in which sound reflected from a predetermined speaker is reflected by a reflector based on information indicating a state of an acoustic environment. And a predetermined speaker based on the waveform of the reflected sound calculated by the first calculating means for calculating the waveform of the reflected sound wave reaching the sound collection range for each of the plurality of speakers. Further comprising: second computing means for computing, for each of the plurality of speakers, a waveform of an audio signal to be supplied to the predetermined speaker in order to cancel the reflected wave by a sound wave that directly reaches the sound collection range. The control means supplies the audio signal calculated for each speaker by the second calculation means to each of the plurality of speakers.

【0071】この請求項21記載の発明では、請求項5
記載の発明と同様に、第1の演算手段が、音響環境の状
態を表す情報に基づいて、所定のスピーカから発せられ
た音のうち被反射体に反射した後に集音範囲に到達する
反射音波の波形を複数のスピーカの各々について演算
し、第2の演算手段が前記演算された反射音の波形に基
づいて、所定のスピーカから集音範囲に直接到達する音
波により反射波が打ち消されるために所定のスピーカに
供給すべき音声信号の波形を、複数のスピーカの各々に
ついて演算し、そして、制御手段が、第2の演算手段に
より各スピーカ毎に演算された音声信号を複数のスピー
カの各々に供給する。これにより、壁や天井等で囲まれ
た室内等の音響環境において音を集音させる場合でも、
集音範囲内で聴取される音の音質を向上させることがで
きる。
According to the invention of claim 21, claim 5
Similar to the described invention, the first calculation means, based on the information indicating the state of the acoustic environment, the reflected sound waves that reach the sound collection range after being reflected by the reflector among the sounds emitted from the predetermined speaker. Is calculated for each of the plurality of speakers, and the second calculation unit cancels the reflected wave by the sound wave that directly reaches the sound collection range from the predetermined speaker based on the calculated waveform of the reflected sound. The waveform of the audio signal to be supplied to the predetermined speaker is calculated for each of the plurality of speakers, and the control means outputs the audio signal calculated for each speaker by the second calculating means to each of the plurality of speakers. Supply. As a result, even when collecting sound in an acoustic environment such as a room surrounded by walls and ceilings,
It is possible to improve the sound quality of the sound heard within the sound collection range.

【0072】また、上記第2の目的を達成するために、
請求項22記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、前記位置認識手段により位
置が認識されたオブジェクトの耳の位置及び方向を推定
する第1の耳推定手段を更に備え、前記制御手段は、前
記第1の耳推定手段により推定されたオブジェクトの耳
の位置及び方向に基づいて、オブジェクトの聴覚の指向
性に合った位置に前記集音範囲を設定することを特徴と
する。
In order to achieve the second object,
A twenty-second aspect of the present invention is the invention according to any one of the twelfth to seventeenth aspects, wherein first ear estimation means estimates the position and direction of the ear of the object whose position is recognized by the position recognition means. The control means sets the sound collection range to a position that matches the hearing directivity of the object based on the position and direction of the ear of the object estimated by the first ear estimation means. Is characterized by.

【0073】この請求項22記載の発明では、請求項7
記載の発明と同様に、位置推定手段は位置検出手段によ
り位置が検出されたオブジェクトの耳の位置及び方向を
推定し、制御手段は、位置推定手段により推定されたオ
ブジェクトの耳の位置及び方向に基づいて、オブジェク
トの聴覚の指向性に合った位置に集音範囲を設定する。
これにより、オブジェクトが音をより明瞭に聞き取れる
ようにすることができる。
According to the invention of claim 22, claim 7
Similar to the invention described above, the position estimating means estimates the position and direction of the ear of the object whose position is detected by the position detecting means, and the control means determines the position and direction of the ear of the object estimated by the position estimating means. Based on this, the sound collection range is set at a position that matches the hearing directivity of the object.
This allows the object to hear the sound more clearly.

【0074】また、上記第2の目的を達成するために、
請求項23記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、所定のスピーカから複数の
集音範囲の各々に対して発せられるべき複数の音に対応
する複数の音声信号の位相差を前記複数のスピーカの各
々について演算する第3の演算手段と、前記第3の演算
手段により位相差が演算された複数の音声信号を重畳し
た音声信号の波形を前記複数のスピーカの各々について
演算する第4の演算手段と、を更に備え、前記制御手段
は、前記第4の演算手段により各スピーカ毎に演算され
た複数の音声信号を重畳した音声信号を前記複数のスピ
ーカの各々に供給することを特徴とする。
In order to achieve the second object,
The invention according to claim 23 is the invention according to any one of claims 12 to 17, wherein a plurality of voices corresponding to a plurality of sounds to be emitted from a predetermined speaker to each of the plurality of sound collection ranges are provided. Third computing means for computing the phase difference of the signal for each of the plurality of speakers, and a waveform of the audio signal obtained by superimposing the plurality of audio signals of which the phase difference is calculated by the third computing means, to the plurality of speakers. And a fourth computing means for computing each of the above, wherein the control means superimposes a plurality of audio signals computed for each speaker by the fourth computing means on the audio signals of the plurality of speakers. It is characterized by supplying to each.

【0075】この請求項23記載の発明では、請求項8
記載の発明と同様に、複数の集音範囲を設定し各集音範
囲に音を集音したい場合に、第3の演算手段が所定のス
ピーカから複数の集音範囲の各々に対して発せられるべ
き複数の音に対応する複数の音声信号の位相差を複数の
スピーカの各々について演算し、第4の演算手段が第3
の演算手段により位相差が演算された複数の音声信号を
重畳した音声信号の波形を複数のスピーカの各々につい
て演算する。そして、制御手段が、第4の演算手段によ
り各スピーカ毎に演算された複数の音声信号を重畳した
音声信号を複数のスピーカの各々に供給するので、本発
明に係る音伝達装置を複数設けることなく、複数の集音
範囲に各々音を集音することができる。
According to the invention of claim 23, claim 8
Similarly to the described invention, when a plurality of sound collection ranges are set and sounds are to be collected in each sound collection range, the third calculation means is issued from a predetermined speaker to each of the plurality of sound collection ranges. The phase difference between the plurality of audio signals corresponding to the plurality of sounds to be reproduced is calculated for each of the plurality of speakers, and the fourth calculating means is the third calculating means.
The waveform of the audio signal obtained by superimposing the plurality of audio signals whose phase difference has been calculated by the calculation means is calculated for each of the plurality of speakers. The control means supplies the plurality of speakers with the sound signal obtained by superimposing the plurality of sound signals calculated for each speaker by the fourth calculating means. Therefore, a plurality of sound transmission devices according to the present invention should be provided. Instead, each sound can be collected in a plurality of sound collection ranges.

【0076】なお、上記では第3の演算手段が所定のス
ピーカから複数の集音範囲の各々に対して発せられるべ
き複数の音に対応する複数の音声信号の位相差を複数の
スピーカの各々について演算するので、集音範囲毎に異
なる音を集音させることもできることは言うまでもな
い。
In the above description, the third calculation means calculates the phase difference of the plurality of audio signals corresponding to the plurality of sounds to be emitted from the predetermined speaker to each of the plurality of sound collection ranges, for each of the plurality of speakers. Needless to say, different sounds can be collected for each sound collection range because the calculation is performed.

【0077】また、上記第2の目的を達成するために、
請求項24記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、前記位置認識手段により位
置が認識されたオブジェクトの左耳の位置及び右耳の位
置を推定する第2の耳推定手段を更に備え、前記制御手
段は、前記第2の耳推定手段により推定された前記左耳
及び右耳の位置に基づいて、各耳に対応した集音範囲を
設定することを特徴とする。
In order to achieve the second object,
The invention according to claim 24 is the invention according to any one of claims 12 to 17, wherein the position of the left ear and the position of the right ear of the object whose position is recognized by the position recognition means are estimated. The ear estimation unit is further provided, and the control unit sets a sound collection range corresponding to each ear based on the positions of the left ear and the right ear estimated by the second ear estimation unit. And

【0078】この請求項24記載の発明では、請求項9
記載の発明と同様に、制御手段は、位置推定手段により
推定された左耳及び右耳の位置に基づいて、各耳に対応
した集音範囲を設定する。これにより、オブジェクトの
左耳に対応した集音範囲及び右耳に対応した集音範囲の
各々に、所定音源から発せられた音を該音源に向かって
左側の位置で記録した音、右側の位置で記録した音を集
音することにより、オブジェクトにステレオ感を感じさ
せることができる。
According to the invention of claim 24, claim 9
Similar to the described invention, the control means sets the sound collection range corresponding to each ear based on the positions of the left ear and the right ear estimated by the position estimation means. Thus, in each of the sound collecting range corresponding to the left ear and the sound collecting range corresponding to the right ear of the object, the sound emitted from the predetermined sound source is recorded at the left position toward the sound source, and the right position. By collecting the sounds recorded in step 3, it is possible to make the object feel stereo.

【0079】また、上記第2の目的を達成するために、
請求項25記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、オブジェクトが予め定めら
れた集音範囲内に到来したか否かを検出するオブジェク
ト検出手段を更に備え、前記制御手段は、前記オブジェ
クト検出手段により集音範囲内にオブジェクトが到来し
たことが検出された場合に、前記複数のスピーカの各々
に音声信号を供給することを特徴とする。
In order to achieve the above second object,
A twenty-fifth aspect of the invention is the invention according to any one of the twelfth to seventeenth aspects, further comprising object detection means for detecting whether or not the object has arrived within a predetermined sound collection range, The control means supplies an audio signal to each of the plurality of speakers when the object detection means detects that an object has arrived within the sound collection range.

【0080】この請求項25記載の発明では、請求項1
0記載の発明と同様に、制御手段は、検出手段によりオ
ブジェクトが集音範囲内に到来したと検出された場合
に、複数のスピーカの各々に音声信号を供給するので、
オブジェクトが集音範囲内に到来した場合のみ、集音範
囲に音を集音し、オブジェクトに当該音を聞かせること
ができる。従って、例えば、オブジェクトが所定の展示
物の前に到来した場合に、当該展示物を説明するアナウ
ンスを集音することにより、オブジェクトに上記のアナ
ウンスを最初から聞かせることができる。
According to the invention of claim 25, claim 1
Similarly to the invention described in 0, when the detection unit detects that the object has arrived within the sound collection range, the control unit supplies an audio signal to each of the plurality of speakers.
Only when the object arrives within the sound collection range, it is possible to collect sound in the sound collection range and make the object hear the sound. Therefore, for example, when an object arrives in front of a predetermined exhibit, the object can be heard from the beginning by collecting an announcement explaining the exhibit.

【0081】また、上記第2の目的を達成するために、
請求項26記載の発明は、請求項12乃至17の何れか
1項に記載の発明において、音響環境の状態を検出する
環境検出手段を更に備え、前記制御手段は、前記環境検
出手段によって検出された音響環境の状態が変化した場
合に、変化した音響環境の状態に基づいて前記複数のス
ピーカの各々に供給する音声信号の振幅及び位相差の少
なくとも一方を変更することを特徴とする。
Further, in order to achieve the second object,
A twenty-sixth aspect of the present invention is the invention according to any one of the twelfth to seventeenth aspects, further comprising environment detection means for detecting a state of an acoustic environment, and the control means is detected by the environment detection means. When the state of the acoustic environment changes, at least one of the amplitude and the phase difference of the audio signal supplied to each of the plurality of speakers is changed based on the changed state of the acoustic environment.

【0082】この請求項26記載の発明では、請求項1
1記載の発明と同様に、制御手段は、環境検出手段によ
って検出された音響環境の状態が変化した場合に、変化
した音響環境の状態に基づいて複数のスピーカの各々に
供給する音声信号の反射波打ち消し成分の振幅及び位相
差の少なくとも一方を変更するので、音響環境の状態の
変化に拘わらず、集音範囲内で聴取される音の音質を向
上させることができる。
According to the invention of claim 26, claim 1
Similarly to the invention described in 1, when the state of the acoustic environment detected by the environment detecting means changes, the control means reflects the audio signal supplied to each of the plurality of speakers based on the changed state of the acoustic environment. Since at least one of the amplitude and the phase difference of the wave canceling component is changed, the sound quality of the sound heard within the sound collection range can be improved regardless of the change in the state of the acoustic environment.

【0083】[0083]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

〔第1実施形態〕以下、図面を参照して、本発明の第1
実施形態を説明する。
[First Embodiment] Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
An embodiment will be described.

【0084】図1に示すように、第1実施形態に係る音
伝達装置10は、後述する集音範囲を含む部屋84の天
井86に略等間隔にマトリクス状に配置された複数(n
個、図1では8×8個)のスピーカモジュール30と、
音伝達装置10全体を制御する中央制御装置11とで構
成されており、各スピーカモジュール30と中央制御装
置11とは通信ケーブル26を介して接続されている。
各スピーカモジュール30は部屋84の床面に向けて配
置された無指向性スピーカ36を1台ずつ備えている。
各スピーカ36の配置位置を表す位置情報は後述する中
央制御装置11に備えられたROM16(図2参照)に
予め記憶されている。
As shown in FIG. 1, the sound transmission device 10 according to the first embodiment has a plurality (n) arranged in a matrix at substantially equal intervals on a ceiling 86 of a room 84 including a sound collection range described later.
Speaker modules 30 (8 × 8 in FIG. 1),
A central control unit 11 that controls the entire sound transmitting device 10 is provided, and each speaker module 30 and the central control unit 11 are connected via a communication cable 26.
Each speaker module 30 includes one omnidirectional speaker 36 arranged toward the floor of the room 84.
Position information indicating the arrangement position of each speaker 36 is stored in advance in a ROM 16 (see FIG. 2) provided in the central control device 11 described later.

【0085】中央制御装置11には、スピーカ36から
発する音を供給するためのテープ再生装置90がフィル
タアンプ92を介して接続されている。なお、本第1実
施形態及び後述する第2〜第9実施形態では、スピーカ
36から発する音を供給する音響装置として、テープ再
生装置90を用いた例を示したが、本発明はこれに限定
されることはなく、他の音響装置、例えばCD再生装置
やアナウンサーの声を集音し伝達するマイク等を用いて
も良い。
A tape reproducing device 90 for supplying a sound emitted from the speaker 36 is connected to the central control device 11 via a filter amplifier 92. In the first embodiment and the second to ninth embodiments to be described later, an example in which the tape reproducing device 90 is used as the audio device that supplies the sound emitted from the speaker 36 has been shown, but the present invention is not limited to this. However, another audio device such as a CD player or a microphone for collecting and transmitting the voice of the announcer may be used.

【0086】図2に示すように、スピーカモジュール3
0は、中央制御装置11側からの音声信号データの受信
や当該音声信号データのスピーカ36への出力タイミン
グの制御等を行うアクティブ制御回路32と、音声信号
のノイズカット及び増幅を行うフィルタアンプ34と、
音声信号を音声に変換し出力する無指向性スピーカ36
等を含んで構成されている。アクティブ制御回路32
は、演算装置40と、後述する中央制御装置11との信
号の送受信における通信制御処理を行うネットワークイ
ンタフェース38と、比較的大きな容量を有し音声信号
データ等を記憶する送信波形バッファメモリ42と、デ
ジタル信号のアナログ信号への変換を行うD/Aコンバ
ータ44等を含んで構成されている。
As shown in FIG. 2, the speaker module 3
0 is an active control circuit 32 that receives audio signal data from the central control device 11 side and controls the output timing of the audio signal data to the speaker 36, and a filter amplifier 34 that cuts and amplifies the audio signal. When,
An omnidirectional speaker 36 that converts a voice signal into voice and outputs the voice
And so on. Active control circuit 32
Is an arithmetic unit 40, a network interface 38 that performs communication control processing in transmitting and receiving signals to and from a central controller 11, which will be described later, a transmission waveform buffer memory 42 that has a relatively large capacity and that stores audio signal data and the like, It is configured to include a D / A converter 44 and the like for converting a digital signal into an analog signal.

【0087】上記の演算装置40は、CPU48と、R
OM50と、RAM52と、入出力コントローラ(以
後、I/Oと称す)46等を含んで構成されており、こ
れらのCPU48、ROM50、RAM52及びI/O
46は互いにバス54によって接続されている。I/O
46には上記のネットワークインタフェース38、送信
波形バッファメモリ42、D/Aコンバータ44及びフ
ィルタアンプ34が接続されている。D/Aコンバータ
44はフィルタアンプ34にも接続されており、フィル
タアンプ34はスピーカ36に接続されている。なお、
上記のROM16には、後述する制御プログラム等が予
め記憶されている。
The arithmetic unit 40 includes a CPU 48, an R
It is configured to include an OM 50, a RAM 52, an input / output controller (hereinafter referred to as I / O) 46, etc., and a CPU 48, a ROM 50, a RAM 52 and an I / O.
46 are connected to each other by a bus 54. I / O
The network interface 38, the transmission waveform buffer memory 42, the D / A converter 44, and the filter amplifier 34 are connected to 46. The D / A converter 44 is also connected to the filter amplifier 34, and the filter amplifier 34 is connected to the speaker 36. In addition,
The ROM 16 previously stores a control program and the like described later.

【0088】また、中央制御装置11は、制御装置12
と、表示装置としてのディスプレイ17と、データやコ
マンド等を入力する入力手段としてのキーボード19
と、A/Dコンバータ24等を含んで構成されている。
このうち制御装置12は、CPU14と、ROM16
と、RAM18と、I/O20等を含んで構成されてお
り、これらのCPU14、ROM16、RAM18及び
I/O20は互いにバス22によって接続されている。
上記のA/Dコンバータ24、ディスプレイ17及びキ
ーボード19は、I/O20に接続されている。I/O
20は通信ケーブル26を介して上記のスピーカモジュ
ール30に備えられたネットワークインタフェース38
に接続されている。また、I/O20にはテープ再生装
置90がフィルタアンプ34を介して接続されている。
なお、上記のROM16には、後述する制御プログラム
等が記憶されている。
Further, the central control unit 11 has a control unit 12
A display 17 as a display device, and a keyboard 19 as an input means for inputting data, commands, etc.
And an A / D converter 24 and the like.
Of these, the control device 12 includes a CPU 14 and a ROM 16
, RAM 18, I / O 20 and the like, and these CPU 14, ROM 16, RAM 18, and I / O 20 are connected to each other by a bus 22.
The A / D converter 24, the display 17 and the keyboard 19 are connected to the I / O 20. I / O
Reference numeral 20 denotes a network interface 38 provided in the above speaker module 30 via a communication cable 26.
It is connected to the. A tape reproducing device 90 is connected to the I / O 20 via a filter amplifier 34.
The ROM 16 stores a control program, etc., which will be described later.

【0089】以下、本第1実施形態の作用を説明する。
中央制御装置11に設けられた図示しないスタートボタ
ンがオペレータによりオンされると、図3に示す制御ル
ーチンが中央制御装置11のCPU14により、図4に
示す制御ルーチンが複数のスピーカモジュール30の各
々のCPU48により、それぞれ実行される。なお、こ
れらの制御ルーチンの実行は何れも所定時間間隔で繰り
返し実行される。
The operation of the first embodiment will be described below.
When an unillustrated start button provided in the central controller 11 is turned on by the operator, the control routine shown in FIG. 3 is executed by the CPU 14 of the central controller 11, and the control routine shown in FIG. 4 is executed by each of the plurality of speaker modules 30. It is executed by the CPU 48. Note that all of these control routines are repeatedly executed at predetermined time intervals.

【0090】まず、図3に示す制御ルーチンから説明す
る。ステップ202において各スピーカモジュール30
の機能が正常か否かをチェックするために、各スピーカ
モジュール30へ制御信号を送信すると共にタイムアウ
トを検出するためのタイマを起動する。次のステップ2
04では全てのスピーカモジュール30から、上記の制
御信号に対する応答信号を受信したか否かを判定する。
First, the control routine shown in FIG. 3 will be described. Each speaker module 30 in step 202
In order to check whether the function of is normal, a control signal is transmitted to each speaker module 30 and a timer for detecting a time-out is started. Next step 2
In 04, it is determined whether or not the response signals to the above control signals have been received from all the speaker modules 30.

【0091】全てのスピーカモジュール30から未だ応
答信号を受信していない場合は、ステップ206へ進み
上記のステップ202での制御信号の送信から所定時間
経過したか否かをタイマの計時状況によって判定する。
所定時間経過していない場合はステップ204へ戻り、
所定時間経過した、即ちタイムアウトとなった場合に
は、ステップ208へ進み、アラーム音を発しスピーカ
モジュール30の何れかが故障していることを報知し
て、制御ルーチンを終了する。このアラーム音を聞いた
オペレータはスピーカモジュール30の故障箇所の調査
や修理等の対応を行う。
When the response signals have not been received from all the speaker modules 30, the routine proceeds to step 206, where it is judged whether a predetermined time has passed from the transmission of the control signal at the above-mentioned step 202, based on the timing of the timer. .
If the predetermined time has not elapsed, the process returns to step 204,
When the predetermined time has elapsed, that is, when the time-out has occurred, the process proceeds to step 208, an alarm sound is emitted to notify that any one of the speaker modules 30 is out of order, and the control routine ends. Upon hearing this alarm sound, the operator investigates the faulty part of the speaker module 30 and takes repairs.

【0092】全てのスピーカモジュール30から応答信
号を受信した場合は、ステップ210へ進み、予め固定
的に定められた集音範囲100の位置及び大きさを表す
位置情報をROM16から取り込む。この位置情報とし
ては、一例として図13に示すように部屋84を矢印X
方向、矢印Y方向、矢印Z方向の各々に沿って仮想的に
等分割することにより得られる多数の直方体状の領域の
うち何れの領域内に位置するかを表す情報を用いること
ができる。なお、図13では部屋84を各方向に16等
分した場合を例として示している。図5に示すように集
音範囲100の位置及び大きさは、例えば部屋84内に
固定的に配置された陳列物の前に立った聴取者102の
頭部102Aを含むように固定的に定められている。次
のステップ212では各スピーカ36について、当該ス
ピーカ36から発せられるべき音に対応する音声信号の
位相差及び振幅を、ROM16から取り込んだ各スピー
カ36に関する位置情報及び集音範囲100の位置情報
に基づいて演算する。
When the response signals have been received from all the speaker modules 30, the routine proceeds to step 210, where the positional information indicating the position and size of the sound collecting range 100 fixedly fixed in advance is fetched from the ROM 16. As this position information, as an example, as shown in FIG.
It is possible to use information indicating in which region among a large number of rectangular parallelepiped regions obtained by virtually equally dividing each direction, the arrow Y direction, and the arrow Z direction. Note that FIG. 13 shows an example in which the room 84 is divided into 16 equal parts in each direction. As shown in FIG. 5, the position and size of the sound collection range 100 are fixedly determined so as to include, for example, the head 102A of the listener 102 standing in front of the display fixedly arranged in the room 84. Has been. In the next step 212, for each speaker 36, the phase difference and amplitude of the audio signal corresponding to the sound to be emitted from the speaker 36 are determined based on the position information regarding each speaker 36 read from the ROM 16 and the position information of the sound collection range 100. To calculate.

【0093】ここでは、図5に示すように、複数の無指
向性スピーカ36の各々から発せられた音波の波面の包
絡面を波面とする合成音波104が所定の集音範囲10
0に収束するように、各スピーカモジュール30に供給
する音声信号の位相を互いにずらすようにしている。ま
た、複数のスピーカ36の各々から発せられる音の音圧
が可聴レベル以下となるように、各スピーカモジュール
30に供給する音声信号の振幅を定めている。更に、複
数のスピーカ36のうち、その設置位置が集音範囲10
0から比較的近いスピーカ(集音範囲100からの距離
が所定距離よりも短いスピーカ)を備えたスピーカモジ
ュール30については、供給する音声信号データの振幅
を他のスピーカモジュールに供給する音声信号の振幅よ
りも大きくなるように設定している。
Here, as shown in FIG. 5, the synthesized sound wave 104 having the wavefront of the envelope surface of the sound wave emitted from each of the plurality of omnidirectional speakers 36 has a predetermined sound collection range 10.
The phases of the audio signals supplied to the speaker modules 30 are shifted from each other so that they converge to zero. Further, the amplitude of the audio signal supplied to each speaker module 30 is determined so that the sound pressure of the sound emitted from each of the plurality of speakers 36 is below the audible level. Furthermore, the installation position of the plurality of speakers 36 is the sound collection range 10.
Regarding a speaker module 30 including a speaker relatively close to 0 (a speaker whose distance from the sound collection range 100 is shorter than a predetermined distance), the amplitude of the audio signal data supplied is the amplitude of the audio signal supplied to another speaker module. It is set to be larger than.

【0094】また、合成音波104の収束範囲の大きさ
は音波の波長に依存するので、比較的高い周波数の音成
分に関しては集音範囲100内のうちの特定の範囲に過
度に収束し、聴きにくくなることも考えられる。このよ
うな場合には、合成音波104の波面に微小の乱れが生
ずるように各スピーカモジュール30に供給する音声信
号の位相を互いにずらすことが好ましい。これにより、
合成音波104によって伝達される比較的高い周波数の
音成分が過度に収束することが防止され略均一化される
ので、集音範囲100内において比較的高い周波数の音
が聴き易くなるという効果が得られる。
Further, since the size of the range of convergence of the synthetic sound wave 104 depends on the wavelength of the sound wave, the sound component having a relatively high frequency is excessively converged in a specific range within the sound collection range 100, and the sound is heard. It can be difficult. In such a case, it is preferable to shift the phases of the audio signals supplied to the speaker modules 30 from each other so that a slight disturbance occurs in the wavefront of the synthetic sound wave 104. This allows
Since the relatively high frequency sound component transmitted by the synthetic sound wave 104 is prevented from being excessively converged and is substantially equalized, the effect that the relatively high frequency sound is easily heard in the sound collection range 100 is obtained. To be

【0095】次のステップ214では各スピーカ36に
対して、当該スピーカ36についての位相差及び振幅を
指示する指示信号を送信する。次のステップ216では
予め定められた所定データ量(スピーカモジュール30
の送信波形バッファメモリ42の記憶容量よりも小)を
一単位として、音声信号データの各スピーカモジュール
30への送信を開始する。これ以後、音声信号データは
前記所定データ量を一単位として各スピーカモジュール
30へ断続的に送信される。次のステップ218では基
準タイミングとしてのタイミング信号を各スピーカモジ
ュール30へ送信し、ステップ220へ進む。ステップ
220では上記のステップ216で送信開始された音声
信号データが全データ送信し終えたか否かを判定する。
ここで全データ送信し終えたと判定されるまで音声信号
データの送信は繰り返され、全データ送信し終えると肯
定判定され、制御ルーチンを終了する。
At the next step 214, an instruction signal for instructing the phase difference and the amplitude of the speaker 36 is transmitted to each speaker 36. In the next step 216, a predetermined data amount (speaker module 30
(Smaller than the storage capacity of the transmission waveform buffer memory 42) is set as one unit, and transmission of audio signal data to each speaker module 30 is started. Thereafter, the audio signal data is intermittently transmitted to each speaker module 30 with the predetermined data amount as one unit. In the next step 218, the timing signal as the reference timing is transmitted to each speaker module 30, and the process proceeds to step 220. In step 220, it is determined whether the audio signal data started to be transmitted in step 216 is completely transmitted.
Here, the transmission of the voice signal data is repeated until it is determined that all the data has been transmitted. When all the data has been transmitted, an affirmative determination is made and the control routine ends.

【0096】次に図4に示す、各スピーカモジュール3
0のCPU48により実行される制御ルーチンを説明す
る。ステップ300において送信波形バッファメモリ4
2のクリア等の初期化処理を行い、次のステップ302
では上記のステップ202で中央制御装置11側から送
信された所定の制御信号を受信したか否かを判定する。
所定の制御信号を受信していない場合は制御ルーチンを
終了し、所定の制御信号を受信した場合はステップ30
4へ進み、応答信号を中央制御装置11へ送信する。
Next, each speaker module 3 shown in FIG.
A control routine executed by the 0 CPU 48 will be described. Transmit waveform buffer memory 4 in step 300
Initialization processing such as clearing 2 is performed, and the next step 302
Then, it is determined whether or not the predetermined control signal transmitted from the central control device 11 side is received in step 202.
If the predetermined control signal has not been received, the control routine ends, and if the predetermined control signal has been received, step 30
4, the response signal is transmitted to the central controller 11.

【0097】次のステップ306では上記のステップ2
14で中央制御装置11側から送信された、当該スピー
カモジュール30から発するべき音に対応する音声信号
の位相差及び振幅に関する指示信号の受信待ちを行う。
上記の指示信号を受信すると、ステップ308へ進み、
指示信号を読み取り、指示された振幅に応じてフィルタ
アンプ34のゲインを設定する。次のステップ310で
は上記のステップ216で中央制御装置11側から送信
開始された音声信号データの受信待ちを行う。上記の音
声信号データを受信すると、ステップ312へ進み、受
信した音声信号データの送信波形バッファメモリ42へ
の格納を開始する。
In the next step 306, the above step 2 is performed.
At 14, the CPU waits for reception of an instruction signal regarding the phase difference and the amplitude of the audio signal corresponding to the sound to be emitted from the speaker module 30 transmitted from the central controller 11 side.
When the above instruction signal is received, the process proceeds to step 308,
The instruction signal is read, and the gain of the filter amplifier 34 is set according to the instructed amplitude. In the next step 310, the reception of the voice signal data started to be transmitted from the central controller 11 side in step 216 is waited for. When the above audio signal data is received, the process proceeds to step 312, and the storage of the received audio signal data in the transmission waveform buffer memory 42 is started.

【0098】この音声信号データの送信波形バッファメ
モリ42への格納において、送信波形バッファメモリ4
2はリングバッファとして使用される。即ち、音声信号
データが送信波形バッファメモリ42の最終アドレスま
で格納されると、次に続く音声信号データは送信波形バ
ッファメモリ42の先頭アドレスから順に格納される。
なお、上記の送信波形バッファメモリ42への音声信号
データの格納と並行して、後述するように送信波形バッ
ファメモリ42からD/Aコンバータ44への音声信号
データの出力が行われるため、D/Aコンバータ44へ
出力されていない音声信号データが、該音声信号データ
よりも後に受信された音声信号データに上書きされてし
まうことはない。
When the voice signal data is stored in the transmission waveform buffer memory 42, the transmission waveform buffer memory 4
2 is used as a ring buffer. That is, when the voice signal data is stored up to the final address of the transmission waveform buffer memory 42, the following voice signal data is stored in order from the head address of the transmission waveform buffer memory 42.
It should be noted that, in parallel with the storage of the audio signal data in the transmission waveform buffer memory 42, the audio signal data is output from the transmission waveform buffer memory 42 to the D / A converter 44 as will be described later. The audio signal data not output to the A converter 44 will not be overwritten on the audio signal data received after the audio signal data.

【0099】次のステップ314では上記のステップ2
18で中央制御装置11側から送信されたタイミング信
号の受信待ちを行う。上記のタイミング信号を受信する
と、ステップ316へ進んで指示された位相差に対応す
るタイマを起動した後、ステップ318において指示さ
れた位相差に対応する音声信号データ出力タイミングと
なったか否かを、タイマがタイムアウトしたか否かに基
づいて繰り返し判定する。タイマがタイムアウトして音
声信号データ出力タイミングになるとステップ320へ
進み、送信波形バッファメモリ42から所定量の音声信
号データを読み出し、D/Aコンバータ44へ出力す
る。D/Aコンバータ44へ出力された音声信号データ
は、D/Aコンバータ44によってアナログの音声信号
に変換され、フィルタアンプ34において指示された振
幅に対応するゲインで増幅された後にスピーカ36に供
給される。
At the next step 314, the above step 2 is performed.
At 18, the system waits for the timing signal transmitted from the central controller 11 side. When the above timing signal is received, the process proceeds to step 316, and after the timer corresponding to the instructed phase difference is started, whether or not it becomes the audio signal data output timing corresponding to the instructed phase difference in step 318, The determination is repeated based on whether the timer has timed out. When the timer times out and the audio signal data output timing is reached, the routine proceeds to step 320, where a predetermined amount of audio signal data is read from the transmission waveform buffer memory 42 and output to the D / A converter 44. The audio signal data output to the D / A converter 44 is converted into an analog audio signal by the D / A converter 44, amplified by a gain corresponding to the amplitude instructed by the filter amplifier 34, and then supplied to the speaker 36. It

【0100】次のステップ322では送信波形バッファ
メモリ42に出力していない音声信号データがあるか否
かを判定し、送信波形バッファメモリ42に音声信号デ
ータがある場合、ステップ320へ戻り、再度D/Aコ
ンバータ44への音声信号データの出力を行う。送信波
形バッファメモリ42に出力していない音声信号データ
がなくなると、ステップ322で否定判定され、制御ル
ーチンを終了する。
In the next step 322, it is determined whether or not there is voice signal data that has not been output to the transmission waveform buffer memory 42. If there is voice signal data in the transmission waveform buffer memory 42, the process returns to step 320 and D The audio signal data is output to the / A converter 44. When there is no audio signal data that has not been output to the transmission waveform buffer memory 42, a negative determination is made in step 322, and the control routine ends.

【0101】これにより、図5に示すように、複数の無
指向性スピーカ36の各々から発せられた音波の波面の
包絡面を波面とする合成音波104が所定の集音範囲1
00に収束すると共に複数のスピーカ36の各々から発
せられる音の音圧が可聴レベル以下となり、スピーカ3
6から発せられた音が集音範囲100外で聴取されるこ
とはなく、上記の合成音波104が収束する集音範囲1
00内でのみ、スピーカ36から発せられた音が合成音
波104により可聴レベル以上の音圧で聴取される。従
って、所望の集音範囲100内のみに音が伝達される。
As a result, as shown in FIG. 5, the synthetic sound wave 104 having the wavefront of the envelope surface of the sound wave emitted from each of the plurality of omnidirectional speakers 36 has a predetermined sound collection range 1
00 and the sound pressure of the sound emitted from each of the plurality of speakers 36 becomes equal to or lower than the audible level.
The sound emitted from 6 is not heard outside the sound collection range 100, and the sound collection range 1 where the above-mentioned synthetic sound wave 104 converges.
Only within 00, the sound emitted from the speaker 36 is heard by the synthetic sound wave 104 at a sound pressure higher than the audible level. Therefore, the sound is transmitted only within the desired sound collection range 100.

【0102】また、複数のスピーカ36のうち、その設
置位置が集音範囲100から比較的近いスピーカ(集音
範囲100からの距離が所定距離よりも短いスピーカ)
を備えたスピーカモジュール30については、供給する
音声信号データの振幅を他のスピーカモジュールに供給
する音声信号の振幅よりも大きくなるように設定してい
るので、集音範囲100内で聴取される音の音量のみを
効率的に大きくすることができる。
Further, among the plurality of speakers 36, the speaker whose installation position is relatively close to the sound collecting range 100 (the speaker whose distance from the sound collecting range 100 is shorter than a predetermined distance).
With regard to the speaker module 30 provided with, the amplitude of the audio signal data to be supplied is set to be larger than the amplitude of the audio signal to be supplied to the other speaker modules. Only the volume of can be efficiently increased.

【0103】また、各スピーカモジュール30へ音声信
号データを送信するに先立ち、中央制御装置11側から
各スピーカモジュール30へ制御信号を送信しその応答
信号が所定時間内に返ってくるか否かをチェックするこ
とにより、各スピーカモジュール30が正常であるか否
かの機能チェックを行うので、複数のスピーカモジュー
ル30の何れかに異常があることを早期に発見し、早期
に異常箇所の調査や修理作業等を行うことができる。
Prior to transmitting the voice signal data to each speaker module 30, the control signal is transmitted from the central control unit 11 side to each speaker module 30 and whether the response signal is returned within a predetermined time or not. Since the function check is performed by checking whether or not each speaker module 30 is normal, it is possible to detect any abnormality in any of the plurality of speaker modules 30 at an early stage, and investigate or repair the abnormal point at an early stage. Can perform work, etc.

【0104】なお、集音範囲100に集音される音の音
質にさほど高い音質が要求されない場合には、複数のス
ピーカ36のうち集音範囲100から遠い位置に配置さ
れており音の距離減衰等によって集音範囲100への集
音に殆ど寄与していないスピーカ36を、各スピーカ3
6についての音声信号の位相差及び振幅の演算処理の対
象から除外しても良い。これにより、中央制御装置11
のCPU14による上記演算処理の負荷を軽減させるこ
とができる。
When the sound quality of the sound collected in the sound collection range 100 is not so high, it is arranged at a position far from the sound collection range 100 among the plurality of speakers 36 and the distance of the sound is attenuated. The speaker 36 that has hardly contributed to the sound collection to the sound collection range 100 due to
It may be excluded from the target of the arithmetic processing of the phase difference and the amplitude of the audio signal for No. 6. Thereby, the central controller 11
It is possible to reduce the load of the above arithmetic processing by the CPU 14.

【0105】〔第2実施形態〕次に、本発明の第2実施
形態を説明する。なお、第1実施形態と同一の部分には
同一の符号を付し、説明を省略する。
[Second Embodiment] Next, a second embodiment of the present invention will be described. The same parts as those in the first embodiment are designated by the same reference numerals and the description thereof will be omitted.

【0106】図6に示すように、本第2実施形態に係る
音伝達装置10は、複数(n個、一例として(8×8+
4)個)の補助スピーカモジュール60を更に備えてお
り、各補助スピーカモジュール60は、上記第1実施形
態において説明したアクティブ制御回路32とフィルタ
アンプ66と指向性スピーカ68等を含んで構成されて
いる。指向性スピーカ68は、図7に示すように、天井
86に配置された各無指向性スピーカ36の近傍と集音
範囲100の近傍の床上とに配置されている。アクティ
ブ制御回路32は通信ケーブル58を介してI/O20
に接続されており、スピーカ68から発する音に対応す
る音声信号データを受信する。
As shown in FIG. 6, the sound transmission device 10 according to the second embodiment includes a plurality of (n, as an example, (8 × 8 +
4)) auxiliary speaker modules 60 are further provided, and each auxiliary speaker module 60 is configured to include the active control circuit 32, the filter amplifier 66, the directional speaker 68 and the like described in the first embodiment. There is. As shown in FIG. 7, the directional speakers 68 are arranged near the omnidirectional speakers 36 arranged on the ceiling 86 and on the floor near the sound collection range 100. The active control circuit 32 is connected to the I / O 20 via the communication cable 58.
And receives audio signal data corresponding to the sound emitted from the speaker 68.

【0107】以下、本第2実施形態の作用について、第
1実施形態と異なる部分のみ説明する。
The operation of the second embodiment will be described below with respect to only the part different from that of the first embodiment.

【0108】本第2実施形態では、図8に示すように、
ステップ218におけるタイミング信号の各スピーカモ
ジュール30への送信に続き、ステップ221におい
て、補助スピーカモジュール60への音声信号出力タイ
ミングTa に対応するタイマを起動する。この補助スピ
ーカモジュール60への音声信号出力タイミングTa
は、上記のタイミング信号を各スピーカモジュール30
へ送信してから、補助スピーカモジュール60へ音声信
号データを出力するまでの時間であり、その音声信号出
力タイミングTa の値は、指向性スピーカ68から発せ
られた音波と各無指向性スピーカ36から発せられる音
波による合成音波とが集音範囲100に同時刻に到達す
るように予め定められている。次のステップ222では
上記の音声信号出力タイミングTa となったか否かを、
タイマがタイムアウトしたか否かに基づいて繰り返し判
定する。タイマがタイムアウトして音声信号出力タイミ
ングTa になると、ステップ223へ進み、送信波形バ
ッファメモリ42から所定量の音声信号データを読み出
し補助スピーカモジュール60へ出力する。補助スピー
カモジュール60へ出力された音声信号データは、アク
ティブ制御回路32内の図示しないD/Aコンバータに
よってアナログの音声信号に変換され、フィルタアンプ
66において予め設定されたゲインで増幅された後にス
ピーカ68に供給される。上記の補助スピーカモジュー
ル60への音声信号データの出力は、次のステップ22
4で全ての音声信号データの出力が終了したと判定され
るまで繰り返され、全ての音声信号データの出力が終了
すると、ステップ224で肯定判定され、制御ルーチン
を終了する。
In the second embodiment, as shown in FIG.
Following the transmission of the timing signal to each speaker module 30 in step 218, in step 221, a timer corresponding to the audio signal output timing Ta to the auxiliary speaker module 60 is started. Audio signal output timing Ta to the auxiliary speaker module 60
Uses the above-mentioned timing signal for each speaker module 30.
Is the time from the transmission to the auxiliary speaker module 60 until the audio signal data is output, and the value of the audio signal output timing Ta is the sound wave emitted from the directional speaker 68 and each omnidirectional speaker 36. It is set in advance so that the synthetic sound wave by the emitted sound wave reaches the sound collection range 100 at the same time. In the next step 222, it is determined whether or not the above-mentioned audio signal output timing Ta has come.
The determination is repeated based on whether the timer has timed out. When the timer times out and the audio signal output timing Ta is reached, the routine proceeds to step 223, where a predetermined amount of audio signal data is read from the transmission waveform buffer memory 42 and output to the auxiliary speaker module 60. The audio signal data output to the auxiliary speaker module 60 is converted into an analog audio signal by a D / A converter (not shown) in the active control circuit 32, amplified by the filter amplifier 66 with a preset gain, and then the speaker 68. Is supplied to. The output of the audio signal data to the auxiliary speaker module 60 is performed in the next step 22.
This is repeated until it is determined in step 4 that the output of all the audio signal data is completed, and when the output of all the audio signal data is completed, an affirmative determination is made in step 224 and the control routine is ended.

【0109】このように、天井86及び集音範囲100
近傍の床上に、集音範囲100に対して指向性スピーカ
68を配置し、これらの指向性スピーカ68に音声信号
を供給して音を発生させることにより、複数の無指向性
スピーカ36の各々から発せられた音の合成音波104
により伝達される比較的低い周波数の音成分が集音範囲
100外に発散し集音範囲100内における低周波帯域
の音が不足する場合にも、上記の指向性スピーカ68か
ら発せられる音により、集音範囲100内で聴取される
音(特に低周波帯域の音)が充実し、集音範囲100内
で聴取される音の音質が向上するという効果が得られ
る。
In this way, the ceiling 86 and the sound collection range 100
By arranging the directional speakers 68 for the sound collection range 100 on the floor in the vicinity, and supplying a sound signal to these directional speakers 68 to generate a sound, each of the plurality of omnidirectional speakers 36 is Synthetic sound wave 104 of emitted sound
Even when the sound component of the relatively low frequency transmitted by is diverged to the outside of the sound collection range 100 and the sound in the low frequency band within the sound collection range 100 is insufficient, the sound emitted from the directional speaker 68 causes It is possible to obtain the effect that the sound (specifically, the sound in the low frequency band) heard in the sound collection range 100 is enriched, and the sound quality of the sound heard in the sound collection range 100 is improved.

【0110】なお、合成音波104により伝達される比
較的低い周波数の音成分が集音範囲100外に発散する
ことにより、比較的低い周波数の音が集音範囲100外
で聴取される場合には、各スピーカモジュール30に供
給する音声信号データの所定周波数以下の成分を除去又
は減衰するように制御することにより、上記のように低
周波数の音が集音範囲100外で聴取されてしまうこと
を回避することができる。
When a relatively low frequency sound component transmitted by the synthetic sound wave 104 diverges outside the sound collection range 100, a relatively low frequency sound is heard outside the sound collection range 100. By controlling so as to remove or attenuate the component of the audio signal data supplied to each speaker module 30 which is equal to or lower than the predetermined frequency, it is possible to prevent the low frequency sound from being heard outside the sound collection range 100 as described above. It can be avoided.

【0111】また、上記第2実施形態では、複数の指向
性スピーカ68を天井86と集音範囲100近傍の床上
との両方に配置した例を示したが、何れか一方にのみ配
置しても良い。また、集音範囲100近傍には、必ずし
も指向性スピーカを配置する必要はなく、無指向性スピ
ーカを配置しても良い。
Further, in the second embodiment, an example in which a plurality of directional speakers 68 are arranged both on the ceiling 86 and on the floor in the vicinity of the sound collecting range 100 has been shown, but it may be arranged only on one of them. good. Further, it is not always necessary to dispose a directional speaker in the vicinity of the sound collection range 100, and an omnidirectional speaker may be arranged.

【0112】また、図9に示すように所定間隔で通音孔
88Aが設けられた床88の下方に複数の指向性スピー
カ68を、音が通音孔88Aに向けて出力されるように
配置し、集音範囲100の近傍の床下に配置されたスピ
ーカ68から音を発するようにしても良い。
Further, as shown in FIG. 9, a plurality of directional speakers 68 are arranged below the floor 88 provided with sound passage holes 88A at predetermined intervals so that sound is output toward the sound passage holes 88A. However, the sound may be emitted from the speaker 68 arranged under the floor near the sound collection range 100.

【0113】〔第3実施形態〕次に、本発明の第3実施
形態を説明する。なお、既に説明した実施形態と同一の
部分には同一の符号を付し、説明を省略する。
[Third Embodiment] Next, a third embodiment of the present invention will be described. It should be noted that the same parts as those of the above-described embodiment are denoted by the same reference numerals and the description thereof will be omitted.

【0114】図10に示すように、本第3実施形態に係
る音伝達装置10は、第2実施形態で説明した補助スピ
ーカモジュール60が省略されており、部屋84の温度
を検出する温度センサ80が設けられている。この温度
センサ80はI/O20に接続されている。
As shown in FIG. 10, in the sound transmission device 10 according to the third embodiment, the auxiliary speaker module 60 described in the second embodiment is omitted, and the temperature sensor 80 for detecting the temperature of the room 84. Is provided. The temperature sensor 80 is connected to the I / O 20.

【0115】また、ROM16には予め測定された部屋
84内の音響環境情報、具体的には部屋84の壁面12
0、122、124(図13において紙面奥側の面)、
125(図13において紙面手前側の面)及び床面88
(以後、これらの4つの壁面及び床面を「5つの反射
面」と総称する)の各々における音波の反射係数及び位
相回転特性が予め記憶されている。なお、前記位相回転
特性は、反射面に入射した音波(入射音波)に対する反
射面で反射された音波(反射音波)の位相の変化を表す
特性であり、反射面の材質や硬度等に依存する。一例と
して、硬質なコンクリートの壁では、入射音波に対し反
射音波の位相は180°回転する。
Further, the ROM 16 preliminarily measures the acoustic environment information in the room 84, specifically, the wall surface 12 of the room 84.
0, 122, 124 (the surface on the back side of the paper in FIG. 13),
125 (front surface of the paper in FIG. 13) and floor surface 88
(Hereinafter, these four wall surfaces and floor surfaces are collectively referred to as "five reflective surfaces"), and the reflection coefficient and phase rotation characteristic of the sound wave are stored in advance. The phase rotation characteristic is a characteristic that represents a change in the phase of the sound wave (reflected sound wave) reflected by the reflection surface with respect to the sound wave (incident sound wave) incident on the reflection surface, and depends on the material and hardness of the reflection surface. . As an example, in a hard concrete wall, the phase of the reflected sound wave is rotated by 180 ° with respect to the incident sound wave.

【0116】以下、本第3実施形態の作用について、第
1実施形態と異なる部分のみ説明する。
The operation of the third embodiment will be described below with respect to only the part different from that of the first embodiment.

【0117】図11に示す制御ルーチンにおいてステッ
プ204で肯定判定された場合に進むステップ209で
は、予め固定的に定められた集音範囲100の位置及び
大きさを表す位置情報をROM16から取り込む。また
ステップ209では更に、ROM16から前記各反射面
の反射係数及び位相回転特性を、温度センサ80から部
屋84の温度を、各々取り込む。次のステップ211で
は部屋84の温度から部屋84における音速Vを演算す
る。このステップ211では更に各スピーカ36につい
て、上記5つの反射面の各々で反射される反射音波の影
響を考慮しない場合に当該スピーカ36から発せられる
べき音に対応する音声信号の位相差及び振幅を、ROM
16から取り込んだ複数のスピーカ36の各々の位置情
報及び集音範囲100の位置情報に基づいて演算する。
なお、この演算は第1実施形態及び第2実施形態のステ
ップ212における演算と同一であるため、詳細な説明
は省略する。次のステップ213では各スピーカ36に
対して、集音範囲の位置と大きさ、音環境パラメータ
(音響環境情報及び音速V)、及び該スピーカ36に対
応する位相差・振幅を指示する指示信号を送信し、既に
説明したステップ216へ進む。
In the control routine shown in FIG. 11, in step 209, which is executed when an affirmative determination is made in step 204, the positional information indicating the position and size of the sound collection range 100 fixed in advance is fetched from the ROM 16. Further, in step 209, the reflection coefficient and the phase rotation characteristic of each of the reflecting surfaces are fetched from the ROM 16 and the temperature of the room 84 is fetched from the temperature sensor 80. In the next step 211, the sound velocity V in the room 84 is calculated from the temperature of the room 84. In step 211, for each speaker 36, the phase difference and the amplitude of the audio signal corresponding to the sound to be emitted from the speaker 36 when the influence of the reflected sound waves reflected by each of the five reflection surfaces is not considered, ROM
The calculation is performed on the basis of the position information of each of the plurality of speakers 36 and the position information of the sound collection range 100 acquired from 16.
Since this calculation is the same as the calculation in step 212 of the first and second embodiments, detailed description will be omitted. In the next step 213, an instruction signal for instructing the position and size of the sound collection range, the sound environment parameter (acoustic environment information and sound velocity V), and the phase difference / amplitude corresponding to the speaker 36 is sent to each speaker 36. Then, the process proceeds to step 216 already described.

【0118】一方、スピーカモジュール30では、図1
2に示す制御ルーチンのステップ300の初期化処理に
おいて、送信バッファメモリ42のクリアに加え、タイ
ミング信号を既に受信したことを記憶するためのフラグ
F1のリセットを行う。
On the other hand, the speaker module 30 shown in FIG.
In the initialization process of step 300 of the control routine shown in FIG. 2, in addition to clearing the transmission buffer memory 42, the flag F1 for storing that the timing signal has already been received is reset.

【0119】また、ステップ310ではステップ216
で中央制御装置11側から送信開始された音声信号デー
タを受信したか否かを判定する。音声信号データを受信
した場合、ステップ330へ進み、指示された位相差に
対応する送信波形バッファメモリ42のメモリアドレ
ス、即ち、送信波形バッファメモリ42の予め定められ
た基準アドレスAD0に対し、指示された位相差分だけ
オフセットしたアドレスAD1に、受信した音声信号デ
ータを書き込む。
In step 310, step 216 is executed.
Then, it is determined whether or not the audio signal data started to be transmitted from the central controller 11 side is received. When the voice signal data is received, the process proceeds to step 330, and the memory address of the transmission waveform buffer memory 42 corresponding to the instructed phase difference, that is, the predetermined reference address AD0 of the transmission waveform buffer memory 42 is instructed. The received audio signal data is written in the address AD1 offset by the phase difference.

【0120】ところで、本第3実施形態では図13に示
すように、反射音波として、壁面120により反射され
集音範囲100に到達するP1波、壁面122により反
射され集音範囲100に到達するP2波、壁面124に
より反射され集音範囲100に到達するP3波、壁面1
25により反射され集音範囲100に到達するP4波、
及び床88により反射され集音範囲100に到達するP
5波の5つの反射音波を想定している。なお、直接音波
Dはスピーカ36から発せられ集音範囲100に直接到
達する音波(以下、直接音波と称す)である。次のステ
ップ332では上記の5つの反射音波のうちの1つの反
射音波Pn(nは1〜5の何れか、以後同様)の遅延時
間Tnを、反射音波Pnの伝達経路の長さ及び音速Vに
基づいて演算する。
By the way, in the third embodiment, as shown in FIG. 13, as reflected sound waves, a P1 wave reflected by the wall surface 120 and reaching the sound collecting range 100, and a P2 wave reflected by the wall surface 122 and reaching the sound collecting range 100. Wave, P3 wave reflected by wall surface 124 and reaching sound collection range 100, wall surface 1
P4 wave reflected by 25 and reaching the sound collection range 100,
And P reaching the sound collection range 100 by being reflected by the floor 88
Five reflected sound waves of five waves are assumed. The direct sound wave D is a sound wave emitted from the speaker 36 and directly reaching the sound collection range 100 (hereinafter referred to as a direct sound wave). In the next step 332, the delay time Tn of one reflected sound wave Pn (n is any one of 1 to 5 and the same applies hereafter) of the above five reflected sound waves is set to the length of the transmission path of the reflected sound wave Pn and the sound velocity V. Calculate based on.

【0121】次のステップ334では、集音範囲100
に到達する反射音波Pnを表す音声信号データを、送信
波形バッファメモリ42に記憶されている音声信号デー
タ、反射音波Pnを反射する反射面の反射係数及び位相
回転特性に基づいて演算する。次のステップ336で
は、送信波形バッファメモリ42のアドレスAD1から
遅延時間Tnに対応するアドレスだけオフセットしたア
ドレスAD2に記憶されている音声信号データを読み出
し、該読み出した音声信号データからステップ334で
演算した反射音波Pnの音声信号データを減算し、その
結果得られた音声信号データをメモリアドレスAD2に
書き込む。上記のステップ332、334、336の処
理は、次のステップ338で全ての反射音波に対して完
了したと判定されるまで繰り返す。これにより、図14
(B)乃至(F)に示す5つの反射音波P1〜P5の各
々に対応する音声信号データが演算され、図14(A)
に示す直接音波Dに対応する音声信号データから上記の
5つの反射音波の各々に対応する音声信号データを減算
されることにより、図14(G)に示す各スピーカ36
から発するべき音波(送出波形)に対応する音声信号デ
ータが求められ、記憶される。ステップ338では肯定
判定されステップ310ヘ戻る。
In the next step 334, the sound collection range 100
The sound signal data representing the reflected sound wave Pn reaching the position is calculated based on the sound signal data stored in the transmission waveform buffer memory 42, the reflection coefficient of the reflecting surface that reflects the reflected sound wave Pn, and the phase rotation characteristic. In the next step 336, the audio signal data stored in the address AD2 which is offset from the address AD1 of the transmission waveform buffer memory 42 by the address corresponding to the delay time Tn is read out, and the operation is performed in step 334 from the read audio signal data. The audio signal data of the reflected sound wave Pn is subtracted, and the audio signal data obtained as a result is written in the memory address AD2. The processes of steps 332, 334, and 336 described above are repeated until it is determined in the next step 338 that all reflected sound waves are completed. As a result, FIG.
Audio signal data corresponding to each of the five reflected sound waves P1 to P5 shown in (B) to (F) is calculated, and FIG.
The sound signal data corresponding to each of the above five reflected sound waves is subtracted from the sound signal data corresponding to the direct sound wave D shown in FIG.
The sound signal data corresponding to the sound wave (sending waveform) to be emitted from is obtained and stored. An affirmative decision is made in step 338, and the operation returns to step 310.

【0122】ステップ310が否定された場合には、ス
テップ352でフラグF1が1か否か判定する。当初フ
ラグF1はステップ300の初期化処理によりリセット
されているので否定判定され、ステップ354へ進み、
タイミング信号を受信したか否か判定する。
When step 310 is denied, it is determined in step 352 whether the flag F1 is 1 or not. Since the initial flag F1 has been reset by the initialization processing of step 300, a negative determination is made, and the processing advances to step 354,
It is determined whether the timing signal is received.

【0123】未だタイミング信号を受信していなければ
ステップ310へ戻り、タイミング信号を受信していれ
ばステップ356でフラグF1をセット(これにより、
以降の処理ではステップ352の判定が無条件に肯定さ
れる)した後、ステップ358へ進む。ステップ358
では送信波形バッファメモリ42の基準アドレスAD0
から順に所定データ量の音声信号データを読み取り、読
み取った音声信号データをD/Aコンバータ44へ出力
する。なお、上述したように、実際の音声信号データ
は、基準アドレスAD0から指定された位相差に対応す
るアドレスだけオフセットしたアドレスAD1から以降
に記憶されているので、無指向性スピーカ36から実際
に音声が出力されるのは、タイミング信号を受信してか
ら指定された位相差(スピーカモジュール30間の位相
差)に対応する時間だけ経過した後となる。
If the timing signal has not been received yet, the process returns to step 310, and if the timing signal has been received, the flag F1 is set at step 356.
In the subsequent process, after the determination in step 352 is unconditionally affirmed), the process proceeds to step 358. Step 358
Then, the reference address AD0 of the transmission waveform buffer memory 42
The audio signal data of a predetermined data amount is sequentially read from and the read audio signal data is output to the D / A converter 44. As described above, since the actual audio signal data is stored after the address AD1 offset from the reference address AD0 by the address corresponding to the specified phase difference, the actual audio signal data is output from the omnidirectional speaker 36. Is output after the time corresponding to the specified phase difference (phase difference between the speaker modules 30) has elapsed after receiving the timing signal.

【0124】D/Aコンバータ44へ出力された音声信
号データは、D/Aコンバータ44によってアナログの
音声信号に変換され、フィルタアンプ34において指示
された振幅に対応するゲインで増幅された後にスピーカ
36に供給される。これにより、スピーカ36からは図
14(G)に示す波形の音波が放射され、集音範囲10
0に到達したP1〜P5の反射音波が、集音範囲100
に到達した図14(G)に示す波形の直接音波Dによっ
て打ち消されることになる。従って、集音範囲100で
は、図14(A)に示す波形の音が聴取される。
The audio signal data output to the D / A converter 44 is converted into an analog audio signal by the D / A converter 44, amplified by the gain corresponding to the amplitude instructed by the filter amplifier 34, and then the speaker 36. Is supplied to. As a result, the sound wave having the waveform shown in FIG.
The reflected sound waves of P1 to P5 that reached 0 are 100 in the sound collection range.
It is canceled by the direct sound wave D having the waveform shown in FIG. Therefore, in the sound collection range 100, the sound of the waveform shown in FIG.

【0125】次のステップ360では送信波形バッファ
メモリ42内に出力されていない音声信号データがある
か否かの判定を行う。未だ出力されていない音声信号デ
ータがある場合は、ステップ310へ戻る。従って、ス
テップ330〜338における音声信号データの受信、
反射音波の影響を考慮した音声信号データの演算及び格
納と、ステップ358における音声信号データの出力と
は、並列的に行われることになる。ステップ358は送
信波形バッファメモリ42内に未出力の音声信号データ
が有る間、繰り返し実行される。送信波形バッファメモ
リ42内の全ての音声信号データが出力されると、ステ
ップ360の判定が否定され、制御ルーチンを終了す
る。
At the next step 360, it is determined whether or not there is voice signal data that has not been output in the transmission waveform buffer memory 42. If there is audio signal data that has not been output yet, the process returns to step 310. Therefore, reception of audio signal data in steps 330 to 338,
The calculation and storage of the audio signal data in consideration of the influence of the reflected sound wave and the output of the audio signal data in step 358 are performed in parallel. Step 358 is repeatedly executed while there is unoutput voice signal data in the transmission waveform buffer memory 42. When all the audio signal data in the transmission waveform buffer memory 42 has been output, the determination in step 360 is denied and the control routine ends.

【0126】以上の説明から明らかなように、本第3実
施形態によれば、壁や天井等で囲まれた室内等の音響環
境において音を集音させる場合でも、集音範囲内で聴取
される音の音質を向上させることができる。
As is apparent from the above description, according to the third embodiment, even when a sound is collected in an acoustic environment such as a room surrounded by walls and ceilings, the sound is heard within the sound collection range. The sound quality of the sound can be improved.

【0127】また、各スピーカ36からの直接音波に対
する5つの反射音波の音声信号の演算を、各スピーカモ
ジュール30側のCPU48において行うようにして、
上記演算処理の負荷を分散化したので、全てのスピーカ
36についての上記演算処理を中央制御装置11側のC
PU14により行う場合よりも、処理時間を短縮するこ
とができる。但し、音伝達装置10がスピーカ36の配
置数が少ない小規模な装置構成である場合は、全てのス
ピーカ36についての上記演算処理を中央制御装置11
側のCPU14により行う中央集中型の処理形態を採用
しても良い。
Further, the calculation of the sound signals of the five reflected sound waves with respect to the direct sound waves from each speaker 36 is performed by the CPU 48 of each speaker module 30 side.
Since the load of the arithmetic processing is distributed, the arithmetic processing for all the speakers 36 is performed by the C on the central control unit 11 side.
The processing time can be shortened as compared with the case of using the PU 14. However, when the sound transmission device 10 is a small-scale device configuration in which the number of speakers 36 is small, the central processing unit 11 performs the above-described arithmetic processing for all the speakers 36.
A centralized processing mode performed by the CPU 14 on the side may be adopted.

【0128】なお、集音範囲100に集音される音の音
質にさほど高い音質が要求されない場合には、演算処理
の負荷軽減のために、複数のスピーカ36のうち、集音
範囲100から比較的遠い位置に配置され且つ反射面の
反射係数が小さいために、発せられた直接音波に対応す
る反射音波が微小な音波となるようなスピーカ36につ
いての反射音波の音声信号の演算を省略しても良い。
When the sound quality of the sound collected in the sound collection range 100 is not so high, comparison is made from the sound collection range 100 of the plurality of speakers 36 in order to reduce the load of arithmetic processing. By omitting the calculation of the sound signal of the reflected sound wave of the speaker 36, which is arranged at a position far away from the target and has a small reflection coefficient of the reflection surface, the reflected sound wave corresponding to the emitted direct sound wave becomes a minute sound wave. Is also good.

【0129】また、上記実施形態では部屋84内の音響
環境が一定であることを前提としているが、例えば部屋
84内のカーテンが開閉される等によって音響環境は変
化する。このため、このような音響環境の変化を検出
し、その時の音響環境の状態に応じた制御を行うように
しても良い。音響環境の状態を検出するためには、一例
として図15及び図16に示すように、部屋84の壁面
120、122、124、125、及び床88の状態を
撮影するテレビカメラ72とテレビカメラ72により撮
影された画像情報に対するデジタル化処理やノイズカッ
ト処理等を行う画像処理装置74等を含んで構成された
撮影装置70を複数設けることが考えられる。
In the above embodiment, it is assumed that the acoustic environment in the room 84 is constant, but the acoustic environment changes due to opening and closing of the curtain in the room 84, for example. Therefore, such a change in the acoustic environment may be detected and control may be performed according to the state of the acoustic environment at that time. In order to detect the state of the acoustic environment, as shown in FIG. 15 and FIG. 16 as an example, the television camera 72 and the television camera 72 that photograph the states of the wall surfaces 120, 122, 124, 125 and the floor 88 of the room 84. It is conceivable to provide a plurality of photographing devices 70 including an image processing device 74 for performing digitization processing, noise cut processing, and the like on the image information photographed by.

【0130】テレビカメラ72は撮影方向が下向きとな
るように天井86に配置され、画像処理装置74を介し
てI/O20に接続されている。上記複数のテレビカメ
ラ72により5つの反射面の現在の状態を撮影し、その
撮影情報より、例えばカーテンが開いているか閉じてい
るか等の音響環境の現在の状態を判断し、判断した現在
の音響環境の状態及び温度センサ80により検出された
室温に応じた音環境パラメータを設定し、設定された音
環境パラメータに基づいて上述した処理の流れに従って
図14(G)に示すような送出波形に対応する音声信号
データを演算する。これにより、音響環境の状態の変化
に拘わらず、集音範囲内で聴取される音の音質を向上さ
せることができる。
The television camera 72 is arranged on the ceiling 86 so that the photographing direction is downward, and is connected to the I / O 20 via the image processing device 74. The current state of the five reflective surfaces is photographed by the plurality of television cameras 72, the current state of the acoustic environment such as whether the curtain is open or closed is determined from the captured information, and the determined current sound is determined. A sound environment parameter corresponding to the environmental condition and the room temperature detected by the temperature sensor 80 is set, and the output waveform corresponding to the transmission waveform as shown in FIG. 14G is set according to the flow of the processing described above based on the set sound environment parameter. The audio signal data to be calculated is calculated. As a result, the sound quality of the sound heard within the sound collection range can be improved regardless of the change in the state of the acoustic environment.

【0131】〔第4実施形態〕次に、本発明の第4実施
形態を説明する。本第4実施形態に係る音伝達装置10
の構成は、先に説明した図15と同一であるので説明を
省略し、以下、本第4実施形態の作用について、第3実
施形態と異なる部分のみ説明する。
Fourth Embodiment Next, a fourth embodiment of the present invention will be described. Sound transmission device 10 according to the fourth embodiment
Since the configuration is the same as that of FIG. 15 described above, the description thereof will be omitted, and hereinafter, the operation of the fourth embodiment will be described only on the part different from that of the third embodiment.

【0132】図17に示す制御ルーチンにおいて、ステ
ップ204の判定が肯定された場合、ステップ230で
は、テレビカメラ72により撮影された図19に示す聴
取者102、103を含む映像に対応する撮影情報を撮
影装置70から取り込み、タイミング信号を送信済であ
ることを示すフラグF2をリセットする。
In the control routine shown in FIG. 17, when the determination at step 204 is affirmative, at step 230, the photographing information corresponding to the image including the listeners 102 and 103 shown in FIG. The flag F2 indicating that the timing signal has been transmitted from the photographing device 70 is reset.

【0133】次のステップ234では、上記のステップ
230で取り込んだ撮影情報に基づいて、撮影画像か
ら、表面の多くが毛髪で覆われており黒色部分が多い略
球状である等のように人物の頭部に特有の特徴量を備え
た領域を、所定の一聴取者102の頭部102Aに相当
する領域として抽出し、抽出した領域の撮影画像上にお
ける位置、大きさ等に基づいて3次元座標上における頭
部102Aの位置を推定し、その頭部102Aを含む所
定の大きさの領域を集音範囲100として設定し、その
領域、即ち集音範囲100の位置を演算する。このステ
ップ234の集音範囲の位置の演算は、次のステップ2
36で部屋84内に存在する全ての聴取者に対応する集
音範囲(図19においては集音範囲100、101)に
ついて完了するまで繰り返される。
In the next step 234, based on the photographing information fetched in the above step 230, the photographed image shows that the surface is mostly spherical and has many black portions. A region having a characteristic amount peculiar to the head is extracted as a region corresponding to the head 102A of the predetermined listener 102, and the three-dimensional coordinates are based on the position, size, etc. of the extracted region on the captured image. The position of the head 102A above is estimated, a region of a predetermined size including the head 102A is set as the sound collection range 100, and the region, that is, the position of the sound collection range 100 is calculated. The calculation of the position of the sound collection range in step 234 is performed in the next step 2
At 36, the sound collection range (sound collection ranges 100 and 101 in FIG. 19) corresponding to all the listeners existing in the room 84 is repeated until it is completed.

【0134】全ての聴取者に対応する集音範囲の位置演
算を完了すると、ステップ238へ進み、演算した全て
の集音範囲の位置情報と、予め定められた所定データ量
(スピーカモジュール30の送信波形バッファメモリ4
2の記憶容量よりも小)の音声信号データと、を各スピ
ーカモジュール30へ送信する。
When the position calculation of the sound collection range corresponding to all the listeners is completed, the process proceeds to step 238, and the position information of all the calculated sound collection ranges and a predetermined data amount (transmission of the speaker module 30 Waveform buffer memory 4
Audio signal data (smaller than the storage capacity of 2) is transmitted to each speaker module 30.

【0135】次のステップ240ではフラグF2が1か
否か判定する。当初フラグF2は上記のステップ230
でリセットされているので否定され、ステップ242へ
進み、各スピーカモジュール30へのタイミング信号の
送信及びフラグF2のセットを行う(これにより、以降
の処理ではステップ240の判定が無条件に肯定され
る)。次のステップ244では音声信号データを全デー
タ送信し終えたか否かを判定する。未だ音声信号データ
を全データ送信し終えていない場合は、ステップ246
へ進み最新の撮影情報を撮影装置70から取り込んだ
後、ステップ234へ戻り、取り込んだ最新の撮影情報
に基づいてステップ234以降の処理を再実行する。音
声信号データを全データ送信し終えた場合は、制御ルー
チンを終了する。
At the next step 240, it is determined whether the flag F2 is 1 or not. The initial flag F2 is the above-mentioned step 230.
Since it is reset at step 242, it is denied, and the routine proceeds to step 242, where a timing signal is transmitted to each speaker module 30 and the flag F2 is set (thus, in the subsequent processing, the determination at step 240 is unconditionally affirmed). ). In the next step 244, it is determined whether or not all the audio signal data has been transmitted. If all the audio signal data have not been transmitted yet, step 246
After advancing to step 234 and fetching the latest photographing information from the photographing device 70, the processing returns to step 234, and the processing from step 234 onward is re-executed based on the latest photographing information fetched. When all the audio signal data have been transmitted, the control routine ends.

【0136】一方、スピーカモジュール30では、図1
8に示す制御ルーチンにおいてステップ304で応答信
号を送信した後に進むステップ307では、上記のステ
ップ238で中央制御装置11側から送信された音声信
号データ及び全ての集音範囲の位置情報を受信したか否
かを判定する。
On the other hand, the speaker module 30 shown in FIG.
In step 307 of the control routine shown in FIG. 8 after transmitting the response signal in step 304, whether the audio signal data and the position information of all the sound collection ranges transmitted from the central controller 11 side in step 238 are received. Determine whether or not.

【0137】上記の音声信号データ及び全ての集音範囲
の位置情報を受信した場合、ステップ326へ進み所定
の集音範囲に対応する音声信号データの振幅及び位相差
を、該集音範囲の位置情報及びROM50から取り込ん
だ該スピーカ36に関する位置情報に基づいて演算す
る。次のステップ328では上記で演算した振幅に応じ
て音声信号データが表す振幅値を変更し、送信波形バッ
ファメモリ42の予め定められた基準アドレスAD0に
対し、上記ステップ326で演算された位相差分だけオ
フセットしたアドレスAD1に、振幅値を変更した音声
信号データを書き込むと共に、演算された振幅に応じて
フィルタアンプ34のゲインを設定する。
When the voice signal data and the position information of all the sound collection ranges are received, the process proceeds to step 326, and the amplitude and phase difference of the voice signal data corresponding to the predetermined sound collection range is calculated as the position of the sound collection range. The calculation is performed based on the information and the position information regarding the speaker 36 read from the ROM 50. At the next step 328, the amplitude value represented by the audio signal data is changed according to the amplitude calculated above, and only the phase difference calculated at step 326 is changed with respect to the predetermined reference address AD0 of the transmission waveform buffer memory 42. The audio signal data with the changed amplitude value is written in the offset address AD1, and the gain of the filter amplifier 34 is set according to the calculated amplitude.

【0138】次のステップ340では全ての集音範囲に
対して上記のステップ326、328の処理が完了した
か否かを判定する。未だ完了していない場合は、ステッ
プ326へ戻り、上記処理が未完了である集音範囲に対
して上記のステップ326、328の処理を行い、全て
の集音範囲に対して完了した場合は、ステップ307へ
戻る。
At the next step 340, it is judged whether or not the above-mentioned steps 326 and 328 have been completed for all the sound collecting ranges. If it has not been completed yet, the process returns to step 326, and the processes of steps 326 and 328 described above are performed on the sound collection range for which the above process has not been completed. Return to step 307.

【0139】ステップ307の判定が否定された場合に
は、ステップ352へ進み、上記第3実施形態において
説明したステップ352〜ステップ360の処理を行
う。
If the determination in step 307 is negative, the process proceeds to step 352, and the processes of steps 352 to 360 described in the third embodiment are performed.

【0140】以上の説明から明らかなように、本第4実
施形態によれば、聴取者の位置に応じた位置に集音範囲
が設定され、聴取者の位置の変化に応じて、対応する集
音範囲の位置も移動させるので、聴取者が部屋84内を
移動したとしても、該聴取者にのみ音声が聴取されるよ
うに制御することができる。
As is clear from the above description, according to the fourth embodiment, the sound collection range is set at a position corresponding to the position of the listener, and the sound collection range corresponding to the change in the position of the listener is set. Since the position of the sound range is also moved, even if the listener moves in the room 84, it is possible to control so that only the listener can hear the sound.

【0141】また、集音範囲を複数設定することができ
るので、音伝達装置10を複数設けることなく、複数の
聴取者の各々にのみ所定の音声が聴取されるように制御
することができる。
Further, since a plurality of sound collection ranges can be set, it is possible to control so that a predetermined sound is heard only by each of a plurality of listeners without providing a plurality of sound transmission devices 10.

【0142】なお、集音範囲を設定するために聴取者の
位置を検出する方法としては、上記のようなテレビカメ
ラ72によって撮影された聴取者を含む映像情報に基づ
く聴取者の位置検出に限定されるものではなく、例え
ば、室内における温度分布を検出することのできる温度
分布検出センサ126(図20参照)を設け、聴取者の
体温が検出される場所を特定することによって当該聴取
者の位置を検出しても良い。また、所定周波数の電波を
発信する発信器を内蔵したノンタッチカード128(図
20参照)を音声を聴かせる対象としての特定の聴取者
の胸部等に装着させ、前記発信器から発信される所定周
波数の電波を受信し、その到来角を演算することによ
り、当該聴取者の位置を検出するようにしても良い。
Note that the method of detecting the position of the listener to set the sound collection range is limited to the position detection of the listener based on the image information including the listener photographed by the television camera 72 as described above. However, the position of the listener is specified by, for example, providing a temperature distribution detection sensor 126 (see FIG. 20) capable of detecting the temperature distribution in the room and specifying the place where the body temperature of the listener is detected. May be detected. In addition, a non-touch card 128 (see FIG. 20) having a built-in transmitter for transmitting a radio wave of a predetermined frequency is attached to the chest or the like of a specific listener as a target for listening to voice, and the predetermined frequency transmitted from the transmitter is set. It is also possible to detect the position of the listener by receiving the radio wave and calculating the angle of arrival thereof.

【0143】また、上記実施形態では部屋84内に複数
の聴取者が存在している場合に、各聴取者に対応する集
音範囲に各々同じ音声を集音させるようにしていたが、
各集音範囲に異なる音声を集音させるようにしても良
い。これは、中央制御端末11では各スピーカモジュー
ル30に各集音範囲に対応する音声信号データを各々送
信し、各スピーカモジュール30側では図18のフロー
チャートのステップ328において各集音範囲に対応す
る音声信号データを送信波形バッファメモリ42に書き
込むことで実現できる。
Further, in the above embodiment, when a plurality of listeners exist in the room 84, the same sound is collected in the sound collection range corresponding to each listener.
Different sounds may be collected in each sound collection range. This is because the central control terminal 11 transmits audio signal data corresponding to each sound collection range to each speaker module 30, and each speaker module 30 side outputs a sound corresponding to each sound collection range in step 328 of the flowchart of FIG. This can be realized by writing the signal data in the transmission waveform buffer memory 42.

【0144】更に、前述した聴取者の位置検出方法を応
用して、聴取者の種類(例えば国籍等)等の識別を行
い、聴取者の種類等に応じて対応する集音範囲に集音す
る音声を選択するようにしても良い。聴取者の種類等
は、先に説明したノンタッチカード128(図20参
照)において、発信電波の周波数を当該聴取者の種類等
に応じて変更(例えば、聴取者が米国人であれば周波数
f1、聴取者が中国人であれば周波数f2等)すること
で、受信した電波の周波数に基づいて識別できる。そし
て、各聴取者の国籍に対応する言語による展示物説明等
のアナウンスを、各聴取者に対応する集音範囲に集音す
ることにより、聴取者は自分の国籍に対応する言語によ
る展示物説明等のアナウンスを聞くことができるという
効果が得られる。
Furthermore, by applying the above-mentioned listener position detecting method, the listener's type (for example, nationality) is identified, and sound is collected in a sound collection range corresponding to the listener's type. The voice may be selected. For the type of listener, in the non-touch card 128 (see FIG. 20) described above, the frequency of the transmitted radio wave is changed according to the type of the listener (for example, if the listener is an American, frequency f1, If the listener is Chinese, the frequency can be identified based on the frequency of the received radio wave by performing the frequency f2 or the like. Then, by collecting announcements such as exhibit explanations in the language corresponding to the nationality of each listener within the sound collection range corresponding to each listener, the listeners explain the exhibit in the language corresponding to their nationality. The effect of being able to hear announcements such as is obtained.

【0145】〔第5実施形態〕次に、本発明の第5実施
形態を説明する。本第5実施形態に係る音伝達装置10
の構成は、先に説明した図15と同一であるので、説明
を省略し、以下、本第5実施形態の作用について、第4
実施形態と異なる部分のみ説明する。
[Fifth Embodiment] Next, a fifth embodiment of the present invention will be described. Sound transmission device 10 according to the fifth embodiment
15 is the same as that of FIG. 15 described above, the description thereof will be omitted, and the operation of the fifth embodiment will be described below with reference to the fourth embodiment.
Only parts different from the embodiment will be described.

【0146】図21に示す制御ルーチンにおいて、ステ
ップ230での撮影情報の取り込みとタイミング信号の
送信済を示すフラグF2のリセットとを行った後、ステ
ップ233では、上記のステップ230で取り込んだ撮
影情報に基づいて、撮影画像から、表面の多くが毛髪で
覆われており黒色部分が多い略球状である等のように人
物の頭部に特有の特徴量を備えた領域を、所定の一聴取
者102の頭部102Aに相当する領域として抽出し、
抽出した領域の撮影画像上における位置、大きさ等に基
づいて3次元座標上における頭部102Aの位置を演算
する。
In the control routine shown in FIG. 21, after taking in the photographing information in step 230 and resetting the flag F2 indicating that the timing signal has been transmitted, in step 233, the photographing information fetched in step 230 described above. Based on the above, a region with a characteristic amount peculiar to a person's head, such as a spherical shape with many black surfaces and many of its surfaces covered by a photographed image, is determined by a predetermined listener. Extracted as a region corresponding to the head 102A of 102,
The position of the head 102A on the three-dimensional coordinates is calculated based on the position, size, etc. of the extracted region on the captured image.

【0147】次のステップ235では聴取者の頭部の位
置に基づいて聴取者の左右各耳の位置を以下のようにし
て推定する。図23に示す聴取者102について説明す
ると、まず頭部102Aの下に位置する胴体102Bを
認識し、その胴体102Bにおいて胸幅L2は肩幅L1
よりも小さいということから、聴取者102は矢印Q方
向又はその逆方向を向いていると推定する。次に、頭部
102Aの表面における毛髪の占める比率は顔の位置す
る側よりも顔の位置しない側の方が高いという一般的特
徴に基づいて、図23において紙面奥側の方が紙面手前
側よりも黒色の度合が高いことから、聴取者102は矢
印Q方向を向いていると推定する。これにより、聴取者
102の左耳は頭部102Aの矢印R方向に向かう側に
隣接する場所に位置し、右耳114は頭部102Aの矢
印Rと反対方向に向かう側に隣接する場所に位置すると
推定する。なお、これら左右各耳の位置情報としては、
既に説明した図23に示す矢印X方向、矢印Y方向、矢
印Z方向の各々に沿って等分割して得られた直方体状の
領域を、更に上記各方向に沿って所定の数に等分割して
得られる小さな直方体状の領域(図示省略)のうち何れ
の領域内に位置するかを表す情報を用いることができ
る。またステップ235では、左耳及び右耳の各々が位
置する領域の4頂点に外接し該領域を包含する仮想の球
状の領域112、114を集音範囲として設定し、それ
ら集音範囲の位置情報として、該集音範囲に対応する耳
が位置する領域の位置情報を設定する。
In the next step 235, the positions of the left and right ears of the listener are estimated as follows based on the position of the listener's head. Explaining the listener 102 shown in FIG. 23, first, the body 102B located below the head 102A is recognized, and the chest width L2 is the shoulder width L1 in the body 102B.
Therefore, it is estimated that the listener 102 faces the arrow Q direction or the opposite direction. Next, based on the general feature that the ratio of hair on the surface of the head 102A is higher on the side where the face is not located than on the side where the face is located, the back side of the paper in FIG. 23 is the front side of the paper. Since the degree of black is higher than that of black, it is estimated that the listener 102 faces the arrow Q direction. As a result, the left ear of the listener 102 is positioned adjacent to the side of the head 102A facing the arrow R direction, and the right ear 114 is positioned near the side of the head 102A facing the direction opposite to the arrow R. I presume. In addition, as the positional information of these left and right ears,
The rectangular parallelepiped region obtained by equally dividing along the arrow X direction, the arrow Y direction, and the arrow Z direction shown in FIG. 23, which has already been described, is further divided into a predetermined number along each of the above directions. It is possible to use information indicating in which area of the small rectangular parallelepiped area (not shown) obtained as a result. In step 235, virtual spherical regions 112 and 114 circumscribing the four vertices of the regions where the left and right ears are located and including the regions are set as sound collection ranges, and position information of these sound collection ranges is set. As, the position information of the region where the ears are located corresponding to the sound collection range is set.

【0148】上記のステップ234、235は、次のス
テップ236で全ての聴取者について完了するまで繰り
返される。
The above steps 234 and 235 are repeated until the next step 236 is completed for all listeners.

【0149】全ての聴取者の左右各耳に対応する集音範
囲の位置設定を完了すると、ステップ237へ進み、全
ての聴取者の左右各耳に対応する集音範囲の位置情報
と、左右各耳に対する所定データ量の音声信号データと
を、各スピーカモジュール30へ送信する。なお、上記
の左右各耳に対する音声信号データとして、所定音源か
ら発せられた音を該音源に向かって左側の位置で記録し
た音及び右側の位置で記録した音の各々に対応する音声
信号データを供給する。
When the position setting of the sound collecting ranges corresponding to the left and right ears of all listeners is completed, the process proceeds to step 237, where the position information of the sound collecting ranges corresponding to the left and right ears of all listeners and the left and right ears are set. The audio signal data of a predetermined data amount for the ear is transmitted to each speaker module 30. As the sound signal data for each of the left and right ears, sound signal data corresponding to each of a sound recorded at a position on the left side and a sound recorded at a position on the right side of a sound emitted from a predetermined sound source is used. Supply.

【0150】次のステップ240ではフラグF2が1か
否か判定する。当初フラグF2は上記のステップ230
でリセットされているので否定され、ステップ242へ
進み、各スピーカモジュール30へのタイミング信号の
送信及びフラグF2のセットを行う(これにより、以降
の処理ではステップ240の判定が無条件に肯定され
る)。次のステップ244では音声信号データを全デー
タ送信し終えたか否かを判定する。未だ音声信号データ
を全データ送信し終えていない場合は、ステップ246
へ進み、最新の撮影情報を撮影装置70から取り込んだ
後、ステップ233へ戻り、取り込んだ最新の撮影情報
に基づいてステップ233以降の処理を再実行する。音
声信号データを全データ送信し終えた場合は、制御ルー
チンを終了する。
At the next step 240, it is determined whether the flag F2 is 1 or not. The initial flag F2 is the above-mentioned step 230.
Since it is reset at step 242, it is denied, and the routine proceeds to step 242, where a timing signal is transmitted to each speaker module 30 and the flag F2 is set (thus, in the subsequent processing, the determination at step 240 is unconditionally affirmed). ). In the next step 244, it is determined whether or not all the audio signal data has been transmitted. If all the audio signal data have not been transmitted yet, step 246
Then, after the latest photographing information is fetched from the photographing device 70, the process returns to step 233, and the processing from step 233 is re-executed based on the fetched latest photographing information. When all the audio signal data have been transmitted, the control routine ends.

【0151】一方、スピーカモジュール30では、図2
2に示す制御ルーチンにおいてステップ304で応答信
号を送信した後に進むステップ309では、上記のステ
ップ237で中央制御装置11側から送信された聴取者
の左右各耳に対応する集音範囲の位置情報、及び左右各
耳に対する音声信号データを受信したか否かを判定す
る。
On the other hand, the speaker module 30 shown in FIG.
In step 309 of the control routine shown in FIG. 2 after transmitting the response signal in step 304, position information of the sound collection range corresponding to the left and right ears of the listener, which is transmitted from the central control device 11 side in step 237, And whether or not the audio signal data for each of the left and right ears has been received.

【0152】上記の集音範囲の位置情報及び音声信号デ
ータを受信した場合、ステップ327へ進み、所定の一
聴取者の一方の耳に対応する集音範囲に対する音声信号
データの振幅及び位相差を、該集音範囲の位置情報及び
ROM50から取り込んだ該スピーカ36に関する位置
情報に基づいて演算する。次のステップ328では送信
波形バッファメモリ42の予め定められた基準アドレス
AD0に対し、上記ステップ326で演算された位相差
分だけオフセットしたメモリアドレスAD1に、受信し
た音声信号データを書き込むと共に、演算された振幅に
応じてフィルタアンプ34のゲインを設定する。
When the position information of the sound collection range and the sound signal data are received, the process proceeds to step 327, and the amplitude and phase difference of the sound signal data with respect to the sound collection range corresponding to one ear of a predetermined listener is determined. , Based on the position information of the sound collection range and the position information regarding the speaker 36 loaded from the ROM 50. In the next step 328, the received voice signal data is written into the memory address AD1 which is offset by the phase difference calculated in the above step 326 from the predetermined reference address AD0 of the transmission waveform buffer memory 42, and is calculated. The gain of the filter amplifier 34 is set according to the amplitude.

【0153】次のステップ339では、所定の一聴取者
の左右各耳に対応する集音範囲に対して上記のステップ
327、328の処理が完了したか否かを判定する。未
完了の場合はステップ327へ戻り、所定の一聴取者の
もう一方の耳に対応する集音範囲に対してステップ32
7、328の処理を行う。左右各耳に対応する集音範囲
に対して完了した場合、ステップ340へ進み、全ての
聴取者(図23に示す例では聴取者102、103)に
対して上記のステップ327、328の処理が完了した
か否かを判定する。未だ全ての聴取者に対して完了して
いない場合は、ステップ327へ戻り、上記処理が完了
していない聴取者に対して上記のステップ327〜ステ
ップ339の処理を行う。全ての聴取者に対して完了し
た場合は、ステップ309へ戻り、聴取者の左右各耳に
対応する集音範囲の最新の位置情報、及び左右各耳に対
する次の音声信号データを受信したか否かの判定を再度
行う。
In the next step 339, it is determined whether or not the processing in steps 327 and 328 has been completed for the sound collection range corresponding to the left and right ears of the predetermined listener. If not completed, the process returns to step 327, and step 32 is performed for the sound collection range corresponding to the other ear of the predetermined listener.
7. Processes 328 are performed. When the sound collection range corresponding to each of the left and right ears has been completed, the process proceeds to step 340, and the processes of steps 327 and 328 are performed for all listeners (listeners 102 and 103 in the example shown in FIG. 23). Determine whether it is complete. If not completed for all listeners, the process returns to step 327, and the above steps 327 to 339 are performed for listeners for which the above processing has not been completed. If completed for all listeners, the process returns to step 309 to determine whether the latest position information of the sound collection range corresponding to the left and right ears of the listener and the next audio signal data for the left and right ears have been received. It is judged again.

【0154】聴取者の左右各耳に対応する集音範囲の最
新の位置情報、及び左右各耳に対する次の音声信号デー
タを受信した場合は、受信した上記データに基づいて上
記のステップ327〜ステップ340の処理を再度行
う。
When the latest position information of the sound collection range corresponding to the left and right ears of the listener and the next audio signal data for the left and right ears are received, the above steps 327 to 327 are performed based on the received data. The process of 340 is performed again.

【0155】ステップ309の判定が否定された場合に
は、ステップ352へ進み、上記第3実施形態において
説明したステップ352〜ステップ360の処理を行
う。このうちステップ358では所定データ量の音声信
号データが送信波形バッファメモリ42の基準アドレス
AD0から順に読み取られ、D/Aコンバータ44へ出
力される。
If the determination in step 309 is negative, the process proceeds to step 352, and the processes of steps 352 to 360 described in the third embodiment are performed. Of these, in step 358, a predetermined amount of audio signal data is sequentially read from the reference address AD0 of the transmission waveform buffer memory 42 and output to the D / A converter 44.

【0156】D/Aコンバータ44へ出力された上記の
音声信号データは、D/Aコンバータ44によりアナロ
グの音声信号へ変換され、フィルタアンプ34により増
幅された後にスピーカ36に供給される。
The audio signal data output to the D / A converter 44 is converted into an analog audio signal by the D / A converter 44, amplified by the filter amplifier 34, and then supplied to the speaker 36.

【0157】これにより、スピーカ36から上記の音声
信号データに対応するアナログの音声が発せられ、所定
音源から発せられた音を該音源に向かって左側の位置で
記録した音が左耳に対応する集音範囲に、右側の位置で
記録した音が右耳に対応する集音範囲に、各々集音され
る。従って、聴取者にステレオ感を感じさせることがで
きる。
As a result, the analog sound corresponding to the above-mentioned sound signal data is emitted from the speaker 36, and the sound emitted from the predetermined sound source is recorded at the left side of the sound source and corresponds to the left ear. In the sound collection range, the sounds recorded at the right position are collected in the sound collection range corresponding to the right ear. Therefore, the listener can feel a sense of stereo.

【0158】なお、本第5実施形態では、検出した聴取
者の位置から聴取者の左右各耳の位置を推定し、それら
の左右各耳にステレオ感のある音の左側の音、右側の音
を各々集音する例を示したが、これを更に応用し、検出
した聴取者の位置から聴取者の耳の位置及び方向を推定
し、推定した聴取者の耳の位置及び方向に基づいて、聴
取者の聴覚の指向性に合った位置に集音範囲を設定する
ことにより、聴取者が音声をより明瞭に聞き取れるよう
にすることができる。
In the fifth embodiment, the position of each of the left and right ears of the listener is estimated from the detected position of the listener, and the left and right sounds of the stereophonic sounds of the left and right ears are estimated. However, by further applying this, the position and direction of the listener's ear are estimated from the detected position of the listener, based on the estimated position and direction of the listener's ear, By setting the sound collection range at a position that matches the hearing directivity of the listener, the listener can hear the voice more clearly.

【0159】〔第6実施形態〕次に、本発明の第6実施
形態を説明する。なお、既に説明した実施形態と同一の
部分には同一の符号を付し、説明を省略する。
Sixth Embodiment Next, a sixth embodiment of the present invention will be described. It should be noted that the same parts as those of the above-described embodiment are denoted by the same reference numerals and the description thereof will be omitted.

【0160】図26に示すように、予め定められた集音
範囲100の直下の床下には、重量センサ82が配設さ
れており、この重量センサ82は集音範囲100の直下
の床に加わる重量を検出する。図24に示すように、上
記の重量センサ82はI/O20に接続されている。
As shown in FIG. 26, a weight sensor 82 is provided under the floor immediately below the predetermined sound collection range 100, and this weight sensor 82 is added to the floor immediately below the sound collection range 100. Detect weight. As shown in FIG. 24, the weight sensor 82 is connected to the I / O 20.

【0161】以下、本第6実施形態の作用について、第
1実施形態と異なる部分のみ説明する。
The operation of the sixth embodiment will be described below with respect to only the part different from that of the first embodiment.

【0162】図25に示す制御ルーチンのステップ20
0では、集音範囲100の直下の床にかかる重量を検出
する重量センサ82から検出結果を取込み、次のステッ
プ201ではその重量の検出結果が所定重量以上である
か否かを判定する。この判定が肯定された場合には、聴
取者102が集音範囲100の直下の床上に立った、即
ち聴取者102の頭部102Aが予め床面から所定の高
さ位置に設定された集音範囲100内に位置したと判断
できる。
Step 20 of the control routine shown in FIG.
At 0, the detection result is taken in from the weight sensor 82 that detects the weight applied to the floor immediately below the sound collection range 100, and at the next step 201, it is determined whether or not the detection result of the weight is a predetermined weight or more. When this determination is affirmed, the listener 102 stands on the floor directly below the sound collection range 100, that is, the head 102A of the listener 102 is set in advance at a predetermined height above the floor. It can be determined that the position is within the range 100.

【0163】検出された重量が所定重量未満である場合
は、聴取者102の頭部102Aが集音範囲100内に
位置していないと判断できるので、処理を終了する。検
出された重量が所定重量以上である場合は、ステップ2
02へ進み、既に第1実施形態において説明したステッ
プ202以降の処理を行う。
If the detected weight is less than the predetermined weight, it can be determined that the head 102A of the listener 102 is not located within the sound collection range 100, and the process is terminated. If the detected weight is greater than or equal to the predetermined weight, then step 2
Then, the process proceeds to 02, and the processes of step 202 and the subsequent steps already described in the first embodiment are performed.

【0164】これにより、聴取者102の頭部102A
が集音範囲100内に位置した場合にのみ、集音範囲1
00に音を集音し、聴取者102に音を聞かせることが
できるので、例えば、聴取者が所定の展示物の前に到来
した場合に、当該展示物を説明するアナウンスの集音を
開始することにより、聴取者に上記のアナウンスを最初
から聞かせることができる。
Thus, the head 102A of the listener 102
Sound collection range 1 only if is located within sound collection range 100
Since it is possible to collect a sound at 00 and make the listener 102 hear the sound, for example, when the listener arrives in front of a predetermined exhibit, the collection of an announcement explaining the exhibit is started. By doing so, the listener can hear the above announcement from the beginning.

【0165】なお、上記の第6実施形態と同様の効果を
奏する本発明の実施態様として、聴取者が特定動作を行
った場合にのみ、集音範囲に所定の音を集音するという
実施態様が考えられる。例えば、ショッピングセンタ等
において特定の商品を買物客が持ち上げたことを、当該
商品の陳列棚の下に配置された重量センサによる検出値
が所定値以下になったことによって検出し、その場合
に、当該商品の陳列棚の前を集音範囲として商品説明の
アナウンスを集音し、当該買物客にそのアナウンスを聞
かせることができる。また、図26において図示しない
展示物の前に押しボタン130を配置し、この押しボタ
ン130が押された場合に、展示物の前(押しボタン1
30の配設位置付近)を集音範囲として当該展示物の説
明のアナウンスを集音し、当該見物客にそのアナウンス
を聞かせることができる。
As an embodiment of the present invention having the same effect as that of the sixth embodiment, an embodiment in which a predetermined sound is collected in the sound collection range only when the listener performs a specific operation. Can be considered. For example, when a shopper lifts a specific product at a shopping center or the like, it is detected when the detection value of a weight sensor placed under the display shelf of the product becomes less than or equal to a predetermined value, and in that case, The announcement of the product description can be collected with the sound collection range in front of the display shelf of the product, and the shopper can hear the announcement. In addition, in FIG. 26, a push button 130 is arranged in front of an exhibit (not shown).
It is possible to collect the announcement of the explanation of the exhibit by using the sound collection range (around the disposition position of 30) as a sound collection range, and make the announcement heard by the visitor.

【0166】〔第7実施形態〕次に、本発明に係る第7
実施形態を説明する。本第7実施形態では、オブジェク
トに音を伝達するにあたり、広角固定焦点レンズを備え
た複数のテレビカメラによりオブジェクトを含む画像を
撮影し、その画像データに基づいてオブジェクトの位置
を認識し、その位置に基づいて集音範囲を設定する例を
示す。
[Seventh Embodiment] Next, a seventh embodiment according to the present invention
An embodiment will be described. In the present seventh embodiment, in transmitting sound to an object, an image including the object is captured by a plurality of TV cameras equipped with wide-angle fixed focus lenses, the position of the object is recognized based on the image data, and the position of the object is recognized. An example of setting the sound collection range based on

【0167】図27に示すように、天井86には、テレ
ビカメラ72が複数台(一例として4台)設置されてお
り、各テレビカメラ72には、広角固定焦点レンズとし
ての魚眼レンズ72Aが設置されている。これにより、
オブジェクトが移動している場合、静止している場合を
問わず、テレビカメラ72を動かさずに該オブジェクト
を撮影可能となっている。各テレビカメラ72は図28
に示すように、該テレビカメラ72で撮影した画像デー
タに対し所定の画像処理を行う画像処理装置74を介し
て制御装置12に内蔵されたI/O20に接続されてい
る。
As shown in FIG. 27, a plurality of TV cameras 72 (four as an example) are installed on the ceiling 86, and each TV camera 72 is equipped with a fisheye lens 72A as a wide-angle fixed focus lens. ing. This allows
Whether the object is moving or stationary, the object can be photographed without moving the television camera 72. Each TV camera 72 is shown in FIG.
As shown in FIG. 3, the image data captured by the television camera 72 is connected to the I / O 20 built in the control device 12 via an image processing device 74 that performs predetermined image processing.

【0168】なお、上記魚眼レンズ72Aとしては、例
えば、等距離射影(equidistance pro
jection)型、立体射影型、等立体角射影型、正
射影型等の種々の種類があり、本実施形態では何れの魚
眼レンズも使用可能であるが、以下、等距離射影型の魚
眼レンズを使用した例を説明する。また、各テレビカメ
ラ72はCCD(Charge−Coupled De
vice)エリアイメージセンサ72Bを備えている。
The fish-eye lens 72A may be, for example, equidistant projection.
injection type, three-dimensional projection type, equi-solid angle projection type, orthographic projection type, and any fish-eye lens can be used in the present embodiment, but the equidistant projection type fish-eye lens is used below. An example will be described. In addition, each TV camera 72 has a CCD (Charge-Coupled Decode).
vice) Area image sensor 72B is provided.

【0169】また、物や人・動物等のオブジェクトは床
や地面からの高さが概ね決まっており、更に、広角固定
焦点レンズとしての魚眼レンズ72Aは焦点深度が大き
いという特性を有しているので、テレビカメラ72が焦
点調整機構を有していなくても、鮮明にCCDエリアイ
メージセンサ72B上にオブジェクト像を結像すること
ができる。このようにして、複数のテレビカメラ72の
各々により、オブジェクトを含む所定の領域が各々異な
る位置から撮影される。
Since objects such as objects and people / animals have a substantially fixed height from the floor or the ground, and the fish-eye lens 72A as a wide-angle fixed-focus lens has a large depth of focus. Even if the television camera 72 does not have a focus adjustment mechanism, an object image can be clearly formed on the CCD area image sensor 72B. In this way, each of the plurality of television cameras 72 shoots a predetermined area including the object from different positions.

【0170】次に、本第7実施形態の作用を説明する。
オペレータが、オブジェクトとして対象人物Aを指定
し、中央制御装置11に設けられた図示しないスタート
ボタンをオンすると、図29に示す制御ルーチンが中央
制御装置11のCPU14により、前述した第1実施形
態と同じ図4に示す制御ルーチンが各スピーカモジュー
ル30のCPU48により、それぞれ実行される。
Next, the operation of the seventh embodiment will be described.
When the operator designates the target person A as an object and turns on a start button (not shown) provided in the central control unit 11, the control routine shown in FIG. The control routine shown in FIG. 4 is executed by the CPU 48 of each speaker module 30.

【0171】以下では、各スピーカモジュール30で実
行される処理の説明は省略し、中央制御装置11で実行
される音声信号供給処理について図29〜39を用いて
説明する。
Hereinafter, description of the processing executed by each speaker module 30 will be omitted, and the audio signal supply processing executed by the central control unit 11 will be described with reference to FIGS.

【0172】図29に示す音声信号供給処理は、前述し
た第1実施形態における図3の制御ルーチンにおいて、
ステップ210の集音範囲の位置情報の取込みに代わ
り、ステップ211で集音範囲の設定処理のサブルーチ
ン(図30参照)を実行する。
The audio signal supply process shown in FIG. 29 is performed by the control routine of FIG. 3 in the first embodiment described above.
Instead of fetching the position information of the sound collection range in step 210, a subroutine of the sound collection range setting process (see FIG. 30) is executed in step 211.

【0173】まず、この集音範囲の設定処理のサブルー
チンを説明する。図30に示すステップ250では、オ
ブジェクト分別処理(図31参照)を実行する。
First, the subroutine of this sound collection range setting process will be described. In step 250 shown in FIG. 30, object classification processing (see FIG. 31) is executed.

【0174】図31のステップ280では、オブジェク
ト(対象人物A)が部屋84内に存在しないときの画像
データAをROM16から読み出し、次のステップ28
2において各テレビカメラ72で撮影した画像データB
を各々取り込んでRAM18に記憶する。次のステップ
284では画像データBと画像データAとの差をとって
部屋84に存在する対象人物Aを認識する。
In step 280 of FIG. 31, the image data A when the object (target person A) does not exist in the room 84 is read from the ROM 16, and the next step 28
2. Image data B taken by each TV camera 72 in 2
Are fetched and stored in the RAM 18. In the next step 284, the target person A present in the room 84 is recognized by taking the difference between the image data B and the image data A.

【0175】次にステップ286では所定時間Tのタイ
マを設定し、次のステップ288では、所定時間Tの時
間待ちに入り、タイムアウトになると、ステップ290
へ進む。
Next, in step 286, a timer of a predetermined time T is set, and in the next step 288, the process waits for the predetermined time T, and when a time-out occurs, step 290
Go to.

【0176】ステップ290では、各テレビカメラ72
で撮影した画像データC(即ち、画像データBから所定
時間T経過後の画像データ)を取り込む。そして、次の
ステップ292では、RAM18に記憶した画像データ
Bを読み出し、画像データBと画像データCとを比較
し、次のステップ294ではこの比較結果に基づいて対
象人物Aが移動しているか否かを判断する。
In step 290, each television camera 72
The image data C captured in (i.e., the image data after a predetermined time T has elapsed from the image data B) is captured. Then, in the next step 292, the image data B stored in the RAM 18 is read, the image data B and the image data C are compared, and in the next step 294, whether or not the target person A has moved based on the comparison result. To judge.

【0177】対象人物Aが移動していない(静止してい
る)場合は、ステップ294で否定判断され図30のメ
インルーチンへリターンする。一方、対象人物Aが移動
している場合は、ステップ294で肯定判断されステッ
プ296へ進み、画像データBと画像データCとの差異
から対象人物Aの進行方向を求め(図32参照)、求め
た進行方向から対象人物Aの前後を判断する。そして、
次のステップ298で、対象人物Aの進行方向及び前後
に関する情報をRAM18に記憶し、図30のメインル
ーチンへリターンする。
If the target person A is not moving (still), a negative decision is made in step 294 and the process returns to the main routine of FIG. On the other hand, if the target person A is moving, an affirmative decision is made in step 294 and the operation proceeds to step 296, in which the direction of travel of the target person A is obtained from the difference between the image data B and the image data C (see FIG. 32). The front and back of the target person A are determined from the traveling direction. And
In the next step 298, the information regarding the traveling direction and the front and back of the target person A is stored in the RAM 18, and the process returns to the main routine of FIG.

【0178】次のステップ252では、対象人物Aの位
置及び高さを演算する。図33に示すように、点Oに固
定された等距離射影型魚眼レンズ72Aの焦点距離を
f、点Oから部屋84の床面88に垂直に下ろした点Q
までの距離をH、点Qから対象人物Aの床面88上の点
Pまでの距離をR、対象人物Aの高さ(対象人物Aの天
井方向の先端を点P’としたときに点P’と点Pとの距
離)をhとする。また、点POQのなす角をθ、点P’
OQのなす角をθ’、CCDエリアイメージセンサ72
BのCCD面上のオブジェクト像の高さに対応する距離
をh’、オブジェクト像h’のうち点Pに対応して結像
した点をp、オブジェクト像h’のうち点P’に対応し
て結像した点をp’、CCD面の画像中心(CCD面の
中心)oから点pまでの距離をr、CCD面の画像中心
oから点p’までの距離をr’とすると、角θ、θ’、
距離r、r’は次式(1)〜(4)により求めることが
できる。
At the next step 252, the position and height of the target person A are calculated. As shown in FIG. 33, the focal length of the equidistant projection type fisheye lens 72A fixed to the point O is f, and the point Q is set from the point O vertically to the floor surface 88 of the room 84.
To the point H, the distance from the point Q to the point P on the floor 88 of the target person A is R, and the height of the target person A (when the tip of the target person A in the ceiling direction is point P ′, The distance between P'and the point P) is h. Further, the angle formed by the point POQ is θ, and the point P ′ is
The angle formed by OQ is θ ′, and the CCD area image sensor 72
The distance corresponding to the height of the object image on the CCD surface of B is h ′, the point of the object image h ′ formed corresponding to the point P is p, and the point formed of the object image h ′ is the point P ′. If the point formed by the image formation is p ′, the distance from the image center of the CCD surface (center of the CCD surface) o to the point p is r, and the distance from the image center o of the CCD surface to the point p ′ is r ′, the angle is θ, θ ',
The distances r and r'can be calculated by the following equations (1) to (4).

【0179】 θ=tan-1(R/H) ・・・・・(1) θ’=tan-1{R/(H−h)} ・・・・・(2) r=fθ ・・・・・(3) r’=fθ’ ・・・・・(4) 従って、高さh及び距離Rは次式(5)及び(6)によ
り求めることができる。
Θ = tan −1 (R / H) (1) θ ′ = tan −1 {R / (H−h)} (2) r = fθ .. (3) r '= f?' (4) Therefore, the height h and the distance R can be obtained by the following equations (5) and (6).

【0180】 h=H{1−tan(r/f)/tan(r’/f)}・・・(5) R=Htan(r/f) ・・・・・(6) なお、距離H及び焦点距離fは予め定められており、式
(5)及び式(6)はROM16に記憶されている。こ
のため、このステップ252では、式(5)をROM1
6から読み出して1台のテレビカメラ72のCCD面上
の情報から高さhを演算し、式(6)を読み出して2台
のテレビカメラ72のCCD面上の情報からそれぞれ距
離Rを求め、求めた2つの距離Rから対象人物Aの2次
元位置を演算する。
H = H {1-tan (r / f) / tan (r ′ / f)} (5) R = Htan (r / f) (6) Note that the distance H And the focal length f are predetermined, and the equations (5) and (6) are stored in the ROM 16. Therefore, in this step 252, the equation (5) is stored in the ROM 1
6, the height h is calculated from the information on the CCD surface of one TV camera 72, the equation (6) is read, and the distance R is obtained from the information on the CCD surface of the two TV cameras 72, respectively. The two-dimensional position of the target person A is calculated from the obtained two distances R.

【0181】次のステップ254では、上記ステップ2
52で演算した位置を中心として3次元空間をX方向、
Y方向及びZ方向に沿って仮想的に細分割したマトリク
ス状の微小空間(以後、ボクセルと称す)を設定する。
これにより、画像データCはボクセルの集合体に変換さ
れる。図34は4台のテレビカメラA、B、C、Dから
対象人物Aを投影したとき、対象人物Aが占有するボク
セルを概念的に示す。
In the next step 254, the above step 2
A three-dimensional space around the position calculated in 52 in the X direction,
A matrix-shaped minute space (hereinafter referred to as a voxel) that is virtually subdivided along the Y direction and the Z direction is set.
As a result, the image data C is converted into a set of voxels. FIG. 34 conceptually shows voxels occupied by the target person A when the target person A is projected from the four television cameras A, B, C, and D.

【0182】即ち、各テレビカメラから対象人物Aを投
影したときの、対象人物Aの視野角内に位置するボクセ
ルは、影(死角)の部分RA 、RB 、RC 、RD も含め
て、対象人物Aが占有するボクセルとして設定される。
なお、ボクセルは、CCDエリアイメージセンサ72B
の解像度の限界まで細分割することが可能である。
That is, the voxels positioned within the viewing angle of the target person A when the target person A is projected from each television camera include the shadow (blind spot) portions R A , R B , R C , and R D. Are set as voxels occupied by the target person A.
The voxel is the CCD area image sensor 72B.
It is possible to subdivide to the resolution limit of.

【0183】次のステップ256では、画像データのう
ち対象人物Aが占有するボクセルを、対象人物Aの高さ
hに基づいて以下のようにして限定する第1次絞り込み
を行う。
In the next step 256, the voxels occupied by the target person A in the image data are subjected to the primary narrowing-down based on the height h of the target person A as follows.

【0184】対象人物Aの高さhは、成人の平均身長か
ら概ねその値が予め設定可能であるので、図35(A)
〜(D)に示すように各テレビカメラから対象人物Aを
投影したときに対象人物Aの視野角内に位置するボクセ
ルのうち、高さが0〜hの範囲のものを、対象人物Aが
占有するボクセルとして絞り込む。なお、ここで絞り込
まれたボクセルで形成される領域を第1次絞り込み領域
とする。
The height h of the target person A can be set in advance from the average height of an adult, so that FIG.
As shown in (D), when the target person A is projected from each TV camera, among the voxels positioned within the viewing angle of the target person A, those having a height range of 0 to h are Filter as occupied voxels. The region formed by the voxels narrowed down here is referred to as a primary narrowed region.

【0185】次にステップ258では各画像データにお
ける第1次絞り込み領域から、それら全てに重複する領
域に絞り込む第2次絞り込みを行う。これにより、図3
4に示した影の領域RA 、RB 、RC 、RD は対象人物
Aが占有するボクセルから排除され、図36に示すよう
に、対象人物Aが占めるボクセル132に絞りこまれ
る。次のステップ260では、このボクセル132によ
って、オブジェクトの位置及び形状を正確に認識する。
なお、ボクセルはCCDエリアイメージセンサ72Bの
解像度の限界まで細分化することができるので、オブジ
ェクトの形状を細部まで認識することも可能である。
Next, at step 258, the secondary narrowing-down is performed from the primary narrowing-down area in each image data to the area overlapping all of them. As a result, FIG.
Region R A shadow shown in 4, R B, R C, R D is eliminated from the voxel target person A is occupied, as shown in FIG. 36, it is narrowed to a voxel 132 occupied by the target person A. In the next step 260, the voxel 132 accurately recognizes the position and shape of the object.
Since the voxels can be subdivided to the resolution limit of the CCD area image sensor 72B, the shape of the object can be recognized in detail.

【0186】次のステップ262では、図37に示すよ
うに、ボクセル132の高さ、太さ等の寸法や、予めR
OM16に記憶された頭部の色差、目、鼻、口、耳の位
置、腕の長さや位置、つま先の向き、関節の自由度等の
人間の特徴に関する情報、さらに対象人物Aが移動して
いる場合にはRAM18に記憶した対象人物Aの進行方
向や前後に関する情報に基づいて、ダミーモデル134
へ変換する。
At the next step 262, as shown in FIG. 37, dimensions such as the height and thickness of the voxel 132 and the R are previously set.
Information about human characteristics such as the color difference of the head stored in the OM16, the positions of the eyes, nose, mouth, and ears, the length and position of the arm, the orientation of the toes, the degrees of freedom of joints, and the target person A is moved. If it is, the dummy model 134 is stored based on the information about the traveling direction and the front and back of the target person A stored in the RAM 18.
Convert to.

【0187】次のステップ264では、対象人物Aの頭
部を撮影対象とした所定数(一例として2台)のテレビ
カメラの選択を行い、選択した各テレビカメラのCCD
面上における対象人物Aの頭部の位置に対応する2次元
座標を取り込む。なお、テレビカメラの選択において
は、例えば、対象人物Aを写した際のオブジェクト像が
大きい順に選択してもよいし、対象人物Aの正面を捉え
たテレビカメラを選択してもよい。また、選択された2
台のテレビカメラをそれぞれカメラL、カメラRとす
る。
In the next step 264, a predetermined number (two as an example) of TV cameras whose heads of the target person A are to be photographed are selected, and the CCD of each selected TV camera is selected.
Two-dimensional coordinates corresponding to the position of the head of the target person A on the surface are captured. In selecting the television camera, for example, the object image when the target person A is photographed may be selected in descending order, or the television camera that captures the front of the target person A may be selected. Also, the selected 2
The two TV cameras are referred to as camera L and camera R, respectively.

【0188】次のステップ266では3次元座標を演算
する。図38に示すように、カメラLの3次元座標Cを
(X,0,Z)、カメラRの3次元座標C’を(X’,
0,Z)とする。また、対象人物Aの頭部の位置に対応
するカメラLのCCD面上の座標PL を(α1
β1 )、カメラLのCCD面の画像中心OL から座標P
L までの距離をr、対象人物Aの頭部の位置に対応する
カメラRのCCD面上の座標PR を(α1 ’,
β1 ’)、カメラRのCCD面の画像中心OR から座標
R までの距離をr’、座標PL 及び座標PR から出た
光を仮想したときに2つの光が交わる点、即ち、対象人
物Aの頭部の3次元座標Pを(x,y,z)とする。
At the next step 266, three-dimensional coordinates are calculated. As shown in FIG. 38, the three-dimensional coordinate C of the camera L is (X, 0, Z) and the three-dimensional coordinate C ′ of the camera R is (X ′,
0, Z). Further, the coordinate P L on the CCD surface of the camera L corresponding to the position of the head of the target person A is (α 1 ,
β 1 ), coordinates P from the image center O L on the CCD surface of the camera L
The distance to L is r, and the coordinate P R on the CCD surface of the camera R corresponding to the position of the head of the target person A is (α 1 ',
beta 1 '), the distance from the image center O R of the CCD of the camera R to the coordinates P R r', that is two light intersect when virtual light emitted from the coordinate P L and coordinates P R, i.e. , The three-dimensional coordinate P of the head of the target person A is (x, y, z).

【0189】また、カメラLの3次元座標位置からZ軸
に平行に下ろした垂線の足と、点Pを含みZ軸に垂直な
平面と、の交点Sの座標を(X,0,z)とし、カメラ
Rの3次元座標位置からZ軸に平行に下ろした垂線の足
と、点Pを含みZ軸に垂直な平面と、の交点S’の座標
を(X’,0,z)とする。更に、点PCSのなす角を
θ1 、点PC’S’のなす角をθ1 ’、点PSS’のな
す角をφ、点PS’Sのなす角をφ’とする。
Further, the coordinates of the intersection S of the perpendicular leg drawn parallel to the Z-axis from the three-dimensional coordinate position of the camera L and the plane including the point P and perpendicular to the Z-axis are (X, 0, z). And the coordinates of the intersection S'of the perpendicular leg dropped from the three-dimensional coordinate position of the camera R parallel to the Z axis and the plane including the point P and perpendicular to the Z axis are (X ', 0, z). To do. Further, the angle formed by the point PCS is θ 1 , the angle formed by the point PC ′S ′ is θ 1 ′, the angle formed by the point PSS ′ is φ, and the angle formed by the point PS ′S is φ ′.

【0190】CCD面上で画像中心OL から像までの距
離rは、上述した式(3)により、 r=fθ1 として求められる。
The distance r from the image center O L to the image on the CCD surface is obtained by the above equation (3) as r = fθ 1 .

【0191】また、それぞれα1 、β1 は、 α1 =fθ1 cos(π−φ)=−fθ1 cosφ β1 =fθ1 sin(π−φ)=fθ1 sinφ ・・・(7) である。ここで、 sinφ=y/{(x−X)2 +y2 1/2 ・・・(8) cosφ=(x−X)/{(x−X)2 +y2 1/2 であるので、α1 、β1 は、 α1 =−fθ1 (x−X)/{(x−X)2 +y2 1/2 ・・・・(9) β1 =fθ1 y/{(x−X)2 +y2 1/2 ・・・(10) として求めることができる。式(10)を式(9)で割
ることにより、 y=(β1 /α1 )(X−x) ・・・(11) 同様に、 y=(β1 ’/α1 ’)(X’−x) ・・・(12) 式(11)と式(12)とからyを消去して、 x=(α1 β1 ’X’−α1 ’β1 X)/(α1 β1 ’−α1 ’β1 ) ・・・(13) により3次元座標PのX座標を求めることができる。
[0191] In addition, each α 1, β 1 is, α 1 = fθ 1 cos ( π-φ) = - fθ 1 cosφ β 1 = fθ 1 sin (π-φ) = fθ 1 sinφ ··· (7) Is. Here, sin φ = y / {(x−X) 2 + y 2 } 1/2 (8) cos φ = (x−X) / {(x−X) 2 + y 2 } 1/2 , Α 1 and β 1 are α 1 = −fθ 1 (x−X) / {(x−X) 2 + y 2 } 1/2 ... (9) β 1 = fθ 1 y / {(x -X) 2 + y 2 } 1/2 ... (10) By dividing Expression (10) by Expression (9), y = (β 1 / α 1 ) (X−x) (11) Similarly, y = (β 1 ′ / α 1 ′) (X '−x) (12) Eliminating y from equation (11) and equation (12), x = (α 1 β 1 'X'-α 11 X) / (α 1 β 1 '-α 1' β 1) by (13) can be determined X-coordinate of the three-dimensional coordinates P.

【0192】次に、式(11)と式(13)とからxを
消去して、 y=β1 β1 ’(X−X’)/(α1 β1 ’−α1 ’β1 )・・(14) により3次元座標PのY座標を求めることができる。
Then, x is eliminated from the equations (11) and (13), and y = β 1 β 1 ′ (X−X ′) / (α 1 β 1 ′ −α 1 ′ β 1 ). The Y coordinate of the three-dimensional coordinate P can be calculated by (14).

【0193】ところで、 θ1 =tan-1[{(x−X)2 +y2 1/2 /(Z−
z)] であるので、式(7)、式(8)から β1 /(fsinφ)=tan-1[{(x−X)2 +y
2 1/2/(Z−z)] 従って、 z=Z−[{(x−X)2 +y2 1/2 /tan[(β1 /f) ×{(x−X)2 +y2 1/2 /y] ・・・(15) また、式(11)から {(x−X)2 +y2 1/2 =(x−X)×{1+(β
1 /α1 2 1/2 式(11)と式(14)とから (x−X)=(X’−X)/{1−(α1 ’/α1 )×
(β1 /β1 ’)} であるので、式(15)は、 z=Z+[(X’−X)×{1+(β1 /α1 2 1/2 /{1−(α1 ’/α1 )×(β1 /β1 ’)}] /tan{(α1 2 +β1 2 1/2 /f} ・・・(16) と表すことができ、3次元座標PのZ座標を求めること
ができる。
By the way, θ 1 = tan -1 [{(x-X) 2 + y 2 } 1/2 / (Z-
z)], therefore, β 1 / (fsin φ) = tan −1 [{(x−X) 2 + y from Equation (7) and Equation (8).
2} 1/2 / (Z-z )] Thus, z = Z - [{( x-X) 2 + y 2} 1/2 / tan [(β 1 / f) × {(x-X) 2 + y 2 } 1/2 / y] (15) Further, from the formula (11), {(x−X) 2 + y 2 } 1/2 = (x−X) × {1+ (β
1 / α 1 ) 2 } 1/2 From formula (11) and formula (14), (x−X) = (X′−X) / {1− (α 1 ′ / α 1 ) ×
Since (β 1 / β 1 ′)}, the equation (15) is expressed by z = Z + [(X′−X) × {1+ (β 1 / α 1 ) 2 } 1/2 / {1- (α 1 '/ α 1 ) × (β 1 / β 1 ')}] / tan {(α 1 2 + β 1 2 ) 1/2 / f} (16), which can be expressed as the three-dimensional coordinate P The Z coordinate of can be obtained.

【0194】なお、各テレビカメラ16の3次元座標は
予め定められているので、ステップ266では、ROM
16から式(13)、(14)、(16)を読み出し、
ステップ264で取り込んだカメラLのCCD面上の座
標PL (α1 ,β1 )及びカメラRのCCD面上の座標
R (α1 ’,β1 ’)の値を、式(13)、(1
4)、(16)に代入することにより、対象人物Aの頭
部の3次元座標P(x,y,z)を求めることができ
る。
Since the three-dimensional coordinates of each TV camera 16 are predetermined, the ROM is determined in step 266.
Equations (13), (14), and (16) are read from 16 and
The values of the coordinates P L1 , β 1 ) on the CCD surface of the camera L and the coordinates P R1 ', β 1 ') on the CCD surface of the camera R captured in step 264 are given by equation (13). , (1
By substituting into 4) and (16), the three-dimensional coordinates P (x, y, z) of the head of the target person A can be obtained.

【0195】次のステップ268では、前述した第5実
施形態での図21のステップ235における処理と同様
にして、対象人物Aの頭部の向きを推定する。そして、
次のステップ270では、ステップ266で求めた頭部
の位置(3次元座標)から対象人物Aの前方に所定距離
(例えば約30センチメートル)離間した位置を、対象
人物Aに対する集音範囲として設定し、リターンする。
なお、このステップ270では、上記の例以外にも対象
人物Aの頭部を含む所定の大きさの領域範囲を集音範囲
として設定しても良い。
At the next step 268, the orientation of the head of the target person A is estimated in the same manner as the processing at step 235 of FIG. 21 in the fifth embodiment described above. And
In the next step 270, a position separated by a predetermined distance (for example, about 30 cm) in front of the target person A from the position of the head (three-dimensional coordinate) obtained in step 266 is set as the sound collection range for the target person A. And then return.
In this step 270, an area range of a predetermined size including the head of the target person A may be set as the sound collection range other than the above example.

【0196】このように本第7実施形態によれば、広角
固定焦点レンズ72Aを用いて撮影しているので、テレ
ビカメラ72を動かしたり焦点調整を行う必要はない。
このため、オブジェクト(対象人物A)を捉えるまでの
時間を短縮することができ、速やかにオブジェクトの位
置を認識することができる。
As described above, according to the seventh embodiment, since the wide-angle fixed focus lens 72A is used for photographing, it is not necessary to move the television camera 72 or perform focus adjustment.
Therefore, it is possible to shorten the time until the object (target person A) is captured, and it is possible to quickly recognize the position of the object.

【0197】また、テレビカメラの向きを変えたり焦点
を調整調整するための機構が不要となるので、オブジェ
クトを捉える作業を自動化することができると共に、駆
動部分がなくなるので、テレビカメラの耐久性や信頼性
を高めることができる。
Further, since the mechanism for changing the direction of the television camera and adjusting the focus is unnecessary, the work for capturing the object can be automated and the driving part is eliminated, so that the durability of the television camera can be improved. The reliability can be increased.

【0198】また、1つのオブジェクトに対して複数の
テレビカメラにより撮影しているので、例えば家具等の
視野を遮る障害物や他のオブジェクトが存在していて
も、3次元座標を演算することができる。
Further, since one object is photographed by a plurality of television cameras, three-dimensional coordinates can be calculated even if there are obstacles such as furniture that obstruct the visual field and other objects. it can.

【0199】また、テレビカメラは3次元空間を構成す
る部屋の天井に配置されているので、壁面を有効に使用
することができる。なお、本第7実施形態では複数のテ
レビカメラ72を天井86に配置したが、図39の
(A)〜(F)に示すように、壁の近くに配置したり壁
に埋め込んで配置してもよく、天井と壁で構成される2
面のコーナー部や天井と2面の壁で構成される3面のコ
ーナー部に配置してもよい。更に、図39の(M)〜
(O)に示すように、等距離射影型魚眼レンズ72Aを
部屋の中心に向けるようにしてもよい。
Further, since the television camera is arranged on the ceiling of the room forming the three-dimensional space, the wall surface can be effectively used. Although the plurality of TV cameras 72 are arranged on the ceiling 86 in the seventh embodiment, they may be arranged near the wall or embedded in the wall as shown in FIGS. 39 (A) to (F). Well, 2 composed of ceiling and wall
It may be arranged at a corner portion of the surface or at a corner portion of three surfaces composed of a ceiling and two walls. Furthermore, (M) to FIG.
As shown in (O), the equidistant projection type fisheye lens 72A may be directed to the center of the room.

【0200】また、本第7実施形態では、図31に示す
オブジェクト分別処理におけるステップ280で、オブ
ジェクトが部屋84内に存在しないときの画像データA
を読み出したが、このステップ280を行わないで、テ
レビカメラ72で撮影した画像データBと画像データB
から所定時間T経過後の画像データCとに基づいて、オ
ブジェクトを認識するようにしてもよい。
Further, in the seventh embodiment, in step 280 in the object classification processing shown in FIG. 31, the image data A when the object does not exist in the room 84 is displayed.
However, the image data B and the image data B captured by the TV camera 72 are skipped without performing step 280.
The object may be recognized based on the image data C after the lapse of a predetermined time T from.

【0201】また、本第7実施形態では2台のテレビカ
メラを用いてオブジェクトを含む画像を撮影したが、3
台以上のテレビカメラを用いても良い。
In addition, in the seventh embodiment, an image including an object is photographed by using two television cameras.
More than one TV camera may be used.

【0202】また、本第7実施形態では、等距離射影型
魚眼レンズを用いたが、上述したように等立体角射影型
魚眼レンズ、立体射影型魚眼レンズや正射影型魚眼レン
ズを用いても、上記と同様に対象人物Aの頭部の3次元
座標を演算することができる。以下に等立体角射影型魚
眼レンズを用いたときの式(1)〜式(6)に相当する
式をそれぞれ次の式(1)’〜式(6)’を示す。
Further, although the equidistant projection type fisheye lens is used in the seventh embodiment, the same effect can be obtained by using the equisolid angle projection type fisheye lens, the stereoscopic projection type fisheye lens or the orthographic projection type fisheye lens as described above. Then, the three-dimensional coordinates of the head of the target person A can be calculated. The following equations (1) ′ to (6) ′ are equations corresponding to the equations (1) to (6) when the equisolid angle projection type fisheye lens is used.

【0203】 θ=tan-1(R/H) ・・・・・(1)’ θ’=tan-1{R/(H−h)} ・・・・・(2)’ r=2fsin(θ/2) ・・・・・(3)’ r’=2fsin(θ’/2) ・・・・・(4)’ h=H[1−tan{2sin-1(r/2f)} /tan{2sin-1(r’/2f)}] ・・・・・(5)’ R=Htan{2sin-1(r/2f)} ・・・・・(6)’ 〔第8実施形態〕次に、本発明に係る第8実施形態につ
いて説明する。本第8実施形態では、オブジェクトに音
を伝達するにあたり、1台のテレビカメラと1枚の鏡と
を用いて得たオブジェクトを含む画像データに基づい
て、オブジェクトの位置を認識し、その位置に応じて集
音範囲を設定する例を示す。
Θ = tan −1 (R / H) (1) ′ θ ′ = tan −1 {R / (H−h)} (2) ′ r = 2f sin ( θ / 2) (3) 'r' = 2 fsin (θ '/ 2) ... (4)' h = H [1-tan {2 sin -1 (r / 2f)} / tan {2sin −1 (r ′ / 2f)}] (5) ′ R = Htan {2sin −1 (r / 2f)} (6) ′ [Eighth embodiment] Next, an eighth embodiment according to the invention will be described. In the eighth embodiment, when transmitting sound to an object, the position of the object is recognized based on the image data including the object obtained by using one TV camera and one mirror, and the position of the object is recognized. An example in which the sound collection range is set according to the above is shown.

【0204】図40に示すように、各テレビカメラ72
の1側面には、CCDエリアイメージセンサ72Bの1
端面の方向(X方向)と平行で鉛直方向(Z方向)に縦
長の鏡136が天井86に固設されている。
As shown in FIG. 40, each television camera 72
One side of the CCD area image sensor 72B is
A vertically long mirror 136 is fixed to the ceiling 86 in the vertical direction (Z direction) in parallel with the direction of the end surface (X direction).

【0205】次に、本第8実施形態の等距離射影型魚眼
レンズ72A、CCDエリアイメージセンサ72B及び
鏡136の位置、距離及び角度等の諸量を図40、41
を参照して説明する。なお、図41は等距離射影型魚眼
レンズ72AとCCDエリアイメージセンサ72Bとの
距離は微小であるものとして無視したときの上記諸量の
詳細を表したものである。
Next, various amounts such as the position, distance and angle of the equidistant projection type fisheye lens 72A, the CCD area image sensor 72B and the mirror 136 of the eighth embodiment are shown in FIGS.
Will be described with reference to. Note that FIG. 41 shows the details of the above-mentioned amounts when the distance between the equidistant projection type fisheye lens 72A and the CCD area image sensor 72B is neglected as being small.

【0206】図40に示すように、CCDエリアイメー
ジセンサ72BのCCD面と同一のXY平面上にある鏡
136の上端部の中央を3次元座標の原点O(0,0,
0)にとる。CCD面の画像中心Hは原点OからY方向
に距離hだけ離れており、画像中心Hの3次元座標を
(0,h,0)にとる。なお、対象人物Aの所定部位
(例えば頭部)Pの3次元座標を(x,y,z)とし、
点Pから出た光は等距離射影型魚眼レンズ72Aで屈折
してCCD面上の点Dに結像する。このCCD面上の点
Dの2次元座標を(αD ,βD )とする。また、点Pか
ら出た光で鏡136により反射した光は等距離射影型魚
眼レンズ72Aで屈折してCCD面上の点Rに結像す
る。このCCD面上の点Rの2次元座標を(αR
βR )とする。なお、鏡136がないときの仮想のテレ
ビカメラ73を想定し、CCD面の画像中心H’の3次
元座標を(0,−h,0)にとったときに、点Pから出
た光は仮想の等距離射影型魚眼レンズ73Aで屈折して
仮想のCCDエリアイメージセンサ73BのCCD面上
の点R’に結像するものとし、上述した点Rと仮想した
点R’とは鏡136に対して対称であるものとする。ま
た、CCD面上の画像中心Hから点Dまでの距離を
D 、CCD面上の画像中心Hから点Rまでの距離をr
R とする。
As shown in FIG. 40, the center of the upper end of the mirror 136 on the same XY plane as the CCD surface of the CCD area image sensor 72B is located at the origin O (0,0,0,0) of the three-dimensional coordinate.
Take 0). The image center H of the CCD surface is separated from the origin O in the Y direction by a distance h, and the three-dimensional coordinate of the image center H is set to (0, h, 0). In addition, the three-dimensional coordinates of a predetermined part (for example, head) P of the target person A are (x, y, z),
The light emitted from the point P is refracted by the equidistant projection type fisheye lens 72A and forms an image on the point D on the CCD surface. The two-dimensional coordinates of the point D on the CCD surface are (α D , β D ). Further, the light emitted from the point P and reflected by the mirror 136 is refracted by the equidistant projection type fisheye lens 72A and forms an image at the point R on the CCD surface. The two-dimensional coordinate of the point R on this CCD surface is (α R ,
β R ). Assuming a virtual TV camera 73 without the mirror 136, the light emitted from the point P when the three-dimensional coordinates of the image center H ′ on the CCD surface is (0, −h, 0). It is assumed that the light is refracted by the virtual equidistant projection type fisheye lens 73A to form an image at a point R'on the CCD surface of the virtual CCD area image sensor 73B. The above-mentioned point R and the virtual point R'are relative to the mirror 136. Be symmetrical. Further, the distance from the image center H on the CCD surface to the point D is r D , and the distance from the image center H on the CCD surface to the point R is r
Let R.

【0207】図41に示したように、点HからZ方向に
下ろした垂線上にある任意の点を点Vとし、点H’から
Z方向に下ろした垂線上にある任意の点を点V’とした
とき、点PHVのなす角を角θD 、点PH’V’のなす
角を角θR'とする。また、3次元座標(x,y,0)で
表される点を点S、点Sと点Hとの距離を距離BR 、点
Sと点H’との距離を距離BR'、点Pと点Hとの距離を
距離AD 、点Pと点H’との距離を距離AR'とする。
As shown in FIG. 41, an arbitrary point on the perpendicular line drawn from the point H in the Z direction is a point V, and an arbitrary point on the perpendicular line drawn from the point H'in the Z direction is a point V. The angle formed by the point PHV is the angle θ D , and the angle formed by the point PH'V 'is the angle θ R' . Also, three-dimensional coordinates (x, y, 0) point S to the point represented by the distance the distance B R between points S and H, 'distance the distance B R of the' points S and H, the point The distance between P and the point H is defined as a distance A D , and the distance between the point P and a point H ′ is defined as a distance A R ′ .

【0208】次に、本第8実施形態の作用について説明
する。本第8実施形態は前記第7実施形態と略同一であ
り、図29〜31の制御ルーチンも同様であるので、以
下では前記第7実施形態と異なる対象人物Aの位置演算
に係る処理のみを説明する。
Next, the operation of the eighth embodiment will be described. Since the eighth embodiment is substantially the same as the seventh embodiment and the control routines of FIGS. 29 to 31 are also the same, only the processing relating to the position calculation of the target person A different from the seventh embodiment will be described below. explain.

【0209】図30に示す集音範囲の設定処理における
ステップ264では、対象人物Aを撮影するための1台
のテレビカメラ72を選択(例えば距離rD が最も小さ
いテレビカメラを選択)し、対象人物Aの頭部の位置に
対応するCCD面上の点D(αD ,βD )及び点R(α
R ,βR )の各々の2次元座標値を取り込む。
In step 264 in the sound collection range setting process shown in FIG. 30, one TV camera 72 for photographing the target person A is selected (for example, the TV camera with the smallest distance r D is selected), and the target person A is selected. A point D (α D , β D ) and a point R (α on the CCD surface corresponding to the position of the head of the person A.
Each two-dimensional coordinate value of R , β R ) is taken in.

【0210】次のステップ266では対象人物Aの頭部
の3次元座標を演算する。ここで、図40、41を参照
して上述した諸量について更に説明する。
At the next step 266, the three-dimensional coordinates of the head of the target person A are calculated. Here, the various quantities described above will be further described with reference to FIGS.

【0211】角θD 及びθR'はそれぞれ、 θD =tan-1(BD /Q) =tan-1[{(y−h)2 +x2 1/2 /z] θR'=tan-1(BR'/Q) =tan-1[{(y+h)2 +x2 1/2 /z] により求めることができるので、上記式(3)から距離
D 及びrR は次式により表される。
[0211] angle theta D and theta R 'are each, θ D = tan -1 (B D / Q) = tan -1 [{(y-h) 2 + x 2} 1/2 / z] θ R' = tan −1 (BR / Q) = tan −1 [{(y + h) 2 + x 2 } 1/2 / z], the distances r D and r R can be calculated from the above equation (3) as follows. It is represented by a formula.

【0212】 rD =f・tan-1[{(y−h)2 +x2 1/2 /z] rR =f・tan-1[{(y+h)2 +x2 1/2 /z] ところで、 αD =rD cos(π−φD )=−rD cosφD ・・・(17) βD =rD sin(π−φD )=rD sinφD ・・・(18) αR =rR cosφR' (∵φR'=φR ) ・・・(19) βR =rR sinφR' (∵φR'=φR ) ・・・(20) また、 cosφD =(y−h)/{(y−h)2 +x2 1/2 ・・・(21) sinφD =x/{(y−h)2 +x2 1/2 ・・・(22) cosφR'=(y+h)/{(y+h)2 +x2 1/2 ・・・(23) sinφR'=x/{(y+h)2 +x2 1/2 ・・・(24) であるので、式(17)及び式(21)並びに式(1
8)及び式(22)から、 αD =−fθD (y−h)/{(y−h)2 +x2 1/2 ・・・(25) βD =fθD x/{(y−h)2 +x2 1/2 ・・・(26) と表すことができる。この2つの式からfθD を消去す
ると、 y=h−(αD /βD )x ・・・(27) 同様に、 αR =fθR'(y+h)/{(y+h)2 +x2 1/2 ・・・(28) βR =fθR'x/{(y+h)2 +x2 1/2 ・・・(29) y=−h+(αR /βR )x ・・・(30) 式(27)及び(30)から x=2hβD βR /(αD βR +αR βD ) ・・・(31) により3次元座標PのX座標を求めることができる。
R D = f · tan -1 [{(y-h) 2 + x 2 } 1/2 / z] r R = f · tan -1 [{(y + h) 2 + x 2 } 1/2 / z Incidentally, α D = r D cos ( π-φ D) = - r D cosφ D ··· (17) β D = r D sin (π-φ D) = r D sinφ D ··· (18) α R = r R cos φ R ' (∵ φ R' = φ R ) ・ ・ ・ (19) β R = r R sin φ R ' (∵ φ R ' = φ R ) ・ ・ ・ (20) Also, cos φ D = (Y−h) / {(y−h) 2 + x 2 } 1/2 ... (21) sin φ D = x / {(y−h) 2 + x 2 } 1/2 ... (22) cos φ R ' = (y + h) / {(y + h) 2 + x 2 } 1/2 ... (23) sin φ R' = x / {(y + h) 2 + x 2 } 1/2 ... (24) Therefore, equation (17) and equation (21) and equation (1
8) and equation (22), α D = −fθ D (y−h) / {(y−h) 2 + x 2 } 1/2 ... (25) β D = fθ D x / {(y -H) 2 + x 2 } 1/2 ... (26) Eliminating fθ D from these two equations, y = h− (α D / β D ) x (27) Similarly, α R = fθ R ′ (y + h) / {(y + h) 2 + x 2 } 1/2 ··· (28) β R = fθ R 'x / {(y + h) 2 + x 2} 1/2 ··· (29) y = -h + (α R / β R) x ··· ( 30) (27) and (can be obtained X coordinate of from 30) x = 2hβ D β R / (α D β R + α R β D) 3 -dimensional coordinate P by ... (31).

【0213】次に、式(31)を式(27)に代入し
て、 y=h(αR βD −αD βR )/(αD βR +αR βD )・・・(32) により3次元座標PのY座標を求めることができる。
Next, by substituting the equation (31) into the equation (27), y = h (α R β D −α D β R ) / (α D β R + α R β D ) ... (32 ), The Y coordinate of the three-dimensional coordinate P can be obtained.

【0214】また、 βD =rD sinφD =fθD sinφD =f・tan-1[{(y−h)2 +x2 1/2 /z]・
sinφD この式を変形して、 z={(y−h)2 +x2 1/2 /tan(βD /fs
inφD ) ={(y−h)2 +x2 1/2/tan[(βD /f)
×{(y−h)2 +x2 1/2 /x] ところで、式(31)及び式(32)から、 {(y−h)2 +x2 1/2 =2hβR (αD 2 +βD
2 1/2/(αD βR +αR βD ) であるので、 z=2hβR (αD 2 +βD 2 1/2 /[(αD βR +αR βD )×tan{(αD 2 +βD 2 1/2 /f}] ・・・(33) により3次元座標PのZ座標を求めることができる。
Further, β D = r D sinφ D = fθ D sinφ D = f · tan −1 [{(y−h) 2 + x 2 } 1/2 / z] ·
sin φ D By modifying this formula, z = {(y−h) 2 + x 2 } 1/2 / tan (β D / fs
inφ D ) = {(y−h) 2 + x 2 } 1/2 / tan [(β D / f)
× {(y−h) 2 + x 2 } 1/2 / x] From the equations (31) and (32), {(y−h) 2 + x 2 } 1/2 = 2hβ RD 2 + Β D
2 ) 1/2 / (α D β R + α R β D ), so z = 2hβ RD 2 + β D 2 ) 1/2 / [(α D β R + α R β D ) × tan { (Α D 2 + β D 2 ) 1/2 / f}] (33), the Z coordinate of the three-dimensional coordinate P can be obtained.

【0215】なお、鏡136からのCCD面の画像中心
Hまでの距離hは予め定められている。従って、ステッ
プ266では、ROM16から式(31)、(32)、
(33)を読み出し、ステップ264で取り込んだCC
D面上の点D(αD ,βD )及び点R(αR ,βR )の
各々の2次元座標値を代入して対象人物Aの頭部の3次
元座標P(x,y,z)を演算する。
The distance h from the mirror 136 to the image center H on the CCD surface is predetermined. Therefore, in step 266, the equations (31), (32),
(33) is read and the CC fetched in step 264
By substituting the two-dimensional coordinate values of each of the points D (α D , β D ) and the points R (α R , β R ) on the D surface, the three-dimensional coordinates P (x, y, z) is calculated.

【0216】このように本第8実施形態によれば、1台
のテレビカメラによって対象人物Aの頭部の3次元座標
を演算することができるので、天井86に設置するテレ
ビカメラの台数を少なくすることができる。
As described above, according to the eighth embodiment, the three-dimensional coordinates of the head of the target person A can be calculated by one TV camera, so that the number of TV cameras installed on the ceiling 86 can be reduced. can do.

【0217】なお、本第8実施形態では、天井86に設
置された1台のテレビカメラ及び1枚の鏡によりオブジ
ェクトの3次元座標を演算する例を示したが、図39の
(G)〜(L)に示したように、鏡を壁面に取付けるよ
うにしてもよいし、1台のテレビカメラ及び複数の鏡を
使用してもよい。また、湾曲した鏡を使用してもよい。
複数の鏡を使用した場合、CCD面にはより多くのオブ
ジェクト像が形成されるので、他の物体(例えば家具や
柱等)により死角が生じても、上記のようにして3次元
座標を演算することができる。
In the eighth embodiment, one TV camera and one mirror installed on the ceiling 86 are used to calculate the three-dimensional coordinates of the object, but FIGS. As shown in (L), a mirror may be attached to the wall surface, or one TV camera and a plurality of mirrors may be used. Also, curved mirrors may be used.
When multiple mirrors are used, more object images are formed on the CCD surface, so even if a blind spot occurs due to another object (such as furniture or a pillar), the three-dimensional coordinates are calculated as described above. can do.

【0218】〔第9実施形態〕次に、本発明に係る第9
実施形態について説明する。本第9実施形態では、オブ
ジェクトの音の抽出を行うにあたり、ボクセルを設定す
ることなくオブジェクトの形状を認識する例を示す。
[Ninth Embodiment] Next, a ninth embodiment according to the present invention
An embodiment will be described. The ninth embodiment shows an example in which the shape of an object is recognized without setting voxels when extracting the sound of the object.

【0219】本第9実施形態における制御装置12は、
オブジェクト像を含む歪曲した画像データを、平面化し
た画像データに変換し、該変換した画像データに基づい
て少なくともオブジェクト像の正面、背面、左側面、右
側面及び平面の画像データを求め、該求めた画像データ
を合成してオブジェクトを認識する機能を有する。な
お、本第9実施形態では説明を簡単にするために、図4
3に示したように対象人物AをテレビカメラA、B、
C、Dで捉えた場合を想定する。
The control device 12 in the ninth embodiment is
The distorted image data including the object image is converted into flattened image data, and at least the front, back, left side, right side, and flat image data of the object image are obtained based on the converted image data, and the obtained It has a function of recognizing an object by synthesizing the image data. In the ninth embodiment, in order to simplify the description, FIG.
As shown in FIG. 3, the target person A is the TV cameras A, B,
Assume the case of capturing in C and D.

【0220】次に、本第9実施形態の作用について説明
する。図42に示す集音範囲の設定処理におけるステッ
プ251では、テレビカメラA、B、C、Dにより撮影
された画像データを取り込む。このステップ251で取
り込んだ画像データの画像は、図44(A)〜(D)に
示すように歪曲が生じている。次のステップ253で
は、これらの歪曲した画像の画像データを、図45
(A)〜(D)に示すような平面化した画像データに変
換する。
Next, the operation of the ninth embodiment will be described. In step 251 in the process of setting the sound collection range shown in FIG. 42, the image data captured by the television cameras A, B, C and D is captured. The image of the image data captured in step 251 is distorted as shown in FIGS. 44 (A) to (D). In the next step 253, the image data of these distorted images is converted into the image data shown in FIG.
It is converted into flattened image data as shown in (A) to (D).

【0221】次のステップ255では、平面化した画像
データから対象人物Aの前面、背面、左側面、右側面及
び平面の画像データを求める。図46(A)〜(C)に
は、このステップ255で求められた対象人物Aの前
面、右側面及び平面の画像データをそれぞれ示す。次の
ステップ257では、ステップ255で求めた前面、背
面、左側面、右側面及び平面の画像データを合成する。
これにより、オブジェクトの形状を認識することができ
る。
At the next step 255, the image data of the front, back, left side, right side and plane of the target person A is obtained from the flattened image data. 46A to 46C show image data of the front face, right side face, and plane of the target person A obtained in step 255, respectively. In the next step 257, the image data of the front surface, the back surface, the left side surface, the right side surface and the plane surface obtained in step 255 are combined.
Thereby, the shape of the object can be recognized.

【0222】以後のステップ264〜270では、前記
第7実施形態と同様にして、前記合成した対象人物Aの
画像データに基づく、対象人物Aの頭部の位置演算・向
きの推定を行い、集音範囲を設定する。
In subsequent steps 264 to 270, the position calculation and the orientation estimation of the head of the target person A are performed based on the combined image data of the target person A, in the same manner as in the seventh embodiment. Set the sound range.

【0223】このように本第9実施形態によれば、ボク
セルを設定することなくオブジェクトの形状を認識する
ことができる。
As described above, according to the ninth embodiment, the shape of the object can be recognized without setting voxels.

【0224】なお、上記第7〜第9実施形態のテレビカ
メラ72は可視光のテレビカメラを用いたが、これを例
えば、赤外線カメラのように可視光以外の波長域で撮影
するようにしてもよい。このようにすれば、照明灯が点
灯していないときにもオブジェクトを撮影することがで
きるので、防犯装置や監視装置としても使用することが
可能となる。
Although the TV camera 72 of the seventh to ninth embodiments is a visible light TV camera, it may be taken in a wavelength range other than visible light such as an infrared camera. Good. With this configuration, the object can be photographed even when the illumination lamp is not turned on, and thus the object can be used as a crime prevention device or a monitoring device.

【0225】また、上記第7〜第9実施形態では、第1
実施形態の音伝達装置10に、広角固定焦点レンズとし
ての魚眼レンズ72A及びCCDエリアイメージセンサ
72Bを備えたテレビカメラ72を適用することによ
り、オブジェクトの位置、形状を効率的に(速やかに)
求める例を示したが、上記第2〜第6実施形態の音伝達
装置10に、広角固定焦点レンズとしての魚眼レンズ7
2A及びCCDエリアイメージセンサ72Bを備えたテ
レビカメラ72を適用しても同様の効果を得ることがで
きる。
In addition, in the seventh to ninth embodiments, the first
By applying the television camera 72 including the fisheye lens 72A as a wide-angle fixed focus lens and the CCD area image sensor 72B to the sound transmission device 10 of the embodiment, the position and shape of the object can be efficiently (quickly).
Although the example of obtaining is shown, in the sound transmission device 10 of the second to sixth embodiments, the fisheye lens 7 as the wide-angle fixed focus lens is used.
The same effect can be obtained by applying the television camera 72 including the 2A and the CCD area image sensor 72B.

【0226】以上の説明からも明らかなように、本発明
は次の技術的態様を含むものである。
As is clear from the above description, the present invention includes the following technical aspects.

【0227】前記撮影手段は、3次元空間を構成する部
屋の天井に配置されたことを特徴とする請求項12乃至
17の何れか1項に記載の音伝達装置。
The sound transmission device according to any one of claims 12 to 17, wherein the photographing means is arranged on a ceiling of a room forming a three-dimensional space.

【0228】前記撮影手段は、可視光以外の波長域で撮
影することを特徴とする請求項12乃至17の何れか1
項に記載の音伝達装置。
18. The photographing device according to claim 12, wherein the photographing means photographs in a wavelength range other than visible light.
The sound transmission device according to item.

【0229】前記形状認識手段は、オブジェクト像を含
む歪曲した画像情報を、平面化した画像情報に変換し、
該変換した画像情報に基づいて少なくともオブジェクト
像の正面、背面、左側面、右側面及び平面の画像情報を
求め、該求めた画像情報を合成してオブジェクトを認識
することを特徴とする請求項13乃至15の何れか1項
に記載の音伝達装置。
The shape recognition means converts the distorted image information including the object image into flattened image information,
The image information of at least the front surface, the back surface, the left side surface, the right side surface, and the plane of the object image is obtained based on the converted image information, and the obtained image information is combined to recognize the object. 16. The sound transmission device according to any one of 15 to 15.

【0230】人の特徴である高さ、太さ、頭、腕、手、
足、顔、目、鼻、口、耳、つま先及び関節に関する情報
としての特徴情報の少なくとも1つを予め記憶した記憶
手段を更に備え、前記形状認識手段は、前記記憶手段に
記憶された特徴情報を読み出し、該特徴情報と撮影手段
により撮影された画像情報とに基づいて、オブジェクト
が人であることを認識することを特徴とする請求項13
乃至15の何れか1項に記載の音伝達装置。
Height, thickness, head, arms, hands, which are characteristics of a person,
The shape recognition unit further includes a storage unit that stores in advance at least one of feature information as information about the foot, face, eyes, nose, mouth, ear, toes, and joints, and the shape recognition unit stores the feature information stored in the storage unit. 14. The object is recognized as a person based on the characteristic information and the image information photographed by the photographing means.
16. The sound transmission device according to any one of 15 to 15.

【0231】[0231]

【発明の効果】請求項1記載の発明によれば、複数のス
ピーカの各々から発せられた音波の波面の包絡面を波面
とする合成音波が集音範囲に収束するように複数のスピ
ーカの各々に供給する音声信号の位相を互いにずらして
設定し、複数のスピーカの各々から発せられた音の音圧
が正確に内容を把握することが困難なレベルとなるよう
に音声信号の振幅を設定し、上記のようにして位相及び
振幅を設定した音声信号を複数のスピーカの各々に供給
する制御手段を備えているので、集音範囲内のみに音声
を伝達することができる、という効果が得られる。
According to the first aspect of the present invention, each of the plurality of speakers is so arranged that the synthetic sound wave having the wavefront of the envelope of the wavefront of the sound wave emitted from each of the plurality of speakers converges in the sound collection range. The phase of the audio signal to be supplied to is set to be offset from each other, and the amplitude of the audio signal is set so that the sound pressure of the sound emitted from each of the multiple speakers is at a level at which it is difficult to accurately grasp the content. Since the control means for supplying the audio signal whose phase and amplitude are set as described above to each of the plurality of speakers is provided, the effect that the audio can be transmitted only within the sound collection range is obtained. .

【0232】また、請求項2又は18に記載の発明によ
れば、スピーカから発せられた音が集音範囲外で聴取さ
れることなく、集音範囲内で聴取される音の音量のみを
効率的に大きくすることができる、という効果が得られ
る。
According to the invention as set forth in claim 2 or 18, the sound emitted from the speaker is not heard outside the sound collection range, and only the volume of the sound heard within the sound collection range is efficiently used. It is possible to obtain a large effect.

【0233】また、請求項3又は19に記載の発明によ
れば、合成音波により伝達される比較的低い周波数の音
成分が集音範囲外に発散することで集音範囲内における
低周波帯域の音が不足する場合にも、第1の補助スピー
カ及び第2の補助スピーカの少なくとも一方から発せら
れる音により、集音範囲内で聴取される、特に低周波帯
域の音が充実し、集音範囲内で聴取される音の音質を向
上させることができる、という効果が得られる。
According to the invention as set forth in claim 3 or 19, the sound component of a relatively low frequency transmitted by the synthetic sound wave diverges outside the sound collection range, so that the low frequency band within the sound collection range Even when the sound is insufficient, the sound emitted from at least one of the first auxiliary speaker and the second auxiliary speaker enhances the sound heard in the sound collection range, particularly in the low frequency band, and the sound collection range. The effect that the sound quality of the sound heard inside can be improved is obtained.

【0234】また、請求項4又は20に記載の発明によ
れば、合成音波によって伝達される比較的高い周波数の
音成分が過度に収束することが防止され略均一化される
ので、集音範囲内において比較的高い周波数の音が聴き
易くなる、という効果が得られる。
Further, according to the invention described in claim 4 or 20, the sound component of the relatively high frequency transmitted by the synthetic sound wave is prevented from being excessively converged and is made substantially uniform, so that the sound collection range is The effect that it becomes easy to hear the sound of a relatively high frequency inside is obtained.

【0235】また、請求項5又は21に記載の発明によ
れば、壁や天井等で囲まれた室内等の音響環境において
音を集音させる場合でも、集音範囲内で聴取される音の
音質を向上させることができる、という効果が得られ
る。
Further, according to the invention of claim 5 or 21, even when sound is collected in an acoustic environment such as a room surrounded by walls and ceilings, the sound heard within the sound collection range The effect that the sound quality can be improved is obtained.

【0236】また、請求項6記載の発明によれば、オブ
ジェクトの位置が変化したとしても、該オブジェクトに
のみ音が聴取されるように制御することができる、とい
う効果が得られる。
Further, according to the invention described in claim 6, even if the position of the object is changed, it is possible to control so that only the object hears the sound.

【0237】また、請求項7又は22に記載の発明によ
れば、オブジェクトが音をより明瞭に聞き取れるように
することができる、という効果が得られる。
Further, according to the invention described in claim 7 or 22, the effect that the object can hear the sound more clearly can be obtained.

【0238】また、請求項8又は23に記載の発明によ
れば、本発明に係る音伝達装置を複数設けることなく、
複数の集音範囲を設定することができる、という効果が
得られる。また、集音範囲毎に異なる音を集音させるこ
ともできることは言うまでもない。
According to the invention described in claim 8 or 23, without providing a plurality of sound transmission devices according to the present invention,
The effect is that a plurality of sound collection ranges can be set. It goes without saying that different sounds can be collected for each sound collection range.

【0239】また、請求項9又は24に記載の発明によ
れば、オブジェクトの左耳に対応する集音範囲及び右耳
に対応する集音範囲の各々に、所定音源から発せられた
音を該音源に向かって左側の位置で記録した音、右側の
位置で記録した音を集音することにより、オブジェクト
にステレオ感を感じさせることができる、という効果が
得られる。
According to the ninth or twenty-fourth aspect of the present invention, the sound emitted from the predetermined sound source is generated in each of the sound collecting range corresponding to the left ear and the sound collecting range corresponding to the right ear of the object. By collecting the sound recorded at the position on the left side and the sound recorded at the position on the right side of the sound source, it is possible to obtain the effect of making the object feel stereo.

【0240】また、請求項10又は25に記載の発明に
よれば、オブジェクトが集音範囲内に到来した場合の
み、集音範囲に音を集音し、オブジェクトに当該音を聞
かせることができる、という効果が得られる。
According to the invention described in claim 10 or 25, only when the object arrives within the sound collection range, it is possible to collect sound in the sound collection range and make the object hear the sound. The effect of, is obtained.

【0241】また、請求項11又は26に記載の発明に
よれば、音響環境の状態の変化に拘わらず、集音範囲内
で聴取される音の音質を向上させることができる、とい
う効果が得られる。
Further, according to the invention described in claim 11 or 26, it is possible to obtain the effect that the sound quality of the sound heard within the sound collection range can be improved regardless of the change in the state of the acoustic environment. To be

【0242】また、請求項12記載の発明によれば、オ
ブジェクトの移動に追従した撮影手段の向きの変更や焦
点調整を行うことなく、オブジェクトの位置を速やかに
認識することができる、という効果が得られる。また、
撮影手段の向きの変更や焦点調整を行うための機械的な
作動機構が不要となるので、撮影手段並びに音抽出装置
の構造を簡単にすることができると共に、機械的な作動
部を減らすことにより耐久性を向上させることができ
る、という効果も得られる。さらに、認識されたオブジ
ェクトの位置に基づいて集音範囲を設定し、該集音範囲
内のみに音声を伝達することができる、という効果が得
られる。
According to the twelfth aspect of the invention, there is an effect that the position of the object can be promptly recognized without changing the direction of the photographing means and the focus adjustment following the movement of the object. can get. Also,
Since a mechanical operating mechanism for changing the direction of the photographing means and adjusting the focus is unnecessary, the structure of the photographing means and the sound extraction device can be simplified, and the number of mechanical actuation parts is reduced. The effect that the durability can be improved is also obtained. Further, there is an effect that the sound collection range can be set based on the recognized position of the object, and the sound can be transmitted only within the sound collection range.

【0243】また、請求項13記載の発明によれば、画
像認識手段を構成する形状認識手段及び3次元座標演算
手段によって、オブジェクトの3次元座標を速やかに求
め、オブジェクトの位置を速やかに認識することができ
る、という効果が得られる。
According to the thirteenth aspect of the present invention, the shape recognizing means and the three-dimensional coordinate calculating means forming the image recognizing means promptly obtain the three-dimensional coordinates of the object and promptly recognize the position of the object. The effect that can be obtained is obtained.

【0244】また、請求項14記載の発明によれば、微
小領域はエリアセンサの解像度の限界まで細分化するこ
とができるので、画像情報からオブジェクトが占有する
微小領域を求めることにより、オブジェクトの形状を細
部まで認識することができる、という効果が得られる。
According to the fourteenth aspect of the present invention, since the minute area can be subdivided to the limit of the resolution of the area sensor, the shape of the object can be obtained by obtaining the minute area occupied by the object from the image information. The effect of being able to recognize the details is obtained.

【0245】また、請求項15記載の発明によれば、複
数の撮影手段により撮影された各々異なる画像情報にお
ける影の領域を排除することができ、オブジェクトの形
状を正確に認識することができる、という効果が得られ
る。
According to the fifteenth aspect of the present invention, it is possible to eliminate shadow areas in different image information photographed by a plurality of photographing means and accurately recognize the shape of the object. The effect is obtained.

【0246】また、請求項16記載の発明によれば、エ
リアセンサ上に結像された2次元座標を取得し、該取得
した複数の2次元座標に基づいてオブジェクトの位置
(3次元座標)を正確に認識することができる、という
効果が得られる。
According to the sixteenth aspect of the present invention, the two-dimensional coordinates formed on the area sensor are acquired, and the position of the object (three-dimensional coordinates) is determined based on the acquired plurality of two-dimensional coordinates. The effect is that it can be recognized accurately.

【0247】また、請求項17記載の発明によれば、反
射手段によりオブジェクト像をエリアセンサ上に結像さ
せることができるので、撮影手段が1つであってもオブ
ジェクトの位置を正確に認識することができ、さらにそ
の位置に基づいて集音範囲を設定した後、該集音範囲内
のみに音声を伝達することができる、という効果が得ら
れる。
According to the seventeenth aspect of the invention, since the object image can be formed on the area sensor by the reflecting means, the position of the object can be accurately recognized even if there is only one photographing means. Further, after the sound collection range is set based on the position, the sound can be transmitted only within the sound collection range.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1実施形態に係る音伝達装置の概略構成を示
す模式図である。
FIG. 1 is a schematic diagram showing a schematic configuration of a sound transmission device according to a first embodiment.

【図2】第1実施形態に係る音伝達装置の構成を示すブ
ロック図である。
FIG. 2 is a block diagram showing a configuration of a sound transmission device according to the first embodiment.

【図3】第1実施形態に係る中央制御端末側で実行され
る制御ルーチンを示す流れ図である。
FIG. 3 is a flowchart showing a control routine executed on the central control terminal side according to the first embodiment.

【図4】第1、第2、第6実施形態に係るスピーカモジ
ュール側で実行される制御ルーチンを示す流れ図であ
る。
FIG. 4 is a flowchart showing a control routine executed on the speaker module side according to the first, second and sixth embodiments.

【図5】第1実施形態に係る合成音波の波形を示す模式
図である。
FIG. 5 is a schematic diagram showing a waveform of a synthetic sound wave according to the first embodiment.

【図6】第2実施形態に係る音伝達装置の構成を示すブ
ロック図である。
FIG. 6 is a block diagram showing a configuration of a sound transmission device according to a second embodiment.

【図7】第2実施形態に係る合成音波の波形及び補助ス
ピーカから発せられた音波の波形を示す模式図である。
FIG. 7 is a schematic diagram showing a waveform of a synthetic sound wave and a waveform of a sound wave emitted from an auxiliary speaker according to the second embodiment.

【図8】第2実施形態に係る中央制御端末側で実行され
る制御ルーチンを示す流れ図である。
FIG. 8 is a flowchart showing a control routine executed on the central control terminal side according to the second embodiment.

【図9】第2実施形態に係る補助スピーカを床下に配設
した例を示す模式図である。
FIG. 9 is a schematic view showing an example in which the auxiliary speaker according to the second embodiment is arranged under the floor.

【図10】第3実施形態に係る音伝達装置の構成を示す
ブロック図である。
FIG. 10 is a block diagram showing a configuration of a sound transmission device according to a third embodiment.

【図11】第3実施形態に係る中央制御端末側で実行さ
れる制御ルーチンを示す流れ図である。
FIG. 11 is a flowchart showing a control routine executed on the central control terminal side according to the third embodiment.

【図12】第3実施形態に係るスピーカモジュール側で
実行される制御ルーチンを示す流れ図である。
FIG. 12 is a flowchart showing a control routine executed on the speaker module side according to the third embodiment.

【図13】第3実施形態に係る直接音波及び全ての反射
音波の伝搬経路を示す模式図である。
FIG. 13 is a schematic diagram showing propagation paths of direct sound waves and all reflected sound waves according to the third embodiment.

【図14】第3実施形態に係る直接音波、全ての反射音
波、及び送出波の各々の波形を示す図である。
FIG. 14 is a diagram showing respective waveforms of a direct sound wave, all reflected sound waves, and a transmitted wave according to the third embodiment.

【図15】第3実施形態に関する別の実施態様、第4実
施形態及び第5実施形態に係る音伝達装置の構成を示す
ブロック図である。
FIG. 15 is a block diagram showing a configuration of a sound transmission device according to another aspect of the third embodiment, and the fourth and fifth embodiments.

【図16】第3実施形態に関する別の実施態様における
テレビカメラの配置を示す模式図である。
FIG. 16 is a schematic diagram showing the arrangement of television cameras in another implementation of the third embodiment.

【図17】第4実施形態に係る中央制御端末側で実行さ
れる制御ルーチンを示す流れ図である。
FIG. 17 is a flowchart showing a control routine executed on the central control terminal side according to the fourth embodiment.

【図18】第4実施形態に係るスピーカモジュール側で
実行される制御ルーチンを示す流れ図である。
FIG. 18 is a flowchart showing a control routine executed on the speaker module side according to the fourth embodiment.

【図19】第4実施形態に係る複数の集音範囲の各々に
収束する音波の波面を示す模式図である。
FIG. 19 is a schematic diagram showing a wavefront of a sound wave that converges on each of a plurality of sound collection ranges according to the fourth embodiment.

【図20】第4実施形態に係る音伝達装置の概略構成を
示す模式図である。
FIG. 20 is a schematic diagram showing a schematic configuration of a sound transmission device according to a fourth embodiment.

【図21】第5実施形態に係る中央制御端末側で実行さ
れる制御ルーチンを示す流れ図である。
FIG. 21 is a flowchart showing a control routine executed on the central control terminal side according to the fifth embodiment.

【図22】第5実施形態に係るスピーカモジュール側で
実行される制御ルーチンを示す流れ図である。
FIG. 22 is a flowchart showing a control routine executed on the speaker module side according to the fifth embodiment.

【図23】第5実施形態に係る聴取者の左右各耳に収束
する音波の波面を示す模式図である。
FIG. 23 is a schematic diagram showing a wavefront of a sound wave that converges on each of the left and right ears of a listener according to the fifth embodiment.

【図24】第6実施形態に係る音伝達装置の構成を示す
ブロック図である。
FIG. 24 is a block diagram showing a configuration of a sound transmission device according to a sixth embodiment.

【図25】第6実施形態に係る中央制御端末側で実行さ
れる制御ルーチンを示す流れ図である。
FIG. 25 is a flowchart showing a control routine executed on the central control terminal side according to the sixth embodiment.

【図26】第6実施形態に係る音伝達装置の概略構成を
示す模式図である。
FIG. 26 is a schematic diagram showing a schematic configuration of a sound transmission device according to a sixth embodiment.

【図27】第7〜第9実施形態に係るテレビカメラの配
置を示す模式図である。
FIG. 27 is a schematic diagram showing an arrangement of television cameras according to seventh to ninth embodiments.

【図28】第7〜第9実施形態に係る音伝達装置の構成
を示すブロック図である。
FIG. 28 is a block diagram showing a configuration of a sound transmission device according to seventh to ninth embodiments.

【図29】第7〜第9実施形態に係る中央制御端末側で
実行される制御ルーチンを示す流図である。
FIG. 29 is a flowchart showing a control routine executed by the central control terminal according to the seventh to ninth embodiments.

【図30】第7、第8実施形態に係る集音範囲の設定処
理のサブルーチンを示す流図である。
FIG. 30 is a flow chart showing a subroutine of sound collection range setting processing according to the seventh and eighth embodiments.

【図31】オブジェクト分別処理のサブルーチンを示す
流図である。
FIG. 31 is a flowchart showing a subroutine of object classification processing.

【図32】オブジェクトを分別する概念を説明する説明
図である。
FIG. 32 is an explanatory diagram illustrating a concept of sorting objects.

【図33】オブジェクトの高さ等の諸量を説明する説明
図である。
FIG. 33 is an explanatory diagram illustrating various amounts such as the height of an object.

【図34】オブジェクトの影の部分とボクセルとの関係
を説明する説明図である。
FIG. 34 is an explanatory diagram illustrating a relationship between a shadow part of an object and a voxel.

【図35】(A)はテレビカメラAの画像データによる
ボクセルを示す図であり、(B)はテレビカメラBの画
像データによるボクセルを示す図であり、(C)はテレ
ビカメラCの画像データによるボクセルを示す図であ
り、(D)はテレビカメラDの画像データによるボクセ
ルを示す図である。
35A is a diagram showing voxels based on image data of the television camera A, FIG. 35B is a diagram showing voxels based on image data of the television camera B, and FIG. 35C is image data of the television camera C. 3D is a diagram showing voxels according to FIG. 3, and FIG. 3D is a diagram showing voxels according to image data of the television camera D.

【図36】第2次絞り込みで絞り込まれたボクセルの概
念を説明する説明図である。
FIG. 36 is an explanatory diagram illustrating the concept of voxels narrowed down by the second narrowing down.

【図37】第2次絞り込みで絞り込まれたボクセルから
ダミーモデルに変換する概念を説明する説明図である。
[Fig. 37] Fig. 37 is an explanatory diagram illustrating the concept of converting voxels narrowed down by the second narrowing down to a dummy model.

【図38】2台のテレビカメラにより3次元座標を演算
するときの諸量を説明する概念図である。
FIG. 38 is a conceptual diagram illustrating various amounts when three-dimensional coordinates are calculated by two TV cameras.

【図39】テレビカメラ又は鏡の各種配置を示す図であ
る。
FIG. 39 is a diagram showing various arrangements of a television camera or a mirror.

【図40】1台のテレビカメラ及び1つの鏡により3次
元座標を演算するときの諸量を説明する概念図である。
[Fig. 40] Fig. 40 is a conceptual diagram illustrating various amounts when three-dimensional coordinates are calculated by one TV camera and one mirror.

【図41】第8実施形態のCCDエリアイメージセンサ
等の位置を説明するための説明図である。
FIG. 41 is an explanatory diagram for explaining the positions of the CCD area image sensor and the like of the eighth embodiment.

【図42】第9実施形態に係る集音範囲の設定処理のサ
ブルーチンを示す流図である。
FIG. 42 is a flow chart showing a subroutine of setting processing of a sound collection range according to the ninth embodiment.

【図43】第9実施形態のオブジェクト及びテレビカメ
ラの配置を示す平面図である。
FIG. 43 is a plan view showing the arrangement of objects and television cameras of the ninth embodiment.

【図44】(A)はテレビカメラAの画像データの画像
を示す図であり、(B)はテレビカメラBの画像データ
の画像を示す図であり、(C)はテレビカメラCの画像
データの画像を示す図であり、(D)はテレビカメラD
の画像データの画像を示す図である。
44A is a diagram showing an image of image data of the television camera A, FIG. 44B is a diagram showing an image of image data of the television camera B, and FIG. 44C is image data of the television camera C. It is a figure which shows the image of FIG.
It is a figure which shows the image of the image data of.

【図45】(A)は歪曲したテレビカメラAの画像デー
タを平面化した画像データに変換したときの画像を示す
図であり、(B)は歪曲したテレビカメラBの画像デー
タを平面化した画像データに変換したときの画像を示す
図であり、(C)は歪曲したテレビカメラCの画像デー
タを平面化した画像データに変換したときの画像を示す
図であり、(D)は歪曲したテレビカメラDの画像デー
タを平面化した画像データに変換したときの画像を示す
図である。
FIG. 45A is a diagram showing an image when the distorted image data of the television camera A is converted into flattened image data, and FIG. 45B is a diagram showing the distorted image data of the television camera B. It is a figure which shows the image when converting into image data, (C) is a figure which shows the image when converting the image data of the distorted television camera C into the planarized image data, (D) is distorted. It is a figure which shows the image when converting the image data of the television camera D into the planarized image data.

【図46】(A)は真正面の画像データの画像を示す図
であり、(B)は真横の画像データの画像を示す図であ
り、(C)は真上の画像データの画像を示す図である。
FIG. 46 (A) is a diagram showing an image of image data directly in front, (B) is a diagram showing an image of image data directly beside, and (C) is a diagram showing an image of image data immediately above. Is.

【符号の説明】[Explanation of symbols]

10 音伝達装置 11 中央制御端末 30 スピーカモジュール 36 無指向性スピーカ 68 指向性スピーカ 72 テレビカメラ(撮影手段) 72A 等距離射影型魚眼レンズ(広角固定焦点レン
ズ) 72B CCDエリアイメージセンサ(エリアセンサ) 80 温度センサ 82 重量センサ 136 鏡(反射手段)
10 sound transmission device 11 central control terminal 30 speaker module 36 omnidirectional speaker 68 directional speaker 72 television camera (imaging means) 72A equidistant projection type fisheye lens (wide-angle fixed focus lens) 72B CCD area image sensor (area sensor) 80 temperature Sensor 82 Weight sensor 136 Mirror (reflection means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 荘 大作 千葉県印旛郡印西町大塚1−5 株式会社 竹中工務店技術研究所内 (72)発明者 海野 健一 千葉県印旛郡印西町大塚1−5 株式会社 竹中工務店技術研究所内 (72)発明者 中島 立美 千葉県印旛郡印西町大塚1−5 株式会社 竹中工務店技術研究所内 (72)発明者 村井 信義 千葉県印旛郡印西町大塚1−5 株式会社 竹中工務店技術研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Sho Daisaku 1-5, Otsuka, Inzai-cho, Inba-gun, Chiba Inside Takenaka Corporation Technical Research Institute (72) Kenichi Unno 1-5 Otsuka, Inzai-cho, Inba-gun, Chiba Stocks Company Takenaka Corporation Technical Research Institute (72) Inventor Tatsumi Nakashima 1-5 Otsuka, Inzai-cho, Inba-gun, Chiba Takenaka Corporation Technical Research Institute (72) Inventor Nobuyoshi Murai 1-5 Otsuka, Inzai-cho, Inba-gun Chiba Company Takenaka Corporation Technical Research Institute

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 供給された音声信号に対応する音を発す
る複数の無指向性のスピーカと、 集音させるべき領域範囲としての集音範囲を設定し、前
記複数のスピーカの各々から発した音波の波面の包絡面
を波面とする合成音波が前記集音範囲に収束するように
前記複数のスピーカの各々に供給するべき音声信号の位
相を互いにずらして設定し、前記複数のスピーカの各々
から発せられた音の音圧が正確に内容を把握することが
困難なレベルとなるように前記音声信号の振幅を設定
し、位相及び振幅を設定した前記音声信号を前記複数の
スピーカの各々に供給する制御手段と、 を有する音伝達装置。
1. A plurality of omnidirectional speakers that emit a sound corresponding to a supplied audio signal, and a sound collection range as an area range to be collected, and sound waves emitted from each of the plurality of speakers. The phase of the audio signal to be supplied to each of the plurality of speakers is set to be shifted from each other so that the synthetic sound wave having the wavefront of the envelope surface of the wavefront converges in the sound collection range, and the sound signal is emitted from each of the plurality of speakers. The amplitude of the audio signal is set so that the sound pressure of the generated sound becomes a level at which it is difficult to accurately grasp the content, and the audio signal with the phase and the amplitude set is supplied to each of the plurality of speakers. A sound transmission device comprising: a control unit.
【請求項2】 前記制御手段は、前記複数のスピーカの
うち前記集音範囲からの距離が所定距離よりも短いスピ
ーカに供給する音声信号の振幅が他のスピーカに供給す
る音声信号の振幅よりも大きくなるように、音声信号の
振幅を設定することを特徴とする請求項1記載の音伝達
装置。
2. The control means is configured such that, among the plurality of speakers, a speaker whose distance from the sound collecting range is shorter than a predetermined distance has an amplitude of an audio signal which is greater than an amplitude of an audio signal which is supplied to another speaker. The sound transmission device according to claim 1, wherein the amplitude of the audio signal is set so as to be large.
【請求項3】 前記集音範囲に向けて配置された指向性
を有する第1の補助スピーカ及び前記集音範囲の近傍に
配置された第2の補助スピーカの少なくとも一方を更に
備え、 前記制御手段は前記第1の補助スピーカ及び前記第2の
補助スピーカの少なくとも一方にも音声信号を供給する
ことを特徴とする請求項1記載の音伝達装置。
3. The control means further comprises at least one of a first auxiliary speaker having directivity arranged toward the sound collection range and a second auxiliary speaker arranged near the sound collection range. The sound transmission device according to claim 1, wherein the audio signal is supplied to at least one of the first auxiliary speaker and the second auxiliary speaker.
【請求項4】 前記制御手段は、前記合成音波の波面に
所定値以下の乱れが生ずるように前記複数のスピーカの
各々に供給する音声信号の位相を互いにずらして設定す
ることを特徴とする請求項1記載の音伝達装置。
4. The control means sets the phases of the audio signals supplied to each of the plurality of speakers so as to be shifted from each other so that the wavefront of the synthesized sound wave is disturbed by a predetermined value or less. Item 1. The sound transmission device according to item 1.
【請求項5】 音響環境の状態を表す情報に基づいて、
所定のスピーカから発せられた音のうち被反射体に反射
した後に集音範囲に到達する反射音波の波形を前記複数
のスピーカの各々について演算する第1の演算手段と、 前記第1の演算手段により演算された反射音の波形に基
づいて、所定のスピーカから集音範囲に直接到達する音
波により前記反射波が打ち消すために前記所定のスピー
カに供給すべき音声信号の波形を、前記複数のスピーカ
の各々について演算する第2の演算手段と、 を更に備え、 前記制御手段は、前記第2の演算手段により各スピーカ
毎に演算された音声信号を前記複数のスピーカの各々に
供給することを特徴とする請求項1記載の音伝達装置。
5. Based on information representing the state of the acoustic environment,
First computing means for computing, for each of the plurality of speakers, a waveform of a reflected sound wave that reaches a sound collecting range after being reflected by a reflector among sounds emitted from a predetermined speaker, and the first computing means. Based on the waveform of the reflected sound calculated by, the waveform of the audio signal to be supplied to the predetermined speaker in order to cancel the reflected wave by the sound wave that directly reaches the sound collection range from the predetermined speaker, A second arithmetic means for performing arithmetic operation on each of the speakers, and the control means supplies the audio signal calculated for each speaker by the second arithmetic means to each of the plurality of speakers. The sound transmission device according to claim 1.
【請求項6】 音の伝達対象としてのオブジェクトの位
置を検出する位置検出手段を更に備え、 前記制御手段は、前記位置検出手段により検出されたオ
ブジェクトの位置に基づいて前記集音範囲を設定するこ
とを特徴とする請求項1記載の音伝達装置。
6. A position detecting means for detecting a position of an object as a sound transmission target is further provided, and the control means sets the sound collecting range based on the position of the object detected by the position detecting means. The sound transmission device according to claim 1, wherein:
【請求項7】 前記位置検出手段により位置が検出され
たオブジェクトの耳の位置及び方向を推定する位置推定
手段を更に備え、 前記制御手段は、前記位置推定手段により推定されたオ
ブジェクトの耳の位置及び方向に基づいて、オブジェク
トの聴覚の指向性に合った位置に前記集音範囲を設定す
ることを特徴とする請求項6記載の音伝達装置。
7. The position estimation means for estimating the position and direction of the ear of the object whose position has been detected by the position detection means is further provided, and the control means has the ear position of the object estimated by the position estimation means. 7. The sound transmission device according to claim 6, wherein the sound collection range is set at a position that matches the hearing directivity of the object based on the direction and the direction.
【請求項8】 所定のスピーカから複数の集音範囲の各
々に対して発せられるべき複数の音に対応する複数の音
声信号の位相差を前記複数のスピーカの各々について演
算する第3の演算手段と、 前記第3の演算手段により位相差が演算された複数の音
声信号を重畳した音声信号の波形を前記複数のスピーカ
の各々について演算する第4の演算手段と、 を更に備え、 前記制御手段は、前記第4の演算手段により各スピーカ
毎に演算された複数の音声信号を重畳した音声信号を前
記複数のスピーカの各々に供給することを特徴とする請
求項1記載の音伝達装置。
8. A third calculating means for calculating, for each of the plurality of speakers, a phase difference between a plurality of audio signals corresponding to a plurality of sounds to be emitted from a predetermined speaker to each of the plurality of sound collection ranges. And a fourth arithmetic means for arithmetically operating, for each of the plurality of loudspeakers, a waveform of an audio signal obtained by superimposing a plurality of audio signals whose phase difference is calculated by the third arithmetic means, 2. The sound transmitting device according to claim 1, wherein the sound signal is obtained by superimposing a plurality of sound signals calculated for each speaker by the fourth calculating means on each of the plurality of speakers.
【請求項9】 音の伝達対象としてのオブジェクトの位
置を検出する位置検出手段と、 前記位置検出手段により位置が検出されたオブジェクト
の左耳の位置及び右耳の位置を推定する位置推定手段
と、 を更に備え、 前記制御手段は、前記位置推定手段により推定された前
記左耳及び右耳の位置に基づいて、各耳に対応した集音
範囲を設定することを特徴とする請求項8記載の音伝達
装置。
9. Position detecting means for detecting a position of an object as a sound transmission target, and position estimating means for estimating a left ear position and a right ear position of the object whose position is detected by the position detecting means. 9. The control means further sets the sound collection range corresponding to each ear based on the positions of the left and right ears estimated by the position estimation means. Sound transmission device.
【請求項10】 音の伝達対象としてのオブジェクトが
予め定められた集音範囲内に到来したか否かを検出する
オブジェクト検出手段を更に備え、 前記制御手段は、前記オブジェクト検出手段により集音
範囲内にオブジェクトが到来したことが検出された場合
に、前記複数のスピーカの各々に音声信号を供給するこ
とを特徴とする請求項1記載の音伝達装置。
10. An object detection means for detecting whether or not an object as a sound transmission target has come within a predetermined sound collection range, and the control means is the sound collection range by the object detection means. 2. The sound transmitting device according to claim 1, wherein an audio signal is supplied to each of the plurality of speakers when an arrival of an object is detected.
【請求項11】 音響環境の状態を検出する環境検出手
段を更に備え、 前記制御手段は、前記環境検出手段によって検出された
音響環境の状態が変化した場合に、変化した音響環境の
状態に基づいて前記複数のスピーカの各々に供給する音
声信号の振幅及び位相差の少なくとも一方を変更するこ
とを特徴とする請求項1記載の音伝達装置。
11. An environment detecting means for detecting a state of an acoustic environment, wherein the control means is based on the changed state of the acoustic environment when the state of the acoustic environment detected by the environment detecting means changes. 2. The sound transmission device according to claim 1, wherein at least one of an amplitude and a phase difference of the audio signal supplied to each of the plurality of speakers is changed.
【請求項12】 供給された音声信号に対応する音を発
する複数の無指向性のスピーカと、 予め定められた位置に配置された広角固定焦点レンズを
備え、音の伝達対象としてのオブジェクトを含む領域を
撮影する撮影手段と、 前記撮影手段により撮影された領域の画像情報よりオブ
ジェクトの位置を認識する位置認識手段と、 前記位置認識手段により認識されたオブジェクトの位置
に基づいて集音範囲を設定し、前記複数のスピーカの各
々から発した音波の波面の包絡面を波面とする合成音波
が前記集音範囲に収束するように前記複数のスピーカの
各々に供給するべき音声信号の位相を互いにずらして設
定し、前記複数のスピーカの各々から発せられた音の音
圧が正確に内容を把握することが困難なレベルとなるよ
うに前記音声信号の振幅を設定し、位相及び振幅を設定
した前記音声信号を前記複数のスピーカの各々に供給す
る制御手段と、 を有する音伝達装置。
12. An omnidirectional speaker that emits a sound corresponding to a supplied audio signal, a wide-angle fixed-focus lens that is arranged at a predetermined position, and includes an object as a sound transmission target. A photographing means for photographing the area, a position recognition means for recognizing the position of the object from the image information of the area photographed by the photographing means, and a sound collection range set based on the position of the object recognized by the position recognition means Then, the phases of the audio signals to be supplied to each of the plurality of speakers are shifted from each other so that the composite sound wave having the wavefront of the wavefront of the sound wave emitted from each of the plurality of speakers converges in the sound collection range. And set the amplitude of the audio signal so that the sound pressure of the sound emitted from each of the plurality of speakers becomes a level at which it is difficult to accurately grasp the content. And a control unit that supplies the audio signal, the phase and amplitude of which are set, to each of the plurality of speakers.
【請求項13】 前記撮影手段は複数設けられており、
各撮影手段は、前記広角固定焦点レンズによる結像点に
配置されたエリアセンサを更に備え、 前記位置認識手段は、該複数の撮影手段により撮影され
た各々異なる撮影情報を処理してオブジェクトの形状を
認識する形状認識手段と、前記形状認識手段により認識
されたオブジェクトの3次元座標を演算する3次元座標
演算手段と、を含んで構成された、 ことを特徴とする請求項12記載の音伝達装置。
13. A plurality of the photographing means are provided,
Each photographing means further comprises an area sensor arranged at an image forming point by the wide-angle fixed focus lens, and the position recognition means processes different photographing information photographed by the plurality of photographing means to shape the shape of the object. 13. The sound transmission according to claim 12, further comprising: a shape recognizing unit for recognizing an object and a three-dimensional coordinate calculating unit for calculating a three-dimensional coordinate of the object recognized by the shape recognizing unit. apparatus.
【請求項14】 前記形状認識手段は、前記複数の撮影
手段により撮影された各々異なる画像情報に基づいて、
3次元空間をX軸、Y軸及びZ軸の各方向に沿って仮想
的に細分割することにより得られる多数の立方体状の微
小空間のうち、オブジェクトが占有する微小空間により
形成される領域を求めることによりオブジェクトの形状
を認識することを特徴とする請求項13記載の音伝達装
置。
14. The shape recognizing means, based on different image information captured by the plurality of image capturing means,
Of a large number of cubic microspaces obtained by virtually subdividing the three-dimensional space along each of the X-axis, Y-axis, and Z-axis, the region formed by the microspace occupied by the object 14. The sound transmitting device according to claim 13, wherein the shape of the object is recognized by obtaining the shape.
【請求項15】 前記形状認識手段は、前記複数の撮影
手段により撮影された各々異なる画像情報に基づいて、
3次元空間をX軸、Y軸及びZ軸の各方向に沿って仮想
的に細分割することにより得られる多数の立方体状の微
小空間のうち、各撮影手段からオブジェクトを投影する
視野角内に含まれる微小空間をそれぞれ抽出し、抽出し
た微小空間の全てに含まれる微小空間により形成される
領域を求めることによりオブジェクトの形状を認識する
ことを特徴とする請求項13記載の音伝達装置。
15. The shape recognition means, based on different image information captured by the plurality of imaging means,
Of a large number of cubic microspaces obtained by virtually subdividing the three-dimensional space along each of the X-axis, Y-axis, and Z-axis directions, within the viewing angle at which the object is projected from each photographing means. 14. The sound transmitting device according to claim 13, wherein the shape of the object is recognized by extracting each of the included microspaces and obtaining a region formed by the microspaces included in all of the extracted microspaces.
【請求項16】 前記撮影手段は複数設けられており、
各撮影手段は、前記広角固定焦点レンズによる結像点に
配置されたエリアセンサを更に備え、 前記位置認識手段は、各撮影手段のエリアセンサ上に結
像された2次元座標を取得し、該取得した複数の2次元
座標に基づいてオブジェクトの位置を認識する、 ことを特徴とする請求項12記載の音伝達装置。
16. A plurality of the photographing means are provided,
Each photographing means further comprises an area sensor arranged at an image forming point by the wide-angle fixed focus lens, and the position recognition means acquires two-dimensional coordinates formed on the area sensor of each photographing means, The sound transmission device according to claim 12, wherein the position of the object is recognized based on the acquired plurality of two-dimensional coordinates.
【請求項17】 供給された音声信号に対応する音を発
する複数の無指向性のスピーカと、 予め定められた位置に配置された広角固定焦点レンズ及
び該レンズによる結像点に配設されたエリアセンサを備
え、音の伝達対象としてのオブジェクトを含む領域を撮
影する撮影手段と、 前記撮影手段の近傍に配置され、前記エリアセンサ上に
結像するようにオブジェクトの像を反射する反射手段
と、 前記反射手段により反射されて前記エリアセンサ上に結
像されたオブジェクト像、及び前記反射手段により反射
されることなく前記エリアセンサ上に結像されたオブジ
ェクト像の各々の該エリアセンサ上における2次元座標
を取得し、該取得した複数の2次元座標に基づいてオブ
ジェクトの3次元座標を演算することにより、オブジェ
クトの位置を認識する位置認識手段と、 前記位置認識手段により認識されたオブジェクトの位置
に基づいて集音範囲を設定し、前記複数のスピーカの各
々から発した音波の波面の包絡面を波面とする合成音波
が前記集音範囲に収束するように前記複数のスピーカの
各々に供給するべき音声信号の位相を互いにずらして設
定し、前記複数のスピーカの各々から発せられた音の音
圧が正確に内容を把握することが困難なレベルとなるよ
うに前記音声信号の振幅を設定し、位相及び振幅を設定
した前記音声信号を前記複数のスピーカの各々に供給す
る制御手段と、 を有する音伝達装置。
17. A plurality of omnidirectional speakers that emit a sound corresponding to a supplied audio signal, a wide-angle fixed-focus lens arranged at a predetermined position, and an imaging point formed by the lenses. An image pickup unit that includes an area sensor and takes an image of an area including an object as a sound transmission target; and a reflection unit that is arranged in the vicinity of the image pickup unit and that reflects an image of the object so as to form an image on the area sensor. An object image reflected by the reflecting means and formed on the area sensor, and an object image formed on the area sensor without being reflected by the reflecting means on the area sensor. The position of the object is recognized by acquiring the three-dimensional coordinates and calculating the three-dimensional coordinates of the object based on the acquired two-dimensional coordinates. A position recognizing unit for recognizing, a sound collection range is set based on the position of the object recognized by the position recognizing unit, and a synthetic sound wave having a wavefront of an envelope surface of a sound wave emitted from each of the plurality of speakers The phase of the audio signal to be supplied to each of the plurality of speakers is set so as to be shifted so as to converge to the sound collection range, and the sound pressure of the sound emitted from each of the plurality of speakers is accurately grasped. And a control means for setting the amplitude of the audio signal to a level at which it is difficult to perform, and supplying the audio signal with the phase and amplitude set to each of the plurality of speakers.
【請求項18】 前記制御手段は、前記複数のスピーカ
のうち前記集音範囲からの距離が所定距離よりも短いス
ピーカに供給する音声信号の振幅が他のスピーカに供給
する音声信号の振幅よりも大きくなるように、音声信号
の振幅を設定することを特徴とする請求項12乃至17
の何れか1項に記載の音伝達装置。
18. The amplitude of an audio signal supplied to a speaker of the plurality of speakers whose distance from the sound collection range is shorter than a predetermined distance is greater than the amplitude of an audio signal supplied to another speaker. 18. The amplitude of the audio signal is set so as to be large.
The sound transmission device according to claim 1.
【請求項19】 前記集音範囲に向けて配置された指向
性を有する第1の補助スピーカ及び前記集音範囲の近傍
に配置された第2の補助スピーカの少なくとも一方を更
に備え、 前記制御手段は前記第1の補助スピーカ及び前記第2の
補助スピーカの少なくとも一方にも音声信号を供給する
ことを特徴とする請求項12乃至17の何れか1項に記
載の音伝達装置。
19. The control means further comprises at least one of a first auxiliary speaker having directivity arranged toward the sound collection range and a second auxiliary speaker arranged near the sound collection range. 18. The sound transmission device according to claim 12, further comprising supplying an audio signal to at least one of the first auxiliary speaker and the second auxiliary speaker.
【請求項20】 前記制御手段は、前記合成音波の波面
に所定値以下の乱れが生ずるように前記複数のスピーカ
の各々に供給する音声信号の位相を互いにずらして設定
することを特徴とする請求項12乃至17の何れか1項
に記載の音伝達装置。
20. The control means sets the phase of the audio signal supplied to each of the plurality of speakers so as to be shifted from each other so that the wavefront of the synthesized sound wave is disturbed by a predetermined value or less. Item 18. The sound transmission device according to any one of Items 12 to 17.
【請求項21】 音響環境の状態を表す情報に基づい
て、所定のスピーカから発せられた音のうち被反射体に
反射した後に集音範囲に到達する反射音波の波形を前記
複数のスピーカの各々について演算する第1の演算手段
と、 前記第1の演算手段により演算された反射音の波形に基
づいて、所定のスピーカから集音範囲に直接到達する音
波により前記反射波が打ち消すために前記所定のスピー
カに供給すべき音声信号の波形を、前記複数のスピーカ
の各々について演算する第2の演算手段と、 を更に備え、 前記制御手段は、前記第2の演算手段により各スピーカ
毎に演算された音声信号を前記複数のスピーカの各々に
供給することを特徴とする請求項12乃至17の何れか
1項に記載の音伝達装置。
21. Based on the information indicating the state of the acoustic environment, a waveform of a reflected sound wave that reaches a sound collection range after being reflected by a reflector among sounds emitted from a predetermined speaker is given to each of the plurality of speakers. Based on the waveform of the reflected sound calculated by the first calculating means, the predetermined wave for canceling the reflected wave by the sound wave that directly reaches the sound collection range from a predetermined speaker. Second computing means for computing the waveform of the audio signal to be supplied to the speaker for each of the plurality of speakers, and the control means is computed for each speaker by the second computing means. 18. The sound transmission device according to claim 12, wherein the sound signal is supplied to each of the plurality of speakers.
【請求項22】 前記位置認識手段により位置が認識さ
れたオブジェクトの耳の位置及び方向を推定する第1の
耳推定手段を更に備え、 前記制御手段は、前記第1の耳推定手段により推定され
たオブジェクトの耳の位置及び方向に基づいて、オブジ
ェクトの聴覚の指向性に合った位置に前記集音範囲を設
定することを特徴とする請求項12乃至17の何れか1
項に記載の音伝達装置。
22. The apparatus further comprises a first ear estimation means for estimating a position and a direction of an ear of the object whose position is recognized by the position recognition means, wherein the control means is estimated by the first ear estimation means. 18. The sound collection range is set at a position that matches the hearing directivity of the object based on the position and direction of the ear of the object.
The sound transmission device according to item.
【請求項23】 所定のスピーカから複数の集音範囲の
各々に対して発せられるべき複数の音に対応する複数の
音声信号の位相差を前記複数のスピーカの各々について
演算する第3の演算手段と、 前記第3の演算手段により位相差が演算された複数の音
声信号を重畳した音声信号の波形を前記複数のスピーカ
の各々について演算する第4の演算手段と、 を更に備え、 前記制御手段は、前記第4の演算手段により各スピーカ
毎に演算された複数の音声信号を重畳した音声信号を前
記複数のスピーカの各々に供給することを特徴とする請
求項12乃至17の何れか1項に記載の音伝達装置。
23. Third calculating means for calculating, for each of the plurality of speakers, a phase difference between a plurality of audio signals corresponding to a plurality of sounds to be emitted from a predetermined speaker to each of the plurality of sound collection ranges. And a fourth arithmetic means for arithmetically operating, for each of the plurality of loudspeakers, a waveform of an audio signal obtained by superimposing a plurality of audio signals whose phase difference is calculated by the third arithmetic means, 18. The audio signal obtained by superimposing a plurality of audio signals calculated for each speaker by the fourth calculating means is supplied to each of the plurality of speakers. The sound transmission device described in.
【請求項24】 前記位置認識手段により位置が認識さ
れたオブジェクトの左耳の位置及び右耳の位置を推定す
る第2の耳推定手段を更に備え、 前記制御手段は、前記第2の耳推定手段により推定され
た前記左耳及び右耳の位置に基づいて、各耳に対応した
集音範囲を設定することを特徴とする請求項12乃至1
7の何れか1項に記載の音伝達装置。
24. A second ear estimation means for estimating the position of the left ear and the position of the right ear of the object whose position is recognized by the position recognition means, further comprising: the control means; The sound collection range corresponding to each ear is set based on the positions of the left ear and the right ear estimated by the means.
7. The sound transmission device according to any one of 7.
【請求項25】 オブジェクトが予め定められた集音範
囲内に到来したか否かを検出するオブジェクト検出手段
を更に備え、 前記制御手段は、前記オブジェクト検出手段により集音
範囲内にオブジェクトが到来したことが検出された場合
に、前記複数のスピーカの各々に音声信号を供給するこ
とを特徴とする請求項12乃至17の何れか1項に記載
の音伝達装置。
25. An object detection means for detecting whether or not an object has arrived within a predetermined sound collection range, wherein the control means has the object detected by the object detection means. 18. The sound transmission device according to claim 12, wherein a sound signal is supplied to each of the plurality of speakers when it is detected.
【請求項26】 音響環境の状態を検出する環境検出手
段を更に備え、 前記制御手段は、前記環境検出手段によって検出された
音響環境の状態が変化した場合に、変化した音響環境の
状態に基づいて前記複数のスピーカの各々に供給する音
声信号の振幅及び位相差の少なくとも一方を変更するこ
とを特徴とする請求項12乃至17の何れか1項に記載
の音伝達装置。
26. An environment detecting means for detecting a state of the acoustic environment is further provided, and the control means is based on the changed state of the acoustic environment when the state of the acoustic environment detected by the environment detecting means changes. 18. The sound transmission device according to claim 12, wherein at least one of an amplitude and a phase difference of an audio signal supplied to each of the plurality of speakers is changed.
JP7217858A 1994-12-16 1995-08-25 Sound transmission device Pending JPH08221081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7217858A JPH08221081A (en) 1994-12-16 1995-08-25 Sound transmission device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP31330694 1994-12-16
JP6-313306 1994-12-16
JP7217858A JPH08221081A (en) 1994-12-16 1995-08-25 Sound transmission device

Publications (1)

Publication Number Publication Date
JPH08221081A true JPH08221081A (en) 1996-08-30

Family

ID=26522252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7217858A Pending JPH08221081A (en) 1994-12-16 1995-08-25 Sound transmission device

Country Status (1)

Country Link
JP (1) JPH08221081A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001097565A3 (en) * 2000-06-15 2003-01-16 Space Sound Gmbh Method and device for enhancing the playback of audio or visual information
JP2003510924A (en) * 1999-09-29 2003-03-18 1...リミテッド Sound directing method and apparatus
WO2006057131A1 (en) * 2004-11-26 2006-06-01 Pioneer Corporation Sound reproducing device and sound reproduction system
JP2007074336A (en) * 2005-09-07 2007-03-22 Yamaha Corp Audio system and audio device
JP2008245203A (en) * 2007-03-29 2008-10-09 Yamaha Corp Loudspeaker system, delay time determination method of loudspeaker system and filter coefficient determination method of loudspeaker system
US20100202633A1 (en) * 2008-01-29 2010-08-12 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
EP2320676A1 (en) * 2008-08-19 2011-05-11 Huawei Device Co., Ltd. Method, communication device and communication system for controlling sound focusing
WO2012133058A1 (en) * 2011-03-28 2012-10-04 株式会社ニコン Electronic device and information transmission system
JP2012205242A (en) * 2011-03-28 2012-10-22 Nikon Corp Electronic device and information transfer system
JP2012205240A (en) * 2011-03-28 2012-10-22 Nikon Corp Electronic device and information transfer system
US8369536B2 (en) 2008-01-29 2013-02-05 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
US20130129103A1 (en) * 2011-07-28 2013-05-23 Aliphcom Speaker with multiple independent audio streams
JP5543106B2 (en) * 2006-06-30 2014-07-09 Toa株式会社 Spatial audio signal reproduction apparatus and spatial audio signal reproduction method
JPWO2014122723A1 (en) * 2013-02-05 2017-01-26 Toa株式会社 Loudspeaker system
CN112700760A (en) * 2020-12-23 2021-04-23 新沂市承翔电子有限公司 Noise-reduction strong-sound electronic buzzer and control system and control method thereof

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003510924A (en) * 1999-09-29 2003-03-18 1...リミテッド Sound directing method and apparatus
WO2001097565A3 (en) * 2000-06-15 2003-01-16 Space Sound Gmbh Method and device for enhancing the playback of audio or visual information
WO2006057131A1 (en) * 2004-11-26 2006-06-01 Pioneer Corporation Sound reproducing device and sound reproduction system
JPWO2006057131A1 (en) * 2004-11-26 2008-08-07 パイオニア株式会社 Sound reproduction device, sound reproduction system
JP2007074336A (en) * 2005-09-07 2007-03-22 Yamaha Corp Audio system and audio device
JP5543106B2 (en) * 2006-06-30 2014-07-09 Toa株式会社 Spatial audio signal reproduction apparatus and spatial audio signal reproduction method
JP2008245203A (en) * 2007-03-29 2008-10-09 Yamaha Corp Loudspeaker system, delay time determination method of loudspeaker system and filter coefficient determination method of loudspeaker system
US20100202633A1 (en) * 2008-01-29 2010-08-12 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
US8369536B2 (en) 2008-01-29 2013-02-05 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
EP2320676A4 (en) * 2008-08-19 2011-09-28 Huawei Device Co Ltd Method, communication device and communication system for controlling sound focusing
EP2320676A1 (en) * 2008-08-19 2011-05-11 Huawei Device Co., Ltd. Method, communication device and communication system for controlling sound focusing
WO2012133058A1 (en) * 2011-03-28 2012-10-04 株式会社ニコン Electronic device and information transmission system
JP2012205242A (en) * 2011-03-28 2012-10-22 Nikon Corp Electronic device and information transfer system
JP2012205240A (en) * 2011-03-28 2012-10-22 Nikon Corp Electronic device and information transfer system
CN103460718A (en) * 2011-03-28 2013-12-18 株式会社尼康 Electronic device and information transmission system
US20130129103A1 (en) * 2011-07-28 2013-05-23 Aliphcom Speaker with multiple independent audio streams
US9245514B2 (en) * 2011-07-28 2016-01-26 Aliphcom Speaker with multiple independent audio streams
JPWO2014122723A1 (en) * 2013-02-05 2017-01-26 Toa株式会社 Loudspeaker system
US9648413B2 (en) 2013-02-05 2017-05-09 Toa Corporation Loudspeaker system
CN112700760A (en) * 2020-12-23 2021-04-23 新沂市承翔电子有限公司 Noise-reduction strong-sound electronic buzzer and control system and control method thereof

Similar Documents

Publication Publication Date Title
JP6747538B2 (en) Information processing equipment
US10694313B2 (en) Audio communication system and method
JPH08221081A (en) Sound transmission device
CN108702571B (en) Audio communication system and method
US9973848B2 (en) Signal-enhancing beamforming in an augmented reality environment
US20110096941A1 (en) Self-steering directional loudspeakers and a method of operation thereof
US7271827B2 (en) System and method for recording moving images
EP2953348A1 (en) Determination, display, and adjustment of best sound source placement region relative to microphone
CN107534725A (en) A kind of audio signal processing method and device
EP3278163B1 (en) Depth imaging system
KR20160010590A (en) Method and system for achieving self-adaptive surrounding sound
US20180295462A1 (en) Shoulder-mounted robotic speakers
CN109691141A (en) Virtual reality, augmented reality and mixed reality system with spatialization audio
US11641561B2 (en) Sharing locations where binaural sound externally localizes
CN106028008A (en) Video projection playing system for robot
WO2020026548A1 (en) Information processing device, information processing method, and acoustic system
JP2023514462A (en) Hearing aid system that can be integrated into the spectacle frame
CN113707165A (en) Audio processing method and device, electronic equipment and storage medium
JP2018006822A (en) Voice output system and voice output method
WO2022220182A1 (en) Information processing method, program, and information processing system
KR20180003384A (en) System and method for capturing 3d sound
US20230254642A1 (en) Adaptive directional audio for wearable audio devices
Nakadai et al. Humanoid active audition system
JP2024504379A (en) Head-mounted computing device with microphone beam steering
CN116438579A (en) Method and apparatus for transmitting soundscapes in an environment