JP2003061184A - Information processing apparatus and method, information generating device and method, recording medium and program - Google Patents

Information processing apparatus and method, information generating device and method, recording medium and program

Info

Publication number
JP2003061184A
JP2003061184A JP2001245991A JP2001245991A JP2003061184A JP 2003061184 A JP2003061184 A JP 2003061184A JP 2001245991 A JP2001245991 A JP 2001245991A JP 2001245991 A JP2001245991 A JP 2001245991A JP 2003061184 A JP2003061184 A JP 2003061184A
Authority
JP
Japan
Prior art keywords
sound
audio signal
signal
phase difference
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001245991A
Other languages
Japanese (ja)
Other versions
JP2003061184A5 (en
JP4752153B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yuji Okumura
裕二 奥村
Koichi Fujishima
幸一 藤島
Tomoyuki Otsuki
知之 大月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001245991A priority Critical patent/JP4752153B2/en
Publication of JP2003061184A publication Critical patent/JP2003061184A/en
Publication of JP2003061184A5 publication Critical patent/JP2003061184A5/ja
Application granted granted Critical
Publication of JP4752153B2 publication Critical patent/JP4752153B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus that can utilize voice uttered by a user so as to detect a direction of the face of the user. SOLUTION: Microphone amplifiers 2L, 2R amplify sound signal of voice collected by microphones 1L, 1R placed at a prescribed position and uttered by a prescribed sound source, generate processing sound signals L, R and supply them to a detector 3. The detector 3 respectively calculates sound pressures L, R of the processing sound signals L, R and also calculates a sound pressure ratio (= sound pressure R/sound pressure L). The detector 3 detects a direction of the sound source corresponding to the calculated sound pressure ratio on the basis of data denoting a cross-reference between the sound pressure ratio and the direction of the sound source possessed by itself.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び方法、情報生成装置および方法、記録媒体、並びにプ
ログラムに関し、特に、音源が発した音声を利用して、
音源の位置や向きを検出することができるようにした情
報処理装置および方法、情報生成装置および方法、記録
媒体、並びにプログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, an information generating apparatus and method, a recording medium, and a program.
The present invention relates to an information processing apparatus and method, an information generating apparatus and method, a recording medium, and a program capable of detecting a position and an orientation of a sound source.

【0002】[0002]

【従来の技術】例えば、遠隔している複数の会議室にお
ける画像や音声を、ネットワークを介して相互に通信
し、各会議室において、他の会議室の映像や音声を再生
することにより、あたかも1つのテーブルを囲んでいる
かのように会議を行うことができる遠隔システムが存在
する。
2. Description of the Related Art For example, images and sounds in a plurality of remote conference rooms are communicated with each other via a network, and in each conference room, images and sounds in other conference rooms are reproduced, so that the images and sounds are reproduced. There are remote systems that allow meetings to take place as if surrounding a single table.

【0003】この遠隔会議システムにおいては、会議に
参加しているユーザの顔の向きに応じて、映像の表示や
音声の出力が制御される。すなわち、ユーザの顔の向き
が検出されるようになされている。
In this remote conference system, display of video and output of audio are controlled in accordance with the direction of the face of the user participating in the conference. That is, the direction of the user's face is detected.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、特殊な
センサを利用したり、ユーザの顔の部分の画像データを
利用して、ユーザの顔の向きを検出する方法は、開示さ
れているが、ユーザが発した音声を利用して、ユーザの
顔の向きを検出する方法は、まだ開示されていない。
However, a method for detecting the orientation of the user's face using a special sensor or using image data of the user's face has been disclosed. A method for detecting the orientation of the user's face using the voice emitted by the user has not been disclosed yet.

【0005】本発明はこのような状況に鑑みてなされた
ものであり、音源が発した音声を利用して、音源の顔の
向きを検出することができるようにするものである。
[0005] The present invention has been made in view of such circumstances, and it is an object of the present invention to detect the direction of the face of a sound source using the sound emitted by the sound source.

【0006】[0006]

【課題を解決するための手段】本発明の情報処理装置
は、所定の位置に設置された複数の集音装置により集音
された、所定の音源が発した音声に対応する音声信号か
ら、音源の状態に対応する特徴量を算出する第1の算出
手段と、第1の算出手段により算出された特徴量に基づ
いて、音源の状態を検出する状態検出手段とを備えるこ
とを特徴とする。
According to the present invention, there is provided an information processing apparatus comprising: a sound source corresponding to a sound generated by a predetermined sound source, which is collected by a plurality of sound collecting devices installed at predetermined positions; And a state detecting means for detecting the state of the sound source based on the characteristic amount calculated by the first calculating means.

【0007】状態は、所定の位置にある音源の向きとす
ることができる。
The state can be the direction of a sound source at a predetermined position.

【0008】状態検出手段は、予め求められた、特徴量
と状態との対応関係を示す対応関係データを保持し、対
応関係データおよび特徴量に基づいて、状態を検出する
ことができる。
[0008] The state detecting means holds correspondence data indicating a correspondence relationship between the characteristic amount and the state, which is obtained in advance, and can detect the state based on the correspondence data and the characteristic amount.

【0009】第1の算出手段は、第1の集音装置により
集音された、音源が発した音声に対応する第1の音声信
号、および第2の集音装置により集音された、音源が発
した音声に対応する第2の音声信号から、第1の音声信
号の音圧と第2の音声信号の音圧との音圧比を、特徴量
として算出し、状態検出手段は、予め求められた、音圧
比と状態との対応関係を示す対応関係データを保持し、
対応関係データおよび音圧比に基づいて、状態を検出す
ることができる。
The first calculating means comprises: a first sound signal corresponding to the sound emitted by the sound source, collected by the first sound collecting device; and a sound source collected by the second sound collecting device. The sound pressure ratio between the sound pressure of the first sound signal and the sound pressure of the second sound signal is calculated as a feature amount from the second sound signal corresponding to the sound emitted by the device. Holding the corresponding relationship data indicating the corresponding relationship between the sound pressure ratio and the state,
The state can be detected based on the correspondence data and the sound pressure ratio.

【0010】第1の算出手段は、第1の集音装置により
集音された、音源が発した音声に対応する第1の音声信
号、および第2の集音装置により集音された、音源が発
した音声に対応する第2の音声信号から、第1の音声信
号の高周波部分からなる第1の高周波音声信号の音圧
と、第2の音声信号の高周波部分からなる第2の高周波
音声信号の音圧との音圧比を、特徴量として算出し、状
態検出手段は、予め求められた、音圧比と状態との対応
関係を示す対応関係データを保持し、対応関係データお
よび音圧比に基づいて、状態を検出することができる。
The first calculating means includes a first sound signal corresponding to the sound emitted by the sound source, collected by the first sound collecting device, and a sound source collected by the second sound collecting device. From the second sound signal corresponding to the sound generated by the first sound signal, the sound pressure of the first high-frequency sound signal consisting of the high-frequency part of the first sound signal, and the second high-frequency sound consisting of the high-frequency part of the second sound signal The sound pressure ratio between the sound pressure of the signal and the sound pressure ratio is calculated as a characteristic amount, and the state detection unit holds the previously obtained correspondence data indicating the correspondence between the sound pressure ratio and the state. Based on this, the state can be detected.

【0011】第1の算出手段は、第1の集音装置により
集音された、音源が発した音声に対応する第1の音声信
号、および第2の集音装置により集音された、音源が発
した音声に対応する第2の音声信号から、第1の音声信
号の位相と第2の音声信号の位相との位相差を、特徴量
として算出し、状態検出手段は、予め求められた、位相
差と状態との対応関係を示す対応関係データを保持し、
対応関係データおよび位相差に基づいて、状態を検出す
ることができる。
The first calculating means includes a first sound signal corresponding to the sound emitted by the sound source, collected by the first sound collecting device, and a sound source collected by the second sound collecting device. The phase difference between the phase of the first audio signal and the phase of the second audio signal is calculated as a feature amount from the second audio signal corresponding to the voice emitted by the device, and the state detection means is obtained in advance. Holds correspondence data indicating the correspondence between the phase difference and the state,
The state can be detected based on the correspondence data and the phase difference.

【0012】第1の算出手段は、第1の集音装置、第2
の集音装置、および第3の集音装置により集音された、
所定の範囲内に位置する音源が発した音声に対応する第
1の音声信号、第2の音声信号、および第3の音声信号
から、第1の音声信号の位相と第2の音声信号の位相と
の第1の位相差、および第1の音声信号の位相と第3の
音声信号の位相との第2の位相差を、特徴量として算出
し、状態検出手段は、第1の位相差および第2の位相差
に基づいて、音源の、平面上の位置を検出することがで
きる。
The first calculating means includes a first sound collecting device, a second sound collecting device,
A sound collector, and a sound collected by a third sound collector,
From the first audio signal, the second audio signal, and the third audio signal corresponding to the audio emitted from the sound source located within the predetermined range, the phases of the first audio signal and the second audio signal are obtained. , And a second phase difference between the phase of the first audio signal and the phase of the third audio signal are calculated as a feature quantity, and the state detecting means calculates the first phase difference and Based on the second phase difference, the position of the sound source on a plane can be detected.

【0013】第1の集音装置、第2の集音装置、および
第3の集音装置のそれぞれにより集音された、所定の範
囲内に設けられた複数の実験位置に位置した音源が発し
た音声に対応する第4の音声信号、第5の音声信号、お
よび第6の音声信号から、第4の音声信号の位相と第5
の音声信号の位相との第3の位相差、および第4の音声
信号の位相と第6の音声信号との第4の位相差を、実験
位置毎に算出し、さらに、第3の位相差と実験位置との
関係に基づく第1の係数、および第4の位相差と実験位
置との関係に基づく第2の係数を算出する第2の算出手
段と、第2の算出手段により算出された第1の係数およ
び第2の係数を記憶する記憶手段とをさらに設け、状態
検出手段には、第1の位相差と第1の係数との関係、お
よび第2の位相差と第2の係数との関係に基づいて、音
源の、平面上の位置を検出させることができる。
[0013] Sound sources located at a plurality of experimental positions provided within a predetermined range, which are collected by each of the first sound collecting device, the second sound collecting device, and the third sound collecting device, are emitted. From the fourth audio signal, the fifth audio signal, and the sixth audio signal corresponding to the extracted audio, the phase of the fourth audio signal and the fifth
A third phase difference between the phase of the audio signal and the fourth phase difference between the phase of the fourth audio signal and the sixth audio signal are calculated for each experimental position. A second coefficient based on the relationship between the first phase difference and the experimental position, and a second coefficient based on the relationship between the fourth phase difference and the experimental position. Storage means for storing the first coefficient and the second coefficient is further provided; and the state detection means includes a relation between the first phase difference and the first coefficient, and a relation between the second phase difference and the second coefficient. Based on the relationship, the position of the sound source on the plane can be detected.

【0014】第1の算出手段は、第2の音声信号および
第3の音声信号から、第2の音声信号の音圧と第3の音
声信号の音圧との第1の音圧比を、特徴量として、さら
に算出し、状態検出手段は、第1の音圧比および検出し
た音源の位置に基づいて、音源の向きを検出することが
できる。
The first calculating means is configured to calculate a first sound pressure ratio between the sound pressure of the second sound signal and the sound pressure of the third sound signal from the second sound signal and the third sound signal. The amount is further calculated, and the state detection means can detect the direction of the sound source based on the first sound pressure ratio and the detected position of the sound source.

【0015】第2の集音装置および第3の集音装置のそ
れぞれにより集音された、複数の基準位置に位置し、所
定の方向を向いた音源が発した音声に対応する第4の音
声信号および第5の音声信号から、第4の音声信号の音
圧と第5の音声信号の音圧の第2の音圧比を算出し、さ
らに、第2の音圧比と所定の方向との関係に基づく係数
を、基準位置毎に算出する第2の算出手段と、係数を、
基準位置に対応させて記憶する記憶手段とをさらに設
け、状態検出手段には、検出した音源の位置に対応する
基準位置を検出するとともに、記憶手段から、検出した
基準位置に対応する係数を選択し、選択した係数および
第1の音圧比との関係に基づいて、音源の向きを検出さ
せることができる。
A fourth sound corresponding to a sound emitted by a sound source which is located at a plurality of reference positions and is oriented in a predetermined direction, which is collected by each of the second sound collecting device and the third sound collecting device; A second sound pressure ratio between the sound pressure of the fourth sound signal and the sound pressure of the fifth sound signal is calculated from the signal and the fifth sound signal, and further, a relationship between the second sound pressure ratio and a predetermined direction. A second calculating means for calculating a coefficient based on each of the reference positions,
Storage means for storing the reference position corresponding to the reference position, wherein the state detection means detects a reference position corresponding to the position of the detected sound source, and selects a coefficient corresponding to the detected reference position from the storage means. Then, the direction of the sound source can be detected based on the relationship between the selected coefficient and the first sound pressure ratio.

【0016】第1の算出手段は、第1の集音装置、第2
の集音装置、第3の集音装置、および第4の集音装置に
より集音された、所定の範囲内に位置する音源が発した
音声に対応する第1の音声信号、第2の音声信号、第3
の音声信号、および第4の音声信号から、第1の音声信
号の位相と第2の音声信号の位相との第1の位相差、第
2の音声信号の位相と第3の音声信号の位相との第2の
位相差、および第3の音声信号の位相と第4の音声信号
の位相との第3の位相差を、特徴量として算出し、状態
検出手段は、第1の位相差、第2の位相差、および第3
の位相差に基づいて、音源の、空間上の位置を検出する
ことができる。
The first calculating means comprises a first sound collecting device, a second sound collecting device,
A first sound signal and a second sound corresponding to sounds emitted by a sound source located within a predetermined range, which are collected by the sound collecting device, the third sound collecting device, and the fourth sound collecting device. Signal, third
From the audio signal and the fourth audio signal, a first phase difference between the phase of the first audio signal and the phase of the second audio signal, the phase of the second audio signal, and the phase of the third audio signal , And a third phase difference between the phase of the third audio signal and the phase of the fourth audio signal are calculated as a feature quantity, and the state detection unit calculates the first phase difference, A second phase difference, and a third
Based on the phase difference of the sound source, the position of the sound source in space can be detected.

【0017】第1の集音装置、第2の集音装置、第3の
集音装置、および第4の集音装置のそれぞれにより集音
された、所定の範囲内に設けられた複数の実験位置に位
置した音源が発した音声に対応する第5の音声信号、第
6の音声信号、第7の音声信号、および第8の音声信号
から、第5の音声信号の位相と第6の音声信号の位相と
の第4の位相差、第6の音声信号の位相と第7の音声信
号の位相との第5の位相差、および第7の音声信号の位
相と第8の音声信号の位相との第6の位相差を、実験位
置毎に算出し、さらに、第4の位相差と実験位置との関
係に基づく第1の係数、第5の位相差と実験位置との関
係に基づく第2の係数、および第6の位相差と実験位置
との関係に基づく第3の係数を算出する第2の算出手段
と、第2の算出手段により算出された第1の係数、第2
の係数、および第3の係数を記憶する記憶手段とをさら
に設け、状態検出手段には、第1の位相差と第1の係数
との関係、第2の位相差と第2の係数との関係、および
第3の位相差と第3の係数との関係に基づいて、音源
の、空間上の位置を検出させることができる。
A plurality of experiments provided within a predetermined range and collected by each of the first sound collecting device, the second sound collecting device, the third sound collecting device, and the fourth sound collecting device. From the fifth audio signal, the sixth audio signal, the seventh audio signal, and the eighth audio signal corresponding to the audio emitted by the sound source located at the position, the phase of the fifth audio signal and the sixth audio signal A fourth phase difference from the signal phase, a fifth phase difference between the sixth audio signal phase and the seventh audio signal phase, and a seventh audio signal phase and an eighth audio signal phase Is calculated for each experimental position, a first coefficient based on the relationship between the fourth phase difference and the experimental position, and a sixth coefficient based on the relationship between the fifth phase difference and the experimental position. A second calculating means for calculating a second coefficient and a third coefficient based on a relationship between the sixth phase difference and the experimental position; and a second calculating means. First coefficient calculated by the second
And a storage means for storing a third coefficient and a third coefficient. The state detection means includes a relation between the first phase difference and the first coefficient, and a relation between the second phase difference and the second coefficient. The position of the sound source in space can be detected based on the relationship and the relationship between the third phase difference and the third coefficient.

【0018】第1の算出手段は、第1の音声信号、第2
の音声信号、第3の音声信号、および第4の音声信号か
ら、第1の音声信号の音圧と第2の音声信号の音圧との
第1の音圧比、第2の音声信号の音圧と第3の音声信号
の音圧との第2の音圧比、および第3の音声信号の音圧
と第4の音声信号の音圧との第3の音圧比を、特徴量と
して、さらに算出し、状態検出手段は、第1の音圧比、
第2の音圧比、および第3の音圧比、並びに検出した音
源の位置に基づいて、音源の向きを検出することができ
る。
The first calculating means comprises a first audio signal, a second audio signal,
The first sound pressure ratio between the sound pressure of the first sound signal and the sound pressure of the second sound signal, and the sound of the second sound signal from the sound signal, the third sound signal, and the fourth sound signal. The second sound pressure ratio between the pressure and the sound pressure of the third sound signal, and the third sound pressure ratio between the sound pressure of the third sound signal and the sound pressure of the fourth sound signal are further defined as characteristic amounts. The state detection means calculates the first sound pressure ratio,
The direction of the sound source can be detected based on the second sound pressure ratio, the third sound pressure ratio, and the detected position of the sound source.

【0019】第1の集音装置、第2の集音装置、第3の
集音装置、および第4の集音装置のそれぞれにより集音
された、複数の基準位置に位置し、所定の方向を向いた
音源が発した音声に対応する第5の音声信号、第6の音
声信号、第7の音声信号、および第8の音声信号から、
第5の音声信号の音圧と第6の音声信号の音圧との第4
の音圧比、第6の音声信号の音圧と第7の音声信号の音
圧との第5の音圧比、および第7の音声信号の音圧と第
8の音声信号の音圧との第6の音圧比をそれぞれ算出す
る第2の算出手段と、基準位置に対応させて、第4の音
圧比、第5の音圧比、および第6の音圧比、並びに方向
を記憶する記憶手段とをさらに設け、状態検出手段に
は、記憶手段から、検出した音源の位置に対応する基準
位置、および第1の音圧比、第2の音圧比と第3の音圧
比に対応する第4の音圧比、第5の音圧比と第6の音圧
比に対応する方向を、音源の向きとして検出させること
ができる。
The sound pickup device is located at a plurality of reference positions, each of which is collected by each of the first sound collection device, the second sound collection device, the third sound collection device, and the fourth sound collection device, in a predetermined direction. From the fifth audio signal, the sixth audio signal, the seventh audio signal, and the eighth audio signal corresponding to the audio emitted by the sound source directed to
The fourth of the sound pressure of the fifth sound signal and the sound pressure of the sixth sound signal
Sound pressure ratio, a fifth sound pressure ratio between the sound pressure of the sixth sound signal and the sound pressure of the seventh sound signal, and a fifth sound pressure ratio between the sound pressure of the seventh sound signal and the sound pressure of the eighth sound signal. And second storage means for storing the fourth sound pressure ratio, the fifth sound pressure ratio, the sixth sound pressure ratio, and the direction corresponding to the reference position. The state detecting means is further provided with a reference position corresponding to the position of the detected sound source, and a fourth sound pressure ratio corresponding to the first sound pressure ratio, the second sound pressure ratio, and the third sound pressure ratio. , The direction corresponding to the fifth sound pressure ratio and the sixth sound pressure ratio can be detected as the direction of the sound source.

【0020】本発明の情報処理方法は、所定の位置に設
置された複数の集音装置により集音された、所定の音源
が発した音声に対応する音声信号から、音源の状態に対
応する特徴量を算出する算出ステップと、算出ステップ
の処理で算出された特徴量に基づいて、音源の状態を検
出する状態検出ステップとを含むことを特徴とする。
The information processing method according to the present invention is characterized in that a sound signal corresponding to the state of a sound source is obtained from a sound signal corresponding to a sound emitted from a predetermined sound source, which is collected by a plurality of sound collecting devices installed at predetermined positions. It is characterized by including a calculating step of calculating the amount and a state detecting step of detecting the state of the sound source based on the characteristic amount calculated in the processing of the calculating step.

【0021】本発明の第1の記録媒体のプログラムは、
所定の位置に設置された複数の集音装置により集音され
た、所定の音源が発した音声に対応する音声信号から、
音源の状態に対応する特徴量を算出する算出ステップ
と、算出ステップの処理で算出された特徴量に基づい
て、音源の状態を検出する状態検出ステップとを含むこ
とを特徴とする。
[0021] The program of the first recording medium of the present invention comprises:
From sound signals corresponding to sounds emitted by a predetermined sound source, collected by a plurality of sound collection devices installed at predetermined positions,
The method includes a calculating step of calculating a feature amount corresponding to a state of the sound source, and a state detecting step of detecting a state of the sound source based on the feature amount calculated in the processing of the calculating step.

【0022】本発明の第1のプログラムは、所定の位置
に設置された複数の集音装置により集音された、所定の
音源が発した音声に対応する音声信号から、音源の状態
に対応する特徴量を算出する算出ステップと、算出ステ
ップの処理で算出された特徴量に基づいて、音源の状態
を検出する状態検出ステップとを含むことを特徴とす
る。
A first program according to the present invention corresponds to a state of a sound source from an audio signal corresponding to a sound emitted by a predetermined sound source, which is collected by a plurality of sound collection devices installed at predetermined positions. It is characterized by including a calculation step of calculating a feature amount, and a state detection step of detecting a state of the sound source based on the feature amount calculated in the processing of the calculation step.

【0023】本発明の情報処理装置および方法、並びに
第1のプログラムにおいては、所定の位置に設置された
複数の集音装置により集音された、所定の音源が発した
音声に対応する音声信号から、音源の状態に対応する特
徴量が算出され、算出された特徴量に基づいて、音源の
状態が検出される。
[0023] In the information processing apparatus and method and the first program according to the present invention, an audio signal corresponding to a sound emitted from a predetermined sound source, collected by a plurality of sound collection devices installed at predetermined positions. Then, the feature amount corresponding to the state of the sound source is calculated, and the state of the sound source is detected based on the calculated feature amount.

【0024】本発明の情報生成装置は、第1の集音装
置、第2の集音装置、および第3の集音装置のそれぞれ
により集音された、所定の範囲内に設けられた複数の実
験位置に位置した音源が発した音声に対応する第4の音
声信号、第5の音声信号、および第6の音声信号から、
第4の音声信号の位相と第5の音声信号の位相との第3
の位相差、および第4の音声信号の位相と第6の音声信
号との第4の位相差を、実験位置毎に算出する第1の算
出手段と、第3の位相差と実験位置との関係に基づい
て、第1の係数を算出し、第4の位相差と実験位置との
関係に基づいて、第2の係数を算出する第2の算出手段
とを備えることを特徴とする。
The information generating apparatus according to the present invention comprises a plurality of sound collecting units provided within a predetermined range and collected by each of the first sound collecting unit, the second sound collecting unit, and the third sound collecting unit. From the fourth audio signal, the fifth audio signal, and the sixth audio signal corresponding to the audio emitted by the sound source located at the experiment position,
The third of the phase of the fourth audio signal and the phase of the fifth audio signal
A first calculating means for calculating, for each experimental position, a phase difference between the third phase difference and the experimental position, and a fourth phase difference between the fourth audio signal and the sixth audio signal. A second coefficient calculating means for calculating a first coefficient based on the relation and calculating a second coefficient based on a relation between the fourth phase difference and the experimental position.

【0025】検出装置は、第2の集音装置および第3の
集音装置のそれぞれにより集音された、複数の基準位置
に位置する音源が発した音声に対応する第7の音声信号
および第8の音声信号から、第7の音声信号の音圧と第
8の音声信号の音圧の音圧比を算出し、さらに、音圧比
と第3の係数との関係に基づいて、音源の向きをさらに
検出し、第2の集音装置および第3の集音装置のそれぞ
れにより集音された、複数の基準位置に位置する音源が
発した音声に対応する第9の音声信号および第10の音
声信号から、第9の音声信号の音圧と第10の音声信号
の音圧の音圧比を算出する第3の算出手段と、第9の音
声信号の音圧と第10の音声信号の音圧の音圧比と実験
位置との関係に基づいて、第3の係数を算出する第4の
算出手段とをさらに設けることができる。
The detection device includes a seventh sound signal and a seventh sound signal corresponding to sounds emitted by sound sources located at a plurality of reference positions, which are collected by the second sound collection device and the third sound collection device, respectively. The sound pressure ratio between the sound pressure of the seventh sound signal and the sound pressure of the eighth sound signal is calculated from the sound signal of No. 8, and the direction of the sound source is further determined based on the relationship between the sound pressure ratio and the third coefficient. The ninth sound signal and the tenth sound corresponding to the sounds emitted from the sound sources located at the plurality of reference positions, which are detected and collected by the second sound collecting device and the third sound collecting device, respectively. Third calculating means for calculating the sound pressure ratio between the sound pressure of the ninth sound signal and the sound pressure of the tenth sound signal from the signal, and the sound pressure of the ninth sound signal and the sound pressure of the tenth sound signal And a fourth calculating means for calculating a third coefficient based on a relationship between the sound pressure ratio of the first position and the experimental position. It can be provided.

【0026】本発明の情報生成方法は、第1の集音装
置、第2の集音装置、および第3の集音装置のそれぞれ
により集音された、所定の範囲内に設けられた複数の実
験位置に位置した音源が発した音声に対応する第4の音
声信号、第5の音声信号、および第6の音声信号から、
第4の音声信号の位相と第5の音声信号の位相との第3
の位相差、および第4の音声信号の位相と第6の音声信
号との第4の位相差を、実験位置毎に算出する第1の算
出ステップと、第3の位相差と実験位置との関係に基づ
いて、第1の係数を算出し、第4の位相差と実験位置と
の関係に基づいて、第2の係数を算出する第2の算出ス
テップとを含むことを特徴とする。
[0026] The information generating method of the present invention comprises the steps of: collecting a plurality of sounds provided by a first sound collecting device, a second sound collecting device, and a third sound collecting device and provided in a predetermined range; From the fourth audio signal, the fifth audio signal, and the sixth audio signal corresponding to the audio emitted by the sound source located at the experiment position,
The third of the phase of the fourth audio signal and the phase of the fifth audio signal
A first calculating step of calculating, for each experimental position, a phase difference between the third phase difference and the experimental position, and a fourth phase difference between the fourth audio signal and the sixth audio signal. A second calculating step of calculating a first coefficient based on the relationship and calculating a second coefficient based on a relationship between the fourth phase difference and the experimental position.

【0027】本発明の第2の記録媒体のプログラムは、
第1の集音装置、第2の集音装置、および第3の集音装
置のそれぞれにより集音された、所定の範囲内に設けら
れた複数の実験位置に位置した音源が発した音声に対応
する第4の音声信号、第5の音声信号、および第6の音
声信号から、第4の音声信号の位相と第5の音声信号の
位相との第3の位相差、および第4の音声信号の位相と
第6の音声信号との第4の位相差を、実験位置毎に算出
する第1の算出ステップと、第3の位相差と実験位置と
の関係に基づいて、第1の係数を算出し、第4の位相差
と実験位置との関係に基づいて、第2の係数を算出する
第2の算出ステップとを含むことを特徴とする。
The program of the second recording medium of the present invention comprises:
The sound collected by each of the first sound collecting device, the second sound collecting device, and the third sound collecting device, and emitted from the sound sources located at a plurality of experimental positions provided within a predetermined range. A third phase difference between the phase of the fourth audio signal and the phase of the fifth audio signal, and the fourth audio from the corresponding fourth, fifth, and sixth audio signals A first calculating step of calculating a fourth phase difference between the signal phase and the sixth audio signal for each experimental position, and a first coefficient based on a relationship between the third phase difference and the experimental position. And a second calculating step of calculating a second coefficient based on the relationship between the fourth phase difference and the experimental position.

【0028】本発明の第2のプログラムは、第1の集音
装置、第2の集音装置、および第3の集音装置のそれぞ
れにより集音された、所定の範囲内に設けられた複数の
実験位置に位置した音源が発した音声に対応する第4の
音声信号、第5の音声信号、および第6の音声信号か
ら、第4の音声信号の位相と第5の音声信号の位相との
第3の位相差、および第4の音声信号の位相と第6の音
声信号との第4の位相差を、実験位置毎に算出する第1
の算出ステップと、第3の位相差と実験位置との関係に
基づいて、第1の係数を算出し、第4の位相差と実験位
置との関係に基づいて、第2の係数を算出する第2の算
出ステップとを含む処理をコンピュータに実行させるこ
とを特徴とする。
The second program according to the present invention includes a plurality of programs provided within a predetermined range and collected by each of the first sound collecting device, the second sound collecting device, and the third sound collecting device. From the fourth, fifth, and sixth audio signals corresponding to the audio emitted by the sound source located at the experimental position, the phase of the fourth audio signal and the phase of the fifth audio signal are calculated. And the fourth phase difference between the phase of the fourth audio signal and the sixth audio signal is calculated for each experimental position.
And the first coefficient is calculated based on the relationship between the third phase difference and the experimental position, and the second coefficient is calculated based on the relationship between the fourth phase difference and the experimental position. The program is characterized by causing a computer to execute a process including a second calculating step.

【0029】本発明の情報生成装置および方法、並びに
第2のプログラムにおいては、第1の集音装置、第2の
集音装置、および第3の集音装置のそれぞれにより集音
された、所定の範囲内に設けられた複数の実験位置に位
置した音源が発した音声に対応する第4の音声信号、第
5の音声信号、および第6の音声信号から、第4の音声
信号の位相と第5の音声信号の位相との第3の位相差、
および第4の音声信号の位相と第6の音声信号との第4
の位相差が、実験位置毎に算出され、第3の位相差と実
験位置との関係に基づいて、第1の係数が算出され、第
4の位相差と実験位置との関係に基づいて、第2の係数
が算出される。
According to the information generating apparatus and method of the present invention, and the second program, the predetermined sound collected by each of the first sound collecting device, the second sound collecting device, and the third sound collecting device. From the fourth, fifth, and sixth audio signals corresponding to the sounds emitted by the sound sources located at the plurality of experimental positions provided in the range of the fourth audio signal, A third phase difference from the phase of the fifth audio signal,
And the fourth of the phase of the fourth audio signal and the sixth audio signal
Is calculated for each experimental position, a first coefficient is calculated based on the relationship between the third phase difference and the experimental position, and based on the relationship between the fourth phase difference and the experimental position, A second coefficient is calculated.

【0030】[0030]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

【0031】図1は、本発明を適用した音源状態検出シ
ステムの第1の実施の形態の構成例を示している。この
システムでは、所定の位置にある音源が発した音声か
ら、音源の向きが検出される。なお、ここでは、音源
は、所定の位置にあるユーザの口元とし、ユーザが発し
た音声から、ユーザの口元の向き(ユーザの顔の向き)
が検出される。
FIG. 1 shows a configuration example of a first embodiment of a sound source state detection system to which the present invention is applied. In this system, the direction of the sound source is detected from the sound emitted by the sound source at a predetermined position. Here, the sound source is the mouth of the user at a predetermined position, and the direction of the mouth of the user (the direction of the face of the user) is determined based on the voice uttered by the user.
Is detected.

【0032】マイクロフォン(以下、マイクと略称す
る)1Lおよびマイク1Rは、図2(A)に示すよう
に、ユーザの頭部の中心点が位置Aに位置する場合にお
いて、ユーザの顔が正面方向を向いているとき、マイク
1Lとユーザの口元(音源)の距離Lと、マイクRと音
源の距離Rが、それぞれ等しくなる位置に設置されてい
る。
As shown in FIG. 2A, when the center point of the user's head is located at position A, the microphone (hereinafter referred to as microphone) 1L and microphone 1R Is located at a position where the distance L between the microphone 1L and the mouth (sound source) of the user and the distance R between the microphone R and the sound source are equal to each other.

【0033】図1に戻り、マイク1Lおよびマイク1R
のそれぞれは、音源であるユーザの口元から発せられた
音声を集音し、マイクアンプ2Lおよびマイクアンプ2
Rに供給する。
Returning to FIG. 1, the microphone 1L and the microphone 1R
Collects the sound emitted from the mouth of the user, which is the sound source, and collects the microphone amplifier 2L and the microphone amplifier 2L.
Supply to R.

【0034】マイクアンプ2Lは、マイク1Lからの音
声信号を増幅して、処理用音声信号Lを生成し、検出装
置3に供給する。マイクアンプ2Rは、マイク1Rから
の音声信号を増幅して、処理用音声信号Rを生成し、検
出装置3に供給する。
The microphone amplifier 2L amplifies the audio signal from the microphone 1L, generates a processing audio signal L, and supplies it to the detection device 3. The microphone amplifier 2R amplifies the audio signal from the microphone 1R, generates a processing audio signal R, and supplies the processing audio signal R to the detection device 3.

【0035】検出装置3は、マイクアンプ2Lから供給
される処理用音声信号Lおよびマイクアンプ2Rから供
給される処理用音声信号Rから、処理用音声信号Lの音
圧Lと処理用音声信号Rの音圧Rとの音圧比RL(=音
圧R/音圧L)を算出する。
From the processing audio signal L supplied from the microphone amplifier 2L and the processing audio signal R supplied from the microphone amplifier 2R, the detection device 3 determines the sound pressure L of the processing audio signal L and the processing audio signal R The sound pressure ratio RL (= sound pressure R / sound pressure L) to the sound pressure R is calculated.

【0036】検出装置3は、算出した音圧比RLに対応
する音源の向き、すなわち、この例の場合、ユーザの口
元の向き(ユーザの顔の向き)を、図3に示す、音圧比
RLと口元(音源)の向きとの対応関係を示すデータを
参照することで検出し、それを、図示せぬ外部の装置に
出力する。
The detection device 3 determines the direction of the sound source corresponding to the calculated sound pressure ratio RL, that is, in this example, the direction of the mouth of the user (the direction of the face of the user) to the sound pressure ratio RL shown in FIG. Detection is performed by referring to data indicating a correspondence relationship with the direction of the mouth (sound source), and the detection is output to an external device (not shown).

【0037】ところで、音声の音圧は、音源からの距離
が短ければ短いほど大きくなることから、図2(C)に
示すように、ユーザの顔(口元)が正面方向に対して右
側を向いており、距離Rが、距離Lより短い場合、この
とき検出される、マイク1Rにより集音される、ユーザ
が発した音声の音圧(処理用音声信号Rの音圧R)は、
マイク1Lにより集音される、ユーザが発した音声の音
圧(処理用音声信号Lの音圧L)より大きなる。すなわ
ちこの場合、音圧比RLは、1より大きな所定の値とな
る。
By the way, since the sound pressure of the voice increases as the distance from the sound source decreases, as shown in FIG. 2C, the face (mouth) of the user faces rightward with respect to the front direction. If the distance R is shorter than the distance L, the sound pressure detected by the microphone 1R and detected by the user (sound pressure R of the processing sound signal R) is:
The sound pressure is higher than the sound pressure of the sound emitted by the user (sound pressure L of the processing sound signal L) collected by the microphone 1L. That is, in this case, the sound pressure ratio RL becomes a predetermined value larger than 1.

【0038】また、図2(B)に示すように、口元が正
面方向に対して左側を向いており、距離Rが、距離Lよ
り長い場合、音圧Rは、音圧Lより小さくなるので、音
圧比RLは、1より小さい所定の値となる。
Further, as shown in FIG. 2B, when the mouth is directed to the left with respect to the front direction and the distance R is longer than the distance L, the sound pressure R becomes smaller than the sound pressure L. , The sound pressure ratio RL is a predetermined value smaller than 1.

【0039】また、図2(A)に示すように、口元が正
面方向を向いており、距離Rが、距離Lと等しい場合、
音圧Rは、音圧Lと等しくなるので、音圧比RLは、1
となる。
Also, as shown in FIG. 2A, when the mouth is in the front direction and the distance R is equal to the distance L,
Since the sound pressure R is equal to the sound pressure L, the sound pressure ratio RL is 1
It becomes.

【0040】このように、音圧比RL(=音圧R/音圧
L)は、口元(音源)の向き(正確には、口元とマイク
1との距離)に対応するので、例えば、口元が向く方向
を変え、そのとき発せられた音声の音圧比RL、および
口元が向く方向を表す値を集計することで、図3に示す
データが得られる。
As described above, the sound pressure ratio RL (= sound pressure R / sound pressure L) corresponds to the direction of the mouth (sound source) (more precisely, the distance between the mouth and the microphone 1). The data shown in FIG. 3 is obtained by changing the heading direction and summing up the sound pressure ratio RL of the sound emitted at that time and the value indicating the heading direction.

【0041】図4は、検出装置3の構成例を示してい
る。
FIG. 4 shows an example of the configuration of the detection device 3.

【0042】入力部11は、マイクアンプ2Lおよびマ
イクアンプ2Rのそれぞれから適宜供給される処理用音
声信号Lおよび処理用音声信号Rを入力する。入力部1
1は、入力した、処理用音声信号L,Rの一部(例え
ば、所定の時間内に入力した部分)を、特徴量算出部1
2に供給する。
The input section 11 inputs the processing audio signal L and the processing audio signal R appropriately supplied from each of the microphone amplifier 2L and the microphone amplifier 2R. Input unit 1
Reference numeral 1 designates a part of the input processing audio signals L and R (for example, a part input within a predetermined time) as a feature value calculation unit 1.
Feed to 2.

【0043】特徴量算出部12は、入力部11から供給
された処理用音声信号L,Rから、それぞれの音圧L,
Rを算出するとともに、音圧比RL(=音圧R/音圧
L)を算出し、それを、検出部13に供給する。$検出
部13は、図3に示した、音圧比RLと口元(音源)の
対応関係を示すデータを保持しており、そのデータに基
づいて、特徴量算出部12から供給された音圧比RLに
対応する口元の向きを検出し、出力部14に供給する。
The feature quantity calculating section 12 converts the sound pressures L, R from the processing sound signals L, R supplied from the input section 11 into respective sound pressures L, R.
R is calculated, and a sound pressure ratio RL (= sound pressure R / sound pressure L) is calculated and supplied to the detection unit 13. The detection unit 13 holds data indicating the correspondence between the sound pressure ratio RL and the mouth (sound source) shown in FIG. 3, and based on the data, the sound pressure ratio RL supplied from the feature amount calculation unit 12. Is detected, and supplied to the output unit 14.

【0044】出力部14は、検出部13から供給された
口元(音源)の向きを、外部の装置に供給する。
The output unit 14 supplies the direction of the mouth (sound source) supplied from the detection unit 13 to an external device.

【0045】図5は、特徴量算出部12の構成例を示し
ている。入力部11から供給された処理用音声信号L
は、音圧算出部21Lに供給され、処理用音声信号R
は、音圧算出部21Rに、それぞれ供給される。
FIG. 5 shows an example of the configuration of the feature amount calculation unit 12. Processing audio signal L supplied from input unit 11
Is supplied to the sound pressure calculation unit 21L, and the processing audio signal R
Are supplied to the sound pressure calculation unit 21R.

【0046】音圧算出部21Lは、例えば、入力された
処理用音声信号Lが示す値の2乗平均値、2乗平均の平
方根、または絶対値の平均値を、処理用音声信号Lの音
圧Lとして算出し、その算出結果を、音圧比算出部22
に供給する。音圧算出部21Rは、音圧算出部21Lと
同様の方法で、処理用音声信号Rの音圧Rを算出し、音
圧比算出部22に供給する。
The sound pressure calculating section 21L calculates, for example, the mean square value, the square root of the mean square, or the average value of the absolute values of the values indicated by the input processing audio signal L, Pressure L, and the result of the calculation is used as the sound pressure ratio calculation unit 22.
To supply. The sound pressure calculation unit 21R calculates the sound pressure R of the processing audio signal R in the same manner as the sound pressure calculation unit 21L, and supplies the sound pressure R to the sound pressure ratio calculation unit 22.

【0047】音圧比算出部22は、音圧算出部21Lか
らの音圧Lと、音圧算出部21Rからの音圧Rに基づい
て、音圧比RL(=音圧R/音圧L)を算出し、その算
出結果を、検出部13に供給する。
The sound pressure ratio calculator 22 calculates the sound pressure ratio RL (= sound pressure R / sound pressure L) based on the sound pressure L from the sound pressure calculator 21L and the sound pressure R from the sound pressure calculator 21R. It calculates and supplies the calculation result to the detection unit 13.

【0048】次に、第1の実施の形態における音源状態
検出システムの動作を、図6のフローチャートを参照し
て説明する。
Next, the operation of the sound source state detection system according to the first embodiment will be described with reference to the flowchart of FIG.

【0049】ステップS1において、マイク1L,1R
のそれぞれは、所定の方向を向いているユーザが発した
(所定の方向を向いている口元からの)音声を集音し、
その結果得られた音声信号を、マイクアンプ2L,2R
に供給する。
In step S1, the microphones 1L, 1R
Each collects the sound (from the lips facing the predetermined direction) emitted by the user facing the predetermined direction,
The resulting audio signal is transmitted to microphone amplifiers 2L, 2R
To supply.

【0050】ステップS2において、マイクアンプ2
L,2Rのそれぞれは、マイク1L,1Rから供給され
た音声信号を増幅して、処理用音声信号L,Rを生成
し、検出装置3に供給する。
In step S2, the microphone amplifier 2
Each of L and 2R amplifies the audio signal supplied from the microphones 1L and 1R, generates processing audio signals L and R, and supplies the processed audio signals L and R to the detection device 3.

【0051】ステップS3において、検出装置3は、マ
イクアンプ2L,2Rのそれぞれから供給された処理用
音声信号L,Rに基づいて、口元(音源)の向きを検出
する。ここでの処理の詳細は、図7のフローチャートに
示されている。
In step S3, the detection device 3 detects the direction of the mouth (sound source) based on the processing audio signals L and R supplied from the microphone amplifiers 2L and 2R, respectively. Details of the processing here are shown in the flowchart of FIG.

【0052】ステップS11において、検出装置3の入
力部11は、入力したマイクアンプ2L,2Rのそれぞ
れからの処理用音声信号L,Rの一部(所定の時間内に
入力した部分)を、特徴量算出部12に供給する。
In step S11, the input unit 11 of the detecting device 3 outputs a part of the input processing audio signals L and R from the microphone amplifiers 2L and 2R (portion input within a predetermined time). It is supplied to the quantity calculation unit 12.

【0053】次に、ステップS12において、特徴量算
出部12(音圧算出部21L,21R)は、入力部11
から供給された処理用音声信号L,Rから、それらの音
圧L,Rをそれぞれ算出する。
Next, in step S12, the characteristic amount calculation unit 12 (sound pressure calculation units 21L and 21R)
From the processing audio signals L and R supplied from the computer, respectively.

【0054】ステップS13において、特徴量算出部1
2(音圧比算出部22)は、ステップS12で算出した
音圧L,Rに基づいて、音圧比RL(=音圧R/音圧
L)を算出し、検出部13に供給する。
In step S13, the characteristic amount calculation unit 1
2 (sound pressure ratio calculation unit 22) calculates a sound pressure ratio RL (= sound pressure R / sound pressure L) based on the sound pressures L and R calculated in step S <b> 12, and supplies the calculated sound pressure ratio RL to the detection unit 13.

【0055】次に、ステップS14において、検出部1
3は、音圧比RLと口元(音源)の向きとの対応関係を
示すデータ(図3)を参照して、特徴量算出部12から
供給された音圧比RLに対応する音源の向きを検出し、
出力部14に供給する。
Next, in step S14, the detecting unit 1
3 detects the direction of the sound source corresponding to the sound pressure ratio RL supplied from the feature amount calculation unit 12 with reference to the data (FIG. 3) indicating the correspondence between the sound pressure ratio RL and the direction of the mouth (sound source). ,
It is supplied to the output unit 14.

【0056】ステップS15において、出力部14は、
検出部13から供給された口元(音源)の向きを、外部
の装置に出力する。
In step S15, the output unit 14
The direction of the mouth (sound source) supplied from the detection unit 13 is output to an external device.

【0057】その後、検出装置3の処理は終了し、音源
状態検出システムの動作(図6)も、終了する。
Thereafter, the processing of the detection device 3 ends, and the operation of the sound source state detection system (FIG. 6) also ends.

【0058】図8は、本発明を適用した音源状態検出シ
ステムの第2の実施の形態の構成例を示している。この
システムでは、第1の実施の形態(図1)における場合
と同様に、所定の位置にある音源が発した音声から、音
源の向きが検出される。
FIG. 8 shows a configuration example of a sound source state detection system according to a second embodiment of the present invention. In this system, as in the case of the first embodiment (FIG. 1), the direction of the sound source is detected from the sound emitted by the sound source at a predetermined position.

【0059】このシステムには、図1に示す検出装置3
に代えて、検出装置31が設けられている。その他の構
成は、図1における場合と同様であり、その説明は適宜
省略する。
This system includes a detecting device 3 shown in FIG.
, A detection device 31 is provided. Other configurations are the same as those in FIG. 1, and the description thereof will be omitted as appropriate.

【0060】マイク1Lとマイク1Rは、第1の実施の
形態における場合と同様の位置に設置されている(図
9)。
The microphone 1L and the microphone 1R are installed at the same positions as in the first embodiment (FIG. 9).

【0061】検出装置31は、マイクアンプ2Lから供
給される処理用音声信号Lおよびマイクアンプ2Rから
供給される処理用音声信号Rから、処理用音声信号Lの
高周波部分(以下、高周波処理用音声信号Lhと称す
る)の音圧Lhと、処理用音声信号Rの高周波部分(以
下、高周波処理用音声信号Rhと称する)の音圧Rhとの
音圧比RLh(=音圧Rh/音圧Hh)を算出する。
The detecting device 31 extracts a high-frequency portion (hereinafter referred to as a high-frequency processing audio signal) of the processing audio signal L from the processing audio signal L supplied from the microphone amplifier 2L and the processing audio signal R supplied from the microphone amplifier 2R. A sound pressure ratio RLh (= sound pressure Rh / sound pressure Hh) between a sound pressure Lh of the signal Lh) and a sound pressure Rh of a high-frequency portion of the processing sound signal R (hereinafter, referred to as a high-frequency processing sound signal Rh). Is calculated.

【0062】検出装置31は、算出した音圧比RLhに
対応する口元(音源)の向きを、図10に示す、音圧比
RLhと口元の向きとの対応関係を示すデータに基づい
て検出し、それを、図示せぬ外部の装置に出力する。
The detecting device 31 detects the direction of the mouth (sound source) corresponding to the calculated sound pressure ratio RLh based on the data shown in FIG. 10 indicating the correspondence between the sound pressure ratio RLh and the direction of the mouth. Is output to an external device (not shown).

【0063】ところで、音声、特にその高周波部分には
指向性があるので、その高周波部分の音圧は、音源に対
する角度が小さければ小さいほど大きくなる。このこと
から、図9(C)に示すように、口元が正面方向に対し
て右側を向いており、角度Rが、角度Lより小さい場
合、このとき検出される、マイク1Rにより集音され
る、ユーザが発した音声の高周波部分の音圧(高周波処
理用音声信号Rhの音圧Rh)は、マイク1Lにより集音
される、ユーザが発した音声の高周波部分の音圧(高周
波処理用音声信号Lhの音圧Lh)よりも大きくなる。す
なわちこの場合、音圧比RLhは、1より大きい所定の
値となる。
By the way, since sound, especially its high frequency part has directivity, the sound pressure of the high frequency part becomes larger as the angle with respect to the sound source becomes smaller. From this, as shown in FIG. 9C, when the mouth faces rightward with respect to the front direction and the angle R is smaller than the angle L, sound is collected by the microphone 1R detected at this time. The sound pressure of the high-frequency part of the sound emitted by the user (the sound pressure Rh of the sound signal Rh for high-frequency processing) is collected by the microphone 1L, It becomes larger than the sound pressure Lh) of the signal Lh. That is, in this case, the sound pressure ratio RLh is a predetermined value larger than 1.

【0064】また、図9(B)に示すように、口元が正
面方向に対して左側を向いており、角度Rが、角度Lよ
り大きい場合、音圧Rhは、音圧Lhよりも小さくなるの
で、音圧比RLhは、1より小さい所定の値となる。
As shown in FIG. 9 (B), when the mouth is directed to the left with respect to the front direction and the angle R is larger than the angle L, the sound pressure Rh becomes smaller than the sound pressure Lh. Therefore, the sound pressure ratio RLh becomes a predetermined value smaller than 1.

【0065】また、図9(A)に示すように、口元が正
面方向を向いており、角度Rが、角度Lと等しい場合、
音圧Rhは、音圧Lhと等しくなるので、音圧比RLh
は、1となる。
Further, as shown in FIG. 9A, when the mouth is directed to the front and the angle R is equal to the angle L,
Since the sound pressure Rh is equal to the sound pressure Lh, the sound pressure ratio RLh
Becomes 1.

【0066】このように、音圧比RLhは、口元(音
源)の向き(正確には、口元が向いている方向と、口元
の位置からのマイク1が位置する方向との角度)に対応
するので、口元が向く方向を変え、そのとき発せられた
音声の音圧比RLh、および口元が向く方向を表す値を
集計することで、図10に示すデータが得られる。
As described above, the sound pressure ratio RLh corresponds to the direction of the mouth (sound source) (more precisely, the angle between the direction in which the mouth is facing and the direction in which the microphone 1 is located from the position of the mouth). The direction shown in FIG. 10 is obtained by changing the direction in which the lips face and changing the sound pressure ratio RLh of the sound emitted at that time and the value indicating the direction in which the lips face.

【0067】図11は、検出装置31の構成例を示して
いる。この検出装置31には、図4の検出装置3の特徴
量算出部12および検出部13に代えて、特徴量算出部
41および検出部42が設けられている。他の部分は、
図4における場合と同様である。
FIG. 11 shows a configuration example of the detection device 31. The detection device 31 includes a feature value calculation unit 41 and a detection unit 42 instead of the feature value calculation unit 12 and the detection unit 13 of the detection device 3 in FIG. The other part is
This is the same as in FIG.

【0068】特徴量算出部41は、入力部11から供給
された処理用音声信号L,Rの高周波部分のみを通過さ
せることで得られた、高周波処理用音声信号Lhおよび
高周波処理用音声信号Rhから、それらの音圧Lhおよび
音圧Rhをそれぞれ算出するとともに、算出した音圧Lh
と音圧Rhの音圧比RLh(=音圧Rh/音圧Lh)を算出
し、検出部42に供給する。
The feature value calculating section 41 outputs the high-frequency processing audio signal Lh and the high-frequency processing audio signal Rh obtained by passing only the high-frequency portions of the processing audio signals L and R supplied from the input section 11. From these, the sound pressure Lh and the sound pressure Rh are calculated respectively, and the calculated sound pressure Lh
And a sound pressure ratio RLh (= sound pressure Rh / sound pressure Lh) of the sound pressure Rh and the sound pressure Rh.

【0069】検出部42は、図10に示した、音圧比R
Lhと口元(音源)の向きとの対応関係を示すデータを
保持しており、そのデータに基づいて、特徴量算出部4
1から供給された音圧比RLhに対応する口元の向きを
検出し、出力部14に供給する。
The detector 42 detects the sound pressure ratio R shown in FIG.
It holds data indicating the correspondence between Lh and the direction of the mouth (sound source), and based on the data, the feature amount calculation unit 4
The direction of the mouth corresponding to the sound pressure ratio RLh supplied from 1 is detected and supplied to the output unit 14.

【0070】図12は、特徴量算出部41の構成例を示
している。この特徴量算出部41には、図5の特徴量算
出部12の音圧算出部21Lおよび音圧算出部21Rの
前段に、ハイパスフィルタ(HPF)51Lおよびハイ
パスフィルタ51Rが設けられている。他の構成は、図
5における場合と同様である。
FIG. 12 shows an example of the configuration of the feature amount calculator 41. In the feature amount calculation unit 41, a high-pass filter (HPF) 51L and a high-pass filter 51R are provided before the sound pressure calculation unit 21L and the sound pressure calculation unit 21R of the feature amount calculation unit 12 in FIG. Other configurations are the same as those in FIG.

【0071】ハイパスフィルタ51Lは、入力部11か
ら供給された処理用音声信号Lの高周波部分のみを通過
させて、音圧算出部21Lに供給する。すなわち、高周
波処理用音声信号Lhが、音圧算出部21Lに供給され
る。
The high-pass filter 51L passes only the high-frequency portion of the processing audio signal L supplied from the input unit 11 and supplies it to the sound pressure calculation unit 21L. That is, the high-frequency processing audio signal Lh is supplied to the sound pressure calculation unit 21L.

【0072】ハイパスフィルタ51Rは、入力部11か
ら供給された処理用音声信号Rの高周波部分のみを通過
させて、音圧算出部21Rに供給する。すなわち、高周
波処理用音声信号Rhが、音圧算出部21Rに供給され
る。
The high-pass filter 51R allows only the high-frequency portion of the processing audio signal R supplied from the input unit 11 to pass and supplies it to the sound pressure calculation unit 21R. That is, the high-frequency processing audio signal Rh is supplied to the sound pressure calculation unit 21R.

【0073】図13は、ハイパスフィルタ51のカット
オフ特性を示している。カットオフ周波数fは、例え
ば、それを固定の値とすることや、ユーザの音声のピッ
チ周波数に比例する周波数とすることができる。
FIG. 13 shows the cut-off characteristic of the high-pass filter 51. The cutoff frequency f can be, for example, a fixed value or a frequency proportional to the pitch frequency of the user's voice.

【0074】ここでピッチ周波数とは、図14に示すよ
うなユーザの音声の波形の中で繰り返される基本的な波
形の周期Tの逆数である。ピッチ周波数は、人それぞれ
により異なる。
Here, the pitch frequency is the reciprocal of the period T of the basic waveform repeated in the waveform of the user's voice as shown in FIG. The pitch frequency is different for each person.

【0075】図12に戻り、音圧算出部21Lは、ハイ
パスフィルタ51Lから供給される高周波処理用音声信
号Lhの音圧Lhを算出し、音圧比算出部22に供給す
る。音圧算出部21Rは、ハイパスフィルタ51Rから
供給される高周波処理用音声信号Rhの音圧Rhを算出
し、音圧比算出部22に供給する。
Returning to FIG. 12, the sound pressure calculator 21L calculates the sound pressure Lh of the high-frequency processing sound signal Lh supplied from the high-pass filter 51L, and supplies the sound pressure Lh to the sound pressure ratio calculator 22. The sound pressure calculation unit 21R calculates the sound pressure Rh of the high-frequency processing audio signal Rh supplied from the high-pass filter 51R, and supplies the sound pressure Rh to the sound pressure ratio calculation unit 22.

【0076】音圧比算出部22は、音圧算出部21Lか
らの音圧Lhと、音圧算出部21Rからの音圧Rhとの音
圧比RLh(=音圧Rh/音圧Lh)を算出し、検出部4
2に供給する。
The sound pressure ratio calculator 22 calculates a sound pressure ratio RLh (= sound pressure Rh / sound pressure Lh) between the sound pressure Lh from the sound pressure calculator 21L and the sound pressure Rh from the sound pressure calculator 21R. , Detection unit 4
Feed to 2.

【0077】次に、第2の実施の形態における音源状態
検出システムの動作を、図15のフローチャートを参照
して説明する。
Next, the operation of the sound source state detection system according to the second embodiment will be described with reference to the flowchart of FIG.

【0078】ステップS21,S22においては、図6
のステップS1,S2における場合と同様の処理が実行
されるので、その説明は省略する。
In steps S21 and S22, FIG.
Since the same processes as those in steps S1 and S2 are performed, description thereof will be omitted.

【0079】ステップS23において、検出装置31
は、マイクアンプ2L,2Rのそれぞれから供給された
処理用音声信号L,Rに基づいて、口元(音源)の向き
を検出する。ここでの処理の詳細は、図16のフローチ
ャートに示されている。
In step S23, the detecting device 31
Detects the direction of the mouth (sound source) based on the processing audio signals L and R supplied from the microphone amplifiers 2L and 2R, respectively. Details of the processing here are shown in the flowchart of FIG.

【0080】ステップS31において、入力部11は、
マイクアンプ2L,2Rのそれぞれからの処理用音声信
号L,Rの一部(例えば、所定の時間内に入力した部
分)を、特徴量算出部41に供給する。
In step S31, the input unit 11
A part of the processing audio signals L and R from each of the microphone amplifiers 2L and 2R (for example, a part input within a predetermined time) is supplied to the feature amount calculation unit 41.

【0081】次に、ステップS32において、特徴量算
出部41(ハイパスフィルタ51L,51R)は、入力
部11から供給された処理用音声信号L,Rの高周波部
分を濾過し、高周波処理用音声信号Lh,Rhを生成す
る。
Next, in step S 32, the characteristic amount calculating section 41 (high-pass filters 51 L, 51 R) filters the high-frequency portions of the processing audio signals L, R supplied from the input section 11, and Lh and Rh are generated.

【0082】ステップS33において、特徴量算出部4
1(音圧算出部21L,21R)は、ステップS32で
生成した高周波処理用音声信号Lh,Rhから、音圧L
h,Rhをそれぞれ算出する。
In step S33, the characteristic amount calculating section 4
1 (sound pressure calculation units 21L and 21R) calculates the sound pressure L from the high-frequency processing sound signals Lh and Rh generated in step S32.
h and Rh are calculated respectively.

【0083】次に、ステップS34において、特徴量算
出部41(音圧比算出部22)は、ステップS33で算
出した音圧Lh,Rhに基づいて、音圧比RLh(=音圧
Rh/音圧Lh)を算出し、検出部42に供給する。
Next, in step S34, the characteristic amount calculation unit 41 (sound pressure ratio calculation unit 22) uses the sound pressure ratio RLh (= sound pressure Rh / sound pressure Lh) based on the sound pressures Lh and Rh calculated in step S33. ) Is calculated and supplied to the detection unit 42.

【0084】ステップS35において、検出部42は、
音圧比RLhと口元(音源)の向きとの対応関係を示す
データ(図10)を参照して、特徴量算出部41から供
給された音圧比RLhに対応する音源の向きを検出し、
出力部14に供給する。
In step S35, the detection unit 42
With reference to data (FIG. 10) indicating the correspondence between the sound pressure ratio RLh and the direction of the mouth (sound source), the direction of the sound source corresponding to the sound pressure ratio RLh supplied from the feature amount calculation unit 41 is detected.
It is supplied to the output unit 14.

【0085】次に、ステップS36において、出力部1
4は、検出部42から供給された口元(音源)を、外部
の装置に出力する。
Next, in step S36, the output unit 1
4 outputs the mouth (sound source) supplied from the detection unit 42 to an external device.

【0086】その後、検出装置31の処理は終了し、音
源状態検出システムの動作(図15)も終了する。
Thereafter, the processing of the detection device 31 ends, and the operation of the sound source state detection system (FIG. 15) also ends.

【0087】図17は、本発明を適用した音源状態検出
システムの第3の実施の形態の構成例を示している。こ
のシステムでは、第1の実施の形態(図1)および第2
の実施の形態(図8)における場合と同様に、所定の位
置にある音源が発した音声から、音源の向きが検出され
る。
FIG. 17 shows a configuration example of a third embodiment of a sound source state detection system to which the present invention is applied. In this system, the first embodiment (FIG. 1) and the second embodiment
As in the case of the embodiment (FIG. 8), the direction of the sound source is detected from the sound emitted by the sound source at the predetermined position.

【0088】このシステムには、図1に示す検出装置3
に代えて、検出装置61が設けられている。他の構成に
ついては同様である。$マイク1Lとマイク1Rは、第
1の実施の形態における場合と同様の位置に設置されて
いる(図2)。
This system includes the detecting device 3 shown in FIG.
, A detection device 61 is provided. The same applies to other configurations. (4) The microphone 1L and the microphone 1R are installed at the same positions as those in the first embodiment (FIG. 2).

【0089】検出装置61は、マイクアンプ2Lから供
給される処理用音声信号Lおよびマイクアンプ2Rから
供給される処理用音声信号Rから、処理用音声信号Rの
位相に対する処理用音声信号Lの位相のずれ(位相差)
を算出する。検出装置61は、算出した位相差に対応す
るユーザの口元(音源)の向きを、図18に示す、位相
差と口元(音源)の向きとの対応関係を示すデータに基
づいて検出し、図示せぬ外部の装置に出力する。
The detection device 61 determines the phase of the processing audio signal L with respect to the phase of the processing audio signal R from the processing audio signal L supplied from the microphone amplifier 2L and the processing audio signal R supplied from the microphone amplifier 2R. Deviation (phase difference)
Is calculated. The detection device 61 detects the direction of the user's lip (sound source) corresponding to the calculated phase difference based on the data indicating the correspondence between the phase difference and the direction of the lip (sound source) shown in FIG. Output to an external device not shown.

【0090】ところで、音声は、マイク1と音源との距
離が長ければ長いほど、マイク1に到達するのに時間が
かかり、また後に到達した音声の位相は、先に到達した
音声の位相に比べ遅れる特徴がある。このことから、例
えば、図2(B)に示すように、口元が正面方向に対し
て左側を向いており、距離Rが、距離Lより長い場合、
このときユーザから発せられた音声は、マイク1Lに先
に到達し、その後マイク1Rに到達するので、このとき
検出されるマイク1Rにより集音される音声(処理用音
声信号R)の位相(図19(B))は、マイク1Lによ
り集音される音声(処理用音声信号L)の位相(図19
(A))に比べ遅れる。すなわちこの場合、処理用音声
信号Rの位相に対する処理用音声信号Lの位相の差は、
負の値となる。
By the way, the longer the distance between the microphone 1 and the sound source, the longer it takes to reach the microphone 1, and the phase of the sound that arrives later is smaller than the phase of the sound that arrives first. There is a delay feature. From this, for example, as shown in FIG. 2 (B), when the mouth is directed to the left with respect to the front direction and the distance R is longer than the distance L,
At this time, since the sound emitted from the user reaches the microphone 1L first and then reaches the microphone 1R, the phase of the sound (processing sound signal R) collected by the microphone 1R detected at this time (see FIG. 19 (B)) is the phase of the sound (processing sound signal L) collected by the microphone 1L (FIG. 19).
(A)). That is, in this case, the difference between the phase of the processing audio signal R and the phase of the processing audio signal R is
This will be a negative value.

【0091】なおこのとき、距離Lは、距離Rより短い
ので、図19(A)に示す処理用音声信号Lのレベル
は、図19(B)に示す処理用音声信号Rのレベルより
高くなる。
At this time, since the distance L is shorter than the distance R, the level of the processing audio signal L shown in FIG. 19A is higher than the level of the processing audio signal R shown in FIG. 19B. .

【0092】また、図2(C)に示すように、口元が正
面方向に対して右側を向いており、距離Rが、距離Lよ
り短い場合、このときユーザから発せられた音声は、マ
イク1Rに先に到達し、その後マイク1Lに到達するの
で、処理用音声信号R(図20(B))の位相は、処理
用音声信号L(図20(A))の位相に比べ進む。すな
わちこの場合、処理用音声信号Rの位相に対する処理用
音声信号Lの位相の差は、正の値となる。$なおこのと
き、距離Rは、距離Lより短いので、図20(B)に示
す処理用音声信号Rのレベルは、図20(A)に示す処
理用音声信号Lのレベルより高い。
As shown in FIG. 2 (C), when the mouth is directed to the right with respect to the front direction and the distance R is shorter than the distance L, the voice uttered by the user at this time is the microphone 1R , And then reaches the microphone 1L, so that the phase of the processing audio signal R (FIG. 20B) advances as compared with the phase of the processing audio signal L (FIG. 20A). That is, in this case, the difference between the phase of the processing audio signal R and the phase of the processing audio signal L is a positive value. At this time, since the distance R is shorter than the distance L, the level of the processing audio signal R shown in FIG. 20B is higher than the level of the processing audio signal L shown in FIG.

【0093】また、図2(A)に示すように、ユーザの
顔が正面方向を向いており、距離Rが、距離Lと等しい
場合、このときユーザから発せられた音声は、マイク1
Rとマイク1Lに同時到達するので、処理用音声信号R
(図21(B))の位相と、処理用音声信号L(図21
(A))の位相は、一致する。すなわちこの場合、処理
用音声信号Rの位相に対する処理用音声信号Lの位相の
位相差は、零となる。
As shown in FIG. 2A, when the user's face is facing the front and the distance R is equal to the distance L, the voice uttered by the user at this time is
R and the microphone 1L at the same time, so that the processing audio signal R
(FIG. 21B) and the processing audio signal L (FIG. 21B).
The phases of (A)) match. That is, in this case, the phase difference between the phase of the processing audio signal L and the phase of the processing audio signal L is zero.

【0094】なおこのとき、距離Rと距離Lは等しいの
で、図21(B)に示す処理用音声信号Rのレベルと図
21(A)に示す処理用音声信号Lのレベルは同じにな
る。
At this time, since the distance R is equal to the distance L, the level of the processing audio signal R shown in FIG. 21B and the level of the processing audio signal L shown in FIG.

【0095】このように、位相差は、口元(音源)の向
きに対応するので、口元が向く方向を変え、そのとき発
せられた音声の位相差、および口元が向く方向を表す値
を集計することで、図18に示すデータが得られる。
As described above, since the phase difference corresponds to the direction of the mouth (sound source), the direction of the mouth is changed, and the phase difference of the sound emitted at that time and the value indicating the direction of the mouth are totaled. Thus, the data shown in FIG. 18 is obtained.

【0096】図22は、検出装置61の構成例を示して
いる。この検出装置61には、図4の検出装置3の特徴
量算出部12および検出部13に代えて、特徴量算出部
71および検出部72が設けられている。他の構成は、
図4における場合と同様である。
FIG. 22 shows a configuration example of the detection device 61. The detection device 61 includes a feature value calculation unit 71 and a detection unit 72 instead of the feature value calculation unit 12 and the detection unit 13 of the detection device 3 in FIG. Other configurations are
This is the same as in FIG.

【0097】特徴量算出部71は、入力部11から供給
された処理用音声信号Lと処理用音声信号Rから、処理
用音声信号Rの位相に対する処理用音声信号Lの位相の
位相差を算出する。
The feature quantity calculating section 71 calculates a phase difference between the phase of the processing audio signal R and the phase of the processing audio signal R from the processing audio signal L and the processing audio signal R supplied from the input section 11. I do.

【0098】具体的には、特徴量算出部71は、処理用
音声信号L,Rを、所定のサンプリング周期Tでサンプ
リングして、量子化する。これにより、処理用音声信号
Lからは、N個のサンプルL1乃至LNが、処理用音声信
号Rからは、N個のサンプルR1乃至RNがそれぞれ得ら
れる。なお、サンプルLまたはサンプルRに付されてい
る下付の番号は、サンプリング順を表してる。すなわ
ち、サンプルL1は、最初にサンプリングされたサンプ
ル(第1番目のサンプル)を示す。
More specifically, the feature quantity calculating section 71 samples and quantizes the processing audio signals L and R at a predetermined sampling period T. Thus, the processing audio signals L, N samples L 1 through L N is, from the processing speech signals R, N samples R 1 through R N are obtained, respectively. The subscript number given to the sample L or the sample R indicates the sampling order. That is, samples L 1 represents the first sampled samples (first-th sample).

【0099】次に、特徴量算出部71は、jが1乃至n
であるときの式(1)をそれぞれ算出し、その算出結果
の値が最大となるjの値mを検出する。そして特徴量算
出部71は、検出した値mにサンプリング周期Tを掛け
合わせて得られた値(時間)を、処理用音声信号Rの位
相に対する処理用音声信号Lの位相の位相差とする。
Next, the feature quantity calculation unit 71 determines that j is 1 to n.
Is calculated, and the value m of j at which the value of the calculation result is maximum is detected. Then, the feature amount calculating unit 71 sets a value (time) obtained by multiplying the detected value m by the sampling period T as a phase difference between the phase of the processing audio signal R and the phase of the processing audio signal L.

【数1】 (Equation 1)

【0100】式中、Li-jは、サンプルLi-jの値を示
し、Riは、サンプルRiの値を示す。
[0100] In the formula, Li-j indicates the value of the sample L ij, Ri indicates the value of the sample R i.

【0101】すなわち、処理用音声信号Rと処理用音声
信号Lとの相関値が、処理用音声信号Rに対して、処理
用音声信号Lが、n個のサンプル分の時間まで、1サン
プリング時間ずつずらされて算出され、その算出結果に
おいて最も高い相関値が得られたときの時間のずれが、
処理用音声信号Rの位相に対する処理用音声信号Lの位
相の差とされる。
That is, the correlation value between the processing audio signal R and the processing audio signal L is such that the processing audio signal L is equal to the processing audio signal R for one sampling time up to the time of n samples. Are calculated at the same time, and the time lag when the highest correlation value is obtained in the calculation result is
The difference is the difference between the phase of the processing audio signal R and the phase of the processing audio signal L.

【0102】検出部72は、図18に示した、位相差と
口元(音源)の向きとの対応関係を示すデータを保持し
ており、そのデータに基づいて、特徴量算出部71から
供給された位相差に対応する音源の向きを検出し、出力
部14に供給する。
The detecting section 72 holds data indicating the correspondence between the phase difference and the direction of the mouth (sound source) shown in FIG. 18, and is supplied from the feature amount calculating section 71 based on the data. The direction of the sound source corresponding to the detected phase difference is detected and supplied to the output unit 14.

【0103】次に、第3の実施の形態における音源状態
検出システムの動作を、図23のフローチャートを参照
して説明する。
Next, the operation of the sound source state detection system according to the third embodiment will be described with reference to the flowchart in FIG.

【0104】ステップS41,S42においては、図6
のステップS1,S2における場合と同様の処理が実行
されるので、その説明は省略する。
In steps S41 and S42, FIG.
Since the same processes as those in steps S1 and S2 are performed, description thereof will be omitted.

【0105】ステップS43において、検出装置61
は、マイクアンプ2L,2Rのそれぞれから供給された
処理用音声信号L,Rに基づいて、口元(音源)の向き
を検出する。ここでの処理の詳細は、図24のフローチ
ャートに示されている。
In step S43, the detecting device 61
Detects the direction of the mouth (sound source) based on the processing audio signals L and R supplied from the microphone amplifiers 2L and 2R, respectively. Details of the processing here are shown in the flowchart of FIG.

【0106】ステップS51において、入力部11は、
マイクアンプ2L,2Rのそれぞれからの処理用音声信
号L,Rの一部(例えば、所定の時間内に入力した部
分)を、特徴量算出部71に供給する。
In step S51, the input unit 11
A part of the processing audio signals L and R from each of the microphone amplifiers 2L and 2R (for example, a part input within a predetermined time) is supplied to the feature amount calculation unit 71.

【0107】次に、ステップS52において、特徴量算
出部71は、入力部11から供給された処理用音声信号
L,Rから、処理用音声信号Rの位相に対する処理用音
声信号Lの位相の位相差を算出し、検出部72に供給す
る。
Next, in step S 52, the feature quantity calculating section 71 calculates the position of the phase of the processing audio signal L with respect to the phase of the processing audio signal R from the processing audio signals L and R supplied from the input section 11. The phase difference is calculated and supplied to the detection unit 72.

【0108】ステップS53において、検出部72は、
位相差と口元(音源)の向きとの対応関係を示すデータ
(図18)を参照して、特徴量算出部71から供給され
た位相差に対応する音源の向きを検出し、出力部14に
供給する。
In step S53, the detection unit 72
With reference to the data (FIG. 18) indicating the correspondence between the phase difference and the direction of the mouth (sound source), the direction of the sound source corresponding to the phase difference supplied from the feature amount calculation unit 71 is detected. Supply.

【0109】ステップS54において、出力部14は、
検出部72から供給された口元(音源)の向きを、外部
の装置に出力する。
In step S54, the output unit 14
The direction of the mouth (sound source) supplied from the detection unit 72 is output to an external device.

【0110】その後、検出装置61の処理は終了し、音
源状態検出システムの動作(図23)も、終了する。
Thereafter, the processing of the detection device 61 ends, and the operation of the sound source state detection system (FIG. 23) also ends.

【0111】図25は、本発明を適用した音源状態検出
システムの第4の実施の形態の構成例を示している。第
1の実施の形態乃至第3の実施の形態においては、音源
は、移動しないことを前提として、所定の位置ある音源
の向きが検出されたが、このシステムでは、所定の範囲
内で移動する音源の位置およびその向きが検出される。
FIG. 25 shows a configuration example of a sound source state detection system according to a fourth embodiment of the present invention. In the first to third embodiments, the direction of the sound source at a predetermined position is detected on the assumption that the sound source does not move. However, in this system, the sound source moves within a predetermined range. The position of the sound source and its direction are detected.

【0112】このシステムには、図1に示す検出装置3
に代えて、検出装置101が設けられているとともに、
マイク1L、マイク1C、およびマイク1Rの3個のマ
イク1、並びにマイク1Lにより集音された音声を増幅
するマイクアンプ2L、マイク1Cにより集音された音
声を増幅するマイクアンプ2C、およびマイク1Rによ
り集音された音声を増幅するマイクアンプ2Rの3個の
マイクアンプ2が設けられている。
In this system, the detecting device 3 shown in FIG.
Instead of the detection device 101 is provided,
Microphone 1L, microphone 1C, and microphone 1R, three microphones 1, microphone amplifier 2L for amplifying audio collected by microphone 1L, microphone amplifier 2C for amplifying audio collected by microphone 1C, and microphone 1R The three microphone amplifiers 2 of the microphone amplifier 2R for amplifying the sound collected by the microphone are provided.

【0113】マイク1Lおよびマイク1Rは、図26に
示すように、例えば、ユーザの頭部の中心点が位置Aに
位置する場合において、口元が正面方向を向いていると
き、マイク1Lと口元の距離Lと、マイク1Rと口元の
距離Rが、それぞれ等しくなる位置に設置されている。
マイク1Cは、正面方向に、位置Aから所定の距離だけ
離れた位置に設置されている。
As shown in FIG. 26, for example, when the center of the user's head is located at position A and the mouth is facing the front as shown in FIG. The distance L and the distance R between the microphone 1R and the mouth are set to be equal to each other.
The microphone 1C is installed at a position away from the position A by a predetermined distance in the front direction.

【0114】図25に戻り、検出装置101は、マイク
アンプ2Cから供給される信号(以下、処理用音声信号
Cと称する)の位相に対する、マイクアンプ2Lから供
給された処理用音声信号Lの位相の位相差CL、および
処理用音声信号Cの位相に対する、マイクアンプ2Rか
ら供給された処理用音声信号Rの位相の位相差CR、お
よび所定の係数(後述)に基づいて、所定の範囲内で移
動する口元(音源)の位置を検出する。
Returning to FIG. 25, the detection apparatus 101 detects the phase of the processing audio signal L supplied from the microphone amplifier 2L with respect to the phase of the signal supplied from the microphone amplifier 2C (hereinafter referred to as the processing audio signal C). Within a predetermined range based on the phase difference CL of the phase of the processing audio signal R supplied from the microphone amplifier 2R with respect to the phase difference CL of the phase and the phase of the processing audio signal C, and a predetermined coefficient (described later). The position of the moving mouth (sound source) is detected.

【0115】この例の場合、音源の位置は、図27に示
すように、ユーザの頭部の中心点が位置Aにある場合に
おいて、ユーザの顔が正面方向を向いているときの口元
(音源)の位置(以下、基準位置と称する)を原点とす
る座標(x,y)で示される。
In the case of this example, as shown in FIG. 27, when the center of the user's head is at position A, as shown in FIG. ) (Hereinafter referred to as a reference position) as an origin (x, y).

【0116】検出装置101はまた、検出した口元(音
源)の位置に対応する所定の係数(後述)、および処理
用音声信号Lの音圧Lと処理用音声信号Rの音圧Rとの
音圧比RL(=音圧R/音圧L)に基づいて、音源の向
きを検出する。
The detection apparatus 101 also generates a predetermined coefficient (described later) corresponding to the detected position of the mouth (sound source), and the sound pressure L of the processing audio signal L and the sound pressure R of the processing audio signal R. The direction of the sound source is detected based on the pressure ratio RL (= sound pressure R / sound pressure L).

【0117】この例の場合、音源の向きは、図27に示
すように、Y軸に対する角度θで示される。
In the case of this example, the direction of the sound source is indicated by an angle θ with respect to the Y axis as shown in FIG.

【0118】図28は、検出装置101の構成例を示し
ている。
FIG. 28 shows a configuration example of the detection device 101.

【0119】この検出装置101には、図4の検出装置
3の特徴量算出部12および検出部13に代えて、特徴
量算出部111および検出部112が設けられている。
他の構成は、図4における場合と同様である。
The detection device 101 is provided with a feature value calculation unit 111 and a detection unit 112 instead of the feature value calculation unit 12 and the detection unit 13 of the detection device 3 in FIG.
Other configurations are the same as those in FIG.

【0120】入力部11は、マイクアンプ2L,2C,
2Rのそれぞれから適宜供給される処理用音声信号L,
C,Rを入力し、特徴量算出部111に供給する。
The input section 11 includes microphone amplifiers 2L, 2C,
2R, the processing audio signals L,
C and R are input and supplied to the feature amount calculation unit 111.

【0121】特徴量算出部111は、入力部11から供
給された処理用音声信号L、処理用音声信号C、および
処理用音声信号Rから、位相差CL(処理用音声信号C
の位相に対する処理用音声信号Lの位相の位相差)、お
よび位相差CR(処理用音声信号Cの位相に対する処理
用音声信号Rの位相の位相差)を算出する。
The characteristic amount calculating section 111 converts the phase difference CL (processing audio signal C) from the processing audio signal L, the processing audio signal C, and the processing audio signal R supplied from the input section 11.
, And a phase difference CR (a phase difference between the phase of the processing audio signal R and the phase of the processing audio signal C).

【0122】特徴量算出部111はまた、処理用音声信
号Lの音圧Lと処理用音声信号Rの音圧Rとの音圧比R
L(=音圧R/音圧L)を算出する。
The feature quantity calculation unit 111 also calculates a sound pressure ratio R between the sound pressure L of the processing audio signal L and the sound pressure R of the processing audio signal R.
L (= sound pressure R / sound pressure L) is calculated.

【0123】特徴量算出部111は、それぞれ算出した
位相差CLおよび位相差CR、並びに音圧比RLを、検
出部112に出力する。
The characteristic amount calculation section 111 outputs the calculated phase difference CL and phase difference CR, and the sound pressure ratio RL to the detection section 112.

【0124】検出部112は、特徴量算出部111から
の位相差CLおよび位相差CR、並びに所定の係数(後
述)に基づいて、所定の範囲内で移動する口元(音源)
の位置を検出する。
The detection unit 112 is configured to move within a predetermined range (sound source) based on the phase difference CL and the phase difference CR from the feature amount calculation unit 111 and a predetermined coefficient (described later).
Detect the position of.

【0125】検出部112はまた、検出した口元(音
源)の位置に対応する所定の係数(後述)(正確には、
検出された音源の位置に対応する基準位置に対応する係
数)、および特徴量算出部111からの音圧比RLに基
づいて、音源の向きを検出する。
The detecting unit 112 also determines a predetermined coefficient (described later) corresponding to the detected position of the mouth (sound source) (more precisely,
The direction of the sound source is detected based on the detected position of the sound source and the sound pressure ratio RL from the feature amount calculation unit 111.

【0126】検出部112は、検出した口元の位置およ
びその向きを、出力部14に供給する。
The detecting section 112 supplies the detected position of the mouth and its orientation to the output section 14.

【0127】図29は、特徴量算出部111の構成例を
示している。
FIG. 29 shows an example of the configuration of the feature amount calculation unit 111.

【0128】位相差算出部121は、位相差CL(処理
用音声信号Cの位相に対する処理用音声信号Lの位相の
位相差)を算出する。
The phase difference calculator 121 calculates a phase difference CL (a phase difference between the phase of the processing audio signal C and the phase of the processing audio signal L).

【0129】具体的には、位相差算出部121は、処理
用音声信号L,Cを、所定のサンプリング周期Tでサン
プリングして、量子化する。これにより、処理用音声信
号Lからは、N個のサンプルL1乃至LNが、処理用音声
信号Cからは、N個のサンプルC1乃至CNがそれぞれ得
られる。
More specifically, the phase difference calculator 121 samples and quantizes the processing audio signals L and C at a predetermined sampling period T. Thus, N samples L 1 to L N are obtained from the processing audio signal L, and N samples C 1 to C N are obtained from the processing audio signal C.

【0130】位相差算出部121は、次に、jが1乃至
nであるときの式(2)をそれぞれ算出し、その算出結
果の値が最大となるjの値mを検出する。そして位相差
算出部121は、検出した値mにサンプリング周期Tを
乗算し、その乗算結果(時間)を、位相差CLとして、
検出部112に出力する。
Next, the phase difference calculation section 121 calculates the equation (2) when j is 1 to n, and detects the value m of j at which the value of the calculation result is the maximum. Then, the phase difference calculation unit 121 multiplies the detected value m by the sampling period T, and uses the multiplication result (time) as a phase difference CL.
Output to the detection unit 112.

【数2】 (Equation 2)

【0131】すなわち、処理用音声信号Lと処理用音声
信号Cとの相関値が、処理用音声信号Cに対して、処理
用音声信号Lが、n個のサンプル分の時間まで、1サン
プリング時間ずつずらされて算出され、その算出結果に
おいて最も高い相関値が得られたときの時間(値m×サ
ンプリング周期T)が、位相差CLとされる。
That is, the correlation value between the processing audio signal L and the processing audio signal C is such that the processing audio signal L is equal to the processing audio signal C by one sampling time up to the time of n samples. The time (value m × sampling period T) when the highest correlation value is obtained in the calculation result is defined as the phase difference CL.

【0132】位相差算出部122は、位相差CR(処理
用音声信号Cの位相に対する処理用音声信号Rの位相の
位相差)を算出する。
The phase difference calculation section 122 calculates a phase difference CR (a phase difference between the phase of the processing audio signal C and the phase of the processing audio signal R).

【0133】具体的には、位相差算出部122は、処理
用音声信号C,Rを、所定のサンプリング周期Tでサン
プリングして、量子化する。これにより、処理用音声信
号Rからは、N個のサンプルR1乃至RNが、処理用音声
信号Cからは、N個のサンプルC1乃至CNがそれぞれ得
られる。
More specifically, the phase difference calculator 122 samples and quantizes the processing audio signals C and R at a predetermined sampling period T. Thus, from the processing speech signals R, N samples R 1 through R N are from processing audio signals C, N samples C 1 to C N are obtained, respectively.

【0134】次に、位相差算出部122は、jが1乃至
nであるときの式(3)をそれぞれ算出し、その算出結
果の値が最大となるjの値mを検出する。そして位相差
算出部122は、検出した値mにサンプリング周期Tを
乗算し、その乗算結果(時間)を、位相差CRとして、
検出部112に出力する。
Next, the phase difference calculation unit 122 calculates the equation (3) when j is 1 to n, and detects the value m of j that maximizes the calculation result. Then, the phase difference calculation unit 122 multiplies the detected value m by the sampling period T, and uses the multiplication result (time) as a phase difference CR.
Output to the detection unit 112.

【数3】 [Equation 3]

【0135】すなわち、処理用音声信号Rと処理用音声
信号Cとの相関値が、処理用音声信号Cに対して、処理
用音声信号Rが、n個のサンプル分の時間まで、1サン
プリング時間ずつずらされて算出され、その算出結果に
おいて最も高い相関値が得られたときの時間(値m×サ
ンプリング周期T)が、位相差CRとされる。
That is, the correlation value between the processing audio signal R and the processing audio signal C is such that the processing audio signal R is different from the processing audio signal C by one sampling time up to the time of n samples. The time (value m × sampling period T) when the highest correlation value is obtained in the calculation result is defined as the phase difference CR.

【0136】音圧算出部123は、入力された処理用音
声信号Lが示す値の2乗平均値、2乗平均の平方根、ま
たは絶対値の平均値を、処理用音声信号Lの音圧Lとし
て算出し、その算出結果を、音圧比算出部125に供給
する。音圧算出部124は、音圧算出部123と同様の
方法で、処理用音声信号Rの音圧Rを算出し、音圧比算
出部125に供給する。
The sound pressure calculating section 123 calculates the mean square value, the square root of the square mean, or the average value of the absolute values of the values indicated by the input processing audio signal L, and calculates the sound pressure L of the processing audio signal L. And the calculation result is supplied to the sound pressure ratio calculation unit 125. The sound pressure calculator 124 calculates the sound pressure R of the processing audio signal R in the same manner as the sound pressure calculator 123 and supplies the sound pressure R to the sound pressure ratio calculator 125.

【0137】音圧比算出部125は、音圧算出部123
からの音圧Lと、音圧算出部124からの音圧Rに基づ
いて、音圧比RL(=音圧R/音圧L)を算出し、その
算出結果を、検出部112に供給する。
The sound pressure ratio calculating section 125 includes a sound pressure calculating section 123
The sound pressure ratio RL (= sound pressure R / sound pressure L) is calculated based on the sound pressure L from the sound pressure calculation unit 124 and the sound pressure R from the sound pressure calculation unit 124, and the calculation result is supplied to the detection unit 112.

【0138】図30は、検出部112の構成例を示して
いる。
FIG. 30 shows a configuration example of the detection unit 112.

【0139】位置算出部131は、特徴量算出部111
(位相差算出部121,122)からの位相差CLおよ
び位相差CR、並びに位置係数記憶部132に記憶され
ている、係数aL、係数bL、および係数cLからなるxお
よびyの一次方程式(式(4))、並びに係数aR、係
数bR、および係数cRからなるxおよびyの一次方程式
(式(5))を解き、座標(x,y)(図27)を算出
する。 aL×x+bL×y+cL=位相差CL…(4) aR×x+bR×y+cR=位相差CR…(5)
The position calculating section 131 is provided with a feature amount calculating section 111.
(Phase difference CL and phase difference CR from (Phase difference calculation units 121 and 122), and primary of x and y consisting of coefficient a L , coefficient b L , and coefficient c L stored in the position coefficient storage unit 132 Solving the equation (Equation (4)) and the linear equation (Equation (5)) of x and y composed of coefficient a R , coefficient b R , and coefficient c R to calculate coordinates (x, y) (FIG. 27) I do. a L × x + b L × y + c L = phase difference CL (4) a R × x + b R × y + c R = phase difference CR (5)

【0140】位置算出部131は、算出した位置(座標
(x,y))を、向き係数決定部133および出力部1
4に供給する。
The position calculation section 131 converts the calculated position (coordinates (x, y)) into the direction coefficient determination section 133 and the output section 1.
4

【0141】ところで、マイク1Cと口元(音源)の距
離Cと、マイク1Lと音源の距離L、およびマイク1R
と音源の距離Rの関係は、式(6)に示すように表すこ
とができる。 距離L−距離C=ΔL 距離R−距離C=ΔR…(6)
By the way, the distance C between the microphone 1C and the mouth (sound source), the distance L between the microphone 1L and the sound source, and the distance between the microphone 1R and the microphone 1R
And the distance R between the sound source and the sound source can be expressed as shown in Expression (6). Distance L- distance C = delta L distance R- distance C = Δ R ... (6)

【0142】ΔLおよびΔRは、図31に示すように、X
軸、Y軸、および距離の軸からなる座標空間において、
なだらかな曲面で表される。すなわち、音源が、原点か
ら比較的近い範囲内で移動する場合、ΔLおよびΔRを、
ほぼ平面に近似することができるので、ΔLおよびΔ
Rを、式(7)に示すように、xおよびyの一次方程式
で表すことができる。 a'L×x+b'L×y+c'L=ΔL a'R×x+b'R×y+c'R=ΔR…(7)
[0142] delta L and delta R, as shown in FIG. 31, X
In a coordinate space consisting of an axis, a Y axis, and a distance axis,
It is represented by a gentle curved surface. That is, the sound source is, when moving within relatively close range from the origin, the delta L and delta R,
It is possible to approximate the substantially planar, delta L and delta
R can be represented by a linear equation of x and y, as shown in equation (7). a 'L × x + b' L × y + c 'L = Δ L a' R × x + b 'R × y + c' R = Δ R ... (7)

【0143】一方、音声は、上述したように、音源から
の距離が長ければ長いほど伝達に時間がかかるので、例
えば、ユーザが、図32に示すように、正面方向に対し
て左側を向いているとき、距離Cは、距離Lより長くな
るので、マイク1Cには、マイク1Lに比べ音源からの
音声が遅れて到達する。
On the other hand, as described above, the longer the distance from the sound source is, the longer it takes to transmit the voice. Therefore, for example, as shown in FIG. Since the distance C is longer than the distance L, the sound from the sound source reaches the microphone 1C later than the microphone 1L.

【0144】また、遅れて到達した音声の位相は、先に
到達した音声の位相に比べ遅れるので、すなわち、先に
到達した音声の位相は、後に到達した音声の位相に比べ
進むので、例えば、図32の例の場合、処理用音声信号
Lの位相は、図33(A)に示すように、図33(B)
に示す処理用音声信号Cの位相より進む。このときの位
相のずれが、位相差CLである。
Also, since the phase of a voice arriving late is later than the phase of a voice arriving earlier, that is, the phase of a voice arriving earlier advances compared to the phase of a voice arriving later, for example, In the case of the example of FIG. 32, the phase of the processing audio signal L is, as shown in FIG.
The phase advances from the phase of the processing audio signal C shown in FIG. The phase shift at this time is the phase difference CL.

【0145】一方、距離Cが距離Rより長い場合、音源
からの音声は、マイク1Cよりマイク1Rに先に到達す
るので、処理用音声信号Rの位相は、図33(C)に示
すように、処理用音声信号Cの位相より進む。このとき
の位相のずれが、位相差CRである。
On the other hand, when the distance C is longer than the distance R, the sound from the sound source reaches the microphone 1R earlier than the microphone 1C, so that the phase of the processing sound signal R is as shown in FIG. , From the phase of the processing audio signal C. The phase shift at this time is the phase difference CR.

【0146】このように、位相差CLおよび位相差CR
は、上述したように、距離L、距離C、および距離Rに
対応する。すなわち、位相差CLおよび位相差CRは、
音源が原点から比較的近い範囲内で移動し、ΔLおよび
ΔRを、平面に近似することができる場合、ΔLおよびΔ
Rに対応するので、位相差CLおよび位相差CRは、上
述した式(4)および式(5)に示すように、xおよび
yの一次方程式で表すことができる。
As described above, the phase difference CL and the phase difference CR
Corresponds to the distance L, the distance C, and the distance R as described above. That is, the phase difference CL and the phase difference CR are
If the sound source moves within relatively close range from the origin, the delta L and delta R, can be approximated to a plane, delta L and delta
Since the phase difference CL corresponds to R , the phase difference CL and the phase difference CR can be expressed by linear equations of x and y as shown in the above-described equations (4) and (5).

【0147】このシステムでは、所定の範囲内で移動す
る音源の位置および向きが検出されるが、所定の範囲と
は、ΔLおよびΔRを、平面に近似することができる範
囲内、すなわち、式(7)が成り立つ範囲を意味する。
[0147] range in this system, the position and orientation of a sound source which moves within a predetermined range is detected, the predetermined range, the delta L and [Delta] R, can be approximated to a plane, i.e., the formula It means the range where (7) holds.

【0148】位置係数記憶部132に記憶されている係
数aL、係数bL、係数cL、係数aR、係数bR、および
係数cRは、次に説明するように、それら係数に関する
連立一次方程式を、最小自乗法を用いて解くことで求め
られる。
The coefficient a L , coefficient b L , coefficient c L , coefficient a R , coefficient b R , and coefficient c R stored in the position coefficient storage unit 132 are, as described below, It is obtained by solving a linear equation using the least squares method.

【0149】口元(音源)を、所定の複数の位置(座標
(xk,yk)(k=1,2,…K)で特定されるK箇所
の位置)に移動させ、各位置にあるときの音源から発せ
られた音声を集音し、位相差CLkおよび位相差CRk
算出する実験を行うことで、式(8)および式(9)に
示すように、それぞれK個の、xおよびyの一次方程式
が求められる。
The mouth (sound source) is moved to a plurality of predetermined positions (K positions specified by coordinates (x k , y k ) (k = 1, 2,..., K)). The sound emitted from the sound source at the time is collected, and an experiment for calculating the phase difference CL k and the phase difference CR k is performed. As shown in Expressions (8) and (9), K values of A linear equation of x and y is determined.

【数4】 (Equation 4)

【数5】 (Equation 5)

【0150】式(8)は、式(10)そしてさらに式
(11)に示すように展開することで解くことができ
る。これにより、係数aL、係数bL、および係数cL
求められる。式(9)も、式(12)そしてさらに式
(13)に示すように展開することで解くことができ
る。これにより、係数aR、係数bR、および係数cR
求められる。
Equation (8) can be solved by expanding as shown in equation (10) and further as equation (11). Thereby, the coefficient a L , the coefficient b L , and the coefficient c L are obtained. Equation (9) can also be solved by expanding as shown in equation (12) and further equation (13). Thus, a coefficient a R , a coefficient b R , and a coefficient c R are obtained.

【数6】 (Equation 6)

【数7】 (Equation 7)

【数8】 (Equation 8)

【数9】 (Equation 9)

【0151】なお、式(11)および式(13)中、”
+”が上付された行列は、擬似逆行列である。
In the formulas (11) and (13), "
The matrix with the superscript "+" is a pseudo inverse matrix.

【0152】図30に戻り、向き係数決定部133は、
位置算出部131から供給された座標(x,y)に対応
する基準位置(後述)を検出する。
Referring back to FIG. 30, the orientation coefficient determining unit 133
A reference position (described later) corresponding to the coordinates (x, y) supplied from the position calculation unit 131 is detected.

【0153】向き係数決定部133はまた、P個の基準
位置p(p=1,2,…P)のそれぞれに対応する係数
αp、係数βp、係数γp、および係数δpを記憶してお
り、記憶しているそれらの係数から、検出した基準位置
に対応する、係数α、係数β、係数γ、および係数δを
選択し、向き算出部134に供給する。
The direction coefficient determination unit 133 also stores a coefficient α p , a coefficient β p , a coefficient γ p , and a coefficient δ p corresponding to each of the P reference positions p (p = 1, 2,... P). A coefficient α, a coefficient β, a coefficient γ, and a coefficient δ corresponding to the detected reference position are selected from the stored coefficients, and are supplied to the direction calculation unit 134.

【0154】向き算出部134は、向き係数決定部13
3からの係数α、係数β係数γ、および係数δ、並び
に特徴量算出部111からの音圧比RLに基づいて、式
(14)に示すθの3次方程式を解いてθを算出し、出
力部14に供給する。
The direction calculating section 134 is provided for the direction coefficient determining section 13.
Based on the coefficient α, the coefficient β , the coefficient γ, and the coefficient δ from 3 and the sound pressure ratio RL from the feature amount calculation unit 111, a cubic equation of θ shown in Expression (14) is solved to calculate θ. It is supplied to the output unit 14.

【数10】 (Equation 10)

【0155】ところで、音圧比RLは、音源の位置およ
び向きにより異なる。例えば、図34に示すように、音
源が、座標(xp,yp)(p=1,2,…9)で特定さ
れる基準位置pにあるときに発せられた音声による音圧
比RLは、それぞれ異なり、また向きによっても異な
る。
By the way, the sound pressure ratio RL differs depending on the position and the direction of the sound source. For example, as shown in FIG. 34, the sound pressure ratio RL of the sound emitted when the sound source is at the reference position p specified by the coordinates (x p , y p ) (p = 1, 2,... 9) is , Respectively, and also depending on the orientation.

【0156】図35(A)は、基準位置p(=4)に位
置し、角度θL乃至角度θRの方向を向いているときの音
源から発生された音声による音圧比RL4を表してい
る。図35(B)は、基準位置p(=5)に位置し、角
度θL乃至角度θRの方向を向いているときの音源から発
生された音声による音圧比RL5を表している。図35
(C)は、基準位置p(=6)に位置し、角度θL乃至
角度θRの方向を向いているときの音源から発生された
音声による音圧比RL6を表している。
[0156] Figure 35 (A) is located at the reference position p (= 4), representative of the sound pressure ratio RL 4 voice generated from the sound source when facing the direction of the angle theta L to the angle theta R I have. Fig. 35 (B) located at the reference position p (= 5), represents the sound pressure ratio RL 5 voice generated from the sound source when facing the direction of the angle theta L to angle theta R. FIG.
(C) is located at the reference position p (= 6), it represents the sound pressure ratio RL 6 voice generated from the sound source when facing the direction of the angle theta L to angle theta R.

【0157】図35(A)乃至(C)に示す軌跡から、
音圧比RLは、式(14)に示すように、角度θの3次
式で近似される。
From the trajectories shown in FIGS. 35A to 35C,
The sound pressure ratio RL is approximated by a cubic expression of the angle θ as shown in Expression (14).

【0158】向き係数決定部133に記憶されている、
P個の基準位置pのそれぞれに対応する係数αp、係数
βp、係数γp、および係数δpは、次に説明するように
して求められる。
The direction coefficient determination unit 133 stores
The coefficient α p , coefficient β p , coefficient γ p , and coefficient δ p corresponding to each of the P reference positions p are obtained as described below.

【0159】音源の位置および向きにより音圧比RLが
異なるので、音源が基準位置pに位置し、所定の方向
(角度θq(q=1,2,…Q)の方向)を向いている
ときの音源から発せられる音声の音圧比RLpqを求める
ことで、基準位置1乃至基準位置P毎に、Q個の、θの
3次元方程式が求められる。
Since the sound pressure ratio RL differs depending on the position and the direction of the sound source, the sound source is located at the reference position p and is oriented in a predetermined direction (the direction of the angle θ q (q = 1, 2,... Q)). By calculating the sound pressure ratio RL pq of the sound emitted from the sound source, Q three-dimensional equations of θ are obtained for each of the reference positions 1 to P.

【0160】例えば、基準位置1に位置する音源が、そ
れぞれ角度θ1乃至θQの方向を向いているときに発した
音声から、音圧比RL11乃至RL1Qを求めることで、式
(15)に示すような、Q個の、θの3次元方程式が求
められる。
[0160] For example, a sound source located at the reference position 1, the sound produced by the time that each oriented at an angle theta 1 to theta Q, by obtaining the sound pressure ratio RL 11 to RL 1Q, formula (15) The Q three-dimensional equations of θ as shown in FIG.

【数11】 [Equation 11]

【0161】同様にして、基準位置2乃至基準位置Pに
ついても、それぞれQ個の、θの3次元方程式が得ら
れ、これらを、ニュートン法やシンプレックス法などに
よる非線形最小自乗法により解くことで、基準位置1乃
至基準位置P毎に、係数α、係数β、係数γ、および係
数δが求められる。
Similarly, for each of the reference positions 2 to P, Q three-dimensional equations of θ are obtained, and these are solved by the nonlinear least squares method such as the Newton method or the simplex method. A coefficient α, a coefficient β, a coefficient γ, and a coefficient δ are obtained for each of the reference positions 1 to P.

【0162】次に、検出装置101の動作を、図36の
フローチャートを参照して説明する。
Next, the operation of the detection apparatus 101 will be described with reference to the flowchart in FIG.

【0163】ステップS61において、検出装置101
の入力部11は、入力したマイクアンプ2L,2C,2
Rのそれぞれからの処理用音声信号L,C,Rの一部
(所定の時間内に入力した部分)を、特徴量算出部11
1に供給する。
In step S61, the detecting device 101
Input unit 11 receives the input microphone amplifiers 2L, 2C, 2
Each of the processing audio signals L, C, and R from each of the R (portion input within a predetermined time) is converted into a feature amount calculation unit 11.
Supply 1

【0164】次に、ステップS62において、特徴量算
出部111(位相差算出部121,122)は、入力部
11から供給された処理用音声信号C,Lから、位相差
CLを算出するとともに、処理用音声信号C,Rから、
位相差CRを算出する。算出された位相差CLおよび位
相差CRは、検出部112に供給される。
Next, in step S62, the feature amount calculation unit 111 (phase difference calculation units 121 and 122) calculates the phase difference CL from the processing audio signals C and L supplied from the input unit 11, and From the processing audio signals C and R,
The phase difference CR is calculated. The calculated phase difference CL and phase difference CR are supplied to the detection unit 112.

【0165】ステップS63において、特徴量算出部1
11(音圧算出部123,124、音圧比算出部12
5)は、処理用音声信号L,Rの音圧L,Rをそれぞれ
算出するとともに、音圧比RL(=音圧R/音圧L)を
算出する。算出された音圧比RLは、検出部112に供
給される。
In step S63, the characteristic amount calculation unit 1
11 (sound pressure calculation units 123 and 124, sound pressure ratio calculation unit 12
5) calculates the sound pressures L and R of the processing audio signals L and R, and calculates the sound pressure ratio RL (= sound pressure R / sound pressure L). The calculated sound pressure ratio RL is supplied to the detection unit 112.

【0166】次に、ステップS64において、検出部1
12(位置算出部131)は、特徴量算出部111から
供給された位相差CL、並びに自分自身(位置係数記憶
部132)が記憶する係数aL、係数bL、および係数c
Lからなる式(4)と、位相差CR、並びに係数aR、係
数bR、および係数cRからなる式(5)の連立方程式を
解き、xおよびyを算出する。算出された座標(x,
y)は、出力部14に供給される。
Next, in step S64, the detecting unit 1
12 (the position calculating unit 131), the phase difference CL supplied from the feature amount calculating unit 111, and the coefficients a L , b L , and c stored by itself (the position coefficient storing unit 132).
X and y are calculated by solving a simultaneous equation of equation (4) consisting of L and equation (5) consisting of phase difference CR and coefficients a R , b R , and c R. The calculated coordinates (x,
y) is supplied to the output unit 14.

【0167】ステップS65において、検出部112
(向き係数決定部133)は、算出した座標(x,y)
で特定される位置に最も近い基準位置を検出する。
In step S65, the detecting unit 112
The (direction coefficient determination unit 133) calculates the calculated coordinates (x, y)
The reference position closest to the position specified by is detected.

【0168】次に、ステップS66において、検出部1
12(向き係数決定部133)は、記憶している、P個
の基準位置pのそれぞれに対応する係数αp、係数βp
係数γp、および係数δpから、決定した基準位置に対応
する、係数α、係数β、係数γ、および係数δを選択す
る。
Next, in step S66, the detecting unit 1
12 (orientation coefficient determination unit 133) stores the stored coefficient α p , coefficient β p ,
A coefficient α, a coefficient β, a coefficient γ, and a coefficient δ corresponding to the determined reference position are selected from the coefficient γ p and the coefficient δ p .

【0169】ステップS67において、検出部112
(向き算出部134)は、特徴量算出部111からの音
圧比RL、並びにステップS66で選択した係数α、係
数β、係数γ、および係数δからなる式(14)を解
き、角度θを算出する。算出された角度θは、出力部1
4に供給される。
At step S67, the detecting unit 112
The (direction calculation unit 134) calculates the angle θ by solving the expression (14) including the sound pressure ratio RL from the feature amount calculation unit 111 and the coefficients α, β, γ, and δ selected in step S66. I do. The calculated angle θ is output unit 1
4 is supplied.

【0170】次に、ステップS68において、出力部1
4は、検出部112から供給された座標(x,y)を、
口元(音源)の位置として、そして角度θを、音源の向
きとして外部の装置に出力する。
Next, in step S68, the output unit 1
4 represents the coordinates (x, y) supplied from the detection unit 112,
The position of the mouth (sound source) and the angle θ are output to an external device as the direction of the sound source.

【0171】その後、処理は終了する。Thereafter, the processing ends.

【0172】なお、以上においては、検出部112にお
いて、算出された座標(x,y)に対応する基準位置が
検出されるとともに、記憶されている、それぞれP個の
係数αp、係数βp、係数γp、および係数δpのうちか
ら、検出された基準位置に対応する係数α、係数β、係
数γ、および係数δが選択されたが、検出部112が、
式(16)乃至式(19)に示すように、係数αが算出
されるx,yの関数e、係数βが算出されるx,yの関
数f、係数γが算出されるx,yの関数g、および係数
δが算出されるx,yの関数hを記憶し、検出された座
標(x,y)でそれらの関数を演算することで、係数
α、係数β、係数γ、および係数δのそれぞれを算出す
ることもできる。 α=e(x,y)…(16) β=f(x,y)…(17) γ=g(x,y)…(18) δ=h(x,y)…(19)
In the above description, the detection unit 112 detects the reference position corresponding to the calculated coordinates (x, y), and stores and stores the P coefficients α p and β p , respectively. , Coefficient γ p , and coefficient δ p , the coefficient α, coefficient β, coefficient γ, and coefficient δ corresponding to the detected reference position are selected.
As shown in Expressions (16) to (19), a function e of x and y for calculating the coefficient α, a function f of x and y for calculating the coefficient β, and a function f of x and y for calculating the coefficient γ The function g and the function h of x and y for which the coefficient δ is calculated are stored, and those functions are calculated at the detected coordinates (x, y) to obtain the coefficient α, the coefficient β, the coefficient γ, and the coefficient Each of δ can also be calculated. α = e (x, y) (16) β = f (x, y) (17) γ = g (x, y) (18) δ = h (x, y) (19)

【0173】この場合の検出装置101の動作を、図3
7のフローチャートを参照して説明する。
The operation of the detection device 101 in this case is described in FIG.
This will be described with reference to the flowchart of FIG.

【0174】ステップS71乃至ステップS74、およ
びステップS77においては、図36のステップS61
乃至ステップS64、およびステップS68における場
合と同様の処理が行われるので、その説明は省略する。
In steps S71 to S74 and step S77, step S61 in FIG.
Since the same processing as in steps S64 and S68 is performed, the description thereof is omitted.

【0175】ステップS75において、検出装置101
の検出部112は、関数e(式(16))、関数f(式
(17))、関数g(式(18))、および関数h(式
(19))をそれぞれ演算し、係数α、係数β、係数
γ、および係数δを算出する。
In step S75, the detecting device 101
, The function e (equation (16)), the function f (equation (17)), the function g (equation (18)), and the function h (equation (19)) are calculated, and the coefficient α, A coefficient β, a coefficient γ, and a coefficient δ are calculated.

【0176】次に、ステップS76において、検出部1
12は、特徴量算出部111からの音圧比RL、並びに
ステップS75で算出した係数α、係数β、係数γ、お
よび係数δで、式(14)を演算し、角度θを算出す
る。
Next, in step S76, the detecting unit 1
12 calculates the angle θ by calculating the equation (14) using the sound pressure ratio RL from the feature amount calculation unit 111 and the coefficients α, β, γ, and δ calculated in step S75.

【0177】また、以上においては、特徴量算出部11
1は、処理用音声信号L,Rから直接音圧L,Rを算出
し、そして音圧比RLを算出する場合を例として説明し
たが、処理用音声信号L,Rの高周波部分の信号(高周
波処理用音声信号Lh,Rh)の音圧Lh,Rhを算出し、
それらの音圧比RLhを算出することができる。
Further, in the above description, the feature amount calculating unit 11
1 has been described as an example in which the sound pressures L and R are calculated directly from the processing audio signals L and R, and then the sound pressure ratio RL is calculated. The sound pressures Lh and Rh of the processing audio signals Lh and Rh) are calculated,
The sound pressure ratio RLh can be calculated.

【0178】この例の場合における特徴量算出部111
の構成例を、図38に示す。この特徴量算出部には、図
29の特徴量算出部111の音圧算出部123および音
圧算出部124の前段に、ハイパスフィルタ141およ
びハイパスフィルタ142が設けられている。
In this example, the characteristic amount calculation unit 111 is used.
38 is shown in FIG. In the feature amount calculation unit, a high-pass filter 141 and a high-pass filter 142 are provided at a stage preceding the sound pressure calculation unit 123 and the sound pressure calculation unit 124 of the feature amount calculation unit 111 in FIG.

【0179】ハイパスフィルタ141は、入力部11か
ら供給された処理用音声信号Lの高周波部分のみを通過
させて、音圧算出部123に供給する。ハイパスフィル
タ142は、入力部11から供給された処理用音声信号
Rの高周波部分のみを通過させて、音圧算出部124に
供給する。
The high-pass filter 141 passes only the high-frequency portion of the processing audio signal L supplied from the input unit 11 and supplies the processed audio signal L to the sound pressure calculation unit 123. The high-pass filter 142 passes only the high-frequency portion of the processing audio signal R supplied from the input unit 11 and supplies the processed audio signal R to the sound pressure calculation unit 124.

【0180】音圧算出部123は、高周波処理用音声信
号Lhの音圧Lhを算出し、音圧比算出部125に供給す
る。音圧算出部124は、高周波処理用音声信号Rhの
音圧Rhを算出し、音圧比算出部125に供給する。
The sound pressure calculation section 123 calculates the sound pressure Lh of the high-frequency processing audio signal Lh and supplies it to the sound pressure ratio calculation section 125. The sound pressure calculator 124 calculates the sound pressure Rh of the high-frequency processing audio signal Rh, and supplies the calculated sound pressure Rh to the sound pressure ratio calculator 125.

【0181】音圧比算出部125は、音圧比RLhを算
出し、検出部112に供給する。
The sound pressure ratio calculator 125 calculates the sound pressure ratio RLh and supplies it to the detector 112.

【0182】図39は、本発明を適用した音源状態検出
システムの第5の実施の形態の構成例を示している。こ
のシステムでは、第4の実施の形態における場合と同様
に、所定の範囲内で移動する音源の位置およびその向き
の両方が検出されるが、この例の場合、3次元空間上の
位置および向きが検出される。
FIG. 39 shows a configuration example of a sound source state detection system according to a fifth embodiment of the present invention. In this system, as in the fourth embodiment, both the position and the direction of the sound source moving within the predetermined range are detected. In this example, the position and the direction in the three-dimensional space are detected. Is detected.

【0183】このシステムには、図1に示す検出装置3
に代えて、検出装置201が設けられている他、4個の
マイク1―1乃至マイク1−4、および4個のマイクア
ンプ2−1乃至2−4が設けられている。
This system includes the detecting device 3 shown in FIG.
, A detection device 201 is provided, and in addition, four microphones 1-1 to 1-4 and four microphone amplifiers 2-1 to 2-4 are provided.

【0184】マイク1−1乃至マイク1−4は、図40
に示すような、それぞれ直交するX軸、Y軸、およびZ
軸からなる3次元空間上に一定の広がりを持って配置さ
れている。なお、図40中の原点、X軸、およびY軸
は、図27の原点、X軸、およびY軸に対応するもので
ある。すなわち、図40に示すZ軸は、図27において
は、ユーザから見れば、原点から垂直方向に延びる軸で
ある。
Microphones 1-1 to 1-4 are shown in FIG.
X-axis, Y-axis and Z-axis, respectively, as shown in
They are arranged with a certain extent in a three-dimensional space consisting of axes. Note that the origin, X axis, and Y axis in FIG. 40 correspond to the origin, X axis, and Y axis in FIG. That is, the Z axis shown in FIG. 40 is an axis extending in the vertical direction from the origin as viewed from the user in FIG.

【0185】図39に戻り、マイク1−1乃至マイク1
−4は、音源からの音声(ユーザが発した音声)を集音
し、音声信号として、マイクアンプ2−1乃至2−4に
供給する。
Returning to FIG. 39, the microphones 1-1 to 1
-4 collects the sound from the sound source (the sound uttered by the user) and supplies it to the microphone amplifiers 2-1 to 2-4 as a sound signal.

【0186】マイクアンプ2−1乃至2−4は、マイク
1−1乃至1−4からの音声信号を増幅し、処理用音声
信号S1乃至S4として、検出装置201に供給する。
The microphone amplifiers 2-1 to 2-4 amplify the audio signals from the microphones 1-1 to 1-4 and supply the amplified audio signals to the detection device 201 as processing audio signals S1 to S4.

【0187】検出装置201は、音源(口元)の位置に
対応する、図40の3次元空間における座標(x,y,
z)を検出するとともに、口元の向きに対応する、Z軸
の回りの角度θ、Y軸の回りの角度φ、およびX軸の回
りの角度ψのそれぞれを検出する。
The detection device 201 calculates the coordinates (x, y, x, y, y) in the three-dimensional space in FIG. 40 corresponding to the position of the sound source (mouth).
z), and an angle θ around the Z axis, an angle φ around the Y axis, and an angle ψ around the X axis corresponding to the orientation of the mouth are detected.

【0188】図41は、検出装置201の構成例を示し
ている。この検出装置201には、図4の検出装置3の
特徴量算出部12に代えて特徴量算出部211が、また
検出部13に代えて、検出部212が設けられている。
FIG. 41 shows a configuration example of the detection device 201. The detection device 201 includes a feature value calculation unit 211 instead of the feature value calculation unit 12 of the detection device 3 in FIG. 4, and a detection unit 212 instead of the detection unit 13.

【0189】入力部11は、マイクアンプ2−1乃至2
−4のそれぞれから適宜供給される処理用音声信号S1
乃至S4を入力し、特徴量算出部211に供給する。
The input section 11 is provided with microphone amplifiers 2-1 to 2
-4, the processing audio signal S1 appropriately supplied from
To S4, and supplies them to the feature amount calculation unit 211.

【0190】特徴量算出部211は、処理用音声信号S
1の位相と処理用音声信号S2の位相との差(以下、位
相差A1と称する)、処理用音声信号S2の位相と処理
用音声信号S3の位相との差(以下、位相差A2と称す
る)、および処理用音声信号S3の位相と処理用音声信
号S4の位相との差(以下、位相差A3と称する)を、
それぞれ算出する。
The feature amount calculating section 211 outputs the processing audio signal S
1 and the phase of the processing audio signal S2 (hereinafter referred to as a phase difference A1), and the difference between the phase of the processing audio signal S2 and the phase of the processing audio signal S3 (hereinafter referred to as a phase difference A2). ) And the difference between the phase of the processing audio signal S3 and the phase of the processing audio signal S4 (hereinafter referred to as phase difference A3)
Calculate each.

【0191】特徴量算出部211はまた、処理用音声信
号S1乃至S4の音圧をそれぞれ算出するとともに、処
理用音声信号S1の音圧と処理用音声信号S2の音圧の
比(以下、音圧比B1と称する)、処理用音声信号S2
の音圧と処理用音声信号S3の音圧の比(以下、音圧比
B2と称する)、処理用音声信号S3の音圧と処理用音
声信号S4の音圧の比(以下、音圧比B3と称する)
を、それぞれ算出する。
The feature amount calculation unit 211 calculates the sound pressures of the processing audio signals S1 to S4, and also calculates the ratio of the sound pressure of the processing audio signal S1 to the sound pressure of the processing audio signal S2 (hereinafter referred to as the sound pressure). Pressure ratio B1), processing audio signal S2
, And the ratio of the sound pressure of the processing audio signal S3 (hereinafter referred to as the sound pressure ratio B2), and the ratio of the sound pressure of the processing audio signal S3 to the sound pressure of the processing audio signal S4 (hereinafter, referred to as the sound pressure ratio B3). Name)
Are calculated respectively.

【0192】特徴量算出部211は、算出した位相差A
1乃至位相差A3、および音圧比B1乃至音圧比B3
を、検出部212に出力する。
The feature amount calculating section 211 calculates the calculated phase difference A
1 to phase difference A3, and sound pressure ratio B1 to sound pressure ratio B3
Is output to the detection unit 212.

【0193】検出部212は、特徴量算出部211から
の位相差A1乃至位相差A3、および所定の係数(後
述)に基づいて、口元(音源)の位置を表す座標(x,
y,z)を算出する。
Based on the phase differences A1 to A3 from the feature amount calculation unit 211 and a predetermined coefficient (described later), the detection unit 212 determines the coordinates (x,
y, z) is calculated.

【0194】検出部212はまた、予め求められた、所
定の位置、所定の向き、並びにその位置およびその向き
の音源から発せられた音声の音圧比B1乃至B3の対応
関係を表すデータから、算出した音圧比B1乃至B3お
よび算出した音源の位置(座標)に対応する向きを、こ
のときの音源の向きとして検出する。
The detecting unit 212 also calculates a predetermined position, a predetermined direction, and a corresponding relationship between the sound pressure ratios B1 to B3 of the sound emitted from the sound source of the position and the direction, which are obtained in advance. The direction corresponding to the determined sound pressure ratios B1 to B3 and the calculated position (coordinates) of the sound source is detected as the direction of the sound source at this time.

【0195】図42は、特徴量算出部211の構成例を
示している。
FIG. 42 shows an example of the configuration of the feature amount calculation unit 211.

【0196】位相差算出部221は、位相差A1を算出
し、検出部212に供給する。位相差算出部222は、
位相差A2を算出し、検出部212に供給する。位相差
算出部223は、位相差A3を算出し、検出部212に
供給する。
The phase difference calculator 221 calculates the phase difference A1 and supplies it to the detector 212. The phase difference calculation unit 222
The phase difference A2 is calculated and supplied to the detection unit 212. The phase difference calculation unit 223 calculates the phase difference A3 and supplies the same to the detection unit 212.

【0197】音圧算出部224は、処理用音声信号S1
の音圧を算出し、音圧比算出部228に供給する。音圧
算出部225は、処理用音声信号S2の音圧を算出し、
音圧比算出部228および音圧比算出部229に供給す
る。
The sound pressure calculating section 224 outputs the processing sound signal S1.
Is calculated and supplied to the sound pressure ratio calculation unit 228. The sound pressure calculation unit 225 calculates the sound pressure of the processing audio signal S2,
It is supplied to the sound pressure ratio calculation unit 228 and the sound pressure ratio calculation unit 229.

【0198】音圧算出部226は、処理用音声信号S3
の音圧を算出し、音圧比算出部229および音圧比算出
部230に供給する。音圧算出部227は、処理用音声
信号S4の音圧を算出し、音圧比算出部230に供給す
る。
The sound pressure calculating section 226 outputs the processing sound signal S3
Is calculated and supplied to the sound pressure ratio calculation unit 229 and the sound pressure ratio calculation unit 230. The sound pressure calculator 227 calculates the sound pressure of the processing audio signal S4 and supplies the calculated sound pressure to the sound pressure ratio calculator 230.

【0199】音圧比算出部228は、音圧比B1を算出
し、検出部212に供給する。音圧比算出部229は、
音圧比B2を算出し、検出部212に供給する。音圧比
算出部230は、音圧比B3を算出し、検出部212に
供給する。
The sound pressure ratio calculation section 228 calculates the sound pressure ratio B1 and supplies it to the detection section 212. The sound pressure ratio calculation unit 229
The sound pressure ratio B2 is calculated and supplied to the detection unit 212. The sound pressure ratio calculation unit 230 calculates the sound pressure ratio B3 and supplies it to the detection unit 212.

【0200】図43は、検出部212の構成例を示して
いる。
FIG. 43 shows an example of the configuration of the detection section 212.

【0201】位置算出部241には、特徴量算出部21
1(位相差算出部221乃至位相差算出部223)から
の位相差A1乃至位相差A3、並びに位置係数記憶部2
42に記憶されている係数a1、係数b1、係数c1、およ
び係数d1、係数a2、係数b2、係数c2、および係数
2、並びに係数a3、係数b3、係数c3、および係数d3
が供給される。
The position calculating section 241 includes the feature amount calculating section 21
1 (phase difference calculation units 221 to 223) and the phase coefficient storage unit 2
42 coefficients a 1 stored in the coefficient b 1, coefficients c 1, and coefficient d 1, coefficients a 2, the coefficient b 2, coefficients c 2, and the coefficient d 2, and the coefficient a 3, the coefficient b 3, coefficient c 3 and coefficient d 3
Is supplied.

【0202】位置算出部241は、係数a1、係数b1
係数c1、および係数d1、並びに位相差A1からなる
x,y,zの1次方程式(式(20))、係数a2、係数
2、係数c2、および係数d2、並びに位相差A2から
なるx,y,zの1次方程式(式(21))、そして係
数a3、係数b3、係数c3、および係数d3、並びに位相
差A3からなるx,y,zの1次方程式(式(22))
の連立方程式を演算し、x,y,zを算出する。 a1×x+b1×y+c1×z+d1=位相差A1…(20) a2×x+b2×y+c2×z+d2=位相差A2…(21) a3×x+b3×y+c3×z+d3=位相差A3…(22)
The position calculating section 241 calculates the coefficient a 1, the coefficient b 1 ,
X, y, z linear equations (Equation (20)) consisting of the coefficients c 1 and d 1 and the phase difference A1, the coefficients a 2, b 2 , c 2 and d 2 , and x consisting retardation A2, y, 1 equations of z (formula (21)), and the coefficient a 3, the coefficient b 3, coefficients c 3, and the coefficient d 3, and consists of a phase difference A3 x, y, and z Linear equation (Equation (22))
X, y, and z are calculated. a 1 × x + b 1 × y + c 1 × z + d 1 = phase difference A1 (20) a 2 × x + b 2 × y + c 2 × z + d 2 = phase difference A2 (21) a 3 × x + b 3 × y + c 3 × z + d 3 = Phase difference A3 (22)

【0203】位置算出部241は、算出した座標(x,
y,z)(音源の位置)を、向き検出部243および出
力部14に供給する。
The position calculator 241 calculates the calculated coordinates (x,
y, z) (the position of the sound source) is supplied to the direction detection unit 243 and the output unit 14.

【0204】位置係数記憶部242が記憶する、係数a
1乃至d1、係数a2乃至d2、および係数a3乃至d3は、
基本的には、第4の実施の形態における係数aL乃至cL
および係数aR乃至cRを算出する場合と同様にして求め
られる。
The coefficient a stored in the position coefficient storage unit 242
1 to d 1 , coefficients a 2 to d 2 , and coefficients a 3 to d 3 are:
Basically, the coefficients a L to c L in the fourth embodiment are used.
And the coefficients a R to c R are calculated in the same manner as in the calculation.

【0205】すなわち、口元(音源)を、所定の複数の
位置(座標(xk,yk,zk))に移動させ、各位置に
あるときの音源から発せられた音声を集音し、位相差A
K、位相差A2k、および位相差A3kを算出する実験
を行うことで、式(23)乃至式(25)に示すような
連立方程式が求められる。
That is, the mouth (sound source) is moved to a plurality of predetermined positions (coordinates (x k , y k , z k )), and the sound emitted from the sound source at each position is collected. Phase difference A
By conducting an experiment for calculating 1 K , the phase difference A2 k , and the phase difference A3 k , simultaneous equations as shown in Expressions (23) to (25) are obtained.

【数12】 (Equation 12)

【数13】 (Equation 13)

【数14】 [Equation 14]

【0206】式(23)乃至式(25)を、最小自乗法
により解くことで、係数a1乃至d1、係数a2乃至d2
および係数a3乃至d3のそれぞれが求められる。
By solving the equations (23) to (25) by the least square method, the coefficients a 1 to d 1 , the coefficients a 2 to d 2 ,
And the coefficients a 3 to d 3 are obtained.

【0207】向き検出部243は、図44に示すよう
な、予め求められた、所定の位置(座標(x,y,
z))、所定の向き(角度θ,φ,ψ)、並びにその位
置およびその向きの音源から発せられた音声の音圧比B
1,B2,B3の対応関係を表す対応表を記憶してい
る。すなわち、向き検出部243は、位置算出部241
からの座標(x,y,z)および特徴量算出部211か
らの音圧比B1,B2,B3に基づいて、それらに対応
する角度θ,φ,ψを、音源の向きとして検出し、出力
部14に出力する。
The direction detecting section 243 determines a predetermined position (coordinates (x, y,
z)), predetermined directions (angles θ, φ, ψ), and the sound pressure ratio B of the sound emitted from the sound source at the position and the direction.
A correspondence table representing the correspondence between 1, B2, and B3 is stored. That is, the direction detection unit 243 includes the position calculation unit 241
Based on the coordinates (x, y, z) from the data and the sound pressure ratios B1, B2, and B3 from the feature amount calculation unit 211, the angles θ, φ, and 対 応 corresponding thereto are detected as the direction of the sound source, and the output unit 14 is output.

【0208】この例の場合の検出装置201の動作を、
図45のフローチャートを参照して説明する。
The operation of the detecting device 201 in this example is as follows.
This will be described with reference to the flowchart in FIG.

【0209】ステップS81において、検出装置201
の入力部11は、入力したマイクアンプ2−1乃至2−
4のそれぞれからの処理用音声信号S1乃至S4の一部
(所定の時間内に入力した部分)を、特徴量算出部21
1に供給する。
At step S81, the detecting device 201
Input unit 11 is provided with the input microphone amplifiers 2-1 through 2-
4 (parts input within a predetermined time) from the feature amount calculating unit 21.
Supply 1

【0210】次に、ステップS82において、特徴量算
出部211(位相差算出部221乃至223)は、マイ
クアンプ2―1乃至2−4から供給された処理用音声信
号S1乃至S4から、処理用音声信号S1の位相と処理
用音声信号S2の位相との位相差A1、処理用音声信号
S2の位相と処理用音声信号S3の位相との位相差A
2、および処理用音声信号S3の位相と処理用音声信号
S4の位相との位相差A3をそれぞれ算出する。算出さ
れた位相差A1乃至位相差A3は、検出部212に供給
される。
Next, in step S82, the characteristic amount calculation unit 211 (phase difference calculation units 221 to 223) converts the processing audio signals S1 to S4 supplied from the microphone amplifiers 2-1 to 2-4 into processing signals. The phase difference A1 between the phase of the audio signal S1 and the phase of the processing audio signal S2, and the phase difference A between the phase of the processing audio signal S2 and the phase of the processing audio signal S3.
2, and a phase difference A3 between the phase of the processing audio signal S3 and the phase of the processing audio signal S4. The calculated phase differences A1 to A3 are supplied to the detection unit 212.

【0211】ステップS83において、特徴量算出部2
11(音圧算出部224乃至227、音圧比算出部22
8乃至230)は、処理用音声信号S1,S2,S3,
S4の音圧を算出するとともに、処理用音声信号S1,
S2の音圧から、音圧比B1を、処理用音声信号S2,
S3の音圧から、音圧比B2を、そして処理用音声信号
S3,S4の音圧から、音圧比B3を、それぞれ算出す
る。算出された音圧比B1乃至音圧比B3は、検出部2
12に供給される。
In step S83, the characteristic amount calculation unit 2
11 (sound pressure calculation units 224 to 227, sound pressure ratio calculation unit 22
8 to 230) are processing audio signals S1, S2, S3,
While calculating the sound pressure of S4, the processing sound signal S1,
From the sound pressure of S2, the sound pressure ratio B1 is converted to the processing sound signal S2.
The sound pressure ratio B2 is calculated from the sound pressure of S3, and the sound pressure ratio B3 is calculated from the sound pressures of the processing audio signals S3 and S4. The calculated sound pressure ratio B1 to sound pressure ratio B3 is
12 is supplied.

【0212】次に、ステップS84において、検出部2
12(位置算出部241)は、特徴量算出部211から
供給された位相差A1乃至位相差A3、並びに自分自身
(位置係数記憶部242)が記憶する係数a1乃至d1
係数a2乃至d2、および係数a3乃至d3の式(20)乃
至式(22)からなる連立方程式を解き、x、y、およ
びzを算出する。算出された座標(x,y,z)は、出
力部14に供給される。
Next, in step S84, the detecting unit 2
12 (the position calculation unit 241) includes the phase differences A1 to A3 supplied from the feature amount calculation unit 211, and the coefficients a 1 to d 1 stored in itself (the position coefficient storage unit 242).
X, y, and z are calculated by solving simultaneous equations composed of the equations (20) to (22) of the coefficients a 2 to d 2 and the coefficients a 3 to d 3 . The calculated coordinates (x, y, z) are supplied to the output unit 14.

【0213】ステップS85において、検出部212
(向き検出部243)は、図44の対応表から、算出さ
れた座標(x,y,z)に最も近い座標および算出され
た音圧比B1,B2,B3に最も近い音圧比を検出する
とともに、それらに対応する角度θ,φ,角度ψを検出
する。検出された角度θ、角度φ、および角度ψは、出
力部14に供給される。
At step S85, the detecting section 212
The (direction detection unit 243) detects the coordinates closest to the calculated coordinates (x, y, z) and the sound pressure ratios closest to the calculated sound pressure ratios B1, B2, and B3 from the correspondence table in FIG. , And the angles θ, φ, and ψ corresponding to them are detected. The detected angle θ, angle φ, and angle ψ are supplied to the output unit 14.

【0214】ステップS86において、出力部14は、
検出部212から供給された座標(x,y,z)を、口
元(音源)の位置として、並びに角度θ、角度φ、およ
び角度ψを、口元の向きとして、外部の装置に出力す
る。
In step S86, the output unit 14
The coordinates (x, y, z) supplied from the detection unit 212 are output to an external device as the position of the mouth (sound source), and the angles θ, φ, and ψ as the directions of the mouth.

【0215】その後、処理は終了する。Thereafter, the processing ends.

【0216】なお、以上においては、特徴量算出部21
1は、処理用音声信号S1乃至S4から直接音圧を算出
し、そして音圧比B1乃至B3を算出する場合を例とし
て説明したが、処理用音声信号S1乃至S4の高周波部
分の信号(高周波処理用音声信号S1h乃至S4h)の音
圧を算出し、それらの音圧比B1h乃至B3hを算出する
こともできる。高周波部分の信号の音圧比は、音源との
距離に応じても変化するが、指向性があることから、そ
れを利用することで、より正確に音源の向きを検出する
ことができる。特に有効である。
In the above description, the feature value calculating unit 21
1 has been described as an example in which the sound pressure is directly calculated from the processing audio signals S1 to S4 and the sound pressure ratios B1 to B3 are calculated, but the signals of the high frequency portions of the processing audio signals S1 to S4 (high-frequency processing It is also possible to calculate the sound pressures of the audio signals for use S1h to S4h) and calculate their sound pressure ratios B1h to B3h. The sound pressure ratio of the signal in the high-frequency portion changes depending on the distance from the sound source, but since it has directivity, the direction of the sound source can be detected more accurately by using it. Especially effective.

【0217】この例の場合における特徴量算出部211
の構成例を、図46に示す。この特徴量算出部211に
は、図42の特徴量算出部211の音圧算出部224乃
至227の前段に、ハイパスフィルタ251乃至254
が設けられている。
In this example, the feature amount calculation unit 211 is used.
46 is shown in FIG. This feature amount calculation unit 211 includes high-pass filters 251 to 254 before the sound pressure calculation units 224 to 227 of the feature amount calculation unit 211 in FIG.
Is provided.

【0218】ハイパスフィルタ251は、入力部11か
ら供給された処理用音声信号S1の高周波部分のみを通
過させて、音圧算出部224に供給する。ハイパスフィ
ルタ252は、入力部11から供給された処理用音声信
号S2の高周波部分のみを通過させて、音圧算出部22
5に供給する。
The high-pass filter 251 passes only the high-frequency portion of the processing audio signal S 1 supplied from the input unit 11 and supplies it to the sound pressure calculation unit 224. The high-pass filter 252 allows only the high-frequency portion of the processing audio signal S2 supplied from the input unit 11 to pass, and
5

【0219】ハイパスフィルタ253は、入力部11か
ら供給された処理用音声信号S3の高周波部分のみを通
過させて、音圧算出部226に供給する。ハイパスフィ
ルタ254は、入力部11から供給された処理用音声信
号S4の高周波部分のみを通過させて、音圧算出部22
7に供給する。
The high-pass filter 253 allows only the high-frequency portion of the processing audio signal S3 supplied from the input unit 11 to pass and supplies it to the sound pressure calculation unit 226. The high-pass filter 254 allows only the high-frequency portion of the processing audio signal S4 supplied from the input unit 11 to pass, and
7

【0220】音圧算出部224は、高周波処理用音声信
号S1hの音圧を算出し、音圧比算出部228に供給す
る。音圧算出部225は、高周波処理用音声信号S2h
の音圧を算出し、音圧比算出部228および音圧比算出
部229に供給する。
[0220] The sound pressure calculation section 224 calculates the sound pressure of the audio signal S1h for high-frequency processing and supplies it to the sound pressure ratio calculation section 228. The sound pressure calculation unit 225 outputs the high-frequency processing audio signal S2h.
Is calculated and supplied to the sound pressure ratio calculation unit 228 and the sound pressure ratio calculation unit 229.

【0221】音圧算出部226は、高周波処理用音声信
号S3hの音圧を算出し、音圧比算出部229および音
圧比算出部230に供給する。音圧算出部227は、高
周波処理用音声信号S4hの音圧を算出し、音圧比算出
部230に供給する。
The sound pressure calculation section 226 calculates the sound pressure of the high frequency processing audio signal S3h, and supplies it to the sound pressure ratio calculation section 229 and the sound pressure ratio calculation section 230. The sound pressure calculation section 227 calculates the sound pressure of the high-frequency processing audio signal S4h and supplies it to the sound pressure ratio calculation section 230.

【0222】音圧比算出部228は、高周波処理用音声
信号S1hの音圧と高周波処理用音声信号S2hの音圧と
の音圧比B1を算出し、検出部212に供給する。音圧
比算出部229は、高周波処理用音声信号S2hの音圧
と高周波処理用音声信号S3hの音圧との音圧比B2を
算出し、検出部212に供給する。音圧比算出部230
は、高周波処理用音声信号S3hの音圧と高周波処理用
音声信号S4hの音圧との音圧比B3を算出し、検出部
212に供給する。
The sound pressure ratio calculating section 228 calculates the sound pressure ratio B1 between the sound pressure of the high-frequency processing audio signal S1h and the sound pressure of the high-frequency processing audio signal S2h, and supplies it to the detection section 212. The sound pressure ratio calculation unit 229 calculates a sound pressure ratio B2 between the sound pressure of the high-frequency processing audio signal S2h and the sound pressure of the high-frequency processing audio signal S3h, and supplies this to the detection unit 212. Sound pressure ratio calculator 230
Calculates the sound pressure ratio B3 between the sound pressure of the high-frequency processing sound signal S3h and the sound pressure of the high-frequency processing sound signal S4h, and supplies the sound pressure ratio B3 to the detection unit 212.

【0223】なお、以上においては、音源(口元)の状
態(位置、または向き)を検出するタイミングについて
は、言及しなかったが、検出装置3,31,61,10
1,201に、操作部を設け、その操作部が操作された
とき、音源の状態が検出されるようにしたり、また所定
の周期で、所定の期間継続して検出されるようにしたり
することができる。
Although the timing of detecting the state (position or direction) of the sound source (mouth) has not been described above, the detection devices 3, 31, 61, 10
An operation unit is provided in each of the devices 201 and 201 so that when the operation unit is operated, the state of the sound source is detected, or is detected at a predetermined cycle and continuously for a predetermined period. Can be.

【0224】また、以上においては、第1の実施の形態
乃至第5の実施の形態について、それぞれ別個に説明し
たが、それらを組み合わせて、ユーザの状態を検出する
ようにすることもできる。例えば、第4の実施の形態お
よび第5の実施の形態においては、音源の位置および向
きの両方を算出する場合を例として説明したが、音源の
位置のみを検出することもできる。
Further, in the above, the first to fifth embodiments have been described separately, but they may be combined to detect the state of the user. For example, in the fourth and fifth embodiments, the case where both the position and the direction of the sound source are calculated has been described as an example. However, only the position of the sound source may be detected.

【0225】また、第4の実施の形態および第5の実施
の形態において、処理用音声信号から直接音圧を算出
し、その音圧で音圧比を算出する場合と、高周波処理用
音声信号の音圧を算出し、その音圧で音圧比を算出する
場合を別個に説明したが、それらを組み合わせて利用す
ることもできる。
In the fourth and fifth embodiments, the case where the sound pressure is directly calculated from the processing audio signal and the sound pressure ratio is calculated based on the calculated sound pressure is different from the case where the sound pressure ratio is calculated based on the sound pressure. Although the case where the sound pressure is calculated and the sound pressure ratio is calculated based on the sound pressure has been described separately, they can be used in combination.

【0226】上述した一連の処理は、ハードウエアによ
り実現させることもできるが、ソフトウエアにより実現
させることもできる。一連の処理をソフトウエアにより
実現する場合には、そのソフトウエアを構成するプログ
ラムがコンピュータにインストールされ、そのプログラ
ムがコンピュータで実行されることより、上述した検出
装置3,31,61,101,201が機能的に実現さ
れる。
The series of processes described above can be realized by hardware, but can also be realized by software. When a series of processing is realized by software, a program constituting the software is installed in a computer, and the program is executed by the computer, so that the detection devices 3, 31, 61, 101, 201 described above are used. Is functionally realized.

【0227】図47は、上述のような検出装置3,3
1,61,101,102として機能するコンピュータ
501の一実施の形態の構成を示すブロック図である。
CPU(Central Processing Unit)511にはバス515
を介して入出力インタフェース516が接続されてお
り、CPU511は、入出力インタフェース516を介し
て、ユーザから、キーボード、マウスなどよりなる入力
部518から指令が入力されると、例えば、ROM(Read
Only Memory)512、ハードディスク514、または
ドライブ520に装着される磁気ディスク531、光デ
ィスク532、光磁気ディスク533、若しくは半導体
メモリ534などの記録媒体に格納されているプログラ
ムを、RAM(Random Access Memory)513にロードし
て実行する。これにより、上述した各種の処理が行われ
る。さらに、CPU511は、その処理結果を、例えば、
入出力インタフェース516を介して、LCD(Liquid Cr
ystalDisplay)などよりなる表示部517に必要に応じ
て出力する。なお、プログラムは、ハードディスク51
4やROM512に予め記憶しておき、コンピュータ50
1と一体的にユーザに提供したり、磁気ディスク53
1、光ディスク532、光磁気ディスク533,半導体
メモリ534等のパッケージメディアとして提供した
り、衛星、ネットワーク等から通信部519を介してハ
ードディスク514に提供することができる。
FIG. 47 shows the detection devices 3 and 3 as described above.
FIG. 1 is a block diagram illustrating a configuration of an embodiment of a computer 501 that functions as 1, 61, 101, and 102.
A bus 515 is provided for a CPU (Central Processing Unit) 511.
An input / output interface 516 is connected via the input / output interface 516. When a command is input from the user via the input / output interface 516 to the input unit 518 including a keyboard, a mouse, and the like, the CPU 511 reads, for example, a ROM (Read
Only memory) 512, a hard disk 514, or a program stored in a recording medium such as a magnetic disk 531, an optical disk 532, a magneto-optical disk 533, or a semiconductor memory 534 mounted on the drive 520 is stored in a random access memory (RAM) 513. And run it. Thereby, the various processes described above are performed. Further, the CPU 511 transmits the processing result to, for example,
LCD (Liquid Cr) via the input / output interface 516
Output to a display unit 517 such as a ystalDisplay) as necessary. The program is stored on the hard disk 51
4 or ROM 512 in advance, and the computer 50
1 and the magnetic disk 53
1. It can be provided as a package medium such as an optical disk 532, a magneto-optical disk 533, or a semiconductor memory 534, or can be provided to a hard disk 514 via a communication unit 519 from a satellite, a network, or the like.

【0228】なお、本明細書において、記録媒体により
提供されるプログラムを記述するステップは、記載され
た順序に沿って時系列的に行われる処理はもちろん、必
ずしも時系列的に処理されなくとも、並列的あるいは個
別に実行される処理をも含むものである。
In the present specification, the step of describing a program provided by a recording medium may be performed not only in chronological order according to the described order but also in chronological order. This also includes processing executed in parallel or individually.

【0229】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
[0229] In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0230】[0230]

【発明の効果】本発明の情報処理装置および方法、並び
に第1のプログラムによれば、所定の位置に設置された
複数の集音装置により集音された、所定の音源が発した
音声に対応する音声信号から、音源の状態に対応する特
徴量を算出し、算出された特徴量に基づいて、音源の状
態を検出するようにしたので、音源が発した音声から、
音源の状態を検出することができる。
According to the information processing apparatus and method and the first program of the present invention, it is possible to cope with a sound emitted by a predetermined sound source, which is collected by a plurality of sound collection devices installed at predetermined positions. From the audio signal to be calculated, a feature amount corresponding to the state of the sound source is calculated, and based on the calculated feature amount, the state of the sound source is detected.
The state of the sound source can be detected.

【0231】本発明の情報生成装置および方法、並びに
第2のプログラムによれば、第1の集音装置、第2の集
音装置、および第3の集音装置のそれぞれにより集音さ
れた、所定の範囲内に設けられた複数の実験位置に位置
した音源が発した音声に対応する第4の音声信号、第5
の音声信号、および第6の音声信号から、第4の音声信
号の位相と第5の音声信号の位相との第3の位相差、お
よび第4の音声信号の位相と第6の音声信号との第4の
位相差を、実験位置毎に算出するようにしたので、第3
の位相差と実験位置との関係に基づいて、第1の係数を
算出し、第4の位相差と実験位置との関係に基づいて、
第2の係数が算出することができる。
According to the information generating apparatus and method of the present invention, and the second program, the sound collected by each of the first sound collecting apparatus, the second sound collecting apparatus, and the third sound collecting apparatus, A fourth sound signal corresponding to a sound emitted from a sound source located at a plurality of experiment positions provided within a predetermined range, a fifth sound signal
From the audio signal and the sixth audio signal, the third phase difference between the phase of the fourth audio signal and the phase of the fifth audio signal, and the phase of the fourth audio signal and the sixth audio signal. Since the fourth phase difference is calculated for each experimental position,
A first coefficient is calculated based on the relationship between the phase difference and the experimental position, and based on the relationship between the fourth phase difference and the experimental position,
A second coefficient can be calculated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した音源状態検出システムの第1
の実施の形態の構成例を示すブロック図である。
FIG. 1 shows a first example of a sound source state detection system to which the present invention is applied.
It is a block diagram which shows the example of a structure of 1st Embodiment.

【図2】マイク1の設置位置を示す図である。FIG. 2 is a diagram showing an installation position of a microphone 1;

【図3】音圧比RLと音源の向きとの対応関係を示す図
である。
FIG. 3 is a diagram showing a correspondence relationship between a sound pressure ratio RL and a direction of a sound source.

【図4】図1の検出装置3の構成例を示すブロック図で
ある。
FIG. 4 is a block diagram showing a configuration example of a detection device 3 of FIG.

【図5】図4の特徴量算出部12の構成例を示すブロッ
ク図である。
FIG. 5 is a block diagram illustrating a configuration example of a feature amount calculation unit 12 in FIG. 4;

【図6】音源状態検出システムの動作を説明するフロー
チャートである。
FIG. 6 is a flowchart illustrating an operation of the sound source state detection system.

【図7】図6のステップS3の処理の詳細を説明するフ
ローチャートである。
FIG. 7 is a flowchart illustrating details of a process in step S3 of FIG. 6;

【図8】本発明を適用した音源状態検出システムの第2
の実施の形態の構成例を示すブロック図である。
FIG. 8 shows a second example of the sound source state detection system to which the present invention is applied.
It is a block diagram which shows the example of a structure of 1st Embodiment.

【図9】マイク1の設置位置を示す他の図である。FIG. 9 is another diagram showing an installation position of the microphone 1;

【図10】音圧比RLhと音源の向きとの対応関係を示
す図である。
FIG. 10 is a diagram showing a correspondence relationship between a sound pressure ratio RLh and a direction of a sound source.

【図11】図8の検出装置31の構成例を示すブロック
図である。
11 is a block diagram illustrating a configuration example of a detection device 31 in FIG.

【図12】図11の特徴量算出部41の構成例を示すブ
ロック図である。
12 is a block diagram illustrating a configuration example of a feature amount calculation unit 41 in FIG. 11;

【図13】カットオフ特性を示す図である。FIG. 13 is a diagram illustrating cutoff characteristics.

【図14】ピッチ周波数を説明する図である。FIG. 14 is a diagram illustrating a pitch frequency.

【図15】音源状態検出システムの他の動作を説明する
フローチャートである。
FIG. 15 is a flowchart illustrating another operation of the sound source state detection system.

【図16】図15のステップS23の処理の詳細を説明
するフローチャートである。
FIG. 16 is a flowchart illustrating details of a process in step S23 in FIG. 15;

【図17】本発明を適用した音源状態検出システムの第
3の実施の形態の構成例を示すブロック図である。
FIG. 17 is a block diagram illustrating a configuration example of a third embodiment of a sound source state detection system to which the present invention has been applied.

【図18】位相差と顔の向きとの対応関係を示す図であ
る。
FIG. 18 is a diagram illustrating a correspondence relationship between a phase difference and a face direction.

【図19】位相差を説明する図である。FIG. 19 is a diagram illustrating a phase difference.

【図20】位相差を説明する他の図である。FIG. 20 is another diagram illustrating a phase difference.

【図21】位相差を説明する他の図である。FIG. 21 is another diagram illustrating a phase difference.

【図22】図17の検出装置61の構成例を示すブロッ
ク図である。
22 is a block diagram illustrating a configuration example of a detection device 61 in FIG.

【図23】音源状態検出システムの他の動作を説明する
フローチャートである。
FIG. 23 is a flowchart illustrating another operation of the sound source state detection system.

【図24】図23のステップS43の処理の詳細を説明
するフローチャートである。
FIG. 24 is a flowchart illustrating details of a process in step S43 of FIG. 23;

【図25】本発明を適用した音源状態検出システムの第
4の実施の形態の構成例を示すブロック図である。
FIG. 25 is a block diagram illustrating a configuration example of a fourth embodiment of a sound source state detection system to which the present invention has been applied.

【図26】マイク1の配置位置を説明する図である。FIG. 26 is a diagram illustrating an arrangement position of the microphone 1.

【図27】位置および向きを説明する図である。FIG. 27 is a diagram illustrating a position and an orientation.

【図28】図25の検出装置101の構成例を示すブロ
ック図である。
FIG. 28 is a block diagram illustrating a configuration example of a detection device 101 in FIG. 25.

【図29】図28の特徴量算出部111の構成例を示す
ブロック図である。
29 is a block diagram illustrating a configuration example of a feature amount calculation unit 111 in FIG. 28.

【図30】図28の検出部112の構成例を示すブロッ
ク図である。
30 is a block diagram illustrating a configuration example of a detection unit 112 in FIG. 28.

【図31】ΔLおよびΔRを説明する図である。FIG. 31 is a diagram illustrating ΔL and ΔR.

【図32】距離Cおよび距離Lを説明する図である。FIG. 32 is a diagram illustrating a distance C and a distance L.

【図33】位相差CLおよび位相差CRを説明する図で
ある。
FIG. 33 is a diagram illustrating a phase difference CL and a phase difference CR.

【図34】基準位置pを説明する図である。FIG. 34 is a diagram illustrating a reference position p.

【図35】音圧比RLを説明する図である。FIG. 35 is a diagram illustrating a sound pressure ratio RL.

【図36】検出装置101の動作を説明するフローチャ
ートである。
FIG. 36 is a flowchart illustrating an operation of the detection device 101.

【図37】検出装置101の他の動作を説明するフロー
チャートである。
FIG. 37 is a flowchart illustrating another operation of the detection device 101.

【図38】特徴量算出部111の他の構成例を示すブロ
ック図である。
38 is a block diagram illustrating another configuration example of the feature amount calculation unit 111. FIG.

【図39】本発明を適用した音源状態検出システムの第
5の実施の形態の構成例を示すブロック図である。
FIG. 39 is a block diagram illustrating a configuration example of a fifth embodiment of a sound source state detection system to which the present invention has been applied.

【図40】位置および向きを説明する他の図である。FIG. 40 is another diagram illustrating a position and an orientation.

【図41】図39の検出装置201の構成例を示すブロ
ック図である。
41 is a block diagram illustrating a configuration example of a detection device 201 in FIG. 39.

【図42】図41の特徴量算出部211の構成例を示す
ブロック図である。
42 is a block diagram illustrating a configuration example of a feature amount calculation unit 211 in FIG. 41.

【図43】図41の検出部212の構成例を示すブロッ
ク図である。
FIG. 43 is a block diagram illustrating a configuration example of a detection unit 212 in FIG. 41.

【図44】座標、音圧比、および角度の対応関係を示す
対応表の例を示す図である。
FIG. 44 is a diagram showing an example of a correspondence table showing a correspondence relationship among coordinates, sound pressure ratios, and angles.

【図45】検出装置202の動作を説明するフローチャ
ートである。
FIG. 45 is a flowchart illustrating an operation of the detection device 202.

【図46】特徴量算出部211の他の構成例を示すブロ
ック図である。
FIG. 46 is a block diagram illustrating another configuration example of the feature amount calculation unit 211.

【図47】パーソナルコンピュータ501の構成例を示
すブロック図である。
FIG. 47 is a block diagram illustrating a configuration example of a personal computer 501.

【符号の説明】 1 マイクロフォン, 2 マイクアンプ, 3 検出
装置, 11 入力部, 12 特徴量算出部, 13
検出部, 14 出力部, 21 音圧算出部, 2
2 音圧比算出部, 31 検出装置, 41 特徴量
算出部, 42検出部, 51 ハイパスフィルタ,
61 検出装置, 71 特徴量算出部, 72 検出
部, 101 検出装置, 111 特徴量算出部,
112検出部, 121 位相差算出部, 122 位
相差算出部, 123 音圧算出部, 124 音圧算
出部, 125 音圧比算出部, 131 位置算出
部, 132 位置係数記憶部, 133 向き係数決
定部, 134 向き算出部, 141 ハイパスフィ
ルタ, 142 ハイパスフィルタ, 201検出装
置, 211 特徴量算出部, 212 検出部, 2
21 位相差算出部, 222 位相差算出部, 22
3 位相差算出部, 224 音圧算出部, 225
音圧算出部, 226 音圧算出部, 227 音圧算
出部, 228 音圧比算出部, 229 音圧比算出
部, 230 音圧比算出部, 241 位置算出部,
242 位置係数記憶部, 243 向き検出部,
251 ハイパスフィルタ, 252 ハイパスフィル
タ, 253 ハイパスフィルタ, 254 ハイパス
フィルタ
[Description of Signs] 1 microphone, 2 microphone amplifier, 3 detection device, 11 input unit, 12 feature amount calculation unit, 13
Detection unit, 14 output unit, 21 sound pressure calculation unit, 2
2 sound pressure ratio calculation section, 31 detection device, 41 feature quantity calculation section, 42 detection section, 51 high-pass filter,
61 detection device, 71 feature amount calculation unit, 72 detection unit, 101 detection device, 111 feature amount calculation unit,
112 detection section, 121 phase difference calculation section, 122 phase difference calculation section, 123 sound pressure calculation section, 124 sound pressure calculation section, 125 sound pressure ratio calculation section, 131 position calculation section, 132 position coefficient storage section, 133 direction coefficient determination section , 134 orientation calculation unit, 141 high-pass filter, 142 high-pass filter, 201 detection device, 211 feature amount calculation unit, 212 detection unit, 2
21 phase difference calculator, 222 phase difference calculator, 22
3 phase difference calculator, 224 sound pressure calculator, 225
Sound pressure calculating section, 226 sound pressure calculating section, 227 sound pressure calculating section, 228 sound pressure ratio calculating section, 229 sound pressure ratio calculating section, 230 sound pressure ratio calculating section, 241 position calculating section,
242 position coefficient storage unit, 243 direction detection unit,
251 high-pass filter, 252 high-pass filter, 253 high-pass filter, 254 high-pass filter

───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤島 幸一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大月 知之 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5D018 BB23 5D020 BB04    ────────────────────────────────────────────────── ─── Continuation of front page    (72) Inventor Koichi Fujishima             6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo Soni             ー Inc. (72) Inventor Tomoyuki Otsuki             6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo Soni             ー Inc. F term (reference) 5D018 BB23                 5D020 BB04

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 所定の位置に設置された複数の集音装置
により集音された、所定の音源が発した音声に対応する
音声信号から、前記音源の状態に対応する特徴量を算出
する第1の算出手段と、 前記第1の算出手段により算出された前記特徴量に基づ
いて、前記音源の状態を検出する状態検出手段とを備え
ることを特徴とする情報処理装置。
1. A method for calculating a feature amount corresponding to a state of a sound source from an audio signal corresponding to a sound emitted from a predetermined sound source, which is collected by a plurality of sound collecting devices installed at a predetermined position. An information processing apparatus, comprising: a first calculating unit; and a state detecting unit that detects a state of the sound source based on the feature amount calculated by the first calculating unit.
【請求項2】 前記状態は、所定の位置にある前記音源
の向きであることを特徴とする請求項1の情報処理装
置。
2. The information processing apparatus according to claim 1, wherein the state is a direction of the sound source at a predetermined position.
【請求項3】 前記状態検出手段は、予め求められた、
前記特徴量と前記状態との対応関係を示す対応関係デー
タを保持し、前記対応関係データおよび前記特徴量に基
づいて、前記状態を検出することを特徴とする請求項1
に記載の情報処理装置。
3. The apparatus according to claim 2, wherein the state detecting means is obtained in advance.
2. The apparatus according to claim 1, wherein correspondence data indicating a correspondence relationship between the feature amount and the state is held, and the state is detected based on the correspondence data and the feature amount.
An information processing apparatus according to claim 1.
【請求項4】 前記第1の算出手段は、第1の前記集音
装置により集音された、前記音源が発した音声に対応す
る第1の前記音声信号、および第2の前記集音装置によ
り集音された、前記音源が発した音声に対応する第2の
前記音声信号から、前記第1の音声信号の音圧と前記第
2の音声信号の音圧との音圧比を、前記特徴量として算
出し、 前記状態検出手段は、予め求められた、前記音圧比と前
記状態との対応関係を示す前記対応関係データを保持
し、前記対応関係データおよび前記音圧比に基づいて、
前記状態を検出することを特徴とする請求項3に記載の
情報処理装置。
4. The first sound signal corresponding to the sound emitted by the sound source, collected by the first sound collecting device, and the second sound collecting device. A sound pressure ratio between a sound pressure of the first sound signal and a sound pressure of the second sound signal, from a second sound signal corresponding to a sound emitted by the sound source collected by Calculated as an amount, the state detection means holds the previously obtained correspondence data indicating the correspondence between the sound pressure ratio and the state, based on the correspondence data and the sound pressure ratio,
The information processing apparatus according to claim 3, wherein the state is detected.
【請求項5】 前記第1の算出手段は、第1の前記集音
装置により集音された、前記音源が発した音声に対応す
る第1の前記音声信号、および第2の前記集音装置によ
り集音された、前記音源が発した音声に対応する第2の
前記音声信号から、前記第1の音声信号の高周波部分か
らなる第1の高周波音声信号の音圧と、前記第2の音声
信号の高周波部分からなる第2の高周波音声信号の音圧
との音圧比を、前記特徴量として算出し、 前記状態検出手段は、予め求められた、前記音圧比と前
記状態との対応関係を示す前記対応関係データを保持
し、前記対応関係データおよび前記音圧比に基づいて、
前記状態を検出することを特徴とする請求項3に記載の
情報処理装置。
5. The first calculating means includes: a first sound signal corresponding to a sound emitted by the sound source, collected by the first sound collecting device; and a second sound collecting device. A sound pressure of a first high-frequency sound signal composed of a high-frequency portion of the first sound signal from the second sound signal corresponding to the sound emitted by the sound source, and a second sound A sound pressure ratio between a sound pressure of a second high-frequency sound signal composed of a high-frequency portion of the signal and the sound pressure is calculated as the characteristic amount. Holding the corresponding relationship data shown, based on the corresponding relationship data and the sound pressure ratio,
The information processing apparatus according to claim 3, wherein the state is detected.
【請求項6】 前記第1の算出手段は、第1の前記集音
装置により集音された、前記音源が発した音声に対応す
る第1の前記音声信号、および第2の前記集音装置によ
り集音された、前記音源が発した音声に対応する第2の
前記音声信号から、前記第1の音声信号の位相と前記第
2の音声信号の位相との位相差を、前記特徴量として算
出し、 前記状態検出手段は、予め求められた、前記位相差と前
記状態との対応関係を示す前記対応関係データを保持
し、前記対応関係データおよび前記位相差に基づいて、
前記状態を検出することを特徴とする請求項3に記載の
情報処理装置。
6. The first sound signal corresponding to the sound emitted by the sound source, collected by the first sound collecting device, and the second sound collecting device. A phase difference between the phase of the first audio signal and the phase of the second audio signal from the second audio signal corresponding to the audio emitted by the sound source, collected as Calculating, the state detection means holds the correspondence data indicating the correspondence between the phase difference and the state obtained in advance, based on the correspondence data and the phase difference,
The information processing apparatus according to claim 3, wherein the state is detected.
【請求項7】 前記第1の算出手段は、第1の前記集音
装置、第2の前記集音装置、および第3の前記集音装置
により集音された、所定の範囲内に位置する前記音源が
発した音声に対応する第1の前記音声信号、第2の前記
音声信号、および第3の前記音声信号から、前記第1の
音声信号の位相と前記第2の音声信号の位相との第1の
位相差、および前記第1の音声信号の位相と前記第3の
音声信号の位相との第2の位相差を、前記特徴量として
算出し、 前記状態検出手段は、前記第1の位相差および前記第2
の位相差に基づいて、前記音源の、平面上の位置を検出
することを特徴とする請求項1に記載の情報処理装置。
7. The first calculating means is located within a predetermined range collected by the first sound collecting device, the second sound collecting device, and the third sound collecting device. From the first audio signal, the second audio signal, and the third audio signal corresponding to the audio emitted by the sound source, the phase of the first audio signal and the phase of the second audio signal And the second phase difference between the phase of the first audio signal and the phase of the third audio signal are calculated as the characteristic amount. And the second
The information processing apparatus according to claim 1, wherein the position of the sound source on a plane is detected based on the phase difference of the sound source.
【請求項8】 前記第1の集音装置、前記第2の集音装
置、および前記第3の集音装置のそれぞれにより集音さ
れた、所定の範囲内に設けられた複数の実験位置に位置
した前記音源が発した音声に対応する第4の前記音声信
号、第5の前記音声信号、および第6の前記音声信号か
ら、前記第4の音声信号の位相と前記第5の音声信号の
位相との第3の位相差、および前記第4の音声信号の位
相と前記第6の音声信号との第4の位相差を、前記実験
位置毎に算出し、さらに、前記第3の位相差と前記実験
位置との関係に基づく第1の係数、および前記第4の位
相差と前記実験位置との関係に基づく第2の係数を算出
する第2の算出手段と、前記第2の算出手段により算出
された前記第1の係数および前記第2の係数を記憶する
記憶手段とをさらに備え、 前記状態検出手段は、前記第1の位相差と前記第1の係
数との関係、および前記第2の位相差と前記第2の係数
との関係に基づいて、前記音源の、平面上の位置を検出
することを特徴とする請求項7に記載の情報処理装置。
8. A plurality of experimental positions provided within a predetermined range and collected by each of the first sound collecting device, the second sound collecting device, and the third sound collecting device. From the fourth audio signal, the fifth audio signal, and the sixth audio signal corresponding to the audio emitted by the located sound source, the phase of the fourth audio signal and the phase of the fifth audio signal Calculating a third phase difference with respect to the phase and a fourth phase difference between the phase of the fourth sound signal and the sixth sound signal for each of the experimental positions; Second calculating means for calculating a first coefficient based on a relationship between the first phase difference and the experimental position, and a second coefficient based on a relationship between the fourth phase difference and the experimental position; and the second calculating means. Storage means for storing the first coefficient and the second coefficient calculated by The state detecting means includes: on the plane of the sound source, based on a relationship between the first phase difference and the first coefficient and a relationship between the second phase difference and the second coefficient. The information processing apparatus according to claim 7, wherein the position of the information processing device is detected.
【請求項9】 前記第1の算出手段は、前記第2の音声
信号および前記第3の音声信号から、前記第2の音声信
号の音圧と前記第3の音声信号の音圧との第1の音圧比
を、前記特徴量として、さらに算出し、 前記状態検出手段は、前記第1の音圧比および検出した
前記音源の位置に基づいて、前記音源の向きを検出する
ことを特徴とする請求項7に記載の情報処理装置。
9. The method according to claim 1, wherein the first calculating unit calculates a sound pressure of the second sound signal and a sound pressure of the third sound signal from the second sound signal and the third sound signal. 1 is further calculated as the characteristic amount, and the state detection means detects the direction of the sound source based on the first sound pressure ratio and the detected position of the sound source. The information processing device according to claim 7.
【請求項10】 前記第2の集音装置および前記第3の
集音装置のそれぞれにより集音された、複数の基準位置
に位置し、所定の方向を向いた前記音源が発した音声に
対応する第4の前記音声信号および第5の前記音声信号
から、前記第4の音声信号の音圧と前記第5の音声信号
の音圧の第2の音圧比を算出し、さらに、前記第2の音
圧比と前記所定の方向との関係に基づく係数を、前記基
準位置毎に算出する第2の算出手段と、 前記係数を、前記基準位置に対応させて記憶する記憶手
段とをさらに備え、 前記状態検出手段は、検出した前記音源の位置に対応す
る前記基準位置を検出するとともに、前記記憶手段か
ら、検出した前記基準位置に対応する前記係数を選択
し、選択した前記係数および前記第1の音圧比との関係
に基づいて、前記音源の向きを検出することを特徴とす
る請求項9に記載の情報処理装置。
10. A sound source, which is collected by each of the second sound collecting device and the third sound collecting device, is located at a plurality of reference positions and corresponds to a sound emitted by the sound source directed in a predetermined direction. Calculating a second sound pressure ratio between the sound pressure of the fourth sound signal and the sound pressure of the fifth sound signal from the fourth sound signal and the fifth sound signal. A second calculating unit that calculates a coefficient based on the relationship between the sound pressure ratio and the predetermined direction for each of the reference positions; and a storage unit that stores the coefficient in association with the reference position. The state detection means detects the reference position corresponding to the detected position of the sound source, selects the coefficient corresponding to the detected reference position from the storage means, and selects the selected coefficient and the first coefficient. Based on the relationship with the sound pressure ratio of The information processing apparatus according to claim 9, characterized in that detecting the direction of the source.
【請求項11】 前記第1の算出手段は、第1の前記集
音装置、第2の前記集音装置、第3の前記集音装置、お
よび第4の前記集音装置により集音された、所定の範囲
内に位置する前記音源が発した音声に対応する第1の前
記音声信号、第2の前記音声信号、第3の前記音声信
号、および第4の前記音声信号から、前記第1の音声信
号の位相と前記第2の音声信号の位相との第1の位相
差、前記第2の音声信号の位相と前記第3の音声信号の
位相との第2の位相差、および前記第3の音声信号の位
相と前記第4の音声信号の位相との第3の位相差を、前
記特徴量として算出し、 前記状態検出手段は、前記第1の位相差、前記第2の位
相差、および前記第3の位相差に基づいて、前記音源
の、空間上の位置を検出することを特徴とする請求項1
に記載の情報処理装置。
11. The first calculating means, wherein sound is collected by a first sound collecting device, a second sound collecting device, a third sound collecting device, and a fourth sound collecting device. From the first audio signal, the second audio signal, the third audio signal, and the fourth audio signal corresponding to the audio emitted by the sound source located within a predetermined range, A first phase difference between the phase of the audio signal and the phase of the second audio signal, a second phase difference between the phase of the second audio signal and the phase of the third audio signal, and A third phase difference between the phase of the third audio signal and the phase of the fourth audio signal is calculated as the feature quantity, and the state detection unit calculates the first phase difference and the second phase difference And detecting a spatial position of the sound source based on the third phase difference.
An information processing apparatus according to claim 1.
【請求項12】 前記第1の集音装置、前記第2の集音
装置、前記第3の集音装置、および前記第4の集音装置
のそれぞれにより集音された、所定の範囲内に設けられ
た複数の実験位置に位置した前記音源が発した音声に対
応する第5の前記音声信号、第6の前記音声信号、第7
の前記音声信号、および第8の前記音声信号から、前記
第5の音声信号の位相と前記第6の音声信号の位相との
第4の位相差、前記第6の音声信号の位相と前記第7の
音声信号の位相との第5の位相差、および前記第7の音
声信号の位相と前記第8の音声信号の位相との第6の位
相差を、前記実験位置毎に算出し、さらに、前記第4の
位相差と前記実験位置との関係に基づく第1の係数、前
記第5の位相差と前記実験位置との関係に基づく第2の
係数、および前記第6の位相差と前記実験位置との関係
に基づく第3の係数を算出する第2の算出手段と、 前記第2の算出手段により算出された前記第1の係数、
前記第2の係数、および前記第3の係数を記憶する記憶
手段とをさらに備え、 前記状態検出手段は、前記第1の位相差と前記第1の係
数との関係、前記第2の位相差と前記第2の係数との関
係、および前記第3の位相差と前記第3の係数との関係
に基づいて、前記音源の、空間上の位置を検出すること
を特徴とする請求項11に記載の情報処理装置。
12. Within a predetermined range collected by each of the first sound collecting device, the second sound collecting device, the third sound collecting device, and the fourth sound collecting device. A fifth sound signal, a sixth sound signal, and a seventh sound signal corresponding to sounds emitted by the sound sources located at the provided plurality of experimental positions.
From the audio signal and the eighth audio signal, the fourth phase difference between the phase of the fifth audio signal and the phase of the sixth audio signal, the phase of the sixth audio signal and the fourth Calculating a fifth phase difference from the phase of the audio signal No. 7 and a sixth phase difference between the phase of the seventh audio signal and the phase of the eighth audio signal for each of the experimental positions; A first coefficient based on the relationship between the fourth phase difference and the experimental position, a second coefficient based on the relationship between the fifth phase difference and the experimental position, and the sixth phase difference A second calculating means for calculating a third coefficient based on a relationship with an experimental position; and the first coefficient calculated by the second calculating means;
A storage unit that stores the second coefficient and the third coefficient, wherein the state detection unit determines a relationship between the first phase difference and the first coefficient, the second phase difference The position of the sound source in space is detected based on a relationship between the sound source and the second coefficient and a relationship between the third phase difference and the third coefficient. An information processing apparatus according to claim 1.
【請求項13】 前記第1の算出手段は、前記第1の音
声信号、前記第2の音声信号、前記第3の音声信号、お
よび前記第4の音声信号から、前記第1の音声信号の音
圧と前記第2の音声信号の音圧との第1の音圧比、前記
第2の音声信号の音圧と前記第3の音声信号の音圧との
第2の音圧比、および前記第3の音声信号の音圧と前記
第4の音声信号の音圧との第3の音圧比を、前記特徴量
として、さらに算出し、 前記状態検出手段は、前記第1の音圧比、前記第2の音
圧比、および前記第3の音圧比、並びに検出した前記音
源の位置に基づいて、前記音源の向きを検出することを
特徴とする請求項11に記載の情報処理装置。
13. The method according to claim 1, wherein the first calculating unit calculates the first audio signal from the first audio signal, the second audio signal, the third audio signal, and the fourth audio signal. A first sound pressure ratio between a sound pressure and a sound pressure of the second sound signal; a second sound pressure ratio between a sound pressure of the second sound signal and a sound pressure of the third sound signal; A third sound pressure ratio between the sound pressure of the sound signal of No. 3 and the sound pressure of the fourth sound signal is further calculated as the characteristic amount. The information processing apparatus according to claim 11, wherein the direction of the sound source is detected based on the sound pressure ratio of 2, the third sound pressure ratio, and the detected position of the sound source.
【請求項14】 前記第1の集音装置、前記第2の集音
装置、前記第3の集音装置、および前記第4の集音装置
のそれぞれにより集音された、複数の基準位置に位置
し、所定の方向を向いた前記音源が発した音声に対応す
る第5の前記音声信号、第6の前記音声信号、第7の前
記音声信号、および第8の前記音声信号から、前記第5
の音声信号の音圧と前記第6の音声信号の音圧との第4
の音圧比、前記第6の音声信号の音圧と前記第7の音声
信号の音圧との第5の音圧比、および前記第7の音声信
号の音圧と前記第8の音声信号の音圧との第6の音圧比
をそれぞれ算出する第2の算出手段と、 前記基準位置に対応させて、前記第4の音圧比、前記第
5の音圧比、および前記第6の音圧比、並びに前記方向
を記憶する記憶手段とをさらに備え、 前記状態検出手段は、前記記憶手段から、検出した前記
音源の位置に対応する、前記基準位置、および前記第1
の音圧比、前記第2の音圧比と前記第3の音圧比に対応
する前記第4の音圧比、前記第5の音圧比と前記第6の
音圧比に対応する方向を、音源の向きとして検出するこ
とを特徴とする請求項13に記載の情報処理装置。
14. A plurality of reference positions collected by each of the first sound collecting device, the second sound collecting device, the third sound collecting device, and the fourth sound collecting device. A fifth sound signal, a sixth sound signal, a seventh sound signal, and an eighth sound signal corresponding to sounds emitted by the sound source positioned and directed in a predetermined direction; 5
The fourth of the sound pressure of the sound signal of
, A fifth sound pressure ratio between the sound pressure of the sixth sound signal and the sound pressure of the seventh sound signal, and the sound pressure of the seventh sound signal and the sound of the eighth sound signal. Second calculating means for calculating a sixth sound pressure ratio with respect to the pressure, respectively, and the fourth sound pressure ratio, the fifth sound pressure ratio, and the sixth sound pressure ratio, A storage unit for storing the direction, wherein the state detection unit stores the reference position corresponding to the detected position of the sound source from the storage unit;
The direction corresponding to the sound pressure ratio, the fourth sound pressure ratio corresponding to the second sound pressure ratio and the third sound pressure ratio, and the direction corresponding to the fifth sound pressure ratio and the sixth sound pressure ratio is defined as the direction of the sound source. The information processing apparatus according to claim 13, wherein the information is detected.
【請求項15】 所定の位置に設置された複数の集音装
置により集音された、所定の音源が発した音声に対応す
る音声信号から、前記音源の状態に対応する特徴量を算
出する算出ステップと、 算出ステップの処理で算出された前記特徴量に基づい
て、前記音源の状態を検出する状態検出ステップとを含
むことを特徴とする情報処理方法。
15. A calculation for calculating a characteristic amount corresponding to a state of a sound source from an audio signal corresponding to a sound emitted by a predetermined sound source, which is collected by a plurality of sound collection devices installed at a predetermined position. And a state detecting step of detecting a state of the sound source based on the feature amount calculated in the processing of the calculating step.
【請求項16】 所定の位置に設置された複数の集音装
置により集音された、所定の音源が発した音声に対応す
る音声信号から、前記音源の状態に対応する特徴量を算
出する算出ステップと、 算出ステップの処理で算出された前記特徴量に基づい
て、前記音源の状態を検出する状態検出ステップとを含
むことを特徴とするコンピュータが読み取り可能なプロ
グラムが記録されている記録媒体。
16. A calculation for calculating a feature amount corresponding to a state of a sound source from an audio signal corresponding to a sound emitted by a predetermined sound source, which is collected by a plurality of sound collection devices installed at a predetermined position. And a state detecting step of detecting a state of the sound source based on the feature amount calculated in the processing of the calculating step. A recording medium in which a computer-readable program is recorded.
【請求項17】 所定の位置に設置された複数の集音装
置により集音された、所定の音源が発した音声に対応す
る音声信号から、前記音源の状態に対応する特徴量を算
出する算出ステップと、 算出ステップの処理で算出された前記特徴量に基づい
て、前記音源の状態を検出する状態検出ステップとを含
む処理をコンピュータに実行させることを特徴とするプ
ログラム。
17. A calculation for calculating a feature amount corresponding to a state of a sound source from an audio signal corresponding to a sound emitted by a predetermined sound source, which is collected by a plurality of sound collection devices installed at a predetermined position. A program causing a computer to execute a process including: a step; and a state detection step of detecting a state of the sound source based on the feature amount calculated in the processing of the calculation step.
【請求項18】 第1の集音装置、第2の集音装置、お
よび第3の集音装置により集音された、所定の範囲内に
位置する音源が発した音声に対応する第1の音声信号、
第2の音声信号、および第3の音声信号から、前記第1
の音声信号の位相と前記第2の音声信号の位相との第1
の位相差、および前記第1の音声信号の位相と前記第3
の音声信号の位相との第2の位相差を算出し、前記第1
の位相差と第1の係数との関係、および前記第2の位相
差と第2の係数との関係に基づいて、前記音源の位置を
検出する検出装置に対して前記第1の係数および前記第
2の係数を生成する情報生成装置において、 前記第1の集音装置、前記第2の集音装置、および前記
第3の集音装置のそれぞれにより集音された、所定の範
囲内に設けられた複数の実験位置に位置した前記音源が
発した音声に対応する第4の前記音声信号、第5の前記
音声信号、および第6の前記音声信号から、前記第4の
音声信号の位相と前記第5の音声信号の位相との第3の
位相差、および前記第4の音声信号の位相と前記第6の
音声信号との第4の位相差を、前記実験位置毎に算出す
る第1の算出手段と、 前記第3の位相差と前記実験位置との関係に基づいて、
前記第1の係数を算出し、前記第4の位相差と前記実験
位置との関係に基づいて、前記第2の係数を算出する第
2の算出手段とを備えることを特徴とする情報生成装
置。
18. A first sound collecting device, a second sound collecting device, and a first sound collecting device, the first sound collecting device corresponding to the sound emitted from a sound source located within a predetermined range, which is collected by a third sound collecting device. Audio signal,
From the second audio signal and the third audio signal, the first
Of the phase of the second audio signal and the phase of the second audio signal
And the phase of the first audio signal and the third
Calculating a second phase difference with the phase of the audio signal of
The first coefficient and the first coefficient for a detection device that detects the position of the sound source based on the relationship between the phase difference and the first coefficient, and the relationship between the second phase difference and the second coefficient. An information generation device that generates a second coefficient, provided in a predetermined range collected by each of the first sound collection device, the second sound collection device, and the third sound collection device. From the fourth sound signal, the fifth sound signal, and the sixth sound signal corresponding to sounds emitted by the sound source located at the plurality of test positions, the phase of the fourth sound signal and Calculating a third phase difference between the phase of the fifth audio signal and a fourth phase difference between the phase of the fourth audio signal and the sixth audio signal for each experimental position; Calculating means, based on a relationship between the third phase difference and the experimental position,
An information generating apparatus comprising: a second calculating unit configured to calculate the first coefficient and calculate the second coefficient based on a relationship between the fourth phase difference and the experimental position. .
【請求項19】 前記検出装置は、前記第2の集音装置
および前記第3の集音装置のそれぞれにより集音され
た、複数の基準位置に位置する前記音源が発した音声に
対応する第7の前記音声信号および第8の前記音声信号
から、前記第7の音声信号の音圧と前記第8の音声信号
の音圧の音圧比を算出し、前記音圧比と第3の係数との
関係に基づいて、前記音源の向きをさらに検出し、 前記第2の集音装置および前記第3の集音装置のそれぞ
れにより集音された、複数の基準位置に位置する前記音
源が発した音声に対応する第9の前記音声信号および第
10の前記音声信号から、前記第9の音声信号の音圧と
前記第10の音声信号の音圧の音圧比を算出する第3の
算出手段と、 前記第9の音声信号の音圧と前記第10の音声信号の音
圧の音圧比と前記実験位置との関係に基づいて、前記第
3の係数を算出する第4の算出手段とをさらに備える請
求項18に記載の情報生成装置。
19. The detection device according to claim 1, wherein said detection device is configured to generate a sound corresponding to a sound emitted by said sound source located at a plurality of reference positions and collected by each of said second sound collection device and said third sound collection device. Calculating a sound pressure ratio between the sound pressure of the seventh sound signal and the sound pressure of the eighth sound signal from the sound signal of No. 7 and the eighth sound signal; Based on the relationship, the direction of the sound source is further detected, and the sound emitted by the sound source located at a plurality of reference positions is collected by each of the second sound collecting device and the third sound collecting device. Third calculating means for calculating a sound pressure ratio between the sound pressure of the ninth sound signal and the sound pressure of the tenth sound signal from the ninth sound signal and the tenth sound signal corresponding to The sound pressure ratio between the sound pressure of the ninth sound signal and the sound pressure of the tenth sound signal The experiments on the basis of the relationship between the position information generating apparatus according to claim 18, further comprising a fourth calculating means for calculating the third coefficient.
【請求項20】 第1の集音装置、第2の集音装置、お
よび第3の集音装置により集音された、所定の範囲内に
位置する音源が発した音声に対応する第1の音声信号、
第2の音声信号、および第3の音声信号から、前記第1
の音声信号の位相と前記第2の音声信号の位相との第1
の位相差、および前記第1の音声信号の位相と前記第3
の音声信号の位相との第2の位相差を算出し、前記第1
の位相差と第1の係数との関係、および前記第2の位相
差と第2の係数との関係に基づいて、前記音源の位置を
検出する検出装置に対して前記第1の係数および前記第
2の係数を生成する情報生成装置の情報生成方法におい
て、 前記第1の集音装置、前記第2の集音装置、および前記
第3の集音装置のそれぞれにより集音された、所定の範
囲内に設けられた複数の実験位置に位置した前記音源が
発した音声に対応する第4の前記音声信号、第5の前記
音声信号、および第6の前記音声信号から、前記第4の
音声信号の位相と前記第5の音声信号の位相との第3の
位相差、および前記第4の音声信号の位相と前記第6の
音声信号との第4の位相差を、前記実験位置毎に算出す
る第1の算出ステップと、 前記第3の位相差と前記実験位置との関係に基づいて、
前記第1の係数を算出し、前記第4の位相差と前記実験
位置との関係に基づいて、前記第2の係数を算出する第
2の算出ステップとを含むことを特徴とする情報生成方
法。
20. A first sound collecting device, a second sound collecting device, and a first sound collecting device, the first sound collecting device corresponding to a sound emitted from a sound source located within a predetermined range, which is collected by a third sound collecting device. Audio signal,
From the second audio signal and the third audio signal, the first
Of the phase of the second audio signal and the phase of the second audio signal
And the phase of the first audio signal and the third
Calculating a second phase difference with the phase of the audio signal of
The first coefficient and the first coefficient for a detection device that detects the position of the sound source based on the relationship between the phase difference and the first coefficient, and the relationship between the second phase difference and the second coefficient. In the information generation method of the information generation device that generates a second coefficient, a predetermined sound collected by each of the first sound collection device, the second sound collection device, and the third sound collection device The fourth sound signal, the fifth sound signal, and the sixth sound signal corresponding to sounds emitted by the sound sources located at a plurality of experimental positions provided in a range, from the fourth sound signal, A third phase difference between the signal phase and the fifth audio signal, and a fourth phase difference between the fourth audio signal and the sixth audio signal are determined for each of the experimental positions. A first calculating step of calculating; and a relation between the third phase difference and the experimental position. On the basis of,
A second calculating step of calculating the first coefficient and calculating the second coefficient based on a relationship between the fourth phase difference and the experimental position. .
【請求項21】 第1の集音装置、第2の集音装置、お
よび第3の集音装置により集音された、所定の範囲内に
位置する音源が発した音声に対応する第1の音声信号、
第2の音声信号、および第3の音声信号から、前記第1
の音声信号の位相と前記第2の音声信号の位相との第1
の位相差、および前記第1の音声信号の位相と前記第3
の音声信号の位相との第2の位相差を算出し、前記第1
の位相差と第1の係数との関係、および前記第2の位相
差と第2の係数との関係に基づいて、前記音源の位置を
検出する検出装置に対して前記第1の係数および前記第
2の係数を生成する情報生成装置のプログラムであっ
て、 前記第1の集音装置、前記第2の集音装置、および前記
第3の集音装置のそれぞれにより集音された、所定の範
囲内に設けられた複数の実験位置に位置した前記音源が
発した音声に対応する第4の前記音声信号、第5の前記
音声信号、および第6の前記音声信号から、前記第4の
音声信号の位相と前記第5の音声信号の位相との第3の
位相差、および前記第4の音声信号の位相と前記第6の
音声信号との第4の位相差を、前記実験位置毎に算出す
る第1の算出ステップと、 前記第3の位相差と前記実験位置との関係に基づいて、
前記第1の係数を算出し、前記第4の位相差と前記実験
位置との関係に基づいて、前記第2の係数を算出する第
2の算出ステップとを含むことを特徴とするコンピュー
タが読み取り可能なプログラムが記録されている記録媒
体。
21. A first sound collecting device, a second sound collecting device, and a first sound collecting device, the first sound collecting device corresponding to a sound emitted from a sound source located within a predetermined range, which is collected by a third sound collecting device. Audio signal,
From the second audio signal and the third audio signal, the first
Of the phase of the second audio signal and the phase of the second audio signal
And the phase of the first audio signal and the third
Calculating a second phase difference with the phase of the audio signal of
The first coefficient and the first coefficient for a detection device that detects the position of the sound source based on the relationship between the phase difference and the first coefficient, and the relationship between the second phase difference and the second coefficient. A program of an information generating device for generating a second coefficient, wherein a predetermined sound collected by each of the first sound collecting device, the second sound collecting device, and the third sound collecting device. The fourth sound signal, the fifth sound signal, and the sixth sound signal corresponding to sounds emitted by the sound sources located at a plurality of experimental positions provided in a range, from the fourth sound signal, A third phase difference between the signal phase and the fifth audio signal, and a fourth phase difference between the fourth audio signal and the sixth audio signal are determined for each of the experimental positions. A first calculating step of calculating; and a relationship between the third phase difference and the experimental position. Based on,
A second calculating step of calculating the first coefficient and calculating the second coefficient based on a relationship between the fourth phase difference and the experimental position. A recording medium on which a possible program is recorded.
【請求項22】 第1の集音装置、第2の集音装置、お
よび第3の集音装置により集音された、所定の範囲内に
位置する音源が発した音声に対応する第1の音声信号、
第2の音声信号、および第3の音声信号から、前記第1
の音声信号の位相と前記第2の音声信号の位相との第1
の位相差、および前記第1の音声信号の位相と前記第3
の音声信号の位相との第2の位相差を算出し、前記第1
の位相差と第1の係数との関係、および前記第2の位相
差と第2の係数との関係に基づいて、前記音源の位置を
検出する検出装置に対して前記第1の係数および前記第
2の係数を生成する情報生成装置のプログラムであっ
て、 前記第1の集音装置、前記第2の集音装置、および前記
第3の集音装置のそれぞれにより集音された、所定の範
囲内に設けられた複数の実験位置に位置した前記音源が
発した音声に対応する第4の前記音声信号、第5の前記
音声信号、および第6の前記音声信号から、前記第4の
音声信号の位相と前記第5の音声信号の位相との第3の
位相差、および前記第4の音声信号の位相と前記第6の
音声信号との第4の位相差を、前記実験位置毎に算出す
る第1の算出ステップと、 前記第3の位相差と前記実験位置との関係に基づいて、
前記第1の係数を算出し、前記第4の位相差と前記実験
位置との関係に基づいて、前記第2の係数を算出する第
2の算出ステップとを含む処理をコンピュータに実行さ
せることを特徴とするプログラム。
22. A first sound collecting device, a second sound collecting device, and a first sound collecting device, the first sound collecting device corresponding to the sound emitted from a sound source located within a predetermined range, collected by the third sound collecting device. Audio signal,
From the second audio signal and the third audio signal, the first
Of the phase of the second audio signal and the phase of the second audio signal
And the phase of the first audio signal and the third
Calculating a second phase difference with the phase of the audio signal of
The first coefficient and the first coefficient for a detection device that detects the position of the sound source based on the relationship between the phase difference and the first coefficient, and the relationship between the second phase difference and the second coefficient. A program of an information generating device for generating a second coefficient, wherein a predetermined sound collected by each of the first sound collecting device, the second sound collecting device, and the third sound collecting device. The fourth sound signal, the fifth sound signal, and the sixth sound signal corresponding to sounds emitted by the sound sources located at a plurality of experimental positions provided in a range, from the fourth sound signal, A third phase difference between the signal phase and the fifth audio signal, and a fourth phase difference between the fourth audio signal and the sixth audio signal are determined for each of the experimental positions. A first calculating step of calculating; and a relationship between the third phase difference and the experimental position. Based on,
Calculating a first coefficient, and causing a computer to execute processing including a second calculation step of calculating the second coefficient based on a relationship between the fourth phase difference and the experimental position. Features program.
JP2001245991A 2001-08-14 2001-08-14 Information processing apparatus and method, information generation apparatus and method, recording medium, and program Expired - Fee Related JP4752153B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001245991A JP4752153B2 (en) 2001-08-14 2001-08-14 Information processing apparatus and method, information generation apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001245991A JP4752153B2 (en) 2001-08-14 2001-08-14 Information processing apparatus and method, information generation apparatus and method, recording medium, and program

Publications (3)

Publication Number Publication Date
JP2003061184A true JP2003061184A (en) 2003-02-28
JP2003061184A5 JP2003061184A5 (en) 2008-09-25
JP4752153B2 JP4752153B2 (en) 2011-08-17

Family

ID=19075636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001245991A Expired - Fee Related JP4752153B2 (en) 2001-08-14 2001-08-14 Information processing apparatus and method, information generation apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4752153B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057545A (en) * 2003-08-05 2005-03-03 Matsushita Electric Ind Co Ltd Sound field controller and sound system
JP2009517936A (en) * 2005-11-30 2009-04-30 ノエミ バレンズエラ ミリアム Method for recording and playing back sound sources with time-varying directional characteristics
JP2010103617A (en) * 2008-10-21 2010-05-06 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2010124447A (en) * 2008-10-21 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> Frontal utterance/lateral utterance presumption device, method and program
JP2010206449A (en) * 2009-03-03 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2010206392A (en) * 2009-03-02 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2010206393A (en) * 2009-03-02 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2011017646A (en) * 2009-07-09 2011-01-27 Nec Computertechno Ltd Active sonar device, and atm terminal device loaded with the same
JP2013072977A (en) * 2011-09-27 2013-04-22 Fuji Xerox Co Ltd Voice analyzer
JP2013148791A (en) * 2012-01-20 2013-08-01 Fuji Xerox Co Ltd Sound analysis device, sound analysis system and program
JP2017044852A (en) * 2015-08-26 2017-03-02 アイシン精機株式会社 Vocalization direction specification device
JP2019197179A (en) * 2018-05-11 2019-11-14 富士通株式会社 Vocalization direction determination program, vocalization direction determination method and vocalization direction determination device
JP2020126166A (en) * 2019-02-05 2020-08-20 本田技研工業株式会社 Agent system, information processing apparatus, information processing method, and program
JP7417829B2 (en) 2019-12-25 2024-01-19 パナソニックIpマネジメント株式会社 Air cleaning system and air cleaning method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63262577A (en) * 1987-04-20 1988-10-28 Sony Corp Microphone apparatus
JPH01109996A (en) * 1987-10-23 1989-04-26 Sony Corp Microphone equipment
JPH10215497A (en) * 1996-11-27 1998-08-11 Fujitsu Ltd Microphone system
JPH11219193A (en) * 1998-02-03 1999-08-10 Fujitsu Ten Ltd On-vehicle voice recognizing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63262577A (en) * 1987-04-20 1988-10-28 Sony Corp Microphone apparatus
JPH01109996A (en) * 1987-10-23 1989-04-26 Sony Corp Microphone equipment
JPH10215497A (en) * 1996-11-27 1998-08-11 Fujitsu Ltd Microphone system
JPH11219193A (en) * 1998-02-03 1999-08-10 Fujitsu Ten Ltd On-vehicle voice recognizing device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057545A (en) * 2003-08-05 2005-03-03 Matsushita Electric Ind Co Ltd Sound field controller and sound system
JP2009517936A (en) * 2005-11-30 2009-04-30 ノエミ バレンズエラ ミリアム Method for recording and playing back sound sources with time-varying directional characteristics
JP2010103617A (en) * 2008-10-21 2010-05-06 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2010124447A (en) * 2008-10-21 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> Frontal utterance/lateral utterance presumption device, method and program
JP2010206392A (en) * 2009-03-02 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2010206393A (en) * 2009-03-02 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2010206449A (en) * 2009-03-03 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> Speech direction estimation device and method, and program
JP2011017646A (en) * 2009-07-09 2011-01-27 Nec Computertechno Ltd Active sonar device, and atm terminal device loaded with the same
JP2013072977A (en) * 2011-09-27 2013-04-22 Fuji Xerox Co Ltd Voice analyzer
JP2013148791A (en) * 2012-01-20 2013-08-01 Fuji Xerox Co Ltd Sound analysis device, sound analysis system and program
JP2017044852A (en) * 2015-08-26 2017-03-02 アイシン精機株式会社 Vocalization direction specification device
JP2019197179A (en) * 2018-05-11 2019-11-14 富士通株式会社 Vocalization direction determination program, vocalization direction determination method and vocalization direction determination device
US10531189B2 (en) 2018-05-11 2020-01-07 Fujitsu Limited Method for utterance direction determination, apparatus for utterance direction determination, non-transitory computer-readable storage medium for storing program
JP2020126166A (en) * 2019-02-05 2020-08-20 本田技研工業株式会社 Agent system, information processing apparatus, information processing method, and program
US11508368B2 (en) 2019-02-05 2022-11-22 Honda Motor Co., Ltd. Agent system, and, information processing method
JP7250547B2 (en) 2019-02-05 2023-04-03 本田技研工業株式会社 Agent system, information processing device, information processing method, and program
JP7417829B2 (en) 2019-12-25 2024-01-19 パナソニックIpマネジメント株式会社 Air cleaning system and air cleaning method

Also Published As

Publication number Publication date
JP4752153B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
JP5229053B2 (en) Signal processing apparatus, signal processing method, and program
CN109804559B (en) Gain control in spatial audio systems
JP2003061184A (en) Information processing apparatus and method, information generating device and method, recording medium and program
US7039198B2 (en) Acoustic source localization system and method
KR101812862B1 (en) Audio apparatus
US20040037436A1 (en) System and process for locating a speaker using 360 degree sound source localization
US20040190730A1 (en) System and process for time delay estimation in the presence of correlated noise and reverberation
JPH11304906A (en) Sound-source estimation device and its recording medium with recorded program
WO2011081527A1 (en) Method and system for determining the direction between a detection point and an acoustic source
JP2006194700A (en) Sound source direction estimation system, sound source direction estimation method and sound source direction estimation program
Huleihel et al. Spherical array processing for acoustic analysis using room impulse responses and time-domain smoothing
CN110322892B (en) Voice pickup system and method based on microphone array
CN110515034B (en) Acoustic signal azimuth angle measurement system and method
CN114450977A (en) Apparatus, method or computer program for processing a representation of a sound field in the spatial transform domain
Hao et al. Spectral flux-based convolutional neural network architecture for speech source localization and its real-time implementation
CN108781310A (en) The audio stream for the video to be enhanced is selected using the image of video
Shivappa et al. Role of head pose estimation in speech acquisition from distant microphones
JP5986966B2 (en) Sound field recording / reproducing apparatus, method, and program
JPWO2006132249A1 (en) Signal separation device
Nakano et al. Automatic estimation of position and orientation of an acoustic source by a microphone array network
JP3588576B2 (en) Sound pickup device and sound pickup method
CN113608167B (en) Sound source positioning method, device and equipment
JP6933303B2 (en) Wave source direction estimator, wave source direction estimation method, and program
JP5513316B2 (en) Sound field recording / reproducing apparatus, method, and program
JP2011071683A (en) Video object detection apparatus, video object detection method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees