JP2008042334A - Head-set microphone-array audio input device - Google Patents

Head-set microphone-array audio input device Download PDF

Info

Publication number
JP2008042334A
JP2008042334A JP2006211216A JP2006211216A JP2008042334A JP 2008042334 A JP2008042334 A JP 2008042334A JP 2006211216 A JP2006211216 A JP 2006211216A JP 2006211216 A JP2006211216 A JP 2006211216A JP 2008042334 A JP2008042334 A JP 2008042334A
Authority
JP
Japan
Prior art keywords
input device
microphone array
microphone
sound source
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006211216A
Other languages
Japanese (ja)
Other versions
JP4552034B2 (en
Inventor
Akira Saso
晃 佐宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2006211216A priority Critical patent/JP4552034B2/en
Publication of JP2008042334A publication Critical patent/JP2008042334A/en
Application granted granted Critical
Publication of JP4552034B2 publication Critical patent/JP4552034B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Headphones And Earphones (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a head-set microphone-array audio input device capable of receiving a necessary signal with an excellent sensibility, even when the device has a superior mounting property and a peripheral environment is placed in an atmosphere having much noises. <P>SOLUTION: The head-set microphone-array audio input device is composed of a head band, storage cases with ear pads fitted to both ends of the head band, respectively, and struts fitted to both storage cases with the ear pads, respectively. An arbitrary number of one or more of microphones are mounted on the struts, and output signals from the microphones can be output to the storage cases with the ear pads. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、様々な環境騒音が存在する実環境下において、周囲雑音をユーザ音声として誤検出することなく、周囲雑音を抑圧しユーザ音声を強調することで、劣悪な雑音環境下においても高いSNR(信号対雑音比)でユーザ音声を録音することが可能なヘッドセット型マイクロフォンアレイ音声入力装置に関する。   The present invention suppresses ambient noise as a user voice and enhances the user voice in a real environment where various environmental noises exist, thereby suppressing the ambient noise and enhancing the SNR even in a poor noise environment. The present invention relates to a headset type microphone array voice input device capable of recording user voice with (signal to noise ratio).

従来、劣悪な雑音環境下において高いSNRでユーザ音声を録音するために(例えば、特許文献1参照)、口元近くにマイクロフォンを1つ配置する接話型のヘッドセットマイクロフォン(例えば、特許文献2参照)が用いられている。
特許文献1には、騒音下で入力された音声信号、あるいは通信路で雑音が混入された音声信号においても頑健に動作する音声推定方法および音声認識方法を得るために、
入力音響信号を短時間セグメントごとに切り出し、短時間周波数分析を行う音響分析ステップと、音声推定に必要とする要素を推定する要素推定ステップと、要素推定ステップによって得られた要素を用いて音声を推定する音声推定ステップを含む音声推定方法。具体的には、入力音響信号を短時間セグメントごとに切り出し、短時間周波数分析を行い、音声認識が符合帳で保持する音声のスペクトル包絡を知識として利用し、音モデルを生成し、前記短時間周波数分析によって得られたスペクトル情報を確率密度関数とみなし、最大事後確率推定を用いて、混合重み値を推定し、各時刻で最大の重み値を持つ音モデルを生成した要素の存在仮定が最も尤度が高いとして、その要素を出力する方法が開示されている。
Conventionally, in order to record a user voice with a high SNR in a poor noise environment (see, for example, Patent Document 1), a close-talking headset microphone in which one microphone is arranged near the mouth (for example, see Patent Document 2). ) Is used.
In Patent Document 1, in order to obtain a speech estimation method and a speech recognition method that operate robustly even in a speech signal input under noise or a speech signal mixed with noise in a communication path,
An acoustic analysis step that cuts out the input acoustic signal for each short-term segment and performs short-time frequency analysis, an element estimation step that estimates the elements required for speech estimation, and speech using the elements obtained by the element estimation step A speech estimation method including a speech estimation step for estimation. Specifically, the input acoustic signal is cut out for each short-term segment, short-term frequency analysis is performed, the speech envelope that the speech recognition holds in the codebook is used as knowledge, a sound model is generated, and the short-time segment is generated. The spectrum information obtained by frequency analysis is regarded as a probability density function, the mixture weight value is estimated using the maximum posterior probability estimation, and the existence assumption of the element that generates the sound model having the maximum weight value at each time is the most. A method of outputting the element with a high likelihood is disclosed.

しかし、特許文献1のものは、伝送路歪や背景雑音に関する十分な量の情報が予め利用可能でない環境では使用不可能である。またそのような雑音に関する事前情報が利用できるとしても、それらに基づいてモデル(HMM)の学習など煩雑な作業を必要とする。
また、特許文献2には、単純且つ低コストの構造で、接続されたヘッドセットを効果的且つ確実に制御するために、 移動端末装置が、音響信号を出力する内部スピーカ2及び音響信号が入力される内部マイクロフォン3と、ヘッドセットスピーカ12及びヘッドセットマイクロフォン13を備える外部ヘッドセット10が接続されるコネクタ4と、内部スピーカ12、内部マイクロフォン13及び外部ヘッドセット10を制御する処理回路5と、処理回路5を内部スピーカ12及び内部マイクロフォン13と外部ヘッドセット10とに切り換えて接続する切換回路6とを備える。処理回路5は、内部マイクロフォン3に接続され、電気的変化を検出する検出回路7を備え、外部ヘッドセット10が接続されているか否かを検出し、検出結果に応じてヘッドセット10の動作を制御する。
しかし、特許文献2のものは、マイクロフォンが1つなので、雑音と必要な信号との識別能力が悪く、マイクロフォンの向く方向や位置によって受信信号の感度が大きく左右される欠点がある。
特開2003−076393号公報 特開2002−152365号公報
However, the technique disclosed in Patent Document 1 cannot be used in an environment where a sufficient amount of information related to transmission path distortion and background noise is not available in advance. Even if such prior information on noise can be used, complicated work such as learning of a model (HMM) is required based on the prior information.
Further, in Patent Document 2, in order to effectively and reliably control a connected headset with a simple and low-cost structure, the mobile terminal device inputs an internal speaker 2 that outputs an acoustic signal and an acoustic signal. An internal microphone 3, a connector 4 to which an external headset 10 including a headset speaker 12 and a headset microphone 13 is connected, a processing circuit 5 that controls the internal speaker 12, the internal microphone 13, and the external headset 10; A switching circuit 6 is provided that switches and connects the processing circuit 5 to the internal speaker 12 and the internal microphone 13 and the external headset 10. The processing circuit 5 is connected to the internal microphone 3 and includes a detection circuit 7 that detects an electrical change, detects whether or not the external headset 10 is connected, and operates the headset 10 according to the detection result. Control.
However, since the thing of patent document 2 has one microphone, the discrimination capability of noise and a required signal is bad, and there exists a fault to which the sensitivity of a received signal is greatly influenced by the direction and position which a microphone faces.
JP 2003-076393 A JP 2002-152365 A

従来のヘッドセットマイクロフォンは、口元近くにシングルマイクロフォンを配置することで、通常の環境であれば多少の雑音が存在しても高いSNRで音声の録音が可能であるが、例えば、工場やスピーカから大音量で音が放出されているような過酷な雑音環境下では、SNRが低下してその効果を失ってしまう。この様な場合、ヘッドセットマイクロフォンを使用したとしても、雑音環境下で高いSNRで音声の録音が困難になるだけでなく、例えば、ヘッドセットマイクロフォンで収録した音声を認識する場合に、周囲雑音を誤認識するなどの問題が生じる。   Conventional headset microphones can be recorded with high SNR even in the presence of some noise in a normal environment by placing a single microphone near the mouth. For example, from a factory or speaker In a severe noise environment where sound is emitted at a high volume, the SNR is lowered and the effect is lost. In such a case, even if a headset microphone is used, it is not only difficult to record a voice with a high SNR in a noisy environment. For example, when a voice recorded with a headset microphone is recognized, ambient noise is reduced. Problems such as misrecognition occur.

本発明の目的は、装着性よく、かつ、周囲の環境が雑音の多い雰囲気であっても、必要な信号を感度よく受信することができるヘッドセット型マイクロフォンアレイ音声入力装置を提供することにある。   An object of the present invention is to provide a headset type microphone array audio input device that is capable of receiving necessary signals with high sensitivity even in a wearable and ambient environment with a lot of noise. .

周囲雑音からの識別性を向上するために、信号を採取するためのマイクロフォンを複数配置したマイクロフォンアレイ構造を採用し、その構造を前提とした特別な信号処理を行う。マイクロフォンアレイを用いることで、音源の発生位置や音波の到来方向推定、また目的音を強調して妨害雑音を抑圧するなどの信号処理ができるようになり、雑音環境下での音声入力装置として多くの利点を持っている。
しかし、従来のマイクロフォンアレイの使い方は、マイクロフォンスタンドに実装したり、機器に組み込んで使用したりするなど、ユーザ自身がマイクロフォンアレイを身に付けるような使い方はされていない。
一方、接話型のヘッドセットマイクロフォンは、マイクロフォンを1つだけしか用いないが、そのマイクロフォンを口元に近づけることで、通常の周囲雑音に対してユーザ音声のSNRを相対的に高くすることができるという単純な原理を用いている。本発明は、マイクロフォンアレイを対にして接話型に実装することで、ヘッドセットマイクロフォンの効果とマイクロフォンアレイの効果を併せ持った、劣悪な雑音環境下でも高いSNRで音声収録や音声認識などで誤動作の少ないヘッドセットマイクロフォンアレイを構成する。
In order to improve discrimination from ambient noise, a microphone array structure in which a plurality of microphones for collecting signals is arranged is employed, and special signal processing is performed on the premise of the structure. By using a microphone array, it is possible to perform signal processing such as estimating the sound source location and direction of arrival of sound waves, and suppressing interference noise by emphasizing the target sound, which is often used as a voice input device in a noisy environment. Have the advantage of.
However, the conventional microphone array is not used in such a way that the user himself wears the microphone array, such as being mounted on a microphone stand or being incorporated in a device.
On the other hand, the close-talking headset microphone uses only one microphone, but the SNR of the user voice can be made relatively high with respect to normal ambient noise by bringing the microphone closer to the mouth. The simple principle is used. In the present invention, a microphone array is paired and mounted in a close-talking manner, so that it malfunctions in voice recording and voice recognition with a high SNR even in a poor noise environment, which has both the effect of a headset microphone and the effect of a microphone array. A headset microphone array with a small amount of noise is formed.

具体的には
(1)ヘッドセット型マイクロフォンアレイ音声入力装置は、ヘッドバンドと、該ヘッドバンドの両端にそれぞれ設けられたイヤーパッド付き収容ケースと、両イヤーパッド付き収容ケースにそれぞれ設けられた支柱とからなり、該支柱には1以上の任意数のマイクロフォンを設け、該マイクロフォンの出力信号を前記イヤーパッド付き収容ケースへ出力できるように構成したことを特徴とする。
(2)上記(1)記載のヘッドセット型マイクロフォンアレイ音声入力装置は、前記支柱毎のマイクロフォンを複数にし、それらを所定距離離間して配置したことを特徴とする。
(3)上記(1)又は(2)記載のヘッドセット型マイクロフォンアレイ音声入力装置は、前記支柱毎のマイクロフォンを、両支柱の対向する面にそれぞれ設けたことを特徴とする。
Specifically, (1) a headset type microphone array audio input device includes a headband, storage cases with ear pads provided at both ends of the headband, and support columns provided in the storage cases with both ear pads, respectively. Thus, the support column is provided with an arbitrary number of one or more microphones so that an output signal of the microphone can be output to the housing case with the ear pad.
(2) The headset type microphone array audio input device according to the above (1) is characterized in that a plurality of microphones are provided for each of the columns, and they are arranged with a predetermined distance therebetween.
(3) The headset type microphone array audio input device according to the above (1) or (2) is characterized in that a microphone for each of the columns is provided on a surface facing both columns.

(4)上記(1)乃至(3)のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置は、前記各イヤーパッド付き収容ケースはケース本体とイヤーパッドを備え、前記ケース本体に各マイクロフォンの出力信号を演算処理して求める音声信号を出力する回路を設けたことを特徴とする。
(5)上記(1)乃至(4)のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置は、前記各ケース本体に前記音声信号を入力するイヤホーンを設け、前記各イヤーパッドにスピーカを設けたことを特徴とする。
(6)上記(1)乃至(5)のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置は、前記各ケース本体に、無線通信手段を設けたことを特徴とする。
(7)上記(1)乃至(6)のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置において、前記支柱は、前記各ケース本体に取付角度調整自在に設けたことを特徴とする。
(8)上記(1)乃至(7)のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置において、前記両支柱は互いに平行に設けたことを特徴とする。
(9)上記(1)乃至(8)のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置において、前記ヘッドバンドは相互に摺動してその長さを変えられる構造を有し、前記ヘッドバンドに対し前記各ケース本体を取付角度自在に設けたことを特徴とする。
(4) In the headset type microphone array audio input device according to any one of (1) to (3), each of the storage cases with ear pads includes a case main body and an ear pad, and an output of each microphone is provided in the case main body. A circuit is provided that outputs an audio signal obtained by arithmetic processing of the signal.
(5) The headset type microphone array audio input device according to any one of (1) to (4), wherein an earphone for inputting the audio signal is provided in each case body, and a speaker is provided in each ear pad. It is characterized by that.
(6) The headset type microphone array audio input device according to any one of (1) to (5) is characterized in that a wireless communication means is provided in each case body.
(7) In the headset type microphone array audio input device according to any one of (1) to (6), the support column is provided on each case body so that the mounting angle can be adjusted.
(8) In the headset type microphone array audio input device according to any one of (1) to (7), the both columns are provided in parallel to each other.
(9) In the headset type microphone array audio input device according to any one of (1) to (8), the headbands have a structure that can slide and change its length. Each case main body is provided at a mounting angle with respect to the headband.

本発明のヘッドセット型マイクロフォンアレイ音声入力装置は、マイクロフォンアレイを接話型に実装するだけで、ヘッドセットマイクロフォンの原理(複数のマイクロフォンを左右に任意数対にして配置する構成を採用することにより、これらのマイクロフォンから採取した信号(座標位置情報等を含む)を信号処理することにより、精度高く必要な信号の抽出ができる)が働くため、周囲雑音に対してユーザ音声のSNRを高くできる。更に、マイクロフォンアレイ処理により、妨害雑音を抑圧しユーザ音声を強調することで、より一層高いSNRでの音声収録が実現される。また、マイクロフォンアレイを用いることで音源の発生位置や音波の到来方向が推定できるため、劣悪な雑音環境下でも、その音源の発生位置や音波の到来方向の推定結果に基づいて、入力された音がユーザの音声なのかそれとも周囲雑音なのかの判断が容易であるため、音声認識などのアプリケーションにおいて周囲雑音による誤認識を避けることができる。
特許文献1のものは、伝送路歪や背景雑音に関する十分な量の情報が予め利用可能でない環境では使用不可能である。またそのような雑音に関する事前情報が利用できるとしても、それらに基づいてモデル(HMM)の学習など煩雑な作業を必要とする。本発明装置では、マイクロフォンアレイを用いることで、雑音に関する事前情報が利用できなくても、空間的に異なる位置に置かれている雑音を抑圧することができるようになる。
The headset type microphone array audio input device of the present invention is based on the principle of a headset microphone (a configuration in which a plurality of microphones are arranged in an arbitrary number of pairs on the left and right sides by simply mounting the microphone array in a close-talking type. Since the signals (including coordinate position information and the like) collected from these microphones are signal-processed, a necessary signal can be extracted with high accuracy), so that the SNR of the user voice can be increased with respect to ambient noise. Furthermore, by using the microphone array processing to suppress the interference noise and enhance the user voice, voice recording with a higher SNR can be realized. In addition, since the sound source generation position and sound wave arrival direction can be estimated by using the microphone array, the input sound is based on the estimation result of the sound source generation position and sound wave arrival direction even in a poor noise environment. Since it is easy to determine whether the user's voice or ambient noise, misrecognition due to ambient noise can be avoided in applications such as voice recognition.
The thing of patent document 1 cannot be used in the environment where sufficient information regarding a transmission path distortion and background noise is not previously available. Even if such prior information on noise can be used, complicated work such as learning of a model (HMM) is required based on the prior information. In the device of the present invention, by using the microphone array, it is possible to suppress noise placed at spatially different positions even if prior information on noise cannot be used.

本発明の実施の形態を図に基づいて詳細に説明する。   Embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明のヘッドセット型マイクロフォンアレイ音声入力装置の概略図である。従来のヘッドセットマイクロフォンはヘッドセットの左右のどちらか一方だけに支柱が固定され、その先端に1つのマイクロフォンが配置される構造を持っている。これに対し、本発明のヘッドセット型マイクロフォンアレイ音声入力装置は、ヘッドセットマイクロフォンがヘッドセットの左右両側に支柱が固定され、その先端に1つのマイクロフォンが配置される構造を持っている。
本発明のヘッドセット1は、頭に装着するためのヘッドバンド3と、ヘッドバンド3の両端にそれぞれ取り付けられるイヤーパッド付き収容ケース2Rおよび2Lと、イヤーパッド付き収納ケース2Rに設けた略棒状の支柱4Rおよびイヤーパッド付き収納ケース2Lに設けた略棒状の支柱4Lとからなる。イヤーパッド付き収容ケース2Rおよび2Lは、それぞれケース本体2Raおよび2Laとイヤーパッド2Rbおよび2Lbから構成する。
支柱4Rおよび4Lには、それぞれ同じ数の1以上の任意数のマイクロフォン5を離間して配置してある。好ましくは、支柱4Rと4L毎に同じ3個のマイクロフォン5をそれぞれ設ける。
ヘッドバンド3は、長さの調節を可能とするために下記のようにスライド調節可能に構成することができる。
FIG. 1 is a schematic diagram of a headset type microphone array audio input apparatus according to the present invention. A conventional headset microphone has a structure in which a support is fixed to only one of the left and right sides of the headset, and one microphone is disposed at the tip of the column. On the other hand, the headset type microphone array audio input device of the present invention has a structure in which the headset microphone is fixed to the right and left sides of the headset, and one microphone is arranged at the tip.
The headset 1 of the present invention includes a headband 3 for mounting on the head, storage cases 2R and 2L with ear pads attached to both ends of the headband 3, and a substantially rod-shaped support 4R provided on the storage case 2R with ear pads. And a substantially rod-like support 4L provided in the storage case 2L with ear pads. The storage cases 2R and 2L with ear pads are composed of case bodies 2Ra and 2La and ear pads 2Rb and 2Lb, respectively.
In the columns 4R and 4L, the same number of one or more arbitrary numbers of microphones 5 are arranged separately. Preferably, the same three microphones 5 are provided for each of the columns 4R and 4L.
The headband 3 can be configured to be slidable as described below to enable adjustment of the length.

イヤーパッド付き収納ケース2Rおよび2Lのケース本体2Raおよび2Laには、電池ボックス、無線の送受信回路、マイクロフォンアレイ6の各マイクロフォン5からの入力信号を必要な処理を行う処理回路等を必要に応じて収納する。ケース本体2Raおよび2Laとイヤーパッド2Rbおよび2Lbは、例えばイヤーパッドに設けた中空のボルトとケースと一体になったナットとの螺合により互いの間隔を調節する。他の手段によって互いの間隔を調節するようにしてもよい。   The case main body 2Ra and 2La of the earpad-equipped storage cases 2R and 2L store a battery box, a wireless transmission / reception circuit, a processing circuit for performing a necessary process on an input signal from each microphone 5 of the microphone array 6, and the like. To do. The case main bodies 2Ra and 2La and the ear pads 2Rb and 2Lb adjust the distance between each other, for example, by screwing a hollow bolt provided on the ear pad and a nut integrated with the case. You may make it adjust a mutual space | interval by another means.

本発明は、イヤーパッド付き収容ケース2Rおよび2Lのケース本体2Raおよび2Laの両方にそれぞれ支柱4Rと4Lが固定され、その支柱上に複数のマイクロフォン5を配置することにより、マイクロフォンアレイ6を形成する。実装に用いるマイクロフォン5は、シリコンマイクロフォンなど1つの大きさが5mm×3mm程度のごく小さなものを用いる。支柱4Rおよび4L上に配置するマイクロフォンの個数や配置する間隔は、ソフトウエアで調整可能であるので、任意である。マイクロフォンアレイ6では、マイクロフォン5間の相対的な位置関係が常に保たれていることが必要な場合が多くある。しかし、ヘッドセットの場合、頭部の大きさによって左右のマイクロフォンアレイ6間の距離が変化する場合がある。これに対処するために、図2に示すように、左右のマイクロフォンアレイ6、6間の距離は支柱4Rと4Lを取り付けた収納ケース2Rおよび2Lのケース本体2Raおよび2Laとイヤーパッド2Rbおよび2Lbとの間隔を調節することにより調節する。   In the present invention, the columns 4R and 4L are fixed to both the case bodies 2Ra and 2La of the housing cases 2R and 2L with ear pads, respectively, and the microphone array 6 is formed by arranging a plurality of microphones 5 on the columns. The microphone 5 used for mounting is a very small one having a size of about 5 mm × 3 mm, such as a silicon microphone. The number of microphones arranged on the columns 4R and 4L and the interval between the microphones can be adjusted by software, and are arbitrary. In the microphone array 6, it is often necessary that the relative positional relationship between the microphones 5 is always maintained. However, in the case of a headset, the distance between the left and right microphone arrays 6 may change depending on the size of the head. In order to cope with this, as shown in FIG. 2, the distance between the left and right microphone arrays 6, 6 is the distance between the case bodies 2Ra and 2La of the storage cases 2R and 2L to which the columns 4R and 4L are attached and the ear pads 2Rb and 2Lb. Adjust by adjusting the interval.

図2は本発明の両イヤーパッド付き収納ケースの間隔を調節する手段を示す構成図である。
両者の間隔の調節は両者を図2中矢印方向に移動可能とした構造により行う。
このような構造の他に、装着状態を良好なものとするために、マイクロフォンアレイ6を備えたケース本体2Raおよび2Laを支持するヘッドバンド3を、剛性部材によりU字状に形成される固定ヘッドバンドと、前記ケース本体2Raおよび2Laのそれぞれに前後方向に揺動自在に設けられ、剛性部材によりU字状に形成される可動ヘッドバンドとから構成することもできる。
また、左右一対のイヤーパッド付き収納ケース2Rおよび2Lによる左右の耳への押し当てを、ユーザの頭の大きさに応じて調節できるようにするために、左右一対のケース本体2Raおよび2La間で略円弧状の左右一対のヘッドバンド3をスライド調整する。これら左右一対のヘッドバンド3を入れ子式に連結した状態で調節できるように組み合わせ、ユーザの頭の大きさに応じて左右一対のヘッドバンド3の入れ子式に重なり合う長さを調節して、左右一対のヘッドホンユニットをユーザの左右の耳に合わせる。
その他、ヘッドバンドに対するケース本体2Raおよび2Laの任意方向への取り付け角度を調整することができるように構成する。
一対の支柱4Rおよび4Lは平行に配置され、ユーザの口元より先まで達する程度の長さを持ち、その上にマイクロフォンを配置できるようにする。
FIG. 2 is a block diagram showing the means for adjusting the distance between the storage cases with both ear pads of the present invention.
The distance between the two is adjusted by a structure in which both can be moved in the direction of the arrow in FIG.
In addition to such a structure, the headband 3 supporting the case main bodies 2Ra and 2La provided with the microphone array 6 is formed in a U-shape by a rigid member in order to improve the mounting state. Each of the case main bodies 2Ra and 2La can be configured so as to be swingable in the front-rear direction, and a movable head band formed in a U shape by a rigid member.
Further, in order to make it possible to adjust the pressing of the left and right ears by the pair of left and right storage cases 2R and 2L according to the size of the user's head, the pair of left and right case main bodies 2Ra and 2La are substantially omitted. A pair of arc-shaped left and right headbands 3 are slid and adjusted. The pair of left and right headbands 3 are combined so that they can be adjusted in a nesting manner, and the length of the pair of left and right headbands 3 is adjusted according to the size of the user's head. Align the headphones unit with the left and right ears of the user.
In addition, the case body 2Ra and 2La with respect to the headband are configured so that the attachment angle in an arbitrary direction can be adjusted.
The pair of columns 4R and 4L are arranged in parallel, have a length that extends beyond the user's mouth, and allows the microphone to be arranged thereon.

(平行マイクロフォンアレイ音声入力装置)
音声入力手段は、ユーザ音声を受音するために相互に離間して配置した複数のマイクロフォンアレイ6からなる受音手段を備える。
図1および図2に示した平行マイクロフォンアレイ音声入力装置の構成について、以下に説明する。図1に示すように、マイクロフォンを取り付ける2本の金具は、一端をヘッドバンドに固定し、例えば20cmの間隔で平行にユーザの口元より先まで達する程度の長さを持ち、左右それぞれの金具上に任意数、例えば2つのマイクロフォン(計4個)を任意の間隔、例えば3cm間隔で配置している。
図3に示すように、音声入力手段は、平行マイクロフォンアレイ30a、30bと、マイクロフォンアンプとADC(アナログ/デジタルコンバータ)32を有する。
受音手段は、少なくとも複数のマイクロフォンを備え、好ましくは多数個のマイクロフォンをアレイ状に配置したマイクロフォンアレイが好ましい。また、マイクロフォンの配置方向は、少なくとも相互に離間して、音源からのベクトルが異なるようにする。さらに好ましくは、マイクロフォンがユーザの口元先の両側に配置されていることが好ましい。このようにユーザの口元先の両側に配置されることにより、ユーザの音声入力が容易に且つ明瞭になる。
(Parallel microphone array audio input device)
The voice input unit includes a sound receiving unit including a plurality of microphone arrays 6 arranged to be separated from each other in order to receive a user voice.
The configuration of the parallel microphone array audio input device shown in FIGS. 1 and 2 will be described below. As shown in FIG. 1, the two metal fittings to which the microphones are attached have one end fixed to the headband and, for example, have a length that extends beyond the user's mouth in parallel at an interval of 20 cm. An arbitrary number of, for example, two microphones (four in total) are arranged at an arbitrary interval, for example, an interval of 3 cm.
As shown in FIG. 3, the voice input unit includes parallel microphone arrays 30 a and 30 b, a microphone amplifier, and an ADC (analog / digital converter) 32.
The sound receiving means includes at least a plurality of microphones, and preferably a microphone array in which a large number of microphones are arranged in an array. The microphones are arranged at least apart from each other so that the vectors from the sound sources are different. More preferably, the microphones are disposed on both sides of the user's mouth. Thus, by arrange | positioning on both sides of a user's mouth tip, a user's voice input becomes easy and clear.

図3は本発明のケース本体に収納される処理回路のブロック図である。特にマイクロフォンアレイの各マイクロフォンからの入力信号を必要な処理を行う処理回路の例である。
本発明の処理回路は、平行マイクロフォンアレイ30a、30bはマイクロフォンアンプとADC32を介してCPU(中央演算処理装置)ボード33に接続され、CPU(中央演算処理装置)ボード33は記憶装置34にバスで接続される。CPU(中央演算処理装置)ボード33は、出力表示するためにディスプレイ31に接続され、また、イヤーパッド内のイヤホーンスピーカ35に接続され、更に、ケース本体2Raおよび2La内の送信装置36に接続される。送受信装置36は、有線、無線に限らず、任意の通信手段を採用できる。
CPU(中央演算処理装置)ボード33は、CPUを搭載したボードからなり、発声位置推定手段および制御手段を含む。発声位置推定手段および制御手段は、CPUボード33とそれに接続される記憶装置34により構成される。
発声位置推定手段は、平行マイクロフォンアレイ30a、30bで受音したマルチチャネル音声データに基づきユーザの発声位置を推定し発声位置推定信号を出力する。
サンプリングレートは任意に設定でき、例えば8kHzとし、量子化ビット数は任意に設定でき、例えば16bitとする。処理精度を上げるときには、サンプリングレートおよび量子化ビット数を上げる。
FIG. 3 is a block diagram of a processing circuit housed in the case body of the present invention. In particular, it is an example of a processing circuit that performs a necessary process on an input signal from each microphone of the microphone array.
In the processing circuit of the present invention, parallel microphone arrays 30a and 30b are connected to a CPU (Central Processing Unit) board 33 via a microphone amplifier and an ADC 32, and the CPU (Central Processing Unit) board 33 is connected to a storage device 34 by a bus. Connected. A CPU (Central Processing Unit) board 33 is connected to the display 31 for output display, is connected to an earphone speaker 35 in the ear pad, and is further connected to a transmitter 36 in the case main bodies 2Ra and 2La. . The transmission / reception device 36 is not limited to wired or wireless, and any communication means can be employed.
The CPU (central processing unit) board 33 is a board on which a CPU is mounted, and includes an utterance position estimation unit and a control unit. The utterance position estimating means and the control means are constituted by a CPU board 33 and a storage device 34 connected thereto.
The utterance position estimation means estimates the utterance position of the user based on the multichannel audio data received by the parallel microphone arrays 30a and 30b, and outputs a utterance position estimation signal.
The sampling rate can be arbitrarily set, for example, 8 kHz, and the number of quantization bits can be arbitrarily set, for example, 16 bits. When increasing the processing accuracy, the sampling rate and the number of quantization bits are increased.

(画像表示手段)
ヘッドセット型マイクロフォンアレイ音声入力装置は、画像表示手段として、小型で薄型のディスプレイ(例えば、液晶、EL(エレクトロルミネッセンス、プラズマディスプレイ等))やヘッドマウンテッドディスプレイ等を備えることができ、前記発声位置推定処理の結果等を視覚的に示す。
(Image display means)
The headset-type microphone array audio input device can include a small and thin display (for example, liquid crystal, EL (electroluminescence, plasma display, etc.)), a head-mounted display, etc. as the image display means. The result of the estimation process is shown visually.

(音声認識装置)
図4は音声認識装置のブロック構成図である。
音声認識装置40は、マイクロフォンアレイ処理部41と、音声認識処理部42から構成される。
マイクロフォンアレイ処理部41は、入力音声をひろうマイクロフォンアレイ音声入力装置43と、装置43の出力のひろった音から遠距離にある音源の音波到来方向を推定する遠距離にある音源の音波到来方向推定手段45と、装置43の出力のひろった音から近距離にある音源の位置を推定する近距離にある音源の位置推定手段46と、手段45および46の音源位置情報に基づいて装置43の出力のひろった音から抽出対象の音源の音声を分離する音源分離処理手段44と、手段45および46の音源位置情報に基づいてユーザ(ヘッドセット型マイクロフォンアレイ音声入力装置装着者)の発話を検出するユーザの発話検出手段47と、ユーザの発話検出手段47からの検出信号に応じて音源分離処理手段44からの音声信号を切換出力する切換手段48から構成される。
音声認識処理部42は、切換手段48からの音声信号に対して特徴を補正処理する特徴補正処理手段49と、手段49からの特徴を補正した音声信号を音声認識して認識結果を出力する音声認識手段50から構成される。
本発明のマイクロフォンアレイを用いる音声認識装置は、図4にも示すように下記の5つの要素技術から構成される。
1.マイクロフォンアレイから近距離にある音源の位置推定
2.マイクロフォンアレイから遠距離にある音源の音波到来方向の推定
3.使用者の発話検出
4.音源分離処理
5.音声認識処理(特願2003-320183)
これらの要素技術の詳細について以下で説明する。
(音源位置推定)
図5は本発明のマイクロフォンアレイの機能説明図である。
マイクロフォン1、2、3、4と、マイクロフォン5、6、7、8は、図5に示されるように、対向して、配置される。また、各マイクロフォンと音源の位置等は図のような関係になっているものとする。
マイクロフォンアレイから約1m以内の近距離にある音源の位置を、マイクロフォンアレイで推定する方法について以下に説明する。
3次元空間中の任意の位置に置かれた音源の位置を位置ベクトルP0で表す。

Figure 2008042334
この3次元空間中の任意の位置に置かれた音源から出力された音響信号を、3次元空間中の任意の位置に配置されたQ個のマイクロフォンで受音する。各マイクロフォンの位置は位置ベクトルPで表す。
Figure 2008042334
(Voice recognition device)
FIG. 4 is a block diagram of the speech recognition apparatus.
The voice recognition device 40 includes a microphone array processing unit 41 and a voice recognition processing unit 42.
The microphone array processing unit 41 estimates the direction of sound wave arrival of a sound source at a long distance, which estimates the sound wave arrival direction of the sound source at a long distance from the sound of the microphone array sound input device 43 and the sound output from the device 43. Based on the sound source position information of the means 45, the sound source position estimation means 46 at a short distance and the sound source position information of the means 45 and 46, the output of the device 43 Based on the sound source position information of the sound source separation processing means 44 and means 45 and 46 for separating the sound of the sound source to be extracted from the expanded sound, the utterance of the user (headset type microphone array sound input device wearer) is detected. The voice signal from the sound source separation processing means 44 is switched according to the detection signal from the user's speech detection means 47 and the user's speech detection means 47. Composed of switching means 48 for force.
The voice recognition processing unit 42 performs a feature correction processing unit 49 for correcting a feature on the voice signal from the switching unit 48, and a voice for recognizing the voice signal corrected for the feature from the unit 49 and outputting a recognition result. It comprises a recognition means 50.
The speech recognition apparatus using the microphone array of the present invention is composed of the following five element technologies as shown in FIG.
1. 1. Estimation of the position of a sound source at a short distance from the microphone array 2. Estimation of the direction of sound wave arrival of a sound source at a long distance from the microphone array. User utterance detection 4. Sound source separation processing Speech recognition processing (Japanese Patent Application 2003-320183)
Details of these elemental technologies will be described below.
(Sound source position estimation)
FIG. 5 is a functional explanatory diagram of the microphone array of the present invention.
The microphones 1, 2, 3, 4 and the microphones 5, 6, 7, 8 are arranged to face each other as shown in FIG. In addition, it is assumed that the positions of the microphones and the sound source have a relationship as shown in the figure.
A method for estimating the position of a sound source at a short distance within about 1 m from the microphone array using the microphone array will be described below.
A position of a sound source placed at an arbitrary position in the three-dimensional space is represented by a position vector P0.
Figure 2008042334
An acoustic signal output from a sound source placed at an arbitrary position in the three-dimensional space is received by Q microphones arranged at an arbitrary position in the three-dimensional space. The position of each microphone is represented by a position vector Pq .
Figure 2008042334

音源と各マイクロフォン間の距離Rqは次式で求められる。

Figure 2008042334
音源から各マイクロフォンまでの伝播時間τqは、音速をvとすると、次式で求められる。
Figure 2008042334
各マイクロフォンで受音した中心周波数ωの狭帯域信号の、音源のそれに対する利得gqは、一般的に、音源とマイクロフォン間の距離Rqと中心周波数ωの関数として下記のように定義される。 The distance Rq between the sound source and each microphone can be obtained by the following equation.
Figure 2008042334
The propagation time τq from the sound source to each microphone can be obtained by the following equation, where the speed of sound is v.
Figure 2008042334
The gain gq of the narrowband signal having the center frequency ω received by each microphone relative to that of the sound source is generally defined as a function of the distance Rq between the sound source and the microphone and the center frequency ω as follows.

Figure 2008042334
例えば、利得を距離Rq(=r)だけの関数として、実験的に求めた次式のような関数g(r)を用いる。
Figure 2008042334
中心周波数ωの狭帯域信号に関する、音源と各マイクロフォン間の伝達特性は、
Figure 2008042334
For example, an experimentally obtained function g (r) as the following equation is used as a function of the gain as a function of the distance Rq (= r).
Figure 2008042334
The transfer characteristics between the sound source and each microphone for the narrowband signal with the center frequency ω are:

Figure 2008042334
と表される。そして、位置P0にある音源を表す位置ベクトルa(ω,P0)を、次式のように、狭帯域信号に関する、音源と各マイクロフォン間の伝達特性を要素とする複素ベクトルとして定義する。
Figure 2008042334
音源位置の推定はMUSIC法(相関行列を固有値分解することで信号部分空間と雑音部分空間を求め、任意の音源位置ベクトルと雑音部分空間の内積の逆数を求めることにより、音源の到来方向や位置を調べる手法)を用いて、以下の手順で行う。q番目のマイクロフォン入力の短時間フーリエ変換を
Figure 2008042334
で表し、これを要素として観測ベクトルを次のように定義する。
Figure 2008042334
It is expressed. Then, the position vector a (ω, P0) representing the sound source at the position P0 is defined as a complex vector having a transfer characteristic between the sound source and each microphone as an element with respect to the narrowband signal, as in the following equation.
Figure 2008042334
The sound source position is estimated by the MUSIC method (the signal subspace and the noise subspace are obtained by eigenvalue decomposition of the correlation matrix, and the reciprocal of the inner product of an arbitrary sound source position vector and the noise subspace is obtained. The following procedure is used. Short-time Fourier transform of qth microphone input
Figure 2008042334
The observation vector is defined as follows using this as an element.

Figure 2008042334
ここで、nはフレーム時刻のインデックスである。連続するN個の観測ベクトルから相関行列を次式により求める。
Figure 2008042334
Figure 2008042334
Here, n is an index of frame time. A correlation matrix is obtained from the continuous N observation vectors by the following equation.
Figure 2008042334

この相関行列の大きい順に並べた固有値を

Figure 2008042334
とし、それぞれに対応する固有ベクトルを
Figure 2008042334
とする。そして、音源数Sを次式により推定する。
Figure 2008042334
The eigenvalues arranged in descending order of this correlation matrix
Figure 2008042334
And the corresponding eigenvectors
Figure 2008042334
And Then, the number S of sound sources is estimated by the following equation.
Figure 2008042334

雑音部分空間の基底ベクトルから行列Rn(ω)を次のように定義し、

Figure 2008042334
周波数帯域
Figure 2008042334
および音源位置推定の探索領域Uを
Figure 2008042334
として、 Define the matrix Rn (ω) from the noise subspace basis vectors as
Figure 2008042334
frequency band
Figure 2008042334
And a search area U for sound source position estimation
Figure 2008042334
As

Figure 2008042334
を計算する。そして、関数F(P)が極大値をとる座標ベクトルを求める。ここでは仮にS個の極大値を与える座標ベクトルがP1,P2,・・・,Psが推定されたとする。次にその各々の座標ベクトルにある音源のパワーを次式により求める。
Figure 2008042334
そして、2つの閾値Fthr, Pthrを用意し、各位置ベクトルにおけるF(Ps)とP(Ps)が次の条件を満足するときに、
Figure 2008042334
Calculate Then, a coordinate vector in which the function F (P) has a maximum value is obtained. Here, it is assumed that P1, P2,..., Ps are estimated as coordinate vectors giving S local maximum values. Next, the power of the sound source at each coordinate vector is obtained by the following equation.
Figure 2008042334
Then, two threshold values Fthr and Pthr are prepared, and when F (Ps) and P (Ps) in each position vector satisfy the following conditions,

Figure 2008042334
連続するN個のフレーム時間内の座標ベクトルPlにおいて発声があったと判断する。
音源位置の推定処理は連続するN個のフレームを1つのブロックとして処理する。音源位置の推定をより安定に行うためには、フレーム数Nを増やす、そして/また連続するNb個のブロックの全てで式(30)の条件が満たされたら発声があったと判断する。ブロック数は任意に設定する。連続するNフレームの時間内において、近似的に音源が静止していると見られるほどの速さで音源が移動している場合は、前記手法により音源の移動奇跡を捉えることができる。
Figure 2008042334
It is determined that there is a utterance in the coordinate vector Pl within N consecutive frame times.
In the sound source position estimation process, consecutive N frames are processed as one block. In order to more stably estimate the sound source position, the number N of frames is increased, and / or it is determined that there is a utterance when the condition of Expression (30) is satisfied in all of the consecutive Nb blocks. The number of blocks is set arbitrarily. When the sound source is moving at such a speed that the sound source can be seen to be approximately stationary within the time period of consecutive N frames, the moving miracle of the sound source can be captured by the above method.

(周囲雑音の到来方向推定)
マイクロフォンアレイから遠距離にある音源の音波が到来する方向を、マイクロフォンアレイで推定する手法について以下に述べる。
複数のマイクロフォンは3次元空間中の任意の位置に配置可能である。遠距離から到来する音波は平面波として観測されると考える。図5は、例として、8個の平行マイクロフォンアレイで、音源から到来した音波を受音する場合を示している。図5で、点cは基準点を示しており、この基準点のまわりで音波の到来方向を推定する。図5で、平面sは、基準点cを含む平面波の断面を示している。平面sの法線ベクトルnは、そのベクトルの向きを音波の伝播方向と逆向きとし、次式のように定義する。

Figure 2008042334
3次元空間中の音源の到来方向は2つのパラメータ(θ,φ)で表される。方向(θ,φ)から到来する音波を各マイクロフォンで受音し、そのフーリエ変換を求めることで受音信号を狭帯域信号に分解し、各受音信号の狭帯域信号毎に利得と位相を複素数として表し、それを要素として狭帯域信号毎に全受音信号分だけ並べたベクトルを音源の位置ベクトルと定義する。以下の処理において、方向(θ,φ)から到来する音波は、前述の位置ベクトルとして表現される。位置ベクトルは具体的に以下のように求められる。q番目のマイクロフォンと平面sの間の距離rqを次式により求める。 (Ambient noise direction of arrival estimation)
A method for estimating the direction in which sound waves of a sound source at a long distance from the microphone array arrive will be described below.
The plurality of microphones can be arranged at arbitrary positions in the three-dimensional space. Sound waves coming from a long distance are considered to be observed as plane waves. FIG. 5 shows, as an example, a case where a sound wave arriving from a sound source is received by eight parallel microphone arrays. In FIG. 5, a point c indicates a reference point, and the arrival direction of the sound wave is estimated around the reference point. In FIG. 5, a plane s indicates a cross section of a plane wave including the reference point c. The normal vector n of the plane s is defined as the following equation, with the direction of the vector opposite to the propagation direction of the sound wave.
Figure 2008042334
The direction of arrival of the sound source in the three-dimensional space is represented by two parameters (θ, φ). Sound waves arriving from the direction (θ, φ) are received by each microphone, and the received signal is decomposed into narrowband signals by obtaining the Fourier transform, and the gain and phase are determined for each narrowband signal of each received signal. A vector that is expressed as a complex number and is arranged as an element for all received sound signals for each narrowband signal is defined as a position vector of the sound source. In the following processing, the sound wave coming from the direction (θ, φ) is expressed as the aforementioned position vector. Specifically, the position vector is obtained as follows. A distance rq between the q-th microphone and the plane s is obtained by the following equation.

Figure 2008042334
距離rqは平面sに関してマイクロフォンが音源側に位置すれば正となり、逆に音源と反対側にある場合は負の値をとる。音速をvとするとマイクロフォンと平面s間の伝播時間Tqは次式で表される。
Figure 2008042334
平面sでの振幅を基準としてそこから距離rq離れた位置の振幅に関する利得を、狭帯域信号の中心周波数ωと距離rqの関数として次のように定義する。
Figure 2008042334
Figure 2008042334
The distance rq is positive when the microphone is located on the sound source side with respect to the plane s, and is negative when the microphone is on the opposite side of the sound source. If the speed of sound is v, the propagation time Tq between the microphone and the plane s is expressed by the following equation.
Figure 2008042334
The gain related to the amplitude at a distance rq away from the amplitude in the plane s is defined as a function of the center frequency ω of the narrowband signal and the distance rq as follows.
Figure 2008042334

平面sでの位相を基準としてそこから距離rq離れた位置の位相差は、次式で表される。

Figure 2008042334
以上より、平面sを基準として、各マイクロフォンで観測される狭帯域信号の利得と位相差は次式で表される。
Figure 2008042334
Q個のマイクで(θ、φ)方向から到来する音波を観測するとき、音源の位置ベクトルは、各マイクロフォンについて式(26)に従い求めた値を要素とするベクトルとして次式のように定義される。 A phase difference at a position away from the phase r with respect to the phase on the plane s is expressed by the following equation.
Figure 2008042334
From the above, with the plane s as a reference, the gain and phase difference of the narrowband signal observed by each microphone are expressed by the following equations.
Figure 2008042334
When observing a sound wave coming from the (θ, φ) direction with Q microphones, the position vector of the sound source is defined as the following expression as a vector whose elements are values obtained according to Expression (26) for each microphone. The

Figure 2008042334
音源の位置ベクトルが定義されたら、音波の到来方向推定は、MUSIC法を用いて行われる。式(15)で与えられる行列Rn(ω)を用い、到来方向推定の探索領域Iを
Figure 2008042334
として、
Figure 2008042334
を計算する。そして、関数J(θ、φ)が極大値を与える方向(θ、φ)を求める。ここでは仮にK個の音源が存在し、極大値を与えるK個の到来方向((θ1、φ1),・・・,(θK、φK))が推定されたとする。次にその各々の到来方向にある音源のパワーを次式により求める。
Figure 2008042334
When the position vector of the sound source is defined, the direction of arrival of the sound wave is estimated using the MUSIC method. Using the matrix Rn (ω) given by Equation (15), the search region I for direction of arrival estimation is
Figure 2008042334
As
Figure 2008042334
Calculate Then, the direction (θ, φ) in which the function J (θ, φ) gives the maximum value is obtained. Here, it is assumed that there are K sound sources, and K arrival directions ((θ1, φ1),..., (ΘK, φK)) that give maximum values are estimated. Next, the power of the sound source in each arrival direction is obtained by the following equation.

Figure 2008042334
そして、2つの閾値Jthr, Qthrを用意し、各到来方向におけるJ(θk,φk)とQ(θk,φk)が次の条件を満足するときに、
Figure 2008042334
連続するN個のフレーム時間内の到来方向(θk,φk)において周囲音源があったと判断する。音波の到来方向の推定処理は連続するN個のフレームを1つのブロックとして処理する。到来方向の推定をより安定に行うためには、フレーム数Nを増やす、そして/また連続するNb個のブロックの全てで式(31)の条件が満たされたらその方向から音波の到来があったと判断する。ブロック数は任意に設定する。連続するNフレームの時間内において、近似的に音源が静止していると見られるほどの速さで音源が移動している場合は、前記手法により音波の到来方向の移動奇跡を捉えることができる。
Figure 2008042334
Then, two threshold values Jthr and Qthr are prepared, and when J (θk, φk) and Q (θk, φk) in each arrival direction satisfy the following conditions,
Figure 2008042334
It is determined that there is a surrounding sound source in the direction of arrival (θk, φk) within N consecutive frame times. In the process of estimating the direction of arrival of sound waves, N consecutive frames are processed as one block. In order to estimate the direction of arrival more stably, the number of frames N is increased, and / or if the condition of equation (31) is satisfied in all the consecutive Nb blocks, the sound wave has arrived from that direction. to decide. The number of blocks is set arbitrarily. When the sound source is moving at such a speed that the sound source can be seen to be approximately stationary within the time period of consecutive N frames, the moving miracle in the direction of arrival of the sound wave can be captured by the above method. .

近距離音源の位置推定結果と遠距離音源の音波到来方向推定結果は、続く発話検出処理や音源分離処理で重要な役割を果たすが、近距離音源と遠距離音源が同時に発生していて、更に、遠距離音源から到来する音波に対して近距離音源のパワーが著しく大きくなるとき、遠距離音源の音波の到来方向推定がうまく行えない場合がある。このような時は、近距離音源が発生する直前に推定された、遠距離音源の音波の到来方向推定結果を用いるなどして対処する。   The short-range sound source position estimation result and the long-distance sound source direction-of-arrival direction estimation result play an important role in the subsequent speech detection process and sound source separation process. When the power of the short-distance sound source is remarkably increased with respect to the sound wave coming from the long-distance sound source, the arrival direction estimation of the sound wave of the long-distance sound source may not be performed well. Such a case is dealt with by using the arrival direction estimation result of the sound wave of the long-distance sound source estimated immediately before the short-distance sound source is generated.

(発話検出処理)
複数の音源が存在している場合、どの音源が認識すべき音声なのかの特定は一般的に難しい。一方、音声を用いたインタフェースを採用するシステムでは、予めシステムのユーザがシステムに対して相対的にどのような位置で発声するかを表すユーザ発声領域を決めておくことができる。この場合、前述の方法でシステムの周囲に音源が複数存在しているとしても、各音源の位置や音波の到来方向を推定できれば、システムが予め想定しているユーザ発声領域に入る音源を選択することで容易にユーザの音声を特定できるようになる。
式(20)や式(31)の条件が満たされることで音源の存在を検出し、更に音源の位置や音波の到来方向の条件が満たされてユーザの発声が検出される。この検出結果は発話区間情報として、後続音声認識処理において重要な役割を果たす。音声認識を行う場合、入力信号の中から発話区間の開始時点と終了時点を検出する必要がある。しかし、周囲雑音が存在する雑音環境下での発話区間検出は必ずしも容易ではない。一般的に、発話区間の開始時点がずれると音声認識精度が著しく劣化してしまう。一方、複数の音源が存在していても、その音源がある位置や音波の到来方向において、式(18)や式(29)で表される関数は鋭いピークを示す。従って、この情報を用いて発話区間検出を行っている本発明音声認識装置は、複数の周囲雑音が存在しても頑健に発話区間検出が行え、高い音声認識精度を保つことができるという利点を持つ。
(Speech detection processing)
When there are a plurality of sound sources, it is generally difficult to specify which sound source should be recognized. On the other hand, in a system that employs an interface using voice, a user utterance region that represents a position at which a user of the system utters relative to the system can be determined in advance. In this case, even if there are a plurality of sound sources around the system by the above-described method, if the position of each sound source and the arrival direction of the sound waves can be estimated, the sound source that enters the user utterance region that the system assumes in advance is selected. Thus, the user's voice can be easily identified.
The presence of a sound source is detected when the conditions of Expression (20) and Expression (31) are satisfied, and further, the conditions of the position of the sound source and the arrival direction of the sound wave are satisfied, and the user's utterance is detected. This detection result plays an important role in the subsequent speech recognition process as the speech section information. When performing speech recognition, it is necessary to detect the start time and end time of an utterance section from an input signal. However, it is not always easy to detect an utterance section in a noise environment in which ambient noise exists. In general, if the start time of the utterance section is deviated, the speech recognition accuracy is significantly degraded. On the other hand, even if there are a plurality of sound sources, the functions represented by Expression (18) and Expression (29) show a sharp peak at the position where the sound source is and the arrival direction of the sound waves. Therefore, the speech recognition apparatus of the present invention that performs speech segment detection using this information has the advantage that it can perform speech segment detection robustly even in the presence of multiple ambient noises, and can maintain high speech recognition accuracy. Have.

例えば、図6に示すようなユーザの発声領域を定義することができる。
図6は本発明による発話検出処理の機能説明図である。
この図では簡単のためにX−Y平面のみで表すが、一般的に3次元空間においても同様に任意のユーザ発声領域を定義することができる。図6では、任意の位置に配置された8個のマイクロフォンm1、m2、m3、m4、m5、m6、m7、m8を用いた処理を仮定し、近距離音源の探索領域および遠距離音源の探索領域のそれぞれで、ユーザ発声領域を定義している。近距離音源の探索空間は、(PxL,PyL)と(PxH,PyH)の2点を結ぶ直線を対角線とする矩形領域で、その領域内で(PTxL1,PTyL1)と(PTxH1,PTyH1)、(PTxL2,PTyL2)と(PTxH2,PTyH2)のそれぞれの2点を結ぶ直線を対角線とする2つの矩形領域をユーザの発声領域と定義している。従って、式(20)により発声があったと判断された音源位置のなかで、その座標ベクトルが前記ユーザ発声領域内に入っているものを選択することで、近距離に存在する音源の中でユーザ音声を特定できる。一方、遠距離音源の探索空間は点Cを基準として、角度θLからθHの方向を探索領域とし、その領域内で角度θTL1からθTH1の領域をユーザの発声領域と定義している。従って、式(31)により発声があったと判断された音波の到来方向のなかで、到来方向が前記ユーザ発声領域内に入っているものを選択することで、遠距離に存在する音源の中でユーザ音声を特定できる。
For example, a user's utterance area as shown in FIG. 6 can be defined.
FIG. 6 is a functional explanatory diagram of the speech detection processing according to the present invention.
In this figure, for the sake of simplicity, only the XY plane is shown, but in general, an arbitrary user utterance region can be similarly defined in a three-dimensional space. In FIG. 6, assuming a process using eight microphones m1, m2, m3, m4, m5, m6, m7, and m8 arranged at arbitrary positions, a short-distance sound source search region and a long-distance sound source search are performed. Each of the areas defines a user utterance area. The short-distance sound source search space is a rectangular area whose diagonal is a straight line connecting two points (PxL, PyL) and (PxH, PyH). Two rectangular areas whose diagonals are straight lines connecting two points of (PTxL2, PTyL2) and (PTxH2, PTyH2) are defined as the user's utterance area. Accordingly, by selecting the sound source positions determined to have been uttered according to the equation (20) and whose coordinate vectors are within the user utterance area, the user can select among the sound sources existing at a short distance. The voice can be specified. On the other hand, the search space for the long-distance sound source defines the direction from the angle θL to θH with the point C as a reference, and defines the region from the angles θTL1 to θTH1 as the user's utterance region. Therefore, by selecting the arrival directions of the sound waves determined to have been uttered according to the equation (31) within the user utterance area, the sound sources existing at a long distance can be selected. User voice can be specified.

(音源分離処理)
発話検出された音源の位置推定結果または音波の到来方向推定結果を用いて、ユーザの音声を強調し周囲雑音を抑圧する音源分離処理について以下に説明する。
ユーザ音声の発話位置または到来方向は前記発話検出処理により求められている。また、周囲雑音の音源位置または到来方向も既に推定されている。これらの推定結果と式(8)と式(27)の音源位置ベクトル、そして無指向性雑音の分散を表すσを用いて、行列V(ω)を次式のように定義する。

Figure 2008042334
この相関行列の大きい順に並べた固有値を
Figure 2008042334
とし、それぞれに対応する固有ベクトルを (Sound source separation processing)
A sound source separation process for emphasizing a user's voice and suppressing ambient noise using a sound source position estimation result or a sound wave arrival direction estimation result detected by speech will be described below.
The utterance position or the arrival direction of the user voice is obtained by the utterance detection process. Further, the sound source position or direction of arrival of ambient noise has already been estimated. Using these estimation results, the sound source position vectors of Equations (8) and (27), and σ representing the variance of omnidirectional noise, the matrix V (ω) is defined as follows.
Figure 2008042334
The eigenvalues arranged in descending order of this correlation matrix
Figure 2008042334
And the corresponding eigenvectors

Figure 2008042334
とする。ここで、相関行列V(ω)には近距離音源S個と遠距離音源K個を合わせて(S+K)個の音源が含まれているから、固有値の大きい方から(S+K)の固有値と固有ベクトルを用いて、Z(ω)を次式のように定義する。
Figure 2008042334
そして、近距離の座標ベクトルPに居るユーザの音声を強調する分離フィルタW(ω)は、次式で与えられる。
Figure 2008042334
Figure 2008042334
And Here, since the correlation matrix V (ω) includes (S + K) sound sources including S short-distance sound sources and K long-distance sound sources, the eigenvalues and eigenvectors of (S + K) in descending order of eigenvalues. Is used to define Z (ω) as follows:
Figure 2008042334
A separation filter W (ω) that enhances the voice of the user in the short distance coordinate vector P is given by the following equation.
Figure 2008042334

式(36)の分離フィルタに式(10)の観測ベクトルを乗じることで座標ベクトルPに居るユーザの音声v(ω)が得られる。

Figure 2008042334
この強調されたユーザ音声の波形信号は式(37)の逆フーリエ変換を計算することで求められる。
一方、遠距離の方向(θ,φ)に居るユーザの音声を強調する場合の分離フィルタM(ω)は次式で与えられる。 The voice v (ω) of the user in the coordinate vector P is obtained by multiplying the separation filter of Equation (36) by the observation vector of Equation (10).
Figure 2008042334
The emphasized user speech waveform signal is obtained by calculating the inverse Fourier transform of equation (37).
On the other hand, the separation filter M (ω) for emphasizing the voice of the user in the long distance direction (θ, φ) is given by the following equation.

Figure 2008042334
式(38)の分離フィルタに式(10)の観測ベクトルを乗じることで方向(θ,φ)に居るユーザの強調音声v(ω)が得られる。
Figure 2008042334
この強調されたユーザ音声の波形信号は式(37)の逆フーリエ変換を計算することで求められる。
連続するNフレームの時間内において、近似的に音源が静止していると見られるほどの速さで音源が移動している場合は、前記手法により移動しているユーザの強調音声が得られる。
Figure 2008042334
By multiplying the separation filter of Expression (38) by the observation vector of Expression (10), the emphasized voice v (ω) of the user in the direction (θ, φ) is obtained.
Figure 2008042334
The emphasized user speech waveform signal is obtained by calculating the inverse Fourier transform of equation (37).
When the sound source is moving at such a speed that the sound source can be seen to be approximately stationary within the time period of consecutive N frames, the emphasized voice of the moving user can be obtained by the above method.

(音声認識処理)
前記音源分離処理は、指向性雑音に対しては有効であるが、無指向性雑音に対してはある程度雑音が残留してしまう。また、突発性雑音のように短時間で発生する雑音に対してもあまり雑音抑圧効果を望めない。そこで、前記音源分離処理により強調された操作者音声の認識に、例えば、特願2003−320183「背景雑音歪みの補正処理方法及びそれを用いた音声認識システム」で述べられている特徴補正法を組み込んだ音声認識エンジンを用いることで、残留雑音の影響を軽減する。なお本発明は、音声認識エンジンとして特願2003−320183に限定するものではなく、この他にも雑音に頑健な様々な手法を実装した音声認識エンジンを使用することが考えられる。
(Voice recognition processing)
The sound source separation processing is effective for directional noise, but noise remains to some extent for omnidirectional noise. In addition, a noise suppression effect cannot be expected even for noise that occurs in a short time such as sudden noise. Therefore, for the recognition of the operator voice emphasized by the sound source separation process, for example, the feature correction method described in Japanese Patent Application No. 2003-320183 “Background noise distortion correction processing method and voice recognition system using the same” is used. By using a built-in speech recognition engine, the effects of residual noise are reduced. Note that the present invention is not limited to Japanese Patent Application No. 2003-320183 as a speech recognition engine, and it is conceivable to use a speech recognition engine in which various methods that are robust against noise are mounted.

特願2003−320183で述べられている特徴補正法は、音声認識エンジンが予め音声認識のためにテンプレートモデルとして持っているHidden Markov Model(HMM)に基づいて雑音重畳音声の特徴量補正を行う。HMMは雑音のないクリーン音声から求めたMel−Frequency Cepstrum Coefficient(MFCC)に基づいて学習されている。このため、特徴補正のために新たにパラメータを用意する必要がなく、既存の認識エンジンに比較的容易に特徴補正法を組み込むことができるという利点がある。この手法は雑音を定常成分と一時的に変化を示す非定常成分に分けて考え、定常成分に関しては発話直前の数フレームから雑音の定常成分を推定する。HMMが持っている分布のコピーを生成し、推定した雑音の定常成分を加えることで定常雑音重畳音声の特徴量分布を生成する。観測された雑音重畳音声の特徴量の事後確率を、この定常雑音重畳音声の特徴量分布で評価することで、雑音の定常成分による歪を吸収する。しかし、この処理だけでは雑音の非定常成分による歪が考慮されていないので、雑音の非定常成分が存在する場合には、前記手段で求めた事後確率は正確ではなくなる。一方、特徴補正にHMMを用いることで、 特徴量時系列の時間的構造とそれに沿って求められる累積出力確率が利用可能となる。この累積出力確率から算出される重みを前述の事後確率に付与することにより、雑音の一時的に変化する非定常成分により劣化した事後確率の信頼度を改善することが出来る。   The feature correction method described in Japanese Patent Application No. 2003-320183 performs feature correction of noise superimposed speech based on a Hidden Markov Model (HMM) that a speech recognition engine has as a template model for speech recognition in advance. The HMM is learned based on Mel-Frequency Cepstrum Coefficient (MFCC) obtained from clean speech with no noise. For this reason, it is not necessary to prepare a new parameter for feature correction, and there is an advantage that the feature correction method can be incorporated into an existing recognition engine relatively easily. In this method, noise is divided into a stationary component and a non-stationary component that shows a temporary change, and the stationary component of the noise is estimated from several frames immediately before the utterance. A copy of the distribution of the HMM is generated, and the estimated noise stationary component is added to generate a feature amount distribution of the stationary noise superimposed speech. The distortion due to the stationary noise component is absorbed by evaluating the posterior probability of the observed characteristic amount of the noise superimposed speech with the feature amount distribution of the stationary noise superimposed speech. However, since distortion due to the unsteady component of noise is not taken into account only by this processing, the posterior probability obtained by the above means is not accurate when the unsteady component of noise exists. On the other hand, by using the HMM for feature correction, the temporal structure of the feature amount time series and the accumulated output probability obtained along with it can be used. By assigning the weight calculated from the accumulated output probability to the above-mentioned posterior probability, the reliability of the posterior probability deteriorated due to the non-stationary component that temporarily changes the noise can be improved.

音声認識を行う場合、入力信号の中から発話区間の開始時点と終了時点を検出する必要がある。しかし、周囲雑音が存在する雑音環境下での発話区間検出は必ずしも容易ではない。特に、前記特徴補正を組み込んだ音声認識エンジンは、発話開始直前の数フレームから周囲雑音の定常的な特徴を推定するので、発話区間の開始時点がずれると認識精度が著しく劣化してしまう。一方、複数の音源が存在していても、その音源がある位置や音波の到来方向において、式(18)や式(29)で表される関数は鋭いピークを示す。従って、この情報を用いて発話区間検出を行っている本発明音声認識装置は、複数の周囲雑音が存在しても頑健に発話区間検出が行え、高い音声認識精度を保つことができる。   When performing speech recognition, it is necessary to detect the start time and end time of an utterance section from an input signal. However, it is not always easy to detect an utterance section in a noise environment in which ambient noise exists. In particular, since the speech recognition engine incorporating the feature correction estimates a steady feature of ambient noise from several frames immediately before the start of speech, the recognition accuracy is significantly deteriorated when the start time of the speech section is shifted. On the other hand, even if there are a plurality of sound sources, the functions represented by Expression (18) and Expression (29) show a sharp peak at the position where the sound source is and the arrival direction of the sound waves. Therefore, the speech recognition apparatus of the present invention that performs speech segment detection using this information can robustly perform speech segment detection even when a plurality of ambient noises exist, and can maintain high speech recognition accuracy.

クレーン車やショベルカーなど雑音が大きく複雑な操作のため手が使えないような重機、また、リビングのソファーなどにマイクロフォンアレイを仕込むことで、テレビやビデオなど様々な家電機器を操作するインタフェースとしての応用など、その他様々な雑音があり更に振動を伴うような環境下で音・音声による操作を必要とする状況において利用可能である。   Heavy equipment such as crane trucks and excavators that cannot be used due to complex operations with high noise, and by installing a microphone array on a sofa in the living room as an interface for operating various home appliances such as TVs and videos It can be used in situations where there are various other noises such as applications, and where operation by sound and voice is required in an environment where vibrations are involved.

本発明のヘッドセット型マイクロフォンアレイ音声入力装置の概略図である。It is the schematic of the headset type microphone array audio | voice input apparatus of this invention. 本発明の両イヤーパッド付き収納ケースの間隔を調節する手段を示す構成図である。It is a block diagram which shows the means to adjust the space | interval of the storage case with both ear pads of this invention. 本発明のケース本体に収納される処理回路のブロック図である。It is a block diagram of the processing circuit accommodated in the case main body of this invention. 本発明の音声認識処理装置のブロック図である。It is a block diagram of the speech recognition processing apparatus of the present invention. 本発明のマイクロフォンアレイの機能説明図である。It is function explanatory drawing of the microphone array of this invention. 本発明による発話検出処理の機能説明図である。It is function explanatory drawing of the speech detection process by this invention.

符号の説明Explanation of symbols

1 ヘッドセット
2R、2L イヤーパッド付き収容ケース
2Ra、2La ケース本体
2Rb、2Lb イヤーパッド
3 ヘッドバンド
4R、4L 支柱
5 マイクロフォン
6 マイクロフォンアレイ
DESCRIPTION OF SYMBOLS 1 Headset 2R, 2L Ear case storage case 2Ra, 2La Case main body 2Rb, 2Lb Ear pad 3 Headband 4R, 4L Post 5 Microphone 6 Microphone array

Claims (9)

ヘッドバンドと、該ヘッドバンドの両端にそれぞれ設けられたイヤーパッド付き収容ケースと、両イヤーパッド付き収容ケースにそれぞれ設けられた支柱とからなり、該支柱には1以上の任意数のマイクロフォンを設け、該マイクロフォンの出力信号を前記イヤーパッド付き収容ケースへ出力できるように構成したことを特徴とするヘッドセット型マイクロフォンアレイ音声入力装置。 A headband, a storage case with ear pads provided at both ends of the headband, and a support provided in each of the storage cases with both earpads, the support provided with any number of one or more microphones, A headset type microphone array audio input device configured to output an output signal of a microphone to the housing case with the ear pad. 前記支柱毎のマイクロフォンを複数にし、それらを所定距離離間して配置したことを特徴とする請求項1記載のヘッドセット型マイクロフォンアレイ音声入力装置。 2. The headset type microphone array voice input device according to claim 1, wherein a plurality of microphones are provided for each of the columns, and the microphones are arranged at a predetermined distance. 前記支柱毎のマイクロフォンを、両支柱の対向する面にそれぞれ設けたことを特徴とする請求項1又は2記載のヘッドセット型マイクロフォンアレイ音声入力装置。 3. The headset type microphone array audio input device according to claim 1, wherein a microphone for each of the columns is provided on a surface facing both columns. 前記各イヤーパッド付き収容ケースはケース本体とイヤーパッドを備え、前記ケース本体に各マイクロフォンの出力信号を演算処理して求める音声信号を出力する回路を設けたことを特徴とする請求項1乃至3のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置。 4. The storage case with each ear pad includes a case main body and an ear pad, and the case main body is provided with a circuit for outputting an audio signal obtained by performing arithmetic processing on an output signal of each microphone. A headset type microphone array voice input device according to claim 1. 前記各ケース本体に前記音声信号を入力するイヤホーンを設け、前記各イヤーパッドにスピーカを設けたことを特徴とする請求項4記載のヘッドセット型マイクロフォンアレイ音声入力装置。 5. The headset type microphone array audio input device according to claim 4, wherein an earphone for inputting the audio signal is provided in each case body, and a speaker is provided in each ear pad. 前記各ケース本体に、無線通信手段を設けたことを特徴とする請求項4又は5記載のヘッドセット型マイクロフォンアレイ音声入力装置。 6. The headset type microphone array voice input device according to claim 4, wherein a wireless communication means is provided in each case body. 前記支柱は、前記各ケース本体に取付角度調整自在に設けたことを特徴とする請求項4乃至6のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置。 The headset type microphone array audio input device according to claim 4, wherein the support column is provided in each case main body so as to freely adjust a mounting angle. 前記両支柱は互いに平行に設けたことを特徴とする請求項1乃至7のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置。 The headset type microphone array audio input device according to claim 1, wherein both the support columns are provided in parallel to each other. 前記ヘッドバンドは相互に摺動してその長さを変えられる構造を有し、前記ヘッドバンドに対し前記各ケース本体を取付角度自在に設けたことを特徴とする請求項4乃至8のいずれか1項記載のヘッドセット型マイクロフォンアレイ音声入力装置。
9. The headband has a structure in which the length of the headband can be changed by sliding relative to each other, and each case body is provided to the headband at any mounting angle. The headset type microphone array voice input device according to claim 1.
JP2006211216A 2006-08-02 2006-08-02 Headset microphone array voice input device Expired - Fee Related JP4552034B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006211216A JP4552034B2 (en) 2006-08-02 2006-08-02 Headset microphone array voice input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006211216A JP4552034B2 (en) 2006-08-02 2006-08-02 Headset microphone array voice input device

Publications (2)

Publication Number Publication Date
JP2008042334A true JP2008042334A (en) 2008-02-21
JP4552034B2 JP4552034B2 (en) 2010-09-29

Family

ID=39176899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006211216A Expired - Fee Related JP4552034B2 (en) 2006-08-02 2006-08-02 Headset microphone array voice input device

Country Status (1)

Country Link
JP (1) JP4552034B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101026490B1 (en) * 2009-04-17 2011-04-01 주식회사 메카시스 Mike holder with speaker
JP2013081042A (en) * 2011-10-03 2013-05-02 Kanya Matsumoto Hearing supporting tool

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303574A (en) * 2004-04-09 2005-10-27 Toshiba Corp Voice recognition headset

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303574A (en) * 2004-04-09 2005-10-27 Toshiba Corp Voice recognition headset

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101026490B1 (en) * 2009-04-17 2011-04-01 주식회사 메카시스 Mike holder with speaker
JP2013081042A (en) * 2011-10-03 2013-05-02 Kanya Matsumoto Hearing supporting tool

Also Published As

Publication number Publication date
JP4552034B2 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP2008064892A (en) Voice recognition method and voice recognition device using the same
US10535362B2 (en) Speech enhancement for an electronic device
EP3320692B1 (en) Spatial audio processing apparatus
US9913022B2 (en) System and method of improving voice quality in a wireless headset with untethered earbuds of a mobile device
CN107221336B (en) Device and method for enhancing target voice
JP6074263B2 (en) Noise suppression device and control method thereof
US7995773B2 (en) Methods for processing audio input received at an input device
JP5886304B2 (en) System, method, apparatus, and computer readable medium for directional high sensitivity recording control
KR101606966B1 (en) Systems, methods, apparatus, and computer-readable media for spatially selective audio augmentation
JP5493611B2 (en) Information processing apparatus, information processing method, and program
US20140093091A1 (en) System and method of detecting a user&#39;s voice activity using an accelerometer
WO2016027680A1 (en) Voice processing device, voice processing method, and program
CN109074816A (en) Far field automatic speech recognition pretreatment
JP4982807B2 (en) Operating method, operating device and program therefor
JP2013535915A (en) System, method, apparatus, and computer-readable medium for multi-microphone position selectivity processing
TW201030733A (en) Systems, methods, apparatus, and computer program products for enhanced active noise cancellation
US10262678B2 (en) Signal processing system, signal processing method and storage medium
JP2020500480A (en) Analysis of spatial metadata from multiple microphones in an asymmetric array within a device
KR102191736B1 (en) Method and apparatus for speech enhancement with artificial neural network
Li et al. Geometrically constrained independent vector analysis for directional speech enhancement
WO2022256577A1 (en) A method of speech enhancement and a mobile computing device implementing the method
JP4552034B2 (en) Headset microphone array voice input device
Ahn et al. Background noise reduction via dual-channel scheme for speech recognition in vehicular environment
Choi et al. Convolutional neural network-based direction-of-arrival estimation using stereo microphones for drone
JP4660740B2 (en) Voice input device for electric wheelchair

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100616

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees