JP2006126558A - Voice speaker authentication system - Google Patents

Voice speaker authentication system Download PDF

Info

Publication number
JP2006126558A
JP2006126558A JP2004315622A JP2004315622A JP2006126558A JP 2006126558 A JP2006126558 A JP 2006126558A JP 2004315622 A JP2004315622 A JP 2004315622A JP 2004315622 A JP2004315622 A JP 2004315622A JP 2006126558 A JP2006126558 A JP 2006126558A
Authority
JP
Japan
Prior art keywords
voice
authentication
nam
microphone
authentication system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004315622A
Other languages
Japanese (ja)
Inventor
Sakae Fujimaki
栄 藤巻
Yasukazu Mizushima
靖和 水嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Kasei Corp
Original Assignee
Asahi Kasei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kasei Corp filed Critical Asahi Kasei Corp
Priority to JP2004315622A priority Critical patent/JP2006126558A/en
Publication of JP2006126558A publication Critical patent/JP2006126558A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a voice speaker authentication system which prevents "pretence" by synthesized voice using recorded voice or voice synthesis technology, and is hardly affected by ambient noise. <P>SOLUTION: When releasing door lock, an utterer 100 who is an authentication registrant is mounted with a NAM microphone 101, and utters a keyword for authentication in a non-audible murmur note (NAM note) or a usual note. The NAM note or the usual note is picked up by the NAM microphone 101, is amplified by a mic-amplifier 103 and digitized by an A-D converter 104, thereafter, input to a voice authentication part 106. The voice authentication part 106 calculates a degree of similarity between a voice pattern which has been created and registered based on the NAM note or the usual note pre-uttered for registration and has been stored in a registration pattern storage part 107, and the NAM note or the usual note uttered in authentication, and compares the degree of similarity with a preset threshold value to judge whether or not the utterer 100 is authorized to enter or exit from a room. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は音声を用いることで発話者を特定する音声話者認証システムに関し、特に耳介の後方下部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面に装着され、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則振動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音(Non-Audible Murmur; NAM)あるいは通常音声などの体内軟部組織を伝導する体内伝導音声を採取して音声入力するマイクロフォン(NAMマイクロフォン)から採取される音声を用いる音声話者認証システムに関する。   The present invention relates to a voice speaker authentication system for identifying a speaker by using voice, and in particular, mounted on the skin surface on the sternocleidomastoid muscle of the lower rear part of the auricle, directly below the mastoid process of the skull, Non-Audible Murmur (Non-Audible Murmur), which is a vibration sound transmitted through the soft tissue of the body that is not audible from the outside and is not accompanied by the regular vibration of the vocal cords, and is tuned by the resonance filter characteristic change accompanying the movement of The present invention relates to a voice speaker authentication system that uses a voice collected from a microphone (NAM microphone) that collects and inputs a body conduction voice that conducts through soft tissue in the body such as NAM) or normal voice.

従来、入出門管理や金融機関のATMにおいて本人かどうか確認する方法として、磁気カード、ICカード、パスワードなどが用いられてきた。しかしながら、磁気カード、ICカードは紛失、盗難、偽造の危険性があり、またパスワードは忘失、盗難の恐れがある。
このため、近年、本人の身体的特徴を用いる指紋認証、虹彩認証、音声認証などの生体認証が提案されている。このうち音声認証は、音声の個人差を用いる方法で、そのアルゴリズムに関しては、例えば非特許文献1に記載されているように、まず、キーワードを発声して音声パターンを登録しておき、認証時に同一キーワードを発声して登録パターンとの類似度を計算し、予め設定した閾値と比較して本人かどうか判定する。音声認証には、指紋や虹彩などで用いられるような特殊な入力装置を必要とせず低コストで実現可能、電話を使用すれば遠隔地でも認証可能などのメリットがあり、これまでに一部銀行等で導入されている。
Conventionally, a magnetic card, an IC card, a password, and the like have been used as a method for confirming the identity of the person in entrance / exit management or an ATM of a financial institution. However, there is a risk of loss, theft and forgery of magnetic cards and IC cards, and passwords may be forgotten or stolen.
For this reason, in recent years, biometric authentication such as fingerprint authentication, iris authentication, and voice authentication using the physical characteristics of the person has been proposed. Of these, voice authentication is a method that uses individual differences in voice. Regarding the algorithm, for example, as described in Non-Patent Document 1, first, a keyword is uttered and a voice pattern is registered. The same keyword is uttered, the similarity with the registered pattern is calculated, and compared with a preset threshold value to determine whether or not the user is the person. Voice authentication can be realized at low cost without the need for special input devices such as those used for fingerprints and irises, and has the advantage of being able to authenticate from a remote location using a telephone. Etc. are introduced.

音声認証による本人確認システムをより広く普及させるため課題としては、テープレコーダー等による録音音声や音声合成技術を使用した合成音声による詐称(以後、これを「なりすまし」と呼ぶ)への対策や、周辺雑音による誤認証の低減などがあげられる。
この「なりすまし」の問題に対しては、以下の対処方法が提案されている。すなわち、予め複数のキーワードを登録しておき、システムがランダムにキーワードを指定してある時間内に音声入力がない場合は、例え登録パターンとの類似度が大きくても合成音声や録音音声と判断する対処方法(例えば、特許文献1参照)や、認証時に複数回キーワードを発声してもらい、複数の音声間の類似度が完全一致に近い場合は、入力音声が合成音声や録音音声などの不自然な音声であると判断するなどの対処方法(例えば、特許文献2参照)が提案されている。
特開昭61−272798号公報 特開2001−265387号公報 瀬戸洋一著「生体認証技術」共立出版社2002年5月 pp.64〜68
In order to make identity verification systems based on voice authentication more widespread, there are issues such as countermeasures against fraud (hereinafter referred to as “spoofing”), such as voice recordings using tape recorders and synthesized voices using voice synthesis technology. For example, the false authentication due to noise can be reduced.
The following countermeasures have been proposed for this “spoofing” problem. That is, if multiple keywords are registered in advance and there is no voice input within the time when the keyword is randomly specified by the system, even if the similarity to the registered pattern is large, it is judged as synthesized voice or recorded voice If the keyword is spoken multiple times during authentication and the similarity between the multiple voices is close to perfect match, the input voice is not a synthesized voice or recorded voice. A coping method (for example, see Patent Document 2) such as determining that the sound is natural is proposed.
Japanese Patent Application Laid-Open No. 61-272798 JP 2001-265387 A Yoichi Seto “Biometric Authentication Technology” Kyoritsu Publishing Co., Ltd. May 2002 pp. 64-68

しかし、最近の音声合成技術の進歩により、容易に短時間で認証対象者の音声を生成したり、また音声合成パラメータの調整等によって合成音声に揺らぎを持たせることが可能となり、上記方法では「なりすまし」に対して十分対応できなくなってきたという問題がある。
また、周辺雑音の問題に対しては、指向性マイクロフォンを使用するなど考えられるが、現状では、抜本的な対策はない。
本発明は上述した問題を解決するためになされたものであり、その目的は、テープレコーダー等による録音音声や音声合成技術を使用した合成音声による「なりすまし」を防ぎ、かつ、周辺雑音の影響を受けにくい音声話者認証システムを提供することである。
However, with recent advances in speech synthesis technology, it is possible to easily generate the speech of the person to be authenticated in a short time, and to make the synthesized speech fluctuate by adjusting the speech synthesis parameters. There is a problem that it is no longer possible to cope with “spoofing”.
For the problem of ambient noise, it is conceivable to use a directional microphone, but there is no drastic countermeasure at present.
The present invention has been made in order to solve the above-mentioned problems, and its purpose is to prevent “spoofing” by a recorded voice by a tape recorder or the like and a synthesized voice using a voice synthesis technique, and to prevent the influence of ambient noise. It is to provide a voice speaker authentication system that is difficult to receive.

本発明の請求項1による音声話者認証システムは、認証用の体内伝導音声に関するデータが予め記憶されている記憶手段と、認証対象者の体内伝導音声を皮膚表面から入力するための体内伝導音声入力手段と、前記体内伝導音声入力手段により入力された体内伝導音声に関するデータと前記記憶手段に記憶されている体内伝導音声に関するデータとを照合することによって認証を行う認証手段とを含み、前記認証手段の認証結果に応じて外部機器を制御するようにしたことを特徴とする。このように構成すれば、テープレコーダー等による録音音声や音声合成技術を使用した合成音声による「なりすまし」を防ぎ、かつ、周辺雑音の影響を受けにくい。   According to a first aspect of the present invention, there is provided a voice speaker authentication system in which data relating to body conduction speech for authentication is stored in advance, and body conduction speech for inputting body conduction speech of the person to be authenticated from the skin surface. An authentication unit that performs authentication by collating data related to body conduction speech input by the body conduction speech input unit and data related to body conduction speech stored in the storage unit; The external device is controlled according to the authentication result of the means. With this configuration, it is possible to prevent “spoofing” due to a voice recorded by a tape recorder or the like and a synthesized voice using a voice synthesis technique, and is less susceptible to ambient noise.

本発明の請求項2による音声話者認証システムは、請求項1において、前記体内伝導音声入力手段は、NAM(Non-Audible Murmur)マイクロフォンであることを特徴とする。このようにNAMマイクロフォンを用いれば、非可聴つぶやき音を容易に入力できる。
本発明の請求項3による音声話者認証システムは、請求項1又は2において、前記体内伝導音声は、非可聴つぶやき音であることを特徴とする。非可聴つぶやき音を認証対象とすることにより、風邪などにより認証対象者の発声が正常状態でない場合においても、適切に認証できる。
The voice speaker authentication system according to claim 2 of the present invention is characterized in that, in claim 1, the in-vivo conduction voice input means is a NAM (Non-Audible Murmur) microphone. In this way, using an NAM microphone makes it possible to easily input inaudible tweets.
A voice speaker authentication system according to claim 3 of the present invention is characterized in that, in claim 1 or 2, the in-body conduction speech is a non-audible murmur. By making a non-audible murmur sound as an authentication target, even when the utterance of the authentication target person is not in a normal state due to a cold or the like, it can be properly authenticated.

本発明の請求項4による音声話者認証システムは、請求項2又は3において、前記NAMマイクロフォンは、自システムに対して着脱自在に構成されていることを特徴とする。このようにNAMマイクロフォンをシステムに対して着脱自在に構成すれば、NAMマイクロフォンを携行でき、システムの利便性が向上する。
本発明の請求項5による音声話者認証システムは、請求項1から4までのいずれか1項において、前記体内伝導音声入力手段により入力された体内伝導音声に関するデータを、無線通信方式によって前記認証手段に伝達する無線通信手段を更に含むことを特徴とする。このように構成すれば、システムの構成の一部分を携行でき、システムの利便性が向上する。
The voice speaker authentication system according to claim 4 of the present invention is characterized in that, in claim 2 or 3, the NAM microphone is configured to be detachable from the own system. If the NAM microphone is configured to be detachable from the system as described above, the NAM microphone can be carried and the convenience of the system is improved.
A voice speaker authentication system according to claim 5 of the present invention is the voice speaker authentication system according to any one of claims 1 to 4, wherein data relating to the in-body conduction speech input by the in-body conduction speech input means is authenticated by a wireless communication method. Further comprising wireless communication means for communicating to the means. With this configuration, a part of the system configuration can be carried and the convenience of the system is improved.

本発明の請求項6による音声話者認証システムは、請求項1から5までのいずれか1項において、前記認証対象者に予め付与され該認証対象者を識別するための識別情報を入力するためのID入力手段を更に含み、前記認証手段は、前記記憶手段に記憶されているデータのうち、前記ID入力手段によって入力された識別情報に対応するデータと、前記体内伝導音声入力手段により入力された体内伝導音声に関するデータとを照合することを特徴とする。このように構成すれば、複数の認証対象者に対応することができる。   The voice speaker authentication system according to claim 6 of the present invention is the method for inputting identification information for identifying the authentication target person given in advance to the authentication target person in any one of claims 1 to 5. The authentication means is inputted by the body conduction voice input means and data corresponding to the identification information inputted by the ID input means among the data stored in the storage means. It is characterized by collating with the data concerning the conduction sound in the body. If comprised in this way, it can respond to a some authentication subject.

本発明の請求項7による音声話者認証システムは、請求項6において、前記ID入力手段は、非接触IDタグに記憶されている前記識別情報を読み出すことによって該識別情報が入力されることを特徴とする。RFID(Radio Frequency Identification)などの非接触IDタグを用いれば、該認証対象者を識別するための識別情報を容易に入力することができる。   According to a seventh aspect of the present invention, there is provided the voice speaker authentication system according to the sixth aspect, wherein the ID input means inputs the identification information by reading the identification information stored in a non-contact ID tag. Features. If a non-contact ID tag such as RFID (Radio Frequency Identification) is used, identification information for identifying the person to be authenticated can be easily input.

本発明の請求項8による音声話者認証システムは、請求項1から7までのいずれか1項において、前記認証手段は、前記体内伝導音声入力手段により入力された体内伝導音声に関するデータと前記記憶手段に記憶されている体内伝導音声に関するデータとの類似度と、所定閾値とを比較することを特徴とする。このように構成すれば、入力された非可聴つぶやき音などの体内伝導音声に関するデータと予め記憶されている非可聴つぶやき音などの体内伝導音声に関するデータとを容易に照合することができる。   The voice speaker authentication system according to claim 8 of the present invention is the voice speaker authentication system according to any one of claims 1 to 7, wherein the authentication means includes the data related to the body conduction speech input by the body conduction speech input means and the storage. The similarity with the data related to the in-body conduction speech stored in the means is compared with a predetermined threshold value. If comprised in this way, the data regarding the in-vivo conduction sound, such as a non-audible murmur sound, and the data regarding the in-body conduction sound, such as a non-audible muzzle sound, which are input in advance can be easily collated.

本発明の請求項9による音声話者認証システムは、請求項1から8までのいずれか1項において、前記外部機器は、前記認証結果に対応する電気信号によって扉の施錠を制御することを特徴とする。このように構成すれば、扉の施錠を制御することができる。
本発明の請求項10による音声話者認証システムは、請求項1から8までのいずれか1項において、前記外部機器は、前記認証結果に対応するデータによってネットワークへのログイン可否を制御することを特徴とする。このように構成すれば、ネットワークへのログイン可否を制御することができる。
本発明の請求項11による音声話者認証システムは、請求項1から8までのいずれか1項において、前記外部機器は、前記認証結果に対応するデータによってデータベースへのアクセス可否を制御することを特徴とする。このように構成すれば、データベースへのアクセス可否を制御することができる。
The voice speaker authentication system according to claim 9 of the present invention is the voice speaker authentication system according to any one of claims 1 to 8, wherein the external device controls locking of the door by an electrical signal corresponding to the authentication result. And If comprised in this way, locking of a door can be controlled.
The voice speaker authentication system according to claim 10 of the present invention is the voice speaker authentication system according to any one of claims 1 to 8, wherein the external device controls whether to log in to the network based on data corresponding to the authentication result. Features. With this configuration, it is possible to control whether to log in to the network.
The voice speaker authentication system according to an eleventh aspect of the present invention is the voice speaker authentication system according to any one of the first to eighth aspects, wherein the external device controls whether or not to access a database based on data corresponding to the authentication result. Features. With this configuration, it is possible to control whether or not access to the database is possible.

本発明によれば、「なりすまし」への耐性が飛躍的に向上し、セキュリティ性が高い音声認証システムの構築が可能となる。さらに、認証にNAM音声を使用すれば、第三者に認証用キーワードを聞かれることなく音声認証を行うことができるため、よりシステムのセキュリティ性が高まる。
また、NAMマイクロフォンを使うことにより、環境雑音の影響を受けにくくなるため、より高い認証性能を有する音声認証システムを実現することが可能となる。
According to the present invention, resistance to “spoofing” is dramatically improved, and a voice authentication system with high security can be constructed. Furthermore, if NAM voice is used for authentication, voice authentication can be performed without a third party being asked for an authentication keyword, thereby further improving the security of the system.
In addition, since the NAM microphone is less affected by environmental noise, it is possible to realize a voice authentication system having higher authentication performance.

以下、本発明の実施の形態を、図面を参照して説明する。なお、以下の説明において参照する各図では、他の図と同等部分は同一符号によって示されている。
まず非可聴つぶやき(NAM)とは、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則変動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings referred to in the following description, the same parts as those in the other drawings are denoted by the same reference numerals.
First, inaudible tweet (NAM) is a vibration sound that is tuned by the resonance filter characteristic change accompanying the movement of the vocal organs, and that is not accompanied by the regular fluctuation of the vocal cords and that is transmitted from the outside to the soft tissue of the body that is inaudible. It is.

(原理)
国際公開WO2004/021738号パンフレットにおいて提案されているNAMマイクロフォンで採取される肉伝導音は、過程で複数の異なる音響インピーダンスを有する物質を通るため、空気伝導に比較して、特に高周波帯域の信号の減衰が大きい。また、音韻や韻律に依存して音源の場所が変わるため、肉伝導の経路が一様ではなく減衰特性も異なる。本発明では、音の肉伝導特性と空気伝導特性の違いを利用して、「なりすまし」を防止することを考えた。
(principle)
Since the meat conduction sound collected by the NAM microphone proposed in the pamphlet of International Publication No. WO 2004/021738 passes through a substance having a plurality of different acoustic impedances in the process, the signal of the signal in the high frequency band is particularly compared with the air conduction. Attenuation is large. Further, since the location of the sound source changes depending on the phoneme and prosody, the path of the meat conduction is not uniform and the attenuation characteristics are also different. In the present invention, it is considered to prevent “spoofing” by utilizing the difference between the sound conduction characteristic and the air conduction characteristic of sound.

まず、発明者は、図2及び図3に示すようなNAMマイクロフォンを試作した。図2はNAMマイクロフォンの側面断面図、図3はNAMマイクロフォンの正面図である。両図に示されているNAMマイクロフォン101は、接触部301aと、フレーム301bと、外部雑音防音空間301cと、反射板301dと、コンデンサマイクロフォン301eとを含んで構成されている。コンデンサマイクロフォン301eは、振動板電極301fと、リード線301gとを有している。接触部301aは、皮膚との間で音響インピーダンスの不整合が生じないように、人間の軟体組織に近い音響インピーダンスを有する生体適合性物質であるシリコーンゴムで構成した。   First, the inventor made a prototype of a NAM microphone as shown in FIGS. FIG. 2 is a side sectional view of the NAM microphone, and FIG. 3 is a front view of the NAM microphone. The NAM microphone 101 shown in both figures includes a contact portion 301a, a frame 301b, an external noise soundproof space 301c, a reflecting plate 301d, and a condenser microphone 301e. The condenser microphone 301e has a diaphragm electrode 301f and a lead wire 301g. The contact portion 301a is made of silicone rubber, which is a biocompatible material having an acoustic impedance close to that of human soft tissue so that acoustic impedance mismatch with the skin does not occur.

図4(a)は、ある話者がある内容の文章を発声して生じた空気伝導音を、口元に置いたNAMマイクロフォン101から採取した信号のスペクトルを示す図、図4(b)は、同一話者が同一内容の文章を発声して生じた肉伝導音を、体表に装着したNAMマイクロフォン101から採取した信号のスペクトルを示す図である。
同図(a)を参照すると、空気伝導音では4kHz以上の信号が含まれている。これに対し、同図(b)を参照すると、肉伝導音では4kHz以上の信号が減衰していることがわかる。
FIG. 4A is a diagram showing a spectrum of a signal obtained from the NAM microphone 101 placed at the mouth of air conduction sound generated by uttering a sentence of a certain content, and FIG. It is a figure which shows the spectrum of the signal which extract | collected the meat conduction sound produced when the same speaker uttered the sentence of the same content from the NAM microphone 101 with which the body surface was mounted | worn.
Referring to FIG. 5A, the air conduction sound includes a signal of 4 kHz or more. On the other hand, referring to FIG. 5B, it can be seen that the signal of 4 kHz or more is attenuated in the meat conduction sound.

また、図5(a)は、ある話者がそれぞれ「あ」と発声して生じた空気伝導音を、口元に置いたNAMマイクロフォン101から採取してオクターブ分析した図、図5(b)は、同一話者が同じく「あ」と発声して生じた肉伝導音を、体表に装着した同一NAMマイクロフォン101から採取してオクターブ分析した図である。両図において、中心周波数は、左からそれぞれ80Hz、100Hz、125Hz、160Hz、200Hz、250Hz、315Hz、400Hz、500Hz、650Hz、800Hz、1000Hz、1250Hz、1600Hz、2000Hz、2500Hz、3150Hz、4000Hz、5000Hzである。   FIG. 5 (a) is a diagram in which an air conduction sound produced by each speaker uttering “A” is sampled from the NAM microphone 101 placed at the mouth and subjected to octave analysis, and FIG. 5 (b) is illustrated. FIG. 4 is a diagram obtained by performing octave analysis on the meat conduction sound generated by the same speaker uttering “A” and collected from the same NAM microphone 101 mounted on the body surface. In both figures, the center frequencies are 80 Hz, 100 Hz, 125 Hz, 160 Hz, 200 Hz, 250 Hz, 315 Hz, 400 Hz, 500 Hz, 650 Hz, 800 Hz, 1000 Hz, 1250 Hz, 1600 Hz, 2000 Hz, 2500 Hz, 3150 Hz, 4000 Hz, and 5000 Hz, respectively, from the left. .

同様に、図6(a)と図6(b)は「い」と発声した場合、図7(a)と図7(b)は「う」と発声した場合、図8(a)と図8(b)は「え」と発声した場合、図9(a)と図9(b)は「お」と発声した場合である。これらの図を参照すると、いずれの母音においても、NAMマイクロフォン101を体表に装着した状態で採取した肉伝導音の周波数パターンと、口元に置いたNAMマイクロフォン101から採取した空気伝導音の周波数パターンとが異なり、かつ、高域における周波数帯域毎の空気伝導音と肉伝導音のパワー比が、「あ」、「い」、「う」、「え」、「お」で異なることがわかる。   Similarly, FIG. 6 (a) and FIG. 6 (b) say “Yes”, FIG. 7 (a) and FIG. 7 (b) say “Yes”, FIG. 8 (a) and FIG. 8 (b) is when “e” is uttered, and FIGS. 9 (a) and 9 (b) are when “o” is uttered. Referring to these figures, for any vowel, the frequency pattern of meat conduction sound collected with the NAM microphone 101 attached to the body surface and the frequency pattern of air conduction sound collected from the NAM microphone 101 placed at the mouth. In addition, it can be seen that the power ratio of air conduction sound and meat conduction sound for each frequency band in the high frequency range is different for “A”, “I”, “U”, “E”, “O”.

したがって、単純に空気伝導音の高域をフィルタ等で減衰させても、肉伝導音の周波数パターンには一致しない。通常の「なりすまし」では、「なりすまし」対象者の空気伝導音を録音/分析し、空気伝導音を再生/合成してスピーカ等マイクロフォンから入力する。したがって、NAMマイクロフォンを体表に装着した状態で採取した肉伝導音をもとに登録用の認証パターンを作成しておけば、第三者が上記方法で「なりすまし」対象者の録音音声や合成音声をNAMマイクロフォンに入力してもパターンが一致せず、「なりすまし」を防止できる。また、対象者の空気伝導音をもとに肉伝導音を生成してNAMマイクロフォンに入力しようとしても、ターゲットとなる肉伝導音が第三者にはわからないため、現実には非常に困難である。
さらに、日常使用しないため安定して発声できるようになるまで訓練を要するが、登録用の認証パターンをNAM発声音声から作成すれば、キーワード自体を第三者に知られることがなくなり、セキュリティ性が一層向上する。
Therefore, even if the high band of air conduction sound is simply attenuated by a filter or the like, it does not match the frequency pattern of meat conduction sound. In normal “spoofing”, the air conduction sound of the “spoofing” subject is recorded / analyzed, and the air conduction sound is reproduced / synthesized and input from a microphone such as a speaker. Therefore, if an authentication pattern for registration is created based on the meat conduction sound collected with the NAM microphone attached to the body surface, the recorded voice or synthesized voice of the person impersonated by the above method can be used by a third party. Even if the voice is input to the NAM microphone, the pattern does not match and “spoofing” can be prevented. In addition, even if an attempt is made to generate a meat conduction sound based on the subject's air conduction sound and input it to the NAM microphone, the target meat conduction sound is not known by a third party, which is very difficult in reality. .
Furthermore, since it is not used everyday, training is required until it can be uttered stably. However, if the authentication pattern for registration is created from the NAM uttered speech, the keyword itself will not be known to third parties, and security will be improved. Further improve.

次に、NAMマイクロフォン101の耐環境雑音の特性について説明する。まず、図10(a)に示すように、ある話者が「あー」と発声した場合の空気伝導音と肉伝導音を、通常マイクロフォンMCと乳様突起直下の皮膚表面に装着したNAMマイクロフォン101とからそれぞれ採取した。次に、図10(b)に示すように、上記話者の位置に設置したスピーカから、通常マイクロフォンMCで採取された上記話者音声の「あー」を、同図(a)において採取した上記話者音声と同じ音量になるようにゲイン調整して再生し、その空気伝導音を、スピーカSPの隣で上記話者の乳様突起直下の皮膚表面に装着されたNAMマイクロフォン101から採取した。
NAMマイクロフォン101から採取された肉伝導音が図11(a)、NAMマイクロフォン101から採取された空気伝導音が図11(b)に示されている。同図(a)及び同図(b)を参照すると、空気伝導音は肉伝導音に比べ、30dB以上減衰していることがわかる。
Next, the environmental noise resistance characteristics of the NAM microphone 101 will be described. First, as shown in FIG. 10 (a), the NAM microphone 101 in which air conduction sound and flesh conduction sound when a certain speaker utters “a” is attached to the skin surface directly below the normal microphone MC and the mastoid process. And were collected respectively. Next, as shown in FIG. 10B, the above-mentioned “a” of the speaker voice normally collected by the microphone MC from the speaker installed at the speaker position is collected in FIG. The gain was adjusted so that the volume was the same as that of the speaker voice, and the air conduction sound was collected from the NAM microphone 101 mounted on the skin surface immediately below the speaker's mastoid next to the speaker SP.
The meat conduction sound collected from the NAM microphone 101 is shown in FIG. 11 (a), and the air conduction sound collected from the NAM microphone 101 is shown in FIG. 11 (b). Referring to FIGS. 4A and 4B, it can be seen that the air conduction sound is attenuated by 30 dB or more compared to the meat conduction sound.

図1は本発明にかかる音声認証によるドアロック解錠システムの構成例を示す図である。同図に示されているドアロック解錠システムは、NAMマイクロフォン101と、音声前処理部102と、音声認証システム105と、ドアロック制御システム108と、ドア109とから構成されている。さらに、音声前処理部102は、マイクアンプ103とADコンバータ104からなり、音声認証システム105は、音声認証部106と登録パターン記憶部107からなる。   FIG. 1 is a diagram showing a configuration example of a door lock unlocking system based on voice authentication according to the present invention. The door lock unlocking system shown in FIG. 1 includes a NAM microphone 101, a voice preprocessing unit 102, a voice authentication system 105, a door lock control system 108, and a door 109. Furthermore, the voice preprocessing unit 102 includes a microphone amplifier 103 and an AD converter 104, and the voice authentication system 105 includes a voice authentication unit 106 and a registered pattern storage unit 107.

ドアロックを解錠したい場合、認証登録者である発話者100は、耳介の後方下部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面にはNAMマイクロフォン101を装着し、認証用キーワードを、非可聴つぶやき音(NAM音)または通常音で発声する。上記NAM音または通常音はNAMマイクロフォン101により採取され、マイクアンプ103に入力される。マイクアンプ103で増幅されたNAM音または通常音はADコンバータ104でデジタル化された後、音声認証部106へ入力される。音声認証部106は、予め登録用に発声されたNAM音または通常音をもとに作成・登録され、登録パターン記憶部107に記憶された音声パターンと、認証時に発声されたNAM音または通常音との類似度を計算し、予め設定した閾値と比較して、発話者100が部屋への入出権限を持つものか否かを判断する。つまり、音声認証部106は、入力された非可聴つぶやき音に関するデータと、登録パターン記憶部107に記憶されている非可聴つぶやき音に関するデータとを照合することによって認証を行っている。   When unlocking the door lock, the utterer 100 who is an authentication registrant wears the NAM microphone 101 on the skin surface on the sternocleidomastoid muscle in the lower rear part of the auricle, directly below the mastoid process of the skull, The authentication keyword is uttered with a non-audible murmur (NAM sound) or normal sound. The NAM sound or normal sound is collected by the NAM microphone 101 and input to the microphone amplifier 103. The NAM sound or normal sound amplified by the microphone amplifier 103 is digitized by the AD converter 104 and then input to the voice authentication unit 106. The voice authentication unit 106 is created and registered based on the NAM sound or normal sound uttered in advance for registration, and is stored in the registered pattern storage unit 107, and the NAM sound or normal sound uttered at the time of authentication. Is compared with a threshold value set in advance, and it is determined whether or not the speaker 100 has authority to enter and exit the room. That is, the voice authentication unit 106 performs authentication by collating the input data related to the inaudible murmur and the data related to the inaudible murmur stored in the registered pattern storage unit 107.

音声認証部106で得られた判断結果はドアロック制御システム108へ送信され、ドアロック制御システム108は上記判断結果に従い、入出権限を持つものと判断された場合に、ドア109のドアロックを一定時間開錠する。
なお、認証対象者である発話者100は、NAM発声、通常発声いずれの方法で発声してもよいが、登録時と認証時で同じ発声方法を用いる必要がある。ただし、登録時に、NAM発声と通常発声の両方の登録パターンを用意し、認証時には、周囲の状況に応じて発声方法を選択することも可能である。
The determination result obtained by the voice authentication unit 106 is transmitted to the door lock control system 108. When the door lock control system 108 determines that the user has authority to enter and exit according to the determination result, the door lock of the door 109 is fixed. Unlock for hours.
Note that the speaker 100, who is the subject of authentication, may utter using either the NAM utterance or the normal utterance, but it is necessary to use the same utterance method during registration and during authentication. However, it is also possible to prepare registration patterns for both NAM utterances and normal utterances at the time of registration, and to select an utterance method according to the surrounding situation at the time of authentication.

図12は本発明にかかる音声認証によるドアロック解錠システムの別の構成例を示す図である。図12の構成では、図1の構成に新たに無線送信ユニット201と無線受信ユニット204とが付加され、無線送信ユニット201はデジタル変調部202と送信用アンテナ203とを含み、無線受信ユニット204は受信用アンテナ205とデジタル復調部206とを含んでいる。   FIG. 12 is a diagram showing another configuration example of the door lock unlocking system by voice authentication according to the present invention. In the configuration of FIG. 12, a radio transmission unit 201 and a radio reception unit 204 are newly added to the configuration of FIG. 1, and the radio transmission unit 201 includes a digital modulation unit 202 and a transmission antenna 203. A receiving antenna 205 and a digital demodulator 206 are included.

ドアロックを解錠したい場合、認証登録者である発話者100は、耳介の後方下部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面にはNAMマイクロフォン101を装着し、認証用キーワードを、非可聴つぶやき音(NAM音)または通常音で発声する。上記NAM音または通常音はNAMマイクロフォン101により採取され、マイクアンプ103に入力される。マイクアンプ103で増幅されたNAM音または通常音はADコンバータ104でデジタル化された後、デジタル変調部202でデジタル変調され、送信用アンテナ203、受信用アンテナ205を経て、デジタル復調部206に送られる。デジタル復調部206は、受信信号からもとのデジタル音声データを抽出し、音声認証部106に入力する。
以後の動作は実施例1の場合と同様のため省略する。
When unlocking the door lock, the utterer 100 who is an authentication registrant wears the NAM microphone 101 on the skin surface on the sternocleidomastoid muscle in the lower rear part of the auricle, directly below the mastoid process of the skull, The authentication keyword is uttered with a non-audible murmur (NAM sound) or normal sound. The NAM sound or normal sound is collected by the NAM microphone 101 and input to the microphone amplifier 103. The NAM sound or normal sound amplified by the microphone amplifier 103 is digitized by the AD converter 104, then digitally modulated by the digital modulation unit 202, and sent to the digital demodulation unit 206 via the transmission antenna 203 and the reception antenna 205. It is done. The digital demodulation unit 206 extracts the original digital audio data from the received signal and inputs it to the audio authentication unit 106.
Subsequent operations are the same as those in the first embodiment, and will be omitted.

図13は本発明にかかる音声認証によるドアロック解錠システムのさらに別の構成例を示す図である。同図の構成が実施例1(図1)の場合と異なる点は、音声認証システム1401に個人ID入力部1402が追加され、音声認証部1403がADコンバータ104からのデジタル化された音声データの他に、個人ID入力部1402からの個人ID情報をも入力とする点である。   FIG. 13 is a diagram showing still another configuration example of the door lock unlocking system by voice authentication according to the present invention. The configuration shown in the figure is different from that in the first embodiment (FIG. 1) in that a personal ID input unit 1402 is added to the voice authentication system 1401, and the voice authentication unit 1403 receives digitized voice data from the AD converter 104. In addition, the personal ID information from the personal ID input unit 1402 is also input.

ドアロックを解錠したい場合、認証登録者である発話者100は、個人ID入力部1402から、IDカードまたはテンキーにより個人IDを入力し、耳介の後方下部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面にはNAMマイクロフォン101を装着し、認証用キーワードを、非可聴つぶやき音(NAM音)または通常音で発声する。上記NAM音または通常音はNAMマイクロフォン101により採取され、マイクアンプ103に入力される。マイクアンプ103で増幅されたNAM音または通常音はADコンバータ104でデジタル化された後、音声認証部1403へ入力される。   When it is desired to unlock the door lock, the speaker 100 who is an authentication registrant inputs a personal ID from the personal ID input unit 1402 using an ID card or a numeric keypad, and directly below the mastoid process of the skull at the lower rear part of the auricle. The NAM microphone 101 is attached to the skin surface on the sternocleidomastoid muscle, and the authentication keyword is uttered by an inaudible murmur (NAM sound) or a normal sound. The NAM sound or normal sound is collected by the NAM microphone 101 and input to the microphone amplifier 103. The NAM sound or normal sound amplified by the microphone amplifier 103 is digitized by the AD converter 104 and then input to the voice authentication unit 1403.

音声認証部1403は、個人ID入力部1402から入力された個人IDに対応した、予め登録用に発声されたNAM音または通常音をもとに作成・登録され、登録パターン記憶部107に記憶された音声パターンと、認証時に発声されたNAM音または通常音との類似度を計算し、予め設定した閾値と比較して、発話者100が部屋への入出権限を持つものか否かを判断する。
以後の動作は実施例1の場合と同様のため省略する。
The voice authentication unit 1403 is created and registered based on the NAM sound or normal sound uttered for registration corresponding to the personal ID input from the personal ID input unit 1402 and stored in the registration pattern storage unit 107. The similarity between the voice pattern and the NAM sound or normal sound uttered at the time of authentication is calculated and compared with a preset threshold value to determine whether or not the speaker 100 has authority to enter and exit the room. .
Subsequent operations are the same as those in the first embodiment, and will be omitted.

図14は本発明にかかる音声認証によるネットワークログイン管理システムの構成例を示す図である。同図を参照すると、ネットワークログイン管理システムはNAMマイクロフォン101と、音声前処理部102と、音声認証システム1401と、ネットワークログイン管理部1501と、ネットワーク1502とから構成されている。さらに音声前処理部102は、マイクアンプ103とADコンバータ104とからなる。また、音声認証システム1401は、個人ID入力部1402と、音声認証部1403と、登録パターン記憶部107とからなる。   FIG. 14 is a diagram showing a configuration example of a network login management system by voice authentication according to the present invention. Referring to FIG. 2, the network login management system includes a NAM microphone 101, a voice preprocessing unit 102, a voice authentication system 1401, a network login management unit 1501, and a network 1502. Furthermore, the audio preprocessing unit 102 includes a microphone amplifier 103 and an AD converter 104. The voice authentication system 1401 includes a personal ID input unit 1402, a voice authentication unit 1403, and a registered pattern storage unit 107.

ネットワーク1502にログインしたい場合、認証登録者である発話者100は、個人ID入力部1402から、IDカードまたはテンキーにより個人IDを入力し、耳介の後方下部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面にはNAMマイクロフォン101を装着し、認証用キーワードを、非可聴つぶやき音(NAM音)または通常音で発声する。上記NAM音または通常音はNAMマイクロフォン101により採取され、マイクアンプ103に入力される。マイクアンプ103で増幅されたNAM音または通常音はADコンバータ104でデジタル化された後、音声認証部1403へ入力される。   When logging in to the network 1502, the speaker 100 who is an authentication registrant inputs a personal ID from the personal ID input unit 1402 using an ID card or a numeric keypad, and directly below the mastoid process of the skull, The NAM microphone 101 is attached to the skin surface on the sternocleidomastoid muscle, and the authentication keyword is uttered with an inaudible murmur (NAM sound) or a normal sound. The NAM sound or normal sound is collected by the NAM microphone 101 and input to the microphone amplifier 103. The NAM sound or normal sound amplified by the microphone amplifier 103 is digitized by the AD converter 104 and then input to the voice authentication unit 1403.

音声認証部1403は、個人ID入力部1402から入力された個人IDに対応した、予め登録用に発声されたNAM音または通常音をもとに作成・登録され、登録パターン記憶部107に記憶された音声パターンと、認証時に発声されたNAM音または通常音との類似度を計算し、予め設定した閾値と比較して、発話者100が部屋への入出権限を持つものか否かを判断する。
音声認証部1403で得られた判断結果はネットワークログイン管理部1501へ送信され、ネットワークログイン管理部1501は上記判断結果に従い、ログイン権限を持つものと判断された場合に、ネットワーク1502へのログインを許可する。
The voice authentication unit 1403 is created and registered based on the NAM sound or normal sound uttered for registration corresponding to the personal ID input from the personal ID input unit 1402 and stored in the registration pattern storage unit 107. The similarity between the voice pattern and the NAM sound or normal sound uttered at the time of authentication is calculated and compared with a preset threshold value to determine whether or not the speaker 100 has authority to enter and exit the room. .
The determination result obtained by the voice authentication unit 1403 is transmitted to the network login management unit 1501, and the network login management unit 1501 permits login to the network 1502 when it is determined that the user has login authority according to the determination result. To do.

図15は本発明にかかる音声認証によるデータベースアクセス管理システムの構成例を示す図である。同図を参照すると、データベースアクセス管理システムは、NAMマイクロフォン101と、音声前処理部102と、音声認証システム1401と、データベースアクセス管理部1601と、データベース1602から構成されている。さらに音声前処理部102は、マイクアンプ103とADコンバータ104、音声認証システム1401は、個人ID入力部1402、音声認証部1403、登録パターン記憶部107からなる。   FIG. 15 is a diagram showing a configuration example of a database access management system based on voice authentication according to the present invention. Referring to the figure, the database access management system includes a NAM microphone 101, a voice preprocessing unit 102, a voice authentication system 1401, a database access management unit 1601, and a database 1602. Further, the voice preprocessing unit 102 includes a microphone amplifier 103 and an AD converter 104, and the voice authentication system 1401 includes a personal ID input unit 1402, a voice authentication unit 1403, and a registered pattern storage unit 107.

データベース1602にアクセスしたい場合、認証登録者である発話者100は、個人ID入力部1402から、IDカードまたはテンキーにより個人IDを入力し、耳介の後方下部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面にはNAMマイクロフォン101を装着し、認証用キーワードを、非可聴つぶやき音(NAM音)または通常音で発声する。上記NAM音または通常音はNAMマイクロフォン101により採取され、マイクアンプ103に入力される。マイクアンプ103で増幅されたNAM音または通常音はADコンバータ104でデジタル化された後、音声認証部1403へ入力される。音声認証部1403は、個人ID入力部1402から入力された個人IDに対応した、予め登録用に発声されたNAM音または通常音をもとに作成・登録され、登録パターン記憶部107に記憶された音声パターンと、認証時に発声されたNAM音または通常音との類似度を計算し、予め設定した閾値と比較して、発話者100が部屋への入出権限を持つものか否かを判断する。音声認証部1403で得られた判断結果はデータベースアクセス管理部1601へ送信され、データベースアクセス管理部1601は上記判断結果に従い、アクセス権限を持つものと判断された場合に、データベース1602へのアクセスを許可する。   To access the database 1602, the speaker 100 who is an authentication registrant inputs a personal ID from the personal ID input unit 1402 using an ID card or a numeric keypad, and directly below the mastoid of the skull at the lower rear part of the auricle. The NAM microphone 101 is attached to the skin surface on the sternocleidomastoid muscle, and the authentication keyword is uttered with an inaudible murmur (NAM sound) or a normal sound. The NAM sound or normal sound is collected by the NAM microphone 101 and input to the microphone amplifier 103. The NAM sound or normal sound amplified by the microphone amplifier 103 is digitized by the AD converter 104 and then input to the voice authentication unit 1403. The voice authentication unit 1403 is created and registered based on the NAM sound or normal sound uttered for registration corresponding to the personal ID input from the personal ID input unit 1402 and stored in the registration pattern storage unit 107. The similarity between the voice pattern and the NAM sound or normal sound uttered at the time of authentication is calculated and compared with a preset threshold value to determine whether or not the speaker 100 has authority to enter and exit the room. . The determination result obtained by the voice authentication unit 1403 is transmitted to the database access management unit 1601, and the database access management unit 1601 permits access to the database 1602 when it is determined that the user has access authority according to the determination result. To do.

図16は本発明にかかる音声認証によるドアロック解錠システムのさらに別の構成例を示す図である。同図を参照すると、ドアロック解錠システムは、RFIDタグ付きNAMマイクロフォン1701と、マイク入力端子1702と、音声前処理部102と、音声認証システム1703と、ドアロック制御システム108と、ドア109とから構成されている。さらに音声前処理部102は、マイクアンプ103とADコンバータ104とからなる。音声認証システム1703は、RFIDタグリーダライタ1704と、音声認証部1705と、登録パターン記憶部107とからなる。   FIG. 16 is a diagram showing still another configuration example of the door lock unlocking system by voice authentication according to the present invention. Referring to the figure, the door lock unlocking system includes an NAM microphone 1701 with an RFID tag, a microphone input terminal 1702, a voice preprocessing unit 102, a voice authentication system 1703, a door lock control system 108, a door 109, It is composed of Furthermore, the audio preprocessing unit 102 includes a microphone amplifier 103 and an AD converter 104. The voice authentication system 1703 includes an RFID tag reader / writer 1704, a voice authentication unit 1705, and a registered pattern storage unit 107.

認証登録者である発話者100は、それぞれ個別のRFIDタグ付きNAMマイクロフォン1701を持ち、RFIDタグには予め個人ID情報が書き込まれている。
RFIDタグ付きNAMマイクロフォン1701の構成例について図17及び図18を参照して説明する。図17はFIDタグ付きNAMマイクロフォン1701の側面断面図、図18はFIDタグ付きNAMマイクロフォン1701の正面図である。図17及び図18に示されているNAMマイクロフォン1701の構成が、図2及び図3に示されているNAMマイクロフォン101の構成と異なる点は、予め個人ID情報が書き込まれているRFIDタグ1801と、マイク入力端子1702に対応したプラグ1802とが追加されている点である。
Each speaker 100 who is an authentication registrant has an individual NAM microphone 1701 with an RFID tag, and personal ID information is written in the RFID tag in advance.
A configuration example of the NAM microphone 1701 with an RFID tag will be described with reference to FIGS. FIG. 17 is a side sectional view of the NAM microphone 1701 with an FID tag, and FIG. 18 is a front view of the NAM microphone 1701 with an FID tag. The configuration of the NAM microphone 1701 shown in FIGS. 17 and 18 is different from the configuration of the NAM microphone 101 shown in FIGS. 2 and 3 in that the RFID tag 1801 in which personal ID information is written in advance. A plug 1802 corresponding to the microphone input terminal 1702 is added.

RFIDなどの非接触IDタグに記憶されている識別情報を読み出すことによって該識別情報が入力されるので、認証対象者を識別するための識別情報を容易に入力することができる。
プラグ1802が追加されているので、NAMマイクロフォン1701は、本システムに対して着脱自在に構成されていることになる。このように構成すれば、NAMマイクロフォンを携行でき、システムの利便性が向上する。
Since the identification information is input by reading the identification information stored in a non-contact ID tag such as an RFID, the identification information for identifying the person to be authenticated can be easily input.
Since the plug 1802 is added, the NAM microphone 1701 is configured to be detachable from the system. If comprised in this way, a NAM microphone can be carried and the convenience of a system will improve.

ドアロックを解錠したい場合、認証登録者である発話者100は、まず個人毎に所有するRFIDタグ付きNAMマイクロフォン1701をRFIDタグリーダライタ1704に近づける。RFIDタグリーダライタ1704は、RFIDタグ付きNAMマイクロフォン1701のRFIDタグ1801から、個人IDを読み出す。
次に、認証登録者である発話者100は、RFIDタグ付きNAMマイクロフォン1701のプラグ1802をマイク入力端子1702に差し込んだ後、耳介の後方下部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面にはRFIDタグ付きNAMマイクロフォン1701を装着し、認証用キーワードを、非可聴つぶやき音(NAM音)または通常音で発声する。
When it is desired to unlock the door lock, the speaker 100 who is an authentication registrant first brings the RFID tag-attached NAM microphone 1701 close to the RFID tag reader / writer 1704 for each individual. The RFID tag reader / writer 1704 reads the personal ID from the RFID tag 1801 of the RFID tag-attached NAM microphone 1701.
Next, the speaker 100 who is an authentication registrant inserts the plug 1802 of the RFID tag-attached NAM microphone 1701 into the microphone input terminal 1702, and then the thoracic milk in the lower rear part of the auricle just below the mastoid process of the skull. A NAM microphone 1701 with an RFID tag is attached to the skin surface above the gluteal muscle, and the authentication keyword is uttered with an inaudible murmur (NAM sound) or a normal sound.

上記NAM音または通常音はRFIDタグ付きNAMマイクロフォン1701により採取され、マイクアンプ103に入力される。マイクアンプ103で増幅されたNAM音または通常音はADコンバータ104でデジタル化された後、音声認証部1705へ入力される。音声認証部1705は、RFIDタグリーダライタ1704が読み込んだ個人IDに対応した、予め登録用に発声されたNAM音または通常音をもとに作成・登録され、登録パターン記憶部107に記憶された音声パターンと、認証時に発声されたNAM音または通常音との類似度を計算し、予め設定した閾値と比較して、発話者100が部屋への入出権限を持つものか否かを判断する。   The NAM sound or normal sound is collected by the RFID tag-attached NAM microphone 1701 and input to the microphone amplifier 103. The NAM sound or normal sound amplified by the microphone amplifier 103 is digitized by the AD converter 104 and then input to the voice authentication unit 1705. The voice authentication unit 1705 is created and registered based on the NAM sound or normal sound uttered for registration corresponding to the personal ID read by the RFID tag reader / writer 1704, and stored in the registration pattern storage unit 107. The similarity between the pattern and the NAM sound or normal sound uttered at the time of authentication is calculated, and compared with a preset threshold value, it is determined whether or not the speaker 100 has the right to enter and leave the room.

以後の動作は実施例1の場合と同様のため省略する。
個人毎に、小型かつ安価で製造可能なNAMマイクロフォンとRFIDタグを組み合わせたRFIDタグ付きNAMマイクロフォン1701を保有・使用することにより、特別な操作なしに個人ID入力が可能となり、使い勝手がよく、セキュリティ性の高いシステムが実現できる。
なお、実施例1から実施例5までのいずれかにおいて、マイク入力端子に対応したプラグを追加すれば、NAMマイクロフォンを、各システムに対して着脱自在に構成でき、NAMマイクロフォンを携行でき、システムの利便性が向上する。
Subsequent operations are the same as those in the first embodiment, and will be omitted.
For each individual, possessing and using a NAM microphone with RFID tag 1701 that combines a small and inexpensive NAM microphone and an RFID tag makes it possible to enter a personal ID without any special operation. A highly reliable system can be realized.
In any of the first to fifth embodiments, if a plug corresponding to the microphone input terminal is added, the NAM microphone can be configured to be detachable from each system, and the NAM microphone can be carried around. Convenience is improved.

本発明により、セキュリティ性が高く、かつ、認証性能が高い音声認証システムが実現できるようになるため、入出門管理やATM以外のセキュリティシステムや金融システムにおいても、本人認証システムとして広く使用することが可能になる。   According to the present invention, a voice authentication system with high security and high authentication performance can be realized. Therefore, it can be widely used as a personal authentication system in security systems and financial systems other than entrance management and ATMs. It becomes possible.

本発明の実施の形態に係るドアロック解錠システムの構成を示す図である。It is a figure showing composition of a door lock unlocking system concerning an embodiment of the invention. NAMマイクロフォンの構成例を示す側面断面図である。It is side surface sectional drawing which shows the structural example of a NAM microphone. NAMマイクロフォンの構成例を示す正面図である。It is a front view which shows the structural example of a NAM microphone. NAMマイクロフォンから採取した信号のスペクトルを示す図である。It is a figure which shows the spectrum of the signal extract | collected from the NAM microphone. 発声「あ」の空気伝導音と肉伝導音のオクターブ分析図である。It is an octave analysis diagram of air conduction sound and meat conduction sound of utterance "A". 発声「い」の空気伝導音と肉伝導音のオクターブ分析図である。It is an octave analysis diagram of air conduction sound and meat conduction sound of utterance “I”. 発声「う」の空気伝導音と肉伝導音のオクターブ分析図である。It is an octave analysis diagram of air conduction sound and meat conduction sound of utterance “U”. 発声「え」の空気伝導音と肉伝導音のオクターブ分析図である。It is an octave analysis diagram of air conduction sound and meat conduction sound of utterance “E”. 発声「お」の空気伝導音と肉伝導音のオクターブ分析図である。It is an octave analysis diagram of air conduction sound and meat conduction sound of utterance "O". NAMマイクロフォンの耐環境雑音性用の評価構成図である。It is an evaluation block diagram for environmental noise resistance of a NAM microphone. NAMマイクロフォンから採取された肉伝導音と空気伝導音の波形図である。It is a wave form diagram of the meat conduction sound and air conduction sound which were extract | collected from the NAM microphone. 本発明にかかる別のドアロック解錠システムの構成を示す図である。It is a figure which shows the structure of another door lock unlocking system concerning this invention. 本発明にかかる別のドアロック解錠システムの構成を示す図である。It is a figure which shows the structure of another door lock unlocking system concerning this invention. 本発明にかかるネットワークログイン管理システムの構成を示す図である。It is a figure which shows the structure of the network login management system concerning this invention. 本発明にかかるデータベースアクセス管理システムの構成を示す図である。It is a figure which shows the structure of the database access management system concerning this invention. 本発明にかかる別のドアロック解錠システムの構成を示す図である。It is a figure which shows the structure of another door lock unlocking system concerning this invention. RFIDタグ付きNAMマイクロフォンの構成例を示す側面断面図である。It is side surface sectional drawing which shows the structural example of the NAM microphone with an RFID tag. RFIDタグ付きNAMマイクロフォンの構成例を示す正面図である。It is a front view which shows the structural example of the NAM microphone with an RFID tag.

符号の説明Explanation of symbols

100 発話者
101 NAMマイクロフォン
102 音声前処理部
103 マイクアンプ
104 ADコンバータ
105 音声認証システム
106 音声認証部
107 登録パターン記憶部
108 ドアロック制御システム
109 ドア
201 無線送信ユニット
202 デジタル変調部
203 送信用アンテナ
204 無線受信ユニット
205 受信用アンテナ
206 デジタル復調部
301a 接触部
301b フレーム
301c 外部雑音防音空間
301d 反射板
301e コンデンサマイクロフォン
301f 振動板電極
301g リード線
1401 音声認証システム
1402 個人ID入力部
1403 音声認証部
1501 ネットワークログイン管理部
1502 ネットワーク
1601 データベースアクセス管理部
1602 データベース
1701 RFIDタグ付きNAMマイクロフォン
1702 マイク入力端子
1703 音声認証システム
1704 RFIDタグリーダライタ
1705 音声認証部
1801 RFIDタグ
1802 プラグ
MC 通常マイクロフォン
SP スピーカ
DESCRIPTION OF SYMBOLS 100 Speaker 101 NAM microphone 102 Voice preprocessing part 103 Microphone amplifier 104 AD converter 105 Voice authentication system 106 Voice authentication part 107 Registration pattern memory | storage part 108 Door lock control system 109 Door 201 Wireless transmission unit 202 Digital modulation part 203 Transmitting antenna 204 Wireless receiving unit 205 Reception antenna 206 Digital demodulator 301a Contact 301b Frame 301c External noise soundproof space 301d Reflector 301e Capacitor microphone 301f Diaphragm electrode 301g Lead wire 1401 Voice authentication system 1402 Personal ID input part 1403 Voice authentication part 1501 Network login Management unit 1502 Network 1601 Database access management unit 1602 Database 1701 With RFID tag NAM microphone 1702 Microphone input terminal 1703 Voice authentication system 1704 RFID tag reader / writer 1705 Voice authentication unit 1801 RFID tag 1802 Plug MC Normal microphone SP Speaker

Claims (11)

認証用の体内伝導音声に関するデータが予め記憶されている記憶手段と、認証対象者の体内伝導音声を皮膚表面から入力するための体内伝導音声入力手段と、前記体内伝導音声入力手段により入力された体内伝導音声に関するデータと前記記憶手段に記憶されている体内伝導音声に関するデータとを照合することによって認証を行う認証手段とを含み、前記認証手段の認証結果に応じて外部機器を制御するようにしたことを特徴とする音声話者認証システム。   Data relating to the body conduction voice for authentication is stored in advance, the body conduction voice input means for inputting the body conduction voice of the person to be authenticated from the skin surface, and the body conduction voice input means. Authentication means for performing authentication by comparing data relating to body conduction speech and data relating to body conduction speech stored in the storage means, and to control an external device according to the authentication result of the authentication means A voice speaker authentication system characterized by 前記体内伝導音声入力手段は、NAM(Non-Audible Murmur)マイクロフォンであることを特徴とする請求項1記載の音声話者認証システム。   2. The voice speaker authentication system according to claim 1, wherein the body conduction voice input means is a NAM (Non-Audible Murmur) microphone. 前記体内伝導音声は、非可聴つぶやき音であることを特徴とする請求項1又は2記載の音声話者認証システム。   The voice speaker authentication system according to claim 1, wherein the body conduction voice is a non-audible murmur. 前記NAMマイクロフォンは、自システムに対して着脱自在に構成されていることを特徴とする請求項2又は3記載の音声話者認証システム。   4. The voice speaker authentication system according to claim 2, wherein the NAM microphone is configured to be detachable from its own system. 前記体内伝導音声入力手段により入力された体内伝導音声に関するデータを、無線通信方式によって前記認証手段に伝達する無線通信手段を更に含むことを特徴とする請求項1から4までのいずれか1項に記載の音声話者認証システム。   5. The wireless communication unit according to claim 1, further comprising a wireless communication unit configured to transmit data related to the internal conductive speech input by the internal body speech input unit to the authentication unit by a wireless communication method. The voice speaker authentication system described. 前記認証対象者に予め付与され該認証対象者を識別するための識別情報を入力するためのID入力手段を更に含み、前記認証手段は、前記記憶手段に記憶されているデータのうち、前記ID入力手段によって入力された識別情報に対応するデータと、前記体内伝導音声入力手段により入力された体内伝導音声に関するデータとを照合することを特徴とする請求項1から5までのいずれか1項に記載の音声話者認証システム。   It further includes ID input means for inputting identification information given in advance to the authentication target person and for identifying the authentication target person, wherein the authentication means includes the ID among the data stored in the storage means. The data corresponding to the identification information inputted by the input means is collated with the data related to the body conduction voice inputted by the body conduction voice input means, according to any one of claims 1 to 5. The voice speaker authentication system described. 前記ID入力手段は、非接触IDタグに記憶されている前記識別情報を読み出すことによって該識別情報が入力されることを特徴とする請求項6記載の音声話者認証システム。   7. The voice speaker authentication system according to claim 6, wherein the ID input means inputs the identification information by reading the identification information stored in a non-contact ID tag. 前記認証手段は、前記体内伝導音声入力手段により入力された体内伝導音声に関するデータと前記記憶手段に記憶されている体内伝導音声に関するデータとの類似度と、所定閾値とを比較することを特徴とする請求項1から7までのいずれか1項に記載の音声話者認証システム。   The authentication means compares the similarity between the data related to the body conduction speech input by the body conduction speech input means and the data related to the body conduction speech stored in the storage means, and a predetermined threshold value. The voice speaker authentication system according to any one of claims 1 to 7. 前記外部機器は、前記認証結果に対応する電気信号によって扉の施錠を制御することを特徴とする請求項1から8までのいずれか1項に記載の音声話者認証システム。   The voice speaker authentication system according to any one of claims 1 to 8, wherein the external device controls the locking of the door by an electrical signal corresponding to the authentication result. 前記外部機器は、前記認証結果に対応するデータによってネットワークへのログイン可否を制御することを特徴とする請求項1から8までのいずれか1項に記載の音声話者認証システム。   The voice speaker authentication system according to any one of claims 1 to 8, wherein the external device controls whether or not to log in to the network based on data corresponding to the authentication result. 前記外部機器は、前記認証結果に対応するデータによってデータベースへのアクセス可否を制御することを特徴とする請求項1から8までのいずれか1項に記載の音声話者認証システム。   The voice speaker authentication system according to any one of claims 1 to 8, wherein the external device controls whether or not to access a database based on data corresponding to the authentication result.
JP2004315622A 2004-10-29 2004-10-29 Voice speaker authentication system Pending JP2006126558A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004315622A JP2006126558A (en) 2004-10-29 2004-10-29 Voice speaker authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004315622A JP2006126558A (en) 2004-10-29 2004-10-29 Voice speaker authentication system

Publications (1)

Publication Number Publication Date
JP2006126558A true JP2006126558A (en) 2006-05-18

Family

ID=36721370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004315622A Pending JP2006126558A (en) 2004-10-29 2004-10-29 Voice speaker authentication system

Country Status (1)

Country Link
JP (1) JP2006126558A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008007616A1 (en) * 2006-07-13 2008-01-17 Nec Corporation Non-audible murmur input alarm device, method, and program
WO2008015800A1 (en) * 2006-08-02 2008-02-07 National University Corporation NARA Institute of Science and Technology Speech processing method, speech processing program, and speech processing device
WO2008015956A1 (en) * 2006-07-31 2008-02-07 Nap Enterprise Co., Ltd. Portable personal authentication method and electronic business transaction method
JP2008042740A (en) * 2006-08-09 2008-02-21 Nara Institute Of Science & Technology Non-audible murmur pickup microphone
JP2014501089A (en) * 2010-11-24 2014-01-16 コーニンクレッカ フィリップス エヌ ヴェ Device having a plurality of audio sensors and method of operating the same
JP2015191076A (en) * 2014-03-28 2015-11-02 セコム株式会社 voice identification device
CN110556104A (en) * 2018-06-04 2019-12-10 本田技研工业株式会社 Speech recognition device, speech recognition method, and storage medium storing program
KR20200124310A (en) * 2018-03-21 2020-11-02 시러스 로직 인터내셔널 세미컨덕터 리미티드 Biometric processes
WO2021010056A1 (en) * 2019-07-17 2021-01-21 ホシデン株式会社 Microphone unit

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305586A (en) * 1999-04-19 2000-11-02 Fujitsu Ten Ltd Speech recognition remote control device
JP2002221990A (en) * 2001-01-25 2002-08-09 Matsushita Electric Ind Co Ltd Individual authentication system
JP2003302999A (en) * 2002-04-11 2003-10-24 Advanced Media Inc Individual authentication system by voice
WO2004021738A1 (en) * 2002-08-30 2004-03-11 Asahi Kasei Kabushiki Kaisha Microphone and communication interface system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305586A (en) * 1999-04-19 2000-11-02 Fujitsu Ten Ltd Speech recognition remote control device
JP2002221990A (en) * 2001-01-25 2002-08-09 Matsushita Electric Ind Co Ltd Individual authentication system
JP2003302999A (en) * 2002-04-11 2003-10-24 Advanced Media Inc Individual authentication system by voice
WO2004021738A1 (en) * 2002-08-30 2004-03-11 Asahi Kasei Kabushiki Kaisha Microphone and communication interface system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008007616A1 (en) * 2006-07-13 2008-01-17 Nec Corporation Non-audible murmur input alarm device, method, and program
WO2008015956A1 (en) * 2006-07-31 2008-02-07 Nap Enterprise Co., Ltd. Portable personal authentication method and electronic business transaction method
JP2008033144A (en) * 2006-07-31 2008-02-14 Nappu Enterprise Kk Portable type personal identification method and electronic commerce method
WO2008015800A1 (en) * 2006-08-02 2008-02-07 National University Corporation NARA Institute of Science and Technology Speech processing method, speech processing program, and speech processing device
JPWO2008015800A1 (en) * 2006-08-02 2009-12-17 国立大学法人 奈良先端科学技術大学院大学 Audio processing method, audio processing program, and audio processing apparatus
US8155966B2 (en) 2006-08-02 2012-04-10 National University Corporation NARA Institute of Science and Technology Apparatus and method for producing an audible speech signal from a non-audible speech signal
JP2008042740A (en) * 2006-08-09 2008-02-21 Nara Institute Of Science & Technology Non-audible murmur pickup microphone
US9538301B2 (en) 2010-11-24 2017-01-03 Koninklijke Philips N.V. Device comprising a plurality of audio sensors and a method of operating the same
JP2014501089A (en) * 2010-11-24 2014-01-16 コーニンクレッカ フィリップス エヌ ヴェ Device having a plurality of audio sensors and method of operating the same
RU2605522C2 (en) * 2010-11-24 2016-12-20 Конинклейке Филипс Электроникс Н.В. Device containing plurality of audio sensors and operation method thereof
JP2015191076A (en) * 2014-03-28 2015-11-02 セコム株式会社 voice identification device
KR20200124310A (en) * 2018-03-21 2020-11-02 시러스 로직 인터내셔널 세미컨덕터 리미티드 Biometric processes
KR102282197B1 (en) 2018-03-21 2021-07-26 시러스 로직 인터내셔널 세미컨덕터 리미티드 biometric processes
CN110556104A (en) * 2018-06-04 2019-12-10 本田技研工业株式会社 Speech recognition device, speech recognition method, and storage medium storing program
CN110556104B (en) * 2018-06-04 2023-05-30 本田技研工业株式会社 Speech recognition device, speech recognition method, and storage medium storing program
WO2021010056A1 (en) * 2019-07-17 2021-01-21 ホシデン株式会社 Microphone unit
CN114080641A (en) * 2019-07-17 2022-02-22 星电株式会社 Microphone unit
JP7462634B2 (en) 2019-07-17 2024-04-05 ホシデン株式会社 Microphone unit
US12057127B2 (en) 2019-07-17 2024-08-06 Hosiden Corporation Microphone unit

Similar Documents

Publication Publication Date Title
JP5015939B2 (en) Method and apparatus for acoustic outer ear characterization
EP3709115B1 (en) A hearing device or system comprising a user identification unit
Li et al. Practical adversarial attacks against speaker recognition systems
Dong et al. Secure mmWave-radar-based speaker verification for IoT smart home
EP3272101B1 (en) Audiovisual associative authentication method, related system and device
US5913196A (en) System and method for establishing identity of a speaker
JP4937661B2 (en) Mobile personal authentication method and electronic commerce method
US6480825B1 (en) System and method for detecting a recorded voice
US6084967A (en) Radio telecommunication device and method of authenticating a user with a voice authentication token
WO2006054205A1 (en) Audio device for and method of determining biometric characteristincs of a user.
US10896682B1 (en) Speaker recognition based on an inside microphone of a headphone
JP2006126558A (en) Voice speaker authentication system
US11609977B2 (en) Biometric processes, apparatus and machine-readable mediums
Sulavko et al. Personal identification based on acoustic characteristics of outer ear using cepstral analysis, Bayesian classifier, and artificial neural networks
Delgado et al. Impact of bandwidth and channel variation on presentation attack detection for speaker verification
CN110100278B (en) Speaker recognition system, speaker recognition method and in-ear device
CN108257265A (en) Intelligent door lock
CN117763524A (en) Target user confirmation method, device, electronic equipment and readable storage medium
Venayagamoorthy et al. Comparison of text-dependent speaker identification methods for short distance telephone lines using artificial neural networks
Faundez-Zanuy et al. The COST-277 speech database
CN112735426A (en) Voice verification method and system, computer device and storage medium
CN118072741A (en) Method, device and equipment for identifying AI clone sound
Kounoudes et al. Intelligent Speaker Verification based Biometric System for Electronic Commerce Applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100817