JP2006229301A - Microphone, signal processor, communication interface system, voice/speaker identification system, toy for nam sound - Google Patents
Microphone, signal processor, communication interface system, voice/speaker identification system, toy for nam sound Download PDFInfo
- Publication number
- JP2006229301A JP2006229301A JP2005037532A JP2005037532A JP2006229301A JP 2006229301 A JP2006229301 A JP 2006229301A JP 2005037532 A JP2005037532 A JP 2005037532A JP 2005037532 A JP2005037532 A JP 2005037532A JP 2006229301 A JP2006229301 A JP 2006229301A
- Authority
- JP
- Japan
- Prior art keywords
- microphone
- sound
- voice
- skin surface
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Details Of Audible-Bandwidth Transducers (AREA)
Abstract
Description
本発明はコミュニケーションインタフェースシステムに関し、特に鼻軟骨上の皮膚表面に装着され、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則振動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音(Non?Audible Murmur;NAM)あるいは通常音声などの体内軟部組織を伝導する振動音を採取して音声入力するマイクロフォン(肉伝導マイクロフォン)を用いたコミュニケーションインタフェースシステムに関する。 The present invention relates to a communication interface system, and more particularly to an externally inaudible breathing sound that is attached to the skin surface on nasal cartilage and is tuned by a resonance filter characteristic change accompanying the movement of the vocal organs, and does not involve regular vibration of the vocal cords. A non-audible murmur (NAM) that is a vibration sound that is transmitted through the soft tissue of the body of the human body or a microphone (meat conduction microphone) that collects and inputs a vibration sound that is transmitted through the soft tissue of the body, such as normal speech It relates to the communication interface system used.
従来、耳介の下方部の、頭蓋骨の乳様突起直下の、胸鎖乳頭筋上の皮膚表面に装着され、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則振動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音(NAM)を採取して、音声入力するマイクロフォン、および、これを用いたコミュニケーションインタフェースシステムが提案されている(例えば、特許文献1参照)。
一般的に、音声は、声帯の規則振動により生じる規則波(ピッチ)または気道の狭めで生ずる乱流雑音を音源とし、のどから口蓋にかけての調音器官を経て出力される。したがって、耳介の下方部の、頭蓋骨の乳様突起直下の、胸鎖乳頭筋上の皮膚表面を音声採取位置とすると、調音器官からやや距離があるため、体内軟部組織を伝導する過程で体内伝導音声の高周波数成分が減衰し、やや明瞭性を欠いた、こもったような音になってしまうという問題があった。また、従来法では音声の変調器官よりも音源側で信号を採取するため、NAM発声音声と通常発声音声で信号強度が大きく異なり、NAM発声音声にあわせてマイクアンプのゲインを設定しておくと、通常発声音声入力時にはオーバーフローしてしまうという問題もあった。 In general, the sound is output through the articulating organ from the throat to the palate using a regular wave (pitch) generated by regular vibration of the vocal cords or turbulent noise generated by narrowing the airway as a sound source. Therefore, if the skin surface on the thoracic papillary muscle in the lower part of the pinna, just below the mastoid process of the skull, is located at a distance from the articulatory organ, the body is in the process of conducting the soft tissue in the body. There was a problem that the high frequency component of the conduction sound was attenuated, and the sound was slightly lacking in clarity. In the conventional method, since the signal is collected on the sound source side of the voice modulation organ, the signal intensity differs greatly between the NAM voice and the normal voice, and the gain of the microphone amplifier is set according to the NAM voice. However, there was a problem that overflow occurred during normal voice input.
本発明は上述した従来技術の問題点を解決するためになされたものであり、その目的はより聞きやすい音声を採取できるマイクロフォン、これを用いた信号処理装置、コミュニケーションインタフェースシステム、音声話者認証システム、NAM音対応玩具装置を提供することである。 The present invention has been made in order to solve the above-described problems of the prior art, and its purpose is a microphone capable of collecting more easily audible speech, a signal processing apparatus using the same, a communication interface system, and a voice speaker authentication system. It is to provide a toy device for NAM sound.
本発明の請求項1によるマイクロフォンは、鼻軟骨上の皮膚表面に装着される集音部を含み、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則振動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音または、通常音声を採取することを特徴とする。軟骨上の皮膚表面にマイクロフォンを装着することにより、体内軟部組織を伝導する距離が短いため、体内伝導音声の高域成分の減衰が少なく、より聞きやすい音声を採取できる。また、鼻軟骨上の皮膚表面にマイクロフォンを装着することにより、音源から変調器官を通り、エネルギーが口から多く放出されたあとで採取するので、通常発声音声でも固有鼻腔から鼻軟骨部に伝えられる音量はあまり増加しないため、NAM発声音声と通常発声音声とを同一のマイクアンプゲインで採取できる。 The microphone according to claim 1 of the present invention includes a sound collecting part attached to the skin surface on the nasal cartilage, and is tuned by a resonance filter characteristic change accompanying the movement of the vocal organs and is not accompanied by regular vibration of the vocal cords. Is characterized by collecting non-audible murmurs or normal sounds, which are vibration sounds transmitted through the soft tissue in the body of inaudible breathing sounds. By attaching the microphone to the skin surface on the cartilage, the distance conducted through the soft tissue in the body is short, so that the high-frequency component of the body-conducted speech is less attenuated and a more easily heard sound can be collected. In addition, by attaching a microphone to the skin surface on the nasal cartilage, it is collected after a lot of energy is released from the mouth through the modulation organ from the sound source, so even normal vocal sounds can be transmitted from the proper nasal cavity to the nasal cartilage part Since the volume does not increase so much, the NAM voice and the normal voice can be collected with the same microphone amplifier gain.
本発明の請求項2によるマイクロフォンは、請求項1において、一端が共通の支点に接続された一対の支持部材と、前記一対の支持部材の他端同士を互いに接近させるように付勢するバネ部材とを含み、前記集音部は前記一対の支持部材の少なくとも一方の他端に設けられていることを特徴とする。このような構成を採用することにより、軟骨上の皮膚表面にマイクロフォンを安定して装着できる。 A microphone according to a second aspect of the present invention is the microphone according to the first aspect, wherein a pair of support members having one end connected to a common fulcrum and a spring member that urges the other ends of the pair of support members to approach each other. The sound collecting part is provided at the other end of at least one of the pair of support members. By adopting such a configuration, the microphone can be stably mounted on the skin surface on the cartilage.
本発明の請求項3によるマイクロフォンは、請求項1において、前記鼻軟骨上の皮膚表面に沿った形状を有し前記皮膚表面に前記集音部が接触している状態を維持する支持部と、左右の耳介それぞれに掛けるための一対の耳掛け部と、前記一対の耳掛け部と前記支持部との間を接続するアーム部とを含むことを特徴とする。このような構成を採用することにより、軟骨上の皮膚表面にマイクロフォンを安定して装着できる。 The microphone according to claim 3 of the present invention is the microphone according to claim 1, wherein the microphone has a shape along the skin surface on the nasal cartilage and maintains the state in which the sound collecting portion is in contact with the skin surface; It includes a pair of ear hooks for hanging on the left and right auricles, and an arm for connecting between the pair of ear hooks and the support. By adopting such a configuration, the microphone can be stably mounted on the skin surface on the cartilage.
本発明の請求項4によるマイクロフォンは、請求項1において、前記鼻軟骨上の皮膚表面を含む頭部皮膚表面に装着された環状の弾性体を有し、前記弾性体の弾性力により前記皮膚表面に前記集音部が接触している状態を維持することを特徴とする。このような構成を採用することにより、軟骨上の皮膚表面にマイクロフォンを安定して装着できる。
本発明の請求項5によるマイクロフォンは、請求項1において、前記集音部を覆うキャップ部と、前記キャップ部と左右の耳介それぞれとの間に設けられた一対の弾性体とを有し、前記弾性体の弾性力により前記皮膚表面に前記集音部が接触している状態を維持することを特徴とする。このような構成を採用することにより、軟骨上の皮膚表面にマイクロフォンを安定して装着できる。
According to a fourth aspect of the present invention, the microphone according to the first aspect of the present invention includes the annular elastic body attached to the skin surface of the head including the skin surface on the nasal cartilage according to the first aspect, and the skin surface by the elastic force of the elastic body. And maintaining the state in which the sound collecting portion is in contact with the sound collecting portion. By adopting such a configuration, the microphone can be stably mounted on the skin surface on the cartilage.
The microphone according to claim 5 of the present invention includes, in claim 1, a cap portion that covers the sound collection portion, and a pair of elastic bodies provided between the cap portion and the left and right auricles, The state where the sound collection part is in contact with the skin surface is maintained by the elastic force of the elastic body. By adopting such a configuration, the microphone can be stably mounted on the skin surface on the cartilage.
本発明の請求項6による信号処理装置は、請求項1から請求項5のいずれか1項に記載のマイクロフォンによって採取された信号に対して、信号処理を行うことを特徴とする。このような構成を採用することにより、軟骨上の皮膚表面に安定して装着したマイクロフォンによって採取された信号について種々の信号処理を行うことができる。
本発明の請求項7による信号処理装置は、請求項6において、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果について加工を行うプロセッサ部と、前記プロセッサ部による加工結果を外部に送出する送出部とを含むことを特徴とする。このような構成により、量子化結果について加工を信号処理装置の内部で行うことができる。
According to a sixth aspect of the present invention, there is provided a signal processing apparatus for performing signal processing on a signal collected by a microphone according to any one of the first to fifth aspects. By adopting such a configuration, it is possible to perform various signal processing on the signal collected by the microphone that is stably attached to the skin surface on the cartilage.
According to a seventh aspect of the present invention, there is provided a signal processing device according to the sixth aspect, wherein the analog-to-digital conversion unit that quantizes the signal collected by the microphone, and the processor unit that processes the quantization result by the analog-to-digital conversion unit And a sending part for sending the processing result by the processor part to the outside. With this configuration, the quantization result can be processed inside the signal processing device.
本発明の請求項8による信号処理装置は、請求項6において、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果を外部に送出する送出部とを含み、前記量子化結果の加工を外部装置において行うようにしたことを特徴とする。このような構成により、量子化結果について加工を信号処理装置の外部で行うことができる。 According to an eighth aspect of the present invention, there is provided the signal processing device according to the sixth aspect, wherein the analog-to-digital conversion unit that quantizes the signal collected by the microphone and the sending unit that sends the quantization result by the analog-to-digital conversion unit to the outside The quantization result is processed in an external device. With such a configuration, the quantization result can be processed outside the signal processing apparatus.
本発明の請求項9による信号処理装置は、請求項6において、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果について加工を行うプロセッサ部と、前記プロセッサ部による加工結果について音声認識処理を行う音声認識部とを含むことを特徴とする。このような構成により、マイクロフォンによる採取音について音声認識処理を行うことができる。 The signal processing device according to claim 9 of the present invention is the signal processing apparatus according to claim 6, wherein the analog-to-digital conversion unit that quantizes the signal collected by the microphone, and the processor unit that processes the quantization result by the analog-to-digital conversion unit; And a speech recognition unit that performs speech recognition processing on the processing result by the processor unit. With such a configuration, voice recognition processing can be performed on the sound collected by the microphone.
本発明の請求項10によるコミュニケーションインタフェースシステムは、請求項1から請求項5のいずれか1項に記載のマイクロフォンと、請求項6から請求項9のいずれか1項に記載の信号処理装置と、を含み、前記信号処理装置による処理結果をコミュニケーションに使用するようにしたことを特徴とする。このような構成を採用することにより、軟骨上の皮膚表面に装着したマイクロフォンを、コミュニケーションに利用することができる。 A communication interface system according to a tenth aspect of the present invention is the microphone according to any one of the first to fifth aspects, the signal processing device according to any one of the sixth to ninth aspects, And the processing result of the signal processing device is used for communication. By adopting such a configuration, the microphone attached to the skin surface on the cartilage can be used for communication.
本発明の請求項11による音声話者認証システムは、請求項1から請求項6のいずれか1項に記載のマイクロフォンと、認証用の体内伝導音声に関するデータが予め記憶されている記憶手段と、前記マイクロフォンにより入力された体内伝導音声に関するデータと前記記憶手段に記憶されている体内伝導音声に関するデータとを照合することによって認証を行う認証手段とを含み、前記認証手段の認証結果に応じて外部機器を制御するようにしたことを特徴とする。このような構成により、マイクロフォンによる採取音によって外部機器を制御することができる。 A voice speaker authentication system according to an eleventh aspect of the present invention includes a microphone according to any one of the first to sixth aspects, a storage unit in which data related to body conduction voice for authentication is stored in advance, Authentication means for performing authentication by collating data relating to body conduction speech input by the microphone and data relating to body conduction speech stored in the storage means, and externally depending on the authentication result of the authentication means It is characterized by controlling the equipment. With such a configuration, the external device can be controlled by the sound collected by the microphone.
本発明の請求項12によるNAM音対応玩具装置は、請求項1から請求項6のいずれか1項に記載のマイクロフォンにより入力され、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則変動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音(NAM音)に対応して所定動作を行うことを特徴とする。このような構成により、マイクロフォンによる採取音によって玩具装置を制御することができる。
本発明の請求項13によるNAM音対応玩具装置は、請求項12において、音声を出力するためのスピーカを有し、前記所定動作は、前記NAM音に対応した音声を前記スピーカから出力する動作であることを特徴とする。このような構成により、玩具装置を制御して腹話術などを行うことができる。
A toy device for NAM sound according to a twelfth aspect of the present invention is a vocal cord input by the microphone according to any one of the first to sixth aspects and tuned by a resonance filter characteristic change accompanying a movement of a vocal organ. A predetermined operation is performed in response to a non-audible murmur sound (NAM sound) that is a vibration sound that is transmitted from the outside to the soft tissue of the body, which is not accompanied by regular fluctuations. With such a configuration, the toy device can be controlled by the sound collected by the microphone.
A toy device for NAM sound according to claim 13 of the present invention has a speaker for outputting sound according to claim 12, and the predetermined operation is an operation of outputting sound corresponding to the NAM sound from the speaker. It is characterized by being. With such a configuration, the toy device can be controlled to perform a ventral speech or the like.
本発明によれば、軟骨、特に鼻軟骨上の皮膚表面にマイクロフォンを装着することにより、体内軟部組織を伝導する距離が短いため、体内伝導音声の高域成分の減衰が少なく、より聞きやすい音声の採取が可能となる。また、調音器官の終端付近で採取するため、調音、すなわち、音素を特徴付けるフォルマントが形成されたあとの明瞭度の高い音声の採取が可能となる。さらに、音源から変調器官を通り、エネルギーが開口部(口)から多く放出されたあとで採取するので、通常発声音声でも固有鼻腔から鼻軟骨部に伝えられる音量はあまり増加しないため、NAM発声音声と通常発声音声が同一のマイクアンプゲインで採取可能となる。 According to the present invention, since a microphone is attached to the skin surface of cartilage, particularly nasal cartilage, the distance conducted through the soft tissue in the body is short, so that the high-frequency component of the body conduction voice is less attenuated and the voice is easier to hear. Can be collected. Further, since the sound is collected near the end of the articulatory organ, it is possible to collect articulation, that is, speech with high clarity after a formant characterizing a phoneme is formed. Furthermore, since the sound is collected after the energy is released from the opening (mouth) through the modulation organ from the sound source, the volume transmitted to the nasal cartilage from the proper nasal cavity does not increase so much even with normal utterances. And normal voice can be collected with the same microphone amplifier gain.
以下、本発明の実施の形態を、図面を参照して説明する。なお、以下の説明において参照する各図では、他の図と同等部分は同一符号によって示されている。
まず、非可聴つぶやき(NAM)とは、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則変動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings referred to in the following description, the same parts as those in the other drawings are denoted by the same reference numerals.
First, inaudible tweets (NAM) are vibrations that are tuned by changes in the resonance filter characteristics associated with the movement of the vocal organs, and that are not accompanied by regular vocal cord fluctuations, and are transmitted from the outside through the soft tissue of the inaudible respiratory sound. It is a sound.
(装着位置)
図2(A)は顔面正面図、図2(B)は頭蓋骨側面図、図2(C)は頭蓋骨正面図である。これらの図において、鼻軟骨201の皮膚表面に肉伝導マイクロフォンを装着する。この鼻軟骨201は鼻骨202の下方で、骨が存在しない部分である。なお、図2(B)および図2(C)では、鼻軟骨の位置が斜線により示されている。
ここで、軟骨とは、多少とも繊維を含んだ、弾性に富んだ軟骨基質と軟骨細胞よりなる支持組織である(「マグローヒル科学技術用語大辞典第3版、1998年、日刊工業新聞社」)。
(Mounting position)
2A is a front view of the face, FIG. 2B is a side view of the skull, and FIG. 2C is a front view of the skull. In these figures, a meat conduction microphone is attached to the skin surface of the nasal cartilage 201. The nasal cartilage 201 is a portion below the nasal bone 202 where no bone is present. In FIGS. 2B and 2C, the position of the nasal cartilage is indicated by hatching.
Here, the cartilage is a support tissue composed of a cartilage matrix and chondrocytes rich in elasticity and containing fibers to some extent (“Maglow Hill Science and Technology Glossary 3rd Edition, 1998, Nikkan Kogyo Shimbun”). .
(肉伝導マイクロフォンの構成例)
肉伝導マイクロフォン101の構成例が図3に示されている。同図において、本例の肉伝導マイクロフォン101は、皮膚表面への接触部301と、与えられた圧力に応じた電気信号を出力する圧電素子302と、環状のシールディング304と、空洞部303を確保するための硬質ゴム305と、吸音材306と、外部雑音の影響を抑えるための防振材307と、圧電素子302の出力信号を取り出すためのリード線308とを含んで構成されている。
接触部301には例えば金属板が使用される。シールディング304には例えば銅箔等が用いられる。吸音材306には例えばコルク等が用いられる。防振材307には例えばウレタン等が用いられる。
(Configuration example of meat conduction microphone)
A configuration example of the meat conduction microphone 101 is shown in FIG. In this figure, the meat conduction microphone 101 of this example includes a contact portion 301 to the skin surface, a piezoelectric element 302 that outputs an electric signal corresponding to a given pressure, an annular shielding 304, and a cavity portion 303. It includes a hard rubber 305 for securing, a sound absorbing material 306, a vibration isolating material 307 for suppressing the influence of external noise, and a lead wire 308 for taking out an output signal of the piezoelectric element 302.
For example, a metal plate is used for the contact portion 301. For example, copper foil or the like is used for the shielding 304. For example, cork or the like is used for the sound absorbing material 306. For example, urethane is used for the vibration isolator 307.
(肉伝導マイクロフォンの別の構成例)
肉伝導マイクロフォン101の別の構成例が図4に示されている。同図において、本例の肉伝導マイクロフォン101は、皮膚への接触部2201と、コンデンサマイクロフォン部2202を含んで構成されている。接触部2201は、皮膚からの振動音をコンデンサマイクロフォン2202へ伝導し、シリコーンゴムなどの体内軟部組織の音響インピーダンスに近い音響インピーダンスを有する生体適合性物質が使用される。コンデンサマイクロフォン部2202は、2枚の振動板電極2202a及び2202bと、受信した振動音を電気信号として導出するためのリード線2202cとを有している。
(Another configuration example of a meat conduction microphone)
Another configuration example of the meat conduction microphone 101 is shown in FIG. In the figure, the meat conduction microphone 101 of this example is configured to include a contact portion 2201 to the skin and a condenser microphone portion 2202. For the contact part 2201, a biocompatible substance that conducts vibration sound from the skin to the condenser microphone 2202 and has an acoustic impedance close to the acoustic impedance of the soft tissue in the body, such as silicone rubber, is used. The condenser microphone unit 2202 has two diaphragm electrodes 2202a and 2202b and a lead wire 2202c for deriving the received vibration sound as an electrical signal.
(スペクトラム及び振幅)
図5には、図3に示されている構造の肉伝導マイクロフォン101により、採取したNAM発声音声のスペクトラムが示されている。同図(A)は鼻軟骨201の皮膚表面から、同図(B)は特許文献1に記載されている乳様突起直下の皮膚表面から、それぞれサンプリング周波数16kHzで採取したNAM発声音声のスペクトラムである。両図を参照すると、乳様突起直下では約3kHzまでの音声信号しか採取できないのに対して、鼻軟骨では8kHzまでの音声信号が採取可能なことがわかる。
(Spectrum and amplitude)
FIG. 5 shows a spectrum of the NAM uttered voice collected by the meat conduction microphone 101 having the structure shown in FIG. FIG. 6A shows the spectrum of the NAM vocal sound sampled from the skin surface of the nasal cartilage 201 and FIG. 10B shows the spectrum of the NAM vocal sound sampled from the skin surface immediately below the mastoid process described in Patent Document 1 at a sampling frequency of 16 kHz. is there. Referring to both figures, it can be seen that only an audio signal of up to about 3 kHz can be collected immediately below the mastoid process, whereas an audio signal of up to 8 kHz can be collected from the nasal cartilage.
図6には、図3に示されている構造の肉伝導マイクロフォン101により、採取した通常発声音声のスペクトラムが示されている。同図(A)は鼻軟骨201の皮膚表面から、同図(B)は特許文献1に記載されている乳様突起直下の皮膚表面から、それぞれサンプリング周波数16kHzで採取した通常発声音声のスペクトラムである。両図を参照すると、乳様突起直下では安定して採取できる音声信号が4kHz程度までなのに対して、鼻軟骨では8kHzまで音声信号が採取可能なことがわかる。 FIG. 6 shows a spectrum of a normal uttered voice collected by the meat conduction microphone 101 having the structure shown in FIG. FIG. 6A shows the spectrum of a normal vocal sound sampled from the skin surface of the nasal cartilage 201, and FIG. 10B shows the spectrum of a normal vocal sound sampled at a sampling frequency of 16 kHz from the skin surface immediately below the mastoid process described in Patent Document 1. is there. Referring to both figures, it can be seen that a voice signal that can be stably collected immediately below the mastoid process is about 4 kHz, whereas a voice signal can be collected up to 8 kHz in nasal cartilage.
図7には、図3に示されている構造の肉伝導マイクロフォン101により、採取したNAM発声音声と通常発声音声の波形が示されている。同図(A)は鼻軟骨201の皮膚表面から、同図(B)は特許文献1に記載されている乳様突起直下の皮膚表面から、それぞれサンプリング周波数16kHzで採取したNAM発声音声の波形及び通常発声音声の波形である。両図を参照すると、乳様突起直下では、NAM発声音声と通常発声音声とのレベル差が大きく、NAM発声音声にあわせてマイクアンプのゲインを設定すると、通常発声音声が飽和してしまう。これに対し、鼻軟骨では、NAM発声音声と通常発声音声とのレベル差が比較的小さく、NAM発声音声にあわせてマイクアンプのゲインを設定しても、通常発声音声が飽和しないことがわかる。 FIG. 7 shows waveforms of the NAM uttered voice and the normal uttered voice collected by the meat conduction microphone 101 having the structure shown in FIG. (A) is from the skin surface of the nasal cartilage 201, and (B) is from the skin surface immediately below the mastoid process described in Patent Document 1, respectively, and the waveform of the NAM vocal sound sampled at a sampling frequency of 16 kHz. It is a waveform of a normal voice. Referring to both figures, the level difference between the NAM utterance voice and the normal utterance voice is large immediately below the milky process, and when the gain of the microphone amplifier is set in accordance with the NAM utterance voice, the normal utterance voice is saturated. On the other hand, in the nasal cartilage, the level difference between the NAM voice and the normal voice is relatively small, and it can be seen that the normal voice is not saturated even if the gain of the microphone amplifier is set in accordance with the NAM voice.
図8には、図4に示されている構造の肉伝導マイクロフォン101により、採取されたNAM発声音声のスペクトラムが示されている。同図(A)は鼻軟骨201の皮膚表面から、同図(B)は特許文献1に記載されている乳様突起直下の皮膚表面から、それぞれサンプリング周波数16kHzで採取したNAM発声音声のスペクトラムである。また、図9には、図4に示されている構造の肉伝導マイクロフォン101により、採取された通常発声音声のスペクトラムが示されている。同図(A)は鼻軟骨201の皮膚表面から、同図(B)は特許文献1に記載されている乳様突起直下の皮膚表面から、それぞれサンプリング周波数16kHzで採取したNAM発声音声のスペクトラムである。NAM発声音声、通常発声音声とも鼻軟骨201の皮膚表面からのほうが、乳様突起直下の皮膚表面からよりも、高域まで安定して音声信号が採取可能なことがわかる。 FIG. 8 shows the spectrum of the NAM uttered voice collected by the meat conduction microphone 101 having the structure shown in FIG. FIG. 6A shows the spectrum of the NAM vocal sound sampled from the skin surface of the nasal cartilage 201 and FIG. 10B shows the spectrum of the NAM vocal sound sampled from the skin surface immediately below the mastoid process described in Patent Document 1 at a sampling frequency of 16 kHz. is there. Further, FIG. 9 shows a spectrum of a normal voice collected by the meat conduction microphone 101 having the structure shown in FIG. FIG. 6A shows the spectrum of the NAM vocal sound sampled from the skin surface of the nasal cartilage 201 and FIG. 10B shows the spectrum of the NAM vocal sound sampled from the skin surface immediately below the mastoid process described in Patent Document 1 at a sampling frequency of 16 kHz. is there. It can be seen that both the NAM voice and the normal voice can be collected more stably from the skin surface of the nasal cartilage 201 to a higher frequency than from the skin surface immediately below the mastoid process.
図10には、図4に示されている構造の肉伝導マイクロフォン101により、採取されたNAM発声音声と通常発声の波形が示されている。同図(A)は鼻軟骨201の皮膚表面から、同図(B)は特許文献1に記載されている乳様突起直下の皮膚表面から、それぞれサンプリング周波数16kHzで採取したNAM発声音声の波形及び通常発声音声の波形である。両図を参照すると、鼻軟骨201の皮膚表面から採取したほうが、乳様突起直下の皮膚表面から採取するよりも、NAM発声音声と通常発声のレベル差が小さくなることがわかる。 FIG. 10 shows waveforms of the NAM voice and the normal voice collected by the meat conduction microphone 101 having the structure shown in FIG. (A) is from the skin surface of the nasal cartilage 201, and (B) is from the skin surface immediately below the mastoid process described in Patent Document 1, respectively, and the waveform of the NAM vocal sound sampled at a sampling frequency of 16 kHz. It is a waveform of a normal voice. Referring to both figures, it can be seen that the level difference between the NAM voice and the normal voice is smaller when it is collected from the skin surface of the nasal cartilage 201 than when it is collected from the skin surface immediately below the mastoid process.
(肉伝導マイクロフォンの装着方法)
次に、肉伝導マイクロフォン101の装着方法について説明する。
(1)クリップ型
図11(A)は肉伝導マイクロフォン101の構成を示す正面図、同図(B)は同図(A)矢印Y方向から見たの側面図、である。同図(A)及び同図(B)を参照すると、共通の支点となる支軸103に一端が接続された一対の支持部材103a及び103bと、これら一対の支持部材103a及び103bの他端同士を互いに接近させるように付勢するバネ702とによってクリップが形成され、支持部材103aの他端に肉伝導マイクロフォン101が設けられている。そして、このクリップを、図11(C)に示されているように、鼻軟骨をつまむようにして固定して装着する。ここで、同図(A)を参照すると、本例では装着性を安定させるためのダミー701が設けられている。肉伝導マイクロフォン101の位置とダミー701の位置とが左右反対でもよく、ダミー701の代わりに、肉伝導マイクロフォン101と同様の肉伝導マイクロフォンを設けてもよい。
(How to wear a meat conduction microphone)
Next, a method for attaching the meat conduction microphone 101 will be described.
(1) Clip type FIG. 11 (A) is a front view showing the configuration of the meat conduction microphone 101, and FIG. 11 (B) is a side view as seen from the direction of arrow Y in FIG. Referring to FIGS. 1A and 1B, a pair of support members 103a and 103b having one end connected to a support shaft 103 serving as a common fulcrum, and the other ends of the pair of support members 103a and 103b. A clip is formed by a spring 702 that urges them to approach each other, and a meat conduction microphone 101 is provided at the other end of the support member 103a. Then, as shown in FIG. 11 (C), the clip is fixed and attached so as to pinch the nasal cartilage. Here, referring to FIG. 3A, in this example, a dummy 701 for stabilizing the mounting property is provided. The position of the meat conduction microphone 101 and the position of the dummy 701 may be opposite to each other, and a meat conduction microphone similar to the meat conduction microphone 101 may be provided instead of the dummy 701.
(2)耳掛けフレーム型
また、別の装着方法が図12に示されている。図12(A)を参照すると、鼻軟骨上の皮膚表面に沿った逆U字形状を有し、その皮膚表面に肉伝導マイクロフォン101及びダミー701が接触している状態を維持する支持部800と、左右の耳介それぞれに掛けるための一対の耳掛け部801L及び801Rと、一対の耳掛け部801L及び801Rと支持部800との間を接続するアーム部801a及び801bとによって、耳掛けフレームが形成されている。そして、この耳掛けフレームを、同図(B)に示されているように装着する。すなわち、耳掛け部801Lを左耳の耳介に掛け、同様に耳掛け部801Rを右耳の耳介に掛ける。そして、支持部800を、鼻軟骨上の皮膚表面に沿う位置に装着し、鼻軟骨上の皮膚表面に肉伝導マイクロフォン101及びダミー701が接触している状態とする。なお、肉伝導マイクロフォン101の位置とダミー701の位置とが左右反対でもよく、ダミー701の代わりに、肉伝導マイクロフォン101と同様の肉伝導マイクロフォンを設けてもよい。
(2) Ear-hanging frame type Another mounting method is shown in FIG. Referring to FIG. 12 (A), the support 800 has an inverted U shape along the skin surface on the nasal cartilage and maintains the state where the meat conduction microphone 101 and the dummy 701 are in contact with the skin surface. The pair of ear hooks 801L and 801R for hanging on the left and right pinna respectively, and the arm portions 801a and 801b connecting the pair of ear hooks 801L and 801R and the support portion 800, the ear hook frame is formed. Is formed. Then, the ear hook frame is attached as shown in FIG. That is, the ear hook 801L is hung on the left ear pinna, and the ear hook 801R is similarly hung on the right ear pinna. Then, the support portion 800 is mounted at a position along the skin surface on the nasal cartilage, and the meat conduction microphone 101 and the dummy 701 are in contact with the skin surface on the nasal cartilage. Note that the position of the meat conduction microphone 101 and the position of the dummy 701 may be opposite to each other, and a meat conduction microphone similar to the meat conduction microphone 101 may be provided instead of the dummy 701.
(3)弾性バンド型
図13(A)に示されているような肉伝導マイクロフォン101及びダミー701が取り付けられたバンド901を用いてもよい。このバンド901は、鼻軟骨上の皮膚表面を含む頭部皮膚表面に装着された環状の弾性体であり、例えばゴムで形成される。そして、バンド901の内面には、肉伝導マイクロフォン101とダミー701とが取り付けられている。
同図(B)には、バンド901の装着状態が示されている。この装着状態においては、バンド901の弾性力により、鼻軟骨上の皮膚表面に肉伝導マイクロフォン101とダミー701とが接触している状態を維持することができる。なお、肉伝導マイクロフォン101の位置とダミー701の位置とが左右反対でもよく、ダミー701の代わりに、肉伝導マイクロフォン101と同様の肉伝導マイクロフォンを設けてもよい。
(3) Elastic Band Type A band 901 to which the meat conduction microphone 101 and the dummy 701 as shown in FIG. 13A are attached may be used. The band 901 is an annular elastic body attached to the head skin surface including the skin surface on the nasal cartilage, and is formed of rubber, for example. The meat conduction microphone 101 and the dummy 701 are attached to the inner surface of the band 901.
FIG. 5B shows a state where the band 901 is attached. In this mounted state, the state where the meat conduction microphone 101 and the dummy 701 are in contact with the skin surface on the nasal cartilage can be maintained by the elastic force of the band 901. Note that the position of the meat conduction microphone 101 and the position of the dummy 701 may be opposite to each other, and a meat conduction microphone similar to the meat conduction microphone 101 may be provided instead of the dummy 701.
(4)鼻キャップ型
さらに、図14(A)に示されているように、鼻用キャップ1001と耳掛けバンドとを組み合わせた構造を採用しても良い。この鼻用キャップ1001は、道化師が付けるような卵型の中空構造である。鼻用キャップ1001は例えば合成樹脂で成型し、その内面に肉伝導マイクロフォン101及びダミー701を設ける。鼻用キャップ1001には、装着者の左右の耳介に掛けるための耳掛けバンド1002R及び1002Lが設けられている。耳掛けバンド1002R及び1002Lには、ゴムなど伸縮性のある素材を採用する。
(4) Nose Cap Type Further, as shown in FIG. 14A, a structure in which a nose cap 1001 and an ear strap are combined may be employed. The nasal cap 1001 has an egg-shaped hollow structure that a clown attaches. The nose cap 1001 is formed of, for example, a synthetic resin, and the meat conduction microphone 101 and the dummy 701 are provided on the inner surface thereof. The nose cap 1001 is provided with ear straps 1002R and 1002L for hanging on the left and right auricles of the wearer. The ear straps 1002R and 1002L are made of a stretchable material such as rubber.
同図(B)には、装着状態が示されている。同図に示されているように、耳掛けバンド1002R、1002Lと、装着者の左右の耳介それぞれとの間に、耳掛けバンドを掛ければ、耳掛けバンド1002R、1002Lの弾性力により鼻軟骨上の皮膚表面に肉伝導マイクロフォン101及びダミー701が接触している状態を維持することができる。なお、肉伝導マイクロフォン101の位置とダミー701の位置とが左右反対でもよく、ダミー701の代わりに、肉伝導マイクロフォン101と同様の肉伝導マイクロフォンを設けてもよい。 FIG. 2B shows the mounted state. As shown in the figure, when the ear strap is hung between the ear straps 1002R and 1002L and the left and right pinna of the wearer, the elastic force of the ear straps 1002R and 1002L causes the nasal cartilage. The state where the meat conduction microphone 101 and the dummy 701 are in contact with the upper skin surface can be maintained. Note that the position of the meat conduction microphone 101 and the position of the dummy 701 may be opposite to each other, and a meat conduction microphone similar to the meat conduction microphone 101 may be provided instead of the dummy 701.
図1は、本発明によるコミュニケーションインタフェースシステムを携帯電話システムに適用した場合の構成例を示す図である。通話者100は、肉伝導マイクロフォン101を鼻軟骨の皮膚表面にあてる。肉伝導マイクロフォン101を装着する鼻軟骨の位置が図2に示されている。
肉伝導マイクロフォン101は、マイクロフォンケーブル104、イヤフォン・マイクロフォンケーブル105により携帯電話機106に接続される。イヤフォン102は耳孔内に装着され、肉伝導マイクロフォン101と同じく、イヤフォン・マイクロフォンケーブル105により携帯電話機106に接続されている。イヤフォン102の代わりにスピーカを用いても良い。無線ネットワーク107は、例えば、無線基地局109a及び109bと、基地局制御装置110a及び110bと、交換機111a及び111bと、通信網108とを含んで構成されている。本例では、携帯電話機112が無線基地局109bと無線通信することにより、携帯電話機106と携帯電話機112との間で通話が可能となる。
FIG. 1 is a diagram showing a configuration example when a communication interface system according to the present invention is applied to a mobile phone system. The caller 100 places the meat conduction microphone 101 on the skin surface of the nasal cartilage. The position of the nasal cartilage to which the meat conduction microphone 101 is attached is shown in FIG.
The meat conduction microphone 101 is connected to the mobile phone 106 by a microphone cable 104 and an earphone / microphone cable 105. The earphone 102 is mounted in the ear canal and is connected to the mobile phone 106 by an earphone / microphone cable 105, as in the meat conduction microphone 101. A speaker may be used instead of the earphone 102. The radio network 107 includes, for example, radio base stations 109a and 109b, base station controllers 110a and 110b, exchanges 111a and 111b, and a communication network 108. In this example, the mobile phone 112 wirelessly communicates with the radio base station 109b, thereby enabling a call between the mobile phone 106 and the mobile phone 112.
図15は通話者100が発声した非可聴つぶやき音(NAM)あるいは通常音声が相手側に伝わるまでのフローチャート、図16は相手側が発声した音声が通話者100に伝わるまでのフローチャートである。
図15において、通話者100の非可聴つぶやき音(NAM)あるいは通常音声などの体内軟部組織を伝導する振動音1101は、鼻軟骨の皮膚表面から肉伝導マイクロフォン101の接触部301に伝わり(ステップ1102)、マイクロフォン内の圧電素子302を振動させることによって電気信号となりリード線308から取り出される(ステップ1103)。この電気信号が有線の通信手段により、携帯電話機106に送信される(ステップ1104)。
携帯電話機106に送信された電気信号は、無線ネットワーク107を介して、通話相手の携帯電話機112に送信され(ステップ1105)、通話相手の携帯電話機112のスピーカで電気信号から振動音に変換されて(ステップ1106)、通話者100の再生音声1107となる。
FIG. 15 is a flowchart until the non-audible murmur (NAM) or normal voice uttered by the caller 100 is transmitted to the other party, and FIG. 16 is a flowchart until the voice uttered by the other party is transmitted to the caller 100.
In FIG. 15, the vibration sound 1101 conducted through the soft tissue of the body such as a non-audible murmur (NAM) or normal voice of the caller 100 is transmitted from the skin surface of the nasal cartilage to the contact portion 301 of the meat conduction microphone 101 (step 1102). ), The piezoelectric element 302 in the microphone is vibrated to become an electric signal, which is taken out from the lead wire 308 (step 1103). This electrical signal is transmitted to the mobile phone 106 by wired communication means (step 1104).
The electric signal transmitted to the mobile phone 106 is transmitted to the mobile phone 112 of the call partner via the wireless network 107 (step 1105), and is converted from the electrical signal to the vibration sound by the speaker of the mobile phone 112 of the call partner. (Step 1106), the playback voice 1107 of the caller 100 is obtained.
一方、図16において、通話相手の音声1201は、通話相手の携帯電話機112のマイクロフォンで電気信号に変換され(ステップ1202)、無線ネットワーク107を経由して、携帯電話機106に送信される(ステップ1203)。電気信号はさらに携帯電話機106から有線の通話手段により、イヤフォン102またはスピーカに送信され(ステップ1204)、イヤフォン102またはスピーカで電気信号から振動音に変換されて(ステップ1205)、通話相手の再生音声1206となる。なお、携帯電話機106に内蔵のスピーカから音声を直接聞く場合は、イヤフォン102は必要ない。この場合、例えば、図17に示すように、プラスチックや形状記憶合金など弾性素材ででき、肉伝導マイクロフォン101と一体化され、肉伝導マイクロフォン101からの信号を携帯電話機106に伝達するマイク接続部2601の先端を携帯電話機106のイヤフォンマイク端子に差込み、肉伝導マイクロフォン101の接触部301が鼻軟骨の皮膚表面に安定して接触するようにマイク接続部2601の曲がり具合や携帯電話機106の位置を調整して、肉伝導マイクロフォン101と携帯電話機106に内蔵のスピーカを使用して通話を行っても良い。 On the other hand, in FIG. 16, the other party's voice 1201 is converted into an electrical signal by the microphone of the other party's mobile phone 112 (step 1202) and transmitted to the mobile phone 106 via the wireless network 107 (step 1203). ). The electric signal is further transmitted from the mobile phone 106 to the earphone 102 or the speaker by a wired communication means (step 1204), and the earphone 102 or the speaker converts the electric signal into a vibration sound (step 1205), and the other party's reproduced sound is reproduced. 1206. Note that the earphone 102 is not necessary when the user directly listens to the sound from the speaker built in the mobile phone 106. In this case, for example, as shown in FIG. 17, a microphone connection portion 2601 that is made of an elastic material such as plastic or shape memory alloy, is integrated with the meat conduction microphone 101, and transmits a signal from the meat conduction microphone 101 to the mobile phone 106. Is inserted into the earphone microphone terminal of the mobile phone 106, and the bending state of the microphone connection portion 2601 and the position of the mobile phone 106 are adjusted so that the contact portion 301 of the meat conduction microphone 101 stably contacts the skin surface of the nasal cartilage. Then, a call may be made using the built-in speaker in the meat conduction microphone 101 and the mobile phone 106.
図18は、本発明によるコミュニケーションインタフェースシステムを携帯電話システムに適用した場合の他の構成例を示す図である。
本例では、肉伝導マイクロフォン101及びイヤフォン102が、携帯電話機106と無線の通信手段で接続されている。同図において、本例のシステムでは、肉伝導マイクロフォン101及びイヤフォン102側の第1の無線通信ユニット1301と、携帯電話機106側の第2の無線通信ユニット1302との間で無線通信を行う。
FIG. 18 is a diagram showing another configuration example when the communication interface system according to the present invention is applied to a mobile phone system.
In this example, the meat conduction microphone 101 and the earphone 102 are connected to the mobile phone 106 by wireless communication means. In the figure, in the system of this example, wireless communication is performed between the first wireless communication unit 1301 on the meat conduction microphone 101 and the earphone 102 side and the second wireless communication unit 1302 on the mobile phone 106 side.
第1の無線通信ユニット1301及び第2の無線通信ユニット1302の内部構成例が図19に示されている。同図に示されているように、第1の無線通信ユニット1301は、例えばBluetooth(登録商標)などの規格に準拠したデジタル無線通信部1401、アンテナ1406、マイクアンプ1402、スピーカアンプ1405、ADコンバータ1403、DAコンバータ1404、電池1407を含んで構成されている。 An example of the internal configuration of the first radio communication unit 1301 and the second radio communication unit 1302 is shown in FIG. As shown in the figure, the first wireless communication unit 1301 includes a digital wireless communication unit 1401 compliant with a standard such as Bluetooth (registered trademark), an antenna 1406, a microphone amplifier 1402, a speaker amplifier 1405, and an AD converter. 1403, a DA converter 1404, and a battery 1407.
一方、携帯電話機109側の第2の無線通信ユニット1302は、デジタル無線通信部1401に対応したデジタル無線通信部1408とアンテナ1411、ADコンバータ1409、DAコンバータ1410、電池1412を含んで構成されている。
ここで、デジタル無線通信部1401とデジタル無線通信部1408とは同一ものでよく、第2の無線通信ユニット1302は、携帯電話機106内に収納されてもよい。第2の無線通信ユニット1302が、携帯電話機106内に収納されない場合、第2の無線通信ユニット1302は、携帯電話機109のイヤフォンマイク端子を介して携帯電話機106に接続される。また、第2の無線通信ユニット1302が携帯電話機106から電源を供給してもらえる場合には、電池1412は不要である。
On the other hand, the second wireless communication unit 1302 on the mobile phone 109 side includes a digital wireless communication unit 1408 corresponding to the digital wireless communication unit 1401, an antenna 1411, an AD converter 1409, a DA converter 1410, and a battery 1412. .
Here, the digital wireless communication unit 1401 and the digital wireless communication unit 1408 may be the same, and the second wireless communication unit 1302 may be housed in the mobile phone 106. When the second wireless communication unit 1302 is not housed in the mobile phone 106, the second wireless communication unit 1302 is connected to the mobile phone 106 via the earphone microphone terminal of the mobile phone 109. Further, when the second wireless communication unit 1302 can supply power from the mobile phone 106, the battery 1412 is not necessary.
このような構成において、通話者100が発声した場合には、通話者100の非可聴つぶやき音(NAM)あるいは通常音声などにより生成され、リード線308から取り出された電気信号は、マイクアンプ1402で増幅され、ADコンバータ1403でデジタル信号に変換された後、デジタル無線通信部1401でデジタル変調されてアンテナ1406より送信される。送信信号は、携帯電話機106側のアンテナ1411で受信され、デジタル無線通信部1408でデジタル復調された後に、DAコンバータ1420でアナログ信号に変換され、携帯電話機106に取り込まれる。 In such a configuration, when the caller 100 utters, the electric signal generated by the inaudible murmur (NAM) or normal voice of the caller 100 and taken out from the lead wire 308 is output by the microphone amplifier 1402. After being amplified and converted into a digital signal by the AD converter 1403, it is digitally modulated by the digital wireless communication unit 1401 and transmitted from the antenna 1406. The transmission signal is received by the antenna 1411 on the mobile phone 106 side, digitally demodulated by the digital wireless communication unit 1408, converted to an analog signal by the DA converter 1420, and taken into the mobile phone 106.
一方、通話相手が発声した場合は、通話相手の音声はADコンバータ1409でデジタル信号に変換され、デジタル無線通信部1408でデジタル変調された後、アンテナ1411から送信され、アンテナ1406で受信される。受信信号はデジタル無線通信部1401でデジタル復調され、DAコンバータ1404でアナログ信号に変換された後、スピーカアンプ1405で増幅され、イヤフォン102に入力される。 On the other hand, when the other party speaks, the other party's voice is converted into a digital signal by the AD converter 1409, digitally modulated by the digital wireless communication unit 1408, transmitted from the antenna 1411, and received by the antenna 1406. The received signal is digitally demodulated by the digital wireless communication unit 1401, converted to an analog signal by the DA converter 1404, amplified by the speaker amplifier 1405, and input to the earphone 102.
デジタル無線通信部1401、デジタル無線通信部1408として、例えばBluetooth(登録商標) Ver1.1に準拠したものを使用した場合、最大通信速度は721kbpsとなり、さらに出力がBluetooth(登録商標) Class2に対応している場合、デジタル無線通信部1402、デジタル無線通信部1408の出力は最大4dBmで、見通しの条件において10m程度の通信が可能となる。 For example, when the digital wireless communication unit 1401 and the digital wireless communication unit 1408 compliant with Bluetooth (registered trademark) Ver1.1 are used, the maximum communication speed is 721 kbps, and the output corresponds to Bluetooth (registered trademark) Class2. In this case, the output of the digital wireless communication unit 1402 and the digital wireless communication unit 1408 is a maximum of 4 dBm, and communication of about 10 m is possible under the line-of-sight condition.
図20は、本発明によるコミュニケーションインタフェースシステムを、音声認識システムに応用した場合の構成例を示す図である。
図1の場合と同様に、使用者1500は、肉伝導マイクロフォン101を鼻軟骨の皮膚表面に装着する。使用者1500が非可聴つぶやき音(NAM)あるいは通常音声などで発声したコマンドまたは、かな列によって生ずる、体内軟部組織を伝導する振動音は、鼻軟骨の皮膚表面から肉伝導マイクロフォン101の接触部301に伝わり、マイクロフォン内の圧電素子302を振動させることによって電気信号となりリード線308から取り出される。
FIG. 20 is a diagram showing a configuration example when the communication interface system according to the present invention is applied to a voice recognition system.
As in the case of FIG. 1, the user 1500 wears the meat conduction microphone 101 on the skin surface of the nasal cartilage. The vibration sound transmitted through the soft tissue of the body generated by a command or a kana train uttered by the user 1500 with a non-audible murmur (NAM) or normal voice is generated from the skin surface of the nasal cartilage and the contact portion 301 of the meat conduction microphone 101. Then, the piezoelectric element 302 in the microphone is vibrated to become an electric signal and taken out from the lead wire 308.
この電気信号がマイクロフォンケーブル104により音声認識機能を持ったパーソナルコンピュータ1501または携帯端末1502に送信され、パーソナルコンピュータ1501または携帯端末1502において音声認識が行われる。認識結果は、例えば、パーソナルコンピュータ1501または携帯端末1502において動作するアプリケーションを起動/制御するためのコマンドとして使用される。また、肉伝導マイクロフォン101からの電気信号を、Bluetooth(登録商標)などの無線の通信手段により、パーソナルコンピュータ1501または携帯端末1502に送信してもよい。 This electric signal is transmitted to the personal computer 1501 or the portable terminal 1502 having the voice recognition function through the microphone cable 104, and the personal computer 1501 or the portable terminal 1502 performs voice recognition. The recognition result is used as, for example, a command for starting / controlling an application operating on the personal computer 1501 or the portable terminal 1502. Further, the electrical signal from the meat conduction microphone 101 may be transmitted to the personal computer 1501 or the portable terminal 1502 by wireless communication means such as Bluetooth (registered trademark).
図21は、本発明によるコミュニケーションインタフェースシステムを、音声認証によるドアロック解錠システムに適用した場合の構成例を示すブロック図である。ここで、音声認証アルゴリズムには、例えば文献「生体認証技術」瀬戸洋一著、共立出版社2002年5月 P.64〜68に記載されているような方式を用いる。この方式は、まず、キーワードを発声して音声パターンを登録しておき、認証時に同一キーワードを発声して登録パターンとの類似度を計算し、予め設定した閾値と比較して本人かどうか判定を行う方式である。 FIG. 21 is a block diagram showing a configuration example when the communication interface system according to the present invention is applied to a door lock unlocking system based on voice authentication. Here, the voice authentication algorithm includes, for example, the document “Biometric authentication technology” written by Yoichi Seto, May 2002, Kyoritsu Publishing Co., Ltd. A method as described in 64-68 is used. In this method, first, a voice pattern is registered by uttering a keyword, the same keyword is uttered at the time of authentication, the similarity to the registered pattern is calculated, and compared with a preset threshold value to determine whether or not the person is the person. It is a method to do.
同図において、ドアロック解錠システムは、肉伝導マイクロフォン101と、音声前処理部1601と、音声認証システム1604と、ドアロック制御システム1607と、ドア1608とから構成されている。さらに音声前処理部1601は、マイクアンプ1602とADコンバータ1603とからなり、音声認証システム1604は音声認証部1605と登録パターン記憶部1606とからなる。 In the figure, the door lock unlocking system includes a meat conduction microphone 101, a voice preprocessing unit 1601, a voice authentication system 1604, a door lock control system 1607, and a door 1608. Further, the voice preprocessing unit 1601 includes a microphone amplifier 1602 and an AD converter 1603, and the voice authentication system 1604 includes a voice authentication unit 1605 and a registered pattern storage unit 1606.
このような構成において、ドアロックを解錠したい場合、認証登録者1600は、鼻軟骨の皮膚表面に肉伝導マイクロフォン101を装着し、認証用キーワードを、非可聴つぶやき音(NAM音)または通常音で発声する。前記NAM音または通常音は肉伝導マイクロフォン101により採取され電気信号に変換された後、マイクロフォンケーブル104を通して音声前処理部1601内のマイクアンプ1602に入力される。電気信号に変換されたNAM音または通常音は、マイクアンプ1602で増幅され、ADコンバータ1603でデジタル化された後、音声認証部1605へ入力される。音声認証部1605は、あらかじめ登録用に発声されたNAM音または通常音をもとに作成・登録され、登録パターン記憶部1606に記憶された音声パターンと、認証時に発声されたNAM音または通常音との類似度を計算し、あらかじめ設定した閾値と比較して、発話者1600が部屋への入出権限を持つものか否かを判断する。 In such a configuration, when it is desired to unlock the door lock, the authentication registrant 1600 wears the meat conduction microphone 101 on the skin surface of the nasal cartilage and sets an authentication keyword as an inaudible murmur (NAM sound) or normal sound. Say. The NAM sound or normal sound is collected by the meat conduction microphone 101 and converted into an electric signal, and then input to the microphone amplifier 1602 in the sound preprocessing unit 1601 through the microphone cable 104. The NAM sound or normal sound converted into the electrical signal is amplified by the microphone amplifier 1602, digitized by the AD converter 1603, and then input to the voice authentication unit 1605. The voice authentication unit 1605 is created and registered based on the NAM sound or normal sound uttered for registration in advance, and stored in the registered pattern storage unit 1606, and the NAM sound or normal sound uttered at the time of authentication. Is compared with a threshold value set in advance, and it is determined whether or not the speaker 1600 has authority to enter and exit the room.
音声認証部1605で得られた判断結果はドアロック制御システム1607へ送信され、ドアロック制御システム1607は前記判断結果に従い、入出権限を持つものと判断された場合に、ドア1608のドアロックを一定時間開錠する。
なお、認証対象者1600は、NAM発声、通常発声いずれの方法で発声してもよいが、登録時と認証時で同じ発声方法を用いる必要がある。ただし、登録時に、NAM発声と通常発声の両方の登録パターンを用意し、認証時には、周囲の状況に応じて発声方法を選択することも可能である。また、肉伝導マイクロフォン101からの電気信号を、Bluetooth(登録商標)などの無線の通信手段により、音声前処理部1601に送信してもよい。
The determination result obtained by the voice authentication unit 1605 is transmitted to the door lock control system 1607. When the door lock control system 1607 determines that the user has authority to enter and exit according to the determination result, the door lock of the door 1608 is fixed. Unlock for hours.
Note that the authentication target person 1600 may utter either NAM utterance or normal utterance, but it is necessary to use the same utterance method during registration and authentication. However, it is also possible to prepare registration patterns for both NAM utterances and normal utterances at the time of registration, and to select an utterance method according to the surrounding situation at the time of authentication. Further, the electrical signal from the meat conduction microphone 101 may be transmitted to the sound preprocessing unit 1601 by wireless communication means such as Bluetooth (registered trademark).
図22は、本発明によるコミュニケーションインタフェースシステムを、腹話術システムに適用した場合の構成例を示すブロック図である。腹話術システムは、操作者1700と腹話術人形1701から構成され、さらに腹話術人形1701は、音声処理ユニット1702とスピーカ1703を含む。音声処理ユニット1702の内部構成例を図23に示す。音声処理ユニット1702は、マイクアンプ1801、ADコンバータ1802、有音声出力部1803、DAコンバータ1804、スピーカアンプ1805、電池1806を有する。 FIG. 22 is a block diagram showing a configuration example when the communication interface system according to the present invention is applied to a ventral talk system. The stomach narrative system includes an operator 1700 and a stomach doll 1701, and the stomach doll 1701 further includes an audio processing unit 1702 and a speaker 1703. An example of the internal configuration of the audio processing unit 1702 is shown in FIG. The audio processing unit 1702 includes a microphone amplifier 1801, an AD converter 1802, a voice output unit 1803, a DA converter 1804, a speaker amplifier 1805, and a battery 1806.
操作者1700は、鼻軟骨の皮膚表面に肉伝導マイクロフォン101を装着し、腹話術人形1701に喋らせたい発話内容を、唇の動作を最小限に抑えて第三者には聞こえぬようにし、非可聴つぶやき音(NAM音)でつぶやく。前記非可聴つぶやき音(NAM音)は肉伝導マイクロフォン101により採取され、電気信号に変換された後、マイクロフォンケーブル104を通して腹話術人形内部の音声処理ユニット1702内のマイクアンプ1801に入力される。電気信号に変換されたNAM音は、マイクアンプ1801で増幅され、ADコンバータ1802でデジタル化された後、有音声出力部1803へ入力される。 The operator 1700 wears the meat conduction microphone 101 on the skin surface of the nasal cartilage so that the utterance content that the abdomen doll 1701 wants to talk to is not heard by a third party with minimal lip movement. Tweet with an audible tweet (NAM sound). The inaudible murmur sound (NAM sound) is collected by the meat conduction microphone 101, converted into an electric signal, and then input to the microphone amplifier 1801 in the voice processing unit 1702 inside the ventral doll through the microphone cable 104. The NAM sound converted into the electric signal is amplified by the microphone amplifier 1801, digitized by the AD converter 1802, and then input to the voice output unit 1803.
有音声出力部1803では入力されたNAM音を聞きやすい音声に変換する。音声変換された音声信号はDAコンバータ1804でアナログ信号に戻され、スピーカアンプ1805で出力レベルを調整された後、腹話術人形の喉付近に取り付けられたスピーカ1703から音声として出力される。操作者1700はスピーカ1703から出る音声に応じて腹話術人形1の口を動かし、可聴音声を出力することで腹話術を実現することができる。なお、腹話術人形を動かす方法は、例えば、口形状変化制御装置を使ってもよいし、手動で動かしても構わない。また口形状変化制御装置を使う場合、その口形状変化制御装置の駆動を開始するタイミング、駆動している時間の情報を音声処理ユニット1702から得てもよい。 The voiced output unit 1803 converts the input NAM sound into a voice that is easy to hear. The voice signal after voice conversion is converted back to an analog signal by the DA converter 1804, the output level is adjusted by the speaker amplifier 1805, and then output as a voice from the speaker 1703 attached near the throat of the ventral doll. The operator 1700 moves the mouth of the abdominal doll 1 according to the sound output from the speaker 1703, and can output the audible sound to realize the abdominal narrative. In addition, the method of moving a ventral puppet may use a mouth shape change control apparatus, for example, and may move it manually. When the mouth shape change control device is used, information on the timing for starting driving the mouth shape change control device and the driving time may be obtained from the voice processing unit 1702.
ここで、有音声出力部1803におけるつぶやき音から聞きやすい音声への変換は、例えば、フォルマント周波数と基本周波数の相関関係を利用して、つぶやき音のフォルマント周波数から基本周波数を推定し、つぶやき音に基本周波数を付与して有声音として出力することにより可能である。
また、音声処理ユニット1702は操作者1700が保持してもよい。さらに、肉伝導マイクロフォン101からの電気信号を、Bluetooth(登録商標)などの無線の通信手段により、音声処理ユニット1702に送信してもよい。
Here, the conversion from the tweet sound to the easy-to-hear sound in the voice output unit 1803 is performed by, for example, estimating the fundamental frequency from the formant frequency of the tweet sound using the correlation between the formant frequency and the fundamental frequency, and converting the tweet sound into the tweet sound. This is possible by giving a fundamental frequency and outputting as a voiced sound.
The voice processing unit 1702 may be held by the operator 1700. Furthermore, the electrical signal from the meat conduction microphone 101 may be transmitted to the audio processing unit 1702 by wireless communication means such as Bluetooth (registered trademark).
図24は、本発明によるコミュニケーションインタフェースシステムを、音声障害者会話支援システムとして利用した場合の構成例を示すブロック図である。音声障害者会話支援システムは、声帯を切除してしまったり、声帯に障害があるため声帯を使用した通常の発声が困難な人、または、呼吸筋が衰弱しているなどの原因で通常レベルの発声が困難な人の会話を支援するシステムである。本システムは、使用者1900とスピーカ内蔵音声処理ユニット1901とから成り、スピーカ内蔵音声処理ユニット1901は、使用者の胸ポケット等に収納される。 FIG. 24 is a block diagram showing a configuration example when the communication interface system according to the present invention is used as a speech disabled person conversation support system. The speech support system for people with speech disabilities is usually at a normal level because the vocal cords have been removed, the vocal cords are impaired, and normal vocalization using the vocal cords is difficult, or the respiratory muscles are weak. This system supports conversations of people who have difficulty speaking. This system comprises a user 1900 and a speaker built-in sound processing unit 1901. The speaker built-in sound processing unit 1901 is housed in the chest pocket of the user.
スピーカ内蔵音声処理ユニット1901の内部構成例が図25に示されている。同図において、スピーカ内蔵音声処理ユニット1901は、マイクアンプ2001、ADコンバータ2002、有音声出力部2003、DAコンバータ2004、スピーカアンプ2005、スピーカ2006、電池2007を含んで構成されている。 An example of the internal configuration of the speaker built-in voice processing unit 1901 is shown in FIG. In the figure, a speaker built-in sound processing unit 1901 includes a microphone amplifier 2001, an AD converter 2002, a voice output unit 2003, a DA converter 2004, a speaker amplifier 2005, a speaker 2006, and a battery 2007.
使用者1900は、鼻軟骨の皮膚表面に肉伝導マイクロフォン101を装着し、会話相手に伝えたい内容をつぶやく。このつぶやき音は肉伝導マイクロフォン101により採取され、電気信号に変換された後、マイクロフォンケーブル104を通してスピーカ内蔵音声処理ユニット1901内のマイクアンプ2001に入力される。電気信号に変換されたつぶやき音は、マイクアンプ2001で増幅され、ADコンバータ2002でデジタル化された後、有音声出力部2003へ入力される。有音声出力部2003では入力されたつぶやき音を聞きやすい音声に変換する。音声変換された音声信号はDAコンバータ2004でアナログ信号に戻され、スピーカアンプ2005で出力レベルを調整された後、スピーカ2006から音声として出力される。
ここで、有音声出力部2003におけるつぶやき音から聞きやすい音声への変換は、例えば、フォルマント周波数と基本周波数の相関関係を利用して、つぶやき音のフォルマント周波数から基本周波数を推定し、つぶやき音に基本周波数を付与して有声音として出力することにより可能である。
The user 1900 wears the meat conduction microphone 101 on the skin surface of the nasal cartilage and murmurs the content to be communicated to the conversation partner. This murmur sound is collected by the meat conduction microphone 101, converted into an electric signal, and then input to the microphone amplifier 2001 in the speaker built-in sound processing unit 1901 through the microphone cable 104. The tweet sound converted into an electric signal is amplified by the microphone amplifier 2001, digitized by the AD converter 2002, and then input to the voiced output unit 2003. The voiced output unit 2003 converts the inputted tweet sound into a voice that is easy to hear. The sound signal after the sound conversion is returned to an analog signal by the DA converter 2004, and the output level is adjusted by the speaker amplifier 2005, and then output from the speaker 2006 as sound.
Here, the conversion from the tweet sound to the easy-to-hear sound in the voice output unit 2003 is performed by, for example, estimating the fundamental frequency from the formant frequency of the tweet sound by using the correlation between the formant frequency and the fundamental frequency, and converting the tweet sound into the tweet sound. This is possible by giving a fundamental frequency and outputting as a voiced sound.
また、マイクアンプ2001で増幅されたつぶやき音のままでも、会話相手が発話内容を十分理解できる場合は、図26に示されているように、マイクアンプ2001をスピーカ2006と電池2007のみからなる簡易型スピーカ内蔵音声処理ユニット2101を用いて、肉伝導マイクロフォン101により採取され電気信号に変換されたつぶやき音を、簡易型スピーカ内蔵音声処理ユニット1901内のマイクアンプ2001で増幅し、スピーカ2006から音声として出力してもよい。 Further, when the conversation partner can sufficiently understand the utterance contents even with the tweet sound amplified by the microphone amplifier 2001, the microphone amplifier 2001 is simply composed of only the speaker 2006 and the battery 2007 as shown in FIG. The tweet sound collected by the meat conduction microphone 101 and converted into an electric signal is amplified by the microphone amplifier 2001 in the simplified speaker built-in sound processing unit 1901 using the built-in speaker built-in sound processing unit 2101, It may be output.
肉伝導マイクロフォン101からの電気信号を、Bluetooth(登録商標)などの無線の通信手段により、スピーカ内蔵音声処理ユニット1901または簡易型スピーカ内蔵音声処理ユニット2101に送信してもよい。また、スピーカ内蔵音声処理ユニット1901または簡易型スピーカ内蔵音声処理ユニット2101からスピーカ2006を取り出し、ユニット外部に設置してもよい。 The electric signal from the meat conduction microphone 101 may be transmitted to the speaker built-in sound processing unit 1901 or the simplified speaker built-in sound processing unit 2101 by wireless communication means such as Bluetooth (registered trademark). Further, the speaker 2006 may be taken out from the speaker built-in sound processing unit 1901 or the simplified speaker built-in sound processing unit 2101 and installed outside the unit.
本発明により、周囲の人に気づかれずに高品質の音声入力が可能となることにより、電車内などの公共の場所や秘匿性が要求されるような場所や状況でも、携帯電話などの通信装置、音声認識装置、音声認証装置が広く利用できるようになる。また、声帯の規則振動を用いない音声や、微小音声を入力できることから、声帯を切除してしまったり、声帯に障害がある人、または、呼吸筋が衰弱しているなどの原因で通常レベルの発声が困難な人も最適に利用できる。 The present invention enables high-quality voice input without being noticed by surrounding people, so that communication devices such as mobile phones can be used in public places such as trains and places and situations where confidentiality is required. Voice recognition devices and voice authentication devices can be widely used. In addition, voices that do not use regular vibrations of the vocal cords and minute voices can be input, so the vocal cords are removed, people with impaired vocal cords, or respiratory muscles are weak, etc. People who have difficulty speaking can also be used optimally.
100 通話者
101 肉伝導マイクロフォン
102 イヤフォン
103 クリップ
104 マイクロフォンケーブル
105 イヤフォン・マイクロフォンケーブル
106、112 携帯電話機
107 無線ネットワーク
108 通信網
109 無線基地局
110 基地局制御装置
111 交換機
201 鼻軟骨
202 鼻骨
301 接触部
302 圧電素子
303 空洞部
304 シールディング
305 硬質ゴム
306 吸音材
307 防振ウレタン
308 リード線
701 ダミー
702 バネ
801 フレーム
901 バンド
1001 鼻用キャップ
1002 耳掛け
1301 第1の無線通信ユニット
1302 第2の無線通信ユニット
1401、1408 デジタル無線通信部
1402 マイクアンプ
1403、1409 ADコンバータ
1404、1410 DAコンバータ
1405 スピーカアンプ
1406、1411 アンテナ
1407、1412 電池
1500 使用者
1501 パーソナルコンピュータ
1502 情報携帯端末
1600 認証登録者
1601 音声前処理部
1602 マイクアンプ
1603 ADコンバータ
1604 音声話者認証システム
1605 音声話者認証部
1606 登録パターン記憶部
1607 ドアロック制御システム
1608 ドア
1700 操作者
1701 腹話術人形
1702 音声処理ユニット
1703 スピーカ
1801 マイクアンプ
1802 ADコンバータ
1803 有音声出力部
1804 DAコンバータ
1805 スピーカアンプ
1806 電池
1900 使用者
1901 スピーカ内蔵音声処理ユニット
2001 マイクアンプ
2002 ADコンバータ
2003 有音声出力部
2004 DAコンバータ
2005 スピーカアンプ
2006 スピーカ
2007 電池
2101 簡易型スピーカ内蔵音声処理ユニット
2201 接触部
2202 コンデンサマイクロフォン部
2202a、2202b 振動電極
2202c リード線
2601 マイク接続部
DESCRIPTION OF SYMBOLS 100 Caller 101 Meat conduction microphone 102 Earphone 103 Clip 104 Microphone cable 105 Earphone / microphone cable 106, 112 Mobile phone 107 Wireless network 108 Communication network 109 Wireless base station 110 Base station controller 111 Exchange 201 201 Nasal cartilage 202 Nasal bone 301 Contact part 302 Piezoelectric element 303 Cavity 304 Shielding 305 Hard rubber 306 Sound absorbing material 307 Anti-vibration urethane 308 Lead wire 701 Dummy 702 Spring 801 Frame 901 Band 1001 Nose cap 1002 Ear hook 1301 First wireless communication unit 1302 Second wireless communication unit 1401, 1408 Digital wireless communication unit 1402 Microphone amplifier 1403, 1409 AD converter 1404, 1410 DA converter 1 405 Speaker amplifier 1406, 1411 Antenna 1407, 1412 Battery 1500 User 1501 Personal computer 1502 Information portable terminal 1600 Authentication registrant 1601 Voice preprocessing unit 1602 Microphone amplifier 1603 AD converter 1604 Voice speaker authentication system 1605 Voice speaker authentication unit 1606 Registration Pattern storage unit 1607 Door lock control system 1608 Door 1700 Operator 1701 Abdominal doll 1702 Audio processing unit 1703 Speaker 1801 Microphone amplifier 1802 AD converter 1803 Audio output unit 1804 DA converter 1805 Speaker amplifier 1806 Battery 1900 User 1901 Audio processing unit with built-in speaker 2001 Microphone amplifier 2002 AD converter 2003 Audio output unit 2004 DA Converter 2005 Speaker amplifier 2006 Speaker 2007 Battery 2101 Simple speaker built-in voice processing unit 2201 Contact unit 2202 Capacitor microphone unit 2202a, 2202b Vibration electrode 2202c Lead wire 2601 Microphone connection unit
Claims (13)
発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則振動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音または、通常音声を採取することを特徴とするマイクロフォン。 Including a sound collecting part attached to the skin surface on the nasal cartilage,
Non-audible murmurs or normal sounds that are oscillated through the soft tissue of the body, which are not audible from the outside and are not accompanied by regular vibrations of the vocal cords, and are tuned by changes in the resonance filter characteristics associated with the movement of the vocal organs Microphone.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005037532A JP4130443B2 (en) | 2005-02-15 | 2005-02-15 | Microphone, signal processing device, communication interface system, voice speaker authentication system, NAM sound compatible toy device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005037532A JP4130443B2 (en) | 2005-02-15 | 2005-02-15 | Microphone, signal processing device, communication interface system, voice speaker authentication system, NAM sound compatible toy device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006229301A true JP2006229301A (en) | 2006-08-31 |
JP4130443B2 JP4130443B2 (en) | 2008-08-06 |
Family
ID=36990306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005037532A Expired - Fee Related JP4130443B2 (en) | 2005-02-15 | 2005-02-15 | Microphone, signal processing device, communication interface system, voice speaker authentication system, NAM sound compatible toy device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4130443B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013135291A (en) * | 2011-12-26 | 2013-07-08 | Panasonic Corp | Contact type microphone and transmitter/receiver having contact type microphone |
JP2013135287A (en) * | 2011-12-26 | 2013-07-08 | Panasonic Corp | Transmitter/receiver device |
JP2013135292A (en) * | 2011-12-26 | 2013-07-08 | Panasonic Corp | Contact type microphone and transmitter/receiver having contact type microphone |
CN107591163A (en) * | 2017-08-17 | 2018-01-16 | 天津快商通信息技术有限责任公司 | One kind pronunciation detection method and device, voice category learning method and system |
WO2020044941A1 (en) * | 2018-08-30 | 2020-03-05 | パナソニックIpマネジメント株式会社 | Bone conduction microphone and bone conduction headset |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6534023B1 (en) | 2018-08-30 | 2019-06-26 | パナソニックIpマネジメント株式会社 | Bone conduction microphone |
-
2005
- 2005-02-15 JP JP2005037532A patent/JP4130443B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013135291A (en) * | 2011-12-26 | 2013-07-08 | Panasonic Corp | Contact type microphone and transmitter/receiver having contact type microphone |
JP2013135287A (en) * | 2011-12-26 | 2013-07-08 | Panasonic Corp | Transmitter/receiver device |
JP2013135292A (en) * | 2011-12-26 | 2013-07-08 | Panasonic Corp | Contact type microphone and transmitter/receiver having contact type microphone |
CN107591163A (en) * | 2017-08-17 | 2018-01-16 | 天津快商通信息技术有限责任公司 | One kind pronunciation detection method and device, voice category learning method and system |
WO2019034183A1 (en) * | 2017-08-17 | 2019-02-21 | 厦门快商通科技股份有限公司 | Utterance testing method and device, and speech category learning method and system |
CN107591163B (en) * | 2017-08-17 | 2022-02-01 | 厦门快商通科技股份有限公司 | Pronunciation detection method and device and voice category learning method and system |
WO2020044941A1 (en) * | 2018-08-30 | 2020-03-05 | パナソニックIpマネジメント株式会社 | Bone conduction microphone and bone conduction headset |
CN112602332A (en) * | 2018-08-30 | 2021-04-02 | 松下知识产权经营株式会社 | Bone conduction microphone and bone conduction earphone |
CN112602332B (en) * | 2018-08-30 | 2023-05-30 | 松下知识产权经营株式会社 | Bone conduction microphone and bone conduction earphone |
Also Published As
Publication number | Publication date |
---|---|
JP4130443B2 (en) | 2008-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3760173B2 (en) | Microphone, communication interface system | |
JP4702795B2 (en) | Body conduction sound microphone, signal processing device, communication interface system, sound collection method | |
US11510019B2 (en) | Hearing aid system for estimating acoustic transfer functions | |
EP2882204B2 (en) | Hearing aid device for hands free communication | |
US20050095564A1 (en) | Methods and devices for treating non-stuttering speech-language disorders using delayed auditory feedback | |
JP4130443B2 (en) | Microphone, signal processing device, communication interface system, voice speaker authentication system, NAM sound compatible toy device | |
JP2006025333A (en) | Neckband-type nam microphone device | |
Fuchs et al. | The new bionic electro-larynx speech system | |
WO2008015800A1 (en) | Speech processing method, speech processing program, and speech processing device | |
US11589173B2 (en) | Hearing aid comprising a record and replay function | |
CN101310695A (en) | Artificial electronic cochlea based on mobile telephone and voice tone information | |
JP4418867B2 (en) | Silent voice input device, telephone and information processing device | |
KR100681484B1 (en) | An artificial larynx system | |
JP2000276190A (en) | Voice call device requiring no phonation | |
JP2008042740A (en) | Non-audible murmur pickup microphone | |
JP2020124444A (en) | Vocalization auxiliary apparatus and vocalization auxiliary system | |
CN111401912B (en) | Mobile payment method, electronic device and storage medium | |
JP5052107B2 (en) | Voice reproduction device and voice reproduction method | |
JP2005354295A (en) | Microphone, communication system, and communication method | |
Nwaneri et al. | An IoT-based smart hearing aid for hearing and speech impaired persons | |
JPS581034Y2 (en) | Vocal aids for people with vocal cord disorders, etc. | |
JP2015192851A (en) | Vocalization support device | |
WO2005009073A1 (en) | Speech input device | |
JP2005117484A (en) | Loudspeaker device for artificial larynx user | |
PL207484B1 (en) | Digital speech corrector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Effective date: 20071225 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080122 |
|
A521 | Written amendment |
Effective date: 20080314 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080507 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Effective date: 20080521 Free format text: JAPANESE INTERMEDIATE CODE: A61 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 3 Free format text: PAYMENT UNTIL: 20110530 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120530 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |