JPWO2004021738A1 - マイクロフォン、コミュニケーションインタフェースシステム - Google Patents
マイクロフォン、コミュニケーションインタフェースシステム Download PDFInfo
- Publication number
- JPWO2004021738A1 JPWO2004021738A1 JP2004532784A JP2004532784A JPWO2004021738A1 JP WO2004021738 A1 JPWO2004021738 A1 JP WO2004021738A1 JP 2004532784 A JP2004532784 A JP 2004532784A JP 2004532784 A JP2004532784 A JP 2004532784A JP WO2004021738 A1 JPWO2004021738 A1 JP WO2004021738A1
- Authority
- JP
- Japan
- Prior art keywords
- microphone
- audible
- communication interface
- interface system
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 claims abstract description 67
- 210000001260 vocal cord Anatomy 0.000 claims abstract description 49
- 241000282414 Homo sapiens Species 0.000 claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 69
- 238000001228 spectrum Methods 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 34
- 210000001595 mastoid Anatomy 0.000 claims description 26
- 238000005516 engineering process Methods 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000013139 quantization Methods 0.000 claims description 13
- 210000003625 skull Anatomy 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 230000001755 vocal effect Effects 0.000 claims description 8
- 210000000056 organ Anatomy 0.000 claims description 7
- 239000011521 glass Substances 0.000 claims description 5
- 210000004872 soft tissue Anatomy 0.000 claims description 5
- 210000003205 muscle Anatomy 0.000 claims description 4
- 241000282412 Homo Species 0.000 abstract description 3
- 238000012549 training Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 44
- 210000000988 bone and bone Anatomy 0.000 description 16
- 235000013372 meat Nutrition 0.000 description 12
- 210000000214 mouth Anatomy 0.000 description 12
- 210000003681 parotid gland Anatomy 0.000 description 10
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 210000000216 zygoma Anatomy 0.000 description 7
- 210000001847 jaw Anatomy 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 210000000534 thyroid cartilage Anatomy 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 208000037656 Respiratory Sounds Diseases 0.000 description 4
- 230000003321 amplification Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 239000012528 membrane Substances 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 210000001584 soft palate Anatomy 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 210000000613 ear canal Anatomy 0.000 description 3
- 229920001971 elastomer Polymers 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 229920003002 synthetic resin Polymers 0.000 description 3
- 239000000057 synthetic resin Substances 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000003477 cochlea Anatomy 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 239000005060 rubber Substances 0.000 description 2
- 238000007789 sealing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000002555 auscultation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000019504 cigarettes Nutrition 0.000 description 1
- 210000000860 cochlear nerve Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 210000000883 ear external Anatomy 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 210000003094 ear ossicle Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000000806 elastomer Substances 0.000 description 1
- 239000003822 epoxy resin Substances 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003434 inspiratory effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000004880 lymph fluid Anatomy 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 229920000647 polyepoxide Polymers 0.000 description 1
- 229920000728 polyester Polymers 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 229920003051 synthetic elastomer Polymers 0.000 description 1
- 239000005061 synthetic rubber Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000003454 tympanic membrane Anatomy 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/08—Mouthpieces; Microphones; Attachments therefor
- H04R1/083—Special constructions of mouthpieces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/46—Special adaptations for use as contact microphones, e.g. on musical instrument, on stethoscope
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
- G10L21/057—Time compression or expansion for improving intelligibility
- G10L2021/0575—Aids for the handicapped in speaking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Telephone Function (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
- Headphones And Earphones (AREA)
Abstract
Description
それと共に、これも空気伝導の本質的欠点として、周囲の人に通話内容を聴取されてしまい、情報が漏洩する危険性もあり、パブリシティーコントロールの困難性は避けられない。
また、相手が背景雑音の大きな場所で通話している場合、空気伝導であるため、背景雑音が混入した相手の音声を聴取しにくいという問題もある。
一方、音声認識は、約30年の歴史をもって積み重ねられてきた技術であり、大語彙連続音声認識などにより、その認識率もディクテーションで単語認識率が90%以上を越えるまでになっている。音声認識は、ウェアラブルコンピュータなどの個人用携帯情報端末やロボットに対して、特別な修得技術が不要で誰にでも使える入力方法であり、また、長年人間の文化として慣れ親しんできた音声言語文化を直接情報発信に利用する方法として有望視されてきた。
しかし、古くはアナログ電話の時代より、また、音声認識の技術開発が始まった当初から、音声入力技術が対象としてきたのは、常に口から離れた位置にある外部マイクロフォンから採取した音であった。高指向性マイクロフォンを用いたり、ノイズの削減にハードウェア的、ソフトウェア的工夫が積み上げられているとはいっても、今日に至るまで、全く変わらず、口から放射され、空気伝導して、外部マイクロフォンに到達した音声を常に分析対象としてきた。
この空気伝導した通常音声を分析対象としてきた音声認識は、長い開発の歴史を持ち、扱いやすい製品も開発され、実際にコマンド認識だけではなく、ディクテーションにおいてさえ、静穏環境で十分実用になる精度を持っているにもかかわらず、一部カーナビゲーションでの利用を除いて、現実の場面でコンピュータやロボットへの入力に使用されている場面に遭遇することは少ない。
この理由として考えられるのは、まず空気伝導の根本的な欠点として、外部背景雑音の混入が避けられないことがある。静穏環境のオフィスでさえ、さまざまな雑音が予期せぬ場面で発生し、誤認識を誘発する。ロボットの体表などに集音装置がある場合、音声として一旦発してしまった情報は、背景雑音の影響により、誤認識され、危険な命令に変換されてしまう場合が考えられる。
逆に、静穏環境で使用するときに問題となるのが、音声を発することは、周囲への騒音となるということである。オフィス内で各人が音声認識を用いようとすると、部屋を分割しないと難しく、現実問題として使用は困難である。
また、これと関係して日本文化の特徴として、「あまり口に出して言わない」「口に出すのは照れくさい」という傾向も、音声認識の普及を阻む一要因と考えられる。
個人用携帯情報端末を屋外や乗り物内で使用する機会が飛躍的に増える将来を考えると、この欠点は本質的に重要な問題である。
音声認識技術の研究開発は、現在のようなグローバルなネットワーク環境や個人携帯端末を想定して始められたものではなかった。今後ますます無線化・ウェアラブル化が一般的になることを考えると、個人用携帯情報端末で音声認識結果の目視と修正を行ってから、情報を無線・有線で送った方が、はるかに安全である。
上記のように、外部マイクロフォンで採取した空気伝導の通常音声信号をパラメータ化して分析対象とする携帯電話や音声認識においては、雑音混入性、雑音発生性、情報漏洩性、修正困難性など分析対象自体がもつ欠点がある。
これらを根本的に改善して、現在および近未来的に用いられる個人用携帯情報端末において、簡便で訓練の必要が無く、人間の長い文化習慣に則った新しい入力方法およびそれを実現するデバイスの提供が望まれている。
ところで、通常音声信号を空気伝導以外の手段で採取する方法として、骨伝導による方法が知られている。骨伝導の原理は、声帯を振動させて発声する際に、声帯の振動が頭蓋骨に伝導し、さらに渦巻き状の蝸牛(内耳)に伝導し、蝸牛内部のリンパ液の振動により生成される電気信号が聴覚神経に送られて脳が音を認識するというものである。
音が頭蓋骨を伝導する、骨伝導の原理を利用した骨伝導スピーカーは、音をバイブレータによる振動に変換し、バイブレータを耳、耳の周囲の骨、こめかみ、乳様突起などに接触させて、頭蓋骨に伝えることにより、背景雑音の大きな環境で、あるいは鼓膜や耳小骨に異常がある難聴者、高齢者でも聞き取りやすくする目的で利用されている。
例えば、特開昭59−191996号公報には、バイブレータを頭蓋骨の乳様突起上に接触させて、骨伝導と空気伝導の両方を利用した聴音器に関する技術が開示されている。しかし、同公報に開示されている技術は、人間の発声を採取する方法について開示したものではない。
特開昭50−113217号公報には、口から放射され空気伝導した音をマイクロフォンで採取した音と喉仏の上に装着されたマイクロフォンで採取した音を、それぞれ、イヤフォンと頭蓋骨の乳様突起上に装着されたバイブレータから聞く音響再生装置に関する技術が開示されている。しかし、同公報に開示されている技術は、乳様突起直下にマイクロフォンを装着して、人間の発声を採取する方法について開示したものではない。
特開平4−316300号公報には、イヤフォン型マイクロフォンとそれを利用した音声認識に関する技術が開示されている。同公報に開示されている技術では、声帯を規則振動させて発声した音声および歯咬音などの体内音声の、口腔から鼻腔を経て、さらに耳管および鼓膜を介して外耳道と耳甲介腔とからなる外耳に伝わった振動を採取する。これにより、雑音混入性、雑音発生性、情報漏洩性、修正困難性を回避でき、つぶやき程度の小さな声でも明瞭に採取できると主張している。しかしながら、同公報に開示されている技術では、声帯を規則振動させない非可聴つぶやき音が採取可能であることは明示していない。
特開平5−333894号公報には、声帯を規則振動させて発声した音声および歯咬音などの人体信号を検出する振動センサーを具備した、イヤフォン型マイクロフォンとそれを利用した音声認識に関する技術が開示されている。同公報に開示されている技術では、振動センサーを固定する部位として、耳孔、耳周辺、頭部の表面、顔面の表面を明示している。この振動センサーにより採取された人体振動は、マイクロフォンが採取した信号の中から、発声者本人が発声した時間区間の信号のみを抽出類別し、抽出類別された信号を音声認識装置に入力する目的でのみ利用されている。しかしながら、同公報に開示されている技術では、人体振動そのものを音声認識装置の入力として、また、携帯電話の通話に利用できることを明示していない。ましてや、声帯を規則振動させない非可聴つぶやき音を、音声認識装置の入力として、また、携帯電話の通話に利用できることを明示していない。
特開昭60−22193号公報には、通常の空気伝導を採取するマイクロフォン信号の中から、喉仏に装着する喉マイクロフォンやイヤフォン型骨伝導マイクロフォンが人体振動を検出した時間区間のみの信号を抽出類別し、抽出類別された信号を音声認識装置に入力する技術が開示されている。しかしながら、同公報に開示されている技術では、人体振動そのものを音声認識装置の入力として、また、携帯電話の通話に利用できることを明示していない。ましてや、声帯を規則振動させない非可聴つぶやき音を、音声認識装置の入力として、また、携帯電話の通話に利用できることを明示していない。
特開平2−5099号公報には、通常の空気伝導を採取するマイクロフォン信号を、喉に装着する喉マイクロフォンや振動センサーが声帯の規則振動を検出した時間区間を有声、声帯の規則振動を検出しないが一定レベル以上のエネルギーを有する時間区間を無声、エネルギーが一定レベル以下の時間区間を無音と判定する技術が開示されている。しかしながら、同公報に開示されている技術では、人体振動そのものを音声認識装置の入力として、また、携帯電話の通話に利用できることを明示していない。ましてや、声帯を規則振動させない非可聴つぶやき音を、音声認識装置の入力として、また、携帯電話の通話に利用できることを明示していない。
本発明の目的は、音響的な背景雑音の混入がなく、周囲の人に非可聴なため発声内容が聴取されず、情報漏洩のコントロールが可能で、オフィスなどの静穏環境を損なうことなく、音声情報の伝達や入力を可能とし、コンピュータ、携帯電話ひいてはウェアラブルコンピュータなどの個人用携帯情報端末の新たな入力インターフェースとすることのできるマイクロフォン、コミュニケーションインタフェースシステムを提供することである。
このため、本発明の請求の範囲第1項によるマイクロフォンは、耳介の後下方部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面に装着され、発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則振動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音、及び、可聴だが声帯を規則振動させないささやき声、小声、つぶやき声などを含む声帯の規則振動を用いて発声する音声、歯咬音、舌打ち音などの様々な音声、の少なくとも一方を採取することを特徴とする。これにより、非可聴つぶやき音を採取でき、携帯電話等での通話や音声認識処理などに利用することができる。また、非可聴つぶやき音以外の可聴音をも、単一の装置で採取できる。
本発明の請求の範囲第2項によるマイクロフォンは、請求の範囲第1項において、前記皮膚表面に装着された振動板と、前記振動板に吸着する吸盤とを含むことを特徴とする。このように構成することで、振動板は、吸盤の固定と微小密閉空間反響との両方の役目を担うことになる。また、振動板一枚を体表に張るだけで、吸盤はいつでも着脱できるようになる。
本発明の請求の範囲第3項によるマイクロフォンは、請求の範囲第1項又は第2項において、眼鏡、ヘッドフォン、耳かけ型イヤフォン、帽子、ヘルメットなど、人間の頭部に装着する頭部装着物と一体に構成されていることを特徴とする。頭部装着物とマイクロフォンとを一体化することにより、マイクロフォンを違和感なく装着できる。
本発明の請求の範囲第4項によるコミュニケーションインタフェースシステムは、請求の範囲第1項乃至第3項のいずれか1項のマイクロフォンと、前記マイクロフォンによって採取された信号に対して、信号処理を行う信号処理装置と、
を含み、前記信号処理装置による処理結果をコミュニケーションに使用するようにしたことを特徴とする。マイクロフォンによって採取された非可聴つぶやき音に対応する信号に対して、増幅又は変調などの加工を行い、この加工された振動音をそのまま、若しくはパラメータ化して、携帯端末などによるコミュニケーションに使用できる。携帯電話に利用した場合には、周囲に人がいる環境でも周囲の人に発声内容を聴取されることなく、通話できる。
本発明の請求の範囲第5項によるコミュニケーションインタフェースシステムは、請求の範囲第4項において、前記信号処理装置は、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果について加工を行うプロセッサ部と、前記プロセッサ部による加工結果を外部に送出する送出部とを含むことを特徴とする。こうすることにより、例えば、移動電話網内の装置において、上記加工結果された振動音そのまま、若しくはパラメータ化された信号について処理を行うことができ、信号処理装置の構成を単純化できる。
本発明の請求の範囲第6項によるコミュニケーションインタフェースシステムは、請求の範囲第4項において、前記信号処理装置は、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果を外部に送出する送出部とを含み、前記量子化結果の加工を外部装置において行うようにしたことを特徴とする。こうすることにより、例えば移動電話網内の装置において、上記量子化結果について処理を行うことができ、信号処理装置の構成を単純化できる。
本発明の請求の範囲第7項によるコミュニケーションインタフェースシステムは、請求の範囲第5項において、前記信号処理装置は、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果について加工を行うプロセッサ部と、前記プロセッサ部による加工結果について音声認識処理を行う音声認識部とを含むことを特徴とする。このように信号処理装置を構成すれば、非可聴つぶやき音について、加工された振動音のそのままの信号、若しくはパラメータ化された信号の音声認識処理を行うことができる。
本発明の請求の範囲第8項によるコミュニケーションインタフェースシステムは、請求の範囲第7項において、前記音声認識部による音声認識結果を、外部に送出する送出部を更に含むことを特徴とする。音声認識結果を、例えば移動電話網に送出することにより、音声認識結果を種々の処理に利用できる。
本発明の請求の範囲第9項によるコミュニケーションインタフェースシステムは、請求の範囲第5項において、前記送出部によって送出された前記プロセッサ部による加工結果について、移動電話網内の装置によって音声認識処理を行うことを特徴とする。このように移動電話網内の装置によって音声認識処理を行うことにより、信号処理装置の構成を単純化できる。
本発明の請求の範囲第10項によるコミュニケーションインタフェースシステムは、請求の範囲第5項において、前記信号処理装置が行う信号処理は、前記プロセッサ部が可聴な音声に変調する変調処理であることを特徴とする。このように変調処理することで、携帯電話などによる通話が可能になる。
本発明の請求の範囲第11項によるコミュニケーションインタフェースシステムは、請求の範囲第10項において、前記変調処理は、前記非可聴つぶやき音に、声帯の基本周波数を付与することにより、声帯の規則振動を伴う、可聴な音声に変換する処理であることを特徴とする。モーフィング処理等を行うことにより、携帯電話などによる通話が可能になる。なお、声帯の基本周波数の算出方法は、良く知られている、フォルマント周波数と基本周波数の相関関係を利用して、非可聴つぶやき音のフォルマント周波数から基本周波数を推定する方法でも良い。
本発明の請求の範囲第12項によるコミュニケーションインタフェースシステムは、請求の範囲第10項において、前記変調処理は、声帯の規則振動を伴わない、非可聴つぶやき音のスペクトルから、声帯の規則振動を用いて発声された可聴な音声のスペクトルへ変換する処理であることを特徴とする。可聴な音声のスペクトルへ変換することにより、携帯電話などによる通話に利用できる。
本発明の請求の範囲第13項によるコミュニケーションインタフェースシステムは、請求の範囲第12項において、前記変調処理は、非可聴つぶやき音のスペクトルを用いて、音声認識装置により音節、半音節、音素、2連接音素、3連接音素などの音声単位の認識を行い、認識された音声単位から音声合成技術により、声帯の規則振動を用いて発声された可聴な音声に変換する処理であることを特徴とする。これにより、合成音声を利用した通話などが可能になる。
本発明の請求の範囲第14項によるコミュニケーションインタフェースシステムは、請求の範囲第4項乃至第13項のいずれか1項において、前記マイクロフォンによって採取される音声のダイナミックレンジの大きさに応じて、入力ゲインを制御することを特徴とする。こうすることにより、ダイナミックレンジの大きさに応じて、適切に信号処理できる。入力ゲインを制御するには、公知の自動ゲイン制御のアナログ回路又はソフトウェアを利用すればよい。
本発明の請求の範囲第15項によるコミュニケーションインタフェースシステムは、請求の範囲第7項又は第8項において、前記音声認識部は、前記非可聴つぶやき音、及び、可聴だが声帯を規則振動させないささやき声、小声、つぶやき声などを含む声帯の規則振動を用いて発声する音声、歯咬音、舌打ち音などの様々な音声、の少なくとも一方をモデル化した音響モデルを利用して、音声認識処理を行うことを特徴とする。こうすることにより、非可聴つぶやき音以外の可聴音について、音声認識を適切に行うことができる。これら様々な音声をモデル化した音響モデルは、当業者であれば、隠れマルコフモデルにより容易に構成することができる。
要するに本発明は、非可聴つぶやき音(non−audible murmur;NAM)を、コミュニケーションに利用するものである。声帯を規則振動させずに発声された非可聴つぶやき音は、舌や口唇、顎、軟口蓋など調音器官の発話運動により、通常の声帯を規則振動させる音声とほぼ同様に、その共振フィルタ特性の変化により調音されるとともに、肉伝導する。
本発明では、乳様突起直下に、微小密閉空間の反響を利用した聴診器型マイクロフォンを密着して装着させる。これによって採取した、非可聴つぶやき音の肉伝導の振動音を増幅して聴取すると、ささやき声に似た人間の音声として弁別理解可能である。しかも、通常環境では半径1m以内の他人にも聴取されない。この空気伝導ではない、非可聴つぶやき音の肉伝導の振動音を分析・パラメータ化の対象とする。
増幅されたこの肉伝導の振動音は、それ自体が人間に聴取理解可能であるため、そのまま、携帯電話の通話に用いることができる。また、モーフィング処理して可聴な音声に加工した後、携帯電話の通話に用いることもできる。
また、従来音声認識で使用されてきた隠れマルコフモデル(Hidden Markov Model;以下、HMMと略称することがある)の技術を利用し、通常音声の音響モデルを非可聴つぶやき音の肉伝導の振動音の音響モデルに置き換えることにより、音声認識が可能であるため、一種の無音声の認識を実現でき、個人携帯情報端末の新たな入力方法として利用可能である。
このように本発明は、非可聴つぶやき音を、人間対人間、人間対コンピュータの新たなコミュニケーションインターフェースとして提案するものである。
なお、日本語の場合、発声のほとんどは、呼吸の呼気を利用して行われる。そこで、以下は、呼気を利用した非可聴つぶやき音を対象とした場合について説明するが、吸気を利用した非可聴つぶやき音を対象とした場合も同様に実施できる。
また、非可聴つぶやき音は、他人に聞かせることを前提としていない。この点、積極的に他人に聞かせようとしているささやき声とは異なる。そして本発明では、非可聴つぶやき音を、空気伝導は利用せずに、肉伝導によりマイクロフォンで採取することに特徴がある。
(携帯電話システム)
図1は、本発明のコミュニケーションインタフェースシステムを、携帯電話システムに応用した場合の概略構成図である。
聴診器型マイクロフォン1−1を、乳様突起直下1−2に接着して装着し、イヤフォン又はスピーカー1−3を耳孔に装着する。
聴診器型マイクロフォン1−1及びイヤフォン1−3は、携帯電話機1−4と有線もしくは無線の通信手段で接続されている。イヤフォン1−3の代わりにスピーカーを用いても良い。
無線ネットワーク1−5は、例えば、無線基地局51a及び51bと、基地局制御装置52a及び52bと、交換機53a及び53bと、通信網50とを含んで構成されている。本例では、携帯電話機1−4が無線基地局51aと無線通信し、かつ、携帯電話機1−6が無線基地局51bと無線通信することにより、携帯電話機1−4と携帯電話機1−6との間で通話が可能となる。
人間が、声帯の規則振動を用いずに発声した非可聴つぶやき音は、舌や口唇、顎、軟口蓋など調音器官の発話運動により、通常の声帯を規則振動させて発声する音声とほぼ同様に、その共振フィルタ特性の変化により調音されるとともに、肉伝導の振動音として乳様突起直下1−2に到達する。
乳様突起直下1−2に到達した、非可聴つぶやき音1−7の振動音は、そこに装着されている聴診器型マイクロフォン1−1により採取され、マイクロフォン内のコンデンサマイクロフォンによって電気信号となり、この信号が有線もしくは無線の通信手段により、携帯電話機1−4に送信される。
携帯電話機1−4に送信された、非可聴つぶやき音の振動音は、無線ネットワーク1−5を介して、通話相手の持つ携帯電話機1−6に送信される。
一方、通話相手の音声は、携帯電話機1−6、無線ネットワーク1−5、携帯電話機1−4を経由して、有線もしくは無線の通信手段により、イヤフォン又はスピーカー1−3に送信される。なお、携帯電話1−4から直接、聴く場合はイヤフォン1−3は必要ない。
これにより、通話相手と会話することが出来る。この際、非可聴つぶやき音1−7を発声しているため、例えば半径1m以内の他人にも聴取されない。また、半径1m以内の他人の迷惑になることもない。
要するに、本例では、マイクロフォンと、信号処理装置としての携帯電話機とを組み合わせて、コミュニケーションインタフェースシステムを構成している。
(音声認識システム)
図2は、本発明のコミュニケーションインタフェースシステムを、音声認識システムに応用した場合の概略構成図である。
図1の場合と同様に、聴診器型マイクロフォン1−1を頭蓋骨の耳介の後下方部の、乳様突起直下1−2の体表に接着して装着する。
人間が、「こんにちは」と発声した非可聴つぶやき音1−7は、舌や口唇、顎、軟口蓋など調音器官の発話運動により、通常の声帯を規則振動させる音声とほぼ同様に、その共振フィルタ特性の変化により調音されるとともに、肉伝導して、振動音として乳様突起直下1−2に到達する。
乳様突起直下1−2に到達した、「こんにちは」の非可聴つぶやき音1−7の振動音は、聴診器型マイクロフォン1−1により採取され、有線もしくは無線の通信手段により、個人用携帯情報端末2−3に送信される。
個人用携帯情報端末2−3に送信された、「こんにちは」の非可聴つぶやき音の振動音は、個人用携帯情報端末2−3に内蔵された音声認識機能により、「こんにちは」と音声認識される。
音声認識結果である「こんにちは」の文字列は、有線・無線ネットワーク2−4を介して、コンピュータ2−5、ロボット2−6などに送信される。
コンピュータ2−5、ロボット2−6などは、それに対する音声や画像の応答を生成し、それらを有線・無線ネットワーク2−4を介して、個人用携帯情報端末2−3に返信する。
個人用携帯情報端末2−3は、音声合成や画像表示の機能を利用して、人間に対しそれらの情報を出力する。
この際、非可聴つぶやき音を発声しているため、半径1m以内の他人にも聴取されない。
要するに、本例では、マイクロフォンと、信号処理装置としての個人用携帯情報端末とを組み合わせて、コミュニケーションインタフェースシステムを構成している。
(マイクロフォンの構成)
図3は、本発明の骨子となる聴診器型マイクロフォン1−1の断面図である。体表面から肉伝導により伝搬する微少な振動を感知するためには、まず集音装置であるマイクロフォンの工夫が不可欠であった。医療用膜型聴診器を用いた実験で、頭部のある部位に聴診器を当てると、呼吸音が聴取可能であり、これに発話運動が加わると、声帯の規則振動を用いて発した音声と同様に、非可聴つぶやき音の呼吸音が声道の共振フィルタ特性で調音されて、ささやき声に似た音声が聴取弁別可能であることがわかった。このため、この膜型聴診器の微小密閉空間の反響を応用した方法が有効であると考えた。
体表に効果的に密着する方法と24時間装着可能な構造とを実現するため、図3に示されているような構成を採用した。すなわち、粘着面のあるポリエステル製の円形振動板3−3(聴診器の膜部に当たる)と、この振動板3−3に吸着する吸盤部3−9とを組み合わせて用いることにした。吸盤部3−9には、合成樹脂吸盤(エラストマー樹脂)3−2が設けられている。この合成樹脂吸盤3−2を振動板3−3の表面に吸着した状態で、マイクロフォンとして用いる。
振動板3−3は吸盤部3−9の固定と振動伝導との両方の役目を担い、吸盤の固定と微小密閉空間反響の両方の役目を担う。こうすれば、ディスポーザブルの振動板一枚を体表に張るだけで、吸盤部3−9はいつでも着脱可能である。また吸盤部3−9の柄の部分は、コンデンサマイクロフォン3−1を埋め込むための場となり、周囲の合成樹脂が防音の役目も果たす。その上から、AV(audio−visual)機器振動防止用の特殊合成ゴムを使用した防音ゴム部3−6で被覆し、間隙部3−8はエポキシ樹脂接着剤で埋めて防音性と密閉性を増した。
このように構成されたマイクロフォンは、体内の微弱な振動を外部からの直接雑音を混入させることなしに感知するために、常時、体表に密着させることが可能で、かつ、医療用膜型聴診器の微小密閉空間の反響の原理を利用するために、接着した振動板と吸盤とを用いて微小密閉空間を作り出すことができる。
この聴診器型マイクロフォンは軽量で低コストである。発明者は、24時間装着実験を行ったが、剥離することなく、また、携帯型音楽機器のヘッドフォンよりも耳を覆わないため、特に気になるようなことはなかった。
(マイクロフォンアンプ)
コンデンサマイクロフォン3−1の駆動に必要なマイクロフォンアンプは、市販のモノラルマイクロフォンアンプキットを用いて作成した。発明者は、タバコの箱大の別装置としてマイクロフォンアンプを作成し、ここからコンピュータのデジタルサンプリング用音源ボードに入力した。これらの部分は小型化、チップ化、ワイアレス化が可能であり、図3中の間隙部3−8や防音ゴム部3−6に埋め込むことが可能である。
マイクロフォンアンプの出力をそのままオーディオ機器のメインアンプの外部入力に接続すれば、非可聴つぶやき音が聴取可能である。発話内容もささやき声に似た声として弁別理解可能である。胸部に装着すれば、呼吸音、心音や心雑音も聴取でき聴診器の代用に使えることもわかった。この非可聴つぶやき音の音声信号は声道共振フィルタ特性を含むため、現在の携帯電話の音声ハイブリッド符号化技術PSI−CELP(Pitch Synchronous Innovation−Code Excited Linear Prediction)方式などで圧縮された後も、基本周波数音源波形を与えてやることで利用でき、通常音声に近い声に変換して聞くことも可能となる。
(マイクロフォンの装着位置)
次に、聴診器型マイクロフォンの装着位置は、図4及び図5に示されている位置である。以下、これについて、他の位置に装着した場合と比較して説明する。
顎下から耳下腺部、側頸部に至るまで、非可聴つぶやき音を聴取できる部位は多い。甲状軟骨(喉仏)、顎の下面、耳下腺部(下顎の骨の角)、側頸部、乳様突起直下、乳様突起上、頬骨部(耳のすぐ前の側頭部)、頬部(口の横)に聴診器型マイクロフォンを装着した状態で、非可聴つぶやき音により「かきくけこたちつてとぱぴぷぺぽばびぶべぼ」と発声した場合の波形およびスペクトルが、図6乃至図21に、示されている。
(甲状軟骨の上に装着)
聴診器型マイクロフォンを甲状軟骨(喉仏)の上に装着した場合の波形図が図6、スペクトラムが図7、に示されている。
図6に示されているように、大きなパワーで非可聴つぶやき音の振動音を採取できるが、母音に比べて子音のパワーが強すぎて、たいていオーバーフローする(図7のスペクトルでは縦線となる)。オーバーフローを起こした子音は、全て爆発音に聞こえ、子音の聞き分けはできない。マイクロフォンアンプのゲインを下げると、オーバーフローは回避できるが、図7に示されているように、母音のスペクトルに5母音固有のフォルマント(Formant)の異なりが観測できず、聴取しても音韻性が不明瞭である。
(顎の下面、耳下腺部、側頸部に装着)
聴診器型マイクロフォンを顎の下面に装着した場合の波形図が図8、スペクトラムが図9、に示されている。聴診器型マイクロフォンを耳下腺部(下顎の骨の角)に装着した場合の波形図が図10、スペクトラムが図11、に示されている。聴診器型マイクロフォンを側頸部に装着した場合の波形図が図12、スペクトラムが図13、に示されている。
聴診器型マイクロフォンを顎の下面、耳下腺部、側頸部に装着に装着した場合、図8、図10、図12に示されているように、音声波形がオーバーフローすることが多く、オーバーフローしないようにマイクロフォンアンプのゲインを調整するのが困難である。子音の振幅がオーバーフローしやすく、全ての子音の振幅のオーバーフローを回避するためには、マイクロフォンアンプのゲインを相当絞らなければならない。ゲインを絞ると、図9、図11、図13に示されているように、母音のフォルマントのエネルギーが弱くなり、母音の識別が困難になる。子音の振幅が振り切れた子音は、よく聞くとやはり破裂音に近い音となっており、知っている文章なら聞き取れるが、未知文では聞き取れないことが多い。
(乳様突起直下に装着)
聴診器型マイクロフォンを乳様突起直下に装着した場合の波形図が図14、スペクトラムが図15、に示されている。
図14に示されているように、他の部位と明らかに違い、唯一ゲインを相当上げても子音が振り切れないため、マイクロフォンアンプのゲイン調節で苦労しなくて済む。また、他の部位と聞き比べると、子音も母音も明瞭性が際立っている。
(乳様突起上に装着)
聴診器型マイクロフォンを乳様突起上に装着した場合の波形図が図16、スペクトラムが図17、に示されている。
図16に示されているように、図14の場合と比べて、子音も母音も明瞭性はあまり変わらないが、パワーが明らかに低下する。ところどころ入っているノイズは、髪の毛のノイズである。聴診器型マイクロフォンの振動板が髪の毛にかかってしまうため、髪の毛のノイズが入りやすい。
(頬骨部に装着)
聴診器型マイクロフォンを頬骨部(耳のすぐ前の側頭部)に装着した場合の波形図が図18、スペクトラムが図19、に示されている。
図18および図19に示されているように、乳様突起直下と同様に明瞭性も母音子音のパワー比も良いが、顎の動きによるノイズが入る。このノイズの影響を軽減できれば、頬骨部(耳のすぐ前の側頭部)も乳様突起直下に次ぐ好適な装着場所といえる。
(頬部に装着)
聴診器型マイクロフォンを頬部(口の横)に装着した場合の波形図が図20、スペクトラムが図21、に示されている。
図20に示されているように、口の動きによる雑音が入りやすく、子音の振幅がオーバーフローすることが多い。ただし第3(まれに第4)フォルマントが出ることのあるのはこの部位である。
(装着結果についての検討)
上述したように、聴診器型マイクロフォンを甲状軟骨(喉仏)、顎の下面、耳下腺部(下顎の骨の角)、側頸部、頬部(口の横)に装着した場合は、摩擦音や破裂音などの子音は、肉伝導した時のパワーが非常に大きく、すべて破裂音に聞こえてしまうことが多い。反して母音、半母音は声道の空気の共鳴構造の違いにより弁別されるため、その肉伝導のパワーは小さい。実際、これらの部位に聴診器型マイクロフォンを装着して採取した音で音響モデルを作成しても、母音は比較的良好に認識するが、子音についてはほとんど弁別不能な認識システムしかできなかった。
一方で、聴診器型マイクロフォンを乳様突起上、頬骨部(耳のすぐ前の側頭部)に装着した場合は、子音の振幅がオーバーフローすることはないが、一般に骨伝導は肉伝導に比べて、振動が伝達しにくく、音が小さくなり、信号と雑音との比が低くなる。
聴診器型マイクロフォンを、乳様突起直下に装着して採取した図14の波形の信号雑音比と、乳様突起上に装着した図26の波形の信号雑音比とを計測すると、それぞれ、19デシベル、11デシベルである。このため、両者には8デシベルという大きな差があった。この差は、無償配布の日本語ディクテーション基本ソフトウェアの音声認識エンジンJulius(2万単語規模)では30%の性能向上(60%から90%)に相当し、極めて大きな差である。
以上から、子音のピークパワーと、母音のピークパワーとの比率が値「1」に最も近くなる部位は、様々な部位の音声認識率を比較した結果、乳様突起直下でなければならないとの結論に達した。
(乳様突起直下)
図4を用いて、その部位の場所をより詳しく説明する。
聴診器型マイクロフォン1−1の振動板の中心が、耳介の後下方、頭蓋骨の乳様突起4−12の直下の部位4−13に位置したケースが、子音・母音パワー比の最適位置であった。
同様に、図5には、聴診器型マイクロフォンを装着するのに最適な、乳様突起直下の部位が二重丸で示されている。
この最適な装着部位は、髪の毛や髭などの体毛のない場所であり、長髪の場合は耳介と髪に完全に隠れる。また、この最適な装着部位は、他の部位と異なり、軟部組織(肉など)が厚く、舌や口唇、顎、軟口蓋など調音器官の発話運動の動きに付随する雑音が全く混入しない場所である。さらに、体内内部に骨が存在しない間隙の上に位置し、非可聴つぶやき音の振動音を大きなゲインで取得できる。
従来、医者は、聴診器を人体の体表に装着させて体内音を聴取する時は、骨が体内音を内部に反射させる事実に基づき、できるだけ骨を避けて体表に装着することを常としている。これらのことから、図4および図5に示されている部位が、聴診器型マイクロフォンを装着させるのに最適な部位であるとの結論を得た。
(通常音声、ささやき声、非可聴つぶやき音の波形とスペクトラム)
図22には、通常音声、ささやき声(両者とも外部マイクロフォン使用)、本願発明の位置ではない一般の非可聴つぶやき音(自作マイクロフォン体表密着使用)、についての音声信号とスペクトラムとが示されている。これは耳下腺部位にマイクロフォンを装着して非可聴つぶやき音を採取したものであるが、母音にフォルマントを描出するまでボリュームを上げると、子音の音声信号のパワーが振り切れることが多い。
図23及び図24には、図4に示されている、最適位置に装着したマイクロフォンから採取した非可聴つぶやき音の音声信号とスペクトラムが示されている。図23を参照すると、非可聴つぶやき音は声帯の規則振動による基本周波数F0がほとんど出現せず、音韻的特徴を含む低周波域のフォルマント構造が比較的よく保たれているのがわかる。
このようにして採取した、男性1名の非可聴つぶやき音を用い、音素バランスのとれた例文を、4回ずつ口の中で読み上げて16kHz、16bitでデジタル化して収録した。例文は、ATR音声翻訳通信研究所によるATR(Advanced Telecommunications Research)音素バランス文503文+追加22文とした。
本例では、計2100サンプルのrawファイルデータを用いて、隠れマルコフモデルツールであるHTK(HMM Toolkit)を使用した。そして、通常音声認識と同様に、フレーム周期10msで、12次元メルケプストラム(Mel−cepstrum)とその一次差分12個、パワー一次差分1個の計25パラメータを抽出し、モノフォン音声認識用音響モデルを作成した。この作成したモノフォン音声認識用音響モデルの例が図25に示されている。
モノフォンモデルではあるが、混合正規分布の混合数を16に増やすと、飛躍的に認識率が高まり、無償配布の日本語ディクテーション基本ソフトウェアの音声認識エンジンJulius(http://julius.sourceforge.jp/)の音響モデルをこれに置き換えると、録音した非可聴つぶやき音で性別非依存通常音声モノフォンモデルと大差のない単語認識率が得られた。
(音声認識結果の例)
図26には録音音声の認識結果例が示されている。また、図27には自動音素アラインメント例が示されている。なお、図24中のスペクトラムの下段にある音素ラベルはこの自動アラインメント・セグメンテーションの結果で表示したものである。
同様に、男性1名の非可聴つぶやき音で発声した音素バランス文や新聞記事文などを約4600文章収録し、不特定男性話者通常音声モノフォンモデル(5状態、16混合正規分布)を初期モデルとして連結学習を行った。これをJuliusに組み込んで、音響モデル以外の条件をまったく変えずに使用した場合の単語認識性能が図28に示されている。同図において、1行目の「CLEAN」は、静かな室内での、2行目の「MUSIC」は、室内でクラシック音楽のBGMを通常音量でかけた場合の、そして、3行目の「TV−NEW」は、やはり室内で通常の聴取音量でテレビニュースをかけた場合の認識結果である。
静かな室内では、94%と通常音声に劣らない単語認識性能が得られた。また、音楽やTV音が存在する場合でも、それぞれ、91%、90%と高い認識性能が得られており、空気伝導の通常音声に比べ、肉伝導の非可聴つぶやき音は、背景雑音にも比較的強いことがわかる。
聴診器型マイクロフォン1−1の吸盤の孔のシーリングや、ボリューム等の微調整により、通常音声も上記の装着部位から拾うことが可能である。この際、発声者の真横で第三者が朗読等を行っても、発声者の音声は空気伝達ではなく肉伝導であるため、録音された音声には発声者本人の音声しか記録されない。
聴診器型マイクロフォンで拾う非可聴つぶやき音や通常音声は、それを使用する個人の音響モデルを学習するだけで済むという利点もある。以上のようにこの体表装着聴診器型マイクロフォンは通常音声認識の無雑音マイクロフォンとしても使用可能である。
これまで、聴診器型マイクロフォンを乳様突起直下に装着し、非可聴つぶやき音を採取し、マイクロフォンアンプで増幅し、携帯電話での通話に利用する方法および音声認識装置による音声認識に利用する方法について説明を重ねてきた。
(音の変調)
ここで、音の変調について説明する。音の変調とは、一般に音の聴感上の調子、音質を変えることをいう。最近の音声の研究では、モーフィングという言葉が変調の意味で使われることが多い。例えば、音の基本周波数を上げ下げしたり、フォルマント周波数を上げ下げしたり、男声から女声、又は女声から男声に連続的に変化させたり、ある男声から別の男性の声に連続的に変化させたりする技術の総称として、モーフィングという言葉が使用されている。
モーフィングの技術として、種々の方法が提案されているが、代表的な方法としては、河原によるSTRAIGHT(河原他、信学技法、EA96−28、1996)が知られている。この方法は、音の音源情報と声道情報を正確に分離することにより、基本周波数(F0)、スペクトル包絡、発声速度などのパラメータを独立に変化させることができる点に特徴がある。
本発明によれば、図22〜図24に示されているように、非可聴つぶやき音のスペクトラムが算出可能であり、スペクトラムからスペクトル包絡が算出可能である。
図22に示されているように、同一の文章について声帯の規則振動を用いる、可聴な通常音声と非可聴つぶやき音との両方の喋り方で収録しておき、非可聴つぶやき音のスペクトルから、通常音声のスペクトルへの変換関数を予め求めておくことは、当業者であれば可能である。
さらに、基本周波数を適切に与えてやれば、上記のSTRAIGHTなどの方法により、非可聴つぶやき音を可聴な、より聴取しやすい音声に変調することが可能である。
さらに、本発明によれば、図28に示されているように、非可聴つぶやき音を音声認識することが可能である。従って、非可聴つぶやき音の音声認識結果から音節、半音節、音素、2連接音素、3連接音素などの音声単位を認識することが可能であり、音素認識結果から、公知のテキストからの音声合成技術により、より聴取しやすい音声に変調することも可能である。
(応用例)
以上は、マイクロフォンのみを乳様突起直下に装着する場合について説明したが、これではマイクロフォンが外部から露出するので、見た目に違和感がある。そこで、マイクロフォンを、眼鏡、ヘッドフォン、耳かけ型イヤフォン、帽子、ヘルメットなど、人間の頭部に装着する頭部装着物と一体に構成しても良い。
例えば、図29に示されているように、眼鏡31の、耳に掛けるつる部31aの端部に、マイクロフォン1−1を設けても良い。
また、図30に示されているように、ヘッドフォン32の、耳あて部32a内に、マイクロフォン1−1を設けても良い。同様に、図31に示されているように、耳かけ型イヤフォン33の、耳に掛けるつる部33aの端部に、マイクロフォン1−1を設けても良い。
さらに、図32に示されているように、帽子34とマイクロフォン1−1とを一体に構成してもよい。同様に、図33に示されているように、ヘルメット35とマイクロフォン1−1とを一体に構成してもよい。これらとマイクロフォンとを一体化することにより、作業現場や工事現場で違和感なくマイクロフォンを使用でき、たとえ周囲の雑音が大きい場合でも、良好な通話が可能となる。
以上のように、各種の頭部装着物とマイクロフォンとを一体化すれば、マイクロフォンを違和感なく装着できる。しかもマイクロフォンの配置を工夫すれば、マイクロフォンを乳様突起直下に、適切に装着できる。
(変形例)
以下、本発明のコミュニケーションインタフェースシステムの変形例について説明する。
図34は、マイクロフォンと携帯端末との間に信号処理装置を設けた変形例を示すブロック図である。同図において、信号処理装置19−2は、アナログデジタル変換器19−3と、プロセッサ19−4と、送出器19−5とが一体化された構成である。
このような構成において、マイクロフォン1−1で採取された非可聴つぶやき音の振動音は、アナログデジタル変換器19−3で採取されて量子化され、デジタル信号に変換される。この量子化結果であるデジタル信号は、プロセッサ19−4に送られる。プロセッサ19−4は、アナログデジタル変換器19−3から送られたデジタル信号に対し、増幅又は変換などの加工を施す。この加工結果は、送出器19−5に送られる。送出器19−5は、プロセッサ19−4で加工されたデジタル信号を、有線又は無線のいずれかの方法で携帯電話機19−6に対して送出する。なお、この信号処理装置19−2は、当業者であれば容易に作成することができる。こうすることにより、例えば、移動電話網内の装置において、上記加工結果された振動音そのまま、若しくはパラメータ化された信号について処理を行うことができ、信号処理装置の構成を単純化できる。
また、図35も、マイクロフォンと携帯端末との間に信号処理装置を設けた変形例を示すブロック図である。同図において、信号処理装置19−2は、アナログデジタル変換器19−3と、送出器19−5とが一体化された構成である。
このような構成において、マイクロフォン1−1で採取された非可聴つぶやき音の振動音は、アナログデジタル変換器19−3で採取されて量子化され、デジタル信号に変換される。この量子化結果であるデジタル信号は、送出器19−5に送られる。送出器19−5は、アナログデジタル変換器19−3で変換されたデジタル信号を、有線又は無線のいずれかの方法で携帯電話機1−4に対して送出する。このように構成すれば、採取される振動音の加工を、携帯電話又は携帯電話の基地局で行うことができる。このため、信号処理装置19−2の構成を単純化することができる。なお、この信号処理装置19−2は、当業者であれば容易に作成することができる。こうすることにより、例えば移動電話網内の装置において、上記量子化結果について処理を行うことができ、信号処理装置の構成を単純化できる。
図36に示されているように、アナログデジタル変換器19−3と、プロセッサ19−4と、音声認識部19−6とを一体化した信号処理装置19−2を用いても良い。
このような構成において、マイクロフォン1−1で採取された非可聴つぶやき音の振動音は、アナログデジタル変換器19−3で採取されて量子化され、デジタル信号に変換される。この量子化結果であるデジタル信号は、プロセッサ19−4に送られる。プロセッサ19−4は、アナログデジタル変換器19−3から送られたデジタル信号に対し、増幅又は変換などの加工を施す。この加工結果について、音声認識部19−6において音声認識処理が行われる。なお、この信号処理装置19−2は、当業者であれば容易に作成することができる。このように信号処理装置を構成すれば、非可聴つぶやき音について、加工された振動音のそのままの信号、若しくはパラメータ化された信号の音声認識処理を行うことができる。
また、図37に示されているように、図36の構成に、送出器19−5を更に追加した構成にしても良い。このような構成においては、音声認識部19−6による音声認識処理結果は、送出器19−5によって外部に送出される。なお、この信号処理装置19−2は、当業者であれば容易に作成することができる。音声認識結果を、例えば移動電話網に送出することにより、音声認識結果を種々の処理に利用できる。
さらに、本発明のマイクロフォンを携帯電話機などに内蔵させても良い。この場合、そのマイクロフォン部分を乳様突起直下の、胸鎖乳突筋上の皮膚表面に押し当てれば、非可聴つぶやき音を利用した通話が可能となる。
すなわち、携帯電話での通話やコンピュータならびに個人用携帯情報端末への情報入力が、新たな技術習得なしに、生来収得した音声言語文化で培われた調音器官の発話運動のみで可能となる。
しかも、周囲の背景雑音の混入がなく、また、静穏環境を壊すこともない。特に、音声言語のパブリシティーがコントロール可能となり、周囲への情報漏洩を気にしなくても済む。
また、通常音声認識においても、この採音方法により雑音混入が大幅に軽減できる。
目の前や口元にマイクロフォンを装着する煩わしさや携帯電話を片手で耳に当てる動作から解放されて、目立ちにくい耳介後下方部へのマイクロフォン装着のみとなり、場合によっては髪の毛に隠れるという利点もある。
通常音声を発しない、新たな言語コミュニケーション文化が生まれる可能性があるとともに、音声認識技術全体の実生活への普及を大きく促進すると考える。また、声帯などを除去した人や、声帯の規則振動を用いた発声に障害のある人にも最適に利用できる。
Claims (15)
- 耳介の後下方部の、頭蓋骨の乳様突起直下の、胸鎖乳突筋上の皮膚表面に装着され、
発声器官の運動に伴う共振フィルタ特性変化により調音された、声帯の規則振動を伴わない、外部からは非可聴な呼吸音の体内軟部組織を伝導する振動音である非可聴つぶやき音、及び、可聴だが声帯を規則振動させないささやき声、小声、つぶやき声などを含む声帯の規則振動を用いて発声する音声、歯咬音、舌打ち音などの様々な音声、の少なくとも一方を採取することを特徴とするマイクロフォン。 - 前記皮膚表面に装着された振動板と、前記振動板に吸着する吸盤とを含むことを特徴とする請求の範囲第1項記載のマイクロフォン。
- 眼鏡、ヘッドフォン、耳かけ型イヤフォン、帽子、ヘルメットなど、人間の頭部に装着する頭部装着物と一体に構成されていることを特徴とする請求の範囲第1項又は第2項に記載のマイクロフォン。
- 請求の範囲第1項乃至第3項のいずれか1項に記載のマイクロフォンと、前記マイクロフォンによって採取された信号に対して、信号処理を行う信号処理装置と、
を含み、前記信号処理装置による処理結果をコミュニケーションに使用するようにしたことを特徴とするコミュニケーションインタフェースシステム。 - 前記信号処理装置は、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果について加工を行うプロセッサ部と、前記プロセッサ部による加工結果を外部に送出する送出部とを含むことを特徴とする請求の範囲第4項記載のコミュニケーションインタフェースシステム。
- 前記信号処理装置は、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果を外部に送出する送出部とを含み、前記量子化結果の加工を外部装置において行うようにしたことを特徴とする請求の範囲第4項記載のコミュニケーションインタフェースシステム。
- 前記信号処理装置は、前記マイクロフォンによって採取された信号を量子化するアナログデジタル変換部と、前記アナログデジタル変換部による量子化結果について加工を行うプロセッサ部と、前記プロセッサ部による加工結果について音声認識処理を行う音声認識部とを含むことを特徴とする請求の範囲第5項記載のコミュニケーションインタフェースシステム。
- 前記音声認識部による音声認識結果を、外部に送出する送出部を更に含むことを特徴とする請求の範囲第7項記載のコミュニケーションインタフェースシステム。
- 前記送出部によって送出された前記プロセッサ部による加工結果について、移動電話網内の装置によって音声認識処理を行うことを特徴とする請求の範囲第5項記載のコミュニケーションインタフェースシステム。
- 前記信号処理装置が行う信号処理は、前記プロセッサ部が可聴な音声に変調する変調処理であることを特徴とする請求の範囲第5項記載のコミュニケーションインタフェースシステム。
- 前記変調処理は、前記非可聴つぶやき音に、声帯の基本周波数を付与することにより、声帯の規則振動を伴う、可聴な音声に変換する処理であることを特徴とする請求の範囲第10項記載のコミュニケーションインタフェースシステム。
- 前記変調処理は、声帯の規則振動を伴わない、非可聴つぶやき音のスペクトルから、声帯の規則振動を用いて発声された可聴な音声のスペクトルへ変換する処理であることを特徴とする請求の範囲第10項記載のコミュニケーションインタフェースシステム。
- 前記変調処理は、非可聴つぶやき音のスペクトルを用いて、音声認識装置により音節、半音節、音素、2連接音素、3連接音素などの音声単位の認識を行い、認識された音声単位から音声合成技術により、声帯の規則振動を用いて発声された可聴な音声に変換する処理であることを特徴とする請求の範囲第12項記載のコミュニケーションインタフェースシステム。
- 前記マイクロフォンによって採取される音声のダイナミックレンジの大きさに応じて、入力ゲインを制御することを特徴とする請求の範囲第4項乃至第13項のいずれか1項に記載のコミュニケーションインタフェースシステム。
- 前記音声認識部は、前記非可聴つぶやき音、及び、可聴だが声帯を規則振動させないささやき声、小声、つぶやき声などを含む声帯の規則振動を用いて発声する音声、歯咬音、舌打ち音などの様々な音声、の少なくとも一方をモデル化した音響モデルを利用して、音声認識処理を行うことを特徴とする請求の範囲第7項又は第8項に記載のコミュニケーションインタフェースシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002252421 | 2002-08-30 | ||
JP2002252421 | 2002-08-30 | ||
PCT/JP2003/011157 WO2004021738A1 (ja) | 2002-08-30 | 2003-09-01 | マイクロフォン、コミュニケーションインタフェースシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2004021738A1 true JPWO2004021738A1 (ja) | 2005-12-22 |
JP3760173B2 JP3760173B2 (ja) | 2006-03-29 |
Family
ID=31972742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004532784A Expired - Fee Related JP3760173B2 (ja) | 2002-08-30 | 2003-09-01 | マイクロフォン、コミュニケーションインタフェースシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US20050244020A1 (ja) |
EP (1) | EP1538865B1 (ja) |
JP (1) | JP3760173B2 (ja) |
KR (1) | KR100619215B1 (ja) |
CN (1) | CN1679371B (ja) |
AU (1) | AU2003261871A1 (ja) |
DE (1) | DE60333200D1 (ja) |
WO (1) | WO2004021738A1 (ja) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005245580A (ja) * | 2004-03-02 | 2005-09-15 | Azden Corp | Mri装置における音声通信装置 |
JP2006126558A (ja) * | 2004-10-29 | 2006-05-18 | Asahi Kasei Corp | 音声話者認証システム |
WO2006134586A2 (en) * | 2005-06-13 | 2006-12-21 | Technion Research And Development Ltd. | Shielded communication transducer |
KR100692201B1 (ko) * | 2005-06-21 | 2007-03-09 | 계명대학교 산학협력단 | 히든 마르코프 모델을 이용한 심음 분류 방법 |
WO2008007616A1 (fr) * | 2006-07-13 | 2008-01-17 | Nec Corporation | Dispositif, procédé et programme d'alarme relatif à une entrée de murmure non audible |
US8155966B2 (en) * | 2006-08-02 | 2012-04-10 | National University Corporation NARA Institute of Science and Technology | Apparatus and method for producing an audible speech signal from a non-audible speech signal |
JP4671290B2 (ja) * | 2006-08-09 | 2011-04-13 | 国立大学法人 奈良先端科学技術大学院大学 | 肉伝導音採取用マイクロホン |
JP2008042740A (ja) * | 2006-08-09 | 2008-02-21 | Nara Institute Of Science & Technology | 非可聴つぶやき音声採取用マイクロホン |
JP4940956B2 (ja) * | 2007-01-10 | 2012-05-30 | ヤマハ株式会社 | 音声伝送システム |
JP5160878B2 (ja) * | 2007-12-21 | 2013-03-13 | 浜松ホトニクス株式会社 | 試料同定装置および試料同定方法 |
US7983437B2 (en) * | 2008-01-04 | 2011-07-19 | Hammond Wong | Earphone set with detachable speakers or subwoofers |
US9767817B2 (en) * | 2008-05-14 | 2017-09-19 | Sony Corporation | Adaptively filtering a microphone signal responsive to vibration sensed in a user's face while speaking |
JP5256119B2 (ja) * | 2008-05-27 | 2013-08-07 | パナソニック株式会社 | 補聴器並びに補聴器に用いられる補聴処理方法及び集積回路 |
US20100131268A1 (en) * | 2008-11-26 | 2010-05-27 | Alcatel-Lucent Usa Inc. | Voice-estimation interface and communication system |
US10115392B2 (en) * | 2010-06-03 | 2018-10-30 | Visteon Global Technologies, Inc. | Method for adjusting a voice recognition system comprising a speaker and a microphone, and voice recognition system |
US9313306B2 (en) | 2010-12-27 | 2016-04-12 | Rohm Co., Ltd. | Mobile telephone cartilage conduction unit for making contact with the ear cartilage |
CN105141728B (zh) * | 2010-12-27 | 2019-07-30 | 株式会社精好 | 移动电话 |
JP5594152B2 (ja) * | 2011-01-11 | 2014-09-24 | 富士通株式会社 | Nam会話支援システムおよびnam会話支援方法 |
JP5783352B2 (ja) | 2011-02-25 | 2015-09-24 | 株式会社ファインウェル | 会話システム、会話システム用指輪、携帯電話用指輪、指輪型携帯電話、及び、音声聴取方法 |
US8559813B2 (en) | 2011-03-31 | 2013-10-15 | Alcatel Lucent | Passband reflectometer |
US8666738B2 (en) | 2011-05-24 | 2014-03-04 | Alcatel Lucent | Biometric-sensor assembly, such as for acoustic reflectometry of the vocal tract |
DK2592848T3 (da) * | 2011-11-08 | 2019-10-07 | Oticon Medical As | Akustisk transmissionsfremgangsmåde og lytteanordning |
EP2806654B1 (en) | 2012-01-20 | 2019-09-04 | FINEWELL Co., Ltd. | Portable telephone having cartilage conduction section |
US20130294617A1 (en) * | 2012-05-03 | 2013-11-07 | Motorola Mobility Llc | Coupling an Electronic Skin Tattoo to a Mobile Communication Device |
US20130297301A1 (en) * | 2012-05-03 | 2013-11-07 | Motorola Mobility, Inc. | Coupling an electronic skin tattoo to a mobile communication device |
US10492009B2 (en) * | 2012-05-07 | 2019-11-26 | Starkey Laboratories, Inc. | Hearing aid with distributed processing in ear piece |
CN104604247B (zh) | 2012-06-29 | 2019-05-07 | 株式会社精好 | 立体声耳机 |
US9094749B2 (en) * | 2012-07-25 | 2015-07-28 | Nokia Technologies Oy | Head-mounted sound capture device |
US20140074480A1 (en) * | 2012-09-11 | 2014-03-13 | GM Global Technology Operations LLC | Voice stamp-driven in-vehicle functions |
US9943712B2 (en) * | 2012-09-24 | 2018-04-17 | Dolores Speech Products Llc | Communication and speech enhancement system |
JP2014143582A (ja) * | 2013-01-24 | 2014-08-07 | Nippon Hoso Kyokai <Nhk> | 通話装置 |
CN104575500B (zh) * | 2013-10-24 | 2018-09-11 | 中国科学院苏州纳米技术与纳米仿生研究所 | 电子皮肤在语音识别上的应用、语音识别系统和方法 |
CN104123930A (zh) * | 2013-04-27 | 2014-10-29 | 华为技术有限公司 | 喉音识别方法及装置 |
CN105493478B (zh) | 2013-08-23 | 2018-06-12 | 罗姆股份有限公司 | 移动电话 |
JP6391053B2 (ja) | 2013-10-15 | 2018-09-19 | パナソニックIpマネジメント株式会社 | マイクロホン |
CN105684401B (zh) | 2013-10-24 | 2018-11-06 | 罗姆股份有限公司 | 腕带型手持装置 |
JP6551919B2 (ja) | 2014-08-20 | 2019-07-31 | 株式会社ファインウェル | 見守りシステム、見守り検知装置および見守り通報装置 |
CN104317388B (zh) * | 2014-09-15 | 2018-12-14 | 联想(北京)有限公司 | 一种交互方法及穿戴式电子设备 |
KR102110094B1 (ko) | 2014-12-18 | 2020-05-12 | 파인웰 씨오., 엘티디 | 자전거 주행용 청취 장치 및 자전거 시스템 |
US9847093B2 (en) * | 2015-06-19 | 2017-12-19 | Samsung Electronics Co., Ltd. | Method and apparatus for processing speech signal |
CN107848125B (zh) * | 2015-07-15 | 2021-04-27 | 株式会社精好 | 机器人和机器人系统 |
JP6551929B2 (ja) | 2015-09-16 | 2019-07-31 | 株式会社ファインウェル | 受話機能を有する腕時計 |
CN108496345B (zh) | 2016-01-19 | 2021-02-26 | 株式会社精好 | 笔型呼入呼出通话装置 |
CN106419954B (zh) * | 2016-09-26 | 2019-05-21 | 珠海爱珂索移动医疗科技有限公司 | 一种适用于听诊器的振动还原方法 |
EP3613216A4 (en) | 2017-04-23 | 2020-12-02 | Audio Zoom Pte Ltd | TRANSDUCING DEVICE INTENDED FOR HIGH SPEECH INTELLIGIBILITY IN NOISY ENVIRONMENTS |
US10462578B2 (en) * | 2017-05-08 | 2019-10-29 | Intel Corporation | Piezoelectric contact microphone with mechanical interface |
JP7095692B2 (ja) * | 2017-05-23 | 2022-07-05 | ソニーグループ株式会社 | 情報処理装置及びその制御方法、並びに記録媒体 |
WO2020036534A1 (en) | 2018-08-13 | 2020-02-20 | Audio Zoom Pte Ltd | Transducer apparatus embodying non-audio sensors for noise-immunity |
JP2020053948A (ja) | 2018-09-28 | 2020-04-02 | 株式会社ファインウェル | 聴取装置 |
JP6894081B2 (ja) * | 2018-11-05 | 2021-06-23 | 幸男 中川 | 語学学習装置 |
CN112738687B (zh) * | 2021-02-08 | 2023-04-07 | 江西联创电声有限公司 | 一种耳机 |
CN113810819B (zh) * | 2021-09-23 | 2022-06-28 | 中国科学院软件研究所 | 一种基于耳腔振动的静默语音采集处理方法及设备 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6068734U (ja) * | 1983-10-18 | 1985-05-15 | 株式会社岩田エレクトリツク | 送受話器 |
JPH0515290Y2 (ja) * | 1985-05-31 | 1993-04-22 | ||
JPS61288596A (ja) * | 1985-06-14 | 1986-12-18 | Purimo:Kk | マイクロホン |
US4777961A (en) * | 1985-10-15 | 1988-10-18 | Bruce Saltzman | High sensitivity stethoscopic system and method |
US4972468A (en) * | 1987-10-14 | 1990-11-20 | Sanshin Kogyo Kabushiki Kaisha | Transceiver for hanging on an ear |
JPH0256121A (ja) * | 1987-10-14 | 1990-02-26 | Sanshin Ind Co Ltd | 耳掛式送受信装置 |
JPH04316300A (ja) * | 1991-04-16 | 1992-11-06 | Nec Ic Microcomput Syst Ltd | 音声入力装置 |
EP0519621A1 (en) * | 1991-06-03 | 1992-12-23 | Pioneer Electronic Corporation | Speech transmitter |
JP3647499B2 (ja) * | 1995-03-31 | 2005-05-11 | フオスター電機株式会社 | 音声ピックアップシステム |
US5729694A (en) * | 1996-02-06 | 1998-03-17 | The Regents Of The University Of California | Speech coding, reconstruction and recognition using acoustics and electromagnetic waves |
US5853005A (en) * | 1996-05-02 | 1998-12-29 | The United States Of America As Represented By The Secretary Of The Army | Acoustic monitoring system |
JP3041176U (ja) * | 1997-01-23 | 1997-09-09 | 照雄 松岡 | 皮膚接触式密閉ケースの間接振動伝導型エレクトレットコン デンサーマイクやダイナミックスマイクユニットの高音域と 音圧を上げる圧電セラミックスエレメントやカートリッジユ ニット追加使用の2−ウェイマイクロホン |
US6353671B1 (en) * | 1998-02-05 | 2002-03-05 | Bioinstco Corp. | Signal processing circuit and method for increasing speech intelligibility |
JP3893763B2 (ja) * | 1998-08-17 | 2007-03-14 | 富士ゼロックス株式会社 | 音声検出装置 |
JP2000341778A (ja) * | 1999-05-25 | 2000-12-08 | Temuko Japan:Kk | 骨伝導スピーカーを用いた送受話装置 |
JP2000338986A (ja) * | 1999-05-28 | 2000-12-08 | Canon Inc | 音声入力装置及びその制御方法及び記憶媒体 |
US7246058B2 (en) * | 2001-05-30 | 2007-07-17 | Aliph, Inc. | Detecting voiced and unvoiced speech using both acoustic and nonacoustic sensors |
US6631197B1 (en) * | 2000-07-24 | 2003-10-07 | Gn Resound North America Corporation | Wide audio bandwidth transduction method and device |
US6519345B1 (en) * | 2000-08-14 | 2003-02-11 | Chin-Hui Yang | Double-functioned hand-free device for cellular telephone |
JP2002135390A (ja) * | 2000-10-23 | 2002-05-10 | Zojirushi Corp | 携帯電話機用音声入力装置 |
US6898448B2 (en) * | 2002-01-16 | 2005-05-24 | Sheng Hsin Liao | Miniature vocal transmitter device |
JP4702795B2 (ja) * | 2004-01-09 | 2011-06-15 | 国立大学法人 奈良先端科学技術大学院大学 | 体内伝導音マイクロフォン、信号処理装置、コミュニケーションインタフェースシステム、採音方法 |
-
2003
- 2003-09-01 WO PCT/JP2003/011157 patent/WO2004021738A1/ja active Application Filing
- 2003-09-01 CN CN038201674A patent/CN1679371B/zh not_active Expired - Fee Related
- 2003-09-01 AU AU2003261871A patent/AU2003261871A1/en not_active Abandoned
- 2003-09-01 US US10/525,733 patent/US20050244020A1/en not_active Abandoned
- 2003-09-01 EP EP03791441A patent/EP1538865B1/en not_active Expired - Fee Related
- 2003-09-01 DE DE60333200T patent/DE60333200D1/de not_active Expired - Lifetime
- 2003-09-01 KR KR1020057003369A patent/KR100619215B1/ko not_active IP Right Cessation
- 2003-09-01 JP JP2004532784A patent/JP3760173B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP1538865A4 (en) | 2007-07-04 |
AU2003261871A1 (en) | 2004-03-19 |
JP3760173B2 (ja) | 2006-03-29 |
KR20050057004A (ko) | 2005-06-16 |
EP1538865B1 (en) | 2010-06-30 |
EP1538865A1 (en) | 2005-06-08 |
CN1679371B (zh) | 2010-12-29 |
KR100619215B1 (ko) | 2006-09-06 |
CN1679371A (zh) | 2005-10-05 |
WO2004021738A1 (ja) | 2004-03-11 |
US20050244020A1 (en) | 2005-11-03 |
DE60333200D1 (de) | 2010-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3760173B2 (ja) | マイクロフォン、コミュニケーションインタフェースシステム | |
JP4702795B2 (ja) | 体内伝導音マイクロフォン、信号処理装置、コミュニケーションインタフェースシステム、採音方法 | |
US10475467B2 (en) | Systems, methods and devices for intelligent speech recognition and processing | |
JP4439740B2 (ja) | 音声変換装置及び方法 | |
US20040202344A1 (en) | Method and apparatus for tooth bone conduction microphone | |
JP2012510088A (ja) | 音声推定インタフェースおよび通信システム | |
US8155966B2 (en) | Apparatus and method for producing an audible speech signal from a non-audible speech signal | |
JP2002358089A (ja) | 音声処理装置及び音声処理方法 | |
US11589173B2 (en) | Hearing aid comprising a record and replay function | |
JP4130443B2 (ja) | マイクロフォン、信号処理装置、コミュニケーションインタフェースシステム、音声話者認証システム、nam音対応玩具装置 | |
KR100778143B1 (ko) | 후두 임피던스 신호를 이용하는 넥마이크를 구비한 골도헤드셋 | |
JP2006086877A (ja) | ピッチ周波数推定装置、無声信号変換装置、無声信号検出装置、無声信号変換方法 | |
Nakamura et al. | Evaluation of extremely small sound source signals used in speaking-aid system with statistical voice conversion | |
JP4418867B2 (ja) | 無発声音声入力装置、電話機及び情報処理装置 | |
Hirahara et al. | Acoustic characteristics of non-audible murmur | |
KR20020035065A (ko) | 귀를 통해서 소리를 녹음하는 방식 | |
KR20050104752A (ko) | 인공 후두장치 | |
WO2005009073A1 (ja) | 音声入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20050920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060106 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090113 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110113 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110113 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120113 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130113 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140113 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |