JP2011203759A - 複数感知の音声強調のための方法および機器 - Google Patents

複数感知の音声強調のための方法および機器 Download PDF

Info

Publication number
JP2011203759A
JP2011203759A JP2011153225A JP2011153225A JP2011203759A JP 2011203759 A JP2011203759 A JP 2011203759A JP 2011153225 A JP2011153225 A JP 2011153225A JP 2011153225 A JP2011153225 A JP 2011153225A JP 2011203759 A JP2011203759 A JP 2011203759A
Authority
JP
Japan
Prior art keywords
signal
auxiliary sensor
noise
speech
estimate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011153225A
Other languages
English (en)
Other versions
JP5247855B2 (ja
Inventor
Alejandro Acero
アセロ アレサンドロ
James G Droppo
ジー.ドロッポ ジェームス
Li Deng
デン リ
Michael J Sinclair
ジェイ.シンクレアー マイケル
Xuedong David Huang
デビッド ファング シェドン
Yanli Zheng
チェン ヤンリ
Zhengyou Zhang
チャン チェンユー
Zicheng Liu
リュー ジチェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2011203759A publication Critical patent/JP2011203759A/ja
Application granted granted Critical
Publication of JP5247855B2 publication Critical patent/JP5247855B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

【課題】気導マイクロホン以外のセンサから受信した補助センサ信号を利用して、クリーンな音声値を推定する方法およびシステムを提供すること。
【解決手段】クリーンな音声値の推定では、補助センサ信号のみ、または補助センサ信号を気導マイクロホン信号とともに使用する。クリーンな音声値は、気導マイクロホンから収集された雑音のあるトレーニング用データによってトレーニングされたモデルを使わずに推定される。一実施形態では、フィルタを形成するために補助センサ信号から形成されたベクトルに補正ベクトルが加えられ、このフィルタは、気導マイクロホン信号に適用されて、クリーンな音声推定値を作成する。他の実施形態では、音声信号のピッチが、補助センサ信号から判定され、気導マイクロホン信号を分解するのに用いられる。分解された信号は次いで、クリーン信号推定値を決定するのに用いられる。
【選択図】図3

Description

本発明は、ノイズリダクションに関する。特に、本発明は、音声信号からの雑音の除去に関する。
音声認識および音声伝送に共通の問題は、加法性雑音による、音声信号の汚染である。特に、別の話者の音声による汚染は、検出および/または補正するのが困難であることがわかっている。
雑音を除去する一技術では、様々な条件下で収集された、ある1組の雑音のトレーニング信号(training signals)を用いて、雑音のモデル化を試みる。こうしたトレーニング信号は、復号されまたは伝送されるテスト信号の前に受信され、トレーニング目的でのみ使用される。このようなシステムは、雑音を考慮に入れるモデルの構築を試みるが、こうしたモデルは、トレーニング信号の雑音条件がテスト信号の雑音条件と一致する場合にのみ効果的である。可能な多数の雑音、および雑音のおそらく無限の組合せのため、雑音モデルを、あらゆるテスト条件を扱うことができるトレーニング信号から構築することは非常に難しい。
雑音を除去する別の技術は、テスト信号中の雑音を推定し、次いで、その雑音を雑音のある音声信号から取り去ることである。典型的には、このようなシステムは、テスト信号に先行するフレームから雑音を推定する。したがって、雑音が時間とともに変化している場合、現在のフレームに対する雑音の推定値は不正確になる。
音声信号中の雑音を推定する、従来技術の1つのシステムは、人間の音声の高調波を利用する。人間の音声の高調波は、周波数スペクトル中にピークを生じさせる。こうしたピーク間のヌル(nulls)を識別することにより、こうしたシステムは、雑音のスペクトルを識別する。このスペクトルは次いで、雑音のある音声信号のスペクトルから減算されて、クリーンな音声信号を提供する。
音声の高調波は、音声符号化において、デジタル通信パスを介した伝送のために音声をエンコードするとき、送信しなければならないデータ量を削減するのにも利用されている。このようなシステムは、音声信号を高調波成分およびランダム成分に分離することを試みる。各コンポーネントは次いで、伝送のために別個にエンコードされる。あるシステムでは、特に、分解を実行するための音声信号に正弦波の和というモデルが適合される、高調波+雑音モデルを利用した。
音声符号化において、分解は、入力された、雑音のある音声信号を正確に表す音声信号のパラメータ化を見つけるために行われる。分解は、ノイズリダクション性能をもたない。
最近、骨伝導マイクロホンなどの補助センサおよび気導マイクロホンの組合せを用いることによって雑音の除去を試みるシステムが開発された。このシステムは、3つのトレーニング用チャネル、すなわち雑音のある補助センサトレーニング信号、雑音のある気導マイクロホントレーニング信号、およびクリーンな気導マイクロホントレーニング信号を用いてトレーニングされる。信号はそれぞれ、特徴領域に変換される。雑音のある補助センサ信号および雑音のある気導マイクロホン信号に関する特徴は、雑音のある信号を表す単一のベクトルに結合される。クリーンな気導マイクロホン信号に関する特徴は、単一のクリーンなベクトルを形成する。こうしたベクトルは次いで、雑音のあるベクトルとクリーンなベクトルの間のマッピングをトレーニングするのに用いられる。一度トレーニングされると、マッピングは、雑音のある補助センサテスト信号および雑音のある気導マイクロホンテスト信号の結合から形成された、雑音のあるベクトルに適用される。このマッピングは、クリーンな信号ベクトルを生じる。
マッピングは、トレーニング信号の雑音条件に合わせて設計されるので、テスト信号の雑音条件がトレーニング信号の雑音条件と一致しないとき、このシステムは全く最適ではない。
一方法およびシステムでは、気導マイクロホン以外のセンサから受信した補助センサ信号を利用して、クリーンな音声値を推定する。クリーンな音声値は、気導マイクロホンから収集された雑音のあるトレーニング用データからトレーニングされたモデルを使わずに推定される。一実施形態では、フィルタを形成するために補助センサ信号から形成されたベクトルに補正ベクトルが加算され、このフィルタは、気導マイクロホン信号に適用されて、クリーンな音声推定値を生じる。他の実施形態では、音声信号のピッチが、補助センサ信号から決定され、気導マイクロホン信号を分解するのに用いられる。分解された信号は次いで、クリーン信号推定値を特定するのに用いられる。
本発明を実施することができる一コンピューティング環境を示すブロック図である。 本発明を実施することができる別のコンピューティング環境を示すブロック図である。 本発明の概略的な音声処理システムを示すブロック図である。 本発明の一実施形態におけるノイズリダクションパラメータをトレーニングするシステムを示すブロック図である。 図4のシステムを用いたノイズリダクションパラメータのトレーニングを示すフロー図である。 本発明の一実施形態における、雑音のあるテスト音声信号からクリーンな音声信号の推定値を特定するシステムを示すブロック図である。 図6のシステムを用いて、クリーンな音声信号の推定値を特定する方法を示すフロー図である。 クリーンな音声信号の推定値を特定する代替システムを示すブロック図である。 クリーンな音声信号の推定値を特定する第2の代替システムを示すブロック図である。 図9のシステムを用いて、クリーンな音声信号の推定値を特定する方法を示すフロー図である。 骨伝導マイクロホンを示すブロック図である。
図1は、本発明を実施することができる、適切なコンピューティングシステム環境100の一例を示す。コンピューティングシステム環境100は、適切なコンピューティング環境の一例に過ぎず、本発明の使用または機能の範囲に対するどのような限定を示唆することも意図していない。コンピューティング環境100は、例示的な動作環境100に示されるどの構成要素またはその組合せに関するどのような依存も要件も有していると解釈されるべきではない。
本発明は、他の数多くの汎用または専用のコンピューティングシステムまたは構成とも動作する。本発明とともに使用するのに適切であり得る周知のコンピューティングシステム、環境、および/または構成の例は、パーソナルコンピュータ、サーバコンピュータ、携帯型装置またはラップトップ装置、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家電製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、電話システム、上記のシステムまたは装置のいずれをも含む分散コンピューティング環境などを含むが、それに限定されない。
本発明は、コンピュータによって実行される、プログラムモジュールなどのコンピュータ実行可能命令の一般的なコンテキストで説明することができる。概して、プログラムモジュールは、特定のタスクを実施しまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。本発明は、通信ネットワークを介してリンクされるリモート処理装置によってタスクが実行される分散コンピューティング環境において実施されるように設計される。分散コンピューティング環境では、プログラムモジュールは、メモリ記憶装置を含むローカルおよびリモートコンピュータ記憶媒体両方に置かれる。
図1を参照すると、本発明を実施する例示的なシステムは、汎用コンピューティング装置を、コンピュータ110の形で含む。コンピュータ110のコンポーネントは、処理装置120と、システムメモリ130と、システムメモリなど様々なシステムの構成要素を処理装置120に結合するシステムバス121とを含むことができるが、それに限定されない。システムバス121は、様々なバスアーキテクチャのいずれかを使用するメモリバスまたはメモリコントローラ、周辺バス、およびローカルバスなどいくつかの種類のバス構造のいずれでもよい。限定ではなく例として、このようなアーキテクチャは、ISA(Industry Standard Architecture)バス、MCA(Micro Channel Architecture)バス、EISA(Enhanced ISA)バス、VESA(Video Electronics Standards Association)ローカルバス、およびメザニン(Mezzanine)バスとしても知られるPCI(周辺装置相互接続)バスを含む。
コンピュータ110は通常、様々なコンピュータ読み取り可能な媒体を含む。コンピュータ読み取り可能媒体は、コンピュータ110によってアクセスすることができる任意の利用可能な媒体であり、揮発性媒体および不揮発性媒体両方、取外し可能媒体および固定の媒体を含む、利用可能などの媒体でもよい。限定ではなく例として、コンピュータ読み取り可能な媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。コンピュータ記憶媒体は、コンピュータ読取可能命令、データ構造、プログラムモジュール、または他のデータなどの情報を格納するためのどの方法でも技術でも実施される揮発性媒体および不揮発性媒体の両方、取外し可能媒体および固定の媒体を含む。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、DVD(digital versatile disks)または他の光学ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、あるいは、所望の情報を格納するのに使用することができるとともにコンピュータ110によってアクセスすることができる他の任意の媒体も含むが、それに限定されない。通信媒体は、典型的には、搬送波やその他の搬送メカニズムなどの変調されたデータ信号中のコンピュータ読み取り可能な命令、データ構造、プログラムモジュール、またはその他のデータなどを具現化するものであり、任意の情報伝達媒体を含む。「変調されたデータ信号」という用語は、信号内に情報を符号化するような方法で、1つまたは複数の特性が設定または変更された信号を意味する。限定するものではないが、通信媒体には、例として、有線ネットワーク、直接ワイヤ接続などの有線媒体と、音響、無線、赤外線などの無線媒体が挙げられる。上記の任意の組合せも、コンピュータ読み取り可能な媒体の範囲内に含まれるものとする。
システムメモリ130は、コンピュータ記憶媒体を、ROM(読出し専用メモリ)131およびRAM(ランダムアクセスメモリ)132など、揮発性および/または不揮発性メモリの形で含む。BIOS(基本入出力システム)133は、たとえば起動中にコンピュータ110内部の構成要素間で情報を転送するのを支援する基本ルーチンを含み、通常はROM131に格納される。RAM132は通常、処理装置120に対してただちにアクセス可能な、および/または処理装置120によって現在操作されているデータおよび/またはプログラムモジュールを含む。限定ではなく例として、図1は、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137を示す。
コンピュータ110は、他の取外し可能/固定の、揮発性/不揮発性コンピュータ記憶媒体を含むこともできる。単なる例として、図1では、固定の不揮発性磁気媒体の読み出しまたは書き込みを行うハードディスクドライブ141、取外し可能な不揮発性磁気ディスク152の読み出しまたは書き込みを行う磁気ディスクドライブ151、および、CD ROMや他の光学媒体など取外し可能な不揮発性光ディスク156の読み出しまたは書き込みを行う光ディスクドライブ155を示す。例示的な動作環境で使用することができる、他の取外し可能/固定の、揮発性/不揮発性のコンピュータ記憶媒体は、磁気テープカセット、フラッシュメモリカード、デジタル多用途ディスク、デジタルビデオテープ、固体RAM、固体ROMなどを含むが、それに限定されない。ハードディスクドライブ141は通常、インターフェイス140などの固定のメモリインターフェイスを介してシステムバス121に接続され、磁気ディスクドライブ151および光ディスクドライブ155は通常、インターフェイス150などの取外し可能メモリインターフェイスを介して、システムバス121に接続される。
上述し、かつ図1に示すドライブおよびそれに関連するコンピュータ記憶媒体は、コンピュータ読み取り可能な命令、データ構造、プログラムモジュール、およびコンピュータ110用の他のデータの記憶装置を提供する。図1では、たとえば、ハードディスクドライブ141は、オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147を格納するものとして示してある。こうしたコンポーネントは、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137と同じでも、異なってもよいことに留意されたい。オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147には、少なくとも異なるものであることを示すために、ここでは異なる番号を付与している。
ユーザは、キーボード162、マイクロホン163、および、マウス、トラックボール、またはタッチパッドなどのポインティングデバイス161などの入力装置を介して、コマンドおよび情報をコンピュータ110に入力することができる。他の入力装置(図示せず)は、ジョイスティック、ゲームパッド、衛星パラボラアンテナ、スキャナなどを含むことができる。こうしたおよび他の入力装置はしばしば、システムバスに接続されるユーザ入力インターフェイス160を介して処理装置120に接続されるが、他のインターフェイスおよびバス構造、たとえば並列ポート、ゲームポート、USB(ユニバーサルシリアルバス)などによって接続することもできる。モニタ191または他の種類の表示装置も、ビデオインターフェイス190などのインターフェイスを介してシステムバス121に接続される。モニタに加え、コンピュータは、出力周辺インターフェイス195を介して接続することができるスピーカ197およびプリンタ196など、他の周辺出力装置も含むことができる。
コンピュータ110は、リモートコンピュータ180など、1つまたは複数のリモートコンピュータへの論理接続を使用してネットワーク環境で動作する。リモートコンピュータ180は、パーソナルコンピュータ、携帯型装置、サーバ、ルータ、ネットワークPC、ピア装置(peer device)、または他の共通ネットワークノードでよく、通常、コンピュータ110に関連して上述した構成要素の多くまたはすべてを含む。図1に示される論理接続は、LAN(ローカルエリアネットワーク)171およびWAN(ワイドエリアネットワーク)173を含むが、他のネットワークを含むこともできる。このようなネットワーク環境は、会社、企業規模のコンピュータネットワーク、イントラネットおよびインターネットにおいて一般的である。
LANネットワーク環境において使用される場合、コンピュータ110は、ネットワークインターフェイスまたはアダプタ170を介してLAN171に接続される。WANネットワーク環境において使用される場合、コンピュータ110は通常、モデム172、または、たとえばインターネットなどのWAN173を介して通信を確立する他の手段を含む。モデム172は、内部にあっても外部にあってもよく、ユーザ入力インターフェイス160または他の適切な機構を介してシステムバス121に接続することができる。ネットワーク環境では、コンピュータ110に関連して図示したプログラムモジュールまたはその一部は、リモートメモリ記憶装置に格納することができる。限定ではなく例として、図1は、リモートアプリケーションプログラム185を、リモートコンピュータ180にあるように示している。図示したネットワーク接続は例示的なものであり、コンピュータ間の通信リンクを確立する他の手段も使用できることが理解されよう。
図2は、例示的なコンピューティング環境であるモバイル装置200のブロック図である。モバイル装置200は、マイクロプロセッサ202、メモリ204、入出力(I/O)装置206、およびリモートコンピュータまたは他のモバイル装置と通信するための通信インターフェイス208を含む。一実施形態では、上述した構成要素は、適切なバス210を介して互いに通信するために接続される。
メモリ204は、モバイル装置200への全体の電源がシャットダウンされたとき、メモリ204に格納された情報が失われないように、不揮発性電子メモリ、たとえばバッテリバックアップモジュール(図示せず)を有するRAM(ランダムアクセスメモリ)として実装される。メモリ204の一部分は、好ましくはプログラム実行用にアドレス指定可能なメモリとして割り当てられ、メモリ204の別の部分は、好ましくは記憶用に、たとえばディスクドライブ上で記憶をシミュレートするために用いられる。
メモリ204は、オペレーティングシステム212、アプリケーションプログラム214、ならびにオブジェクトストア216を含む。動作中、オペレーティングシステム212は、好ましくは、メモリ204から、プロセッサ202によって実行される。オペレーティングシステム212は、好ましい一実施形態では、マイクロソフトコーポレーションから市販されているWINDOWS(登録商標)CEブランドのオペレーティングシステムである。オペレーティングシステム212は、好ましくは、モバイル装置用に設計され、公開されている1組のアプリケーションプログラミングインターフェイスおよびメソッドを介してアプリケーション214によって利用することができるデータベース機能を実装する。オブジェクトストア216内のオブジェクトは、公開されているアプリケーションプログラミングインターフェイスおよびメソッドに対する呼出しに少なくとも部分的に応答して、アプリケーション214およびオペレーティングシステム212によって維持される。
通信インターフェイス208は、モバイル装置200が情報を送受信することを可能にする多数の装置および技術を表す。このような装置は、いくつか例を挙げると、有線モデムおよび無線モデム、衛星受信機、ならびに放送チューナを含む。モバイル装置200は、データ交換を行うコンピュータに直接接続することもできる。このような場合、通信インターフェイス208は、赤外線送受信機でも、シリアルまたはパラレルの通信接続でもよく、これらはすべて、ストリーム情報を伝送することができる。
入力/出力装置206は、タッチ画面(touch−sensitive screen)、ボタン、ローラ、およびマイクロホンなどの様々な入力装置、ならびに音声ジェネレータ、振動装置、およびディスプレイを含む様々な出力装置を含む。上に列挙した装置は例であり、すべてがモバイル装置200上になくてもよい。さらに、他の入力/出力装置が、本発明の範囲内において、モバイル装置200に取り付けられてもよく、モバイル装置200に備わっていてもよい。
図3は、本発明の実施形態の基本的なブロック図を提供している。図3において、話者300は、音声信号302を生成し、この音声信号302は、気導マイクロホン304および補助センサ306によって検出される。補助センサの例には、ユーザの喉の振動を測定する咽喉マイクロホン、ユーザの顔の骨または頭蓋骨の上またはその付近(たとえば顎の骨)、あるいはユーザの耳の中に配置され、ユーザによって生成された音声に対応する頭蓋および顎の振動を感知する骨伝導センサがある。気導マイクロホン304は、音波を電気信号に変換するのに一般に使われる種類のマイクロホンである。
気導マイクロホン304は、1つまたは複数の雑音発生源310によって生成された雑音308も受ける。補助センサの種類および雑音のレベルによっては、雑音308は、補助センサ306によって検出することもできる。しかし、本発明の実施形態では、補助センサ306は通常、気導マイクロホン304よりも周囲の雑音に対して鈍感である。したがって、補助センサ306によって生成された補助センサ信号312は概して、気導マイクロホン304によって生成された気導マイクロホン信号314より少ない雑音を含む。
補助センサ信号312および気導マイクロホン信号314は、クリーン信号推定器316に与えられ、推定装置316は、クリーンな信号318を推定する。クリーン信号推定値318は、音声処理320に与えられる。クリーン信号推定値318は、フィルタリングされた時間領域信号でも、特徴領域ベクトルでもよい。クリーン信号推定値318が時間領域信号である場合、音声処理320は、聴者、音声符号化システム、または音声認識システムの形をとることができる。クリーン信号推定値318が特徴領域ベクトルである場合、音声処理320は通常、音声認識システムであろう。
本発明は、気導マイクロホン信号314および補助センサ信号312を用いてクリーンな音声を推定するいくつかの方法およびシステムを提供する。あるシステムでは、ステレオトレーニング用データを用いて、補助センサ信号用の補正ベクトルをトレーニングする。こうした補正ベクトルは、後でテスト用補助センサベクトルに加算されると、クリーンな信号ベクトルの推定値を与える。このシステムのさらなる拡張の1つは、時間によって変化するひずみを最初に追跡し、次いで、この情報を補正ベクトルの計算およびクリーンな音声の推定に組み込むことである。
第2のシステムは、補正ベクトルによって生成されたクリーン信号推定値と、気導信号から気導テスト信号中の現在の雑音の推定値を減算することによって形成された推定値との間の補間を提供する。第3のシステムは、補助センサ信号を用いて音声信号のピッチを推定し、次いで、推定したピッチを用いて、クリーンな信号に対する推定値を特定する。こうしたシステムはそれぞれ、後で個別に説明する。
(ステレオ補正ベクトルのトレーニング)
図4および5は、クリーンな音声の推定値を生成するために補正ベクトルに依拠する本発明の2つの実施形態用の、ステレオ補正ベクトルをトレーニングすることについてのブロック図およびフロー図を提供する。
補正ベクトルを特定する方法は、図5のステップ500で始まり、ここで、「クリーンな」気導マイクロホン信号が特徴ベクトルの列に変換される。この変換を行うために、図4の話者400は、気導マイクロホン410に向かって話し、マイクロホン410は、オーディオ波を電気信号に変換する。電気信号は次いで、アナログ−デジタルコンバータ414によってサンプリングされて、デジタル値の列を生成し、こうしたデジタル値は、フレームコンストラクタ416により値からなるフレームにグループ化される。一実施形態では、A/Dコンバータ414は、16kHz、かつ1サンプルごとに16ビットでアナログ信号をサンプリングし、そうすることによって毎秒32キロバイトの発話データを作成し、フレームコンストラクタ416は、25ミリ秒分のデータを含む新規フレームを10ミリ秒毎に作成する。
フレームコンストラクタ416によって提供される各データフレームは、特徴抽出器418によって特徴ベクトルに変換される。一実施形態では、特徴抽出器418が、ケプストラム特徴を形成する。このような特徴の例には、LPC派生ケプストラム、およびメル(Mel)周波数ケプストラム係数がある。本発明とともに使用することができる他の可能な特徴抽出モジュールの例には、線形予測符号化(LPC)、知覚線形予測(PLP)、および聴覚モデル特徴抽出を実施するモジュールがある。本発明はこうした特徴抽出モジュールに限定されず、他のモジュールも本発明のコンテキストの範囲内において使用できることに留意されたい。
図5のステップ502で、補助センサ信号が、特徴ベクトルに変換される。ステップ502の変換は、ステップ500の変換の後に起こるものと示してあるが、本発明では、変換のどの部分も、ステップ500の前、ステップ500の間、またはその後に実施することができる。ステップ502の変換は、ステップ500に関して上述したものと同様の処理を介して実行される。
図4の実施形態において、この処理は、骨の振動や顔の動きなど、話者400による音声の生成に関連づけられた物理的な事象を補助センサ402が検出したときに始まる。図11に示すように、骨伝導センサ1100の一実施形態では、柔らかいエラストマブリッジ(elastomer bridge)1102が、通常の気導マイクロホン1106の振動板1104に接着される。この柔らかいブリッジ1102は、ユーザの皮膚接触部分1108から、マイクロホン1106の振動板1104に直接、振動を伝導する。振動板1104の動きは、マイクロホン1106内のトランスデューサ1110によって電気信号に変換される。補助センサ402は、物理的な事象をアナログ電気信号に変換し、この信号は、アナログ−デジタルコンバータ404によってサンプリングされる。A/Dコンバータ404に関するサンプリング特性は、A/Dコンバータ414に関して上述したものと同じである。A/Dコンバータ404によって提供されたサンプルは、フレームコンストラクタ406によってフレーム中に集められ、フレームコンストラクタ406は、フレームコンストラクタ416と同様の方法で動作する。こうしたサンプルフレームは次いで、特徴抽出器408によって特徴ベクトルに変換され、特徴抽出器408は、特徴抽出器418と同じ特徴抽出方法を用いる。
補助センサ信号および気導信号に対する特徴ベクトルは、図4のノイズリダクショントレーナ420に与えられる。図5のステップ504で、ノイズリダクショントレーナ420は、補助センサ信号に対する特徴ベクトルを混合成分にグループ化する。このグループ化は、最大尤度トレーニング技術を用いて類似の特徴ベクトルを同じグループにすることによって、または、音声信号の時間セクションを表す特徴ベクトルを同じグループにすることによって行うことができる。特徴ベクトルをグループ化する他の技術も用いることができ、上に挙げた2つの技術は例として挙げられるに過ぎないことが当業者には理解されよう。
ノイズリダクショントレーナ420は次いで、図5のステップ508で、各混合成分sに対する補正ベクトルrを決定する。一実施形態では、各混合成分に対する補正ベクトルは、最大尤度基準を用いて決定される。この技術では、補正ベクトルは、以下のように計算される。
Figure 2011203759
上式で、xは、フレームtに対する気導ベクトルの値であり、bは、フレームtに対する補助センサベクトルの値である。式1において、
Figure 2011203759
であり、p(s)は、混合成分の数に対して単に1であり、p(b|s)は、ガウス分布:
p(b|s)=N(b;μ,Γ) 式3
としてモデル化され、平均値μおよび分散Γは期待値最大化(EM)アルゴリズムを用いてトレーニングされており、各反復は、以下のステップからからなる。
γ(t)=p(s|b) 式4
Figure 2011203759
式4は、EMアルゴリズムにおけるEステップであり、Eステップは、予め推定されたパラメータを使用する。式5および式6はMステップであり、Mステップは、Eステップの結果を用いてパラメータをアップデートする。
アルゴリズムのEおよびMステップは、モデルパラメータ用の安定した値が決定されるまで反復される。こうしたパラメータは次いで、補正ベクトルを形成するために式1を評価するのに使用される。次いで、補正ベクトルおよびモデルパラメータは、ノイズリダクションパラメータ記憶装置422に格納される。
ステップ508で、各混合成分に対する補正ベクトルが決定された後、本発明のノイズリダクションシステムをトレーニングする処理が完了する。各混合物に対して補正ベクトルが決定されると、補正ベクトルは、本発明のノイズリダクション技術において使用することができる。補正ベクトルを使用する2つの別個のノイズリダクション技術については、以下に説明する。
(補正ベクトルおよび雑音推定値を用いたノイズリダクション)
補正ベクトルおよび雑音推定値に基づいて、雑音のある音声信号中の雑音を低減するシステムおよび方法を、図6のブロック図および図7のフロー図にそれぞれ示す。
ステップ700で、気導マイクロホン604によって検出されたオーディオテスト信号が、特徴ベクトルに変換される。マイクロホン604によって受信されたオーディオテスト信号は、話者600からの音声、および1つまたは複数の雑音発生源602からの加法性雑音を含む。マイクロホン604によって検出されたオーディオテスト信号は、電気信号に変換され、この電気信号は、アナログ−デジタルコンバータ606に与えられる。
A/Dコンバータ606は、マイクロホン604からのアナログ信号をデジタル値の列に変換する。いくつかの実施形態において、A/Dコンバータ606は、16kHz、かつ1サンプルごとに16ビットでアナログ信号をサンプリングし、そうすることによって毎秒32キロバイトの発話データを作成する。こうしたデジタル値は、フレームコンストラクタ607に与えられ、コンストラクタ607は、一実施形態では、10ミリ秒おきに別々に開始される25ミリ秒のフレームに値をグループ化する。
フレームコンストラクタ607によって作成された、データからなるフレームは、特徴抽出器610に与えられ、特徴抽出器610は、各フレームから特徴を抽出する。一実施形態では、この特徴抽出器は、補正ベクトルをトレーニングするのに使われた特徴抽出器408および418とは異なる。具体的に言うと、本実施形態では、特徴抽出器610は、ケプストラム値ではなくパワースペクトル値を生じる。抽出された特徴は、クリーン信号推定器622、音声検出装置626および雑音モデルトレーナ624に与えられる。
ステップ702で、話者600による音声の生成に関連づけられた骨の振動や顔の動きなどの物理的な事象が、特徴ベクトルに変換される。図7では別個のステップとして示してあるが、このステップの一部は、ステップ700と同時に行うことができることが当業者には理解されよう。ステップ702の間、物理的な事象は、補助センサ614によって検出される。補助センサ614は、物理的な事象に基づいてアナログ電気信号を生成する。このアナログ信号は、アナログ−デジタルコンバータ616によってデジタル信号に変換され、その結果生じるデジタルサンプルは、フレームコンストラクタ617によってフレームにグループ化される。一実施形態では、アナログ−デジタルコンバータ616およびフレームコンストラクタ617は、アナログ−デジタルコンバータ606およびフレームコンストラクタ607と同様の方法で動作する。
デジタル値からなるフレームは、特徴抽出器620に与えられ、特徴抽出器620は、補正ベクトルをトレーニングするのに利用されたものと同じ特徴抽出技術を利用する。上述したように、このような特徴抽出モジュールの例は、線形予測符号化(LPC)、LPC派生ケプストラム、知覚線形予測(PLP)、聴覚モデル特徴抽出、およびメル周波数ケプストラム係数(MFCC)特徴抽出を実施するモジュールを含む。ただし、多くの実施形態において、ケプストラム特徴を生じる特徴抽出技術が用いられる。
特徴抽出モジュールは、音声信号の別個のフレームにそれぞれ関連づけられた特徴ベクトルからなるストリームを生じる。この特徴ベクトルストリームは、クリーン信号推定器622に与えられる。
フレームコンストラクタ617からの値からなるフレームは、特徴抽出器621にも与えられ、特徴抽出器621は、一実施形態では、各フレームのエネルギーを抽出する。各フレームに対するエネルギー値は、音声検出装置626に与えられる。
ステップ704で、音声検出ユニット626は、補助センサ信号のエネルギー特徴を用いて、音声がおそらく存在するときを判定する。この情報は、雑音モデルトレーナ624に渡され、雑音モデルトレーナ624は、ステップ706で、音声がない期間に雑音をモデル化するように試みる。
一実施形態では、音声検出装置626は最初に、エネルギーのピークを見つけるために、フレームのエネルギー値からなる列を検索する。音声検出装置626は次いで、ピークの後の谷を求めて検索を行う。この谷のエネルギーは、エネルギーセパレータdと呼ばれる。
フレームが音声を含むかどうか判定するために、エネルギーセパレータdに対するフレームeのエネルギーの比率kが次いで、k=e/dとして決定される。フレームに対する音声の信頼性qが次いで、
Figure 2011203759
のように決定される。上式で、αは、2つの状態の間の遷移を定義し、一実施例では2に設定される。最後に、隣接する5個のフレーム(それ自体を含む)の平均の信頼値を、このフレームに対する最終的な信頼値として用いる。
一実施形態では、信頼値が閾値を超える場合はフレームが音声を含むとみなし、信頼値が閾値を超えない場合はフレームが非音声を含むとみなすというように音声が存在するかどうか判定するのに、固定閾値が用いられる。一実施形態では、0.1という閾値が使用される。
音声検出装置626によって検出された各非音声フレームに対して、雑音モデルトレーナ624は、ステップ706で雑音モデル625をアップデートする。一実施形態では、雑音モデル625は、平均値μおよび分散Σを有するガウスモデルである。このモデルは、非音声の最新フレームからなる移動ウィンドウ(moving window)に基づく。ウィンドウ中の非音声フレームから平均値および分散を決定する技術は、当該分野において公知である。
パラメータ記憶装置422中の補正ベクトルおよびモデルパラメータ、および雑音モデル625が、補助センサに対する特徴ベクトルb、および雑音のある気導マイクロホン信号に対する特徴ベクトルSとともに、クリーン信号推定器622に与えられる。
ステップ708で、クリーン信号推定器622は、補助センサの特徴ベクトル、補正ベクトル、および補助センサに対するモデルパラメータに基づいて、クリーンな音声信号用の初期値を推定する。具体的には、クリーンな信号の補助センサ推定値は、
Figure 2011203759
のように計算され、上式で、
Figure 2011203759
は、ケプストラム領域におけるクリーン信号推定値であり、bは、補助センサの特徴ベクトルであり、p(s|b)は、上記の式2を用いて決定され、rは、混合成分sに対する補正ベクトルである。したがって、式8におけるクリーンな信号の推定値は、補正ベクトルの重みづけ和(weighted sum)に補助センサの特徴ベクトルを加算することによって形成され、重みは、補助センサの特徴ベクトルを与えられた混合成分の確率に基づく。
ステップ710で、補助センサの初期クリーン音声推定値が、雑音のある気導マイクロホンベクトルおよび雑音モデルから形成されたクリーン音声推定値と結合されることによって改善(refine)される。この結果、改善されたクリーン音声推定値628を得る。初期クリーン信号推定値のケプストラム値を雑音のある気導マイクロホンのパワースペクトル特徴ベクトルと結合するために、ケプストラム値は、
Figure 2011203759
を用いてパワースペクトル領域に変換される。上式で、C−1は逆離散コサイン変換であり、
Figure 2011203759
は、補助センサに基づくクリーンな信号のパワースペクトル推定値である。
補助センサからの初期クリーン信号推定値は、パワースペクトル領域内に置かれると、
Figure 2011203759
のように、雑音のある気導マイクロホンのベクトルおよび雑音モデルと結合することができ、上式で、
Figure 2011203759
は、パワースペクトル領域における改善されたクリーン信号推定値であり、Sは、雑音のある気導マイクロホンの特徴ベクトルであり、(μ,Σ)は、以前の雑音モデルの平均値および共分散(624を参照されたい)であり、
Figure 2011203759
は、補助センサに基づく初期クリーン信号推定値であり、Σx|bは、補助センサの測定結果を与えられた、クリーンな音声に対する条件つき確率分布の共分散行列である。Σx|bは、以下のように計算することができる。Jは、式9の右辺における関数のヤコビアンを示すものとする。Σは、
Figure 2011203759
の共分散行列であるとする。この場合、
Figure 2011203759
の共分散は、
Σx|b=JΣJ 式11
である。
簡略化した実施形態において、式10を、以下の式のように書き換える。
Figure 2011203759
上式で、α(f)は、時間および周波数帯両方の関数である。我々が現在使用している補助センサは、最大3KHzの帯域幅をもつので、3KHz未満の周波数帯に対して、0となるようなα(f)を選ぶ。基本的に、低周波数帯に対しては、補助センサからの初期クリーン信号推定値を信頼する。高周波数帯に対しては、補助センサからの初期クリーン信号推定値はあまり信頼性がない。直観的に、雑音が、現在のフレームにおける周波数帯に対して小さい場合、この周波数帯に対して気導マイクロホンからより多くの情報を使うために、大きいα(f)を選びたい。それ以外の場合は、小さいα(f)を選ぶことによって、補助センサからより多くの情報を使用したい。一実施形態では、補助センサからの初期クリーン信号推定値のエネルギーを用いて、各周波数帯に対する雑音レベルを判定する。E(f)は、周波数帯fに対するエネルギーを示すものとする。M=MaxE(f).α(f)は、fの関数として、以下のように定義されるものとする。
Figure 2011203759
上式で、α(f)の平滑を補償するために、3Kから4Kへの遷移に線形補間を用いる。
パワースペクトル領域における改善されたクリーン信号推定値は、雑音のある気導マイクロホン信号をフィルタリングするためのウィーナフィルタを構築するのに用いることができる。具体的には、ウィーナフィルタHは、
Figure 2011203759
となるように設定される。
このフィルタは次いで、時間領域の雑音のある気導マイクロホン信号に対して適用されて、雑音が低減された、またはクリーンな時間領域信号を作ることができる。雑音が低減された信号は、聴者に提供したり、音声認識装置に与えたりすることができる。
式12は、2つの因子の重みづけ和である、改善されたクリーン信号推定値をもたらし、因子の1つは、補助センサのクリーン信号推定値であることに留意されたい。この重みづけ和は、追加の補助センサ用の追加因子を含むように拡張することができる。したがって、クリーンな信号の独立推定値を生成するのに、複数の補助センサを使用することができる。こうした多数の推定値は次いで、式12を用いて結合することができる。
(雑音推定値のない補正ベクトルを用いたノイズリダクション)
図8は、本発明においてクリーンな音声値を推定する補助システムのブロック図を提供する。図8のシステムは、クリーンな音声値の推定値が気導マイクロホンまたは雑音モデルを必要とせずに形成されること以外は、図6のシステムと同様である。
図8において、音声を生じる話者800に関連づけられた物理的な事象が、補助センサ802、アナログ−デジタルコンバータ804、フレームコンストラクタ806、および特徴抽出器808によって、図6の補助センサ614、アナログ−デジタルコンバータ616、フレームコンストラクタ617、および特徴抽出器620に対して上述したのと同様の方法で、特徴ベクトルに変換される。特徴抽出器808およびノイズリダクションパラメータ422からの特徴ベクトルは、クリーン信号推定器810に与えられ、推定装置810は、上記の式8および9を用いて、クリーンな信号値の推定値812である、
Figure 2011203759
を決定する。
パワースペクトル領域におけるクリーン信号推定値、すなわち
Figure 2011203759
は、雑音のある気導マイクロホンの信号をフィルタリングするためのウィーナフィルタを構築するのに用いることができる。具体的には、ウィーナフィルタHは、
Figure 2011203759
となるように設定される。
このフィルタは次いで、時間領域の雑音のある気導マイクロホンの信号に対して適用されて、雑音が低減された、またはクリーンな信号を作ることができる。雑音が低減された信号は、聴者に提供したり、音声認識装置に与えたりすることができる。
あるいは、式8で計算される、ケプストラム領域におけるクリーン信号推定値、すなわち
Figure 2011203759
を、音声認識システムに直接適用することもできる。
(ピッチの追跡を用いたノイズリダクション)
クリーンな音声信号の推定値を生成する代替技術を、図9のブロック図および図10のフロー図に示す。具体的には、図9および10の実施形態は、補助センサを用いて音声信号に対するピッチを識別し、次いで、このピッチを用いて雑音のある気導マイクロホンの信号を高調波成分およびランダム成分に分解することによって、クリーン音声推定値を決定する。したがって、雑音のある信号は、以下のように表される。
y=y+y 式16
上式で、yは雑音のある信号であり、yは高調波成分であり、yはランダム成分である。高調波成分およびランダム成分の、重みづけ和は、雑音が低減された音声信号を表す、雑音が低減された特徴ベクトルを形成するのに用いられる。
一実施形態では、高調波成分は、高調波正弦波の和として、
Figure 2011203759
のようにモデル化され、上式で、ωは、基本またはピッチ周波数であり、Kは、信号中の高調波の総数である。
したがって、高調波成分を識別するために、ピッチ周波数の推定値および振幅パラメータ{a...a...b}が決定されなければならない。
ステップ1000で、雑音のある音声信号が集められ、デジタルサンプルに変換される。これを行うために、気導マイクロホン904は、話者900および1つまたは複数の加法性雑音発生源902からのオーディオ波を電気信号に変換する。電気信号は次いで、アナログ−デジタルコンバータ906によってサンプリングされて、デジタル値の列を生成する。一実施形態では、A/Dコンバータ906は、16kHz、かつ1サンプルごとに16ビットでアナログ信号をサンプリングし、そうすることによって毎秒32キロバイトの発話データを作成する。ステップ1002で、デジタルサンプルは、フレームコンストラクタ908によってフレームにグループ化される。一実施形態では、フレームコンストラクタ908は、25ミリ秒分のデータを含む新規フレームを10ミリ秒おきに作成する。
ステップ1004で、音声の生成に関連づけられた物理的な事象が、補助センサ944によって検出される。この実施形態では、骨伝導センサなど、高調波成分を検出することができる補助センサが、補助センサ944として使用されるのに最適である。ステップ1004は、ステップ1000とは別個に示してあるが、こうしたステップは、同時に実行することができることが当業者には理解されることに留意されたい。補助センサ944によって生成されたアナログ信号は、アナログ−デジタルコンバータ946によってデジタルサンプルに変換される。デジタルサンプルは次いで、ステップ1006で、フレームコンストラクタ948によってフレームにグループ化される。
ステップ1008で、補助センサ信号からなるフレームが、ピッチ追跡装置950によって、音声のピッチまたは基本周波数を識別するのに用いられる。
ピッチ周波数に対する推定値は、使用可能な任意の数のピッチ追跡システムを用いて決定することができる。こうしたシステムの多くにおいて、補助センサ信号のセグメントの中心間の可能な間隔を識別するのに、候補のピッチが用いられる。各候補ピッチごとに、連続する音声のセグメント間で相関関係が決定される。概して、最良の相関関係をもたらす候補ピッチは、フレームのピッチ周波数であろう。一部のシステムでは、信号のエネルギーおよび/または予期されるピッチトラック(pitch track)などの付加情報が、ピッチ選択を改善するのに用いられる。
ピッチ追跡装置950からピッチの推定値が与えられると、気導信号ベクトルは、ステップ1010で、高調波成分およびランダム成分に分解することができる。このような分解を行うために、式17は、
y=Ab 式18
のように書き換えられ、上式で、yは、雑音のある音声信号のN個のサンプルのベクトルであり、Aは、
A=[Acossin] 式19
によって与えられるN×2Kの行列であり、式19の要素は
cos(k,t)=cos(kωt) Asin(k,t)=sin(kωt) 式20
であり、bは、
=[a...a...b] 式21
によって与えられる2K×1のベクトルである。この場合、振幅係数に対する最小二乗解は、
Figure 2011203759
である。
雑音のある音声信号の高調波成分に対する推定値は、
Figure 2011203759
を用いて、
Figure 2011203759
のように決定することができる。
ランダム成分の推定値は次いで、
=y−y 式24
のように計算される。
したがって、上記の式18〜24を用いて、高調波分解装置910は、高調波成分サンプルのベクトル912、すなわちy、およびランダム成分サンプルのベクトル914、すなわちyを作ることができる。
フレームのサンプルが高調波サンプルおよびランダムサンプルに分解された後、ステップ1012で、スケーリングパラメータすなわち重みが、高調波成分に対して決定される。このスケーリングパラメータは、以下にさらに説明するように、雑音が低減された音声信号の計算の一部として用いられる。一実施形態では、スケーリングパラメータは、
Figure 2011203759
のように計算され、上式で、αはスケーリングパラメータであり、y(i)は、高調波成分サンプルyのベクトル中のi番目のサンプルであり、y(i)は、このフレームに対する、雑音のある音声信号のi番目のサンプルである。式25において、分子は、高調波成分の各サンプルのエネルギーの和であり、分母は、雑音のある音声信号の各サンプルのエネルギーの和である。したがって、スケーリングパラメータは、フレームの総エネルギーに対するフレームの高調波エネルギーの比率である。
別の実施形態では、スケーリングパラメータは、確率的な有声−無声検出ユニットを用いて設定される。このようなユニットは、音声からなるある特定のフレームが無声ではなく有声(声帯がフレーム期間中に共鳴することを意味する)である確率を提供する。フレームが音声の有声域からである確率は、スケーリングパラメータとしてそのまま用いることができる。
スケーリングパラメータが決定された後、または決定されている間、高調波成分サンプルのベクトルおよびランダム成分サンプルのベクトルに対するメルスペクトルが、ステップ1014で決定される。これは、サンプルの各ベクトルを離散フーリエ変換(DFT)918に通して、高調波成分周波数値のベクトル922およびランダム成分周波数値のベクトル920を作ることを含む。周波数値のベクトルによって表されるパワースペクトルは次いで、メル重みづけユニット924によって、メルスケールとともに適用される一連の三角重みづけ関数(triangular weighting function)を用いて平滑化される。この結果、高調波成分メルスペクトルベクトル928、すなわちY、およびランダム成分メルスペクトルベクトル926、すなわちYが得られる。
ステップ1016で、高調波成分およびランダム成分に対するメルスペクトルが、重みづけ和として組み合わされて、雑音が低減されたメルスペクトルの推定値を形成する。このステップは、重みづけ和計算器930によって実行され、以下の式において上記にて決定されたスケーリング因子を用いる。
Figure 2011203759
上式で、
Figure 2011203759
は、雑音が低減されたメルスペクトルの推定値であり、Y(t)は、高調波成分メルスペクトルであり、Y(t)は、ランダム成分メルスペクトルであり、α(t)は、上記にて決定されたスケーリング因子であり、αは、ランダム成分に対する固定スケーリング因子であって、一実施形態では0.1に等しく設定され、時間インデックスtは、高調波成分に対するスケーリング因子は各フレームごとに決定されるが、ランダム成分に対するスケーリング因子は固定のままであることを強調するのに用いられる。他の実施形態では、ランダム成分に対するスケーリング因子は、各フレームごとに決定できることに留意されたい。
雑音が低減されたメルスペクトルがステップ1016で計算された後、ステップ1018で、メルスペクトルのログ932が決定され、次いで、離散コサイン変換934に適用される。離散コサイン変換934は、雑音が低減された音声信号を表すメル周波数ケプストラム係数(MFCC)特徴ベクトル936を作成する。
雑音が低減された別個のMFCC特徴ベクトルが、雑音のある信号からなる各フレームに対して作成される。こうした特徴ベクトルは、音声強調および音声認識を含む任意の所望の目的に使うことができる。音声強調に対しては、MFCC特徴ベクトルは、パワースペクトル領域に変換することができ、雑音のある気導信号とともに用いて、ウィーナフィルタを形成することができる。
本発明を、特定の実施形態を参照して説明したが、本発明の精神および範囲から逸脱することなく、形体および細部において変更を行うことができることが当業者には理解されよう。
100 コンピューティングシステム環境
110 コンピュータ
120 処理装置
121 システムバス
130 システムメモリ
131 ROM
132 RAM
133 BIOS
134 オペレーティングシステム
135 アプリケーションプログラム
136 他のプログラムモジュール
137 プログラムデータ
140 固定の不揮発性メモリインターフェイス
144 オペレーティングシステム
145 アプリケーションプログラム
146 他のプログラムモジュール
147 プログラムデータ
150 取外し可能不揮発性メモリインターフェイス
160 ユーザ入力インターフェイス
161 ポインティングデバイス
162 キーボード
163 マイクロホン
170 ネットワークインターフェイス
171 ローカルエリアネットワーク
172 モデム
173 ワイドエリアネットワーク
180 リモートコンピュータ
185 リモートアプリケーションプログラム
190 ビデオインターフェイス
191 モニタ
195 出力周辺インターフェイス
196 プリンタ
197 スピーカ
200 モバイル装置
202 プロセッサ(マイクロプロセッサ)
204 メモリ
208 通信インターフェイス
214 アプリケーション
216 オブジェクトストア

Claims (2)

  1. 気導マイクロホン以外のセンサから補助センサ信号を受けるステップと、
    気導マイクロホンから雑音のある気導マイクロホン信号を受けるステップと、
    前記補助センサ信号に基づいて、候補周波数のグループの中のいずれの周波数が音声信号に対するピッチ周波数であるかを識別するステップと、
    高調波成分を前記ピッチに関連する正弦波の和としてモデルすることによって、前記ピッチ周波数を用いて、前記雑音のある気導マイクロホン信号を高調波成分および残余成分に分解するステップと、
    前記高調波成分および前記残余成分の重みづけ和を判定することによって、前記高調波成分および前記残余成分を用いて、前記クリーン音声値を推定するステップであって、前記クリーン音声値は、前記雑音のある気導マイクロホン信号と比較して低減された雑音を有する、雑音が低減された信号を表す、ステップと
    を備えることを特徴とする、クリーン音声値の推定値を決定する方法。
  2. 前記補助センサ信号を受けるステップは、骨伝導マイクロホンから補助センサ信号を受けるステップを含むことを特徴とする請求項1に記載の方法。
JP2011153225A 2003-11-26 2011-07-11 複数感知の音声強調のための方法および機器 Expired - Fee Related JP5247855B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/724,008 US7447630B2 (en) 2003-11-26 2003-11-26 Method and apparatus for multi-sensory speech enhancement
US10/724,008 2003-11-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004332159A Division JP4986393B2 (ja) 2003-11-26 2004-11-16 雑音低減値に対する推定値を決定する方法

Publications (2)

Publication Number Publication Date
JP2011203759A true JP2011203759A (ja) 2011-10-13
JP5247855B2 JP5247855B2 (ja) 2013-07-24

Family

ID=34465721

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2004332159A Expired - Fee Related JP4986393B2 (ja) 2003-11-26 2004-11-16 雑音低減値に対する推定値を決定する方法
JP2011153227A Expired - Fee Related JP5147974B2 (ja) 2003-11-26 2011-07-11 複数感知の音声強調のための方法および機器
JP2011153225A Expired - Fee Related JP5247855B2 (ja) 2003-11-26 2011-07-11 複数感知の音声強調のための方法および機器

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2004332159A Expired - Fee Related JP4986393B2 (ja) 2003-11-26 2004-11-16 雑音低減値に対する推定値を決定する方法
JP2011153227A Expired - Fee Related JP5147974B2 (ja) 2003-11-26 2011-07-11 複数感知の音声強調のための方法および機器

Country Status (10)

Country Link
US (1) US7447630B2 (ja)
EP (2) EP1536414B1 (ja)
JP (3) JP4986393B2 (ja)
KR (1) KR101099339B1 (ja)
CN (2) CN101887728B (ja)
AU (1) AU2004229048A1 (ja)
BR (1) BRPI0404602A (ja)
CA (2) CA2485800C (ja)
MX (1) MXPA04011033A (ja)
RU (1) RU2373584C2 (ja)

Families Citing this family (210)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6675027B1 (en) * 1999-11-22 2004-01-06 Microsoft Corp Personal mobile computing device having antenna microphone for improved speech recognition
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
ITFI20010199A1 (it) 2001-10-22 2003-04-22 Riccardo Vieri Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico
JP3815388B2 (ja) * 2002-06-25 2006-08-30 株式会社デンソー 音声認識システムおよび端末
US7383181B2 (en) * 2003-07-29 2008-06-03 Microsoft Corporation Multi-sensory speech detection system
US20050033571A1 (en) * 2003-08-07 2005-02-10 Microsoft Corporation Head mounted multi-sensory audio input system
US7516067B2 (en) * 2003-08-25 2009-04-07 Microsoft Corporation Method and apparatus using harmonic-model-based front end for robust speech recognition
US7499686B2 (en) * 2004-02-24 2009-03-03 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
US20060020454A1 (en) * 2004-07-21 2006-01-26 Phonak Ag Method and system for noise suppression in inductive receivers
US7574008B2 (en) * 2004-09-17 2009-08-11 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US7283850B2 (en) * 2004-10-12 2007-10-16 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
US7346504B2 (en) * 2005-06-20 2008-03-18 Microsoft Corporation Multi-sensory speech enhancement using a clean speech prior
US7680656B2 (en) * 2005-06-28 2010-03-16 Microsoft Corporation Multi-sensory speech enhancement using a speech-state model
US7406303B2 (en) 2005-07-05 2008-07-29 Microsoft Corporation Multi-sensory speech enhancement using synthesized sensor signal
KR100778143B1 (ko) 2005-08-13 2007-11-23 백다리아 후두 임피던스 신호를 이용하는 넥마이크를 구비한 골도헤드셋
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
KR100738332B1 (ko) * 2005-10-28 2007-07-12 한국전자통신연구원 성대신호 인식 장치 및 그 방법
US7930178B2 (en) * 2005-12-23 2011-04-19 Microsoft Corporation Speech modeling and enhancement based on magnitude-normalized spectra
JP4245617B2 (ja) * 2006-04-06 2009-03-25 株式会社東芝 特徴量補正装置、特徴量補正方法および特徴量補正プログラム
JP4316583B2 (ja) 2006-04-07 2009-08-19 株式会社東芝 特徴量補正装置、特徴量補正方法および特徴量補正プログラム
CN1835074B (zh) * 2006-04-07 2010-05-12 安徽中科大讯飞信息科技有限公司 一种结合高层描述信息和模型自适应的说话人转换方法
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8019089B2 (en) * 2006-11-20 2011-09-13 Microsoft Corporation Removal of noise, corresponding to user input devices from an audio signal
US7925502B2 (en) * 2007-03-01 2011-04-12 Microsoft Corporation Pitch model for noise estimation
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
EP2007167A3 (en) * 2007-06-21 2013-01-23 Funai Electric Advanced Applied Technology Research Institute Inc. Voice input-output device and communication device
US9053089B2 (en) 2007-10-02 2015-06-09 Apple Inc. Part-of-speech tagging using latent analogy
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8065143B2 (en) 2008-02-22 2011-11-22 Apple Inc. Providing text input using speech data and non-speech data
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US9142221B2 (en) * 2008-04-07 2015-09-22 Cambridge Silicon Radio Limited Noise reduction
EP2301017B1 (en) * 2008-05-09 2016-12-21 Nokia Technologies Oy Audio apparatus
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9767817B2 (en) 2008-05-14 2017-09-19 Sony Corporation Adaptively filtering a microphone signal responsive to vibration sensed in a user's face while speaking
US8464150B2 (en) 2008-06-07 2013-06-11 Apple Inc. Automatic language identification for dynamic text processing
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8768702B2 (en) 2008-09-05 2014-07-01 Apple Inc. Multi-tiered voice feedback in an electronic device
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US8862252B2 (en) * 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
DE102010064593A1 (de) * 2009-05-21 2015-07-30 Koh Young Technology Inc. Formmessgerät und -verfahren
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8682649B2 (en) 2009-11-12 2014-03-25 Apple Inc. Sentiment prediction from textual data
CN101916567B (zh) * 2009-11-23 2012-02-01 瑞声声学科技(深圳)有限公司 应用于双麦克风系统的语音增强方法
US8381107B2 (en) 2010-01-13 2013-02-19 Apple Inc. Adaptive audio feedback system and method
US8311838B2 (en) 2010-01-13 2012-11-13 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
EP2363852B1 (en) * 2010-03-04 2012-05-16 Deutsche Telekom AG Computer-based method and system of assessing intelligibility of speech represented by a speech signal
US8713021B2 (en) 2010-07-07 2014-04-29 Apple Inc. Unsupervised document clustering using latent semantic density analysis
US8731923B2 (en) * 2010-08-20 2014-05-20 Adacel Systems, Inc. System and method for merging audio data streams for use in speech recognition applications
US8719006B2 (en) 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US8645132B2 (en) * 2011-08-24 2014-02-04 Sensory, Inc. Truly handsfree speech recognition in high noise environments
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
EP2458586A1 (en) * 2010-11-24 2012-05-30 Koninklijke Philips Electronics N.V. System and method for producing an audio signal
WO2012069973A1 (en) 2010-11-24 2012-05-31 Koninklijke Philips Electronics N.V. A device comprising a plurality of audio sensors and a method of operating the same
WO2012069020A1 (zh) * 2010-11-25 2012-05-31 歌尔声学股份有限公司 语音增强方法、装置及头戴式降噪通信耳机
CN103229236B (zh) * 2010-11-25 2016-05-18 日本电气株式会社 信号处理装置、信号处理方法
US10515147B2 (en) 2010-12-22 2019-12-24 Apple Inc. Using statistical language models for contextual lookup
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8781836B2 (en) 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
US8812294B2 (en) 2011-06-21 2014-08-19 Apple Inc. Translating phrases from one language into another using an order-based set of declarative rules
US8706472B2 (en) 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9076446B2 (en) * 2012-03-22 2015-07-07 Qiguang Lin Method and apparatus for robust speaker and speech recognition
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US8775442B2 (en) 2012-05-15 2014-07-08 Apple Inc. Semantic search using a single-source semantic model
WO2013185109A2 (en) 2012-06-08 2013-12-12 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9094749B2 (en) 2012-07-25 2015-07-28 Nokia Technologies Oy Head-mounted sound capture device
US9135915B1 (en) * 2012-07-26 2015-09-15 Google Inc. Augmenting speech segmentation and recognition using head-mounted vibration and/or motion sensors
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9589570B2 (en) 2012-09-18 2017-03-07 Huawei Technologies Co., Ltd. Audio classification based on perceptual quality for low or medium bit rates
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
JP6005476B2 (ja) * 2012-10-30 2016-10-12 シャープ株式会社 受話装置、制御プログラム、記録媒体
CN103871419B (zh) * 2012-12-11 2017-05-24 联想(北京)有限公司 一种信息处理方法及电子设备
CN113470640B (zh) 2013-02-07 2022-04-26 苹果公司 数字助理的语音触发器
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
AU2014251347B2 (en) 2013-03-15 2017-05-18 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
CN110096712B (zh) 2013-03-15 2023-06-20 苹果公司 通过智能数字助理的用户培训
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3008964B1 (en) 2013-06-13 2019-09-25 Apple Inc. System and method for emergency calls initiated by voice command
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
KR20150032390A (ko) * 2013-09-16 2015-03-26 삼성전자주식회사 음성 명료도 향상을 위한 음성 신호 처리 장치 및 방법
US20150118960A1 (en) * 2013-10-28 2015-04-30 Aliphcom Wearable communication device
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
GB2523984B (en) 2013-12-18 2017-07-26 Cirrus Logic Int Semiconductor Ltd Processing received speech data
US9620116B2 (en) * 2013-12-24 2017-04-11 Intel Corporation Performing automated voice operations based on sensor data reflecting sound vibration conditions and motion conditions
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
CN105578115B (zh) * 2015-12-22 2016-10-26 深圳市鹰硕音频科技有限公司 一种具有语音评估功能的网络教学方法及系统
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
GB2546981B (en) 2016-02-02 2019-06-19 Toshiba Res Europe Limited Noise compensation in speaker-adaptive systems
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10319377B2 (en) * 2016-03-15 2019-06-11 Tata Consultancy Services Limited Method and system of estimating clean speech parameters from noisy speech parameters
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10535364B1 (en) * 2016-09-08 2020-01-14 Amazon Technologies, Inc. Voice activity detection using air conduction and bone conduction microphones
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10062373B2 (en) 2016-11-03 2018-08-28 Bragi GmbH Selective audio isolation from body generated sound system and method
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
GB201713946D0 (en) * 2017-06-16 2017-10-18 Cirrus Logic Int Semiconductor Ltd Earbud speech estimation
WO2019100289A1 (en) * 2017-11-23 2019-05-31 Harman International Industries, Incorporated Method and system for speech enhancement
CN107910011B (zh) 2017-12-28 2021-05-04 科大讯飞股份有限公司 一种语音降噪方法、装置、服务器及存储介质
WO2020014371A1 (en) 2018-07-12 2020-01-16 Dolby Laboratories Licensing Corporation Transmission control for audio device using auxiliary signals
JP7172209B2 (ja) * 2018-07-13 2022-11-16 日本電気硝子株式会社 封着材料
CN109308903B (zh) * 2018-08-02 2023-04-25 平安科技(深圳)有限公司 语音模仿方法、终端设备及计算机可读存储介质
CN110931027A (zh) * 2018-09-18 2020-03-27 北京三星通信技术研究有限公司 音频处理方法、装置、电子设备及计算机可读存储介质
CN109978034B (zh) * 2019-03-18 2020-12-22 华南理工大学 一种基于数据增强的声场景辨识方法
JP7234100B2 (ja) * 2019-11-18 2023-03-07 株式会社東海理化電機製作所 学習データ拡張方法、および学習データ生成装置
CN112055278B (zh) * 2020-08-17 2022-03-08 大象声科(深圳)科技有限公司 融合入耳麦克风和耳外麦克风的深度学习降噪设备
CN112767963B (zh) * 2021-01-28 2022-11-25 歌尔科技有限公司 一种语音增强方法、装置、系统及计算机可读存储介质
EP4198975A1 (en) * 2021-12-16 2023-06-21 GN Hearing A/S Electronic device and method for obtaining a user's speech in a first sound signal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879868A (ja) * 1994-09-05 1996-03-22 Nippon Telegr & Teleph Corp <Ntt> 骨導マイクロホン出力信号再生装置
JPH08223677A (ja) * 1995-02-15 1996-08-30 Nippon Telegr & Teleph Corp <Ntt> 送話器
JPH11265199A (ja) * 1998-03-18 1999-09-28 Nippon Telegr & Teleph Corp <Ntt> 送話器
JP2000261529A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 通話装置

Family Cites Families (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3383466A (en) * 1964-05-28 1968-05-14 Navy Usa Nonacoustic measures in automatic speech recognition
US3746789A (en) * 1971-10-20 1973-07-17 E Alcivar Tissue conduction microphone utilized to activate a voice operated switch
US3787641A (en) * 1972-06-05 1974-01-22 Setcom Corp Bone conduction microphone assembly
US4382164A (en) * 1980-01-25 1983-05-03 Bell Telephone Laboratories, Incorporated Signal stretcher for envelope generator
JPS62239231A (ja) * 1986-04-10 1987-10-20 Kiyarii Rabo:Kk 口唇画像入力による音声認識方法
JPH0755167B2 (ja) * 1988-09-21 1995-06-14 松下電器産業株式会社 移動体
JPH03108997A (ja) 1989-09-22 1991-05-09 Temuko Japan:Kk 骨伝導マイク
JPH03160851A (ja) * 1989-11-20 1991-07-10 Fujitsu Ltd 携帯電話機
US5054079A (en) * 1990-01-25 1991-10-01 Stanton Magnetics, Inc. Bone conduction microphone with mounting means
US5404577A (en) * 1990-07-13 1995-04-04 Cairns & Brother Inc. Combination head-protective helmet & communications system
JPH07101853B2 (ja) 1991-01-30 1995-11-01 長野日本無線株式会社 雑音低減方法
US5241692A (en) * 1991-02-19 1993-08-31 Motorola, Inc. Interference reduction system for a speech recognition device
US5295193A (en) * 1992-01-22 1994-03-15 Hiroshi Ono Device for picking up bone-conducted sound in external auditory meatus and communication device using the same
JPH05276587A (ja) 1992-03-30 1993-10-22 Retsutsu Corp:Kk イヤーマイクロフォン
US5590241A (en) * 1993-04-30 1996-12-31 Motorola Inc. Speech processing system and method for enhancing a speech signal in a noisy environment
US5446789A (en) * 1993-11-10 1995-08-29 International Business Machines Corporation Electronic device having antenna for receiving soundwaves
AU684872B2 (en) * 1994-03-10 1998-01-08 Cable And Wireless Plc Communication system
US5828768A (en) * 1994-05-11 1998-10-27 Noise Cancellation Technologies, Inc. Multimedia personal computer with active noise reduction and piezo speakers
JP3082825B2 (ja) 1994-08-29 2000-08-28 日本電信電話株式会社 通信装置
DE69527731T2 (de) * 1994-05-18 2003-04-03 Nippon Telegraph & Telephone Sender-Empfänger mit einem akustischen Wandler vom Ohrpassstück-Typ
JP3488749B2 (ja) 1994-08-23 2004-01-19 株式会社ダッド・ジャパン 骨伝導型マイクロホン
JPH08186654A (ja) 1994-12-22 1996-07-16 Internatl Business Mach Corp <Ibm> 携帯端末装置
JP2835009B2 (ja) 1995-02-03 1998-12-14 岩崎通信機株式会社 骨導気導複合型イヤーマイクロホン装置
US5701390A (en) * 1995-02-22 1997-12-23 Digital Voice Systems, Inc. Synthesis of MBE-based coded speech using regenerated phase information
US5692059A (en) * 1995-02-24 1997-11-25 Kruger; Frederick M. Two active element in-the-ear microphone system
US5555449A (en) * 1995-03-07 1996-09-10 Ericsson Inc. Extendible antenna and microphone for portable communication unit
JP3264822B2 (ja) * 1995-04-05 2002-03-11 三菱電機株式会社 移動体通信機器
US5651074A (en) 1995-05-11 1997-07-22 Lucent Technologies Inc. Noise canceling gradient microphone assembly
GB9512284D0 (en) * 1995-06-16 1995-08-16 Nokia Mobile Phones Ltd Speech Synthesiser
US5647834A (en) * 1995-06-30 1997-07-15 Ron; Samuel Speech-based biofeedback method and system
JP3591068B2 (ja) * 1995-06-30 2004-11-17 ソニー株式会社 音声信号の雑音低減方法
JP3674990B2 (ja) * 1995-08-21 2005-07-27 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
JPH09172479A (ja) * 1995-12-20 1997-06-30 Yokoi Kikaku:Kk 送受話器およびそれを用いた通話装置
US6006175A (en) * 1996-02-06 1999-12-21 The Regents Of The University Of California Methods and apparatus for non-acoustic speech characterization and recognition
US6377919B1 (en) * 1996-02-06 2002-04-23 The Regents Of The University Of California System and method for characterizing voiced excitations of speech and acoustic signals, removing acoustic noise from speech, and synthesizing speech
US6243596B1 (en) * 1996-04-10 2001-06-05 Lextron Systems, Inc. Method and apparatus for modifying and integrating a cellular phone with the capability to access and browse the internet
JPH09284877A (ja) 1996-04-19 1997-10-31 Toyo Commun Equip Co Ltd マイクシステム
JP3097901B2 (ja) 1996-06-28 2000-10-10 日本電信電話株式会社 通話装置
JP3095214B2 (ja) 1996-06-28 2000-10-03 日本電信電話株式会社 通話装置
US5943627A (en) * 1996-09-12 1999-08-24 Kim; Seong-Soo Mobile cellular phone
JPH10261910A (ja) 1997-01-16 1998-09-29 Sony Corp 携帯無線装置およびアンテナ装置
JP2874679B2 (ja) * 1997-01-29 1999-03-24 日本電気株式会社 雑音消去方法及びその装置
US6308062B1 (en) * 1997-03-06 2001-10-23 Ericsson Business Networks Ab Wireless telephony system enabling access to PC based functionalities
CN2318770Y (zh) * 1997-03-28 1999-05-12 徐忠义 抗强音频干扰的送话器
FR2761800A1 (fr) 1997-04-02 1998-10-09 Scanera Sc Dispositif de transmission de voix et telephone le mettant en oeuvre
US5983073A (en) * 1997-04-04 1999-11-09 Ditzik; Richard J. Modular notebook and PDA computer systems for personal computing and wireless communications
US6175633B1 (en) * 1997-04-09 2001-01-16 Cavcom, Inc. Radio communications apparatus with attenuating ear pieces for high noise environments
US6151397A (en) * 1997-05-16 2000-11-21 Motorola, Inc. Method and system for reducing undesired signals in a communication environment
US5913187A (en) 1997-08-29 1999-06-15 Nortel Networks Corporation Nonlinear filter for noise suppression in linear prediction speech processing devices
US6434239B1 (en) * 1997-10-03 2002-08-13 Deluca Michael Joseph Anti-sound beam method and apparatus
JPH11249692A (ja) 1998-02-27 1999-09-17 Nec Saitama Ltd 音声認識装置
EP1586980B1 (en) 1998-03-18 2007-07-04 Nippon Telegraph and Telephone Corporation Wearable communication device for inputting commands via detection of tapping shocks or vibration of fingertips
AU763861B2 (en) * 1998-05-19 2003-07-31 Spectrx, Inc. Apparatus and method for determining tissue characteristics
US6717991B1 (en) * 1998-05-27 2004-04-06 Telefonaktiebolaget Lm Ericsson (Publ) System and method for dual microphone signal noise reduction using spectral subtraction
US6052464A (en) * 1998-05-29 2000-04-18 Motorola, Inc. Telephone set having a microphone for receiving or an earpiece for generating an acoustic signal via a keypad
US6137883A (en) * 1998-05-30 2000-10-24 Motorola, Inc. Telephone set having a microphone for receiving an acoustic signal via keypad
JP3160714B2 (ja) * 1998-07-08 2001-04-25 株式会社シコー技研 携帯無線通信機
US6292674B1 (en) * 1998-08-05 2001-09-18 Ericsson, Inc. One-handed control for wireless telephone
JP3893763B2 (ja) 1998-08-17 2007-03-14 富士ゼロックス株式会社 音声検出装置
US6289309B1 (en) * 1998-12-16 2001-09-11 Sarnoff Corporation Noise spectrum tracking for speech enhancement
US6760600B2 (en) * 1999-01-27 2004-07-06 Gateway, Inc. Portable communication apparatus
US6253171B1 (en) * 1999-02-23 2001-06-26 Comsat Corporation Method of determining the voicing probability of speech signals
JP2000250577A (ja) 1999-02-24 2000-09-14 Nippon Telegr & Teleph Corp <Ntt> 音声認識装置及び同装置に使用される学習方法ならびに学習装置及び同方法がプログラムされ記録された記録媒体
JP4245720B2 (ja) * 1999-03-04 2009-04-02 日新製鋼株式会社 高温酸化特性を改善した高Mnオーステナイト系ステンレス鋼材
JP2000261530A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 通話装置
DE19917169A1 (de) 1999-04-16 2000-11-02 Kamecke Keller Orla Verfahren zur Speicherung und Wiedergabe von Audio-, Video- und Anwendungsprogrammdaten in Mobilfunkendgeräten
US6952483B2 (en) * 1999-05-10 2005-10-04 Genisus Systems, Inc. Voice transmission apparatus with UWB
US6738485B1 (en) * 1999-05-10 2004-05-18 Peter V. Boesen Apparatus, method and system for ultra short range communication
US6560468B1 (en) * 1999-05-10 2003-05-06 Peter V. Boesen Cellular telephone, personal digital assistant, and pager unit with capability of short range radio frequency transmissions
US6094492A (en) 1999-05-10 2000-07-25 Boesen; Peter V. Bone conduction voice transmission apparatus and system
US20020057810A1 (en) * 1999-05-10 2002-05-16 Boesen Peter V. Computer and voice communication unit with handsfree device
US6542721B2 (en) * 1999-10-11 2003-04-01 Peter V. Boesen Cellular telephone, personal digital assistant and pager unit
JP2000354284A (ja) * 1999-06-10 2000-12-19 Iwatsu Electric Co Ltd 送受一体形電気音響変換器を用いる送受話装置
US6594629B1 (en) * 1999-08-06 2003-07-15 International Business Machines Corporation Methods and apparatus for audio-visual speech detection and recognition
US6339706B1 (en) * 1999-11-12 2002-01-15 Telefonaktiebolaget L M Ericsson (Publ) Wireless voice-activated remote control device
US6603823B1 (en) * 1999-11-12 2003-08-05 Intel Corporation Channel estimator
US6675027B1 (en) * 1999-11-22 2004-01-06 Microsoft Corp Personal mobile computing device having antenna microphone for improved speech recognition
US6529868B1 (en) * 2000-03-28 2003-03-04 Tellabs Operations, Inc. Communication system noise cancellation power signal calculation techniques
US6879952B2 (en) * 2000-04-26 2005-04-12 Microsoft Corporation Sound source separation using convolutional mixing and a priori sound source knowledge
US20020039425A1 (en) * 2000-07-19 2002-04-04 Burnett Gregory C. Method and apparatus for removing noise from electronic signals
US20030179888A1 (en) * 2002-03-05 2003-09-25 Burnett Gregory C. Voice activity detection (VAD) devices and methods for use with noise suppression systems
US7020605B2 (en) * 2000-09-15 2006-03-28 Mindspeed Technologies, Inc. Speech coding system with time-domain noise attenuation
JP3339579B2 (ja) * 2000-10-04 2002-10-28 株式会社鷹山 電話装置
KR100394840B1 (ko) * 2000-11-30 2003-08-19 한국과학기술원 독립 성분 분석을 이용한 능동 잡음 제거방법
US6853850B2 (en) * 2000-12-04 2005-02-08 Mobigence, Inc. Automatic speaker volume and microphone gain control in a portable handheld radiotelephone with proximity sensors
US20020075306A1 (en) * 2000-12-18 2002-06-20 Christopher Thompson Method and system for initiating communications with dispersed team members from within a virtual team environment using personal identifiers
US6754623B2 (en) * 2001-01-31 2004-06-22 International Business Machines Corporation Methods and apparatus for ambient noise removal in speech recognition
US6985858B2 (en) * 2001-03-20 2006-01-10 Microsoft Corporation Method and apparatus for removing noise from feature vectors
GB2375276B (en) 2001-05-03 2003-05-28 Motorola Inc Method and system of sound processing
US7433484B2 (en) * 2003-01-30 2008-10-07 Aliphcom, Inc. Acoustic vibration sensor
US6987986B2 (en) * 2001-06-21 2006-01-17 Boesen Peter V Cellular telephone, personal digital assistant with dual lines for simultaneous uses
US7054423B2 (en) * 2001-09-24 2006-05-30 Nebiker Robert M Multi-media communication downloading
US6959276B2 (en) * 2001-09-27 2005-10-25 Microsoft Corporation Including the category of environmental noise when processing speech signals
US6952482B2 (en) * 2001-10-02 2005-10-04 Siemens Corporation Research, Inc. Method and apparatus for noise filtering
JP3532544B2 (ja) * 2001-10-30 2004-05-31 株式会社テムコジャパン 面体又は帽体のストラップ装着用送受話装置
JP3678694B2 (ja) * 2001-11-02 2005-08-03 Necビューテクノロジー株式会社 対話型端末装置、その通話制御方法、およびそのプログラム
US7162415B2 (en) * 2001-11-06 2007-01-09 The Regents Of The University Of California Ultra-narrow bandwidth voice coding
US6707921B2 (en) * 2001-11-26 2004-03-16 Hewlett-Packard Development Company, Lp. Use of mouth position and mouth movement to filter noise from speech in a hearing aid
DE10158583A1 (de) * 2001-11-29 2003-06-12 Philips Intellectual Property Verfahren zum Betrieb eines Barge-In-Dialogsystems
US6664713B2 (en) * 2001-12-04 2003-12-16 Peter V. Boesen Single chip device for voice communications
US7219062B2 (en) * 2002-01-30 2007-05-15 Koninklijke Philips Electronics N.V. Speech activity detection using acoustic and facial characteristics in an automatic speech recognition system
US9374451B2 (en) 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
US7117148B2 (en) * 2002-04-05 2006-10-03 Microsoft Corporation Method of noise reduction using correction vectors based on dynamic aspects of speech and noise normalization
US7190797B1 (en) * 2002-06-18 2007-03-13 Plantronics, Inc. Headset with foldable noise canceling and omnidirectional dual-mode boom
GB2421668B (en) 2002-06-24 2007-01-03 Samsung Electronics Co Ltd Usage position detection
US7092529B2 (en) * 2002-11-01 2006-08-15 Nanyang Technological University Adaptive control system for noise cancellation
US7593851B2 (en) * 2003-03-21 2009-09-22 Intel Corporation Precision piecewise polynomial approximation for Ephraim-Malah filter
US7516067B2 (en) * 2003-08-25 2009-04-07 Microsoft Corporation Method and apparatus using harmonic-model-based front end for robust speech recognition
US20060008256A1 (en) * 2003-10-01 2006-01-12 Khedouri Robert K Audio visual player apparatus and system and method of content distribution using the same
US7499686B2 (en) 2004-02-24 2009-03-03 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
US8095073B2 (en) * 2004-06-22 2012-01-10 Sony Ericsson Mobile Communications Ab Method and apparatus for improved mobile station and hearing aid compatibility
US7574008B2 (en) * 2004-09-17 2009-08-11 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US7283850B2 (en) * 2004-10-12 2007-10-16 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879868A (ja) * 1994-09-05 1996-03-22 Nippon Telegr & Teleph Corp <Ntt> 骨導マイクロホン出力信号再生装置
JPH08223677A (ja) * 1995-02-15 1996-08-30 Nippon Telegr & Teleph Corp <Ntt> 送話器
JPH11265199A (ja) * 1998-03-18 1999-09-28 Nippon Telegr & Teleph Corp <Ntt> 送話器
JP2000261529A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 通話装置

Also Published As

Publication number Publication date
JP5147974B2 (ja) 2013-02-20
BRPI0404602A (pt) 2005-07-19
CN1622200A (zh) 2005-06-01
KR101099339B1 (ko) 2011-12-26
RU2373584C2 (ru) 2009-11-20
JP5247855B2 (ja) 2013-07-24
JP4986393B2 (ja) 2012-07-25
EP1536414A2 (en) 2005-06-01
CA2786803C (en) 2015-05-19
CN101887728B (zh) 2011-11-23
US20050114124A1 (en) 2005-05-26
EP1536414A3 (en) 2007-07-04
CA2485800C (en) 2013-08-20
KR20050050534A (ko) 2005-05-31
EP2431972B1 (en) 2013-07-24
MXPA04011033A (es) 2005-05-30
AU2004229048A1 (en) 2005-06-09
US7447630B2 (en) 2008-11-04
CN101887728A (zh) 2010-11-17
CN1622200B (zh) 2010-11-03
CA2485800A1 (en) 2005-05-26
EP1536414B1 (en) 2012-05-23
EP2431972A1 (en) 2012-03-21
JP2011209758A (ja) 2011-10-20
JP2005157354A (ja) 2005-06-16
CA2786803A1 (en) 2005-05-26
RU2004131115A (ru) 2006-04-10

Similar Documents

Publication Publication Date Title
JP5247855B2 (ja) 複数感知の音声強調のための方法および機器
US7499686B2 (en) Method and apparatus for multi-sensory speech enhancement on a mobile device
JP4731855B2 (ja) 調波モデルに基づくフロントエンドを使用する頑強な音声認識のための方法およびコンピュータ可読記録媒体
US7181390B2 (en) Noise reduction using correction vectors based on dynamic aspects of speech and noise normalization
US20050149325A1 (en) Method of noise reduction using correction and scaling vectors with partitioning of the acoustic space in the domain of noisy speech

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130409

R150 Certificate of patent or registration of utility model

Ref document number: 5247855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees