JP4902617B2 - 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム - Google Patents

音声認識システム、音声認識方法、音声認識クライアントおよびプログラム Download PDF

Info

Publication number
JP4902617B2
JP4902617B2 JP2008252512A JP2008252512A JP4902617B2 JP 4902617 B2 JP4902617 B2 JP 4902617B2 JP 2008252512 A JP2008252512 A JP 2008252512A JP 2008252512 A JP2008252512 A JP 2008252512A JP 4902617 B2 JP4902617 B2 JP 4902617B2
Authority
JP
Japan
Prior art keywords
server
voice
voice recognition
client
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008252512A
Other languages
English (en)
Other versions
JP2010085536A (ja
Inventor
利昭 古谷
輝宏 福井
博崇 古川
哲也 浜田
敬 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Fuetrek Co Ltd
Original Assignee
NTT Docomo Inc
Fuetrek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Fuetrek Co Ltd filed Critical NTT Docomo Inc
Priority to JP2008252512A priority Critical patent/JP4902617B2/ja
Publication of JP2010085536A publication Critical patent/JP2010085536A/ja
Application granted granted Critical
Publication of JP4902617B2 publication Critical patent/JP4902617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声認識システムに関する。より詳しくは、サーバとクライアントから構成される音声認識システムに関する。
通信ネットワーク上の装置間における音声データ音声認識性能を向上するために、サーバとクライアントにより構成される音声認識システムがある。例えば、特許文献1の音声認識通信システムは、音声信号を入力しその音声信号を示す音声情報をパケットとしてネットワーク回線に出力する音声入力装置と、ネットワーク回線を介して伝送されたパケットを受信して音声認識を行う音声認識装置とを備える。音声入力装置は、互いに信頼性の程度が異なる少なくとも2種類の通信プロトコルのうちのいずれか1のプロトコルにてパケットを送信し、音声認識装置は、伝送されてきたパケットを1の通信プロトコルに従って受信する。
特許文献2には、クライアントとサーバとの間のデータ転送量を抑えながら音声認識を行う技術が記載されている。特許文献2の技術では、クライアントは、音声処理ユニットで特徴パラメータを圧縮符号化し、インタフェースで圧縮符号化された特徴パラメータを伝送する。サーバは、インタフェースで圧縮符号化された特徴パラメータを受信し、音声処理ユニットで圧縮符号化された特徴パラメータを音声認識する。
サーバとクライアントにより構成される音声認識システムにおいて問題とされる、サーバ側CPUの負荷上昇と、クライアントとサーバとの間のネットワーク帯域の負荷上昇とを解決する音声認識システムの技術がある。例えば、特許文献3の音声認識システムでは、クライアントは入力された音声データに対して1次音声認識を試み、1次音声認識により音声認識できた場合はその音声認識結果をサーバに伝送し、音声認識できない場合はその音声データをサーバに伝送しサーバがその音声データに対して2次音声認識を行う。
特開2001−142488号公報 特開2001−337695号公報 特開2004−12653号公報
通話などにおける音声認識では、一般的な会話(大語彙)について通常話すスピード(連続)で音声認識することが望まれる。汎用に音声によってデータを入力する場合、例えば、口述筆記、話し言葉の分析または音声通訳などのためには、大語彙連続音声認識が必要である。大語彙連続音声認識は、高い演算処理能力が必要であり、演算能力と記憶容量が限られるクライアントでは困難である。
一方、固有名詞などの局所的個別に使われる語彙は、文脈依存(コンテキストディペンデント)であってかつクライアントに固有の語が多く、サーバで認識するには限界がある。そこで、音声認識結果を必要とするクライアントの限られた演算処理能力に対応しながら、サーバに登録されていない未知の単語で音声認識の精度が劣化することを抑制することが求められる。
本発明は、上述のような状況に鑑みてなされたものであり、大語彙連続音声認識と局所的個別の語の認識を両立させる音声認識システムを提供することを目的とする。
上記目的を達成するため、本発明の第1の観点に係る音声認識システムは、サーバとクライアントから構成される音声認識システムであって、前記クライアントは、音声信号を入力する音声入力手段と、前記音声信号を示すデータをサーバに送信する送信手段と、を備え、前記サーバは、前記クライアントから音声信号を示すデータを受信するサーバ受信手段と、前記サーバ受信手段で受信したデータから音声認識するサーバ音声認識手段と、前記サーバ音声認識手段で音声認識した結果を前記クライアントに送信するサーバ送信手段と、を備え、前記クライアントはさらに、前記サーバから前記音声認識した結果を受信する受信手段と、前記受信手段で前記サーバから受信した前記音声認識した結果を参照して、前記受信した音声認識結果に対応する前記送信した音声信号を示すデータについて、音声認識する音声認識手段と、前記サーバから受信した音声認識結果と、前記音声認識手段で音声認識した結果と、から認識結果を選択する選択手段と、を備える、ことを特徴とする。
本発明によれば、サーバによって連続的な音声認識を行いながら、局所的個別の語についても音声認識できる。
好ましくは、前記サーバ音声認識手段は、前記音声信号を示すデータから、文節区切り位置および文節の属性を表すデータを含む文節情報を抽出し、前記サーバ送信手段は、前記文節情報を前記クライアントに送信し、前記クライアントの音声認識手段は、前記サーバから受信した文節情報を参照して、前記送信した音声信号を示すデータについて、音声認識する。
その結果、クライアント側の音声認識の効率を向上することができる。
好ましくは、前記文節情報は、文節に含まれる単語の品詞を表すデータを含み、前記クライアントの音声認識手段は、前記サーバから受信した文節情報の品詞を表すデータを参照して、前記送信した音声信号を示すデータについて、音声認識する。
それによって、クライアント側の音声認識の精度を向上させることができる。
好ましくは、前記サーバ音声認識手段は、前記音声信号を示すデータから音声認識した結果のうち、未知語の属性を推定し、前記サーバ送信手段は、前記サーバ音声認識手段で推定した未知語の属性を前記クライアントに送信し、前記クライアントの音声認識手段は、前記サーバから受信した前記未知語の属性を参照して、前記送信した音声信号を示すデータについて音声認識する。
クライアントでは、サーバの未知語の属性を参照して音声認識するので、クライアントの音声認識の処理動作を速くすることができる。その結果、未知語について音声認識の効率を向上することができる。
好ましくは、前記クライアントの音声認識手段は、前記サーバから受信した音声認識結果が所定の条件に適合する場合に音声認識を行う。
これによって、音声認識にかかるクライアントの負荷を軽減することができる。
好ましくは、前記クライアントは、前記サーバから受信した音声認識結果および前記音声認識手段で音声認識した結果が1つの語について複数の候補を有する場合に、その複数の候補のうち少なくとも2つ以上の候補を表示する表示手段と、前記表示手段で表示した候補のうち、少なくともいずれかを選択する指令を受け付ける入力手段と、を備え、前記選択手段は、前記入力手段で入力した前記選択する指令に基づいて、前記認識結果を選択する。
これによって、ユーザの判断でより正確に音声認識結果を選択できる。
好ましくは、前記クライアントは、前記入力手段で入力した音声の特徴パラメータを抽出する抽出手段を備え、前記送信手段は、前記抽出手段で抽出した特徴パラメータを前記サーバに伝送し、前記サーバ音声認識手段は、前記クライアントから受信した特徴パラメータを用いて音声認識する。
これによって、クライアントとサーバとの間のデータ転送量を抑えることができる。
本発明の第2の観点に係る音声認識方法は、サーバとクライアントから構成される音声認識システムにおける音声認識方法であって、前記クライアントで、音声信号を入力する音声入力ステップと、前記音声信号を示すデータをサーバに送信する送信ステップと、前記サーバで、前記クライアントから音声信号を示すデータを受信するサーバ受信ステップと、前記サーバ受信ステップで受信したデータから音声認識するサーバ音声認識ステップと、前記サーバ音声認識ステップで音声認識した結果を前記クライアントに送信するサーバ送信ステップと、前記クライアントで、前記サーバから前記音声認識した結果を受信する受信ステップと、前記受信ステップで受信した音声認識結果を参照して、前記送信した音声信号を示すデータについて、音声認識する音声認識ステップと、前記サーバから受信した音声認識結果と、前記音声認識ステップで音声認識した結果と、から認識結果を選択する選択ステップと、を備えることを特徴とする。
本発明の第3の観点に係る音声認識クライアントは、音声信号を入力する音声入力手段と、前記音声信号を示すデータをサーバに送信する送信手段と、前記サーバから音声認識した結果を受信する受信手段と、前記受信手段で受信した音声認識結果を参照して、前記送信した音声信号を示すデータについて、音声認識する音声認識手段と、前記サーバから受信した音声認識結果と、前記音声認識手段で音声認識した結果と、から認識結果を選択する選択手段と、を備えることを特徴とする。
好ましくは、前記受信手段は、前記サーバから、文節区切り位置および文節の属性を表すデータを含む文節情報を受信し、前記音声認識手段は、前記受信手段で受信した文節情報を参照して、前記送信した音声信号を示すデータについて、音声認識する。
好ましくは、前記文節情報は、前記文節に含まれる単語の品詞を表すデータを含み、 前記音声認識手段は、前記受信した文節情報の品詞を表すデータを参照して、前記送信した音声信号を示すデータについて、音声認識する。
好ましくは、前記受信手段は、前記サーバから受信した音声認識結果のうちの未知語の属性を受信し、前記音声認識手段は、前記受信手段で受信した前記未知語の属性を参照して、前記送信した音声信号を示すデータについて、音声認識する。
好ましくは、前記音声認識手段は、前記サーバから受信した音声認識結果が所定の条件に適合する場合に、音声認識を行う。
好ましくは、前記サーバから受信した音声認識結果および前記音声認識手段で音声認識した結果が1つの語について複数の候補を有する場合に、その複数の候補のうち少なくとも2つ以上の候補を表示する表示手段と、前記表示手段で表示した候補のうち、少なくともいずれかを選択する指令を受け付ける入力手段と、を備え、前記選択手段は、前記入力手段で入力した前記選択する指令に基づいて、前記認識結果を選択する。
好ましくは、前記入力手段で入力した音声の特徴パラメータを抽出する抽出手段を備え、前記送信手段は、前記抽出手段で抽出した特徴パラメータを前記サーバに伝送する。
本発明の第4の観点に係るプログラムは、コンピュータを、音声信号を入力する音声入力手段と、前記音声信号を示すデータをサーバに送信する送信手段と、前記サーバから音声認識した結果を受信する受信手段と、前記受信手段で受信した音声認識結果を参照して、前記送信した音声信号を示すデータについて、音声認識する音声認識手段と、前記サーバから受信した音声認識結果と、前記音声認識手段で音声認識した結果と、から認識結果を選択する選択手段として機能させることを特徴とする。
本発明の音声認識システムによれば、サーバによって連続的な音声認識を行いながら、局所的個別の語についても音声認識できる。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。本発明で音声認識とは、音声言語から、話している内容を文字データとして取り出す処理である。
(実施の形態1)
図1は、本発明の実施の形態1に係る音声認識システムの構成を示すブロック図である。図1に示すように、音声認識システムは、クライアント1と、サーバ3から構成される。クライアント1とサーバ3は、図示しないネットワークを介して通信する。図1ではクライアント1を代表して1台で示す。サーバ3に複数のクライアント1が通信可能である。
クライアント1は、音声を入力し、音声のデータをサーバ3に送信する。サーバ3は、受信した音声データから音声認識して、その結果をクライアント1に送信する。クライアント1は、サーバ3から受信した音声認識結果を参照して、同じ音声データについて音声認識する。そして、複数の音声認識結果から音声の部分ごとに適切な認識結果を選択する。
クライアント1は、制御部10、音声入力部11、送信部12、受信部13、音声認識部14、表示部15、入力部16、選択部17、マイク21、表示装置22および入力装置23から構成される。音声入力部11、送信部12、受信部13、音声認識部14、表示部15、入力部16および選択部17は、内部バス20を介して制御部10に接続される。マイク21は音声入力部11に接続される。表示装置22は表示部15に接続される。入力装置23は、キーボードまたはテンキーと、マウスまたは十字カーソルキーと決定キーなどを備え、入力部16に接続される。制御部10は、クライアント1全体を制御する。
また、サーバ3は、制御部31、受信部32、音声認識部33および送信部34から構成される。受信部32、音声認識部33および送信部34は、内部バス30を介して制御部31に接続される。受信部32は、クライアント1の送信部12からネットワーク(図示せず)を介してデータを受信する。送信部34は、ネットワークを介してクライアント1の受信部13にデータを送信する。制御部31は、サーバ3全体を制御する。
音声入力部11は、マイク21から入力した音声信号をA−D変換し、音声データを生成する。音声入力部11は、さらに、音声データを圧縮符号に変換してもよい。サーバ3に送信される音声のデータは、音声信号をA−D変換したデータ、さらに符号化したデータ、または、音声から音声認識する処理の最初のステップで抽出する特徴量データの場合がある。以下の説明では、それらを総称して音声データという。
音声入力部11は、音声データを送信部12に送る。また、同じ音声データを音声認識部14に送る。送信部12は、音声データをサーバ3に送信する。
サーバ3の受信部32は、クライアント1の送信部12から音声データを受信する。受信部32は、クライアント1から受信した音声データを音声認識部33に送る。音声認識部33は、受信した音声データから音声認識して、文字列に変換する。
音声認識では、一般に、音声の音響的な特徴と言語的な特徴を分離して扱うことが多い。音響的な特徴を用いて、認識対象の音素が有する周波数特性に基づいて、音素を抽出する。音響的な特徴を表す音響モデルの表現としては、混合正規分布を出力確率とした隠れマルコフモデルが広く用いられている。
言語的な特徴である、音素の並び方に関する制約を表す言語モデルまたはルールグラマを用いて、また辞書データを参照して文節または単語を判別する。このとき、文節の時間情報も取得する。
音声認識部33は、音声認識の用途に応じて、大語彙連続音声認識または少語彙単語音声認識などを用いることができる。一般の発話の音声認識では、大語彙連続音声認識が望ましい。
音声認識部33は、音声認識した結果を送信部34に送る。ここで、音声認識の結果には、文節の区切り位置の情報を含む。また、音声認識の結果には、文節の属性、例えば、漢字かカタカナかなどの文字種、単語の品詞または文節時間などの情報を含む場合がある。送信部34は、音声認識の結果をクライアント1に送信する。
クライアント1の受信部13は、サーバ3から音声認識の結果を受信して、音声認識部14に送る。音声認識部14では、サーバ3の音声認識結果を参照して、同じ音声データについて音声認識を行う。音声認識部14でも、サーバ3の音声認識部33と同様に、音声認識の用途に応じた適切な音声認識方法を採用できる。また、サーバ3の音声認識部33とは異なる音声認識方法を用いることができる。サーバ3の音声認識結果のうち、例えば、文節の区切り位置を用いて、文節ごとに孤立音声認識を行うことができる。
クライアント1の音声認識では、話者、分野および文脈などが限定できる。また、音声認識部14に局所的個別の語を登録できるので、固有名詞や話者特有の表現について、認識精度を高めることができる。後述するように、サーバ3の音声認識結果またはユーザが入力した語句から選択して、音声認識部14に単語を登録することによって、クライアント1の音声認識をユーザの使用内容に適合するように学習させることができる。音声認識部14は、サーバ3から受信した音声認識結果と、音声認識部14で行った音声認識の結果を表示部15に送る。
表示部15は、サーバ3と音声認識部14の音声認識結果を表示装置22に表示する。ここで、2つの音声認識結果で同じ語については併合して表示し、認識結果が異なる語については並記する。また、それぞれの音声認識結果に複数の候補がある場合は、それらを表示してもよい。
入力部16は、表示した音声認識結果の異なる語について、入力装置23から選択する指示の入力を受け付ける。また、認識結果が不明の語または認識誤りなどの語について、ユーザの文字入力を受け付ける。そして、選択する指示および文字入力を選択部17に送る。選択部17は、音声認識結果の複数の候補がある語について、語を確定する。選択部17は、認識結果のうち単語ごとに尤度の高い方の結果を選択してもよい。
選択部17は、選択して確定した結果を表示部15から表示する。選択部17で選択して確定した認識結果は、表示部15で表示されるほか、電子メールやメモなどの入力として用いることができる。選択した結果または文字入力によって音声認識部14の辞書データを更新してもよい。サーバ3の音声認識結果またはユーザが入力した語句から選択して、音声認識部14に単語を登録することによって、クライアント1の音声認識をユーザの使用内容に適合するように学習させることができる。
図2は、音声認識の結果の例を示す。図2において、DSR(Distributed Speech Recognition)は、サーバ3の音声認識を表す。また、LSR(Local Speech Recognition)は、クライアント1側の音声認識を表す。特徴量の抽出は、クライアント1で行って、特徴量をサーバ3に送信してもよいし、クライアント1とサーバ3でそれぞれ独立に行ってもよい。
発話「ワタシハシマニイキマス。」について、サーバ3では、「私/は/島/に/活き/ます/。」と認識したことが示されている。認識結果の下の文節時間情報の数字は、発話音声の開始からの時間を秒で表したものである。
クライアント1では、サーバ3から受信した音声認識結果の文節時間情報を参照して、音声を分割し、分割した部分ごとに孤立音声認識する。その結果、「綿/は/志摩/に/行き/マリ」と認識されたことが示されている。
図3は、音声認識結果の表示と認識結果選択の例を示す。音声と認識結果については、図2の例を用いている。サーバ3の音声認識結果とクライアント1の音声認識結果の同じ語についてはマージして表示し、異なる語について並記する(図3の上から3つめの枠)。
ユーザは表示された認識結果を見て、正しい方を選択する。ユーザが選択することで、認識結果が確定する。その結果、「私は志摩に行きます。」が選択されることが示されている。ユーザは、選択キー(十字カーソルキーなど)と決定キーで、認識結果の候補を選択・決定するという簡単な操作で、所望のテキストデータを得ることができる。
クライアント1の音声認識部14の辞書にユーザごとの局所的個別の語を登録しておくことにより、サーバ3で一般的な単語として認識されていた似たような発音の語であっても、局所的個別の語を認識結果の候補として選択肢に表示できる。また、サーバ3の音声認識結果またはユーザが入力した語句から選択して、音声認識部14に単語を登録することによって、クライアント1の音声認識をユーザの使用内容に適合するように学習させることができる。その結果、クライアント1側に固有の語が含まれた発話内容でも、より正確に音声認識できる。
図4は、実施の形態1に係る音声認識システムの動作の一例を示すフローチャートである。まず、クライアント1の音声入力部11で音声を入力し(ステップS11)、送信部12から音声データをサーバ3に送信する(ステップS12)。
サーバ3では、受信部32で音声データを受信すると(ステップT11)、音声認識部33で音声認識処理を行う(ステップT12)。そして、送信部34で音声認識結果をクライアント1に送信する(ステップT13)。
クライアント1の受信部13が、サーバ3から音声認識結果を受信すると(ステップS13)、音声認識部14はそれを参照して音声認識処理を行う(ステップS14)。表示部15は、サーバ3とクライアント1の音声認識結果を表示する(ステップS15)。
入力部16でユーザの選択入力を受け付け(ステップS16)、選択部17は、入力された指示に従って認識結果を選択して確定する(ステップS17)。
以上説明したように、本実施の形態1の音声認識システムによれば、サーバ3によって連続的な音声認識を行いながら、局所的個別の語についても音声認識できる。その結果、音声認識率を向上することができる。また、サーバ3の音声認識結果を参照することによって、クライアント1側の音声認識の効率を向上することができる。
その他、実施の形態1の音声認識システムでは以下の効果がある。共通で使われる語彙や言語モデルまたはルールグラマはサーバ3に反映し、個別の単語やルールについてクライアント1側に反映することによって、サーバ3とクライアント1それぞれのリソースを有効に利用できる。また、サーバ3の音声認識結果またはユーザが入力した語句から選択して、音声認識部14に単語を登録することによって、クライアント1の音声認識をユーザの使用内容に適合するように学習させることができる。そして、クライアント1側の音声認識辞書の更新が、サーバ3側に影響を与えることがなく、システムの柔軟性が高い。
さらに、クライアント1の音声認識部14で使用する音声認識のモデル、すなわち、音響モデル、言語モデルおよび辞書などは、ユーザによって任意に変更可能である。クライアント1の音声認識モデルを、音声認識の対象に合わせて設定することによって、音声認識の精度と効率を向上することができる。
本発明の音声認識システムでは、クライアント1側の処理能力に合わせて、クライアント1側の音声認識アルゴリズムを選択することができる。例えば、クライアント1側の処理能力が低い場合は、孤立音声認識を用いることができる。また、クライアント1側の処理能力が高い場合は、連続音声認識を用いてもよい。
(実施の形態1の変形例1)
図5は、品詞情報を用いる場合の認識結果選択の例を示す。図5の音声認識対象の発話は「アノヒトガケンジデス。」である。サーバ3からは、「ケンジ」について普通名詞の「検事」が音声認識結果として送信されたことが示されている。
クライアント1では、例えば、文節ごとに音声認識した結果、「ケンジ」について固有名詞の「健二」が候補になったとする。サーバ3の認識結果が普通名詞で、クライアント1の音声認識結果が固有名詞の場合、選択部17は、固有名詞のクライアント1の認識結果を選択する。
品詞の情報を参照することによって、クライアント1側の音声認識の精度を向上させることができる。
(実施の形態1の変形例2)
図6は、未知語の情報を用いる場合の認識結果選択の例を示す。未知語とは、音声認識部33に登録されている単語に、音声に対応する単語がないことをいう。音声認識部33は、音声認識の結果、未知語と判断した場合に、その単語が備えるであろう品詞の情報を属性として認識する場合がある。また、未知語は音素の列が認識できていることが多く、その音素に対応する文字列が漢字を含むか、カタカナを含むかという情報を属性として認識できる場合がある。音声認識部33は、それらの未知語の属性をクライアント1に送信する。
図6の音声認識対象の発話は「アノヒトガタチモリデス。」である。サーバ3からは、「タチモリ」についてサーバ3に登録されていない未知語であることが、音声認識結果として送信されている。
クライアント1では、音声認識した結果、「タチモリ」について固有名詞の「日月」が候補になったとする。サーバ3の認識結果が未知語なので、選択部17は、クライアント1の認識結果を選択する。
サーバ3から受信した音声認識結果の未知語ないしは尤度が低い語に限って、クライアント1で音声認識を行ってもよい。サーバ3の認識結果が未知語でない場合には、その認識結果が確からしいと考えられ、その場合にクライアント1で音声認識を行わないことにより、クライアント1の音声認識の処理動作を早くすることができる。また、サーバ3の認識結果が未知語である場合には、その認識結果が確からしくないと考えられるため、その場合にクライアント1で音声認識を行うことにより、音声認識率が向上しうる。サーバ3から受信した未知語の品詞などの情報を参照することによって、属性を限定することができるので、クライアント1の音声認識の処理動作を速くすることができる。図6の例は、局所的個別の語についてクライアント1で音声認識率が向上しうることを示している。
以上説明したように、実施の形態1の音声認識システムによれば、全体として、音声認識速度の向上が見込まれる。
なお、クライアント1の音声認識部14は、実態としてサーバ3側にあってもよい。例えば、クライアント1毎のエージェントまたはモジュールとして、サーバ3に組み込まれてもよい。音声認識部14は、クライアント1毎の音声認識辞書とルールグラマがサーバ3のデータとして格納され、共通のモジュールがクライアント1毎のプロセスとしてサーバ3で実行されるような構成とすることもできる。その場合、サーバ3の送信部34は、音声認識部33の音声認識結果および/または音声認識部14の音声認識結果を送信する。クライアント1の受信部13は、音声認識部33の音声認識結果および/または音声認識部14の音声認識結果を受信して、クライアント1でいずれかを選択するか、あるいは、音声認識部33の音声認識結果および/または音声認識部14から選択された音声認識結果を受信する。
同様に、サーバ3の音声認識部33をクライアント1に組み込む構成とすることができる。その場合、送信部12、受信部32、送信部34および受信部13の間のデータのやりとりは、装置内部のデータ伝送またはプロセス間の通信である。音声認識部33がクライアント1にある場合、それはバックエンドプロセッサまたは音声認識処理のコア部分として考えることができる。音声認識部14は、ユーザごとの辞書またはルールグラマを実現する部分と捉えることができる。
(実施の形態2)
図7は、実施の形態2に係る音声認識システムの構成を示すブロック図である。実施の形態2では、クライアント1に結果判定部18を備える。
結果判定部18は、サーバ3の音声認識結果を調べて、音声認識部14で音声認識するかどうかを判断する。例えば、サーバ3から音声認識した結果の単語ごとに、その確からしさを表す尤度が送信される場合、尤度が所定のしきい値以上の場合には、その単語について音声認識部14では音声認識をしない。
音声認識部14で音声認識するか否かは、尤度、未知語もしくは品詞またはそれらを複合した条件を用いて判断することができる。例えば、図6のような場合に、未知語のみについて、クライアント1の音声認識部14で音声認識処理を行ってもよい。また、品詞情報が普通名詞の場合と固有名詞の場合で、しきい値となる尤度を変えてもよい。
図8は、実施の形態2に係る音声認識システムの動作の一例を示すフローチャートである。クライアント1の音声入力(ステップS21)から認識結果受信(ステップS23)の処理は、図4の動作と同様である。図8の例では、サーバ3は、尤度の情報を含む認識結果をクライアント1に送信する。
クライアント1の結果判定部18は、サーバ3の音声認識結果を調べ(ステップS24)、単語ごとに尤度が閾値より小さければ(ステップS25;YES)、その文節について音声認識部14で音声認識する(ステップS26)。尤度が閾値以上であれば(ステップS25;NO)、音声認識処理を行わない。
音声認識すべき音声データの残りがあれば(ステップS27;YES)、次の語について結果判定部18で音声認識結果を調べる。音声データの残りがなければ(ステップS27;NO)、認識結果の表示を行う(ステップS28)。以降の処理は、図4の動作と同様である。
以上説明したように、実施の形態2では、サーバ3から受信した音声認識結果が所定の条件に適合する場合に音声認識を行う。これによって、音声認識にかかるクライアント1の負荷を軽減することができる。
(実施の形態3)
図9は、実施の形態3に係る音声認識システムの構成を示すブロック図である。実施の形態3ではさらに、クライアント1に特徴量抽出部19を備える。図1または図7の音声認識部14に含まれる特徴量抽出を分離して示したものと考えることができる。
特徴量抽出部19は、入力した音声について、音声認識するための特徴量を抽出する。特徴量抽出部19は、特徴量データを送信部12および音声認識部14に送る。送信部12は、音声データとして特徴量データをサーバ3に送信する。サーバ3の音声認識部33は、クライアント1から受信した特徴量データを用いて音声認識する。
図10は、実施の形態3に係る音声認識システムの動作の一例を示すフローチャートである。クライアント1の音声入力部11で音声を入力すると(ステップS31)、特徴量抽出部19は、特徴量データを抽出する(ステップS32)。そして、送信部12から特徴量データを音声データとしてサーバ3に送信する(ステップS33)。
サーバ3では、受信部32で特徴量データを受信すると(ステップT31)、音声認識部33は特徴量データを用いて音声認識処理を行う(ステップT32)。そして、送信部34で音声認識結果をクライアント1に送信する(ステップT33)。以降の処理は、図8の実施の形態2の動作と同様である。
実施の形態3では、特徴パラメータを音声データとして送信するので、サーバ3に送信する過程で音質劣化がなく、高精度の音声認識が実現される。特徴パラメータは元の音声信号データに比べて小さいので、データ送受信の伝送時間が短い。したがって、音声認識の応答が早くなる。
図11は、図1、7または9に示すクライアント1のハードウェア構成の一例を示すブロック図である。クライアント1は、図11に示すように、制御部41、主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46および送受信部47を備える。主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46および送受信部47はいずれも内部バス40を介して制御部41に接続されている。
制御部41はCPU(Central Processing Unit)等から構成され、外部記憶部43に記憶されている制御プログラム50に従って、クライアント1の音声入力部11、送信部12、受信部13、音声認識部14、表示部15、入力部16、選択部17、結果判定部18および特徴量抽出部19の各処理を実行する。
主記憶部42はRAM(Random-Access Memory)等から構成され、外部記憶部43に記憶されている制御プログラム50をロードし、制御部41の作業領域として用いられる。
外部記憶部43は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、クライアント1の処理を制御部41に行わせるためのプログラムを予め記憶し、また、制御部41の指示に従って、このプログラムが記憶するデータを制御部41に供給し、制御部41から供給されたデータを記憶する。
操作部44はキーボードおよびマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス40に接続するインタフェース装置から構成されている。操作部44を介して、音声認識結果の選択指示などが入力され、制御部41に供給される。
表示部45は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成され、音声認識の結果や入力する文字または音声認識辞書に登録する単語などを表示する。
入出力部46は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部46は、マイク21を接続して音声信号を入力する。また、スピーカ(図示せず)を接続して、音声を再生する。
送受信部47は、ネットワークに接続する網終端装置または無線通信装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部47は、ネットワークを介して、サーバ3に音声データを送信し、また、音声認識結果を受信する。
図1、7または9に示すクライアント1の音声入力部11、送信部12、受信部13、音声認識部14、表示部15、入力部16、選択部17、結果判定部18および特徴量抽出部19の処理は、制御プログラム50が、制御部41、主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46および送受信部47などを資源として用いて処理することによって実行する。
なお、各実施の形態で説明した音声認識システムの構成は一例であり、任意に変更および修正が可能である。クライアント1またはサーバ3の構成は、実施の形態で示したものがすべてではなく、これらに限定されるものではない。例えば、実施の形態1で説明したように、クライアント1毎の音声認識部14がサーバ3にあってもよい。また、音声認識部33がクライアント1にあってもよい。
その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。
音声入力部11、送信部12、受信部13、音声認識部14、表示部15、入力部16、選択部17、結果判定部18および特徴量抽出部19等から構成されるクライアント1の音声認識処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行するクライアント1を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することでクライアント1を構成してもよい。
また、クライアント1を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合等には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
本発明の実施の形態1に係る音声認識システムの構成を示すブロック図である。 音声認識の結果の例を示す図である。 音声認識結果の表示と認識結果選択の例を示す図である。 実施の形態1に係る音声認識システムの動作の一例を示すフローチャートである。 品詞情報を用いる場合の認識結果選択の例を示す図である。 未知語の情報を用いる場合の認識結果選択の例を示す図である。 実施の形態2に係る音声認識システムの構成を示すブロック図である。 実施の形態2に係る音声認識システムの動作の一例を示すフローチャートである。 実施の形態3に係る音声認識システムの構成を示すブロック図である。 実施の形態3に係る音声認識システムの動作の一例を示すフローチャートである。 実施の形態に係るクライアントのハードウェア構成の一例を示すブロック図である。
符号の説明
1 クライアント
3 サーバ
10 制御部
11 音声入力部
12 送信部
13 受信部
14 音声認識部
15 表示部
16 入力部
17 選択部
18 結果判定部
19 特徴量抽出部
20 内部バス
21 マイク
22 表示装置
23 入力装置
30 内部バス
31 制御部
32 受信部
33 音声認識部
34 送信部
40 内部バス
41 制御部
42 主記憶部
43 外部記憶部
44 操作部
45 表示部
46 入出力部
47 送受信部
50 制御プログラム

Claims (16)

  1. サーバとクライアントから構成される音声認識システムであって、
    前記クライアントは、
    音声信号を入力する音声入力手段と、
    前記音声信号を示すデータをサーバに送信する送信手段と、
    を備え、
    前記サーバは、
    前記クライアントから音声信号を示すデータを受信するサーバ受信手段と、
    前記サーバ受信手段で受信したデータから音声認識するサーバ音声認識手段と、
    前記サーバ音声認識手段で音声認識した結果を前記クライアントに送信するサーバ送信手段と、
    を備え、
    前記クライアントはさらに、
    前記サーバから前記音声認識した結果を受信する受信手段と、
    前記受信手段で前記サーバから受信した前記音声認識した結果を参照して、前記受信した音声認識結果に対応する前記送信した音声信号を示すデータについて、音声認識する音声認識手段と、
    前記サーバから受信した音声認識結果と、前記音声認識手段で音声認識した結果と、から認識結果を選択する選択手段と、
    を備える、
    ことを特徴とする音声認識システム。
  2. 前記サーバ音声認識手段は、前記音声信号を示すデータから、文節区切り位置および文節の属性を表すデータを含む文節情報を抽出し、
    前記サーバ送信手段は、前記文節情報を前記クライアントに送信し、
    前記クライアントの音声認識手段は、前記サーバから受信した文節情報を参照して、前記送信した音声信号を示すデータについて、音声認識する
    ことを特徴とする請求項1に記載の音声認識システム。
  3. 前記文節情報は、文節に含まれる単語の品詞を表すデータを含み、
    前記クライアントの音声認識手段は、前記サーバから受信した文節情報の品詞を表すデータを参照して、前記送信した音声信号を示すデータについて、音声認識する、
    ことを特徴とする請求項2に記載の音声認識システム。
  4. 前記サーバ音声認識手段は、前記音声信号を示すデータから音声認識した結果のうち、未知語の属性を推定し、
    前記サーバ送信手段は、前記サーバ音声認識手段で推定した未知語の属性を前記クライアントに送信し、
    前記クライアントの音声認識手段は、前記サーバから受信した前記未知語の属性を参照して、前記送信した音声信号を示すデータについて音声認識する、
    ことを特徴とする請求項1ないし3のいずれか1項に記載の音声認識システム。
  5. 前記クライアントの音声認識手段は、前記サーバから受信した音声認識結果が所定の条件に適合する場合に音声認識を行う、ことを特徴とする請求項1ないし4のいずれか1項に記載の音声認識システム。
  6. 前記クライアントは、
    前記サーバから受信した音声認識結果および前記音声認識手段で音声認識した結果が1つの語について複数の候補を有する場合に、その複数の候補のうち少なくとも2つ以上の候補を表示する表示手段と、
    前記表示手段で表示した候補のうち、少なくともいずれかを選択する指令を受け付ける入力手段と、
    を備え、
    前記選択手段は、前記入力手段で入力した前記選択する指令に基づいて、前記認識結果を選択する、
    ことを特徴とする請求項1ないし5のいずれか1項に記載の音声認識システム。
  7. 前記クライアントは、前記入力手段で入力した音声の特徴パラメータを抽出する抽出手段を備え、
    前記送信手段は、前記抽出手段で抽出した特徴パラメータを前記サーバに伝送し、
    前記サーバ音声認識手段は、前記クライアントから受信した特徴パラメータを用いて音声認識する、
    ことを特徴とする請求項1ないし6のいずれか1項に記載の音声認識システム。
  8. サーバとクライアントから構成される音声認識システムにおける音声認識方法であって、
    前記クライアントで、音声信号を入力する音声入力ステップと、
    前記音声信号を示すデータをサーバに送信する送信ステップと、
    前記サーバで、前記クライアントから音声信号を示すデータを受信するサーバ受信ステップと、
    前記サーバ受信ステップで受信したデータから音声認識するサーバ音声認識ステップと、
    前記サーバ音声認識ステップで音声認識した結果を前記クライアントに送信するサーバ送信ステップと、
    前記クライアントで、前記サーバから前記音声認識した結果を受信する受信ステップと、
    前記受信ステップで受信した音声認識結果を参照して、前記送信した音声信号を示すデータについて、音声認識する音声認識ステップと、
    前記サーバから受信した音声認識結果と、前記音声認識ステップで音声認識した結果と、から認識結果を選択する選択ステップと、
    を備えることを特徴とする音声認識方法。
  9. 音声信号を入力する音声入力手段と、
    前記音声信号を示すデータをサーバに送信する送信手段と、
    前記サーバから音声認識した結果を受信する受信手段と、
    前記受信手段で受信した音声認識結果を参照して、前記送信した音声信号を示すデータについて、音声認識する音声認識手段と、
    前記サーバから受信した音声認識結果と、前記音声認識手段で音声認識した結果と、から認識結果を選択する選択手段と、
    を備えることを特徴とする音声認識クライアント。
  10. 前記受信手段は、前記サーバから、文節区切り位置および文節の属性を表すデータを含む文節情報を受信し、
    前記音声認識手段は、前記受信手段で受信した文節情報を参照して、前記送信した音声信号を示すデータについて、音声認識する、
    ことを特徴とする請求項9に記載の音声認識クライアント。
  11. 前記文節情報は、前記文節に含まれる単語の品詞を表すデータを含み、
    前記音声認識手段は、前記受信した文節情報の品詞を表すデータを参照して、前記送信した音声信号を示すデータについて、音声認識する、
    ことを特徴とする請求項10に記載の音声認識クライアント。
  12. 前記受信手段は、前記サーバから受信した音声認識結果のうちの未知語の属性を受信し、
    前記音声認識手段は、前記受信手段で受信した前記未知語の属性を参照して、前記送信した音声信号を示すデータについて、音声認識する
    ことを特徴とする請求項9ないし11のいずれか1項に記載の音声認識クライアント。
  13. 前記音声認識手段は、前記サーバから受信した音声認識結果が所定の条件に適合する場合に、音声認識を行うことを特徴とする請求項9ないし12のいずれか1項に記載の音声認識クライアント。
  14. 前記サーバから受信した音声認識結果および前記音声認識手段で音声認識した結果が1つの語について複数の候補を有する場合に、その複数の候補のうち少なくとも2つ以上の候補を表示する表示手段と、
    前記表示手段で表示した候補のうち、少なくともいずれかを選択する指令を受け付ける入力手段と、
    を備え、
    前記選択手段は、前記入力手段で入力した前記選択する指令に基づいて、前記認識結果を選択する、
    ことを特徴とする請求項9ないし13のいずれか1項に記載の音声認識クライアント。
  15. 前記入力手段で入力した音声の特徴パラメータを抽出する抽出手段を備え、
    前記送信手段は、前記抽出手段で抽出した特徴パラメータを前記サーバに伝送する、
    ことを特徴とする請求項9ないし14のいずれか1項に記載の音声認識クライアント。
  16. コンピュータを、
    音声信号を入力する音声入力手段と、
    前記音声信号を示すデータをサーバに送信する送信手段と、
    前記サーバから音声認識した結果を受信する受信手段と、
    前記受信手段で受信した音声認識結果を参照して、前記送信した音声信号を示すデータについて、音声認識する音声認識手段と、
    前記サーバから受信した音声認識結果と、前記音声認識手段で音声認識した結果と、から認識結果を選択する選択手段
    として機能させることを特徴とするプログラム。
JP2008252512A 2008-09-30 2008-09-30 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム Active JP4902617B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008252512A JP4902617B2 (ja) 2008-09-30 2008-09-30 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008252512A JP4902617B2 (ja) 2008-09-30 2008-09-30 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム

Publications (2)

Publication Number Publication Date
JP2010085536A JP2010085536A (ja) 2010-04-15
JP4902617B2 true JP4902617B2 (ja) 2012-03-21

Family

ID=42249575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008252512A Active JP4902617B2 (ja) 2008-09-30 2008-09-30 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム

Country Status (1)

Country Link
JP (1) JP4902617B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9761228B2 (en) 2013-02-25 2017-09-12 Mitsubishi Electric Corporation Voice recognition system and voice recognition device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5558284B2 (ja) * 2010-09-15 2014-07-23 株式会社Nttドコモ 音声認識システム、音声認識方法、および音声認識プログラム
JP5480760B2 (ja) * 2010-09-15 2014-04-23 株式会社Nttドコモ 端末装置、音声認識方法および音声認識プログラム
KR101208166B1 (ko) 2010-12-16 2012-12-04 엔에이치엔(주) 온라인 음성인식을 처리하는 음성인식 클라이언트 시스템, 음성인식 서버 시스템 및 음성인식 방법
JP5771002B2 (ja) * 2010-12-22 2015-08-26 株式会社東芝 音声認識装置、音声認識方法および音声認識装置を搭載したテレビ受像機
JP5658641B2 (ja) * 2011-09-15 2015-01-28 株式会社Nttドコモ 端末装置、音声認識プログラム、音声認識方法および音声認識システム
JP5821639B2 (ja) 2012-01-05 2015-11-24 株式会社デンソー 音声認識装置
JP6016134B2 (ja) 2012-02-27 2016-10-26 日本電気株式会社 音声入力装置、音声入力方法及びプログラム
JP5957269B2 (ja) 2012-04-09 2016-07-27 クラリオン株式会社 音声認識サーバ統合装置および音声認識サーバ統合方法
JP5868544B2 (ja) * 2013-03-06 2016-02-24 三菱電機株式会社 音声認識装置および音声認識方法
JP5753869B2 (ja) * 2013-03-26 2015-07-22 富士ソフト株式会社 音声認識端末およびコンピュータ端末を用いる音声認識方法
CN105556594B (zh) * 2013-12-26 2019-05-17 松下知识产权经营株式会社 声音识别处理装置、声音识别处理方法以及显示装置
DE102014200570A1 (de) * 2014-01-15 2015-07-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Erzeugung eines Steuerungsbefehls
US20170194000A1 (en) * 2014-07-23 2017-07-06 Mitsubishi Electric Corporation Speech recognition device and speech recognition method
JP6572969B2 (ja) * 2015-03-30 2019-09-11 富士通クライアントコンピューティング株式会社 音声認識装置、音声認識システム、及び、プログラム
JP6869835B2 (ja) * 2017-07-06 2021-05-12 フォルシアクラリオン・エレクトロニクス株式会社 音声認識システム、端末装置、及び辞書管理方法
WO2020065840A1 (ja) * 2018-09-27 2020-04-02 株式会社オプティム コンピュータシステム、音声認識方法及びプログラム
JP6807586B1 (ja) * 2020-01-30 2021-01-06 ベルフェイス株式会社 情報処理装置、情報処理方法及びプログラム
JP6824547B1 (ja) * 2020-06-22 2021-02-03 江崎 徹 アクティブラーニングシステム及びアクティブラーニングプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241796A (ja) * 2002-02-22 2003-08-29 Canon Inc 音声認識システムおよびその制御方法
JP2003295893A (ja) * 2002-04-01 2003-10-15 Omron Corp 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004325688A (ja) * 2003-04-23 2004-11-18 Toyota Motor Corp 音声認識システム
JP4554285B2 (ja) * 2004-06-18 2010-09-29 トヨタ自動車株式会社 音声認識システム、音声認識方法、及び音声認識プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9761228B2 (en) 2013-02-25 2017-09-12 Mitsubishi Electric Corporation Voice recognition system and voice recognition device

Also Published As

Publication number Publication date
JP2010085536A (ja) 2010-04-15

Similar Documents

Publication Publication Date Title
JP4902617B2 (ja) 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム
US11727914B2 (en) Intent recognition and emotional text-to-speech learning
US7848926B2 (en) System, method, and program for correcting misrecognized spoken words by selecting appropriate correction word from one or more competitive words
US7818166B2 (en) Method and apparatus for intention based communications for mobile communication devices
US10089974B2 (en) Speech recognition and text-to-speech learning system
JP5706384B2 (ja) 音声認識装置、音声認識システム、音声認識方法および音声認識プログラム
US8423351B2 (en) Speech correction for typed input
JP5119055B2 (ja) 多言語対応音声認識装置、システム、音声の切り替え方法およびプログラム
JP5062171B2 (ja) 音声認識システム、音声認識方法および音声認識用プログラム
WO2008084476A2 (en) Vowel recognition system and method in speech to text applications
US11532301B1 (en) Natural language processing
JP2001188558A (ja) 音声認識装置、方法、コンピュータ・システム及び記憶媒体
US11295732B2 (en) Dynamic interpolation for hybrid language models
WO2018043138A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
EP4295357A1 (en) Mixture model attention for flexible streaming and non-streaming automatic speech recognition
EP4295355A1 (en) Efficient streaming non-recurrent on-device end-to-end model
US20060247921A1 (en) Speech dialog method and system
CN111414748A (zh) 话务数据处理方法及装置
JP3526549B2 (ja) 音声認識装置、方法及び記録媒体
JP2015143866A (ja) 音声認識装置、音声認識システム、音声認識方法および音声認識プログラム
JP2001013992A (ja) 音声理解装置
CN113506561B (zh) 文本拼音的转换方法及装置、存储介质及电子设备
KR20220070647A (ko) 언어, 청각 장애인 및 외국인 상호 대화 시스템
KR20240068723A (ko) Rnn-T로 구현된 자동 음성 인식 시스템에서 음향과 텍스트 표현의 융합
JP6179509B2 (ja) 言語モデル生成装置、音声認識装置、言語モデル生成方法およびプログラム記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111228

R150 Certificate of patent or registration of utility model

Ref document number: 4902617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250