JP4048473B2 - Audio processing apparatus, audio processing method, program, and recording medium - Google Patents
Audio processing apparatus, audio processing method, program, and recording medium Download PDFInfo
- Publication number
- JP4048473B2 JP4048473B2 JP2002072718A JP2002072718A JP4048473B2 JP 4048473 B2 JP4048473 B2 JP 4048473B2 JP 2002072718 A JP2002072718 A JP 2002072718A JP 2002072718 A JP2002072718 A JP 2002072718A JP 4048473 B2 JP4048473 B2 JP 4048473B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- unknown word
- unknown
- recognition result
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、音声処理装置および音声処理方法、並びにプログラムおよび記録媒体に関し、特に、連続して入力される音声信号を音声認識している最中に、その入力音声信号に含まれる未知語を抽出し、簡単に登録することができるようにした音声処理装置および音声処理方法、並びにプログラムおよび記録媒体に関する。
【0002】
【従来の技術】
対話システムにおいて、何かの名前を音声で登録するという場面は、多く発生する。例えば、ユーザが自分の名前を登録したり、対話システムに名前をつけたり、地名や店名を入力したりするという場面である。
【0003】
従来、このような音声登録を簡単に実現する方法としては、何かのコマンドによって登録モードに移行して、登録が終了したら通常の対話モードに戻るというものがある。この場合、例えば、「ユーザ名登録」という音声コマンドによって登録モードに移行して、その後でユーザが名前を発生したらそれが登録され、その後、通常モードに戻る処理が行われる。
【0004】
【発明が解決しようとする課題】
しかしながら、このような音声登録の方法では、コマンドによるモード切換えをしなければならず、対話としては不自然であり、ユーザにとっては煩わしいという課題がある。また、名付ける対象が複数存在する場合、コマンドの数が増えるため、いっそう煩わしくなる。
【0005】
さらに、登録モード中に、ユーザが名前以外の単語(例えば、「こんにちは」)を話してしまった場合、それも名前として登録されてしまう。また、例えば、「太郎」という名前だけではなく、「私の名前は太郎です。」といったように、ユーザが名前以外の言葉を付加して話した場合、全体(「私の名前は太郎です。」)が名前として登録されてしまう。
【0006】
本発明はこのような状況に鑑みてなされたものであり、通常の対話の中で、ユーザに登録モードを意識させることなく、単語を登録できるようにすることを目的とする。
【0007】
【課題を解決するための手段】
本発明の音声処理装置は、連続する入力音声を認識する認識手段と、認識手段により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定手段と、未知語判定手段により、未知語が含まれていると判定された場合、その未知語を獲得する獲得手段と、未知語判定手段により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定手段と、パターン判定手段により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得手段により獲得された未知語に関連付けて登録する登録手段とを備え、認識手段は、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較手段を備え、比較手段は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0009】
未知語判定手段により、未知語が含まれていないと判定された場合、または、パターン判定手段により、認識結果がパターンにマッチしていないと判定された場合、入力音声に対応する応答を生成する応答生成手段をさらに備えることができる。
【0012】
獲得手段は、未知語のクラスタを生成することで、その未知語を獲得することができる。
【0014】
比較手段は、既知語でマッチングさせた場合の音響スコアに対して、音韻タイプライタで認識させた場合の音響スコアに補正をかけた上で比較を行うことができる。
認識手段は、認識結果の候補としての、推定された未知語または既知語を含む単語列を生成する単語列生成手段と、単語列生成手段により生成された単語列と入力音声の音の近さを表す音響スコアを計算する音響計算手段と、単語列生成手段により生成された単語列のふさわしさを表す言語スコアを計算する言語計算手段と、音響スコアと言語スコアに基づいて、単語列生成手段により生成された単語列から認識結果を選択する選択手段とをさらに備えることができる。
【0015】
本発明の音声処理方法は、連続する入力音声を認識する認識ステップと、認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、未知語判定ステップの処理により、未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、未知語判定ステップの処理により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、パターン判定ステップの処理により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得ステップの処理により獲得された未知語に関連付けて登録する登録ステップとを含み、認識ステップは、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、比較ステップの処理は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0016】
本発明の記録媒体のプログラムは、連続する入力音声を認識する認識ステップと、認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、未知語判定ステップの処理により、未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、未知語判定ステップの処理により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、パターン判定ステップの処理により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得ステップの処理により獲得された未知語に関連付けて登録する登録ステップとを含み、認識ステップは、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、比較ステップの処理は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0017】
本発明のプログラムは、連続する入力音声を認識する認識ステップと、認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、未知語判定ステップの処理により、未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、未知語判定ステップの処理により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、パターン判定ステップの処理により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得ステップの処理により獲得された未知語に関連付けて登録する登録ステップとを含み、認識ステップは、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、比較ステップの処理は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0018】
本発明においては、連続する入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアが比較され、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間が未知語であると推定され、優れていない場合、その区間が既知語であると推定される。そして、認識結果に未知語が含まれている場合、その未知語が獲得され、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かが判定され、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリが、未知語に関連付けて登録される。
【0019】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。図1は、本発明を適用した対話システムの一実施形態の構成例を示している。
【0020】
この対話システムは、ユーザ(人間)と音声により対話を行うシステムであり、例えば、音声が入力されると、その音声から名前が取り出され、登録されるようになっている。
【0021】
即ち、音声認識部1には、ユーザからの発話に基づく音声信号が入力されるようになっており、音声認識部1は、入力された音声信号を認識し、その音声認識の結果としてのテキスト、その他付随する情報を、対話制御部3と単語獲得部4に必要に応じて出力する。
【0022】
単語獲得部4は、音声認識部1が有する認識用辞書に登録されていない単語について、音響的特徴を自動的に記憶し、それ以降、その単語の音声を認識できるようにする。
【0023】
即ち、単語獲得部4は、入力音声に対応する発音を音韻タイプライタによって求め、それをいくつかのクラスタに分類する。各クラスタはIDと代表音韻系列を持ち、IDで管理される。このときのクラスタの状態を、図2を参照して説明する。
【0024】
例えば、「あか」、「あお」、「みどり」という3回の入力音声があったとする。この場合、単語獲得部4は、3回の音声を、それぞれに対応した「あか」クラスタ21、「あお」クラスタ22、「みどり」クラスタ23の、3つのクラスタに分類し、各クラスタには、代表となる音韻系列(図2の例の場合、"a/k/a, “a/o", “m/i/d/o/r/I")とID(図2の例の場合、「1」、「2」、「3」)を付加する。
【0025】
ここで再び、「あか」という音声が入力されると、対応するクラスタが既に存在するので、単語獲得部4は、入力音声を「あか」クラスタ21に分類し、新しいクラスタは生成しない。これに対して、「くろ」という音声が入力された場合、対応するクラスタが存在しないので、単語獲得部4は、「くろ」に対応したクラスタ24を新たに生成し、そのクラスタには、代表的な音韻系列(図2の例の場合、"k/u/r/o")とID(図2の例の場合、「4」)を付加する。
【0026】
したがって、入力音声が未獲得の語であるか否かは、新たなクラスタが生成されたかどうかによって判定できる。なお、このような単語獲得処理の詳細は、本出願人が先に提案した特願2001−97843号に開示されている。
【0027】
連想記憶部2は、登録した名前(未知語)がユーザ名であるか、キャラクタ名であるかといったカテゴリ等の情報を記憶する。例えば、図3の例では、クラスタIDとカテゴリ名とが対応して記憶されている。図3の例の場合、例えば、クラスタID「1」、「3」、「4」は「ユーザ名」のカテゴリに対応され、クラスタID「2」は、「キャラクタ名」のカテゴリに対応されている。
【0028】
対話制御部3は、音声認識部1の出力からユーザの発話の内容を理解し、その理解の結果に基づいて、名前(未知語)の登録を制御する。また、対話制御部3は、連想記憶部2に記憶されている登録済みの名前の情報に基づいて、登録済みの名前を認識できるように、それ以降の対話を制御する。
【0029】
図4は、音声認識部1の構成例を示している。
【0030】
ユーザの発話は、マイクロホン41に入力され、マイクロホン41では、その発話が、電気信号としての音声信号に変換される。この音声信号は、AD(Analog Digital)変換部42に供給される。AD変換部42は、マイクロホン41からのアナログ信号である音声信号をサンプリングし、量子化し、ディジタル信号である音声データに変換する。この音声データは、特徴量抽出部43に供給される。
【0031】
特徴量抽出部43は、AD変換部42からの音声データについて、適当なフレームごとに、例えば、スペクトル、パワー線形予測係数、ケプストラム係数、線スペクトル対等の特徴パラメータを抽出し、マッチング部44および音韻タイプライタ部45に供給する。
【0032】
マッチング部44は、特徴量抽出部43からの特徴パラメータに基づき、音響モデルデータベース51、辞書データベース52、および言語モデルデータベース53を必要に応じて参照しながら、マイクロホン41に入力された音声(入力音声)に最も近い単語列を求める。
【0033】
音響モデルデータベース51は、音声認識する音声の言語における個々の音韻や音節などの音響的な特徴を表す音響モデルを記憶している。音響モデルとしては、例えば、HMM(Hidden Markov Model)などを用いることができる。辞書データベース52は、認識対象の各単語(語句)について、その発音に関する情報が記述された単語辞書や、音韻や音節の連鎖関係を記述したモデルを記憶している。
【0034】
なお、ここにおける単語とは、認識処理において1つのまとまりとして扱ったほうが都合の良い単位のことであり、言語学的な単語とは必ずしも一致しない。例えば、「タロウ君」は、それ全体を1単語として扱ってもよいし、「タロウ」、「君」という2単語として扱ってもよい。さらに、もっと大きな単位である「こんにちはタロウ君」等を1単語として扱ってもよい。
【0035】
また、音韻とは、音響的に1つの単位として扱った方が処理上都合のよいもののことであり、音声学的な音韻や音素とは必ずしも一致しない。例えば、「東京」の「とう」の部分を"t/o/u"という3個の音韻記号で表してもよいし、"o"の長音である"o:"という記号を用いて"t/o:"と表してもよい。または、"t/o/o"と表すことも可能である。他にも、無音を表す記号を用意したり、さらにそれを「発話前の無音」、「発話に挟まれた短い無音区間」、「発話語の無音」、「「っ」の部分の無音」のように細かく分類してそれぞれに記号を用意してもよい。
【0036】
言語モデルデータベース53は、辞書データベース52の単語辞書に登録されている各単語がどのように連鎖する(接続する)かに関する情報を記述している。
【0037】
音韻タイプライタ部45は、特徴量抽出部43から供給された特徴パラメータに基づいて、入力された音声に対応する音韻系列を取得する。例えば、「私の名前は太郎です。」という音声から"w/a/t/a/sh/i/n/o/n/a/m/a/e/w/a/t/a/r/o:/d/e/s/u"という音韻系列を取得する。この音韻タイプライタには、既存のものを用いることができる。
【0038】
なお、音韻タイプライタ以外でも、任意の音声に対して音韻系列を取得できるものであれば代わりに用いることができる。例えば、日本語の音節(あ・い・う…か・き…・ん)を単位とする音声認識や、音韻よりも大きく、単語よりは小さな単位であるサブワードを単位とする音声認識等を用いることも可能である。
【0039】
制御部46は、AD変換部42、特徴量抽出部43、マッチング部44、音韻タイプライタ部45の動作を制御する。
【0040】
次に、図5のフローチャートを参照して、本発明の対話システムの処理について説明する。
【0041】
ステップS21において、ユーザがマイクロホン41に音声を入力すると、マイクロホン41は、その発話を、電気信号としての音声信号に変換する。そして、ステップS22において、音声認識部1は、音声認識処理を実行する。
【0042】
音声認識処理の詳細について、図6を参照して説明する。マイクロホン41で生成された音声信号は、ステップS41において、AD変換部42により、ディジタル信号である音声データに変換され、特徴量抽出部43に供給される。
【0043】
ステップS42において、特徴量抽出部43は、AD変換部42からの音声データを受信する。そして、特徴量抽出部43は、ステップS43に進み、適当なフレームごとに、例えば、スペクトル、パワー、それらの時間変化量等の特徴パラメータを抽出し、マッチング部44に供給する。
【0044】
ステップS44において、マッチング部44は、辞書データベース52に格納されている単語モデルのうちのいくつかを連結して、単語列を生成する。なお、この単語列を構成する単語には、辞書データベース52に登録されている既知語だけでなく、登録されていない未知語を表わすシンボルである“<OOV>”も含まれている。この単語列生成処理について、図7を参照して詳細に説明する。
【0045】
ステップS61において、マッチング部44は、入力音声の或る区間について、両方の場合の音響スコアを計算する。即ち、辞書データベース52に登録されている既知語とマッチングさせた結果の音響スコアと、音韻タイプライタ部45により得られた結果(今の場合、"w/a/t/a/sh/i/n/o/n/a/m/a/e/w/a/t/a/r/o:/d/e/s/u"の中の一部区間)の音響スコアが、それぞれ計算される。音響スコアは、音声認識結果の候補である単語列と入力音声とが音としてどれだけ近いかを表す。
【0046】
次に、入力音声の一部区間と辞書データベース52に登録されている既知語とをマッチングさせた結果の音響スコアと、音韻タイプライタ部45による結果の音響スコアを比較させるのであるが、既知語とのマッチングは単語単位で行われ、音韻タイプライタ部45でのマッチングは音韻単位で行われ、尺度が異なっているので、そのままでは比較することが困難である(一般的には、音韻単位の音響スコアの方が大きな値となる)。そこで、尺度を合わせて比較できるようにするために、マッチング部44は、ステップS62において、音韻タイプライタ部45により得られた結果の音響スコアに補正をかける。
【0047】
例えば、音韻タイプライタ部45からの音響スコアに係数を掛けたり、一定の値やフレーム長に比例した値などを減じたりする処理が行われる。勿論、この処理は相対的なものなので、既知語とマッチングさせた結果の音響スコアに対して行うこともできる。なお、この処理の詳細は、例えば、文献「"EUROSPEECH99 Volume 1, Page 49-52"」に「OOV-Detection in Large Vocabulary System Using Automatically Defined Word-Fragments as Fillers」として開示されている。
【0048】
マッチング部44は、ステップS63において、この2つの音響スコアを比較する(音韻タイプライタ部45で認識させた結果の音響スコアの方が高い(優れている)か否かを判定する)。音韻タイプライタ部45で認識させた結果の音響スコアの方が高い場合、ステップS64に進み、マッチング部44は、その区間を<OOV>(Out Of Vocabulary)(未知語)であると推定する。
【0049】
ステップS63において、既知語とマッチングさせた結果の音響スコアに対して、音韻タイプライタ部45で認識された結果の音響スコアの方が低いと判定された場合、ステップS66に進み、マッチング部44は、その区間を既知語であると推定する。
【0050】
即ち、例えば、「たろう」に相当する区間について、音韻タイプライタ部45の出力した"t/a/r/o:"の音響スコアと、既知語でマッチングさせた場合の音響スコアを比較して、"t/a/r/o:"の音響スコアの方が高い場合は、その音声区間に相当する単語として「<OOV>(t/a/r/o:)」が出力され、既知語の音響スコアの方が高い場合は、その既知語が音声区間に相当する単語として出力される。
【0051】
ステップS65において、音響スコアが高くなると推測される単語列(いくつかの単語モデルを連結したもの)を優先的にn個を生成する。
【0052】
図6に戻って、ステップS45において、音韻タイプライタ部45はステップS44の処理とは独立して、ステップS43の処理で抽出された特徴パラメータに対して音韻を単位とする認識を行ない、音韻系列を出力する。例えば、「私の名前は太郎(未知語)です。」という音声が入力されると、音韻タイプライタ部45は、"w/a/t/a/sh/i/n/o/n/a/m/a/e/w/a/t/a/r/o:/d/e/s/u"という音韻系列を出力する。
【0053】
ステップS46において、マッチング部44は、ステップS44で生成された単語列ごとに音響スコアを計算する。<OOV>(未知語)を含まない単語列に対しては既存の方法、すなわち各単語列(単語モデルを連結したもの)に対して音声の特徴パラメータを入力することで尤度を計算するという方法を用いる。一方、<OOV>を含む単語列については、既存の方法では<OOV>に相当する音声区間の音響スコアを求めることができない(<OOV>に対応する単語モデルは事前には存在しないため)。そこで、その音声区間については、音韻タイプライタの認識結果の中から同区間の音響スコアを取り出し、その値に補正をかけたものを<OOV>の音響スコアとして採用する。さらに、他の既知語部分の音響スコアと統合し、それをその単語列の音響スコアとする。
【0054】
ステップS47において、マッチング部44は、音響スコアの高い単語列を上位m個(m≦n)残し、候補単語列とする。ステップS48において、マッチング部44は、言語モデルデータベース53を参照して、候補単語列毎に、言語スコアを計算する。言語スコアは、認識結果の候補である単語列が言葉としてどれだけふさわしいかを表す。ここで、この言語スコアを計算する方法を詳細に説明する。
【0055】
本発明の音声認識部1は未知語も認識するため、言語モデルは未知語に対応している必要がある。例として、未知語に対応した文法または有限状態オートマトン(FSA:Finite State Automaton)を用いた場合と、同じく未知語に対応したtri-gram(統計言語モデルの1つである)を用いた場合とについて説明する。
【0056】
文法の例を図8を参照して説明する。この文法61はBNF(Backus Naur Form)で記述されている。図8において、"$A"は「変数」を表し、"A|B"は「AまたはB」という意味を表す。また、"[A]"は「Aは省略可能」という意味を表し、{A}は「Aを0回以上繰り返す」という意味を表す。
【0057】
<OOV>は未知語を表すシンボルであり、文法中に<OOV>を記述しておくことで、未知語を含む単語列に対しても対処することができる。"$ACTION"は図8では定義されていないが、実際には、例えば、「起立」、「着席」、「お辞儀」、「挨拶」等の動作の名前が定義されている。
【0058】
この文法61では、「<先頭>/こんにちは/<終端>」(“/”は単語間の区切り)、「<先頭>/さようなら/<終端>」、「<先頭>/私/の/名前/は/<OOV>/です/<終端>」のように、データベースに記憶されている文法に当てはまる単語列は受理される(この文法で解析される)が、「<先頭>/君/の/<OOV>/名前/<終端>」といった、データベースに記憶されている文法に当てはまらない単語列は受理されない(この文法で解析されない)。なお、「<先頭>」と「<終端>」はそれぞれ発話前と後の無音を表す特殊なシンボルである。
【0059】
この文法を用いて言語スコアを計算するために、パーザ(解析機)が用いられる。パーザは、単語列を、文法を受理できる単語列と、受理できない単語列に分ける。即ち、例えば、受理できる単語列には言語スコア1が与えられて、受理できない単語列には言語スコア0が与えられる。
【0060】
したがって、例えば、「<先頭>/私/の/名前/は/<OOV>(t/a/r/o:)/です/<終端>」と、「<先頭>/私/の/名前/は/<OOV>(j/i/r/o:)/です/<終端>」という2つの単語列があった場合、いずれも「<先頭>/私/の/名前/は/<OOV>/です/<終端>」に置き換えられた上で言語スコアが計算されて、ともに言語スコア1(受理)が出力される。
【0061】
また、単語列の文法が受理できるか否かの判定は、事前に文法を等価(近似でも良い)な有限状態オートマトン(以下、FSAと称する)に変換しておき、各単語列がそのFSAで受理できるか否かを判定することによっても実現できる。
【0062】
図8の文法を等価なFSAに変換した例が、図9に示されている。FSAは状態(ノード)とパス(アーク)とからなる有向グラフである。図9に示されるように、S1は開始状態、S16は終了状態である。また、"$ACTION"には、図8と同様に、実際には動作の名前が登録されている。
【0063】
パスには単語が付与されていて、所定の状態から次の状態に遷移する場合、パスはこの単語を消費する。ただし、"ε"が付与されているパスは、単語を消費しない特別な遷移(以下、ε遷移と称する)である。即ち、例えば、「<先頭>/私/は/<OOV>/です/<終端>」においては、初期状態S1から状態S2に遷移して、<先頭>が消費され、状態S2から状態S3へ遷移して、「私」が消費されるが、状態S3から状態S5への遷移は、ε遷移なので、単語は消費されない。即ち、状態S3から状態S5へスキップして、次の状態S6へ遷移することができる。
【0064】
所定の単語列がこのFSAで受理できるか否かは、初期状態S1から出発して、終了状態S16まで到達できるか否かで判定される。
【0065】
即ち、例えば、「<先頭>/私/の/名前/は/<OOV>/です/<終端>」においては、初期状態S1から状態S2へ遷移して、単語「<先頭>」が消費される。次に、状態S2から状態S3へ遷移して、単語「私」が消費される。以下、同様に、状態S3から状態S4へ、状態S4から状態S5へ、状態S5から状態S6へ、状態S6から状態S7へ順次遷移して、「の」、「名前」、「は」、「<00V>」、が次々に消費される。さらに、状態S7から状態S15へ遷移して、「です」が消費され、状態S15から状態S16に遷移して、「<終端>」が消費され、結局、終了状態S16へ到達する。したがって、「<先頭>/私/の/名前/は/<OOV>/です/<終端>」はFSAで受理される。
【0066】
しかしながら、「<先頭>/君/の/<OOV>/名前/<終端>」は、状態S1から状態S2へ、状態S2から状態S8へ、状態S8から状態S9までは遷移して、「<先頭>」、「君」、「の」までは消費されるが、その先には遷移できないので、終了状態S16へ到達することはできない。したがって、「<先頭>/君/の/<OOV>/名前/<終端>」は、FSAで受理されない(不受理)。
【0067】
さらに、言語モデルとして、統計言語モデルの1つであるtri-gramを用いた場合の言語スコアを計算する例を、図10を参照して説明する。統計言語モデルとは、その単語列の生成確率を求めて、それを言語スコアとする言語モデルである。即ち、例えば、図10の言語モデル71の「<先頭>/私/の/名前/は/<OOV>/です/<終端>」の言語スコアは、第2行に示されるように、その単語列の生成確率で表される。これはさらに、第3行乃至第6行で示されるように、条件付き確率の積として表される。なお、例えば、「P(の|<先頭> 私)」は、「の」の直前の単語が「私」で、「私」の直前の単語が「<先頭>」であるという条件の下で、「の」が出現する確率を表す。
【0068】
さらに、tri-gramでは、図10の第3行乃至第6行で示される式を、第7行乃至第9行で示されるように、連続する3単語の条件付き確率で近似させる。これらの確率値は、図11に示されるようなtri-gramデータベース81を参照して求められる。このtri-gramデータベース81は、予め大量のテキストを分析して求められたものである。
【0069】
図11の例では、3つの連続する単語w1,w2,w3の確率P(w3|w1w2)が表されている。例えば、3つの単語w1,w2,w3が、それぞれ、「<先頭>」、「私」、「の」である場合、確率値は0.12とされ、「私」、「の」、「名前」である場合、確率値は0.01とされ、「<OOV>」、「です」、「<終端>」である場合、確率値は、0.87とされている。
【0070】
勿論、「P(W)」及び「P(w2|w1)」についても、同様に、予め求めておく。
【0071】
このようにして、言語モデル中に<OOV>について、エントリ処理をしておくことで、<OOV>を含む単語列に対して、言語スコアを計算することができる。したがって、認識結果に<OOV>というシンボルを出力することができる。
【0072】
また、他の種類の言語モデルを用いる場合も、<OOV>についてのエントリ処理をすることによって、同様に<OOV>を含む単語列に対して、言語スコアを計算することができる。
【0073】
さらに、<OOV>のエントリが存在しない言語モデルを用いた場合でも、<OOV>を言語モデル中の適切な単語にマッピングする機構を用いることで、言語スコアの計算ができる。例えば、「P(<OOV>|私 は)」が存在しないtri-gramデータベースを用いた場合でも、「P(太郎|私 は)」でデータベースをアクセスして、そこに記述されている確率を「P(<OOV>|私 は)」の値とみなすことで、言語スコアの計算ができる。
【0074】
図6に戻って、マッチング部44は、ステップS49において、音響スコアと言語スコアを統合する。ステップS50において、マッチング部44は、ステップS49において求められた音響スコアと言語スコアの両スコアを統合したスコアに基づいて、最もよいスコアをもつ候補単語列を選択して、認識結果として出力する。
【0075】
なお、言語モデルとして、有限状態オートマトンを使用している場合は、ステップS49の統合処理を、言語スコアが0の場合は単語列を消去し、言語スコアが0以外の場合はそのまま残すという処理にしてもよい。
【0076】
図5に戻って、以上のようにしてステップS22で音声認識処理が実行された後、ステップS23において、音声認識部1の制御部46は認識された単語列に未知語が含まれているか否かを判定する。未知語が含まれていると判定された場合、制御部46は、単語獲得部4を制御し、ステップS24において、単語獲得処理を実行させ、その未知語を獲得させる。
【0077】
単語獲得処理の詳細について、図12を参照して説明する。ステップS91において、単語獲得部4は、音声認識部1から未知語(<OOV>)の特徴パラメータを抽出する。ステップS92において、単語獲得部4は、未知語が既獲得のクラスタに属するか否かを判定する。既獲得のクラスタに属さないと判定された場合、単語獲得部4は、ステップS93において、その未知語に対応する、新しいクラスタを生成する。そして、ステップS94において、単語獲得部4は、未知語の属するクラスタのIDを音声認識部1のマッチング部44に出力する。
【0078】
ステップS92において、未知語が既獲得のクラスタに属すると判定された場合、新しいクラスタを生成する必要がないので、単語獲得部4はステップS93の処理をスキップして、ステップS94に進み、未知語の属する既獲得のクラスタのIDをマッチング部44に出力する。
【0079】
なお、図12の処理は各未知語毎に行われる。
【0080】
図5に戻って、ステップS24の単語獲得処理終了後、ステップS25において、対話制御部3は、ステップS24の処理で獲得された単語列が、テンプレートにマッチしているかどうかを判定する。即ち、認識結果の単語列が何かの名前の登録を意味するものかどうかの判定がここで行われる。そして、ステップS25において、認識結果の単語列がテンプレートにマッチしていると判定された場合、ステップS26において、対話制御部3は、連想記憶部2に、名前のクラスタIDとカテゴリを対応させて記憶させる。
【0081】
対話制御部3がマッチングさせるテンプレートの例を図13を参照して説明する。なお、図13において、"/A/"は「文字列Aが含まれていたら」という意味を表し、"A|B"は「AまたはB」という意味を表す。また、"."は「任意の文字」を表し、"A+"は「Aの1回以上の繰り返し」という意味を表し、"(.)+"は「任意の文字列」を表す。
【0082】
このテンプレート91は、認識結果の単語列が図の左側の正規表現にマッチした場合、図の右側の動作を実行させることを表している。例えば、認識結果が「<先頭>/私/の/名前/は/<OOV>(t/a/r/o:)/です/<終端>」という単語列である場合、この認識結果から生成された文字列「私の名前は<OOV>です」は、図13の第2番目の正規表現にマッチする。したがって、対応する動作である「<OOV>に対応するクラスタIDをユーザ名として登録する」処理が実行される。即ち、「<OOV>(t/a/r/o:)」のクラスタIDが「1」である場合、図3に示されるように、クラスタID「1」のカテゴリ名が「ユーザ名」として登録される。
【0083】
また、例えば、認識結果が、「<先頭>/君/の/名前/は/<OOV>(a/i/b/o)/だよ/<終端>」である場合、そこから生成される文字列「君の名前は<OOV>だよ」は図13の第1番目の正規表現にマッチするので、「<OOV>(a/i/b/o)」がクラスタID「2」であれば、クラスタID「2」のカテゴリは、「キャラクタ名」として登録される。
【0084】
なお、対話システムによっては、登録する単語が1種類しかない(例えば、「ユーザ名」のみ)場合もあり、その場合は、テンプレート91と連想記憶部2は簡略化することができる。例えば、テンプレート91の内容を「認識結果に<OOV>が含まれていたら、そのIDを記憶する」として、連想記憶部2にそのクラスタIDのみを記憶させることができる。
【0085】
対話制御部3は、このようにして連想記憶部2に登録された情報を、以後の対話の判断処理に反映させる。例えば、対話システムの側で、「ユーザの発話の中に、対話キャラクタの名前が含まれているかどうかを判定する。含まれている場合は『呼びかけられた』と判断して、それに応じた返事をする」という処理や、「対話キャラクタがユーザの名前をしゃべる」という処理が必要になった場合に、対話制御部3は連想記憶部2の情報を参照することで、対話キャラクタに相当する単語(カテゴリ名が「キャラクタ名」であるエントリ)やユーザ名に相当する単語(カテゴリ名が「ユーザ名」であるエントリ)を得ることができる。
【0086】
一方、ステップS23において、認識結果に未知語が含まれていないと判定された場合、またはステップS25において、認識結果がテンプレートにマッチしていないと判定された場合、ステップS27において、対話制御部3は、入力音声に対応する応答を生成する。すなわち、この場合には、名前(未知語)の登録処理は行われず、ユーザからの入力音声に対応する所定の処理が実行される。
【0087】
ところで、言語モデルとして文法を用いる場合、文法の中に音韻タイプライタ相当の記述も組み込むことができる。この場合の文法の例が図14に示されている。この文法101において、第1行目の変数"$PHONEME"は、全ての音韻が「または」を意味する"|"で繋がれているので、音韻記号の内のどれか1つを意味する。変数"OOV"は"$PHONEME"を0回以上繰り返すことを表している。即ち、「任意の音韻記号を0回以上接続したもの」を意味し、音韻タイプライタに相当する。したがって、第3行目の「は」と「です」の間の"$OOV"は、任意の発音を受け付けることができる。
【0088】
この文法101を用いた場合の認識結果では、"$OOV"に相当する部分が複数のシンボルで出力される。例えば、「私の名前は太郎です」の認識結果が「<先頭>/私/の/名前/は/t/a/r/o:/です/<終端>」となる。この結果を「<先頭>/私/の/名前/は/<OOV>(t/a/r/o:)/です」に変換すると、図5のステップS23以降の処理は、音韻タイプライタを用いた場合と同様に実行することができる。
【0089】
以上においては、未知語に関連する情報として、カテゴリを登録するようにしたが、その他の情報を登録するようにしてもよい。
【0090】
図15は、上述の処理を実行するパーソナルコンピュータ110の構成例を示している。このパーソナルコンピュータ110は、CPU(Central Processing Unit)111を内蔵している。CPU111にはバス114を介して、入出力インタフェース115が接続されている。バス114には、ROM(Read Only Memory)112およびRAM(Random Access Memory)113が接続されている。
【0091】
入出力インターフェース115には、ユーザが操作するマウス、キーボード、マイクロホン、AD変換器等の入力デバイスで構成される入力部117、およびディスプレイ、スピーカ、DA変換器等の出力デバイスで構成される出力部116が接続されている。さらに、入出力インターフェース115には、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部118、並びにインタネットに代表されるネットワークを介してデータを通信する通信部119が接続されている。
【0092】
入出力インターフェース115には、磁気ディスク131、光ディスク132、光磁気ディスク133、半導体メモリ134などの記録媒体に対してデータを読み書きするドライブ120が必要に応じて接続される。
【0093】
このパーソナルコンピュータ110に本発明を適用した音声処理装置としての動作を実行させる音声処理プログラムは、磁気ディスク131(フロッピディスクを含む)、光ディスク132(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク133(MD(Mini Disc)を含む)、もしくは半導体メモリ134に格納された状態でパーソナルコンピュータ110に供給され、ドライブ120によって読み出されて、記憶部118に内蔵されるハードディスクドライブにインストールされる。記憶部118にインストールされた音声処理プログラムは、入力部117に入力されるユーザからのコマンドに対応するCPU111の指令によって、記憶部118からRAM113にロードされて実行される。
【0094】
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0095】
この記録媒体は、図15に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディス131、光ディスク132、光磁気ディスク133、もしくは半導体メモリ134などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM112や、記憶部118に含まれるハードディスクなどで構成される。
【0096】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0097】
また、本明細書において、システムとは、複数の装置が論理的に集合したものをいい、各構成の装置が同一筐体中にあるか否かは問わない。
【0098】
【発明の効果】
以上のように、本発明によれば、単語を音声で登録することができる。またその登録を、ユーザに登録モードを意識させることなく実行できる。さらに、既知語と未知語を含む連続する入力音声の中から未知語を容易に登録することが可能となる。さらに、登録した単語を、以降の対話で反映させることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した対話システムの一実施の形態の構成例を示すブロック図である。
【図2】クラスタの状態の例を示す図である。
【図3】単語の登録を示す図である。
【図4】図1の音声認識部の構成例を示すブロック図である。
【図5】図1の対話システムの動作を説明するためのフローチャートである。
【図6】図5のステップS22の音声認識処理の詳細を説明するためのフローチャートである。
【図7】図6のステップS44の単語列を生成する動作の詳細を説明するためのフローチャートである。
【図8】言語モデルデータベースで用いられる文法の例を示す図である。
【図9】有限状態オートマトンによる言語モデルの例を示す図である。
【図10】 tri-gramを用いた言語スコアの計算の例を示す図である。
【図11】 tri-gramデータベースの例を示す図である。
【図12】図5のステップS24の単語獲得処理の詳細を説明するためのフローチャートである。
【図13】テンプレートの例を示す図である。
【図14】音韻タイプライタを組み込んだ文法の例を示す図である。
【図15】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
1 音声認識部, 2 連想記憶部, 3 対話制御部, 4 単語獲得部,41 マイクロホン, 42 AD変換部, 43 特徴量抽出部, 44 マッチング部, 45 音韻タイプライタ部, 46 制御部, 51 音響モデルデータベース, 52 辞書データベース, 53 言語モデルデータベース[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice processing apparatus, a voice processing method, a program, and a recording medium, and in particular, extracts an unknown word contained in an input voice signal during voice recognition of a voice signal that is continuously input. The present invention also relates to a voice processing apparatus and a voice processing method, a program, and a recording medium that can be easily registered.
[0002]
[Prior art]
In a dialogue system, there are many scenes where a name of something is registered by voice. For example, the user registers his / her name, gives a name to the dialog system, and enters a place name or store name.
[0003]
Conventionally, as a method for easily realizing such voice registration, there is a method in which the mode is shifted to the registration mode by some command, and when the registration is completed, the mode is returned to the normal interactive mode. In this case, for example, the process shifts to the registration mode by a voice command “user name registration”, and if a user generates a name after that, the name is registered, and then the process returns to the normal mode.
[0004]
[Problems to be solved by the invention]
However, in such a voice registration method, the mode must be switched by a command, which is unnatural as a dialog and is troublesome for the user. Further, when there are a plurality of objects to be named, the number of commands increases, which makes it more troublesome.
[0005]
In addition, during the registration mode, if the user is you've talked a word other than the name (for example, "Hello"), it will also be registered as a name. In addition, for example, when the user adds a word other than the name, such as “My name is Taro” instead of just the name “Taro”, the whole (“My name is Taro”. ") Will be registered as a name.
[0006]
The present invention has been made in view of such a situation, and an object of the present invention is to allow a user to register a word without making the user aware of the registration mode during a normal dialogue.
[0007]
[Means for Solving the Problems]
The speech processing apparatus of the present invention includes a recognition unit that recognizes continuous input speech, an unknown word determination unit that determines whether an unknown word is included in the recognition result recognized by the recognition unit, and an unknown word determination If it is determined by the means that an unknown word is included, the acquisition result for acquiring the unknown word and the recognition result when the unknown word determination means determines that the unknown word is included in the recognition result Is determined by the pattern determination means for determining whether or not the pattern is a word string including an unknown word, and the pattern determination means determines that the recognition result matches the pattern, the unknown word in the pattern A registration means for registering the category associated with the word in association with the unknown word acquired by the acquisition means.The recognition means compares a recognition result candidate and an acoustic score representing the closeness of the sound of the input speech when the predetermined section of the input speech is matched with a known word and recognized by the phonological typewriter. Comparing means is provided, and the comparing means estimates that the section is an unknown word when the acoustic score when recognized by the phoneme typewriter is better, and if not, Presume that there isIt is characterized by that.
[0009]
When the unknown word determining means determines that the unknown word is not included, or when the pattern determining means determines that the recognition result does not match the pattern, a response corresponding to the input speech is generated. Response generation means may be further provided.
[0012]
Acquisition method is unknown wordofclusterGenerate aBy doing so, the unknown word can be acquired.
[0014]
The comparison means can make a comparison after correcting the acoustic score when the phonetic typewriter recognizes the acoustic score when matching with a known word.
The recognition means includes a word string generation means for generating a word string including an estimated unknown word or a known word as a recognition result candidate, and the proximity of the sound of the input speech and the word string generated by the word string generation means An acoustic calculation means for calculating an acoustic score, a language calculation means for calculating a language score representing the appropriateness of the word string generated by the word string generation means, and a word string generation means based on the acoustic score and the language score And a selecting means for selecting a recognition result from the word string generated by.
[0015]
The speech processing method of the present invention includes a recognition step for recognizing continuous input speech, an unknown word determination step for determining whether or not an unknown word is included in the recognition result recognized by the processing of the recognition step, and an unknown If it is determined that the unknown word is included by the processing of the word determination step, it is determined that the unknown result is included in the recognition result by the acquisition step of acquiring the unknown word and the processing of the unknown word determination step. The recognition result is determined to match the pattern by the pattern determination step for determining whether or not the recognition result matches a pattern that is a word string including an unknown word and the pattern determination step. In this case, the category associated with the unknown word in the pattern is registered in association with the unknown word acquired by the acquisition step processing. Including a flopThe recognition step compares the acoustic score that represents the proximity of the input speech sound with the recognition result candidate when the input speech is matched with a known word and the phoneme typewriter is used for matching. If the acoustic score when recognized by the phoneme typewriter is superior, the section is estimated to be an unknown word, and if not, the section is Estimate a known wordIt is characterized by that.
[0016]
The recording medium program of the present invention includes a recognition step for recognizing continuous input speech, an unknown word determination step for determining whether or not an unknown word is included in the recognition result recognized by the processing of the recognition step, If it is determined by the unknown word determination step that an unknown word is included, it is determined that the unknown result is included in the recognition result by the acquisition step for acquiring the unknown word and the unknown word determination step. If the recognition result is determined, the recognition result matches the pattern by the pattern determination step for determining whether or not the recognition result matches a pattern that is a word string including an unknown word, and the processing of the pattern determination step. If so, the category associated with the unknown word in the pattern is registered in association with the unknown word acquired by the processing of the acquisition step. Including a recording stepThe recognition step compares the acoustic score that represents the proximity of the input speech sound with the recognition result candidate when the input speech is matched with a known word and the phoneme typewriter is used for matching. If the acoustic score when recognized by the phoneme typewriter is superior, the section is estimated to be an unknown word, and if not, the section is Estimate a known wordIt is characterized by that.
[0017]
The program of the present invention includes a recognition step for recognizing continuous input speech, an unknown word determination step for determining whether or not an unknown word is included in the recognition result recognized by the processing of the recognition step, and an unknown word determination When it is determined by the processing of the step that an unknown word is included, when it is determined that the recognition result includes an unknown word by the acquisition step of acquiring the unknown word and the processing of the unknown word determination step When the recognition result is determined to match the pattern by the pattern determination step for determining whether or not the recognition result matches a pattern that is a word string including an unknown word and the pattern determination step The registration step for registering the category associated with the unknown word in the pattern in association with the unknown word acquired by the processing of the acquisition step. Including the doorThe recognition step compares the acoustic score that represents the proximity of the input speech sound with the recognition result candidate when the input speech is matched with a known word and the phoneme typewriter is used for matching. If the acoustic score when recognized by the phoneme typewriter is superior, the section is estimated to be an unknown word, and if not, the section is Estimate a known wordIt is characterized by that.
[0018]
In the present invention, continuous input speechFor a given section, the acoustic score representing the proximity of the input speech sound is compared with the recognition result candidate when matched with a known word and when recognized by the phonological typewriter, and is recognized by the phonological typewriter. If the acoustic score is better, the section is estimated to be an unknown word, and if not, the section is estimated to be a known word. AndIf an unknown word is included in the recognition result, the unknown word is acquired, whether or not the recognition result matches a pattern that is a word string including the unknown word, and the recognition result matches the pattern. If it is determined that the category is associated with the unknown word, the category associated with the unknown word is registered in association with the unknown word.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a configuration example of an embodiment of an interactive system to which the present invention is applied.
[0020]
This dialogue system is a system that performs dialogue with a user (human) by voice. For example, when voice is input, a name is extracted from the voice and registered.
[0021]
That is, the
[0022]
The
[0023]
That is, the
[0024]
For example, it is assumed that there are three input voices “Aka”, “Ao”, and “Midori”. In this case, the
[0025]
Here, when the voice “Aka” is input again, since the corresponding cluster already exists, the
[0026]
Therefore, whether or not the input speech is an unacquired word can be determined based on whether or not a new cluster has been generated. Details of such word acquisition processing are disclosed in Japanese Patent Application No. 2001-97843 previously proposed by the present applicant.
[0027]
The
[0028]
The
[0029]
FIG. 4 shows a configuration example of the
[0030]
The user's utterance is input to the
[0031]
The feature amount extraction unit 43 extracts, for example, feature parameters such as a spectrum, a power linear prediction coefficient, a cepstrum coefficient, a line spectrum pair, and the like from the voice data from the
[0032]
Based on the feature parameters from the feature amount extraction unit 43, the matching
[0033]
The
[0034]
Note that the word here is a unit that is more convenient to treat as one unit in the recognition process, and does not necessarily match the linguistic word. For example, “Taro-kun” may be treated as a single word, or may be treated as two words “Taro” and “you”. In addition, may be dealing with more is a major unit of "Hello Taro" or the like as one word.
[0035]
A phoneme is one that is more convenient in terms of processing if it is treated acoustically as one unit, and does not necessarily match phonemic phonemes or phonemes. For example, the “To” part of “Tokyo” may be represented by three phonetic symbols “t / o / u”, or “t: o”, which is a long sound of “o”, and “t” / o: ". Alternatively, it can be expressed as “t / o / o”. In addition, a symbol representing silence can be prepared, and it can also be used as "silence before utterance", "short silence between utterances", "silence of utterances", and "silence of part" As shown in FIG.
[0036]
The
[0037]
The
[0038]
In addition to the phoneme typewriter, any phoneme sequence can be used instead of any phoneme sequence for any speech. For example, speech recognition in units of Japanese syllables (a, i, u ... ka, ki ..., n), speech recognition in units of subwords that are larger than phonemes and smaller than words are used. It is also possible.
[0039]
The
[0040]
Next, processing of the interactive system of the present invention will be described with reference to the flowchart of FIG.
[0041]
In step S21, when the user inputs voice to the
[0042]
Details of the speech recognition processing will be described with reference to FIG. The audio signal generated by the
[0043]
In step S <b> 42, the feature amount extraction unit 43 receives audio data from the
[0044]
In step S44, the matching
[0045]
In step S61, the matching
[0046]
Next, the acoustic score obtained by matching a partial section of the input speech with the known word registered in the
[0047]
For example, a process of multiplying the acoustic score from the
[0048]
In step S63, the matching
[0049]
If it is determined in step S63 that the acoustic score of the result recognized by the
[0050]
That is, for example, for the section corresponding to “Taro”, the acoustic score of “t / a / r / o:” output from the
[0051]
In step S65, n pieces of word strings (concatenated several word models) presumed to have a high acoustic score are generated preferentially.
[0052]
Returning to FIG. 6, in step S45, the
[0053]
In step S46, the matching
[0054]
In step S <b> 47, the matching
[0055]
Since the
[0056]
Illustration of grammar example8Will be described with reference to FIG. This
[0057]
<OOV> is a symbol representing an unknown word, and by describing <OOV> in the grammar, it is possible to deal with a word string including the unknown word. "$ ACTION" is a figure8In practice, however, names of actions such as “standing up”, “seating”, “bowing”, “greeting”, etc. are defined.
[0058]
In this
[0059]
A parser (analyzer) is used to calculate a language score using this grammar. The parser divides the word string into a word string that can accept grammar and a word string that cannot accept it. That is, for example, a language score of 1 is given to acceptable word strings, and a language score of 0 is given to unacceptable word strings.
[0060]
So, for example, “<start> / I / no / name / is / <OOV> (t / a / r / o:) // termination>” and “<start> / i / no / name / Is / <OOV> (j / i / r / o:) / is / <terminal> ”, there are both <start> / I / no / name / has / <OOV> The language score is calculated after being replaced with “/ is / <terminal>”, and the language score 1 (acceptance) is output together.
[0061]
In addition, whether or not the grammar of the word string can be accepted is determined by converting the grammar into an equivalent (may be approximate) finite state automaton (hereinafter referred to as FSA) in advance, and each word string is the FSA. It can also be realized by determining whether or not it can be accepted.
[0062]
Figure8An example of converting the grammar of grammar to equivalent FSA is shown in Figure9Is shown in FSA is a directed graph composed of states (nodes) and paths (arcs). Figure9As shown in FIG. 5, S1 is a start state, and S16 is an end state. In addition, "$ ACTION"8Like, the name of the action is actually registered.
[0063]
When a word is given to the path and a transition is made from a predetermined state to the next state, the path consumes this word. However, a path to which “ε” is assigned is a special transition that does not consume a word (hereinafter referred to as “ε transition”). That is, for example, in “<head> / I / has / <OOV> / <end>”, the transition is made from the initial state S1 to the state S2, and the <head> is consumed, and from the state S2 to the state S3. Although “I” is consumed by the transition, the transition from the state S3 to the state S5 is an ε transition, so the word is not consumed. That is, it is possible to skip from the state S3 to the state S5 and make a transition to the next state S6.
[0064]
Whether or not a predetermined word string can be accepted by this FSA is determined by whether or not it is possible to start from the initial state S1 and reach the end state S16.
[0065]
That is, for example, in “<start> / I / no / name / is / <OOV> // <end>”, the transition from the initial state S1 to the state S2 and the word “<start>” is consumed. The Next, transition from state S2 to state S3, the word "I" is consumed. In the same manner, the state S3 to the state S4, the state S4 to the state S5, the state S5 to the state S6, and the state S6 to the state S7 are sequentially changed to “NO”, “NAME”, “HA”, “ <00V> ”is consumed one after another. Further, the state transitions from the state S7 to the state S15, "I" is consumed, the state S15 transits to the state S16, "<Termination>" is consumed, and eventually the end state S16 is reached. Therefore, “<start> / I / no / name / is / <OOV> // <end>” is accepted by FSA.
[0066]
However, “<start> / you / no / <OOV> / name / <end>” changes from the state S1 to the state S2, from the state S2 to the state S8, and from the state S8 to the state S9. Up to “top>”, “you”, and “no” are consumed, but since the transition cannot be made beyond that, it is not possible to reach the end state S16. Therefore, “<Start> / You / No / <OOV> / Name / <End>” is not accepted by FSA (not accepted).
[0067]
Furthermore, an example of calculating a language score when a tri-gram which is one of statistical language models is used as a language model is shown in FIG.0Will be described with reference to FIG. The statistical language model is a language model in which the generation probability of the word string is obtained and used as a language score. That is, for example, FIG.0The language score of “<start> / I /// name / has / <OOV> / is / <end>” in the
[0068]
Furthermore, in the tri-gram, Fig. 10The expressions shown in the third to sixth lines are approximated by conditional probabilities of three consecutive words as shown in the seventh to ninth lines. These probability values are shown in FIG.1It is obtained by referring to a
[0069]
FIG.1In the example, the probability P (w3 | w1w2) of three consecutive words w1, w2, and w3 is represented. For example, if the three words w1, w2, and w3 are “<start>”, “I”, and “no”, the probability value is 0.12, and “me”, “no”, and “name” ", The probability value is 0.01, and in the case of" <OOV> "," is ", and" <terminal> ", the probability value is 0.87.
[0070]
Of course, “P (W)” and “P (w2 | w1)” are similarly obtained in advance.
[0071]
In this way, by performing entry processing for <OOV> in the language model, a language score can be calculated for a word string including <OOV>. Therefore, the symbol <OOV> can be output as the recognition result.
[0072]
Similarly, when other types of language models are used, a language score can be calculated for a word string including <OOV> by performing entry processing for <OOV>.
[0073]
Furthermore, even when a language model that does not have an entry for <OOV> is used, a language score can be calculated by using a mechanism that maps <OOV> to an appropriate word in the language model. For example, even when using a tri-gram database that does not have “P (<OOV> | I am)”, the database is accessed with “P (Taro | I am)” and the probability described in it is calculated. The language score can be calculated by regarding the value of “P (<OOV> | I am)”.
[0074]
Returning to FIG. 6, the matching
[0075]
When a finite state automaton is used as the language model, the integration process in step S49 is performed so that the word string is deleted when the language score is 0, and is left as it is when the language score is other than 0. May be.
[0076]
Returning to FIG. 5, after the speech recognition process is executed in step S22 as described above, in step S23, the
[0077]
Details of the word acquisition process are shown in FIG.2Will be described with reference to FIG. In step S <b> 91, the
[0078]
If it is determined in step S92 that the unknown word belongs to the already acquired cluster, there is no need to generate a new cluster, so the
[0079]
In addition, FIG.2Processing of each unknownwordDone every time.
[0080]
Returning to FIG. 5, after completion of the word acquisition process in step S24, in step S25, the
[0081]
An example of a template to be matched by the
[0082]
This
[0083]
For example, if the recognition result is “<start> / you / no / name / has / <OOV> (a / i / b / o) / dayo / <end>”, it is generated from there. The string “Your name is <OOV>” is shown in Figure 1.3If “<OOV> (a / i / b / o)” is the cluster ID “2”, the category of the cluster ID “2” is “character name”. be registered.
[0084]
Depending on the dialogue system, there may be only one type of word to be registered (for example, “user name” only). In this case, the
[0085]
The
[0086]
On the other hand, if it is determined in step S23 that an unknown word is not included in the recognition result, or if it is determined in step S25 that the recognition result does not match the template, in step S27, the
[0087]
By the way, when a grammar is used as a language model, a description equivalent to a phonological typewriter can be incorporated into the grammar. An example of grammar in this case is shown in FIG.4Is shown in In this
[0088]
In the recognition result when this
[0089]
In the above, a category is registered as information related to an unknown word, but other information may be registered.
[0090]
FIG.5These show a configuration example of the
[0091]
The input /
[0092]
The input /
[0093]
A sound processing program for causing the
[0094]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.
[0095]
This recording medium is shown in FIG.5As shown in FIG. 4, a package made up of a
[0096]
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
[0097]
Further, in this specification, the system means a system in which a plurality of devices are logically assembled, and it does not matter whether the devices of each configuration are in the same housing.
[0098]
【The invention's effect】
As described above, according to the present invention, words can be registered by voice. The registration can be executed without making the user aware of the registration mode. Furthermore, it is possible to easily register unknown words from continuous input speech including known words and unknown words. Furthermore, the registered word can be reflected in subsequent dialogues.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of an embodiment of an interactive system to which the present invention is applied.
FIG. 2 is a diagram illustrating an example of a state of a cluster.
FIG. 3 is a diagram illustrating word registration.
4 is a block diagram illustrating a configuration example of a voice recognition unit in FIG. 1. FIG.
FIG. 5 is a flowchart for explaining the operation of the dialogue system of FIG. 1;
FIG. 6 is a flowchart for explaining details of the voice recognition processing in step S22 of FIG. 5;
7 is a flowchart for explaining details of an operation for generating a word string in step S44 of FIG. 6;
FIG. 8 is a diagram illustrating an example of grammar used in a language model database.
FIG. 9 is a diagram illustrating an example of a language model based on a finite state automaton.
FIG. 10 is a diagram illustrating an example of language score calculation using a tri-gram.
FIG. 11 is a diagram illustrating an example of a tri-gram database.
12 is a flowchart for explaining details of a word acquisition process in step S24 of FIG. 5;
FIG. 13 is a diagram illustrating an example of a template.
FIG. 14 is a diagram showing an example of a grammar incorporating a phoneme typewriter.
FIG. 15 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present invention has been applied.
[Explanation of symbols]
DESCRIPTION OF
Claims (8)
連続する前記入力音声を認識する認識手段と、
前記認識手段により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定手段と、
前記未知語判定手段により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得手段と、
前記未知語判定手段により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定手段と、
前記パターン判定手段により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得手段により獲得された前記未知語に関連付けて登録する登録手段と
を備え、
前記認識手段は、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較手段
を備え、
前記比較手段は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とする音声処理装置。A speech processing apparatus that processes input speech and registers words included in the input speech based on the processing result,
Recognition means for recognizing the continuous input speech;
An unknown word determination means for determining whether or not an unknown word is included in the recognition result recognized by the recognition means;
When the unknown word determination means determines that the unknown word is included, acquisition means for acquiring the unknown word;
Pattern determination for determining whether or not the recognition result matches a pattern that is a word string including the unknown word when the unknown word determination unit determines that the unknown word is included in the recognition result Means,
When it is determined by the pattern determining means that the recognition result matches the pattern, the category associated with the unknown word in the pattern is associated with the unknown word acquired by the acquiring means. And registration means for registering ,
The recognition means is
Comparing means for comparing a candidate of the recognition result and an acoustic score representing the closeness of the sound of the input speech when the predetermined section of the input speech is matched with a known word and recognized by a phonological typewriter
With
The comparing means estimates that the section is the unknown word when the acoustic score when recognized by the phonological typewriter is superior, and if the acoustic score is not superior, the section is determined as the known word. A speech processing apparatus characterized by estimating that there is.
をさらに備えることを特徴とする請求項1に記載の音声処理装置。When the unknown word determining unit determines that the unknown word is not included, or when the pattern determining unit determines that the recognition result does not match the pattern, The speech processing apparatus according to claim 1, further comprising response generation means for generating a corresponding response.
ことを特徴とする請求項1に記載の音声処理装置。It said acquisition means, by generating the unknown word clusters, speech processing apparatus according to claim 1, characterized in that to acquire the unknown words.
ことを特徴とする請求項1に記載の音声処理装置。Said comparing means according to claim 1, characterized in that to make a comparison in terms of the relative acoustic score in the case where are matched with known words, multiplied by correction acoustic score when was recognized in the phoneme typewriter The voice processing apparatus according to 1.
前記認識結果の候補としての、推定された前記未知語または前記既知語を含む単語列を生成する単語列生成手段と、
前記単語列生成手段により生成された前記単語列と前記入力音声の音の近さを表す音響スコアを計算する音響計算手段と、
前記単語列生成手段により生成された前記単語列のふさわしさを表す言語スコアを計算する言語計算手段と、
前記音響スコアと前記言語スコアに基づいて、前記単語列生成手段により生成された前記単語列から前記認識結果を選択する選択手段と
をさらに備える請求項1に記載の音声処理装置。The recognition means is
A word string generation means for generating a word string including the estimated unknown word or the known word as the recognition result candidate;
Acoustic calculation means for calculating an acoustic score representing the closeness of the sound of the input sound and the word string generated by the word string generation means;
Language calculation means for calculating a language score representing the appropriateness of the word string generated by the word string generation means;
The speech processing apparatus according to claim 1 , further comprising: a selecting unit that selects the recognition result from the word string generated by the word string generating unit based on the acoustic score and the language score.
連続する前記入力音声を認識する認識ステップと、
前記認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、
前記未知語判定ステップの処理により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、
前記未知語判定ステップの処理により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、
前記パターン判定ステップの処理により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得ステップの処理により獲得された前記未知語に関連付けて登録する登録ステップと
を含み、
前記認識ステップは、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、
前記比較ステップの処理は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とする音声処理方法。In the speech processing method of the speech processing apparatus for processing an input speech and registering a word included in the input speech based on the processing result,
A recognition step for recognizing the continuous input speech;
An unknown word determination step for determining whether or not an unknown word is included in the recognition result recognized by the processing of the recognition step;
If it is determined by the processing of the unknown word determination step that the unknown word is included, an acquisition step of acquiring the unknown word;
When it is determined by the processing of the unknown word determination step that the unknown word is included in the recognition result, it is determined whether or not the recognition result matches a pattern that is a word string including the unknown word. A pattern determination step;
When it is determined that the recognition result matches the pattern by the process of the pattern determination step, the category associated with the unknown word in the pattern is acquired by the process of the acquisition step. look including a registration step of registering in association with the unknown word,
The recognition step includes
A comparison step of comparing the acoustic score representing the closeness of the sound of the input speech with the recognition result candidate when the predetermined section of the input speech is matched with a known word and recognized with a phonological typewriter Including
In the comparison step, when the acoustic score when recognized by the phonological typewriter is superior, the section is estimated as the unknown word, and when the acoustic score is not superior, the section is determined as the known A speech processing method characterized by estimating a word .
連続する前記入力音声を認識する認識ステップと、
前記認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、
前記未知語判定ステップの処理により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、
前記未知語判定ステップの処理により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、
前記パターン判定ステップの処理により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得ステップの処理により獲得された前記未知語に関連付けて登録する登録ステップと
を含み、
前記認識ステップは、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、
前記比較ステップの処理は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。A program for a speech processing apparatus that processes input speech and registers words included in the input speech based on the processing result,
A recognition step for recognizing the continuous input speech;
An unknown word determination step for determining whether or not an unknown word is included in the recognition result recognized by the processing of the recognition step;
If it is determined by the processing of the unknown word determination step that the unknown word is included, an acquisition step of acquiring the unknown word;
When it is determined by the processing of the unknown word determination step that the unknown word is included in the recognition result, it is determined whether or not the recognition result matches a pattern that is a word string including the unknown word. A pattern determination step;
When it is determined that the recognition result matches the pattern by the process of the pattern determination step, the category associated with the unknown word in the pattern is acquired by the process of the acquisition step. look including a registration step of registering in association with the unknown word,
The recognition step includes
A comparison step of comparing the acoustic score representing the closeness of the sound of the input speech with the recognition result candidate when the predetermined section of the input speech is matched with a known word and recognized with a phonological typewriter Including
In the comparison step, when the acoustic score when recognized by the phonological typewriter is superior, the section is estimated as the unknown word, and when the acoustic score is not superior, the section is determined as the known A recording medium on which a computer-readable program is recorded , which is presumed to be a word .
連続する前記入力音声を認識する認識ステップと、
前記認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、
前記未知語判定ステップの処理により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、
前記未知語判定ステップの処理により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、
前記パターン判定ステップの処理により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得ステップの処理により獲得された前記未知語に関連付けて登録する登録ステップと
を含み、
前記認識ステップは、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、
前記比較ステップの処理は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とするプログラム。In a program executed by a computer that controls an audio processing device that processes input speech and registers a word included in the input speech based on the processing result,
A recognition step for recognizing the continuous input speech;
An unknown word determination step for determining whether or not an unknown word is included in the recognition result recognized by the processing of the recognition step;
If it is determined by the processing of the unknown word determination step that the unknown word is included, an acquisition step of acquiring the unknown word;
When it is determined by the processing of the unknown word determination step that the unknown word is included in the recognition result, it is determined whether or not the recognition result matches a pattern that is a word string including the unknown word. A pattern determination step;
When it is determined that the recognition result matches the pattern by the process of the pattern determination step, the category associated with the unknown word in the pattern is acquired by the process of the acquisition step. look including a registration step of registering in association with the unknown word,
The recognition step includes
A comparison step of comparing the acoustic score representing the closeness of the sound of the input speech with the recognition result candidate when the predetermined section of the input speech is matched with a known word and recognized with a phonological typewriter Including
In the comparison step, when the acoustic score when recognized by the phonological typewriter is superior, the section is estimated as the unknown word, and when the acoustic score is not superior, the section is determined as the known A program characterized by presuming to be a word .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002072718A JP4048473B2 (en) | 2002-03-15 | 2002-03-15 | Audio processing apparatus, audio processing method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002072718A JP4048473B2 (en) | 2002-03-15 | 2002-03-15 | Audio processing apparatus, audio processing method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003271180A JP2003271180A (en) | 2003-09-25 |
JP4048473B2 true JP4048473B2 (en) | 2008-02-20 |
Family
ID=29202636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002072718A Expired - Fee Related JP4048473B2 (en) | 2002-03-15 | 2002-03-15 | Audio processing apparatus, audio processing method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4048473B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488603B2 (en) * | 2019-06-06 | 2022-11-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for processing speech |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005208483A (en) * | 2004-01-26 | 2005-08-04 | Neikusu:Kk | Device and program for speech recognition, and method and device for language model generation |
JP4245530B2 (en) * | 2004-08-19 | 2009-03-25 | 三菱電機株式会社 | Language model creation apparatus and method, and program |
JP6301647B2 (en) | 2013-12-24 | 2018-03-28 | 株式会社東芝 | SEARCH DEVICE, SEARCH METHOD, AND PROGRAM |
JP6807611B2 (en) * | 2019-10-15 | 2021-01-06 | 株式会社ユピテル | Systems and programs |
-
2002
- 2002-03-15 JP JP2002072718A patent/JP4048473B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488603B2 (en) * | 2019-06-06 | 2022-11-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for processing speech |
Also Published As
Publication number | Publication date |
---|---|
JP2003271180A (en) | 2003-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4301102B2 (en) | Audio processing apparatus, audio processing method, program, and recording medium | |
JP4351385B2 (en) | Speech recognition system for recognizing continuous and separated speech | |
JP3762327B2 (en) | Speech recognition method, speech recognition apparatus, and speech recognition program | |
US8019602B2 (en) | Automatic speech recognition learning using user corrections | |
JP3716870B2 (en) | Speech recognition apparatus and speech recognition method | |
CN100371926C (en) | Method, apparatus, and program for dialogue, and storage medium including a program stored therein | |
US20160379638A1 (en) | Input speech quality matching | |
JP2001215993A (en) | Device and method for interactive processing and recording medium | |
JP4072718B2 (en) | Audio processing apparatus and method, recording medium, and program | |
WO2002101719A1 (en) | Voice recognition apparatus and voice recognition method | |
JP2008293019A (en) | Language understanding device | |
JP2001188781A (en) | Device and method for processing conversation and recording medium | |
CN112435654A (en) | Data enhancement of speech data by frame insertion | |
JP2004333543A (en) | System and method for speech interaction | |
US20040006469A1 (en) | Apparatus and method for updating lexicon | |
JP2000029492A (en) | Speech interpretation apparatus, speech interpretation method, and speech recognition apparatus | |
JP4048473B2 (en) | Audio processing apparatus, audio processing method, program, and recording medium | |
JP5184467B2 (en) | Adaptive acoustic model generation apparatus and program | |
JP4581549B2 (en) | Audio processing apparatus and method, recording medium, and program | |
JP4461557B2 (en) | Speech recognition method and speech recognition apparatus | |
JP3472101B2 (en) | Speech input interpretation device and speech input interpretation method | |
JPH1097293A (en) | Dictionary preparing device for voice recognizing words and continuous speech recognition system | |
JP2001255887A (en) | Speech recognition device, speech recognition method and medium recorded with the method | |
JP2731133B2 (en) | Continuous speech recognition device | |
JP4054610B2 (en) | Voice recognition apparatus, voice recognition method, voice recognition program, and program recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101207 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |