JP4105841B2 - 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体 - Google Patents
音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体 Download PDFInfo
- Publication number
- JP4105841B2 JP4105841B2 JP2000210599A JP2000210599A JP4105841B2 JP 4105841 B2 JP4105841 B2 JP 4105841B2 JP 2000210599 A JP2000210599 A JP 2000210599A JP 2000210599 A JP2000210599 A JP 2000210599A JP 4105841 B2 JP4105841 B2 JP 4105841B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- sentence
- predicting
- predicted
- probability value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012986 modification Methods 0.000 abstract 2
- 230000004048 modification Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 11
- 230000008929 regeneration Effects 0.000 description 7
- 238000011069 regeneration method Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
【発明の属する技術分野】
本発明は、音声認識装置およびその方法に関するものであり、特に、人の自然な発話を認識して文章化し、テキストデータを作成する音声認識装置およびその方法に関するものである。
【0002】
【従来の技術】
音響モデルと言語モデルとを用いて音声認識を行なう統計的な手法は知られている。例えば、「A Maximum Likelihood Approach to Continuous Speech Recognition(L.R. Bahl他,IEEE Trans. Vol. PAMI-5,No.2,1983,March)」や、「単語を認識単位とした日本語の大語彙連続音認識(西村他、情報処理学会論文誌、第40巻、第4号、1999年4月)」に紹介されている。
その概略について説明すると、生成された文章としての単語列Wが発話され、それが音響処理部において音響処理されて得られた信号からその特徴量Xが抽出され、そのXおよびWを用いて、以下の式にしたがって、最適と考えられる認識結果W'が出力され、文章が構成される。つまり、単語列Wが発声されたときの当該特徴量(X)の出現確率P(X|W)とW自身の出現確率(P(W))の積が最大(argmax)となる単語列が認識結果W'として選択される。
【0003】
【数1】
【0004】
ここで、前者の確率P(X|W)を求めるために音響モデルが用いられ、その確率の高い単語が認識の候補として選択される。一方、後者の確率(P(W))を近似するためによく用いられるものが言語モデルである。
従来の言語モデルでは、通常、直近の単語列を履歴として利用している。その1例として、N-gramモデルがある。これは、N個の連続した単語組の出現確率から文全体、すなわち単語列Wの出現確率を近似する方法であり、次式のように定式化されている。
【0005】
【数2】
【0006】
以上の式では、次の単語w[n]の出現確率が直前のN−1個の単語にのみ影響を受けると仮定する。Nの値は種々のものが考えられるが、その有効性と必要とする学習データのバランスからN=3がよく用いられ、本式もN=3の場合を記述している。N=3の場合、tri-gramあるいは3-gramと呼ばれている。以下、n個の単語からなる単語列Wのn番目の単語をw[n]のように表現することにすると、ここでは当該N−1個(つまり2個)という条件の元での単語w[n]の出現確率、つまりP(w[n]| w[n-2]w[n-1])として単語列Wの出現確率が計算される。ここで、この式において、|の左(w[n])は予測(または認識)の対象となる単語を示し、|の右(w[n-2]w[n-1])はその条件となる2つ前、1つ前の単語を示す。さまざまな単語w[n]についてそれぞれの出現確率P(w[n]| w[n-2]w[n-1])は予め用意されたテキストデータより学習しておき、辞書としてデータベース化して保存しておく。例えば、文の先頭に「単語」という語が出現する確率は0.0021、その後に「検索」が続く確率は0.001、というようにして保存される。
【0007】
tri-gramモデルを簡単な文章を例にして説明する。
文章例は「さらに小選挙区の」であり、次の「導入」を予測する例である。図8(a)に予測前を、また図8(b)に予測後の状態を示す。図8(a)に示すように、この文章は「さらに」、「小」、「選挙」、「区」および「の」の5つの単語から構成され、予測する単語は「?」で示している。また、図8中の矢印は、各単語間の係り受けの関係を示している。前述の様に、tri-gramでは常に直前の2つの単語から次の単語を予測する。したがって、この例では図8(a)において実線で囲む「区」と「の」とから「導入」を予測する。
しかし、文構造によっては、直前の2つの単語から次の単語を予測するtri-gramが最良の手法でないことがある。例えば、図9に示す、「何がいま政治の再生のために」という文章の次の単語を予測する場合である。tri-gramによれば、図9(a)に示すように「ため」と「に」とから「必要」を予測するが、これら以外にも「何が」や「いま」など構造的に関係のある単語を考慮することで予測精度が向上することが予想される。
【0008】
【発明が解決しようとする課題】
直前の2つの部分解析木の主辞から次単語の予測を行なうモデルをChelba & Jelinekが提案している。Chelba & Jelinek のモデルでは、単語は出現の順に予測される。したがって、i 番目の単語を予測する段階では i-1 番目までの単語とその構造が確定している。この状態から、まず、直前の2つの部分解析木の主辞から次単語と品詞を順に予測する。このとき、直前の2つの部分解析木の主辞と予測される単語との係り受けの関係は考慮しない。単語を予測した後に当該単語を含めた文構造を更新する。したがって、直前の2つの単語から次の単語を予測するtri-gramに比べて予測精度の向上が期待できる。ところが、彼らのモデルでは、単語間の係り受けの関係の有無に関わらず、直前の2つの部分解析木の主辞から単語を予測する。そのために、文構造によっては逆に予測精度を下げる可能性がある。tri-gramで示した「さらに小選挙区の」という文章に基づいて説明する。
図10に示すように、「さらに小選挙区の」という文章は、「さらに」と「小選挙区の」という2つの部分解析木から構成され、各々の主辞は図10(a)で実線で囲む「さらに」および「の」である。したがって、Chelba & Jelinekの方法によれば、図10(b)に示すように直前の2つの主辞である「さらに」および「の」から、次の単語「導入」を予測する。そして、「導入」を予測後、図10(c)に示すように「導入」を含めた文の構造を予測する。この構造の予測は、図中の矢印で示しているように単語間の係り受けを含む。ここで、「さらに」は、「導入」と係り受けの関係にないので、「導入」という単語の予測の役に立たないばかりか、予測精度を下げることになる可能性があることに注意しなければならない。
また、「何がいま政治の再生のために」という文章の例では、以下のようになる。この文章は、「何が」、「いま」および「政治のために」という3つの部分解析木から構成され、各々の主辞は、「が」、「いま」および「に」である。図11(a)で実線で囲むように、直前の2つの主辞は「いま」と「に」である。したがって、図11(b)に示すように、「必要」は「いま」と「に」から予測される。「必要」の予測後に、図11(c)に示すように、「必要」を含めた文章の構造を予測する。
ここで、単語を予測する場合、単語間の係り受けは有用な情報である。ところが、係り受けの関係のある「何が」は考慮されない。このように、Chelba & Jelinek の方法では、予測に有用な情報を考慮に入れないことがしばしば起こる。そこで本発明は、予測の精度を高めることのできる単語予測方法、装置、さらには音声認識方法、装置等の提供を課題とする。
【0009】
【課題を解決するための手段】
本発明者は、単語予測の各段階でその時点までの単語列を覆う部分解析木の列を履歴情報として利用することに着目した。そして履歴となる部分解析木の列から、次単語の予測により有用な情報をもつ部分解析木を選択する。言い換えれば履歴となる単語列および係り受け構造を元に、次単語の予測に最も有用な単語および/または単語列を選択すれば、予測精度を高めることができる。つまり、予測すべき単語と係り受けの関係のある部分解析木を特定し、その後、当該部分解析木、すなわち予測対象の単語と係り受けの関係のある推定された単語および/または単語列から次の単語の予測を行なう。Chelba & Jelinek の方法と異なり、予測される単語を含む文の構造を利用することで、予測に有用な情報のみを考慮することができる。
【0010】
本発明は以上の思想に基づくものであり、予測すべき単語を含む複数の単語からなる文の文構造を特定し、特定された前記文構造に基づき、前記予測すべき単語と係り受けの関係を有する単語および/または単語列を選択し、選択された前記単語および/または単語列に基づいて前記予測すべき単語を予測することを特徴とする単語予測方法である。
本発明において、前記単語および/または単語列は、文構造において部分解析木を構成するものであることが望ましい。
また本発明において、選択された前記単語および/または単語列が複数ある場合に、複数の前記単語および/または単語列に基づいて単語の予測を行なうことができる。
【0011】
また本発明は、予測すべき単語と他の単語および/または単語列との係り受けの関係を特定するステップと、特定された前記他の単語および/または単語列から前記予測すべき単語を予測するステップと、を備えたことを特徴とする単語予測方法を提供する。
本発明の単語予測方法において、前記係り受けの関係は係り受けの方向を含み、前記予測すべき単語がその前に存在する単語に係る場合がある。
また、予測すべき単語と他の単語および/または単語列との係り受けの関係が複数通り存在する場合には、その各々について単語を予測することができる。
【0012】
また本発明では、文頭からj番目の単語までを含む文の構造を特定するステップと(j=0,1,2,…)、前記j番目の単語までを含む文の構造からj+1番目の単語に係る単数または複数の部分解析木を特定するステップと、前記単数または複数の部分解析木に基づき前記j+1番目の単語を予測するステップと、予測されたj+1番目までを含む文の構造とその確率値を求めるステップと、以上の各ステップを文末の単語まで実行した後に、前記確率値が最大となる文構造および単語列を音声認識の結果として選択するステップと、を備えたことを特徴とする音声認識方法が提供される。
【0013】
また本発明では、学習されたテキストデータが記述された辞書を記憶した記憶手段と、予測すべき単語を含む複数の単語からなる文の文構造に基づいて前記予測すべき単語と係り受けの関係にある単語および/または単語列を選択し、かつ選択された前記単語および/または単語列に基づいて前記予測すべき単語を予測する予測手段と、を備えたことを特徴とする単語予測装置が提供される。
さらにまた本発明では、学習されたテキストデータが記述された辞書を記憶した記憶手段と、予測すべき単語と係り受けの関係を有する単語および/または単語列を選択し、さらに選択された前記単語および/または前記単語列に基づいて前記予測すべき単語を予測する予測手段と、を備えたことを特徴とする単語予測装置が提供される。
本発明の単語予測装置において、前記辞書は、学習されたテキストデータに基づく所定の単語または単語列に対して他の所定の単語が出現する頻度を記憶することができる。
また、前記予測手段は、前記頻度に基づき予測された単語を含む単語列の確率値を計算することができる。
さらに、前記予測手段は、前記確率値が最大となる単語列を予測結果として選択することができる。
【0014】
また本発明は、アナログ音声入力信号をデジタル信号に変換処理する音響処理手段と、音の特徴を学習した音響モデルを記憶した記憶手段と、所定の単語または単語列に対する他の所定の単語の出現頻度を記述した辞書を記憶した記憶手段と、 前記デジタル信号について前記音響モデルおよび前記辞書を用いて確率値を計算して最も確率の高い単語を入力した音声として認識する認識手段と、を備え前記認識手段は、予測すべき単語を当該単語を含む文の構造に基づき予測するとともに、前記出現頻度を用い予測された単語を含む文について前記確率値を計算することを特徴とする音声認識装置を提供する。
さらに本発明は、予測すべき単語と他の単語および/または単語列との係り受けの関係を特定し、前記係り受けの関係を有していると特定された単語および/または単語列を用いて前記予測すべき単語を予測する手段と、前記手段により予測された単語および/または単語列、ならびに係り受けの関係を表示する表示手段と、を備えたことを特徴とするコンピュータ・システムを提供する。
また、本発明は、コンピュータ・プログラムが記憶されかつコンピュータで読み取り可能な記憶媒体であって、前記コンピュータ・プログラムは、予測すべき単語を含む複数の単語からなる文の文構造を特定し、特定された前記文構造に基づき、前記予測すべき単語と係り受けの関係を有する単語および/または単語列を選択し、選択された前記単語および/または前記単語列に基づいて前記予測すべき単語を予測する処理をコンピュータに実行させるものであることを特徴とする記憶媒体を提供する。さらにまた、本発明は、コンピュータ・プログラムが記憶されかつコンピュータで読み取り可能な記憶媒体であって、前記コンピュータ・プログラムは、予測すべき単語と他の単語および/または単語列との係り受けの関係を特定するステップと、特定された前記他の単語および/または単語列から前記予測すべき単語を予測するステップと、をコンピュータに実行させるものであることを特徴とする記憶媒体を提供する。
また本発明は、コンピュータに、予測すべき単語を含む複数の単語からなる文の文構造を特定し、特定された前記文構造に基づき、前記予測すべき単語と係り受けの関係を有する単語および/または単語列を選択し、選択された前記単語および/または前記単語列に基づいて前記予測すべき単語を予測する処理を実行するためのプログラムを記憶する記憶手段と、前記記憶手段からプログラムを読み出して前記プログラムを送信する送信手段と、を備えたことを特徴とするプログラム伝送装置を提供する。さらにまた、本発明は、コンピュータに、予測すべき単語と他の単語および/または単語列との係り受けの関係を特定するステップと、特定された前記他の単語および/または単語列から前記予測すべき単語を予測するステップとを実行するためのプログラムを記憶する記憶手段と、前記記憶手段からプログラムを読み出して前記プログラムを送信する送信手段と、を備えたことを特徴とするプログラム伝送装置を提供する。
【0015】
【発明の実施の形態】
以下本発明の実施の形態を図面を参照しつつ説明する。
図1は、本実施の形態による音声認識装置を含む構成を示すブロック図である。
ブロック101において生成された文章(真の文章)としての単語列Wは、Sとして発話される(ブロック102)。発話されたSは音声認識手段110を構成する音響処理部111に入力される。音響処理部111では入力された発話Sを信号Xに変換するとともに、記憶する。変換された信号Xは、言語復号部112において認識結果W'となる。言語復号部112は、音の特徴を学習した音響モデル113と、やはり学習により予め作成されたテキストデータを有する辞書114とを備えている。認識された結果W'の文章は表示される(ブロック120)。
【0016】
図2は本実施の形態による音声認識装置を実現するためのシステムの一例を示している。このシステムは、マイク210、コンピュータ装置220および表示装置230から構成される。コンピュータ装置220は、サウンドカード221、メモリ222およびCPU223を備えている。
図2に示すシステムにおいて、発話者が発話した音声はマイク210にアナログ信号として入力される。このアナログ信号は、コンピュータ装置220のサウンドカード221によりデジタル信号に変換処理された後にメモリ222に記憶される。このメモリ222には、前述の音響モデル113および言語モデルを含む辞書114も記憶されている。CPU223は、メモリ222に記憶されているデジタル信号および辞書に基づき言語の復号を行なう。また、以下説明する単語予測方法を実現するためのプログラムを解釈実行する。復号された言語が認識結果であり、この認識結果は、表示装置230に表示される。このプログラムは、メモリ222に記憶されている。
以上のシステムにおいてマイク210はコンピュータ装置220と別体として示しているが、コンピュータ装置220あるいは表示装置230と一体化されていても良い。つまり発話された音声を入力するためのマイクが存在すれば、その形態は問わない。また、認識結果を表示装置230、例えばCRTに対して行なう例を示しているが、プリンタにより印刷物として提供する、あるいはフレキシブル・ディスクその他の記憶媒体に記憶させることもできる。
本実施の形態では、以下説明する単語予測方法の前提として、音響処理部111で変換された音声信号について音響モデル113を用いた計算結果として認識候補として単語を選択する。この選択された単語について、以下説明する単語予測がなされ、最終的に音声認識の結果が得られる。
【0017】
本実施の形態に用いる単語予測方法を説明する。
本発明は、前述の様に、予測すべき単語と係り受けの関係のある部分解析木を予測し、その後、当該部分解析木、すなわち次の単語に係ると推定された先行単語および/または単語列から次の単語の予測を行なうことを提案する。換言すれば、予測すべき単語と係り受けの関係のある部分解析木から次の単語を予測する。
tri-gramおよびChelba & Jelinek の方法を説明するために用いた、「さらに小選挙区の」という例文に基づき、本実施の形態を説明する。
「さらに小選挙区の」という文章は、「さらに」、「小」、「選挙」、「区」、および「の」という5つの単語から構成される。ここで、文頭から数えて何番目の単語であるかをjで表すことにすると、「の」は、5番目の単語である。また、5番目の単語である「の」までを含む文の構造は、図3(a)〜(c)に示すように3通り存在するものとする。なお、文の構造とは、各単語間の係り受けの関係をいうものとする。この3通りについて説明すると以下の通りである。
【0018】
図3(a)は、「さらに」は「の」に係らないが、「区」は「の」に係るケースを示している。この様子を図3(a)では矢印で示しており、「さらに」から引き出されている矢印は「の」以降の単語を指し、また「区」から引き出されている矢印は「の」を指している。ここで、部分解析木としてみると、「さらに」が1つの部分解析木を、また、「小選挙区の」がもう1つの部分解析木を構成するから、図3(a)の場合には、「の」に係る部分解析木は、「小選挙区の」のみである。なお、この構造の確率値を0.034とする。
図3(b)は、「さらに」および「区」の両者が「の」に係らないケースである。したがって、「さらに」および「区」から引き出されている矢印は「の」以降の単語を指している。この文構造の確率値を0.001とする。
また、図3(c)は、図3(a)、(b)の「の」が類似音の「を」と予測した例である。この「を」の予測は音響モデル113により指示される。文構造としては図3(a)と同様に、「さらに」は「の」に係らないが、「区」は「の」に係るものとしている。図3(c)のケースの確率値を0.028とする。つまり、図3(a)の確率値が最も高い。この段階では、確率値の最も高い図3(a)のケースが音声認識結果の候補ということができる。
なお、以上の図3(a)〜(c)は、本実施の形態を説明するための限られた例であり、例えば、5番目の単語が「を」の場合に、係り受けとしては図3(b)と同様なケースも存在し得るし、また、5番目の単語が「の」、「を」ではなく「と」であるケースも存在し得る。いずれにしても、図3(a)〜(c)は、j番目(ここでは、5番目)までの単語を含む構造と確率値を求めた結果を示している。
なお、図3中の、s[5][0]の、[5]は5番目の単語が処理の対象となっていることを示している。また、[0]は3通りある係り受けの関係のうちのいずれが処理の対象となっているかを示している。
【0019】
次に、6番目の単語を予測する。この6番目の単語を予測するに当たって、6番目の単語を含む文構造をまず特定する。図3(a)の例では、「の」のみが6番目の単語に係るケース、「さらに」および「の」の両者が6番目の単語に係るケース、「さらに」および「の」の両者が6番目の単語に係らないケース、の3通りが存在する。この3通りを特定し、各々について、6番目の単語の予測を行なう。それぞれのケースを図3(a−1)〜(a−3)に示すが、本実施の形態では、予測対象となる6番目の単語を予測する前に、6番目の単語を含めた文構造が特定されることになる。
ここで、辞書114には、学習されたテキストデータに基づく、所定の単語または単語列に対する他の単語の出現頻度が記述されている。例えば、テキストデータ中に、「小選挙区の」という文章がn回出現し、かつその後に「導入」という単語が出現した回数がm回あったとすると、「小選挙区の」に対する「導入」の出現頻度はm/nということになる。また、「さらに」および「小選挙区の」の2つの部分解析木から「導入」を予測する場合には、「さらに」と「小選挙区の」が出現した後に「導入」が出現する頻度を考慮する必要がある。つまり、テキストデータ中に、「さらに」と「小選挙区の」が出現した文章がn’回出現し、かつその後に「導入」という単語が出現した回数がm’回あったとすると、「さらに」と「小選挙区の」に対する「導入」の出現確率はm’/n’ということになる。このとき、経験的に「さらに」は、動詞や形容詞などの用言に高い頻度で係り、名詞などの体言に係ることは稀なので、名詞である「導入」が出現する回数m’は非常に小さいであろうから、「さらに」および「小選挙区の」の2つの部分解析木から「導入」を予測した際の確率値は、「小選挙区の」のみから予測する場合と比較して相当低くなる。換言すれば、「導入」を予測する場合には、「さらに」を考慮するのは望ましくないということである。
したがって、「の」から「導入」を予測したときの「さらに小選挙区の導入」という文の確率値は、「さらに」と「の」とから「導入」を予測したときの「さらに小選挙区の導入」とい文の確率値より高くなる。
なお、ここでは、図3(a−1)、(a−2)について説明したが、図3(a−3)のケースについても同様に確率値が計算される。また、文末の単語まで同様に予測がなされることになる。
【0020】
次に、図4を参照しつつ、図3(a−1)のケースの単語予測過程を説明する。
図4(a)は、図3(a−1)の状態を示している。この状態から、「?」で示す次の単語(この例では6番目の単語)と係り受けの関係にある部分解析木を特定する。このケースでは、「小選挙区の」からなる部分解析木は6番目の単語に係るが、「さらに」からなる部分解析木は6番目の単語に係らない。この係り受けの様子を図4(b)に示している。つまり、「さらに」から引き出される矢印は6番目以降の単語を指しており、6番目の単語と「さらに」が係り受けの関係にないことを示している。また、「小選挙区の」中の「の」から引き出される矢印は6番目の単語を示す「?」を指しており、6番目の単語に「小選挙区の」という単語列が係ることを示している。
以上のように、予測すべき6番目の単語を含めた文構造を予測した後に、6番目の単語と係り受けの関係にある部分解析木「小選挙区の」から「導入」を予測する。また、「導入」を予測後に、図4(c)に示すように、「導入」を含めた文構造の予測を行なう。つまり、図3(a−1)のケースによれば、予測精度を下げる可能性の高い「さらに」を考慮しないので、高い確率値を得ることができる。
【0021】
以上本実施の形態による単語予測方法を説明したが、次に図5に示すフローチャートを参照しつつ最終的に音声認識結果を出力するまでの流れを説明する。なお先にも述べたが、音響処理部111で変換された音声信号について音響モデル113を用いた計算結果として認識候補として単語を選択し、この選択した単語についてさらに予測による絞込みを行なうのが、以下の処理である。
図5において、はじめに、何番目の単語について処理するか(S100)、また、何番目の構造を処理するか(S101)を確定する。何番目の単語を処理するかはjで示され、また、何番目の構造を処理するかはiで示される。文頭から予測を行なうため、j,iの初期値は0である。なお、j,iの具体的態様は、図3を参照することにより容易に理解できる。
次いで、予測すべき単語を含む文の構造と確率値を求める(S102)。ここで、図5中、S104のs[j][ ]は、j番目の単語までを含む文構造とその確率値を示すものである。図3の例では、はじめに、s[5][0]、つまり5番目の単語について、3通りのうちの1番目の文構造とその確率値を求めている。この文構造および確率値は、次の単語の予測に用いられるから、s[j+1][ ]に対して列挙される(S102)。図3の例では、はじめに図3(a−1)がs[6][ ]に対して列挙されている。
文構造が複数通り存在する場合に、そのすべての構造についてS102の処理を行なう。i=i+1を内容とするS103、および、すべてのs[j][ ]をチェックしているか否かを判定するS104により、これを実現する。
すべての構造についてS102の処理が完了したならば、次の単語について同様の処理を実行する。次の単語は、j=j+1で定義される(S105)。j=j+1が当該文書の最後の単語でなければ、S101からの一連の処理を実行する。また、最後の単語であれば、s[j][]から確率値が最大の文構造と単語列を選択し、表示装置230に表示する。この文構造は、係り受けの関係を矢印で示したものとすることができるし、部分解析木の構造とすることもできる。
以上の実施形態では、パーソナルコンピュータにおいて本発明を実現した例を示した。しかし、本発明は、所定のプログラムを格納した記憶媒体、あるいはプログラムを伝送するための伝送装置として実現することもできる。
【0022】
次に、「何がいま政治の再生のために」という例文に基づいて本発明を説明する。
「何がいま政治の再生のために」という文章は、「何」、「が」、「いま」、「政治」、「の」、「再生」、「の」、「ため」および「に」という9つの単語から構成されている。また、「何が」、「いま」および「政治のために」という3つの部分解析木から構成されている。
図6(a)は「何がいま政治の再生のために」までの単語の予測が完了した状態を示している。前述のように、本文章は、「何が」、「いま」および「政治の再生のために」という3つの部分解析木から構成されている。そして、「何が」という部分解析木は、「何」が「が」に係ることまで予測しているが、「が」、換言すれば「何が」からなる部分解析木の係る単語については未予測の状態である。この状態は、図6(a)の「が」から引き出されている矢印が「?」を示していることで理解できる。また、「いま」からなる部分解析木、さらに「政治の再生のために」からなる部分解析木の係る単語についても未予測の状態である。
【0023】
図6(a)の状態から、「?」で示す次の単語(この例では10番目の単語)と係り受けの関係にある部分解析木を予測する。この例文では、「何が」、「いま」および「政治の再生のために」という3つの部分解析木が全て10番目の単語に係ることを予測、特定している。この係り受けの関係を図6(b)に示している。つまり、「何が」の「が」、「いま」および「政治の再生のために」の「に」から引き出された矢印は、10番目の単語を指している。
以上のように、予測すべき10番目の単語を含めた文構造を特定した後に、10番目の単語を予測する。つまり、3つの部分解析木(「何が」と「いま」と「政治の再生のために」)が全て予測すべき単語に係るので、これら全てを考慮して「必要」を予測するのである。
Chelba & Jelinekの方法では、「ため」と「に」とから「必要」を予測しているが、「何が」は「必要」を予測する上で有用な情報であるから、その点で本実施の形態の予測精度が高いということができる。
【0024】
以上では日本語の例文について説明したが、次に英語の例文について説明する。
日本語と英語との構文上の相違の一つとして、日本語では係り受けの方向が一定であるのに対して英語では係り受けの方向が一定でないことがある。本実施の形態を英語などの係り受けの方向が一定でない言語に適用する場合には、次の単語と係り受けの関係にある部分解析木とその係り受けの方向を特定し、その後、係り受け関係にある部分解析木から次の単語の予測を行なえばよい。
例は、「the contact ended with a loss」から「after」を予測するものである。「the contact ended with a loss」という文章は、「the」,「contact」,「ended」,「with」,「a」および「loss」という6つの単語から構成される。そして、部分解析木としてみると、「the contact」が1つの部分解析木を、また、「ended with a loss」が1つの部分解析木を構成する。
図7(a)は、「the contact ended with a loss」までの単語の予測が完了した状態を示している。前述のように本文章は、「the contact」および「ended with a loss」という2つの部分解析木から構成されている。そして、図7(a)の矢印が示すように、「the contact」という部分解析木においては「the」が「contact」に係る。また、「ended with a loss」という部分解析木においては、「a」が「loss」に係り、「loss」が「with」に係り、さらに「with」が「ended」に係る。このように、英語は、前方から後方へ、後方から前方へとニ方向の係り受けの関係を有している。
【0025】
図7(a)の状態から、「?」で示す次の単語(この例では7番目の単語)に係る部分解析木を予測する。つまり、図7(b)に示すように、7番目の単語が、「ended」に係ることを予測する。「ended」は「ended with a loss」という部分解析木に含まれるから、7番目の単語は「ended with a loss」に係ることに基づき予測されたことになる。次に、図7(c)に示すように、この「ended with a loss」から構成される部分解析木から、「after」を予測する。
【0026】
<実験例>
約1000文のモデルを新聞記事に基づき作成した。このモデルに本実施の形態の手法を用いてクロスエントロピーを求める実験を行なった。その結果は以下の通りであった。
本実施の形態 4.05[bit]
tri-gram 4.27[bit]
ここで、本実施の形態の4.05[bit]という値は16.6個の単語からの選択に相当し、また、4.27[bit]という値は19.3個の単語からの選択に相当する。したがって、本実施の形態により、単語予測精度の向上がなされたことが確認できた。
【0027】
【発明の効果】
以上説明したように、本発明によれば、予測すべき単語を含む文構造を特定し、かつ予測すべき単語と係り受けのある単語または単語列から単語予測を行なう。係り受けの関係は、単語予測に有効な情報であるから、単語予測の精度が高くなる。
【図面の簡単な説明】
【図1】 本実施の形態を示すブロック図である。
【図2】 本実施の形態によるコンピュータ・システム構成を示す図である。
【図3】 本実施の形態による単語予測を説明するための図である。
【図4】 本実施の形態による単語予測を説明するための図である。
【図5】 本実施の形態による音声認識を説明するためのフローチャートである。
【図6】 本実施の形態による単語予測を説明する他の例を示す図である。
【図7】 本実施の形態による単語予測を説明する他の例を示す図である。
【図8】 tri-gramモデルよる単語予測を説明するための一例を示す図である。
【図9】 tri-gramモデルによる単語予測を説明するための他の例を示す図である。
【図10】 Chelba & Jelinekの方法による単語予測を説明するための一例を示す図である。
【図11】 Chelba & Jelinekの方法による単語予測を説明するための他の例を示す図である。
【符号の説明】
110…音声認識手段、210…マイク、220…コンピュータ装置、221…サウンドカード、222…メモリ、223…CPU、230…表示装置
Claims (4)
- 文頭からj番目の単語までを含む文の構造を予測して特定するステップと(j=0,1,2,…)、
音響モデルを用いた計算結果に基づいて、j+1番目の単語を予測して認識候補として選択するステップと、
前記j番目の単語までを含む文の構造から前記j+1番目の単語と係り受けの関係にある単数または複数の部分解析木を予測して特定するステップと、
前記単数または複数の部分解析木が、選択された前記j+1番目の単語に係る場合における、当該j+1番目の単語までを含む文の構造とその確率値を求めるステップと、
以上の各ステップを文末の単語まで実行した後に、前記確率値が最大となる文の構造および当該文の構造における単語列を音声認識の結果として選択するステップと、
を備えたことを特徴とする音声認識方法。 - アナログ音声入力信号をデジタル信号に変換処理する音響処理手段と、
音の特徴を学習した音響モデルを記憶した記憶手段と、
所定の単語または単語列に対する他の所定の単語の出現頻度を記述した辞書を記憶した記憶手段と、
前記デジタル信号について前記音響モデルおよび前記辞書を用いて確率値を計算して最も確率の高い単語を入力した音声として認識する認識手段と、を備え
前記認識手段は、文頭からj番目の単語までを含む文の構造を予測して特定する処理と(j=0 , 1 , 2 , …)、前記音響モデルを用いた計算結果に基づいて、j+1番目の単語を予測して認識候補として選択する処理と、前記j番目の単語までを含む文の構造から前記j+1番目の単語と係り受けの関係にある単数または複数の部分解析木を予測して特定する処理と、前記単数または複数の部分解析木が、選択された前記j+1番目の単語に係る場合における、当該j+1番目の単語までを含む文の構造とその確率値を求める処理とを、文末の単語まで実行した後に、当該確率値が最大となる文の構造および当該文の構造における単語列を音声認識の結果として選択することを特徴とする音声認識装置。 - 文頭からj番目の単語までを含む文の構造を予測して特定する処理と(j=0 , 1 , 2 , …)、音響モデルを用いた計算結果に基づいて、j+1番目の単語を予測して認識候補として選択する処理と、前記j番目の単語までを含む文の構造から前記j+1番目の単語と係り受けの関係にある単数または複数の部分解析木を予測して特定する処理と、前記単数または複数の部分解析木が、選択された前記j+1番目の単語に係る場合における、当該j+1番目の単語までを含む文の構造とその確率値を求める処理とを、文末の単語まで実行した後に、当該確率値が最大となる文の構造および当該文の構造における単語列を音声認識の結果として選択する手段と、
前記手段により選択された単語列および前記文の構造における係り受けの関係を表示する表示手段と、
を備えたことを特徴とするコンピュータ・システム。 - コンピュータ・プログラムが記憶されかつコンピュータで読み取り可能な記憶媒体であって、
前記コンピュータ・プログラムは、
文頭からj番目の単語までを含む文の構造を予測して特定する処理と(j=0 , 1 , 2 , …)、
音響モデルを用いた計算結果に基づいて、j+1番目の単語を予測して認識候補として選択する処理と、
前記j番目の単語までを含む文の構造から前記j+1番目の単語と係り受けの関係にある単数または複数の部分解析木を予測して特定する処理と、
前記単数または複数の部分解析木が、選択された前記j+1番目の単語に係る場合における、当該j+1番目の単語までを含む文の構造とその確率値を求める処理と、
以上の各処理を文末の単語まで実行した後に、前記確率値が最大となる文の構造および当該文の構造における単語列を音声認識の結果として選択する処理と
をコンピュータに実行させるものであることを特徴とする記憶媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000210599A JP4105841B2 (ja) | 2000-07-11 | 2000-07-11 | 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体 |
US09/904,147 US7359852B2 (en) | 2000-07-11 | 2001-07-11 | Systems and methods for natural spoken language word prediction and speech recognition |
US12/045,380 US8150693B2 (en) | 2000-07-11 | 2008-03-10 | Methods and apparatus for natural spoken language speech recognition |
US12/045,198 US8000966B2 (en) | 2000-07-11 | 2008-03-10 | Methods and apparatus for natural spoken language speech recognition with word prediction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000210599A JP4105841B2 (ja) | 2000-07-11 | 2000-07-11 | 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002041080A JP2002041080A (ja) | 2002-02-08 |
JP4105841B2 true JP4105841B2 (ja) | 2008-06-25 |
Family
ID=18706840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000210599A Expired - Lifetime JP4105841B2 (ja) | 2000-07-11 | 2000-07-11 | 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (3) | US7359852B2 (ja) |
JP (1) | JP4105841B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10140974B2 (en) | 2014-12-29 | 2018-11-27 | Samsung Electronics Co., Ltd. | Method and apparatus for speech recognition |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7406084B2 (en) * | 1997-09-19 | 2008-07-29 | Nokia Siemens Networks Gmbh & Co. Kg | Flexible software architecture for a call processing system |
US7679534B2 (en) | 1998-12-04 | 2010-03-16 | Tegic Communications, Inc. | Contextual prediction of user words and user actions |
US8938688B2 (en) | 1998-12-04 | 2015-01-20 | Nuance Communications, Inc. | Contextual prediction of user words and user actions |
US7881936B2 (en) * | 1998-12-04 | 2011-02-01 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US7712053B2 (en) | 1998-12-04 | 2010-05-04 | Tegic Communications, Inc. | Explicit character filtering of ambiguous text entry |
US7720682B2 (en) * | 1998-12-04 | 2010-05-18 | Tegic Communications, Inc. | Method and apparatus utilizing voice input to resolve ambiguous manually entered text input |
US7050977B1 (en) * | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US7725307B2 (en) * | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US9076448B2 (en) * | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
JP4215418B2 (ja) * | 2001-08-24 | 2009-01-28 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム |
US8583440B2 (en) * | 2002-06-20 | 2013-11-12 | Tegic Communications, Inc. | Apparatus and method for providing visual indication of character ambiguity during text entry |
US20050192802A1 (en) * | 2004-02-11 | 2005-09-01 | Alex Robinson | Handwriting and voice input with automatic correction |
GB0406451D0 (en) * | 2004-03-23 | 2004-04-28 | Patel Sanjay | Keyboards |
US8095364B2 (en) | 2004-06-02 | 2012-01-10 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
JP3962767B2 (ja) * | 2004-10-08 | 2007-08-22 | 松下電器産業株式会社 | 対話支援装置 |
GB0505941D0 (en) | 2005-03-23 | 2005-04-27 | Patel Sanjay | Human-to-mobile interfaces |
GB0505942D0 (en) | 2005-03-23 | 2005-04-27 | Patel Sanjay | Human to mobile interfaces |
US8077974B2 (en) | 2006-07-28 | 2011-12-13 | Hewlett-Packard Development Company, L.P. | Compact stylus-based input technique for indic scripts |
WO2009139230A1 (ja) * | 2008-05-16 | 2009-11-19 | 日本電気株式会社 | 言語モデルスコア先読み値付与装置およびその方法ならびにプログラム記録媒体 |
JP5598331B2 (ja) * | 2008-11-28 | 2014-10-01 | 日本電気株式会社 | 言語モデル作成装置 |
JP5337575B2 (ja) * | 2009-05-12 | 2013-11-06 | 株式会社エヌ・ティ・ティ・データ | 候補語抽出装置、候補語抽出方法及び候補語抽出プログラム |
JP5553033B2 (ja) * | 2011-01-21 | 2014-07-16 | 富士ゼロックス株式会社 | 文章入力支援システム、文章入力支援装置、参照情報作成装置及びプログラム |
TWI480742B (zh) * | 2011-03-18 | 2015-04-11 | Ind Tech Res Inst | 基於動態語言模型之推薦方法與推薦系統 |
CN102629160B (zh) | 2012-03-16 | 2016-08-03 | 华为终端有限公司 | 一种输入法、输入装置及终端 |
US9953646B2 (en) | 2014-09-02 | 2018-04-24 | Belleau Technologies | Method and system for dynamic speech recognition and tracking of prewritten script |
US20170069309A1 (en) | 2015-09-03 | 2017-03-09 | Google Inc. | Enhanced speech endpointing |
US10339917B2 (en) | 2015-09-03 | 2019-07-02 | Google Llc | Enhanced speech endpointing |
US10929754B2 (en) | 2017-06-06 | 2021-02-23 | Google Llc | Unified endpointer using multitask and multidomain learning |
WO2018226779A1 (en) | 2017-06-06 | 2018-12-13 | Google Llc | End of query detection |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4817156A (en) * | 1987-08-10 | 1989-03-28 | International Business Machines Corporation | Rapidly training a speech recognizer to a subsequent speaker given training data of a reference speaker |
JPH05197389A (ja) * | 1991-08-13 | 1993-08-06 | Toshiba Corp | 音声認識装置 |
US5293584A (en) * | 1992-05-21 | 1994-03-08 | International Business Machines Corporation | Speech recognition system for natural language translation |
US5774845A (en) * | 1993-09-17 | 1998-06-30 | Nec Corporation | Information extraction processor |
JP3004883B2 (ja) * | 1994-10-18 | 2000-01-31 | ケイディディ株式会社 | 終話検出方法及び装置並びに連続音声認識方法及び装置 |
US5805911A (en) * | 1995-02-01 | 1998-09-08 | Microsoft Corporation | Word prediction system |
JP3304665B2 (ja) * | 1995-02-17 | 2002-07-22 | 松下電器産業株式会社 | 音声認識装置 |
JP3741156B2 (ja) * | 1995-04-07 | 2006-02-01 | ソニー株式会社 | 音声認識装置および音声認識方法並びに音声翻訳装置 |
JP2880436B2 (ja) * | 1995-10-24 | 1999-04-12 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 音声認識装置 |
US5828999A (en) * | 1996-05-06 | 1998-10-27 | Apple Computer, Inc. | Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems |
JP3009636B2 (ja) * | 1996-05-16 | 2000-02-14 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 音声言語解析装置 |
JPH1091628A (ja) * | 1996-09-11 | 1998-04-10 | Oki Electric Ind Co Ltd | 構文解析システム |
US5878385A (en) * | 1996-09-16 | 1999-03-02 | Ergo Linguistic Technologies | Method and apparatus for universal parsing of language |
US5797123A (en) * | 1996-10-01 | 1998-08-18 | Lucent Technologies Inc. | Method of key-phase detection and verification for flexible speech understanding |
JP2965529B2 (ja) * | 1996-12-20 | 1999-10-18 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 音声認識装置 |
JP3596210B2 (ja) * | 1997-01-16 | 2004-12-02 | 富士ゼロックス株式会社 | 関連語辞書作成装置 |
US6167377A (en) * | 1997-03-28 | 2000-12-26 | Dragon Systems, Inc. | Speech recognition language models |
JP3036591B2 (ja) * | 1997-04-30 | 2000-04-24 | 日本電気株式会社 | 音声認識装置 |
JPH1196158A (ja) * | 1997-09-19 | 1999-04-09 | Toshiba Corp | 自然言語処理方法、自然言語処理装置及び記録媒体 |
US6418431B1 (en) * | 1998-03-30 | 2002-07-09 | Microsoft Corporation | Information retrieval and speech recognition based on language models |
JP4438028B2 (ja) * | 1998-07-27 | 2010-03-24 | キヤノン株式会社 | 情報処理装置及びその方法、及びそのプログラムを記憶した記憶媒体 |
JP4302326B2 (ja) * | 1998-11-30 | 2009-07-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テキストの自動区分 |
JP3252815B2 (ja) * | 1998-12-04 | 2002-02-04 | 日本電気株式会社 | 連続音声認識装置及び方法 |
JP2002533771A (ja) * | 1998-12-21 | 2002-10-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音声認識履歴にもとづく言語モデル |
US6374217B1 (en) * | 1999-03-12 | 2002-04-16 | Apple Computer, Inc. | Fast update implementation for efficient latent semantic language modeling |
US6782357B1 (en) * | 2000-05-04 | 2004-08-24 | Microsoft Corporation | Cluster and pruning-based language model compression |
WO2002029615A1 (en) * | 2000-09-30 | 2002-04-11 | Intel Corporation | Search method based on single triphone tree for large vocabulary continuous speech recognizer |
US7024351B2 (en) * | 2001-08-21 | 2006-04-04 | Microsoft Corporation | Method and apparatus for robust efficient parsing |
JP4215418B2 (ja) * | 2001-08-24 | 2009-01-28 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム |
-
2000
- 2000-07-11 JP JP2000210599A patent/JP4105841B2/ja not_active Expired - Lifetime
-
2001
- 2001-07-11 US US09/904,147 patent/US7359852B2/en not_active Expired - Lifetime
-
2008
- 2008-03-10 US US12/045,198 patent/US8000966B2/en not_active Expired - Fee Related
- 2008-03-10 US US12/045,380 patent/US8150693B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10140974B2 (en) | 2014-12-29 | 2018-11-27 | Samsung Electronics Co., Ltd. | Method and apparatus for speech recognition |
Also Published As
Publication number | Publication date |
---|---|
JP2002041080A (ja) | 2002-02-08 |
US20020038207A1 (en) | 2002-03-28 |
US20080221873A1 (en) | 2008-09-11 |
US8000966B2 (en) | 2011-08-16 |
US20080221872A1 (en) | 2008-09-11 |
US8150693B2 (en) | 2012-04-03 |
US7359852B2 (en) | 2008-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4105841B2 (ja) | 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体 | |
CN110675855B (zh) | 一种语音识别方法、电子设备及计算机可读存储介质 | |
CN102176310B (zh) | 具有巨大词汇量的语音识别系统 | |
US9418152B2 (en) | System and method for flexible speech to text search mechanism | |
JP5330450B2 (ja) | テキストフォーマッティング及びスピーチ認識のためのトピック特有のモデル | |
KR100563365B1 (ko) | 계층적 언어 모델 | |
US7263488B2 (en) | Method and apparatus for identifying prosodic word boundaries | |
JP4267385B2 (ja) | 統計的言語モデル生成装置、音声認識装置、統計的言語モデル生成方法、音声認識方法、およびプログラム | |
JP4215418B2 (ja) | 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム | |
US7966173B2 (en) | System and method for diacritization of text | |
JP3426176B2 (ja) | 音声認識装置、方法、コンピュータ・システム及び記憶媒体 | |
US20050091054A1 (en) | Method and apparatus for generating and displaying N-Best alternatives in a speech recognition system | |
EP1473708B1 (en) | Method for recognizing speech | |
JP5141687B2 (ja) | 音声認識用照合ルール学習システム、音声認識用照合ルール学習プログラムおよび音声認識用照合ルール学習方法 | |
JP2002091477A (ja) | 音声認識システム、音声認識装置、音響モデル管理サーバ、言語モデル管理サーバ、音声認識方法及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JPH08278794A (ja) | 音声認識装置および音声認識方法並びに音声翻訳装置 | |
JP2002531892A (ja) | テキストの自動区分 | |
JP2002533771A (ja) | 音声認識履歴にもとづく言語モデル | |
JP2000172294A (ja) | 音声認識方法、その装置及びプログラム記録媒体 | |
KR20120052591A (ko) | 연속어 음성인식 시스템에서 오류수정 장치 및 방법 | |
JP2006107353A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
JP2003271188A (ja) | 言語処理装置および方法 | |
US8635071B2 (en) | Apparatus, medium, and method for generating record sentence for corpus and apparatus, medium, and method for building corpus using the same | |
JP2001013992A (ja) | 音声理解装置 | |
KR20000037625A (ko) | 화행 정보를 이용한 음성 인식 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040902 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20041116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050210 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050216 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20050428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080220 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20080319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080328 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4105841 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
S202 | Request for registration of non-exclusive licence |
Free format text: JAPANESE INTERMEDIATE CODE: R315201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140404 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |