JP5377889B2 - 言語処理装置およびプログラム - Google Patents

言語処理装置およびプログラム Download PDF

Info

Publication number
JP5377889B2
JP5377889B2 JP2008148047A JP2008148047A JP5377889B2 JP 5377889 B2 JP5377889 B2 JP 5377889B2 JP 2008148047 A JP2008148047 A JP 2008148047A JP 2008148047 A JP2008148047 A JP 2008148047A JP 5377889 B2 JP5377889 B2 JP 5377889B2
Authority
JP
Japan
Prior art keywords
word
word division
correct
division
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008148047A
Other languages
English (en)
Other versions
JP2009294913A (ja
Inventor
彰夫 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2008148047A priority Critical patent/JP5377889B2/ja
Publication of JP2009294913A publication Critical patent/JP2009294913A/ja
Application granted granted Critical
Publication of JP5377889B2 publication Critical patent/JP5377889B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自然言語処理に関する。特に、与えられたテキスト(例えば、日本語の漢字仮名混じり文)を基に単語分割および読み仮名付与の処理を行なう言語処理装置およびコンピュータプログラムに関する。
従来技術では、音声認識装置で用いられる単語辞書や統計的言語モデルを作成するために、漢字仮名まじりの日本語テキストを品詞・単語Nグラム(n−gram)に基づく形態素解析器を用いて単語に分割する処理が行なわれてきた。
非特許文献1に基づく従来法(1)は、日本語テキストの分割を単語Nグラムを用いて行う手法である。また、非特許文献2に基づく従来法(2)は、従来法(1)と同様に、日本語テキストの読み仮名をNグラムに基づいて行う手法である.
Nグラム等の統計的言語モデルに関しては、たとえば、非特許文献3にも記載されている。
M. Nagata,"A Stochastic Japanese Morphological Analyzer Using a Forward-DP Backward-A* N-Best Search Algorithm",International Conference on Computational Linguistics,pp.201-207,1994. 長野,森,西村,「確率モデルを用いた読みおよびアクセント推定」,情報処理学会研究報告,vol. 2005,no.69,pp.81-86,2005年. 北研二,「言語と計算 4 確率的言語モデル」,東京大学出版会,pp.57−62,1999年
非特許文献1または非特許文献2に基づく従来法では、単語の分割が単語または品詞のNグラムに基づく確率により行われるため、単語分割誤りが最小になるように単語分割が行われるとは限らない。従って、単語を分割する際に特定の誤りが頻繁に起こった場合には、正しい単語に対するNグラム確率が与えられないという問題が生じる。また、同じ理由により、分割誤りの起こった箇所に正しい読み仮名が付与されないという問題も生じる。これらの問題があるため、従来技術の方法では、日本語漢字仮名まじり文を基に高精度な統計的言語モデルを作成できず、従って、そのような統計的言語モデルを用いた音声認識装置においては高い認識率が得られないという問題につながる。
図10は、従来技術の方法による単語分割処理の例を示す概略図である。この図に示すように、日本語テキストとして「十時十分に来る」という文が入力として与えられた場合、幾通りかの単語分割および読み仮名付与のしかたがあり得る。この図に示すグラフの中には、少なくとも2つの正解候補が存在し、それらを正解候補1および正解候補2として示している。正解候補1のパスに沿ってノードをたどると、「文頭」−「十,じゅう,数詞,確率1.0」−「時,じ,接尾辞,確率1.0」−「十,じゅっ,名詞,確率0.5」−「分,ぷん,接尾辞,確率0.5」−「に,に,助詞,確率1.0」−「来る,くる,動詞,確率1.0」−「文末,確率1.0」となる。また、正解候補2のパスに沿ってノードをたどると、「文頭」−「十,じゅう,数詞,確率1.0」−「時,じ,接尾辞,確率1.0」−「十分に,じゅうぶんに,形容動詞,確率0.3」−「来る,くる,動詞,確率1.0」−「文末,確率1.0」となる。なおここで、各ノードに付された確率は、それぞれのパスにおいて直前のノードの単語から当該ノードの単語が生成される条件付確率である。言い換えればこれは、バイグラム(bigram)の確率である。
これら2つの正解候補についての生成確率は次の通りである。正解候補1が生成される確率Sは、上述したパスのバイグラムの確率の積として、次の式(1)で計算される。
Figure 0005377889
一方で、正解候補2が生成される確率Sは、同様に、次の式(2)で計算される。
Figure 0005377889
つまり、S=0.25,S=0.3であり、S<Sであるから、生成確率が高いほうの正解候補2が選択されてしまう。つまり、「十分に,じゅうぶんに,形容動詞」の部分のNグラム(バイグラム)の確率が、「十,じゅっ,名詞」−「分,ぷん,接尾辞」−「に,に,助詞」のNグラムの確率よりも大きいため、「十/分/に」が選択されず、誤った単語分割が選択されてしまうという問題がある。
そして、誤って選択された単語分割に基づいて統計的言語モデルが作成されると、その統計的言語モデルは、「じゅうじじゅっぷんにくる」という音声入力に対して正しい認識結果が得られなくなる方向に作用する。
このような問題は、従来技術による方法が、パス中の確率の積をスコアとして、このスコアが最も大きな候補を正解とみなしていることによるものである。
本発明は、上記のような問題の認識に基づいてなされたものであり、単に確率の積によるスコアを用いて正解候補を選択するのではなく、誤りがなるべく少なくなるような単語分割および読み仮名付与を行なえる言語処理装置およびそのコンピュータプログラムを提供することを目的とする。
[1]上記の課題を解決するため、本発明の一態様による言語処理装置は、単語分割と品詞と読み仮名とを含んだ正解候補の、単語列に基づく関数品詞列に基づく関数読み仮名に基づく関数と、前記関数ごとの重み値を記憶する単語分割モデル記憶部と、テキストデータを読み込み、読み込んだ前記テキストデータを基に単語分割と前記単語分割に対応する品詞列および読み仮名とからなる正解候補を展開し、前記正解候補ごとに、前記単語分割モデル記憶部から読み出した単語列に基づく前記関数と品詞列に基づく前記関数と読み仮名に基づく前記関数とを適用して、前記関数のそれぞれに対応する前記値を算出するとともに前記関数ごとの前記重み値による重み付けを用いて前記単語分割と前記品詞と前記読み仮名とについてのスコアを算出し、算出した前記スコアが最良の前記正解候補を選択し、選択された前記正解候補の単語分割を出力する単語分割処理部とを具備することを特徴とする。
この構成によれば、正解数の期待値のスコアを算出し、そのスコアに基づいて正解候補が算出されるため、最も誤りの少ない(つまり精度の高い)単語分割を得ることができる。
また、この構成により、単に単語分割の正解だけでなく読み仮名の正解も利用した単語分割を行なうため、単語分割の精度がより高くなる。
なお、単語分割の正解候補を展開することは、あり得るすべての正解候補を列挙することと同じである。言い換えれば、単語分割の正解候補を展開して得られる情報は、あり得るすべての正解候補を列挙して得られる情報と等価である。但し、正解候補に含まれる単語をノードとして単語分割点をアークとしたグラフ(このグラフは、正解候補に含まれる単語をアークとして単語分割点をノードとしたグラフと等価である)の形に正解候補の展開を行い、正解候補間で共通するパス(与えられた文のうちの一部であり、単語および単語分割点を含むパス)を共通のノードおよびアークとするグラフで表現することにより、正解候補をコンパクトなデータとして表現できるとともに、このグラフの構造(ノードとアークの)に基づいたスコアの算出を行なえる。
ここで、関数とは、単語列に基づく値を算出して返すための関数や、品詞列に基づく値を算出して返すための関数や、読み仮名に基づく値を算出して返すための関数や、文の係り受け構造に基づく値を算出して返すための関数などを適宜用いる。この関数値と関数ごとの重み値との積を取り、得られた積の値のすべての関数についての総和をとってスコアとすることができる。
また、スコアは、例えば、対象の文のテキストの文頭から文末の方向に向かって単語分割点ごとに算出する。そして、ある単語分割点においては、前の単語分割点(前記のグラフ構造において、この「前の単語分割点」は複数ある)までの正解候補数の期待値に前の単語分割点から当該単語分割点までの間の単語の正解数を加えたもの(これをAとする)に、前の単語分割点における前向き確率(これをBとする)を乗じ、さらに当該単語に関数を適用して重み値を乗じたものの全ての関数についての総和(これをCとする)を乗じ、得られたA×B×Cをすべての「前の単語分割点」について総和を取ったもの(これをDとする)を算出し、また、すべての「前の単語分割点」についての前向き確率の総和(これをEとする)と、前の単語分割点から当該単語分割点までの間の単語にルールを適用して重み値を乗じたものの全ての関数についての総和(これをFとする)とを乗じて得られるE×F(これをGとする)を算出し、そして、D/Gで与えられる値が当該単語分割点における正解単語数の期待値である。そして、文頭から文末に向かって計算した結果得られる文末での正解単語数の期待値が、その文の正解単語数の期待値である。なお、このスコアの算出方法は、実施形態において式(7)を用いて説明している。
[2]また、本発明の一態様は、上記の言語処理装置において、単語分割と前記単語分割に対応する品詞および読み仮名との正解が既知である正解付きテキストデータを読み込み、正解である単語分割と品詞と読み仮名とについての前記スコアが、他の正解候補の単語分割と品詞と読み仮名とについての前記スコアよりも良いスコアとなるように、前記重み値を算出する学習処理を行ない、この学習処理の結果得られた前記重み値を、前記単語分割モデル記憶部に書き込む重み学習処理部をさらに具備することを特徴とする。
この構成により、単語分割処理部が使用するための最適な重み値が得られる。
なお、正解が既知である正解付きテキストデータを基に、正解である単語分割についてのスコアが、他の正解候補の単語分割についてのスコアよりも良いスコアとなるように、重み値を算出する処理は、多変数の非線形目的関数を制約なしで最適化する問題に還元され、例えば、目的関数の勾配を利用する準ニュートン法を用いて、最適な重み値のセットを求めることが可能である。
[3]また、本発明の一態様は、上記の言語処理装置において、前記単語分割処理部は、選択された前記正解候補の単語分割および読み仮名を出力することを特徴とする。
この構成により、出力として、単語分割だけでなく、読み仮名をも得られる。
[4]また、本発明の一態様は、単語分割と品詞と読み仮名とを含んだ正解候補の、単語列に基づく関数品詞列に基づく関数読み仮名に基づく関数と、前記関数ごとの重み値を記憶する単語分割モデル記憶部を具備するコンピュータに、テキストデータを読み込み、読み込んだ前記テキストデータを基に単語分割と前記単語分割に対応する品詞列および読み仮名とからなる正解候補を展開し、前記正解候補ごとに、前記単語分割モデル記憶部から読み出した単語列に基づく前記関数と品詞列に基づく前記関数と読み仮名に基づく前記関数とを適用して、前記関数のそれぞれに対応する前記値を算出するとともに前記関数ごとの前記重み値による重み付けを用いて前記単語分割と前記品詞と前記読み仮名とについてのスコアを算出し、算出した前記スコアが最良の前記正解候補を選択し、選択された前記正解候補の単語分割を出力する単語分割処理過程の処理を実行させるプログラムである。
本発明によれば、高い精度で単語の分割と読み仮名の付与とを行なうことができるようになる。
また、本発明の言語処理装置を用いることにより、与えられた日本語漢字仮名まじり文を、単語を単位として高い精度で分割し、かつ適切な読み仮名を付与することができるようになる。このように高い精度で分割された単語と該当する読み仮名を用いて音声認識装置に必要な統計的な言語モデルを構築することができる。その結果、そのような統計的言語モデルを用いて音声認識処理を行なうことにより、認識率の向上をはかることができる。
また、与えられた漢字仮名混じり文に対して、読み仮名を付与できるため、単語の表記のみだけでなく、読み仮名などの情報を用いて日本語文の検索を行うことができるため、情報検索の目的にも有用である。
以下、図面を参照しながら、本発明の実施形態について説明する。
図1は、本実施形態による言語処理装置全体の機能構成を示すブロック図である。図示するように、言語処理装置1は、正解付き日本語テキストデータ記憶部10と、重み学習処理部20と、単語分割モデル記憶部30と、日本語テキストデータ記憶部40と、単語分割処理部50と、分割テキストデータ記憶部60と、統計的言語モデル作成処理部70と、音声認識処理部80と、認識結果記憶部90と、統計的言語モデル記憶部100と、入力音声データ記憶部110と、統計的音響モデル記憶部120とを含んで構成される。
正解付き日本語テキストデータ記憶部10は、日本語テキストデータ(漢字仮名混じり文)、およびその日本語テキストデータに関する単語分割の正解のデータと読み仮名の正解のデータとを記憶する。
重み学習処理部20は、正解付き日本語テキストデータ記憶部10から、単語分割の正解が既知である正解付きテキストデータを読み込み、正解である単語分割についてのスコアが、他の正解候補の単語分割についてのスコアよりも良いスコアとなるように、スコアを算出する際のルールについての重み値を算出する学習処理を行ない、この学習処理の結果得られた重み値を、単語分割モデル記憶部30に書き込む。なお、スコアは、単語分割だけではなく、単語分割と読み仮名についてのスコアを用いることもできる。
単語分割モデル記憶部30は、単語分割に関する複数のルール(関数)、および各々のルールに関する重み値を、単語分割モデルとして記憶する。なお、ルールとしては、単語分割だけではなく、読み仮名についてのルールを記憶することもできる。
日本語テキストデータ記憶部40は、単語分割および読み仮名付与の対象となるプレインなテキストデータを記憶する。
単語分割処理部50は、日本語テキストデータ記憶部40からテキストデータを読み込み、読み込んだテキストデータを基に単語分割の正解候補を展開し、各々の正解候補に対して単語分割の正解単語数の期待値のスコアを算出し、算出したスコアが最良の正解候補を選択し、選択された正解候補の単語分割を出力する。なお、単語分割処理部50は、正解候補ごとに、単語分割モデル記憶部30から読み出したルールを適用するとともにルールごとの重み値による重み付けを用いて、前記のスコアを算出する。また、単語分割処理部50が、単語分割だけでなく、単語分割と読み仮名の両方の正解単語数の期待値のスコアを算出し、このスコアによって正解候補を選択し、選択された正解候補の単語分割および読み仮名を出力することもできる。単語分割処理部50は、得られた単語分割および読み仮名を分割テキストデータ記憶部60に書き込む。
分割テキストデータ記憶部60は、単語分割処理部50によって単語分割および読み仮名付与されたテキストデータを記憶する。
統計的言語モデル作成処理部70は、分割テキストデータ記憶部60から読み出したデータにより、統計的言語モデルを作成し、統計的言語モデル記憶部100に書き込む処理を行なう。
音声認識処理部80は、統計的言語モデル記憶部100から読み出した統計的言語モデルと、統計的音響モデル記憶部120から読み出した統計的音響モデルとに基づき、入力音声データ記憶部110から読み出した音声の認識処理を行い、その結果を認識結果記憶部90に書き込む。
上記の各処理部は、電子回路等によって実現される。また、上記の各記憶部は、ハードディスク装置や半導体メモリなどを用いて実現される。
上記の言語処理装置1の処理の流れの概略は次の通りである。
単語分割と、分割された各単語の読み仮名に関する正解データが付随する日本語テキストデータが、正解付き日本語テキストデータ記憶部10に記憶されている。この正解付き日本語テキストデータは、予め、与えられるものである。単語分割モデル記憶部30には、単語分割モデルが記憶されている。単語分割モデルには、単語分割のためのルールと、各ルールに対応する重み値(i番目のルールに対しては重み値λが含まれる)。重み学習の処理の前には、重み値の初期値が単語分割モデル記憶部30に記憶されている。重み学習処理部20は、正解付き日本語テキストデータ記憶部10からテキストデータを読み出し、単語分割モデルを用いて、読み出したテキストデータの正解候補の展開を行ない、これら正解候補と予め与えられて既知となっている正解(真の正解)とから目的関数値および導関数値を計算する。その計算結果に基づき、単語分割モデル記憶部30上の重み値を更新する。重み学習処理部20がこの処理を適宜繰り返し行ない、収束した段階で処理を終了する。つまり、この学習処理の結果として、学習済みの重み値を含んだ単語分割モデルが、単語分割モデル記憶部30上に書き込まれた状態となる。この学習処理は、次の単語分割処理の前に予め行なっておく。
与えられた日本語テキストデータが、日本語テキストデータ記憶部40に記憶されている。この日本語テキストデータは、分かち書きされていない。単語分割処理部50は、日本語テキストデータ記憶部40からテキストデータを読み出し、そのテキストに含まれる単語の分割を行なうとともに読み仮名を付与し、その結果得られる分割テキストデータを分割テキストデータ記憶部60に書き込む。そして、統計的言語モデル作成処理部70が、得られた分割テキストデータを分割テキストデータ記憶部60から読み出し、これに基づいて統計的言語モデルを作成し、統計的言語モデル記憶部100に書き込む。統計的言語モデルには、Nグラム言語モデルと単語辞書とが含まれる。
そして、音声認識処理部80は、統計的言語モデル記憶部100から読み出した統計的言語モデルと統計的音響モデル記憶部120から読み出した統計的音響モデルとを用いて、入力音声データ記憶部110に格納されている音声の認識処理を行い、認識結果として得られる単語列を認識結果記憶部90に書き込む。
次に、言語処理装置1が用いるデータの構成について説明する。
図2は、正解付き日本語テキストデータ記憶部10に記憶されているデータの構成およびデータ例を示す概略図である。図示するように、本実施形態では、正解付き日本語テキストデータを、表形式のデータベースに格納している。
図2(a)に示すデータは、文番号とテキストの項目を有する表形式のデータである。文番号の項目は、日本語テキストデータの文ごとに付与されたシリアル番号である。テキストの項目は、その文番号に対応する文のテキストを格納するためのものである。なお、ここでは、文とは、句点または改行記号で区切られたテキストの単位である。
図2(b)に示すデータは、文番号と単語番号と単語と読み仮名と品詞の項目を有する表形式のデータである。このデータは、図2(a)に示した日本語テキストについての、単語分割および読み仮名の正解の情報を保持する。文番号の項目は、上と同様である。単語番号の項目は、単一の文を単語分割した後の単語列における当該文内での単語のシリアル番号である。単語番号は、文頭から順に、1,2,3,・・・と付与される。単語の項目は、当該単語番号に対応する単語である。この項目に格納されるデータは、元のテキストの漢字仮名混じり文を分割した状態のそのままの単語の表記の通りである。読み仮名の項目は、当該単語の読み仮名の正解を表わすデータである。品詞の項目は、単語分割の結果において同定される当該単語の品詞を表わすデータである。例えば、この図に示すある一行のデータについては、文番号が「108」で、単語番号が「12」で、単語が「十」で、読み仮名が「じゅう」で、品詞が「数詞」である。
なお、図2(a)の表を省略して図2(b)の表のみを記憶部に保持するようにしても情報量としては同じである。ある文番号について、図2(b)に格納されている単語を先頭から単語番号順に順次連結させれば、図2(a)のテキストと同じ情報が得られるからである。
なお、分割テキストデータ記憶部60に記憶される分割テキストデータも、図2に示したデータと同じ構造を有している。
次に、図3は、単語分割モデル30に記憶される単語分割モデルのデータ構成およびデータ例を示す概略図である。図示するように、単語分割モデルは、表形式のデータとして格納されており、ルール番号と、ルールと、重み値(λ)の各項目を有する。ルール番号の項目は、この単語分割モデルに格納されるルールのシリアル番号である。ルールの項目は、ルール番号に対応するルールを格納するためのものである。この図では便宜的に日本語で表現しているが、実際には、与えられたテキスト(正解候補)に基づいて値を算出するための関数を、ルールとして格納する。単語分割モデルに格納するルールとは、より具体的には、その関数の値を計算するための手順を含む実行可能なプログラムコードや、その関数の値を計算するための数式等を表わした疑似コードや、外部の関数モジュールを参照するための関数参照情報(名前による参照を行なうための関数名や、関数モジュールが存在するアドレスを表わすポインタ情報)などである。重み値(λ)の項目は、対応するルールのための重みである。重み値の項目は、後述するように、重み学習処理の中で更新される。例えば、この図に示すある一行のデータについては、ルール番号が「1」で、ルールが「テキスト(正解候補)に含まれる単語列の個数」というルールを表わし、重み値としては学習処理の前の初期値である「0」が格納されている。
単語分割モデルのデータの使い方については後で詳しく述べるが、ルールは、ある与えられた単語列Wに対して所定の値を返す関数である。また、重み値は、その関数値を重み付けるための値である。
例えば、「十時十分に」という日本語テキストデータWが与えられるとき、
ルール 1: Wに含まれる『十/時/十』という単語列の個数
ルール 2: Wに含まれる『数詞(十)/接尾辞(時)/数詞(十)』という品詞列の個数
ルール 3: Wに含まれる『十/時/十(じゅっ)』という単語列の個数
ルール 4: Wに含まれる『十/時/十/分/に』という単語列(文節)が『来る』に係れば1を返し、係らなければ0を返す
などといったルールが、単語分割モデルの一部として格納されている。ルールが返す値は、単語列に基づくもの(例えば上記のルール1)や、品詞列に基づくもの(例えば上記のルール2)や、読み仮名に基づくもの(例えば上記のルール3)や、係り受け構造に基づくもの(例えば上記のルール4)などがある。
なお、上記のルール4を適用する際には、既存技術を用いた自然言語の係り受け解析器による解析結果のデータを利用する。
次に、図4は、統計的言語モデル記憶部100が記憶する統計的言語モデルのデータ構成およびデータ例を示す概略図である。
図4(a)は、統計的単語モデルのうちの単語辞書のデータである。図示するように、このデータは表形式で格納されており、単語と、読み仮名と、品詞の各項目を有している。このデータの各行が、単語辞書の各エントリーに相当する。図示するデータ例の一つは、単語が「十」で、読み仮名が「じゅう」で、品詞が「数詞」というエントリーである。
また、図4(b)は、統計的単語モデルのうちのNグラム言語モデルのデータである。具体的には、ここで図示しているのはトライグラム(trigram)のデータである。図示するように、トライグラムのデータは表形式で格納されており、単語1と、単語2と、単語3と、生成確率の各項目を有している。このデータのある行において、単語1の項目の単語と単語2の項目の単語と単語3の項目の単語が、この順で出現するトライグラムを表わしている。そして、そのトライグラムに対応する生成確率の項目の数値は、単語1と単語2の列を前提としたときに単語3が生成される条件付確率の値である。図示するデータ例の一つは、単語1〜3によるトライグラムが「十」−「時」−「十」であり、対応する生成確率が「0.0145」である。
<1.単語分割処理>
次に、言語処理装置1による単語分割処理の詳細について説明する。先に述べた従来技術の方法では、Nグラムの確率の積をスコアとしたために、適切な正解候補を選択できない場合があった。本実施形態の言語処理装置1は、正解単語数の多い(つまり、誤りの少ない)正解候補を選択するような方法の処理を行なう。
図5は、言語処理装置1による単語分割処理において、正解候補の選択のしかたの概略を示す概略図である。この図は、それらの単語分割および読み仮名付与のしかたの可能性をすべて列挙し、グラフとして表わしている。このグラフにおいてノードは分割された単語候補であり、各ノードは、漢字仮名混じり文に対応する表記と、読み仮名と、品詞との情報を備えている。但し、特殊なノードとして、文頭ノードと文末ノードが存在し、これらは単語には対応していない。また、ノード間を直接結ぶアークが、それら両ノードの単語からなるバイグラムに対応する。また、文頭ノード以外のノードには条件付き確率の数値が付与されている(但し、本図では、一部のノードにおいて省略)。この条件付確率は、アークで結ばれた直前(直左)のノードの単語の次に当該ノードの単語が生成される(出現する)確率である。
この図では、「十時十分に来る」という入力があったときの正解候補が示されており、その中には正解候補1と正解候補2を含んでいる。正解候補1は文頭−「十,じゅう」−「時,じ」−「十,じゅっ」−「分,ぷん」−「に,に」−「来る,くる」−文末のパスであり、正解候補2は文頭−「十,じゅう」−「時,じ」−「十分,じゅうぶん」−「に,に」−「来る,くる」−文末のパスである。真の正解である正解候補1が選ばれるためには、この候補のスコアが他の全てのスコアよりも高くなる必要がある。そのためには、正解候補1のパス上にある正解単語「十,じゅっ」と「分,ぷん」に関するバイグラムのスコアが高くなる一方で、正解候補2のパス上にある誤り単語「十分に,じゅうぶんに」に関するバイグラムのスコアが低くなるような、処理を行なえば良い。
図示しているグラフでは、バイグラム{「時,じ」−「十,じゅっ」}の生成確率P(十|時)を0.5から0.8に上げ、バイグラム{「十,じゅっ」−「分,ぷん」}の生成確率P(分|十)を0.5から0.8に上げる一方で、バイグラム{「時,じ」−「十分に,じゅうぶんに」}の生成確率P(十分に|時)を0.3から0.2に下げている。そして、このようなスコアの増減を行なった場合に、正解候補1と2それぞれの生成確率SおよびSは、それぞれ、次の式(3)および式(4)で計算される。
Figure 0005377889
Figure 0005377889
上記の計算結果により、S>Sであるため、正解候補2ではなく正解候補1が選択されることとなる。
上記のように、単なるNグラムの確率の積ではなく、単語分割や読み仮名に対する正しさ(正解/不正解)に応じてスコアを定めることにより、任意の漢字仮名まじり文について、誤りのない単語分割や読み仮名が得られる。但し、上の例では正解の単語分割と読み仮名が既知であるという前提で得点の増減を行った。正解のわからない未知文に対して正しい単語分割や読み仮名を得るために、本実施形態による装置では、予め正しい単語分割と読み仮名の与えられた複数の漢字仮名まじり文を用いてスコアを求めておき、その結果得られるルールごとの重み値を用いて、単語分割と読み仮名付与の処理を行なう。
次に、単語分割処理および読み仮名付与処理の具体的な手順について説明する。
図6は、単語分割処理部50による単語分割処理および読み仮名付与処理の手順を示すフローチャートである。
まずステップS200において、単語分割処理部50は、日本語テキストデータ記憶部40から、処理対象の日本語テキストデータの一文を読み込む。日本語テキストデータは、単語分割されていないプレインなテキストであり、漢字仮名混じり文のテキストである。ここで読み込む一文とは、テキスト中において句点または改行記号で区切られる単位である。
次に、ステップS210において、単語分割処理部50は、単語分割モデル記憶部30から読み出した単語分割モデルを用いて、図5に示したような正解候補の単語のネットワークの形に、上で読み込んだ入力テキストを展開する。展開された結果は、例えば、一時的に半導体メモリに書き込まれ、後の処理で必要に応じて参照される。この正解候補の展開処理自体は既存技術によるものであり、単語分割モデルを基に探索を行い、可能性のある全てのパスを洗い出すことにより行なうことができる。
次に、ステップS220において、単語分割処理部50は、上で展開された全ての正解候補に対して、各々のスコアを計算する。単語分割処理の対象として与えられた入力文に対する正解候補の1つである単語列をWとするとき、その正解候補に対するスコアg(W)は、次の式(5)によって算出される。
Figure 0005377889
単語列Wが真の正解単語列に近いほど、式(5)によって算出されるスコアg(W)の値は大きくなる。式(5)において、f(W)はi番目のルールに対応し、当該ルールが成立するときに、そのルールによって定義された数値を返す関数である(i=1,2,・・・・・・)。これらの関数f(W)を、以後、素性関数と呼ぶ。また、λは素性関数fに対する重みであり、素性関数fに重みλを乗じた値の、全ての素性関数に関する総和により、スコアを算出する。なお、重みλの値は、単語分割モデルの一部として単語分割モデル記憶部30に記憶されており、単語分割処理部50はそれらの重み値を読み出してスコアの計算に使用する。
また、重み値λは、重み学習処理部20によって事前に求められているものであるが、この求め方については後述する。
次に、ステップS230において、単語分割処理部50は、ステップS210で展開された全ての正解候補の中から、ステップS220で算出されたスコアの最も大きい正解候補を選択する。
次に、ステップS240において、単語分割処理部50は、ステップS230で選択された最大スコアの正解候補と、その単語列に含まれる単語それぞれの読み仮名とを、分割テキストデータとして、分割テキストデータ記憶部60に書き込む。また、単語分割処理部50はこのとき、分割された単語の品詞情報も、分割テキストデータ記憶部60に書き込む。さらに、単語分割処理部50が、上で算出されたスコアの情報を併せて分割テキストデータ記憶部60に書き込むようにしても良い。
そして、ステップS250において、単語分割処理部50は、日本語テキストデータ記憶部40内の処理対象の日本語テキストの全文を処理し終えたかどうかを判断する。すべての文についての単語分割処理を終了した場合(ステップS250:YES)には、このフローチャート全体の処理を終了する。未処理の文がまだ残っている場合(ステップS250:NO)には、ステップS200に戻って、次の文の処理を行なう。つまり、全ての文の処理を終えるまで、各文についてステップS200からS240までの処理を繰り返し行なう。
<2.重み学習処理>
次に、素性関数の重み(λ)の定め方について説明する。単語分割モデル記憶部30に記憶されている単語分割モデルにおける素性関数の重みは、単語分割の誤りや読み仮名付与の誤りの量が最小になるように定める。そのために、言語処理装置1では、正解付き日本語テキストデータ記憶部10に記憶された正解付きの日本語テキストデータを用いて、重み学習処理部20の処理により、重み値を求める。以下では、まず本実施形態における重み学習法の概略について述べ、その後で重み学習処理部20による処理の手順を説明する。
正解付き日本語テキストデータは、複数の漢字仮名混じり文を含み、また各文の単語分割および分割された各単語の読み仮名の正解データを含んでいる。つまり、この処理において与えられるテキストの正解は既知である。ここで、M個の正解付き日本語テキストデータが与えられたときに、単語分割の誤りと読み仮名付与の誤りの量を最小にするような素性関数の重みを求めるために、式(6)によって定義される目的関数Lを定める。この目的関数Lは、単語正解精度の期待値に基づくものである。
Figure 0005377889
式(6)において、Wm,kは、正解付き日本語データに含まれるm番目のテキストデータ(文)Lのk番目の正解候補である。また、Acc(Wm,k)は、正解候補Wm,kの単語分割に含まれる単語の正解数(正解単語数)を表す関数である。
正解候補の数が多いときには、正解候補Wm,kに対するAcc(Wm,k)を直接求めることが困難である。そこで、ここでは、正解候補の単語列についての単語分割点での正解単語数の期待値を用いる。単語分割点とは、図5に示したグラフおけるノードとノードの間の点(つまりアークに対応する点)である。t番目の単語分割点における正解単語数の期待値として、式(7)に示す関数ξ(t)を定める。
Figure 0005377889
但し、
Figure 0005377889
図7は、単語分割点における単語正解数の期待値の計算例を示す概略図である。この図において角括弧付きで表わしている数字は、単語分割点である。また、各ノードの単語の下に示す数値は、その単語のスコアである。単語wのスコアは、
Figure 0005377889
によって算出され、例えば、図における文頭の直後の「十,じゅう,数詞」のスコアは1.0であり、その次の「時,じ,接尾辞」のスコアは1.0であり、その次の「十,じゅっ,数詞」のスコアは0.5であり、以下同様である。今、正解は既知であるため、その正解のパスである、文頭−「十,じゅう」−[時,じ]−「十,じゅっ」−「分,ぷん」−「に,に」−文末の上の各ノード(図においてハッチングのないノード)での正解数は1である。正解のパス上にない、単語分割点[3]の後の「十,じゅう」や、単語分割点[6]の後の「分,ふん」や、単語分割点[4]の後の「十分に,じゅうぶんに」の各ノード(図においてハッチング付きのノード)での正解数は0である。但し、文頭ノードおよび文末ノードは、正解数0として計算する。
この図に示している単語分割点[1]から[9]までにおける正解数の期待値を、式(7)を用いて計算すると次の通りである。
即ち、単語分割点[1]について、ξ(1)は、式(8)の通り算出される。
Figure 0005377889
つまり、式(8)の分子については、前の単語分割点(文頭と「十,じゅう」の間の点)までの正解単語数期待値は0であり、前の単語分割点と当該単語分割点([1])とを結ぶ単語「十,じゅう」の正解数は1であり、前の単語分割点における前向き確率は1であり、前の単語分割点と当該単語分割点([1])とを結ぶ単語「十,じゅう」のスコアの総和は1.0である。また、式(8)の分母については、前の単語分割点は1つだけであるのでそこにおける前向き確率の総和は1.0であり、前の単語分割点と当該単語分割点([1])とを結ぶ単語「十,じゅう」のスコアの総和は1.0である。
単語分割点[2]と[3]と[4]について、ξ(2),ξ(3),ξ(4)は、前の単語分割点[1]におけるξ(1)も用いて、式(9)の通り算出される。
Figure 0005377889
単語分割点[5]について、ξ(5)は、前の単語分割点[2]におけるξ(2)も用いて、式(10)の通り算出される。
Figure 0005377889
単語分割点[6]について、ξ(6)は、前の単語分割点[3]におけるξ(3)も用いて、式(11)の通り算出される。
Figure 0005377889
単語分割点[7]について、ξ(7)は、前の単語分割点[5]と[6]における、それぞれξ(5)とξ(6)も用いて、式(12)の通り算出される。
Figure 0005377889
単語分割点[8]について、ξ(8)は、前の単語分割点[7]と[4]における、それぞれξ(7)とξ(4)も用いて、式(13)の通り算出される。
Figure 0005377889
単語分割点[9]について、ξ(9)は、前の単語分割点[8]における、ξ(8)も用いて、式(14)の通り算出される。
Figure 0005377889
つまり、図示する例において、テキストデータから期待される正解単語の数は4.0個(=ξ(9))となる。
このように、期待値として算出される正解候補Wm,kの正解単語数を用いて、式(6)に示した目的関数Lを算出することができる。そして、素性関数に対する最適な重みは、上の目的関数Lを最大化(Lの最大化は、期待される正解数の最大化と等価)するような値を待つものである。上の目的関数Lを最大化する重みを求めるためには、例えば準ニュートン法(quasi-Newton method)などを用いる。準ニュートン法については、次の文献に記載されている。
文献:W.H. Press,外,「Numerical Recipes in C ニューメリカルレシピ・イン・シー 日本語版 C言語による数値計算のレシピ」,技術評論社,pp.313−314,1993年.
図8は、重み学習処理の手順を示すフローチャートである。以下では、このフローチャートに沿って、重み学習処理部20による処理の手順について説明する。
まずステップS300において、重み学習処理部20は、正解付き日本語テキストデータ記憶部10から、処理対象の日本語テキストデータの一文を読み込む。ここで読み込む一文とは、テキスト中において句点または改行記号で区切られる単位である。このテキストデータには正解のデータが付随している。つまり、重み学習処理部20は、読み込んだ一文の正しい単語分割と各単語の読み仮名の情報をも同時に読み込む。
単語分割モデル記憶部30に格納されている単語分割モデルには、前述したように、単語分割ルールおよびルールに応じた重み値を含んでいる。但し、重み学習処理の前には重み値が定められていないので、すべてのルールの重み値の初期値をゼロとしておく。
ステップS310において、重み学習処理部20は、単語分割モデル記憶部30から読み出した単語分割モデルを参照しながら、上で入力された文について、可能な単語分割および読み仮名による正解候補をグラフとして展開する処理を行なう。但し、対象となる文には正解が与えられているため、展開したグラフの中における正解の単語分割の経路は既知である。
次に、ステップS320において、重み学習処理部20は、上で展開した正解候補について、次の式(15)によって目的関数lの値を計算する。
Figure 0005377889
なお、Acc(W)は、正解候補Wにおける正解数である。
次に、ステップS330において、重み学習処理部20は、導関数の計算を行なう。ここでの導関数計算では、式(15)に基づいて、下の差分方程式(16)により導関数の値を計算する。
Figure 0005377889
ここで、λjは正解候補のネットワークに含まれる素性の一つである。また、Δλjは事前に決めた小さな正値である。上の式(16)によれば、lをλjの関数として、λjの導関数を計算できる。
そして、ステップS340において、重み学習処理部20は、正解付き日本語テキストデータ記憶部10内の処理対象の日本語テキストの全文を処理し終えたかどうかを判断する。すべての文についての処理を終了した場合(ステップS340:YES)には、次のステップS350へ進む。未処理の文がまだ残っている場合(ステップS340:NO)には、ステップS300に戻って、次の文の処理を行なう。つまり、全ての文の処理を終えるまで、各文についてステップS300からS330までの処理を繰り返し行なう。
ステップS350において、重み学習処理部20は、各文について目的関数値、および各素性に対する導関数値を利用して準ニュートン法等の方法により、新たな重み値λ(i=1,2,3,・・・)を得る。そして、重み学習処理部20は、得られた新たな重み値を用いて単語分割モデル記憶部30に格納されている単語分割モデルを更新する。
そして、ステップS360において、重み学習処理部20は、収束条件を満たしているか否かを判断する。収束条件を満たしているか否かは、例えば、式(6)に示した目的関数の値の前回からの変化が予め定めた所定の閾値以下であるかどうかにより判断する。あるいは、例えば、重みの更新回数が、予め定めた所定の繰り返し回数に達したかどうかにより判断する。収束条件を満たす場合(ステップS360:YES)には、本フローチャート全体の処理を終了する。収束条件を満たさない場合(ステップS360:NO)には、ステップS370において正解付き日本語テキストデータの読み込み位置を初期化した(最初の文から読むように制御する)上で、次回の重みの計算を行なうために、ステップS300の処理に戻る。
なお、準ニュートン法を用いる場合、重み学習処理部20は、上述したステップS300からS370までの処理を反復ことによって重み値λの値を更新しながら、式(15)で示した目的関数の勾配の変化(式(16)で算出した導関数値の変化)に基づいて、目的関数を最適化していく。
<3.統計的言語モデル作成処理>
次に、単語分割処理部50による処理の結果を利用して統計的言語モデルを作成する処理について説明する。統計的言語モデル作成処理部70は、単語分割処理部50によって単語分割されるとともに読み仮名が付与された分割テキストデータを用いて統計的言語モデルを作成し、これを統計的言語モデル記憶部100に書き込む。統計的言語モデル作成処理部70が作成する統計的言語モデルには、Nグラム言語モデルと単語辞書とが含まれる。
図9は、統計的言語モデル作成処理部70による処理の手順を示すフローチャートである。以下、このフローチャートに沿って説明する。
まずステップS400において、統計的言語モデル作成処理部70は、入力処理を行なう。具体的には、統計的言語モデル作成処理部70はここで、分割テキストデータ記憶部60から分割テキストデータを読み出し、単語と読み仮名の組のリストを作成する。また、統計的言語モデル作成処理部70は、読み出した分割テキストデータを基に、単語列を作成する。
そしてステップS410において、統計的言語モデル作成処理部70は、ステップS400で作成した単語と読み仮名の組のリストを基にして、各組の中の読み仮名を音声認識処理用の内部表現に置き換えて単語辞書を生成する。内部表現とは例えば音素列による表現である。そのようにして単語と音素列との組が大量に得られるが、これらの組の集合が単語辞書である。
そしてステップS420において、統計的言語モデル作成処理部70は、ステップS400で得られた単語列を基に、Nグラム言語モデルを作成する。Nグラムとしては、例えば、バイグラムあるいはトライグラムなどを作成する。
例えばバイグラムを作成する場合、統計的言語モデル作成処理部70は、得られたすべての単語列を統計的に処理することにより、1番目の単語および2番目の単語の組と、1番目の単語を前提としたときに2番目の単語が出現する条件付き確率の値を算出し、これらをセットにしたデータを作成する。
例えばトライグラムを作成する場合、統計的言語モデル作成処理部70は、同様の統計的処理をすることにより、1番目、2番目、そして3番目の単語の組と、1番目および2番目の単語列を前提としたときに3番目の単語が出現する条件付き確率の値を算出し、これらをセットにしたデータを作成する。
そしてステップS430において、統計的言語モデル作成処理部70は、上で作成した単語辞書およびNグラム言語モデルを所定の書式に変換し、統計的言語モデル記憶部100に書き込む。
このように作成された統計的言語モデルと、予め用意された統計的音響モデルとを用いて、音声認識処理部80が、入力音声データ記憶部110から読み出した音声の認識処理を行い、その結果を認識結果記憶部90に書き込む。
なお、上述した実施形態における言語装置の一部または全部の機能をコンピュータで実現するようにしても良い。その場合、上述した各処理の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
例えば、上記実施形態では、単語分割処理部50が、単語分割と読み仮名付与の両方を行なうようにしたが、単語分割処理のみを行なうようにしても良い。
また、上記実施形態では、言語処理装置1が、重み学習処理部20と、単語分割処理部50と、統計的言語モデル作成処理部70と、音声認識処理部80の全てを具備する構成としたが、言語処理装置が各処理部のうちの一部のみを備えるようにしても良い。また、各処理部の機能を複数の装置に分散させる場合には、それらの装置間の通信によって必要なデータの受け渡しを行なえるようにすることもできる。
また、上記実施形態では、各記憶部のデータが2次元の表形式のデータで表現されるように構成したが、表形式のデータに限らず、例えば、オブジェクト指向データベースやXMLデータベースなどを用いて等価なデータを保持するようにしても良い。
また、上記実施形態では、日本語のテキストを処理の対象としたが、日本語に限らず、他の言語によるテキストを処理対象とすることもできる。例えば、中国語など、一般に分かち書きせずに表記されるテキストについて単語分割する場合には、本発明が特に有効である。
本発明は、自然言語の形態素解析処理に広く利用可能である。また、本発明による形態素解析処理を用いて、実際のテキストデータを基に、単語辞書あるいは統計的言語モデルの自動生成が可能であり、このように作成された単語辞書データや統計的言語モデルデータは、音声認識処理等で利用可能である。また、漢字仮名混じり文に対して、適切な読み仮名を与えられるため、読み仮名による情報検索にも応用することができる。
本発明の実施形態による言語処理装置の機能構成を示すブロック図である。 同実施形態による正解付き日本語テキストデータ(符号10)および分割テキストデータ(符号60)の構成およびデータ例を示す概略図である。 同実施形態による単語分割モデル(符号30)のデータの構成およびデータ例を示した概略図である。 同実施形態による統計的言語モデル(符号100)のデータの構成およびデータ例を示す概略図である。 同実施形態による単語分割処理において正解候補の選択のしかたの概略を示す概略図であり、正解候補のグラフ(ネットワーク)の形で表わしている。 同実施形態による単語分割処理および読み仮名付与処理の手順を示すフローチャートである。 同実施形態による単語分割処理の中での、単語分割点における単語正解数の期待値を計算する例を示す概略図である。 同実施形態による重み学習処理の手順を示すフローチャートである。 同実施形態による統計的言語モデル作成処理の手順を示すフローチャートである。 従来技術の方法による単語分割処理の例を示す概略図である。
符号の説明
1 言語処理装置
10 正解付き日本語テキストデータ記憶部
20 重み学習処理部
30 単語分割モデル記憶部
40 日本語テキストデータ記憶部
50 単語分割処理部
60 分割テキストデータ記憶部
70 統計的言語モデル作成処理部
80 音声認識処理部
90 認識結果記憶部
100 統計的言語モデル記憶部
110 入力音声データ記憶部
120 統計的音響モデル記憶部

Claims (4)

  1. 単語分割と品詞と読み仮名とを含んだ正解候補の、単語列に基づく関数品詞列に基づく関数読み仮名に基づく関数と、前記関数ごとの重み値を記憶する単語分割モデル記憶部と、
    テキストデータを読み込み、読み込んだ前記テキストデータを基に単語分割と前記単語分割に対応する品詞列および読み仮名とからなる正解候補を展開し、前記正解候補ごとに、前記単語分割モデル記憶部から読み出した単語列に基づく前記関数と品詞列に基づく前記関数と読み仮名に基づく前記関数とを適用して、前記関数のそれぞれに対応する前記値を算出するとともに前記関数ごとの前記重み値による重み付けを用いて前記単語分割と前記品詞と前記読み仮名とについてのスコアを算出し、算出した前記スコアが最良の前記正解候補を選択し、選択された前記正解候補の単語分割を出力する単語分割処理部と、
    を具備することを特徴とする言語処理装置。
  2. 請求項1に記載の言語処理装置において、
    単語分割と前記単語分割に対応する品詞および読み仮名との正解が既知である正解付きテキストデータを読み込み、正解である単語分割と品詞と読み仮名とについての前記スコアが、他の正解候補の単語分割と品詞と読み仮名とについての前記スコアよりも良いスコアとなるように、前記重み値を算出する学習処理を行ない、この学習処理の結果得られた前記重み値を、前記単語分割モデル記憶部に書き込む重み学習処理部、
    をさらに具備することを特徴とする言語処理装置。
  3. 請求項1又は請求項2に記載の言語処理装置において、
    前記単語分割処理部は、選択された前記正解候補の単語分割および読み仮名を出力する、
    ことを特徴とする言語処理装置。
  4. 単語分割と品詞と読み仮名とを含んだ正解候補の、単語列に基づく関数品詞列に基づく関数読み仮名に基づく関数と、前記関数ごとの重み値を記憶する単語分割モデル記憶部を具備するコンピュータに、
    テキストデータを読み込み、読み込んだ前記テキストデータを基に単語分割と前記単語分割に対応する品詞列および読み仮名とからなる正解候補を展開し、前記正解候補ごとに、前記単語分割モデル記憶部から読み出した単語列に基づく前記関数と品詞列に基づく前記関数と読み仮名に基づく前記関数とを適用して、前記関数のそれぞれに対応する前記値を算出するとともに前記関数ごとの前記重み値による重み付けを用いて前記単語分割と前記品詞と前記読み仮名とについてのスコアを算出し、算出した前記スコアが最良の前記正解候補を選択し、選択された前記正解候補の単語分割を出力する単語分割処理過程、
    の処理を実行させるプログラム。
JP2008148047A 2008-06-05 2008-06-05 言語処理装置およびプログラム Expired - Fee Related JP5377889B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008148047A JP5377889B2 (ja) 2008-06-05 2008-06-05 言語処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008148047A JP5377889B2 (ja) 2008-06-05 2008-06-05 言語処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2009294913A JP2009294913A (ja) 2009-12-17
JP5377889B2 true JP5377889B2 (ja) 2013-12-25

Family

ID=41543048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008148047A Expired - Fee Related JP5377889B2 (ja) 2008-06-05 2008-06-05 言語処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP5377889B2 (ja)

Families Citing this family (176)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
JP5553779B2 (ja) * 2011-01-11 2014-07-16 日本電信電話株式会社 形態素列変換装置、形態素変換学習装置とそれらの方法とプログラム
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8706472B2 (en) * 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP5937496B2 (ja) * 2012-11-26 2016-06-22 日本電信電話株式会社 読み仮名誤り検出装置、方法並びにプログラム
EP4138075A1 (en) 2013-02-07 2023-02-22 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
KR101759009B1 (ko) 2013-03-15 2017-07-17 애플 인크. 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
JP5961586B2 (ja) * 2013-05-30 2016-08-02 日本電信電話株式会社 読み仮名修正モデル学習装置と読み仮名修正装置とそれらの方法とプログラム
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
WO2014200728A1 (en) 2013-06-09 2014-12-18 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
JP6163266B2 (ja) 2013-08-06 2017-07-12 アップル インコーポレイテッド リモート機器からの作動に基づくスマート応答の自動作動
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN113486170B (zh) * 2021-08-02 2023-12-15 国泰新点软件股份有限公司 基于人机交互的自然语言处理方法、装置、设备及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3953772B2 (ja) * 2001-10-19 2007-08-08 日本放送協会 読みがな付与装置およびプログラム

Also Published As

Publication number Publication date
JP2009294913A (ja) 2009-12-17

Similar Documents

Publication Publication Date Title
JP5377889B2 (ja) 言語処理装置およびプログラム
JP6493866B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4215418B2 (ja) 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム
JP3998668B2 (ja) 形態素解析装置、方法及びプログラム
JP3768205B2 (ja) 形態素解析装置、形態素解析方法及び形態素解析プログラム
JPH0689302A (ja) 辞書メモリ
JP2005258439A (ja) 文字から音声への変換のための相互情報量基準を用いた大きな文字音素単位の生成
JP5809381B1 (ja) 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム
CN111462751A (zh) 解码语音数据的方法、装置、计算机设备和存储介质
JP4738847B2 (ja) データ検索装置および方法
JP2011164175A (ja) 言語モデル生成装置、そのプログラムおよび音声認識システム
JP5319141B2 (ja) 言語モデルの枝刈り方法及び装置
JP6301794B2 (ja) オートマトン変形装置、オートマトン変形方法およびプログラム
JP5523929B2 (ja) テキスト要約装置、テキスト要約方法及びテキスト要約プログラム
JP6558856B2 (ja) 形態素解析装置、モデル学習装置、及びプログラム
JP4243777B2 (ja) トランスデューサ処理装置、機械翻訳モデル作成装置、音声認識モデル作成装置、トランスデューサ処理方法、トランスデューサ処理プログラム、および、記録媒体
JP3950957B2 (ja) 言語処理装置および方法
JP2005092682A (ja) 翻字装置、及び翻字プログラム
KR101982490B1 (ko) 문자 데이터 변환에 기초한 키워드 검색 방법 및 그 장치
JP2008305291A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020140674A (ja) 回答選択装置及びプログラム
JP2015040864A (ja) 記号列変換方法、音声認識方法、それらの装置及びプログラム
JP6220761B2 (ja) モデル学習装置、文字列変換装置、方法、及びプログラム
JP2020016939A (ja) 単語列修正装置、単語列修正方法及びプログラム
JP3961858B2 (ja) 翻字装置及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130925

R150 Certificate of patent or registration of utility model

Ref document number: 5377889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees