JP2003271188A - 言語処理装置および方法 - Google Patents
言語処理装置および方法Info
- Publication number
- JP2003271188A JP2003271188A JP2002071625A JP2002071625A JP2003271188A JP 2003271188 A JP2003271188 A JP 2003271188A JP 2002071625 A JP2002071625 A JP 2002071625A JP 2002071625 A JP2002071625 A JP 2002071625A JP 2003271188 A JP2003271188 A JP 2003271188A
- Authority
- JP
- Japan
- Prior art keywords
- word
- character strings
- probability
- language processing
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
Abstract
ルの併用を可能とする。 【解決手段】 特徴に対応する変換候補を接続順に並べ
たネットワークを構築する際に、予め登録された言語パ
ターン(図7)の中の途中の単語が含まれているか否か
を判定し(S70)、単語が含まれている場合には、そ
の単語と登録された言語パターン以外の単語との間の経
路の接続が禁止される(S75)。
Description
して言語処理を行う言語処理装置および方法に関する。
観察し、それをもっとも良く説明する単語(列)wを推
定する問題が下記式により定式化されている。
w)、P(w)の良いモデルを見いだすことに大きく依
存している。
が言語としてどれだけ尤もらしいかを表す確率で、言語
モデルと呼ばれる。現在、言語モデルを構築する手法
は、統計的手法によるものと記述文法によるものの2つ
に大別される。
のはN−gramモデルと呼ばれ、大語彙連続音声認識
システムで現在もっとも広く利用されている。N−gr
amモデルは、新聞記事などの大量の言語データから、
N個の連続する単語の並びの統計情報を抽出し、確率モ
デルとして表したものである。学習データさえ用意すれ
ば、大語彙で比較的性能の良い言語モデルを簡単に構築
することができる。
計的性質に左右されるため、大量の学習データを用意す
ることが困難なタスクを扱うのが難しいという問題点が
ある。たとえば、音声認識の応用分野として、ある特定
のデータベースの検索を対象とした対話システムや、特
定用途のために認識する発話を特化したシステムが考え
られるが、このようなタスクの学習データは元から存在
しないことがほとんどで、システム開発者が用意する必
要があるが、作成のコストの面で困難である。
しては、記述文法によるものが広く用いられている。自
然言語の記述に広く用いられている文脈自由文法や、正
規文法(ネットワーク文法)を用いて、そのタスクで扱
われる発話をシステム設計者が人手で記述し、それを言
語モデルとする方法である。N−gramモデルは単語
長Nという言語の中でもきわめて短い間の依存関係しか
表現できないのに対して、記述文法では、文単位の長距
離の依存関係を記述する能力がある。また、記述文法の
作成には、これまでの言語学の研究成果から得られた知
見を利用できるという特徴もある。しかし、人手で作成
する以上、作成する規模には限界があり広い範囲の言語
表現に対応するのは難しい。また、統計的手法を用いな
いので大語彙の認識には不向きである。
ージング手法が提案されている(北研二.確率的言語モ
デル.東京大学出版会,1999)。スムージングと
は、学習データに現れないN単語連鎖を確率0としてN
−gramモデルを作成すると言語モデルの性能が悪化
するため、0でない確率を割り当てるよう補完を行う手
法のことを指す。現在、広く利用されているバックオフ
スムージングでは、学習データに現れないN単語連鎖の
確率をN−1単語連鎖の確率で補完する。
な言語モデルを使用する言語処理方法および記述文法の
言語モデルを使用する言語処理方法にはそれぞれ一長一
短がある。
を取り入れて、統計的な言語モデルおよび記述文法の言
語モデルを併用することができる言語処理装置および方
法を提供することにある。
るために、請求項1の発明は、複数組の文字列の各々の
特徴を該特徴を表す文字列に変換するために、前記複数
組の文字列の各々についての変換候補をネットワークの
形態で接続し、該ネットワーク上の同一経路上で隣接す
る変換候補の連鎖の確率の値を求め、前記ネットワーク
の各経路の確率の値の中で、最も値が高い経路上の変換
候補の列を前記複数組の文字列の特徴に対する変換結果
とする言語処理装置において、予め定められた並びの複
数組の文字列が前記ネットワーク上の経路に現れるか否
かを判定する判定手段と、肯定判定が得られた場合に
は、予め定められた並びの複数組の文字列以外の変換候
補から予め定められた並びの複数組の文字列の中の先頭
以外の変換候補の文字列への経路の接続、および予め定
められた並びの複数組の文字列の中の末尾以外の変換候
補の文字列から予め定められた並びの複数組の文字列以
外の変換候補への経路の接続、を禁止する制御手段とを
具えたことを特徴とする。
処理装置おいて、複数組の文字列およびその連鎖の確率
の値および該確率の値に対する当該文字列の組数に応じ
た補正係数の値を記載した確率表を有し、経路の接続を
禁止する文字列の組み合わせについては、その組み合わ
せの内容に応じて前記確率の値または補正係数の値を0
(ゼロ)となすことを特徴とする。
処理装置において、文字列の特徴およびその特徴に対応
する変換候補の文字列を記載した単語辞書をさらに有
し、該単語辞書に記載する文字列の中に、前記予め定め
た並びの文字列の中に含まれる文字列を識別符号を付し
て含めておくことを特徴とする。
処理装置において、文書を入力する手段と、当該入力さ
れた文書の中に含まれる文字列をその種類ごとに計数し
て、前記確率表を作成する手段をさらに具えたことを特
徴とする。
処理装置において、前記予め定められた並びの複数組の
文字列を指定する手段をさらに具え、当該指定された文
字列の組み合わせについては前記確率表中の各文字列に
請求項3に記載の識別符号と同じ識別符号が付されるこ
とを特徴とする。
の特徴を該特徴を表す文字列に変換するために、言語処
理装置により、前記複数組の文字列の各々についての変
換候補をネットワークの形態で接続し、該ネットワーク
上の同一経路上で隣接する変換候補の連鎖の確率の値を
求め、前記ネットワークの各経路の確率の値の中で、最
も値が高い経路上の変換候補の列を前記複数組の文字列
の特徴に対する変換結果とする言語処理方法において、
前記言語処理装置の実行処理ステップは、予め定められ
た並びの複数組の文字列が前記ネットワーク上の経路に
現れるか否かを判定する判定ステップと、肯定判定が得
られた場合には、予め定められた並びの複数組の文字列
以外の変換候補から予め定められた並びの複数組の文字
列の中の先頭以外の変換候補の文字列への経路の接続、
および予め定められた並びの複数組の文字列の中の末尾
以外の変換候補の文字列から予め定められた並びの複数
組の文字列以外の変換候補への経路の接続、を禁止する
制御ステップとを具えたことを特徴とする。
処理方法おいて、複数組の文字列およびその連鎖の確率
の値および該確率の値に対する当該文字列の組数に応じ
た補正係数の値を記載した確率表を有し、経路の接続を
禁止する文字列の組み合わせについては、その組み合わ
せの内容に応じて前記確率の値または補正係数の値を0
(ゼロ)となすことを特徴とする。
処理方法において、前記言語処理装置は文字列の特徴お
よびその特徴に対応する変換候補の文字列を記載した単
語辞書をさらに有し、該単語辞書に記載する文字列の中
に、前記予め定めた並びの文字列の中に含まれる文字列
を識別符号を付して含めておくことを特徴とする。
処理方法において、文書を入力するステップと、当該入
力された文書の中に含まれる文字列をその種類ごとに計
数して、前記確率表を作成するステップをさらに具えた
ことを特徴とする。
語処理方法において、前記予め定められた並びの複数組
の文字列を指定するステップをさらに具え、当該指定さ
れた文字列の組み合わせについては前記確率表中の各文
字列に請求項8に記載の識別符号と同じ識別符号が付さ
れることを特徴とする。
施形態を詳細に説明する。
説明したように、統計的言語モデルでは広い範囲の言語
表現を扱えるが、特定のタスク用途に用いるのは難し
い。記述文法は、システム設計者が扱える言語表現を自
由に記述することで、特定のタスク用途の言語モデルを
容易に獲得することができるが、広い範囲の言語表現や
大語彙に対応するのが難しい。
た言語モデルをN−gramで表現し、統計的手法によ
るN−gramモデルと統合する。
言語モデルを、bi−gram(2つの単語の連鎖)で
表現する。正規文法(ネットワーク文法)は、単語連接
が可能な場合は確率値p(>0)で、単語連接が不可能
な場合は確率値0としたbi−gramで表現すること
ができる(詳細は、APPENDIXに記述する。)。
また、文脈自由文法は、正規文法に近似するアルゴリズ
ムが知られているので(F.C.N.Pereiraa
nd R.R.Wright.Finite−stat
e approximation of phrase
−structure grammars.In Pr
oc.of ACL 1991,pp.246−25
5,1991)、正規文法に近似したあと同様の手法b
i−gram表現に変換することが可能である。
法を、新聞記事などから学習した統計的手法によるN−
gramモデルとどのように統合し、統合N−gram
を作成する。その手順は、以下に説明する。音声認識装
置は、 (1)記述文法部分の頻度情報を獲得する。 (2)獲得した頻度情報を用いて確率を学習する。 (3)作成した言語モデルを用いて音声認識を実行す
る。 の処理を実行する。
てネットワーク文法を作成する。もしN−gram語彙
に含まれない単語を使用する場合は、N−gramの未
知語に対応づける。(例えば、日本語ディクテーション
基本ソフトウェア(鹿野清宏,伊藤克亘,河原達也,武
田一哉,山本幹雄(編).音声認識システム.オーム
社,2001)の言語モデルは、2万語と6万語のもの
があり、特殊な固有名詞を使わない限り、ネットワーク
文法を記述するには十分である。)
内単語と区別して、それぞれ開始時、終了時のみ到達可
能とするようにネットワークを構成する。これには、開
始単語と終了単語のために、他の単語と区別する特別な
単語記号を用意すればよい。すなわちネットワーク内単
語集合WGは、互いに共通部分のない、開始単語集合
WG s、終了単語集合WGf、中間に現れる単語集合WGmから
構成されるとする。また、ネットワーク文法の単語は、
元のN−gramの同じ単語と区別するために、別の単
語記号を割り当てる。ここでは、N−gram中の単語
wに対して、ネットワーク文法の単語を、記号”@”を
付けて@wと表すことにする。
の単語w∈WUと、ネットワーク文法からの単語WG(=WGs
∪WGm∪WGf)から構成される。(WU∩WG=Φ)
単語列頻度と低次の単語列頻度が無矛盾なので、高次の
単語列頻度から低次の単語列頻度を求めることができ
る。しかし、ここでは、部分的に頻度情報を与えるた
め、高次の単語列頻度から低次の単語列頻度を求めるこ
とができない。そこで、以下では各単語長ごとに頻度C
を与えて表すことにする。
度を与える(図1)。ここでは、現在もっともよく用い
られているtri−gram(N=3)の場合について
説明する。一般のNの場合でも同様に求めることができ
る。
よび(@wj,@wk)に対し、対応するN−gramモデ
ル中の単語対(wi,wj)の頻度を与える。
(@wi,@wj)が存在する可能性があるため、ディスカ
ウンティングを行う必要がある。一方、開始単語@wsを
除いて単単語頻度を0とする。
単語列頻度 ネットワーク文法の開始単語@ws∈WGsに対し、対応す
る単語wsの頻度を用いて、次のような頻度を与える。
対応するN−gramモデルでの単語列に対する相対的
な優先度を表す。1以上の値を与え、大きな値を与える
ほど、ネットワーク文法の表現が優先的に考慮される。
後で述べるように、γ=1としても、ネットワーク文法
の表現は優先的に扱われるようになる。
らN−gramへの単語列頻度も、同様に与える。ただ
し、@wfの単単語頻度は0とする。δは、γと同様、ネ
ットワーク文法の表す単語列の、対応するN−gram
モデルでの単語列に対する相対的な優先度を表す。
バックオフスムージングが行われたN−gramは、次
の再帰式で表される。
合、各長さnの頻度情報は無矛盾であるので、目的のN
−gramの長さNの頻度情報だけを与えれば良い。よ
り短いn(<N)の頻度は、Nの頻度から一意に計算可
能である。
合、頻度情報の各長さnで整合性がなくなる。そのた
め、各長さn毎の頻度情報が必要となる。また、N−g
ramモデルの確率計算方法の修正が必要となる。
いて、長さnの頻度
算、(b)n−gram確率計算の二通りに使用され
る。学習データだけから獲得した(完全な)頻度情報を
使う場合は、(a)と(b)のどちらの計算にも同じ長
さnの頻度情報を用いることができる。一方、部分的な
頻度情報を用いる場合は、同じn頻度情報を用いると、
正しい確率計算ができない。
要な場合は、従来法のn頻度をコンテキストn頻度に置
き換えて計算する。例えば、witten−bell法
(P.Placeway,R.Schwartz,P.
FungandL.Nguyen.TheEstima
tion of Powerful Lnaguage
Models from Small and La
rge Corpora.In Porc.of IC
ASSP,Vol.II,pp.33−36,199
3.)の場合は、
M.Katz.Estimationof proba
bilities from sparse data
for language model compo
nent of a speech recogniz
er.IEEETrans.ASSP,Vol.35,
pp.400−401,1987)では、長さn+1の
頻度情報
る。
は、再帰的に、長さn−1のコンテキスト頻度
の式で計算される。
wk)とbi−gram頻度C(wi,wj)が、 ・式(3)の中でbi−gram頻度C(wi,wj)とu
ni−gram頻度C(wi)が、 ・式(4)の中でuni−gram頻度C(wi)が、そ
れぞれ計算に使用される。
wk)とそのコンテキスト頻度Cc(wi,wj)が、 ・式(3)の中でbi−gram頻度C(wi,wj)とそ
のコンテキスト頻度Cc(wi)が、 ・式(4)の中でuni−gram頻度C(wi)が、そ
れぞれ計算に使用される。
で、既存のN−gramモデルを簡単に改善することが
可能になる。例えば、tri−gramモデルにおい
て、ある単語woを優先的に認識したい場合、元の頻度情
報Cに部分頻度情報を加えた、次のような頻度情報C’か
ら確率を学習する。
のみβ倍し、他の頻度はそのままとする。
先したり、単語列の集合(単語ネットワーク)を優先す
るように、部分頻度情報を与えることができる。
を操作することは、従来法のように学習データだけの変
更だけで対処するのは非常に難しいことに注意された
い。例えば、上記の単語woを優先する場合、学習データ
に単語woだけを加えた場合、単語woだけから構成される
文を学習してしまい、文中に現れる単語woだけを優先す
ることにはならない。そのためには文中にwoを含む学習
データを用意する必要があるが、その場合もwo以外の文
脈も学習されてしまうという問題がある上、wo以外の文
脈を含む学習データを用意する必要がありコスト面でも
問題が生じる。提案法では、簡単に、目的の単語(列)
の確率だけを、直接制御することが可能である。
文法によるモデルの2種の異なる性質を持つモデルの学
習統合モデルのうち、ネットワーク文法を表す部分では
二値的な制約を、それ以外の部分では通常のN−gra
mの性質を持ったモデルを学習するため、各部分に応じ
て異なる計算方法を適用してモデルを作成する。
くネットワーク文法中の単語wn∈WG m∪WGfを予測する確
率PA(タイプA)と、N−gram内の単語とネットワ
ーク開始単語wj∈WU∪WGsを予測する確率PB(タイプ
B)で、異なるバックオフスムージングの計算を行う。
なわないで求める。すなわち、式1(数7)の再帰式の
うち、bi−gram確率を計算する式を次のように計
算する。
は、
キストを構成する単語は@wi∈WGs∪WGmとなっている点
に注意されたい。
って求める。ただし、uni−gram確率のディスカ
ウントの際、WU∪WGsを全単語集合とみなしてuni−
gramの再配分を行なうことに注意する。
モデルの持つ性質以上の方法で作成した統合言語モデル
は、例えばARPA形式などの、従来のN−gramモ
デルと同じフォーマットで表現できる。そのため、N−
gramを言語モデルとして利用する既存の音声認識デ
コーダでそのまま利用できる。そして以下に示すよう
に、N−gramとネットワーク文法の両方の性質を併
せ持ったモデルとして利用できる。
の単語を予測する確率は必ず0となる。開始単語を除く
Network内単語@wk∈WGm∪WGfの予測モデルのun
i−gramは0となる。Network内単語で、か
つN−gram(N>0)確率の存在する(有向弧の存
在する)単語からのみ予測可能となる。N−gram内
単語wi∈WUからのN−gram確率は、N−gram
(N>0)が存在しないのでuni−gramにバック
オフされるが、
単語を予測する確率は必ず0となる。終了単語を除くネ
ットワーク内単語@wi∈WGs∪WGmに対し、bi−gra
m確率のα(@wi)=0となる。ネットワーク内単語@
wiからN−gram内単語wjへの頻度C(@wi,wj)は
必ず0なので、
い。
ではN−gramとの連接が可能。N−gram内単語
からネットワーク開始単語、およびネットワーク終了単
語からN−gram内単語は、通常のN−gramモデ
ルと同様のスムージングされた確率値が割り当てられ
る。したがって、全てのN−gram内単語からネット
ワーク文法開始単語への遷移、文法終了単語から全ての
N−gram内単語への遷移が可能である。
に割り当てられる確率値の順序関係は保存される。N−
gram内単語列に与える頻度は、元のN−gramモ
デル学習用の頻度と同じである。
る単語列が優先される。ネットワーク文法内単語列を含
む文には、それに対応する(同じ音素列を持つ)N−g
ram内単語だけで構成された文が必ず存在する。既存
の認識デコーダは、文の確率をパスの最大確率で近似す
る方法(ビタビ・アルゴリズム)が普通であるので、認
識時には両者の確率値を比較し、高い方が採用されるこ
とになる。両者のbi−gram確率は同じ頻度から学
習されているが、ネットワーク文法内単語列は、連接し
ない単語(特にネットワーク外の単語)を予測するため
の確率配分がないこと、バックオフを行わないで学習し
たモデルであること、から相対的に高い確率値が割り当
てられることになる。また、ネットワーク文法開始単語
への単語列頻度をγ(およびδ)で調節することで、N
−gramに対する優先性をコントロールすることがで
きる。
率的な音声認識処理方法 本実施形態の言語モデルの性質を利用して音声認識器の
計算方法を工夫することで、効率的な音声認識処理が可
能である。大語彙音声認識器では、音声入力順(あるい
は逆順)に単語仮説との照合を逐次的に行う。ある単語
仮説との照合が終了すると、その次の単語仮説を生成し
て、再び照合を開始する(図5参照)。N−gram言
語モデルでは、すべての単語間で連接可能であるから、
全単語を仮説として生成するのが普通である。
ワーク文法内とN−gram内との間で互いの予測確率
が0となる事実を利用して、仮説の生成を抑制する(図
6)。
除くNetwork内単語wi∈WGs∪WGmである場合、次
の単語は、wj∈WGm∪WGfである(それ以外の単語への言
語モデル確率は0である)。よって、wj∈WGm∪WGfだけ
を単語仮説として生成すれば良い。
Gfである場合、次の単語は、wj∈WU∪WGsである(それ
以外の単語への言語モデル確率は0である)。よって、
wj∈W U∪WGsだけを単語仮説として生成すれば良い。
利用すれば、認識した単語の属する集合に応じて展開す
る単語集合を限定することで、単語仮説の数を従来法よ
り減少させることが可能であり、結果として効率の良い
音声認識処理が可能となる。
平博順,廣田啓一,賀沢秀人,平尾努,中島浩之,加藤
恒昭.質問応答システムの比較と評価.信学技報,NL
C2000−24,pp.17−24,2000)は、
1999年のTREC−8にタスクとして採択されて以
来、次世代の情報検索技術を目指した評価タスクとして
注目されている。従来の情報検索タスクも音声入力に対
応するように拡張されてきたが(伊藤克亘,秋葉友良,
藤井敦,石川徹也.音声入力型テキスト検索システムの
ための音声認識.日本音響学会講演論文集,pp.19
3−194,Oct.2001)、質問応答では入力が
質問文というより話し言葉に近い表現が使用されること
から、より音声入力に適したタスクであると考えられ
る。
発話は、質問文という定型的な表現となる一方、QAの
検索対象に関する多様な表現が使用される。そのため音
声認識部では、これら性質の異なる2種の表現を同時に
扱う言語モデルが必要となる。例として、QAタスクの
入力には、答えを得るための次のような質問文が想定さ
れる。
か」の部分は質問文に典型的に現れるパターンであり、
ネットワーク文法でモデル化することができる。一方、
「1976年に火星に軟着陸した探査機は」の部分は汎
用のN−gramモデルで扱うことができる。
受理可能なネットワーク文法(図7)を作成し、新聞記
事111か月分から学習した2万語bi−gramおよ
びtri−gramと統合、ネットワーク文法統合モデ
ル(net)を作成した。γは2とした。また比較のた
め、新聞記事のみから学習したN−gramモデル(b
ase)を作成した。スムージング手法は、共にWitten
-Bell法を用いた。
P)とQAタスク用質問文50文(QA)を、男性2人
女性2人によって読み上げた音声データを用いた。作成
したネットワーク文法は、29単語と比較的小規模のも
のであるが、質問文のうち72%の36文(QA’)
が、この文法のモデル化する表現を含んでいた。
lius(鹿野清宏,伊藤克亘,河原達也,武田一哉,
山本幹雄(編).音声認識システム.オーム社,200
1)のバージョン3.2を使用し、音響モデルには20
00状態16混合性別非依存triphoneを、言語
モデル重みは新聞記事N−gramでの最適値を用い
た。探索アルゴリズムの変更は行っていない。
度を下げること無く、質問文の精度が向上することを確
認した。
正解精度(%)
−gramは、単語を頂点とし、全ての単語間の有向弧
に確率が付与された、重み付き(ループのある)完全有
向グラフと見ることができる。この時、有向弧のbi−
gram確率が0である場合、その単語連続があり得な
いことを表すため、弧が存在しないことと等価である。
したがって、単語を頂点として表現した任意のネットワ
ーク文法から、有向弧が存在する場合は0でない確率値
を、有向弧が存在しない場合は確率0を割り当て、単語
bi−gramで表現することが可能となる。もしネッ
トワーク文法中で、ある単語から入出力する有向弧を、
文脈に応じて変えたいのであれば、文脈の数だけ同じ単
語を表す頂点を複製して表現すればよい。
れたネットワーク文法は、例文の集合から簡単に獲得可
能である。例えば、年月日を尋ねる発話を表した以下の
例文から文法を獲得することを考える。
である。 A={(何,年)(何,月)(何,日)(年,何)
(月,何)(年,です)(月,です)(日,です)(で
す,か)}
と、ネットワーク文法(G1)は4つ組(Wa,Ws,Wf,A)で
表現できる。ここで、Wa,Ws,Wfは、それぞれ、全単語集
合、開始単語集合、終了単語集合であり、 Wa={何年月日ですか}, Ws={何},Wf={か} となる。G1のグラフ表現を図8左に示す。
を満たすbi−gramとして表現できる。
すか」「何年何日ですか」のような、意図されない言語
表現までモデル化してしまう。そこで、文法作成者の持
つ言語知識を利用して、好ましくない表現を排除し、図
8右のようなネットワーク文法G2に修正することを考え
る。新たに導入したノード(文脈)毎に、新たな単語記
号を導入して、次のような文法
ですか」のような、作成者の意図する表現だけを受理
し、それ以外を排除する。このように、ネットワーク文
法では、人の持つ言語知識を利用して、N−gramで
は獲得不可能な、単語間の長距離の依存関係も表現する
ことが可能である。
処理方法を適用した言語処理装置について、説明する。
言語処理装置のハードウェアは市販のパソコン等、周知
の情報処理機能を有するものを使用することができるの
で、ハードウェア構成については詳細な説明を省略す
る。
成を図9に示す。図9において、10は音声認識プログ
ラムであり、マイクロホンから入力された音声信号をそ
の音声信号の示す文字列に変換して表示器等に出力す
る。音声認識プログラムの中に本発明に係わる言語処理
方法を適用したプログラムが組み込まれている。このプ
ログラムの内容については、図12を使用して説明す
る。
る確率表である。この確率表は複数組の文字列およびそ
の連鎖の確率の値および該確率の値に対する当該文字列
の組数に応じた補正係数の値が記載されており、経路の
接続を禁止する文字列の組み合わせについては、その組
み合わせの内容に応じて前記確率の値または補正係数の
値を0(ゼロ)となっている。このようにすることで、
経路の接続を禁止する必要のある単語の間の確率を0と
することが可能となる。
に使用する単語辞書である。20は、確率表11を作成
するためのプログラムである。
の内容を図10(A)〜(D)に示す。確率表は、3組
の文字列(以下、単に単語と略記する。ただし単語の概
念には1文字の文字列も含まれる)用の確率表(図10
(A)、2組の単語用の確率表(図10(B))、1組
の単語用の確率表が用意されている。1組の単語用の確
率表は統計的確率モデル用(識別符号が付加されていな
い文字列用、図10(C))と本発明で言う予め定めら
れた並びの文字列の中に含まれる文字列のみを記載し
た、いわゆる記述文法の確率のモデル用(図10
(D))の2種類がある。予め定められた並びの文字
列、すなわち記述文法に沿った文字列を検出すべき言語
パターンと呼ぶことにする。
る文字列には、検出すべき言語パターンの中に含まれる
単語を許容している。検出すべき言語パターンの中に含
まれる単語についてはそのことを示す@の識別符号が付
されている。@はさらに他の単語が接続可能な位置をも
示す。単語の前に@が付されている場合には、その単語
の前に@が後に付された他の単語が接続可能であること
を示す。単語の後に@が付されている場合にはその単語
の後に@が前に付された他の単語が接続可能であること
を示す。言語パターンの先頭単語は、その単語の後のみ
に@が付され、言語パターン末尾単語はその単語の前に
のみ@が付される。
計的言語モデル(確率表の)の中に検出すべき言語パタ
ーンの単語の組み合わせを混在させ、これらの単語につ
いては識別符号を付して、統計的言語モデルの単語と区
別可能としたことに新規特徴がある。
には、単語と確率の値と、補正係数の値とが記載され
る。補正係数は上述の言語処理方法の説明の中の正規化
係数のことである。補正係数を設けること自体は従来か
ら周知であるが、1組用の単語の確率表(図10
(D))を設けることおよびその確率の値および補正係
数の値を、他の単語との組み合わせ内容に応じて補正係
数または確率の値を0(ゼロ)とすることに新規特徴が
ある。より具体的には、@単語(言語パターンの末尾単
語)については確率の値が0に設定されている。@単語
@(言語パターン途中の単語)については補正係数およ
び確率の値が0に設定されている。単語@(言語パター
ンの先頭単語)については補正係数が0に設定されてい
る。このような値を設定することにより、言語処理おけ
る処理対象の単語の連鎖確率は、@単語@で接続される
単語の連鎖の確率は正の値を持ち、@を有さない単語と
@単語@との連鎖の確率の値は0となる。これにより、
検出すべき言語パターンの中の先頭および末尾の単語を
除く、単語、統計的確率モデルの単語とのネットワーク
上の経路の接続が禁止される。具体的な言語処理プロセ
スについては後で説明する。
辞書12には、音声信号から抽出される音声の特徴とそ
の特徴に対応する文字列が記載されている。上記検出す
べき言語パターンに含まれる単語については、上述した
@の識別符号がやはり付されている。
音響特徴を使用してもよいし、音響特徴から得られる音
韻ラベルを使用してもよい。いずれの特徴を使用するか
は音声認識方法の種類に応じて適宜定めればよい。
を使用する言語処理を次に説明する。
載された確率表作成プログラム20を起動して次の処理
をパソコンのCPUに実行させる。
る。文書ファイルの入力は外部記憶装置(フロッピー
(登録商標)ディスク、ハードディスク、CD-ROM等)か
らの読み取り、通信による他の装置からの転送、キーボ
ードによる文字入力のいずれの入力方法を使用してもよ
い。
えば、図7で示される言語パターンを構成する文字列を
キーボードから、あるいは言語パターン記録した外部記
憶装置や通信による他の装置からの転送によって、指示
する。処理2で指定された単語については、言語パター
ンの位置に基づいて@の識別符号を付した単語を作成す
る。
隣接する3つの単語の出現頻度、2つの出現頻度、1つ
の単語の出現頻度を計数する。
により確率の値および補正係数(1および2単語用)を
取得する。
係数および組み合わせの単語を使用して図10(A)〜
(D)の確率表をパソコンのハードディスク上に作成す
る。
っとも純粋な実施形態として、(1)音響信号から音韻
ラベル候補を抽出、(2)音韻ラベル候補から単語列候
補(単語ネットワーク)を作成、(3)単語ネットワー
クから言語処理により認識結果(単語列)を作成、の順
に処理を進めるものとして説明を行う。実際は、このよ
うな純粋な実施形態は非常に処理効率が悪いので、
(1)(2)(3)の処理を同時・並行・混合して認識
を行う様々な効率化手法(鹿野清宏、伊藤克亘、河原達
也、武田一哉、山本幹雄 編著、音声認識システム、オ
ーム社、2001)が実施される。それらの様々な効率
化のための変形手法が特許請求の範囲の記載の示す技術
に基づく限り、その変形は本発明の技術範囲内となる。
載された音声認識プログラム10をパソコンのCPUに
実行させる。音声認識プログラム10は従来と同様の処
理を行って、マイクロホンから入力された音声を音声特
徴に変換する。たとえば、「1976年に火星に軟着陸
した探査機は何という名前でしたか」という音声が入力
されたとする。ここで、「何という名前でしたか」が予
めパソコンに登録されている言語パターンであり、確率
表11および単語辞書12にはこの言語パターンに含ま
れる単語が@の識別符号を付して登録されているものと
する。
声特徴を音素ラベルとすると、上記音声は"silB s e N
ky u: hy a k u n a n a j u: r o k u n e N n i k a
s ei n i n a N ch a k u r i k u sh i t a t a N s a
k i h a n a N t o i u na m a e d e sh i t a k a s
ilE"のような音素ラベル列候補に変換される。silB, si
lEは、発話区間の開始、終了の無音を表す、特別な音素
ラベルである。このとき、音素照合処理の曖昧性のた
め、音響的に類似した非常に数多くの候補が生成され
る。例えば、上記候補以外にも"silB s e i ky u: ch
u: n o ... n a ma e n i sh i t a k a silE"のような
候補が得られる。各候補には、得られた音素ラベル列と
入力音声信号とがどれだけ照合しているかを表す音響モ
デル確率が付与されている。
照し、すべての音素ラベルを洩れなく単語へ変換するこ
とにより、単語列へと変換される。例えば、上記最初の
音素ラベル列は、「<s> 千 九百 七十 六 年 に 火星
に 軟着陸 した 探査機 は 何@ @という@ @名前@ @でし
@ @た@ @か </s>」のように変換される。ただし、記号"
<s>"および"</s>"は、それぞれ文頭、文末を表す特別な
単語記号である。このような変換をすべての音素ラベル
列候補に対して実行することにより、数多くの単語列候
補が生成される。このような複数の単語列候補は、単語
の共通部分を共有してネットワークの形状で表現するこ
とにより、図13のような単語ネットワークで表現する
ことができる。すなわち、単語ネットワーク上の一つの
経路が、上記一つの単語列候補に相当する。音声認識の
目的は、上記音響モデル確率と以下に述べる言語モデル
確率の観点から、尤も確率の大きな経路を見つけ、その
文字列を認識結果として出力することにある。
る際、予め登録してある言語パターン内の単語は図12
のように辞書の記載された単語に@が付されている。そ
のため、単語ネットワーク上では、予め登録してある言
語パターン内の単語は@が付されている点に留意された
い。
次に音声認識プログラム中の図12の処理プログラムが実
行されて、ネットワーク上の経路の累積確率値(言語モ
デル確率)が取得される。以下では、トライグラム(t
ri−gram)の場合を説明する。
単語連鎖の確率値を確率表11から取得する。例えば、上
記単語列の例では、(_,_,<s>)(_,<s>,千)(<s>,千,九百)
(千,九百,七十) ... (@でし@,@た@,@か)(@た@,@か,</s
>)の3単語連鎖から各確率値を求め、すべての値の積を
計算する。ただし、"_"は文頭の確率値を計算するため
の(確率表や辞書には記載されていない)ダミーの単語記
号である。確率値は、表11を参照し、以下に述べるよ
うな従来のバックオフ言語モデルの処理方法と全く同じ
方法で処理できる。
し、確率値を求める手順は以下の通りである(図12を
参照)。取得した3つの単語の組合せが単語辞書11の
中の3単語用確率表(図10(A))で最初に参照され
る。3単語用確率表に3つの単語の組合せが記載されて
いる場合にはその確率の値を取得する。(ステップS3
0→S35)
が記載されていない場合には、次にまず3単語の前2単
語の組合せ(w1,w2)から補正係数の値を2単語用確率表
(図10(B))から取得する。この補正係数の値と以
降の処理で得られた確率値と掛け合わせた値を3単語の
確率値とする。
3)が2単語用確率表(図10(B))で参照される。2
単語の組み合わせが記載されている場合にはその確率の
値を取得する。(そして、前期の補正係数と掛け合わせ
た値を確率値とする。)(ステップS50→S55)
が記載されていない場合には、次に2単語の前1単語
(最初の3単語の中央の単語)から補正係数の値を1単
語確率表(図10(C)および(D))から取得する。
この補正係数の値を(前期の補正係数に加えて)さらに以
降の処理で得られた確率値と掛け合わせた値を3単語の
確率値とする。この時単語の後ろに@のついた単語
(「単語@」および「@単語@」)の補正値は、図10
に示した確率表を用いることにより、0となる。
単語用確率表(図10(C)および(D))で参照され
る。記載されている場合には、その確率の値を取得す
る。(先に求めた2つの補正値を掛け合わせる。)(ス
テップS70→S75)この時、単語の前に@のついた
単語(「@単語」および「@単語@」)の確率値は、図
10に示した確率表を用いることにより、0となる。記
載がない場合は、あらかじめ計算した定数P0を確率値
として取得する。(ステップS70→S80)
経路について連鎖の確率の値および累積値が計算される
と、最も累積値の値が高い経路上の単語列が音声認識結
果として決定される。
10に示した確率表を用いることにより、予め登録した
言語パターンの中の途中の単語(@単語@)については1単
語用の確率表の確率の値および補正係数の値を0に設定
しておくことにより、この単語への他の単語からの経路
およびこの単語から他の単語への経路の接続が、3単語
確率表か2単語確率表に記載されていない場合、禁止さ
れた扱いとなる。言語パターンの先頭単語(単語@)につ
いては1単語用の確率表の補正係数の値を0に設定して
おくことにより、この単語から他の単語への経路の接続
が、3単語確率表か2単語確率表に記載されていない場
合、禁止された扱いとなる。言語パターンの末尾単語(@
単語)については1単語用の確率表の確率の値を0に設
定しておくことにより、この単語への他の単語からの経
路の接続が、3単語確率表か2単語確率表に記載されて
いない場合、禁止された扱いとなる。これにより、予め
登録した言語パターンと同じ言語パターンが音声の中に
含まれている場合、正しくその言語パターンを検出する
ことができる。
できる。 1)上述の言語処理方法は音声認識処理に適用される例
であったが,OCRで読み取った文字画像列を文字コー
ドに変換する文字認識など、文字の特徴を文字(コー
ド)に変換する種々の言語処理に本発明を適用すること
ができる。 2)上述の形態では、識別符号を有する1単語用確率表
の確率の値または補正係数の値を0に設定することで、
予め登録した言語パターンの先頭単語、途中の単語、最
後尾の単語に対する他の単語からの経路の接続を制限し
ているが、@(識別符号)の付加位置に基づいて経路の
接続を制限してもよい。この場合にはネットワークの構
築時に、単語辞書から得られる音声特徴の変換候補(単
語)に識別符号が付してあるか否かを判定し、付してあ
る場合には識別符号の位置に応じて他の単語の接続との
接続を禁止してもよい。これにより登録の言語パターン
の先頭語は他の単語からの経路の接続が許容され、末尾
語は他の単語への経路の接続が許容される。 3)音声認識結果を表示や印刷出力する際に登録された
言語パターンが含まれている場合には、その言語パター
ンを報知することができる。この場合、言語パターンに
は@符号が付加されているので@符号をそのまま出力し
てもよいし、@符号を除去して、アンダーライン、異な
る色、ボールド体等で上記言語パターンの単語を報知す
ればよい。また、識別符号には他の記号を使用してもよ
い。
られる。しかしながら、それらの変形が特許請求の範囲
の記載の示す技術思想に基づく限り、その変形は本発明
の技術範囲内となる。
ば、予め定めた並びの文字列(実施形態の登録の言語パ
ターン)がネットワークに変換候補として現れる場合に
は、これらの文字列の先頭および末尾を除いた途中の文
字列と登録の言語パターン以外の単語文字列との間の経
路の接続が禁止される。これにより、従来の統計的言語
モデルの言語処理を行っても、記述文法的な確率モデル
の言語処理の併用が可能となる。また、従来の統計的言
語モデルのみの言語処理に比べると、登録の言語処理パ
ターンに対する部分の変換処理の精度が著しく向上す
る。
識別符号が付されるので、この識別符号を使用して、特
徴から文字列への変換結果の中で報知が可能となる。
ある。
図である。
を示す説明図である。
である。
る。
ク図である。
ログラムの内容を示すフローチャートである。
図である。
Claims (10)
- 【請求項1】 複数組の文字列の各々の特徴を該特徴を
表す文字列に変換するために、前記複数組の文字列の各
々についての変換候補をネットワークの形態で接続し、
該ネットワーク上の同一経路上で隣接する変換候補の連
鎖の確率の値を求め、前記ネットワークの各経路の確率
の値の中で、最も値が高い経路上の変換候補の列を前記
複数組の文字列の特徴に対する変換結果とする言語処理
装置において、 予め定められた並びの複数組の文字列が前記ネットワー
ク上の経路に現れるか否かを判定する判定手段と、 肯定判定が得られた場合には、予め定められた並びの複
数組の文字列以外の変換候補から予め定められた並びの
複数組の文字列の中の先頭以外の変換候補の文字列への
経路の接続、および予め定められた並びの複数組の文字
列の中の末尾以外の変換候補の文字列から予め定められ
た並びの複数組の文字列以外の変換候補への経路の接
続、を禁止する制御手段とを具えたことを特徴とする言
語処理装置。 - 【請求項2】 請求項1に記載の言語処理装置におい
て、複数組の文字列およびその連鎖の確率の値および該
確率の値に対する当該文字列の組数に応じた補正係数の
値を記載した確率表を有し、経路の接続を禁止する文字
列の組み合わせについては、その組み合わせの内容に応
じて前記確率の値または補正係数の値を0(ゼロ)とな
すことを特徴とする言語処理装置。 - 【請求項3】 請求項2に記載の言語処理装置におい
て、文字列の特徴およびその特徴に対応する変換候補の
文字列を記載した単語辞書をさらに有し、該単語辞書に
記載する文字列の中に、前記予め定めた並びの文字列の
中に含まれる文字列を識別符号を付して含めておくこと
を特徴とする言語処理装置。 - 【請求項4】 請求項2に記載の言語処理装置におい
て、文書を入力する手段と、当該入力された文書の中に
含まれる文字列をその種類ごとに計数して、前記確率表
を作成する手段をさらに具えたことを特徴とする言語処
理装置。 - 【請求項5】 請求項4に記載の言語処理装置におい
て、前記予め定められた並びの複数組の文字列を指定す
る手段をさらに具え、当該指定された文字列の組み合わ
せについては前記確率表中の各文字列に請求項3に記載
の識別符号と同じ識別符号が付されることを特徴とする
言語処理装置。 - 【請求項6】 複数組の文字列の各々の特徴を該特徴を
表す文字列に変換するために、言語処理装置により、前
記複数組の文字列の各々についての変換候補をネットワ
ークの形態で接続し、該ネットワーク上の同一経路上で
隣接する変換候補の連鎖の確率の値を求め、前記ネット
ワークの各経路の確率の値の中で、最も値が高い経路上
の変換候補の列を前記複数組の文字列の特徴に対する変
換結果とする言語処理方法において、前記言語処理装置
の実行処理ステップは、 予め定められた並びの複数組の文字列が前記ネットワー
ク上の経路に現れるか否かを判定する判定ステップと、 肯定判定が得られた場合には、予め定められた並びの複
数組の文字列以外の変換候補から予め定められた並びの
複数組の文字列の中の先頭以外の変換候補の文字列への
経路の接続、および予め定められた並びの複数組の文字
列の中の末尾以外の変換候補の文字列から予め定められ
た並びの複数組の文字列以外の変換候補への経路の接
続、を禁止する制御ステップとを具えたことを特徴とす
る言語処理方法。 - 【請求項7】 請求項6に記載の言語処理方法おいて、
複数組の文字列およびその連鎖の確率の値および該確率
の値に対する当該文字列の組数に応じた補正係数の値を
記載した確率表を有し、経路の接続を禁止する文字列の
組み合わせについては、その組み合わせの内容に応じて
前記確率の値または補正係数の値を0(ゼロ)となすこ
とを特徴とする言語処理方法。 - 【請求項8】 請求項7に記載の言語処理方法におい
て、前記言語処理装置は文字列の特徴およびその特徴に
対応する変換候補の文字列を記載した単語辞書をさらに
有し、該単語辞書に記載する文字列の中に、前記予め定
めた並びの文字列の中に含まれる文字列を識別符号を付
して含めておくことを特徴とする言語処理方法。 - 【請求項9】 請求項7に記載の言語処理方法におい
て、文書を入力するステップと、当該入力された文書の
中に含まれる文字列をその種類ごとに計数して、前記確
率表を作成するステップをさらに具えたことを特徴とす
る言語処理方法。 - 【請求項10】 請求項9に記載の言語処理方法におい
て、前記予め定められた並びの複数組の文字列を指定す
るステップをさらに具え、当該指定された文字列の組み
合わせについては前記確率表中の各文字列に請求項8に
記載の識別符号と同じ識別符号が付されることを特徴と
する言語処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002071625A JP3950957B2 (ja) | 2002-03-15 | 2002-03-15 | 言語処理装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002071625A JP3950957B2 (ja) | 2002-03-15 | 2002-03-15 | 言語処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003271188A true JP2003271188A (ja) | 2003-09-25 |
JP3950957B2 JP3950957B2 (ja) | 2007-08-01 |
Family
ID=29201854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002071625A Expired - Lifetime JP3950957B2 (ja) | 2002-03-15 | 2002-03-15 | 言語処理装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3950957B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006097975A1 (ja) * | 2005-03-11 | 2008-08-21 | 岐阜サービス株式会社 | 音声認識プログラム |
JP2010078877A (ja) * | 2008-09-25 | 2010-04-08 | Pioneer Electronic Corp | 音声認識装置、音声認識方法及び音声認識プログラム |
JP2010522938A (ja) * | 2007-03-26 | 2010-07-08 | グーグル・インコーポレーテッド | 機械翻訳における大規模言語モデル |
JP2010224029A (ja) * | 2009-03-19 | 2010-10-07 | Ntt Docomo Inc | 言語モデル特定装置、言語モデル特定方法、音響モデル特定装置、および音響モデル特定方法 |
JP2011191752A (ja) * | 2010-02-16 | 2011-09-29 | Gifu Service Kk | 音声認識用文法作成支援プログラム |
WO2012165529A1 (ja) * | 2011-06-03 | 2012-12-06 | 日本電気株式会社 | 言語モデル構築支援装置、方法及びプログラム |
-
2002
- 2002-03-15 JP JP2002071625A patent/JP3950957B2/ja not_active Expired - Lifetime
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006097975A1 (ja) * | 2005-03-11 | 2008-08-21 | 岐阜サービス株式会社 | 音声認識プログラム |
JP4516112B2 (ja) * | 2005-03-11 | 2010-08-04 | 岐阜サービス株式会社 | 音声認識プログラム |
JP2010522938A (ja) * | 2007-03-26 | 2010-07-08 | グーグル・インコーポレーテッド | 機械翻訳における大規模言語モデル |
US8812291B2 (en) | 2007-03-26 | 2014-08-19 | Google Inc. | Large language models in machine translation |
JP2010078877A (ja) * | 2008-09-25 | 2010-04-08 | Pioneer Electronic Corp | 音声認識装置、音声認識方法及び音声認識プログラム |
JP2010224029A (ja) * | 2009-03-19 | 2010-10-07 | Ntt Docomo Inc | 言語モデル特定装置、言語モデル特定方法、音響モデル特定装置、および音響モデル特定方法 |
JP2011191752A (ja) * | 2010-02-16 | 2011-09-29 | Gifu Service Kk | 音声認識用文法作成支援プログラム |
WO2012165529A1 (ja) * | 2011-06-03 | 2012-12-06 | 日本電気株式会社 | 言語モデル構築支援装置、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3950957B2 (ja) | 2007-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107705787A (zh) | 一种语音识别方法及装置 | |
US6973427B2 (en) | Method for adding phonetic descriptions to a speech recognition lexicon | |
CN110675855B (zh) | 一种语音识别方法、电子设备及计算机可读存储介质 | |
JP4105841B2 (ja) | 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体 | |
US9978364B2 (en) | Pronunciation accuracy in speech recognition | |
JP2004246368A (ja) | テキストから単語誤り率を予測するための方法および装置 | |
JP5276610B2 (ja) | 言語モデル生成装置、そのプログラムおよび音声認識システム | |
KR20200026295A (ko) | 음절 기반 자동 음성 인식 | |
JP2010139745A (ja) | 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム | |
JP3961780B2 (ja) | 言語モデル学習装置およびそれを用いた音声認識装置 | |
KR20120052591A (ko) | 연속어 음성인식 시스템에서 오류수정 장치 및 방법 | |
JP3950957B2 (ja) | 言語処理装置および方法 | |
JP4764203B2 (ja) | 音声認識装置及び音声認識プログラム | |
JP5124012B2 (ja) | 音声認識装置及び音声認識プログラム | |
JP6078435B2 (ja) | 記号列変換方法、音声認識方法、それらの装置及びプログラム | |
JP4733436B2 (ja) | 単語・意味表現組データベースの作成方法、音声理解方法、単語・意味表現組データベース作成装置、音声理解装置、プログラムおよび記憶媒体 | |
JP5293607B2 (ja) | 略語生成装置およびプログラム、並びに、略語生成方法 | |
JP4674609B2 (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP5120749B2 (ja) | 木構造辞書を記録した記憶媒体、木構造辞書作成装置、及び木構造辞書作成プログラム | |
Hasegawa-Johnson et al. | Fast transcription of speech in low-resource languages | |
JP2001312294A (ja) | 入力記号列を出力記号列に変換するトランスデューサの学習方法およびトランスデューサの学習プログラムを記憶したコンピュータ読み取り可能な記録媒体 | |
Sajjan et al. | Kannada speech recognition using decision tree based clustering | |
Vicsi et al. | Speech recognizer for preparing medical reports–Development experiences of a Hungarian speaker independent continous speech recognizer | |
JP2024001922A (ja) | 情報処理システム、情報処理方法およびプログラム | |
Zhan et al. | A Language Model in a Large-Vocabulary Speech Recognition System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3950957 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |