JP5610304B2 - Model parameter array device, method and program thereof - Google Patents

Model parameter array device, method and program thereof Download PDF

Info

Publication number
JP5610304B2
JP5610304B2 JP2011140450A JP2011140450A JP5610304B2 JP 5610304 B2 JP5610304 B2 JP 5610304B2 JP 2011140450 A JP2011140450 A JP 2011140450A JP 2011140450 A JP2011140450 A JP 2011140450A JP 5610304 B2 JP5610304 B2 JP 5610304B2
Authority
JP
Japan
Prior art keywords
subset
model parameter
candidate
model
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011140450A
Other languages
Japanese (ja)
Other versions
JP2013008200A (en
Inventor
隆伸 大庭
隆伸 大庭
堀 貴明
貴明 堀
中村 篤
篤 中村
伊藤 彰則
彰則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Tohoku University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Nippon Telegraph and Telephone Corp filed Critical Tohoku University NUC
Priority to JP2011140450A priority Critical patent/JP5610304B2/en
Publication of JP2013008200A publication Critical patent/JP2013008200A/en
Application granted granted Critical
Publication of JP5610304B2 publication Critical patent/JP5610304B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

この発明は、音声認識、機械翻訳、発話分類などの自然言語処理を含む統計的機械学習の分野において用いられるモデルのモデルパラメータ要素の集合を、重要度の順に配列するモデルパラメータ配列装置とその方法とプログラムに関する。   The present invention relates to a model parameter arrangement apparatus and method for arranging a set of model parameter elements of a model used in the field of statistical machine learning including natural language processing such as speech recognition, machine translation, and speech classification in order of importance. And about the program.

例えば、自然言語処理において分類問題やランキング問題は極めて重要な問題である。分類問題は、ある単語列(サンプル)が事前に定義された有限個のクラスのうち、どれに分類されるかを推定する問題である。例えば、発話内容を、挨拶、質問、回答などにクラス分けする発話分類はこれに相当する。ランキング問題は、有限個のサンプルからなる集合が与えられた時に、各サンプルに対して、ある観点における順位を与える問題である。音声信号を単語列に変換する技術である音声認識や、機械翻訳はこれに相当するものと見なすことが出来る。   For example, classification problems and ranking problems are extremely important problems in natural language processing. The classification problem is a problem of estimating which of a finite number of classes in which a certain word string (sample) is classified. For example, an utterance classification in which utterance contents are classified into greetings, questions, answers, and the like corresponds to this. The ranking problem is a problem in which, when a set of a finite number of samples is given, each sample is given a rank from a certain viewpoint. Speech recognition and machine translation, which are technologies for converting speech signals into word strings, can be regarded as equivalent to this.

一般に、分類問題では、サンプルとクラスに応じたスコアが付与され、スコアの大きさに基づいて分類されるクラスを推定する。ランキング問題では、サンプルごとにスコアが付与され、スコアの大きさに基づいて順位が決定する。   In general, in a classification problem, a score corresponding to a sample and a class is given, and a class to be classified is estimated based on the magnitude of the score. In the ranking problem, a score is given for each sample, and the ranking is determined based on the magnitude of the score.

スコアを付与するには、サンプルとクラスの組を、素性表現するための変換ルールが事前に定義されている必要がある。また、事前にモデルを用意しておく必要がある。   In order to assign a score, a conversion rule for expressing a feature pair of a sample and a class needs to be defined in advance. In addition, it is necessary to prepare a model in advance.

モデルとは、例えば音声認識であれば言語モデルであり、素性表現された入力(単語列、サンプル)に対して、スコアを返す関数のことである。ここでモデルを用意するとは、関数の型を決めた上で、そのパラメータの具体的な値を事前に決定しておくことである。統計的手法では、大量に集めた学習データを利用してモデルパラメータの値を決定する。   The model is a language model for speech recognition, for example, and is a function that returns a score for an input (word string, sample) expressed as a feature. Here, preparing a model means that a function value is determined and specific values of parameters are determined in advance. In the statistical method, model parameter values are determined using a large amount of collected learning data.

通常、モデルパラメータの値を決定するプロセス、つまり学習は簡単ではない。対象とする分野の専門的な知識や、大規模な計算システム、大量の学習データなどが必要である。そのため、分類やランキングを行う専門的な知識を持たない一般ユーザが、使用環境に合わせてモデルを学習することは現実的ではない。   Usually, the process of determining the values of model parameters, ie learning, is not easy. Specialized knowledge in the target field, large-scale computing system, and a large amount of learning data are required. For this reason, it is not realistic for a general user who does not have specialized knowledge for classification and ranking to learn a model according to the usage environment.

専門家が汎用性の高いモデルを用意した場合、モデルパラメータ数が大きくなる場合がある。その場合、一般ユーザは、それに応じた規模の計算機を用意することを余儀なくされる。例えば、言語モデルは、隣り合う単語の組ごとに対応したパラメータをもつ。そのため、様々な語彙をサポートした汎用性の高い言語モデルを構築しようと考えた場合、モデルパラメータ要素の集合は非常に大きくなる。   When an expert prepares a highly versatile model, the number of model parameters may increase. In that case, the general user is forced to prepare a computer having a scale corresponding to the general user. For example, the language model has a parameter corresponding to each pair of adjacent words. For this reason, when a general-purpose language model that supports various vocabularies is to be constructed, the set of model parameter elements becomes very large.

そのモデルが、その規模の大きさから使い難い場合、使用環境にあったモデルパラメータ数に専門家が予め調整した上で学習を行う必要があった。(非特許文献1)。   When the model is difficult to use due to its large scale, it is necessary to perform learning after an expert adjusts in advance the number of model parameters suitable for the use environment. (Non-Patent Document 1).

北内敬、宇津呂武仁、松本裕二、「誤り駆動型の素性選択による日本語形態素解析の確率モデル学習」情報処理学会論文誌、Vol.40 No.5 May 1999Takashi Kitauchi, Takehito Utsuro, Yuji Matsumoto, "Probability Model Learning of Japanese Morphological Analysis Using Error-Driven Feature Selection", Transactions of Information Processing Society of Japan, Vol.40 No.5 May 1999

従来は、計算機システムが変わる度に、モデルパラメータ要素を推定し直さなければならなかった。モデルパラメータ要素を推定し直さなくても良いようにするためには、予めモデルパラメータ要素をその重要度の順番に並べておき、必要な数のモデルパラメータだけを利用するといった方策が必要である。当該重要度は、モデルパラメータ数の削減前後で、モデルが返すスコアが変わらないように決定される必要がある。しかし、従来、その条件を満たした上で、モデルパラメータ要素をその重要度の順番に配列し直す装置や方法は存在しなかった。   In the past, model parameter elements had to be re-estimated each time the computer system changed. In order to avoid re-estimating the model parameter elements, it is necessary to arrange the model parameter elements in the order of importance in advance and use only a necessary number of model parameters. The importance needs to be determined so that the score returned by the model does not change before and after the reduction of the number of model parameters. However, conventionally, there has been no apparatus or method for rearranging the model parameter elements in the order of importance after satisfying the conditions.

この発明は、このような課題に鑑みてなされたものであり、モデルパラメータ要素を重要度の順番に配列し直すモデルパラメータ配列装置とその方法とプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a model parameter array device, a method thereof, and a program for rearranging model parameter elements in order of importance.

この発明のモデルパラメータ配列装置は、初期化部と、要素選択部と、サブセット評価値記憶部と、パラメータ順位付け部と、を具備する。初期化部は、選択サブセット候補を空集合で初期化する。要素選択部は、集合Θと選択サブセット候補を入力として、サブセット候補として選択サブセット候補と他のパラメータ要素との全ての組を出力する。サブセット評価値記憶部は、サブセット候補を入力として、当該サブセット候補のそれぞれのスコアEの最大値若しくは最小値と、上記集合Θのスコア値である評価値Eとの差分を求め、その差分が最小若しくは最大となるサブセット候補を選択サブセット候補として記憶する。パラメータ順位付け部は、選択サブセット候補を、選択した順若しくはその逆順に配列した配列済みモデルパラメータを出力する。 The model parameter array device of the present invention includes an initialization unit, an element selection unit, a subset evaluation value storage unit, and a parameter ranking unit. The initialization unit initializes the selected subset candidate with an empty set. The element selection unit receives the set Θ and the selected subset candidate, and outputs all sets of the selected subset candidate and other parameter elements as subset candidates. Subset evaluation value storage unit as input a subset candidate obtains the maximum value or minimum value of each score E t of the subset candidate, a difference between the evaluation value E is the score value of the aggregate theta, is the difference The smallest or largest subset candidate is stored as a selected subset candidate. The parameter ranking unit outputs arranged model parameters in which the selected subset candidates are arranged in the selected order or vice versa.

この発明のモデルパラメータ配列装置は、既存のモデルのモデルパラメータ要素を、その重要度の順番に配列した配列済みモデルパラメータを出力する。当該重要度は、モデルパラメータ数の削減前後で、モデルが返すスコアが変わらないように決定されたものである。そのため、当該重要度に配列済みのモデルパラメータを用いることで、任意のサイズのサブセットのモデルパラメータ要素を得ることが可能になる。つまり、この発明のモデルパラメータ配列装置によって、モデルパラメータ要素の集合Θを重要度の順番に配列しておくことで、任意の計算機システムに適応するサブセットのモデルパラメータ要素を簡単に得ることが出来る。   The model parameter arrangement device of the present invention outputs arranged model parameters in which model parameter elements of an existing model are arranged in order of importance. The importance is determined so that the score returned by the model does not change before and after the reduction of the number of model parameters. For this reason, it is possible to obtain model parameter elements of a subset of an arbitrary size by using the model parameters already arranged for the importance. In other words, by arranging the model parameter element set Θ in order of importance by the model parameter arrangement apparatus of the present invention, it is possible to easily obtain a subset of model parameter elements suitable for an arbitrary computer system.

この発明のモデルパラメータ配列装置100の機能構成例を示す図。The figure which shows the function structural example of the model parameter arrangement | sequence apparatus 100 of this invention. モデルパラメータ配列装置100の動作フローを示す図。The figure which shows the operation | movement flow of the model parameter arrangement | sequence apparatus 100. FIG. データ(a2)を利用してモデル縮減を行いデータ(a3)で評価するEval-A評価実験結果を示す図。The figure which shows the Eval-A evaluation experiment result which model-reduces using data (a2) and evaluates by data (a3). データ(a2)を利用して配列済みモデルパラメータを作成しデータ(o2)で評価するEval-B評価実験結果を示す図。The figure which shows the Eval-B evaluation experiment result which produces an arranged model parameter using data (a2) and evaluates with data (o2). データ(o1)を利用して配列済みモデルパラメータを作成しデータ(o2)で評価するEval-C評価実験結果を示す図。The figure which shows the Eval-C evaluation experiment result which produces an arranged model parameter using data (o1) and evaluates with data (o2).

以下、この発明の実施の形態を図面を参照して説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。実施例の説明の前に、この発明の基本的な考えを説明する。     Embodiments of the present invention will be described below with reference to the drawings. The same reference numerals are given to the same components in a plurality of drawings, and the description will not be repeated. Prior to the description of the embodiments, the basic idea of the present invention will be described.

〔この発明の基本的な考え〕
サンプルs(例えば音声認識においてはある単語列)に、所望のスコアを付与する問題は、パターン認識、自然言語処理、などの多くの分野で共通する概念であり、極めて重要である。所望のスコアを与える関数をモデルQΘ(s)とおき、その関数を制御するモデルパラメータ要素の集合をΘ(以降、要素集合Θとも称する)とした時に、統計的手法では、大量にサンプルを集め、要素集合Θの各要素について具体的な値を推定する。これをモデルパラメータ推定、若しくは学習と称する。
[Basic idea of the present invention]
The problem of giving a desired score to the sample s (for example, a word string in speech recognition) is a concept that is common in many fields such as pattern recognition and natural language processing, and is extremely important. A function that gives a desired score is a model Q Θ (s), and a set of model parameter elements that control the function is Θ (hereinafter also referred to as an element set Θ). Collect and estimate specific values for each element in the element set Θ. This is called model parameter estimation or learning.

一般に要素集合Θの要素数が多いほど、推定は難しく大量のサンプルが必要となる。また、要素集合Θの中には、推定に悪影響を及ぼす要素が存在する場合もある。要素集合Θの最適なサブセットΦ、つまり要素集合Θよりも要素数の少ない最適なサブセットが見つけることが出来れば、より少ない要素数に基づいて適切なスコアを与える関数を得ることが出来る。このサブセットを見つける問題のことを変数選択問題と称する。ただし、変数選択問題では要素集合Θのサブセットを見つけることが目的であり、通常、そのパラメータサブセットΦの各要素の値は、Φの決定後に推定される。   In general, the greater the number of elements in the element set Θ, the more difficult it is to estimate and the greater the number of samples required. Further, there may be an element that adversely affects the estimation in the element set Θ. If an optimal subset Φ of the element set Θ, that is, an optimal subset having a smaller number of elements than the element set Θ can be found, a function that gives an appropriate score based on the smaller number of elements can be obtained. The problem of finding this subset is called a variable selection problem. However, the purpose of the variable selection problem is to find a subset of the element set Θ, and usually the value of each element of the parameter subset Φ is estimated after Φ is determined.

変数選択問題は、NP困難問題(NP-hard)であることが知られている、そのため様々な近似手法が提案されている。例えば前向き選択(SFS: Sequential Forward Selection)若しくは後ろ向き選択(SBS: Sequential Backward Selection)は、それらの一つである。前向き選択及び後ろ向き選択では、モデルパラメータの学習と選択を繰り返しながら、誤り率などの指標が小さくなるようなサブセットを求める。前向き選択では、重要なモデルパラメータ要素を順に採用し、後ろ向き選択では重要でないモデルパラメータを順に削除する。モデルパラメータの選択の度に、モデルパラメータの値を決め直す、すなわち学習し直す必要があるので、ユーザが指定した数からなる学習済みのモデルパラメータを瞬時に返すことが出来ない。   It is known that the variable selection problem is an NP-hard problem (NP-hard), and therefore various approximation methods have been proposed. For example, forward selection (SFS: Sequential Forward Selection) or backward selection (SBS) is one of them. In forward selection and backward selection, learning and selection of model parameters are repeated, and a subset that reduces an index such as an error rate is obtained. In the forward selection, important model parameter elements are adopted in order, and in the backward selection, model parameters that are not important are deleted in order. Each time a model parameter is selected, it is necessary to re-determine the value of the model parameter, that is, to re-learn, so that the learned model parameters having the number specified by the user cannot be returned instantaneously.

本発明の目的は、スコア付与の結果の変化が極力小さくなるように、要素集合Θのサブセットを選択するようにすることである。サブセットの選択により、モデルQΘ(s)の代替として、小さなモデルQΦ(s)を用いてサンプルsへのスコア付与が出来るようになる。これを実現するための基本的な考え方は、前向き選択又は後ろ向き選択で要素集合Θの要素を、モデルパラメータ数の削減前後で、モデルが返すスコアが変わらない様に重要度を決定し、重要なものから指定数分の要素を選択することにある。この発明では、要素集合Θの全要素の値が既に学習済みであることを前提とし、当該Θから算出されるスコアとサブセットから算出されるスコアとの差を評価関数に用いる。従来の変数選択問題では、各要素のパラメータ推定値は通常用いられないが、この発明では積極的に用いる。 An object of the present invention is to select a subset of the element set Θ so that the change in the result of scoring becomes as small as possible. Selection of the subset allows the sample s to be scored using a small model Q Φ (s) as an alternative to the model Q Θ (s). The basic idea to achieve this is to determine the importance of elements in the element set Θ by forward selection or backward selection so that the score returned by the model does not change before and after the reduction of the number of model parameters. It is to select the specified number of elements from the thing. In the present invention, assuming that the values of all elements of the element set Θ have already been learned, the difference between the score calculated from the Θ and the score calculated from the subset is used as the evaluation function. In the conventional variable selection problem, parameter estimates for each element are not normally used, but are actively used in the present invention.

図1に、この発明のモデルパラメータ配列装置100の機能構成例を示す。モデルパラメータ配列装置100は、初期化部5と、要素選択部10と、サブセット評価値記憶部20と、パラメータ順位付け部30と、制御部40と、を具備する。モデルパラメータ配列装置100の各部の機能は、例えばROM、RAM、CPU等で構成されるコンピュータに所定のプログラムが読み込まれて、CPUがそのプログラムを実行することで実現されるものである。   FIG. 1 shows a functional configuration example of a model parameter array device 100 of the present invention. The model parameter array device 100 includes an initialization unit 5, an element selection unit 10, a subset evaluation value storage unit 20, a parameter ranking unit 30, and a control unit 40. The function of each part of the model parameter array device 100 is realized by, for example, reading a predetermined program into a computer composed of ROM, RAM, CPU, etc., and executing the program by the CPU.

初期化部5は、モデルパラメータ要素の集合Θを入力とし、前向き選択の場合には、選択サブセット候補Φを空集合で初期化し、後ろ向き選択の場合には、選択サブセット候補Φを集合Θで初期化する。 The initialization unit 5 receives the set Θ of model parameter elements as an input. In the case of forward selection, the initialization subset 5 initializes the selected subset candidate Φ t with an empty set, and in the case of backward selection, the selection subset candidate Φ t Initialize with.

要素選択部10は、N個のモデルパラメータ要素の集合Θと選択サブセット候補Φを入力として、前向き選択の場合には、サブセット候補として選択サブセット候補Φと他のパラメータ要素との全ての組を出力する。 The element selection unit 10 receives a set Θ of N model parameter elements and a selected subset candidate Φ t as input, and in the case of forward selection, all combinations of the selected subset candidate Φ t and other parameter elements as subset candidates. Is output.

後ろ向き選択の場合には、サブセット候補として選択サブセット候補Φに属する各モデルパラメータ要素を取り除いた全ての組を出力する。 In the case of backward selection outputs all set after removing the model parameter elements that belong to the selected subset candidate [Phi t as a subset candidates.

ここでモデルの要素集合Θとは、例えばモデルyを線形表現した時(式(1))のモデルパラメータ要素a,b,…,nの集合である。以下、モデルパラメータ要素からなる集合を{*}と示す。   Here, the model element set Θ is, for example, a set of model parameter elements a, b,..., N when the model y is expressed linearly (formula (1)). Hereinafter, a set of model parameter elements is denoted by {*}.

Figure 0005610304
Figure 0005610304

例えば、モデルyをy=ax+bx+cxとした場合、前向き選択において最初のサブセット候補は{a},{b},{c}であり、選択サブセット候補ΦがΦ={a}である場合のサブセット候補は{ab},{ac}である。後ろ向き選択においては、最初のサブセット候補は{ab},{ac},{bc}であり、選択サブセット候補ΦがΦ={ab}である場合のサブセット候補は{a},{b}となる。 For example, when the model y is y = ax + bx + cx, the first subset candidate in the forward selection is {a}, {b}, {c}, and the selected subset candidate Φ t is Φ t = {a} Subset candidates are {ab}, {ac}. In the backward selection, the first subset candidate is {ab}, {ac}, {bc}, and the subset candidate when the selected subset candidate Φ t is Φ t = {ab} is {a}, {b} It becomes.

サブセット評価値記憶部20は、サブセット候補のそれぞれのスコアEの最大値若しくは最小値と、要素集合Θのスコア値Eとの差分を求め、その差分が最小若しくは最大となるサブセット候補を選択サブセット候補Φとして記憶する。 The subset evaluation value storage unit 20 obtains a difference between the maximum value or the minimum value of each score E t of the subset candidate and the score value E of the element set Θ, and selects a subset candidate whose difference is the minimum or maximum. It is stored as a candidate Φ t.

パラメータ順位付け部30は、選択サブセット候補Φを、選択した順若しくはその逆順に配列した配列済みモデルパラメータΦを出力する。制御部40は、上記した各部間の時系列的な動作等を制御するものである。 The parameter ranking unit 30 outputs the arranged model parameter Φ in which the selected subset candidate Φ t is arranged in the selected order or in the reverse order. The control unit 40 controls time-series operations between the above-described units.

以上の作用により、モデルパラメータ配列装置100は、既存のモデルの要素集合Θの各モデルパラメータ要素を、その重要度の順番に配列した配列済みモデルパラメータΦを出力する。   With the above operation, the model parameter arrangement device 100 outputs the arranged model parameter Φ in which the model parameter elements of the element set Θ of the existing model are arranged in the order of importance.

図2に示すモデルパラメータ配列装置100の動作フローを参照して更に詳しくその動作を説明する。例えば要素集合ΘをΘ={a,b,c}、要素選択部10におけるサブセット候補の選択を、前向き選択で行う場合を例に説明する。   The operation will be described in more detail with reference to the operation flow of the model parameter array device 100 shown in FIG. For example, the case where the element set Θ is Θ = {a, b, c} and the subset selection in the element selection unit 10 is performed by forward selection will be described as an example.

前向き選択の場合、初期化部5は、選択サブセット候補Φを空集合にする(ステップS5)。要素選択部10は、最初選択サブセット候補Φが未選択のため、サブセット候補として{a},{b},{c}を選択する(ステップS10)。前向き選択では、Θ−Φの全てのモデルパラメータ要素について再帰処理を行う。 In the case of forward selection, the initialization unit 5 makes the selected subset candidate Φ t an empty set (step S5). The element selection unit 10 selects {a}, {b}, {c} as subset candidates because the initially selected subset candidate Φ t is not selected (step S10). The forward selection for all of the model parameters elements of theta-[Phi t performs recursive processing.

サブセット評価値記憶部20は、サブセット候補{a},{b},{c}のスコアEの最大値と、要素集合Θの全ての要素を用いた場合のスコアEとの差分を求める(ステップS20)。そして、その差分が最小となるサブセット候補を選択サブセット候補Φとして記憶する(ステップS21)。 Subset evaluation value storage unit 20, a subset candidate {a}, {b}, obtaining the difference between the score E in the case of using all the elements of the maximum value of the score E t and, element set Θ of {c} ( Step S20). Then, storing the subset candidate whose difference is the smallest as a selective subset candidate [Phi t (step S21).

選択サブセット候補Φとして、例えばサブセット候補{a}を選択した場合、前向き選択では選択サブセット候補Φに{a}を追加した集合を作成する。要素選択部10は、選択サブセット候補Φ={a}の入力に応答して、サブセット候補{ab},{ac}をサブセット評価値記憶部20に出力する(ステップS10)。 As selected subset candidate [Phi t, for example, when selecting a subset candidate {a}, a forward selection to create a set in which to add the {a} to the selected subset candidate [Phi t. In response to the input of the selected subset candidate Φ 1 = {a}, the element selection unit 10 outputs the subset candidates {ab}, {ac} to the subset evaluation value storage unit 20 (step S10).

サブセット評価値記憶部20は、サブセット候補{ab},{ac}のスコアEの最大値と、要素集合Θの全ての要素を用いた場合のスコアEとの差分を求め、その差分が最小となるサブセット候補が例えば{ab}の場合、選択サブセット候補に{b}を追加する(ステップS21)。この例では、この時点でモデルパラメータ要素a,b,cの順位付けが終了するので、選択サブセット候補に{c}も最後のモデルパラメータ要素として同時に追加する。以上のステップS10〜S21の処理は、未処理のモデルパラメータ要素が無くなるまで繰り返される。 The subset evaluation value storage unit 20 obtains a difference between the maximum value of the score E t of the subset candidates {ab} and {ac} and the score E when all the elements of the element set Θ are used, and the difference is minimum. For example, if the subset candidate is {ab}, {b} is added to the selected subset candidate (step S21). In this example, since the ranking of the model parameter elements a, b, and c ends at this point, {c} is also added to the selected subset candidate as the last model parameter element at the same time. The processes in steps S10 to S21 are repeated until there is no unprocessed model parameter element.

全てのモデルパラメータ要素についての処理が終了(ステップS41のNo)すると、パラメータ順位付け部30は、記憶された選択サブセット候補Φを、そのtの順番に配列した配列済みモデルパラメータΦとして出力する(ステップS30)。 When the process for all model parameter elements is completed (No in step S41), the parameter ranking unit 30 outputs the stored selected subset candidate Φ t as an arrayed model parameter Φ arranged in the order of t. (Step S30).

このように、前向き選択は、空集合から始め、与えられた評価関数の下で、最も重要なパラメータ要素の順に要素を追加して行く手法である。後ろ向き選択の場合は、最も重要度の低いモデルパラメータ要素を順に取り除く処理を行う。後ろ向き選択の場合は選択サブセット候補Φの初期値は要素集合Θである。つまりΦ=Θであり、前向き選択のΦt+1=Φ+{a}に対してΦt+1=Φ−{a}の処理を行う点で異なるが、モデルパラメータ要素の重要度の順列を決める点で同じであり、動作フローも図2と変わるところは無い。 Thus, the forward selection is a method of starting from an empty set and adding elements in the order of the most important parameter elements under a given evaluation function. In the case of backward selection, a process of removing model parameter elements having the lowest importance in order is performed. For retrospective selection initial value of the selected subset candidate [Phi t is an element set theta. In other words, Φ t = Θ, and Φ t + 1 = Φ t- {a} is processed with respect to Φ t + 1 = Φ t + {a} of the forward selection, but the permutation of the importance of the model parameter element is The point of determination is the same, and the operation flow is the same as in FIG.

なお、サブセット評価値記憶部20が、スコアの差分を求める処理に任意の距離関数を用いても良い。その距離関数に、例えばスコア差の二乗誤差(式(2))を導入しても良い。   Note that the subset evaluation value storage unit 20 may use an arbitrary distance function for the process of obtaining a difference in scores. For example, a square error of the score difference (Equation (2)) may be introduced into the distance function.

Figure 0005610304
Figure 0005610304

〔評価実験〕
この発明のモデル縮減方法の効果を確認する目的で、日本語話言葉コーパス(CSJ)を用いて評価実験を行った。CSJは、講演音声とその書き起こしからなるコーパスである。CSJには、学会講演と模擬講演が含まれる。模擬講演は「私の街」、「生涯で最も幸せな出来事」等といったテーマの講演形式のスピーチが収録されている。
[Evaluation experiment]
For the purpose of confirming the effect of the model reduction method of the present invention, an evaluation experiment was conducted using a Japanese spoken language corpus (CSJ). CSJ is a corpus consisting of lecture speech and transcriptions. CSJ includes conference lectures and mock lectures. The mock lecture includes speech in the form of lectures such as “My Town” and “The happiest event in my life”.

音声認識の誤り訂正言語モデルを構築し、そのモデルを縮減することでモデルサイズと精度との関係を評価した。音声認識システムは、一般に複数の認識候補となる単語列を出力することが出来る。各認識候補単語列にはスコアが与えられており、最も高いスコアを持つ単語列が通常の認識結果である。誤り訂正言語モデルは、認識候補単語列に補正スコアを加えることで、認識結果の再ランキングを行うモデルである。今、認識候補単語列の集合をSとおくと、最終的な認識結果sは式(3)で与えられる。 An error correction language model for speech recognition was constructed, and the relationship between model size and accuracy was evaluated by reducing the model. In general, a speech recognition system can output a word string as a plurality of recognition candidates. Each recognition candidate word string is given a score, and the word string having the highest score is a normal recognition result. The error correction language model is a model that reranks recognition results by adding a correction score to a recognition candidate word string. Assuming that a set of recognition candidate word strings is S, the final recognition result s * is given by Expression (3).

Figure 0005610304
Figure 0005610304

ここでf(s)は音声認識システムが付与した認識候補単語列sに対応するスコアである。また、aはスケーリングを調整する定数であり、誤り訂正言語モデルのモデルパラメータAを推定する際に、開発データなどを利用して決定する。 Here, f 0 (s) is a score corresponding to the recognition candidate word string s given by the speech recognition system. Further, a 0 is a constant for adjusting the scaling, and is determined using development data or the like when estimating the model parameter A of the error correction language model.

表1に、誤り訂正言語モデルの学習・評価に用いたデータの内訳を示す。   Table 1 shows a breakdown of data used for learning and evaluation of the error correction language model.

Figure 0005610304
Figure 0005610304

データ(a1)〜(a3)は、学会講演であり、データ(o1)と(o2)は模擬講演である。各発話に対し音声認識システムを適用し、5000個の認識候補単語列を生成した。   Data (a1) to (a3) are conference lectures, and data (o1) and (o2) are mock lectures. A speech recognition system was applied to each utterance, and 5000 recognition candidate word strings were generated.

データ(a1)を使って誤り訂正言語モデルのパラメータ推定を行った。つまり、要素集合Θの推定を行った。素性には、(a1)に出現した全ての単語1-gram,2-gram,3-gram及び品詞1-gram,2-gram,3-gramの頻度を利用した。n-gramとはn個のトークン(単語又は品詞)の並びである。最終的なパラメータ数は凡そ1000万である。   The parameter of the error correction language model was estimated using the data (a1). That is, the element set Θ was estimated. For the feature, the frequencies of all words 1-gram, 2-gram, 3-gram and part-of-speech 1-gram, 2-gram, 3-gram appearing in (a1) were used. An n-gram is a sequence of n tokens (words or parts of speech). The final number of parameters is about 10 million.

パラメータの推定には、ラウンドロビン対比学習法(Round-robin duel discrimination)を使用した。スケーリングを調整する定数aの値は、データ(a2)を開発セットとして用いて、その単語誤り率(WER)が最小になるように決定した。 Round-robin duel discrimination was used for parameter estimation. The value of the constant a 0 for adjusting the scaling was determined so that the word error rate (WER) was minimized using the data (a2) as a development set.

モデル縮減の評価として3つの環境を用意した。データ(a2)を利用して配列済みモデルパラメータを作成し、データ(a3)で評価する場合をEval-Aと記載する。同様にデータ(a2)を利用してモデル縮減を行いデータ(a3)で評価する場合をEval-B、データ(a1)を利用して配列済みモデルパラメータを作成しデータ(o2)で評価する場合をEval-Bとする。同様に、データ(o1)とデータ(o2)の組をEval-Cとする。誤り訂正言語モデルは、学会講演で学習しているためEval-BとEval-Cはアウトオブドメインとなるタスクでの評価となる。   Three environments were prepared for model reduction evaluation. A case where an arrayed model parameter is created using the data (a2) and evaluated by the data (a3) is described as Eval-A. Similarly, when model reduction is performed using data (a2) and evaluation is performed using data (a3), an arrayed model parameter is generated using data (a1) and evaluation is performed using data (o2) Is Eval-B. Similarly, a set of data (o1) and data (o2) is Eval-C. Since the error correction language model is learned at the conference lecture, Eval-B and Eval-C are evaluated in the task of out-of-domain.

それぞれの結果を図3〜5に示す。横軸は使用した要素数であり対数スケールである。縦軸は誤り訂正言語モデル適用後の認識結果のWERである。図中に、破線で示す特性は従来手法であり、実線がこの発明のモデルパラメータ配列装置100で作成した配列済みモデルパラメータの上位の指定数のモデルパラメータを利用した場合である。なお、配列済みモデルパラメータは、後ろ向き選択で作成した。   Each result is shown in FIGS. The horizontal axis is the number of elements used and is a logarithmic scale. The vertical axis represents the WER of the recognition result after applying the error correction language model. In the figure, the characteristic indicated by the broken line is a conventional method, and the solid line is a case where a specified number of model parameters higher than the arranged model parameters created by the model parameter arranging apparatus 100 of the present invention are used. The arranged model parameters were created by backward selection.

何れの条件でも、従来手法の単語誤り率を示す破線(+)よりも単語誤り率の上昇を抑制させながら大きくモデルを縮減することに成功している。つまり、要素数を減らしても単語誤り率の劣化を少なくすることが出来る。   Under either condition, the model has been successfully reduced more greatly while suppressing the increase in the word error rate than the broken line (+) indicating the word error rate of the conventional method. That is, even if the number of elements is reduced, deterioration of the word error rate can be reduced.

このように、この発明のモデルパラメータ配列方法によれば認識結果の変化を小さく抑制しつつ、要素数を大幅に縮減することが可能である。なお、評価実験結果は、音声認識を例に説明を行ったが、この発明のモデルパラメータ配列方法は、他に機械翻訳や発話分類をはじめ、画像認識、自然言語処理の分野のモデルにも利用することが可能である。   Thus, according to the model parameter arrangement method of the present invention, it is possible to greatly reduce the number of elements while suppressing a change in the recognition result to be small. Although the evaluation experiment results have been explained by taking speech recognition as an example, the model parameter arrangement method of the present invention is also used for models in the field of image recognition and natural language processing, as well as machine translation and speech classification. Is possible.

上記装置における処理手段をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置における処理手段がコンピュータ上で実現される。   When the processing means in the above apparatus is realized by a computer, the processing contents of the functions that each apparatus should have are described by a program. Then, by executing this program on the computer, the processing means in each apparatus is realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used. Specifically, for example, as a magnetic recording device, a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only). Memory), CD-R (Recordable) / RW (ReWritable), etc., magneto-optical recording medium, MO (Magneto Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a recording device of a server computer and transferring the program from the server computer to another computer via a network.

また、各手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   Each means may be configured by executing a predetermined program on a computer, or at least a part of these processing contents may be realized by hardware.

Claims (7)

N個のモデルパラメータ要素の集合Θを入力として、
択サブセット候補を空集合で初期化する初期化部と、
上記集合Θと選択サブセット候補を入力として、当該選択サブセット候補に、上記集合Θに含まれ、かつ、当該選択サブセット候補に含まれないモデルパラメータ要素の一つを追加した全ての組をサブセット候補として出力する要素選択部と、
上記サブセット候補を入力として、当該サブセット候補のそれぞれのスコアEの最大値若しくは最小値と、上記集合Θの前記N個のモデルパラメータ要素の全てを用いた場合のスコア値である評価値Eとの差分を求め、その差分が最小若しくは最大となるサブセット候補を選択サブセット候補として記憶するサブセット評価値記憶部と、を具備し、
上記要素選択部と上記サブセット評価値記憶部とにおいて、前記N個のモデルパラメータ要素について未処理のモデルパラメータ要素が無くなるまで上記サブセット候補と上記選択サブセット候補とを更新する処理を繰り返し、
上記選択サブセット候補を、選択した順若しくはその逆順に配列した配列済みモデルパラメータを出力するパラメータ順位付け部をさらに具備する、
モデルパラメータ配列装置。
Given a set Θ of N model parameter elements as input,
And the initialization section for initializing an empty set a select subset candidates,
As input the set theta and select subset candidates, to the selection subset candidates, included in the set theta, and a subset candidates all sets have added one model parameter elements not included in the selected subset candidate An element selection unit to output as
As inputs the subset candidate, and the maximum value or minimum value of each score E t of the subset candidate, the evaluation value E is the score value in the case of using all of the N model parameters elements of the set Θ And a subset evaluation value storage unit that stores a subset candidate having the smallest or largest difference as a selected subset candidate ,
In the element selection unit and the subset evaluation value storage unit, the process of updating the subset candidate and the selected subset candidate is repeated until there is no unprocessed model parameter element for the N model parameter elements,
A parameter ranking unit that outputs arranged model parameters in which the selected subset candidates are arranged in the selected order or vice versa ;
Model parameter array device.
N個のモデルパラメータ要素の集合Θを入力として、
択サブセット候補を上記集合Θで初期化する初期化部と、
選択サブセット候補を入力として、当該選択サブセット候補から一つのモデルパラメータ要素を取り除いた全ての組をサブセット候補として出力する要素選択部と、
上記サブセット候補を入力として、当該サブセット候補のそれぞれのスコアEの最大値若しくは最小値と、上記集合Θの前記N個のモデルパラメータ要素の全てを用いた場合のスコア値である評価値Eとの差分を求め、その差分が最小若しくは最大となるサブセット候補を選択サブセット候補として記憶するサブセット評価値記憶部と、を具備し、
上記要素選択部と上記サブセット評価値記憶部とにおいて、前記N個のモデルパラメータ要素について未処理のモデルパラメータ要素が無くなるまで上記サブセット候補と上記選択サブセット候補とを更新する処理を繰り返し、
上記選択サブセット候補を、選択した順若しくはその逆順に配列した配列済みモデルパラメータを出力するパラメータ順位付け部をさらに具備する、
モデルパラメータ配列装置。
Given a set Θ of N model parameter elements as input,
An initialization unit for initializing the selected subset candidate above set theta,
As input selection subset candidates, the element selection unit for outputting the entire set obtained by removing a model parameter elements from the selected subset candidate as a subset candidates,
As inputs the subset candidate, and the maximum value or minimum value of each score E t of the subset candidate, the evaluation value E is the score value in the case of using all of the N model parameters elements of the set Θ And a subset evaluation value storage unit that stores a subset candidate having the smallest or largest difference as a selected subset candidate ,
In the element selection unit and the subset evaluation value storage unit, the process of updating the subset candidate and the selected subset candidate is repeated until there is no unprocessed model parameter element for the N model parameter elements,
A parameter ranking unit that outputs arranged model parameters in which the selected subset candidates are arranged in the selected order or vice versa ;
Model parameter array device.
請求項1又は2に記載のモデルパラメータ配列装置において、
上記差分を求める距離関数に、二乗誤差の関数を用いたことを特徴とするモデルパラメータ配列装置。
In the model parameter arrangement device according to claim 1 or 2,
The distance function for obtaining the difference, the model parameter array device characterized by using the function of the square error.
N個のモデルパラメータ要素の集合Θを入力として、
択サブセット候補を空集合で初期化する初期化過程と、
上記集合Θと選択サブセット候補を入力として、当該選択サブセット候補に、上記集合Θに含まれ、かつ、当該選択サブセット候補に含まれないモデルパラメータ要素の一つを追加した全ての組をサブセット候補として出力する要素選択過程と、
上記サブセット候補を入力として、当該サブセット候補のそれぞれのスコアEの最大値若しくは最小値と、上記集合Θの前記N個のモデルパラメータ要素の全てを用いた場合のスコア値である評価値Eとの差分を求め、その差分が最小若しくは最大となるサブセット候補を選択サブセット候補として記憶するサブセット評価値記憶過程と、を備え、
上記要素選択過程と上記サブセット評価値記憶過程とにおいて、前記N個のモデルパラメータ要素について未処理のモデルパラメータ要素が無くなるまで上記サブセット候補と上記選択サブセット候補とを更新する処理を繰り返し、
上記選択サブセット候補を、選択した順若しくはその逆順に配列した配列済みモデルパラメータを出力するパラメータ順位付け過程をさらに備える、
モデルパラメータ配列方法。
Given a set Θ of N model parameter elements as input,
And the initialization process to initialize an empty set a select subset candidates,
As input the set theta and select subset candidates, to the selection subset candidates, included in the set theta, and a subset candidates all sets have added one model parameter elements not included in the selected subset candidate Element selection process to output as
As inputs the subset candidate, and the maximum value or minimum value of each score E t of the subset candidate, the evaluation value E is the score value in the case of using all of the N model parameters elements of the set Θ And a subset evaluation value storing process for storing a subset candidate having the smallest or largest difference as a selected subset candidate ,
In the element selection process and the subset evaluation value storage process, the process of updating the subset candidate and the selected subset candidate is repeated until there is no unprocessed model parameter element for the N model parameter elements,
Further comprising a parameter ranking process of outputting the arranged model parameters in which the selected subset candidates are arranged in the selected order or vice versa .
Model parameter array method.
N個のモデルパラメータ要素の集合Θを入力として、
択サブセット候補を上記集合Θで初期化する初期化過程と、
選択サブセット候補を入力として、当該選択サブセット候補から一つのモデルパラメータ要素を取り除いた全ての組をサブセット候補として出力する要素選択過程と、
上記サブセット候補を入力として、当該サブセット候補のそれぞれのスコアEの最大値若しくは最小値と、上記集合Θの前記N個のモデルパラメータ要素の全てを用いた場合のスコア値である評価値Eとの差分を求め、その差分が最小若しくは最大となるサブセット候補を選択サブセット候補として記憶するサブセット評価値記憶過程と、を備え、
上記要素選択過程と上記サブセット評価値記憶過程とにおいて、前記N個のモデルパラメータ要素について未処理のモデルパラメータ要素が無くなるまで上記サブセット候補と上記選択サブセット候補とを更新する処理を繰り返し、
上記選択サブセット候補を、選択した順若しくはその逆順に配列した配列済みモデルパラメータを出力するパラメータ順位付け過程をさらに備える、
モデルパラメータ配列方法。
Given a set Θ of N model parameter elements as input,
An initialization step for initializing the selected subset candidate above set theta,
An element selection process in which a selected subset candidate is input and all sets obtained by removing one model parameter element from the selected subset candidate are output as subset candidates ;
As inputs the subset candidate, and the maximum value or minimum value of each score E t of the subset candidate, the evaluation value E is the score value in the case of using all of the N model parameters elements of the set Θ And a subset evaluation value storing process for storing a subset candidate having the smallest or largest difference as a selected subset candidate ,
In the element selection process and the subset evaluation value storage process, the process of updating the subset candidate and the selected subset candidate is repeated until there is no unprocessed model parameter element for the N model parameter elements,
Further comprising a parameter ranking process of outputting the arranged model parameters in which the selected subset candidates are arranged in the selected order or vice versa .
Model parameter array method.
請求項4又は5に記載のモデルパラメータ配列方法において、
上記差分を求める距離関数に、二乗誤差の関数を用いたことを特徴とするモデルパラメータ配列方法。
In the model parameter arrangement method according to claim 4 or 5,
A model parameter arrangement method using a square error function as a distance function for obtaining the difference.
請求項1乃至3の何れかに記載したモデルパラメータ配列装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the model parameter array device according to any one of claims 1 to 3.
JP2011140450A 2011-06-24 2011-06-24 Model parameter array device, method and program thereof Active JP5610304B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011140450A JP5610304B2 (en) 2011-06-24 2011-06-24 Model parameter array device, method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011140450A JP5610304B2 (en) 2011-06-24 2011-06-24 Model parameter array device, method and program thereof

Publications (2)

Publication Number Publication Date
JP2013008200A JP2013008200A (en) 2013-01-10
JP5610304B2 true JP5610304B2 (en) 2014-10-22

Family

ID=47675501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011140450A Active JP5610304B2 (en) 2011-06-24 2011-06-24 Model parameter array device, method and program thereof

Country Status (1)

Country Link
JP (1) JP5610304B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10438593B2 (en) 2015-07-22 2019-10-08 Google Llc Individualized hotword detection models

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962647A (en) * 1995-08-24 1997-03-07 Hitachi Ltd Learning method for probability model
JP2002373163A (en) * 2001-04-13 2002-12-26 Mitsubishi Electric Corp Method and apparatus for creating maximum entropy model and method and device for processing natural language using the same

Also Published As

Publication number Publication date
JP2013008200A (en) 2013-01-10

Similar Documents

Publication Publication Date Title
US20210256390A1 (en) Computationally efficient neural network architecture search
EP3373293B1 (en) Speech recognition method and apparatus
CN110033760B (en) Modeling method, device and equipment for speech recognition
KR101780760B1 (en) Speech recognition using variable-length context
US9697827B1 (en) Error reduction in speech processing
US8504367B2 (en) Speech retrieval apparatus and speech retrieval method
JP6831343B2 (en) Learning equipment, learning methods and learning programs
JP6615736B2 (en) Spoken language identification apparatus, method thereof, and program
JP7070653B2 (en) Learning devices, speech recognition ranking estimators, their methods, and programs
CN112825249A (en) Voice processing method and device
JP6812381B2 (en) Voice recognition accuracy deterioration factor estimation device, voice recognition accuracy deterioration factor estimation method, program
Kurimo et al. Modeling under-resourced languages for speech recognition
TW201822190A (en) Speech recognition system and method thereof, vocabulary establishing method and computer program product
JP2020020872A (en) Discriminator, learnt model, and learning method
KR20230156125A (en) Lookup table recursive language model
JP6082657B2 (en) Pose assignment model selection device, pose assignment device, method and program thereof
JP5610304B2 (en) Model parameter array device, method and program thereof
JP6158105B2 (en) Language model creation device, speech recognition device, method and program thereof
JP4537970B2 (en) Language model creation device, language model creation method, program thereof, and recording medium thereof
JP6353408B2 (en) Language model adaptation device, language model adaptation method, and program
JP6389776B2 (en) Language identification model learning device, language identification device, language identification method, and program
US9449085B2 (en) Pattern matching of sound data using hashing
JP5780516B2 (en) Model reduction device, method and program
EP4052254A1 (en) Rescoring automatic speech recognition hypotheses using audio-visual matching
Ravi et al. Phoneme segmentation-based unsupervised pattern discovery and clustering of speech signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20131011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140821

R150 Certificate of patent or registration of utility model

Ref document number: 5610304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250