JP6910873B2 - 特定装置および特定方法 - Google Patents

特定装置および特定方法 Download PDF

Info

Publication number
JP6910873B2
JP6910873B2 JP2017141231A JP2017141231A JP6910873B2 JP 6910873 B2 JP6910873 B2 JP 6910873B2 JP 2017141231 A JP2017141231 A JP 2017141231A JP 2017141231 A JP2017141231 A JP 2017141231A JP 6910873 B2 JP6910873 B2 JP 6910873B2
Authority
JP
Japan
Prior art keywords
category
model
matrix
information
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017141231A
Other languages
English (en)
Other versions
JP2019021210A (ja
Inventor
祐 宮崎
祐 宮崎
隼人 小林
隼人 小林
香里 谷尾
香里 谷尾
晃平 菅原
晃平 菅原
正樹 野口
正樹 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017141231A priority Critical patent/JP6910873B2/ja
Publication of JP2019021210A publication Critical patent/JP2019021210A/ja
Application granted granted Critical
Publication of JP6910873B2 publication Critical patent/JP6910873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、特定装置および特定方法に関する。
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、所定の条件を満たす情報の特徴を学習したモデルを用いて、判定対象となる情報の中から、所定の条件を満たす情報、すなわち類似する情報を特定する技術が知られている。
特開2006−127077号公報
"共変量シフト下での教師付き学習" 杉山 将,東京工業大学 計算工学専攻 <インターネット>http://www.ms.k.u-tokyo.ac.jp/2006/covariate-shift-jp.pdf
しかしながら、上記の従来技術では、情報の特徴を学習したモデルの作成が困難であるという問題がある。
例えば、モデルに所定の条件を満たす情報の特徴を精度良く学習させるには、比較的多くの学習データが必要となる。このため、学習データの数が少ない場合には、モデルに情報の特徴を精度良く学習させることができない。
本願は、上記に鑑みてなされたものであって、モデルの作成を容易にすることを目的とする。
本願に係る特定装置は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、当該モデルと対応する行列を生成する行列生成部と、前記行列の固有値を算出する算出部と、第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する特定部とを有することを特徴とする。
実施形態の一態様によれば、モデルの作成を容易にすることができる。
図1は、実施形態に係る特定装置が実行する特定処理の一例を示す図である。 図2は、実施形態に係る特定装置の構成例を示す図である。 図3は、実施形態に係る登録モデルデータベースに登録される情報の一例を示す図である。 図4は、実施形態に係る特定処理の流れの一例を説明するフローチャートである。 図5は、実施形態に係る特定処理の結果を用いて、提供モデルを生成する処理の流れの一例を説明するフローチャートである。 図6は、ハードウェア構成の一例を示す図である。
以下に、本願に係る特定装置および特定方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る特定装置および特定方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
〔1−1.特定装置の一例〕
まず、図1を用いて、特定装置が実行する処理の一例について説明する。図1は、実施形態に係る特定装置が実行する特定処理の一例を示す図である。図1では、特定装置10は、以下に説明する特定処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
より具体的には、特定装置10は、インターネット等の所定のネットワークN(例えば、図2を参照)を介して、登録サーバ100や、クライアントサーバ200といった任意の装置と通信が可能である。なお、図1に示す例では、1つの登録サーバ100やクライアントサーバ200を示したが、特定装置10は、任意の数の登録サーバ100や任意の数のクライアントサーバ200と通信が可能であってもよい。
登録サーバ100は、各種の情報が有する特徴を学習したモデルを登録する登録者が使用する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。また、クライアントサーバ200は、所定の情報が有する特徴を学習したモデルを要求するクライアントが使用する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
このような特定装置10は、以下のモデル提供処理を実行する。例えば、特定装置10は、登録サーバ100から、各種情報の特徴を学習したモデルの登録を受付ける。例えば、特定装置10は、SNS(Social Networking Service)等に投稿された利用者の投稿、ニュース、株価の値動きといった金融情報等の特徴を学習したモデルの登録を受付ける。より具体的な例を挙げると、特定装置10は、あるカテゴリに属する情報が入力されると、入力された情報の要約を出力するように学習が行われたモデルの登録を受付ける。このようなモデルは、例えば、畳み込みミューラルネットワークや再帰型ニューラルネットワーク等、各種の機能を発揮する任意のニューラルネットワークにより実現可能である。
一方で、特定装置10は、クライアントサーバ200からカテゴリの指定を受付けると、そのカテゴリに属する情報の特徴を学習したモデルを生成し、生成したモデルをクライアントサーバ200へと提供する。例えば、特定装置10は、指定されたカテゴリに属する情報を入力した際に、その情報の要約を出力するよう学習が行われたモデル、すなわち、指定されたカテゴリに属する情報の特徴を学習したモデルを生成し、生成したモデルをクライアントサーバ200へと提供する。
〔1−2.特定装置の処理について〕
ここで、上述したモデル提供処理において、登録サーバ100から登録されたモデルを用いて、クライアントサーバ200に提供するモデルを生成するといった態様が考えられる。例えば、登録サーバ100から登録されたモデルのうち、クライアントサーバ200が指定したカテゴリに属する情報の特徴を学習したモデルを選択し、選択したモデルをクライアントサーバ200に提供するとともに、そのモデルを登録した登録者に対して、クライアントから報酬を提供するといったビジネスモデルが考えられる。しかしながら、登録者が登録したモデルそのものをクライアントへ提供した場合には、どのような態様で、各種の情報が有する特徴をモデルに学習させているのかというノウハウが漏えいしてしまう恐れがある。
そこで、登録されたモデルのうち、クライアントサーバ200が指定したカテゴリと類似するカテゴリに属する情報の特徴を学習したモデルを選択し、選択したモデルにクライアントサーバ200が指定したカテゴリに属する情報の特徴を学習させることで、より効率的なモデルの学習を実現するといったビジネスモデルも考えられる。このようなビジネスモデルを実現するには、クライアントサーバ200が指定したカテゴリと類似するカテゴリに属する情報の特徴を学習したモデルを適切に選択するには、登録されたモデルがどのような学習データを用いて、どのような特徴を学習させたモデルであるかを登録者が登録する必要がある。しかしながら、モデルを作成する際の学習データには、個人情報等、秘匿しなければならない情報が含まれる場合がある。また、どのような特徴を学習させたかといったノウハウについても、秘匿したいという要望が考えられる。
一方で、クライアントサーバ200が指定したカテゴリに属する情報の特徴を学習したモデルを一から生成するには、多くの学習データや学習時における計算リソースを要する。このため、従来技術では、クライアントサーバ200が指定したカテゴリに属する情報の特徴を学習したモデルの作成が困難である。
そこで、特定装置10は、以下の特定処理を実行する。まず、特定装置10は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、そのモデルと対応する行列を生成する。続いて、特定装置10は、生成した行列の固有値を算出する。そして、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデル行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する。例えば、特定装置10は、モデルと対応する行列として、ノード間の接続係数に基づいたランダム行列を生成し、生成したランダム行列を用いて、上手した特定処理を実行する。
例えば、特定装置10は、所定の構造を有するモデルの登録を登録サーバ100から受付ける(ステップS1)。より具体的な例を挙げると、特定装置10は、文字列や写真等、所定の情報を入力した際に、その情報の特徴に基づいた他の情報(例えば、文字列の要約や写真の要部等)を出力するように学習が行われたモデルの登録を受付ける。
ここで、ニューラルネットワーク等のモデルが有する各ノードは、1つ又は複数のノード(例えば、より入力層側の層のノードや出力層側の層のノード)と接続されており、シグモイド関数等を用いて、入力層側のノードから入力された値に応じた出力値を算出し、算出した出力値を出力層側の各ノードへと伝達する。また、ノード同士を接続する各経路には、それぞれ接続係数(すなわち、重み)が設定されており、入力層側のノードが出力した値に接続係数を反映させた値を入力層側のノードへと伝達する。
このようなモデルに情報の特徴を学習させる場合、ある情報を入力した際に所望する情報が得られるように、バックプロパゲーション等の学習手法を用いて、接続係数の値を補正する。このため、モデルに情報の特徴を学習させた場合、そのモデルが有するノード間の接続係数には、所定の傾向が生じると考えられる。より具体的には、あるカテゴリに属する情報を学習データとし、その学習データが有する特徴を複数のモデルに学習させた場合には、その学習データが有する特徴に応じた傾向、すなわち、学習データが属するカテゴリに応じた傾向が各モデルの接続係数に現れると考えられる。換言すると、同一または類似するカテゴリに属する学習データを用いて学習が行われた複数のモデルの接続係数は、傾向が相互に類似し、非類似のカテゴリに属する学習データを用いて学習が行われた複数のモデルの接続係数は、傾向が相互に類似しないと考えられる。
そこで、特定装置10は、登録者によって登録されたモデル(以下、「登録モデル」と記載する。)の接続係数が有する傾向に応じて、クライアントが指定したカテゴリ(以下「指定カテゴリ」と記載する。)に属する情報の学習により適したモデルの指標を特定し、特定した指標に基づいて、クライアントが指定したカテゴリに属する情報の学習に用いるモデルを選択する。また、特定装置10は、選択したモデルに対し、指定カテゴリに属する情報の特徴を学習させる。そして、特定装置10は、学習が行われたモデルをクライアントに出力する。
ここで、各登録モデルが有する接続係数の傾向を比較することで、各登録モデルの類似性を判断する手法としては、幾つかの手法が考えられるが、本実施形態において、特定装置10は、任意の学習が行われたモデルが学習に用いた学習データの分布と測定に用いるデータの分布との差を考慮する共変量シフトの考え方を用いて、各登録モデルの類似性を判断する。
例えば、特定装置10は、登録モデルが有する接続係数に基づいて、登録モデルと対応するランダム行列を生成し、生成したランダム行列の固有値と固有ベクトルとを算出する(ステップS2)。より具体的には、特定装置10は、登録モデルが有する各ノードの間の接続係数の発生確率を要素とするランダム行列を生成する。例えば、特定装置10は、登録モデルA1が有する各ノード間の接続係数をランダム行列A1が有する各要素の値と見做す。そして、特定装置10は、ランダム行列A1が有する固有値A1と固有ベクトルA1とを算出する。
このような登録モデルの接続係数を要素とするランダム行列の固有値は、各登録モデルが学習に用いた学習データの偏りと対応する偏りを有すると考えられる。例えば、第1のカテゴリに属する学習データの特徴を学習した複数の登録モデル(以下、「第1登録モデル群」と記載する。)と第2のカテゴリに属する学習データの特徴を学習した複数の登録モデル(以下、「第2登録モデル群」と記載する。)とが存在するものとする。このような場合、第1登録モデル群と対応する複数のランダム行列の固有値や、第2登録モデル群と対応する複数のランダム行列の固有値には、偏りが生じると考えられる。すなわち、各登録モデルの接続係数を要素とするランダム行列の固有値には、各登録モデルの学習に用いた学習データの偏りと対応する偏りが生じると考えられる。
そこで、特定装置10は、各カテゴリに属する登録モデルの固有値の分布の偏りに基づいて、登録モデルに共変量シフトにおけるパラメータθを算出し、カテゴリ間の関係性とパラメータθとの関係性を学習する(ステップS3)。すなわち、特定装置10は、第1のカテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第1のカテゴリに属する情報の分布と見做し、他の第2のカテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第2のカテゴリに属する情報の分布と見做して、情報の分布間における共変量シフトのパラメータを算出する。より具体的には、特定装置10は、第1のカテゴリに属する情報の特徴を学習した複数のモデルのランダム行列から算出された固有値の偏りと第2のカテゴリに属する情報の特徴を学習した複数のモデルのランダム行列から算出された固有値の偏りとの間の関係性を示すパラメータの値と、第1のカテゴリに属する情報の分布と第2のカテゴリに属する情報の分布との間のズレとの間の関係性を学習した学習モデルを生成する。
例えば、特定装置10は、カテゴリAに属する登録モデルの固有値A1、A2、A3が有する分布と、カテゴリBに属するモデルの固有値B1、B2、B3の分布との間のズレを、共変量シフトと見做し、共演量シフトを最小化させるパラメータθを算出する。
例えば、特定装置10は、登録モデルごとに、以下の式(1)で示されるランダム行列を生成する。なお、式(1)では、各ノード間の接続係数をwb1〜wbnと記載し、m個の所定の確率分布をwa1〜wamと記載した。また、式(1)に示すPは、以下の式(2)にpとして示す値である。
Figure 0006910873
Figure 0006910873
ここで、共変量シフトにおける訓練入力を以下の式(3)で示し、訓練標本を以下の式(4)で示す。
Figure 0006910873
Figure 0006910873
ここで、訓練入力の確率分布をP(x)とし共変量シフト化での確率分布をP(x)とする。すなわち、あるデータ群のうち学習データとして選択されるデータの確率分布をP(x)とし、そのデータ群のうち測定時に選択されるデータの確率分布をP(x)とする。このような場合、共変量シフトの値は、以下の式(5)で表すことができる。
Figure 0006910873
特定装置10は、このような共変量シフトの値を最小化するパラメータθと、学習データのカテゴリとの間の関係性を学習する。例えば、固有値A1、A2、A3をx、固有値B1、B2、B3をyとして入力した際に、式(5)の値を最小化するパラメータの値θを算出し、算出した値θをカテゴリAに属する学習データとカテゴリBに属する学習データとの間のズレを示す値とする。
このようなθの値は、各学習データが属するカテゴリ間のズレを示す指標となりえる。このような指標は、指定カテゴリの学習データを学習する対象となる登録モデルの選択に利用可能な指標になるとも考えられる。そこで、特定装置10は、学習モデルを用いて、指定カテゴリと所定のカテゴリとの間のθの値を登録モデルの選択に利用可能な指標として特定する。
例えば、特定装置10は、クライアントサーバ200から、カテゴリの指定を受付ける(ステップS4)。より具体的な例を挙げると、特定装置10は、「カテゴリC」を指定カテゴリとして受付ける。このような場合、特定装置10は、学習結果に基づいて、指定カテゴリに属する学習データの学習に適した登録モデルを選択し、選択した登録モデルを用いて、指定カテゴリに対応するモデルを生成する(ステップS5)。
例えば、特定装置10は、学習モデルを用いて、カテゴリAとカテゴリCとの間における共変量シフトのパラメータθACを特定する。また、特定装置10は、学習モデルを用いて、カテゴリBとカテゴリCとの間における共変量シフトのパラメータθBCを特定する。このような場合、特定装置10は、登録モデルのうち、カテゴリAに属する学習データの特徴を学習した登録モデルのランダム行列の固有値の分布との間の共変量シフトのパラメータがパラメータθACとなるような登録モデルであって、カテゴリBに属する学習データの特徴を学習した登録モデルのランダム行列の固有値の分布との間の共変量シフトのパラメータがパラメータθBCとなるような登録モデルを検索する。
なお、特定装置10は、カテゴリAとカテゴリCとの間における共変量シフトのパラメータθACのみを特定し、カテゴリAに属する学習データの特徴を学習した登録モデルのランダム行列の固有値の分布との間の共変量シフトのパラメータがパラメータθACとなるような登録モデルを検索してもよい。また、特定装置10は、3つ以上のカテゴリと、カテゴリCとの間の共変量シフトのパラメータを特定し、特定したパラメータを満たすような登録モデルを検索してもよい。
そして、特定装置10は、検索した特定モデルを用いて、クライアントに提供するモデル(以下、「提供モデル」と記載する。)を生成する。例えば、特定装置10は、特定モデルに、カテゴリCに属する学習データの特徴を学習させる。そして、特定装置10は、カテゴリCに属する学習データの特徴を学習した提供モデルをクライアントに対して提供する(ステップS6)。
このように、特定装置10は、生成した学習モデルを用いて、所定のカテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに対応するパラメータの値を、指標として特定する。すなわち、特定装置10は、第1カテゴリや第2カテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに基づいて、第1カテゴリや第2カテゴリに属する情報の特徴を学習した複数のモデルのランダム行列から算出された固有値の偏りと、指定カテゴリに属する情報の特徴を学習する複数のモデルのランダム行列から算出される固有値の偏りとの間のズレを示す情報を、指標として特定する。
そして、特定装置10は、特定された指標に基づいて、指定カテゴリに属する情報の特徴を学習させるモデルを選択し、選択したモデルに対し、指定カテゴリに属する情報の特徴を学習させ、学習が行われたモデルを出力する。このため、特定装置10は、モデルの作成を容易にすることができる。
例えば、上述した説明では、特定装置10は、各登録モデルが、ある程度の粒度で、どのカテゴリに属する学習データの特徴を学習したかを示す情報の登録を登録者から受付ければよい。また、特定装置10は、共変量シフトの方式を用いて、登録モデルと対応するランダム行列の固有値の分布を、学習データの分布の偏りと見做すことで、指定カテゴリと登録モデルが特徴を学習したカテゴリとの間のズレを、登録モデル同士の固有値の分布と見做し、指定カテゴリの学習に適した登録モデルを選択する。このため、特定装置10は、指定カテゴリの学習データを大量に有さずとも、あるデータ群に対する学習データの分布が、指定カテゴリに属するデータの分布と類似する学習データの特徴を学習した登録モデルを用いて、学習を行うことができる。すなわち、特定装置10は、指定カテゴリに属する学習データと類似する学習データによりプレトレーニングが行われた登録モデルを用いて、提供モデルを生成するので、モデルの作成に要するリソース等を削減できる。
〔2.特定装置の構成〕
以下、上記した特定処理を実現する特定装置10が有する機能構成の一例について説明する。図2は、実施形態に係る特定装置の構成例を示す図である。図2に示すように、特定装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、登録サーバ100、およびクライアントサーバ200との間で情報の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、登録モデルデータベース31および学習モデルデータベース32を記憶する。
登録モデルデータベース31には、登録者により登録がなされた各種の登録モデルが登録される。例えば、図3は、実施形態に係る登録モデルデータベースに登録される情報の一例を示す図である。図3に示すように、登録モデルデータベース31には、「モデルID(Identifier)」、「カテゴリ」、「モデルデータ」、「行列情報」、「固有ベクトル」、および「固有値」といった項目を有する情報が登録される。
ここで、「モデルID」とは、各モデルを識別するための識別子である。また、「カテゴリ」とは、各モデルが特徴を学習した学習データが属するカテゴリである。また、「モデルデータ」とは、対応付けられた「モデルID」が示す登録モデルのデータであり、各ノードの情報や接続係数の値等が登録される。また、「行列情報」とは、対応付けられた「モデルID」が示す登録モデルの接続係数の値に基づいて生成されたランダム行列である。また、「固有ベクトル」とは、ランダム行列の固有ベクトルである。また、「固有値」とは、ランダム行列の固有値である。
例えば、図3に示す例では、登録モデルデータベース31には、モデルID「モデル#1」、カテゴリ「カテゴリA」、モデルデータ「モデルデータ#1」、行列情報「ランダム行列#1」、固有ベクトル「固有ベクトル#1」、および固有値「固有値#1」とが対応付けて登録されている。このような情報は、モデルID「モデル#1」が示す登録モデルが、カテゴリ「カテゴリA」に属する学習データの特徴を学習しており、そのデータがモデルデータ「モデルデータ#1」である旨を示す。また、このような情報は、モデルID「モデル#1」が示す登録モデルのランダム行列が、「ランダム行列#1」であり、「ランダム行列#1」の固有ベクトルが「固有ベクトル#1」であり、固有値が「固有値#1」である旨を示す。
なお、図3に示す例では、「モデル#1」、「カテゴリA」、「モデルデータ#1」、「ランダム行列#1」、「固有ベクトル#1」、「固有値#1」といった概念的な値を記載したが、実際には、登録モデルデータベース31には、モデルやカテゴリを識別するための文字列、モデルを構成する各ノードの情報やノード間の接続関係を示す情報、ランダム行列が有する各要素、ランダム行列の固有ベクトル、および固有値を示す値等が登録されることとなる。
図2に戻り、説明を続ける。学習モデルデータベース32には、共変量シフトのパラメータθと、学習モデルが属するカテゴリとの間の関係性を学習した学習モデルのデータが登録される。なお、学習モデルデータベース32には、ニューラルネットワークや重回帰モデル等、任意の形式のモデルが登録されていてよい。
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、特定装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図2に示すように、制御部40は、取得部41、生成部42、算出部43、特定部44、選択部45、学習部46、および出力部47を有する。
取得部41は、登録モデルを取得する。例えば、取得部41は、登録サーバ100から、登録モデルのデータと、その登録モデルが特徴を学習した学習データが属するカテゴリとの登録を受付ける。このような場合、取得部41は、受付けた登録モデルのデータと、カテゴリとを登録モデルデータベース31にモデルIDと対応付けて登録する。
生成部42は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習した登録モデルが有するノード間の接続係数に基づいて、その登録モデルと対応する行列を生成する。より具体的な例を挙げると、生成部42は、登録モデルと対応する行列として、登録モデルの接続係数に基づくランダム行列を生成する。例えば、生成部42は、登録モデルが有する各ノードの間の接続係数の発生確率を要素とするランダム行列を生成する。より具体的な例を挙げると、生成部42は、登録モデルデータベース31に登録された登録モデルの中から、ランダム行列が登録されていない登録モデルを特定し、特定した登録モデルのモデルデータを読み出す。そして、生成部42は、上述した式(1)、(2)を用いて、登録モデルが有する各接続係数から、登録モデルと対応するランダム行列を生成し、生成したランダム行列を登録モデルデータベース31に登録する。
算出部43は、ランダム行列の固有値を算出する。例えば、算出部43は、登録モデルデータベース31に登録された登録モデルの中から、固有値や固有ベクトルが登録されていない登録モデルを特定し、特定した登録モデルのランダム行列を読み出す。そして、算出部43は、読み出したランダム行列の固有値および固有ベクトルを算出し、算出した固有値や固有ベクトルを登録モデルデータベース31に登録する。なお、固有値の算出や固有ベクトルの算出は、任意の公知技術が採用可能である。
特定部44は、第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させる登録モデルの指標を特定する。例えば、特定部44は、所定の第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値群と、所定の第2カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値群と、を登録モデルデータベース31から読み出す。
そして、特定部44は、所定の第1カテゴリと対応する固有値群の偏りと、所定の第2カテゴリと対応する固有値群の偏りとの間の関係性を示すパラメータθの値を上述した式(5)を用いて算出する。すなわち、特定部44は、第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第1カテゴリに属する情報の分布と見做し、第2カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第2カテゴリに属する情報の分布と見做して、分布間における共変量シフトのパラメータを算出する。
また、特定部44は、式(5)を用いて算出したパラメータθの値が有する特徴を学習モデルに学習させる。より具体的には、特定部44は、第1カテゴリに属する情報の分布と第2カテゴリに属する情報の分布との間のズレと、パラメータθとの間の関係性を学習モデルに学習させる。また、特定部44は、各カテゴリ間ごとに、上述した処理を実行することで、各カテゴリ間における情報の分布のズレと、パラメータθとの間の関係性を学習モデルに学習させる。
また、特定部44は、クライアントサーバ200から指定カテゴリの通知を受付けた場合は、学習モデルを用いて、指定カテゴリに属する情報の分布と、他のカテゴリに属する情報の分布との間のズレに対応するパラメータθの値を指標として特定する。例えば、特定部44は、指定カテゴリと他のカテゴリとを学習モデルに入力することで、指定カテゴリと各カテゴリとの間のズレに対応するパラメータθの値をそれぞれ算出する。すなわち、特定部44は、第1カテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに基づいて、第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りと、指定カテゴリに属する情報の特徴を学習する複数のモデルのランダム行列から算出される固有値の偏りとの間のズレを示す情報を、指標として特定する。
選択部45は、特定された指標に基づいて、指定カテゴリに属する情報の特徴を学習させるモデルを選択する。例えば、選択部45は、登録モデルの中から、処理対象となるカテゴリを1つ選択し、選択したカテゴリに属する登録モデルの固有値の偏りと、他のカテゴリに属する登録モデルの固有値の偏りとから、パラメータθの値を算出する。そして、選択部45は、他の各カテゴリとの間のパラメータθの値が、特定部44によって特定されたパラメータθと類似するカテゴリを選択する。
例えば、選択部45は、指定カテゴリとして、カテゴリCの指定を受付けた場合、カテゴリAとカテゴリCとの間のパラメータθACと、カテゴリBとカテゴリCとの間のパラメータθBCとを学習モデルを用いて算出する。また、選択部45は、例えば、処理対象となるカテゴリとして、カテゴリDを選択した場合、カテゴリAとカテゴリDとの間のパラメータθADと、カテゴリBとカテゴリCとの間のパラメータθBDとを、各カテゴリに属する登録モデルと対応するランダム行列の固有値の偏りから算出する。そして、選択部45は、パラメータθACと、パラメータθADとの値が類似し、かつ、パラメータθBCとパラメータθBDとの値が類似する場合は、カテゴリDをカテゴリCに類似するカテゴリとして選択する。その後、選択部45は、選択したカテゴリDに属する登録モデルの中から、いズレかの登録モデルを選択する。
学習部46は、選択されたモデルに対し、指定カテゴリに属する情報の特徴を学習させる。例えば、学習部46は、指定カテゴリに属する情報を学習データとして任意の手法で取得する。例えば、学習部46は、クライアントサーバ200から、指定カテゴリに属する学習データの登録を受付けてもよい。そして、学習部46は、選択部45によって選択された登録モデルに、取得した学習データが有する特徴を学習させる。
出力部47は、学習が行われた登録モデルを提供モデルとして出力する。例えば、出力部47は、学習部46が指定カテゴリに属する学習データを登録モデルに学習させた場合は、かかる登録モデルを提供モデルとして、クライアントサーバ200へと送信する。
〔3.特定装置が実行する処理の流れの一例〕
次に、図4、図5を用いて、特定装置10が実行する処理の流れの一例について説明する。図4は、実施形態に係る特定処理の流れの一例を説明するフローチャートである。また、図5は、実施形態に係る特定処理の結果を用いて、提供モデルを生成する処理の流れの一例を説明するフローチャートである。
まず、図4を用いて、特定処理の流れの一例を説明する。まず、特定装置10は、登録モデルの登録を受付ける(ステップS101)。このような場合、特定装置10は、登録モデルと対応するランダム行列を生成し、生成したランダム行列の固有値を算出する(ステップS102)。そして、特定装置10は、各カテゴリに属する登録モデルの固有値の分布の偏りに基づいて、共変量シフトにおけるパラメータθの値をカテゴリ間ごとに算出し(ステップS103)、カテゴリ間の関係性と算出したパラメータθの値との特徴を学習モデルに学習させ(ステップS104)、処理を終了する。
次に、図5を用いて、提供モデルを生成する処理の流れの一例を説明する。まず、特定装置10は、指定カテゴリを受付ける(ステップS201)。このような場合、特定装置10は、指定カテゴリと、他のカテゴリとの間の関係性に基づいて、学習モデルを用いて、対応するパラメータθの値を特定する(ステップS202)。そして、特定装置10は、他のカテゴリとの間の共変量シフトにおけるパラメータθの値が、特定したパラメータの値と類似するカテゴリに属する登録モデルを選択する(ステップS203)。
そして、特定装置10は、選択した登録モデルを用いて、指定カテゴリの学習データの特徴を学習したモデルを生成し(ステップS204)、生成した登録モデルを提供モデルとして出力し(ステップS205)、処理を終了する。
〔4.変形例〕
上記では、特定装置10による特定処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、特定装置10が実行する特定処理のバリエーションについて説明する。
〔4−1.指標について〕
例えば、特定装置10は、指定カテゴリと他のカテゴリとの間のパラメータθの値を、指標として出力してもよい。このようなパラメータθの値は、指定カテゴリを学習させるためのモデルを生成したり、他に学習データの量が豊富なカテゴリであって、モデルのプレトレーニングに利用することが可能であるカテゴリの選択に利用可能である。また、特定装置10は、各カテゴリ間の関係性と、パラメータθとの間の関係性を学習した学習モデルを指標を示す情報として出力してもよい。
〔4−2.学習モデルについて〕
ここで、特定装置10は、指定カテゴリと他のカテゴリとの間のパラメータθの値を特定することができるのであれば、任意の学習手法により学習が行われた学習モデルを用いて、パラメータθの値を特定して良い。例えば、特定装置10は、w2v等の技術を用いて、第1カテゴリを示す文字列や第2カテゴリを示す文字列からベクトルを生成し、生成したベクトル間の関係性(例えば、コサイン類似度)と、パラメータθとの間の関係性を学習モデルに学習させる。そして、特定装置10は、w2v等の技術を用いて、指定カテゴリを示す文字列のベクトルを生成し、生成したベクトルと、他のカテゴリのベクトルとの間の関係性から、指定カテゴリと他のカテゴリとの間の関係性に対応するパラメータθの値を算出してもよい。また、特定装置10は、ランダム行列以外にも、各モデルの接続係数の特徴を示すことができる行列であれば、任意の行列の固有値に基づいて、各モデルの学習データの偏りを推定し、推定した偏りに基づいて、指定カテゴリの学習に用いるモデルの指標を特定すればよい。
〔4−3.装置構成〕
上述した例では、特定装置10は、特定装置10内で特定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、特定装置10は、パラメータθの算出、学習モデルの学習、指定カテゴリの学習に利用可能な登録モデルの選択、提供モデルの学習等を実行するバックエンドサーバと、指定カテゴリの受付や提供モデルの提供を行うフロントエンドサーバとにより実現されてもよい。また、特定装置10は、登録モデルデータベース31や学習モデルデータベース32を外部のストレージサーバに記憶させてもよい。
〔4−4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔5.プログラム〕
また、上述してきた実施形態に係る特定装置10は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が特定装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
〔6.効果〕
上述したように、特定装置10は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、モデルと対応する行列を生成する。また、特定装置10は、行列の固有値を算出する。そして、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する。このため、特定装置10は、モデルの作成を容易にすることができる。
また、特定装置10は、特定された指標に基づいて、指定カテゴリに属する情報の特徴を学習させるモデルを選択する。そして、特定装置10は、選択したモデルに対し、指定カテゴリに属する情報の特徴を学習させ、学習が行われたモデルを出力する。このため、特定装置10は、指定カテゴリに属する学習データの特徴を学習させたモデルを比較的に容易に生成できる。
また、特定装置10は、モデルが有する各ノード間の接続係数に基づいた、ランダム行列を生成する。例えば、特定装置10は、モデルが有する各ノードの間の接続係数の発生確率を要素とするランダム行列を生成する。このため、特定装置10は、各モデルが学習した学習データが有する分布の偏りを、ランダム行列の固有値の分布とし、かかる固有値の分布に応じて、指定カテゴリに属する情報の特徴を容易に学習できるモデルを選択することができる。
また、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、指定カテゴリに属する情報の特徴を学習する複数のモデルの行列から算出される固有値の偏りとの間のズレを示す情報を、指標として特定する。例えば、特定装置10は、所定のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの間の関係性を示すパラメータの値と、所定のカテゴリに属する情報の分布と前記他のカテゴリに属する情報の分布との間のズレとの間の関係性を学習した学習モデルを生成し、生成した学習モデルを用いて、第1カテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに対応するパラメータの値を、指標として特定する。このため、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデルが、指定カテゴリに属する情報の特徴を容易に学習できるか否かを示す指標を特定することができる。
また、特定装置10は、所定のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りを、所定のカテゴリに属する情報の分布と見做し、他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りを、他のカテゴリに属する情報の分布と見做して、情報の分布間における共変量シフトのパラメータを算出する。このため、特定装置10は、各モデルが学習した学習データが有する分布の偏りに基づいて、指定カテゴリに属する情報の特徴を容易に学習できるモデルを選択することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。
10 特定装置
20 通信部
30 記憶部
31 登録モデルデータデータベース
32 学習モデルデータベース
40 制御部
41 取得部
42 生成部
43 算出部
44 特定部
45 選択部
46 学習部
47 出力部
100 登録サーバ
200 クライアントサーバ

Claims (7)

  1. 多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、当該モデルと対応する行列を生成する行列生成部と、
    前記行列の固有値を算出する算出部と、
    各カテゴリについて、当該カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、当該カテゴリとは異なる他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの間のずれに基づくパラメータの値と、当該カテゴリおよび当該他のカテゴリ間の関係性との間の関係性を学習させた学習モデルを用いて、利用者が指定した指定カテゴリと各カテゴリとの間のパラメータを特定する特定部と
    前記特定部により特定されたパラメータと、各カテゴリ間のパラメータとの比較結果に基づいて、前記指定カテゴリに属する情報の特徴を学習させるモデルを選択する選択部と、
    を有することを特徴とする特定装置。
  2. 記選択部が選択したモデルに対し、前記指定カテゴリに属する情報の特徴を学習させる学習部と、
    前記学習部により学習が行われたモデルを出力する出力部と
    を有することを特徴とする請求項1に記載の特定装置。
  3. 前記行列生成部は、前記モデルと対応する行列として、ランダム行列を生成する
    ことを特徴とする請求項1に記載の特定装置。
  4. 前記行列生成部は、前記モデルが有する各ノードの間の接続係数の発生確率を要素とするランダム行列を生成する
    ことを特徴とする請求項3に記載の特定装置。
  5. 前記特定部は、所定のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの間の関係性を示すパラメータの値と、前記所定のカテゴリに属する情報の分布と前記他のカテゴリに属する情報の分布との間のズレとの間の関係性を学習した前記学習モデルを生成す
    ことを特徴とする請求項1〜4のうちいずれか1つに記載の特定装置。
  6. 前記特定部は、所定のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りを、当該所定のカテゴリに属する情報の分布と見做し、前記他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りを、当該他のカテゴリに属する情報の分布と見做して、情報の分布間における共変量シフトのパラメータを算出する
    ことを特徴とする請求項に記載の特定装置。
  7. 特定装置が実行する特定方法であって、
    多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、当該モデルと対応する行列を生成する行列生成工程と、
    前記行列の固有値を算出する算出工程と、
    各カテゴリについて、当該カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、当該カテゴリとは異なる他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの間のずれに基づくパラメータの値と、当該カテゴリおよび当該他のカテゴリ間の関係性との間の関係性を学習させた学習モデルを用いて、利用者が指定した指定カテゴリと各カテゴリとの間のパラメータを特定する特定工程と
    前記特定工程により特定されたパラメータと、各カテゴリ間のパラメータとの比較結果に基づいて、前記指定カテゴリに属する情報の特徴を学習させるモデルを選択する選択工程と、
    を含むことを特徴とする特定方法。
JP2017141231A 2017-07-20 2017-07-20 特定装置および特定方法 Active JP6910873B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141231A JP6910873B2 (ja) 2017-07-20 2017-07-20 特定装置および特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141231A JP6910873B2 (ja) 2017-07-20 2017-07-20 特定装置および特定方法

Publications (2)

Publication Number Publication Date
JP2019021210A JP2019021210A (ja) 2019-02-07
JP6910873B2 true JP6910873B2 (ja) 2021-07-28

Family

ID=65353206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141231A Active JP6910873B2 (ja) 2017-07-20 2017-07-20 特定装置および特定方法

Country Status (1)

Country Link
JP (1) JP6910873B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6971271B2 (ja) * 2019-02-14 2021-11-24 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7267964B2 (ja) * 2019-03-14 2023-05-02 アクタピオ,インコーポレイテッド 生成装置、生成方法および生成プログラム

Also Published As

Publication number Publication date
JP2019021210A (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
US11521110B2 (en) Learning apparatus, learning method, and non-transitory computer readable storage medium
CN108431833B (zh) 端到端深度协作过滤
US11699095B2 (en) Cross-domain recommender systems using domain separation networks and autoencoders
TW201909112A (zh) 圖像特徵獲取
CN112000819A (zh) 多媒体资源推荐方法、装置、电子设备及存储介质
CN111783810B (zh) 用于确定用户的属性信息的方法和装置
JP6975610B2 (ja) 学習装置および学習方法
CN109726331B (zh) 对象偏好预测的方法、装置和计算机可读介质
US20190354533A1 (en) Information processing device, information processing method, and non-transitory computer-readable recording medium
US11227228B2 (en) Processing apparatus, processing method, estimating apparatus, estimating method, and program
JP6910873B2 (ja) 特定装置および特定方法
JP6947768B2 (ja) 推定装置、推定方法および推定プログラム
JP7058556B2 (ja) 判定装置、判定方法、および判定プログラム
JP6963988B2 (ja) 提供装置、提供方法および提供プログラム
JP7231322B2 (ja) 学習装置、学習方法、学習プログラム及びプログラム
JP6541737B2 (ja) 選択装置、選択方法、選択プログラム、モデルおよび学習データ
JP6998349B2 (ja) 学習装置、学習方法、および学習プログラム
JP2020004054A (ja) 出力装置、出力方法および出力プログラム
JP7054645B2 (ja) 生成装置、生成方法、生成プログラムおよびプログラムパラメータ
JP7198900B2 (ja) 生成装置、生成方法、及び生成プログラム
JP7449426B2 (ja) 情報処理方法、情報処理装置および情報処理プログラム
JP6956133B2 (ja) モデル
JP6942028B2 (ja) 比較装置、比較方法および比較プログラム
JP7041018B2 (ja) 学習装置、学習方法及び学習プログラム
JP6869849B2 (ja) 情報提供装置、情報提供方法、および情報提供プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6910873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250