JP7452623B2 - 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム - Google Patents
学習装置、情報処理装置、学習方法、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7452623B2 JP7452623B2 JP2022504937A JP2022504937A JP7452623B2 JP 7452623 B2 JP7452623 B2 JP 7452623B2 JP 2022504937 A JP2022504937 A JP 2022504937A JP 2022504937 A JP2022504937 A JP 2022504937A JP 7452623 B2 JP7452623 B2 JP 7452623B2
- Authority
- JP
- Japan
- Prior art keywords
- answer
- basis
- learning
- question
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 38
- 230000010365 information processing Effects 0.000 title claims description 11
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000000605 extraction Methods 0.000 claims description 88
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 239000000284 extract Substances 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 description 59
- 238000012545 processing Methods 0.000 description 56
- 238000012549 training Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 19
- 238000011156 evaluation Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 102100036419 Calmodulin-like protein 5 Human genes 0.000 description 1
- 101000714353 Homo sapiens Calmodulin-like protein 5 Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/908—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
・回答モデル:根拠と質問とを入力として、回答を出力するモデル
ここで、根拠は参照テキストの部分文字列の集合である。本実施形態では、根拠は文の集合であるものとする。ただし、これに限られず、根拠は、文よりも長い文字列(例えば、段落等)の集合であってもよいし、文よりも短い文字列(例えば、フレーズ等)の集合であってもよい。
まず、機械読解モデルのパラメータが学習済みであるものとして、学習済みのパラメータを用いて機械読解モデルにより機械読解を行う場合について説明する。推論時における質問応答装置10には、参照テキストPと、この参照テキストPに関連する質問Qとが入力される。
推論時における質問応答装置10の全体構成について、図1を参照しながら説明する。図1は、推論時における質問応答装置10の全体構成の一例を示す図である。
次に、本実施形態に係る推論処理について、図2を参照しながら説明する。図2は、本実施形態に係る推論処理の一例を示すフローチャートである。
Step1:根拠抽出部112は、質問ベクトルqtを用いて、以下により文iのスコアを得る。
次に、機械読解モデルのパラメータは学習済みでないものとして、このパラメータを教師あり学習により学習する場合について説明する。学習(教師あり学習)時における質問応答装置10には、参照テキストPと、この参照テキストPに関連する質問Qと、この質問Qに対する真の回答の回答範囲を示す正解回答Aと、この正解回答Aの真の根拠を示す正解根拠Rとが含まれる訓練データの集合(訓練データセット)が入力される。
学習(教師あり学習)時における質問応答装置10の全体構成について、図3を参照しながら説明する。図3は、学習(教師あり学習)時における質問応答装置10の全体構成の一例を示す図である。なお、図3では、主に、推論時との相違点について説明し、推論時と同様の構成要素についてはその説明を省略する。
次に、本実施形態に係る教師あり学習処理について、図4を参照しながら説明する。図4は、本実施形態に係る教師あり学習処理の一例を示すフローチャートである。以降では、オンライン学習により根拠モデルパラメータ及び回答モデルパラメータを学習する場合について説明するが、これは一例であって、バッチ学習やミニバッチ学習等も適用可能である。
次に、教師なし学習により機械読解モデルのパラメータを学習する場合について説明する。学習(教師なし学習)時における質問応答装置10には、参照テキストPと、この参照テキストPに関連する質問Qと、この質問Qに対する真の回答の回答範囲を示す正解回答Aとが含まれる訓練データの集合(訓練データセット)が入力される。このように、教師なし学習時には、正解回答Aの真の根拠を示す正解根拠Rが与えられない(つまり、教師なしとは正解根拠Rが与えられないことを意味する。)。このため、正解根拠Rが入手できない又は存在しない場合であっても、機械読解モデルのパラメータを学習することができる。
学習(教師なし学習)時における質問応答装置10の全体構成について、図5を参照しながら説明する。図5は、学習(教師なし学習)時における質問応答装置10の全体構成の一例を示す図である。なお、図5では、主に、推論時との相違点について説明し、推論時と同様の構成要素についてはその説明を省略する。
次に、本実施形態に係る教師なし学習処理について、図6を参照しながら説明する。図6は、本実施形態に係る教師なし学習処理の一例を示すフローチャートである。以降では、オンライン学習により根拠モデルパラメータ及び回答モデルパラメータを学習する場合について説明するが、これは一例であって、バッチ学習やミニバッチ学習等も適用可能である。
以下、本実施形態の評価について説明する。
正解根拠(つまり、根拠の教師データ)を持つデータセットであるHotpotQAを用いて評価した。HotpotQAでは、質問QはWikipedia中の2段落に跨る内容を問うように作成される。参照テキストPは当該2段落を繋げたテキストとした。出力は回答Aと根拠Rである。回答Aは回答ラベル{yes,no,span}のいずれかと回答区間(回答範囲)である。回答区間は、回答ラベルが'span'のときのみ存在する。よって、回答モデルでは回答区間の分類に加えて回答ラベルの分類も行なった。質問Qが2段落に跨る内容を問う質問に限定されているため、根拠Rは2文以上となる。以降では、便宜上、根拠Rに含まれる文のうち、回答Aを含む文を回答文、回答を含まないが回答するために必要な文を補助文と呼ぶ。なお、HotpotQAについては、例えば、参考文献3「Z. Yang, P. Qi, S. Zhang, Y. Bengio, W. W. Cohen, R. Salakhutdinov, and C. D. Manning. HotpotQA: A dataset for diverse, explainable multi-hop question answering. In EMNLP, pp. 2369-2380, 2018.」等を参照されたい。
本評価では、BERTBaseを用いた3つの手法を比較した。ベースラインモデルは根拠モデルなしのモデルであり、回答モデルに直接参照テキストPと質問Qとを入力する。本実施形態の手法としては、教師あり学習と、教師あり学習の後に教師なし学習を行った追加学習とを評価した。教師あり学習ではバッチサイズを60、エポック数を3、最適化手法をAdam、学習率を5e-5とし、教師なし学習ではエポック数を1、学習率を5e-6、τを0.001、λCを0、λNを1、λEを0.001として、GPU(Graphics Processing Unit)を用いて学習を行った。
以上のデータセットと実験設定で実験を行った場合における回答と根拠の評価結果を以下の表1に示す。
回答精度に関して、本実施形態の手法(教師あり学習、追加学習)はベースラインの性能を上回った。特にベースラインの性能を上回ったことで、回答モデルの前に根拠モデルを用いる解釈可能な機械読解モデルが、回答モデル単体に比べて精度よく回答できることを確認した。これは、根拠モデルが不要なテキストを取り除く効果があり、回答モデルでの推論が容易になるためであると考えられる。
教師あり学習と追加学習での根拠の出力の変化を以下の表2に示す。
回答モデル単体としての性能を評価するため、根拠の予測結果で開発データを4つのドメイン「全て」、「完全一致」、「過剰」、「不足」に分類して評価を行った。「全て」は全ての開発データのドメイン、「完全一致」は教師あり学習と追加学習とで根拠の抽出結果^Rが真の根拠Rに対して完全一致(R=^R)したデータのドメイン、「過剰」は教師あり学習と追加学習とで根拠の抽出結果^Rが真の根拠Rに対して過剰(Rは^Rの真部分集合)となったデータのドメイン、「不足」は教師あり学習と追加学習とで根拠の抽出結果^Rが真の根拠Rに対して不足(^RはRの真部分集合)なったデータのドメインである。回答ラベルが'span'かつ回答文を抽出していないサンプルでは回答が不可能であるため、分析に用いなかった。このときの評価結果を以下の表4に示す。
本実施形態では、解釈可能な機械読解モデルを定義し、教師なし学習での学習手法を初めて提案した。
最後に、本実施形態に係る質問応答装置10のハードウェア構成について、図7を参照しながら説明する。図7は、本実施形態に係る質問応答装置10のハードウェア構成の一例を示す図である。
101 根拠抽出処理部
102 回答抽出処理部
103 パラメータ学習部
111 言語理解部
112 根拠抽出部
121 言語理解部
122 回答抽出部
201 根拠モデルパラメータ記憶部
202 回答モデルパラメータ記憶部
Claims (9)
- テキストと、前記テキストに関連する質問とを入力として、第1のニューラルネットワークのモデルパラメータを用いて、前記テキストに含まれる文字列が前記質問に対する回答の根拠となる尤もらしさを表す根拠スコアを算出し、前記根拠スコアをパラメータとして持つ所定の分布からのサンプリングによって、前記回答の根拠となる文字列の集合を示す第1の集合を前記テキストから抽出する根拠抽出手段と、
前記質問と、前記第1の集合とを入力として、第2のニューラルネットワークのモデルパラメータを用いて、前記回答を前記第1の集合から抽出する回答抽出手段と、
前記回答と前記質問に対する真の回答との間の第1の損失と連続緩和とを用いて誤差逆伝搬により勾配を計算することで、前記第1のニューラルネットワークのモデルパラメータと前記第2のニューラルネットワークのモデルパラメータとを学習する第1の学習手段と、
を有することを特徴とする学習装置。 - 前記第1の学習手段は、
前記根拠抽出手段により抽出された文字列が表す情報が、前記質問が言及する情報を包含しないことへの罰則に関する項と、前記根拠抽出手段により抽出された文字列中に前記回答が含まれないことへの罰則に関する項とが含まれる損失関数により前記第1の損失を計算する、ことを特徴とする請求項1に記載の学習装置。 - 前記根拠抽出手段は、
前記テキストと、前記テキストに関連する質問と、前記質問に対する回答の正解根拠である文字列の集合を示す第2の集合とを入力として、前記第1のニューラルネットワークのモデルパラメータを用いて、前記第1の集合に含まれる文字列を、前記第2の集合から抽出し、
前記学習装置は、前記第1の集合と前記第2の集合との間の第2の損失を用いて、前記第1のニューラルネットワークのモデルパラメータを学習すると共に、前記回答と前記真の回答との間の第3の損失を用いて、前記第2のニューラルネットワークのモデルパラメータを学習する第2の学習手段を更に有し、
前記第1の学習手段による学習は前記第2の学習手段による学習の後に行われる、ことを特徴とする請求項1又は2に記載の学習装置。 - テキストと、前記テキストに関連する質問とを入力として、第1のニューラルネットワークのモデルパラメータを用いて、前記質問に対する回答の根拠となる文字列の集合を前記テキストから抽出する根拠抽出手段と、
前記質問と、前記質問に対する回答の根拠となる文字列の集合とを入力として、第2のニューラルネットワークのモデルパラメータを用いて、前記回答を前記集合から抽出する回答抽出手段と、
を有することを特徴とする情報処理装置。 - テキストと、前記テキストに関連する質問とを入力として、第1のニューラルネットワークのモデルパラメータを用いて、前記質問に対する回答の根拠となる文字列の集合を前記テキストから抽出する根拠抽出手段と、
前記質問と、前記質問に対する回答の根拠となる文字列の集合とを入力として、第2のニューラルネットワークのモデルパラメータを用いて、前記回答を前記集合から抽出する回答抽出手段と、
を有し、
前記第1のニューラルネットワークのモデルパラメータと前記第2のニューラルネットワークのモデルパラメータは、学習時に与えられたテキストと前記テキストに関連する質問とを用いて前記根拠抽出手段及び前記回答抽出手段で抽出された回答と、前記学習時に与えられた真の回答との間の損失と連続緩和とを用いて誤差逆伝搬により勾配を計算することで学習されたものである、ことを特徴とする情報処理装置。 - テキストと、前記テキストに関連する質問とを入力として、第1のニューラルネットワークのモデルパラメータを用いて、前記テキストに含まれる文字列が前記質問に対する回答の根拠となる尤もらしさを表す根拠スコアを算出し、前記根拠スコアをパラメータとして持つ所定の分布からのサンプリングによって、前記回答の根拠となる文字列の集合を示す第1の集合を前記テキストから抽出する根拠抽出手順と、
前記質問と、前記第1の集合とを入力として、第2のニューラルネットワークのモデルパラメータを用いて、前記回答を前記第1の集合から抽出する回答抽出手段と、
前記回答と前記質問に対する真の回答との間の第1の損失と連続緩和とを用いて誤差逆伝搬により勾配を計算することで、前記第1のニューラルネットワークのモデルパラメータと前記第2のニューラルネットワークのモデルパラメータとを学習する第1の学習手順と、
をコンピュータが実行することを特徴とする学習方法。 - テキストと、前記テキストに関連する質問とを入力として、第1のニューラルネットワークのモデルパラメータを用いて、前記質問に対する回答の根拠となる文字列の集合を前記テキストから抽出する根拠抽出手順と、
前記質問と、前記質問に対する回答の根拠となる文字列の集合とを入力として、第2のニューラルネットワークのモデルパラメータを用いて、前記回答を前記集合から抽出する回答抽出手順と、
をコンピュータが実行することを特徴とする情報処理方法。 - テキストと、前記テキストに関連する質問とを入力として、第1のニューラルネットワークのモデルパラメータを用いて、前記質問に対する回答の根拠となる文字列の集合を前記テキストから抽出する根拠抽出手順と、
前記質問と、前記質問に対する回答の根拠となる文字列の集合とを入力として、第2のニューラルネットワークのモデルパラメータを用いて、前記回答を前記集合から抽出する回答抽出手順と、
をコンピュータが実行し、
前記第1のニューラルネットワークのモデルパラメータと前記第2のニューラルネットワークのモデルパラメータは、学習時に与えられたテキストと前記テキストに関連する質問とを用いて前記根拠抽出手順及び前記回答抽出手順で抽出された回答と、前記学習時に与えられた真の回答との間の損失と連続緩和とを用いて誤差逆伝搬により勾配を計算することで学習されたものである、ことを特徴とする情報処理方法。 - コンピュータを、請求項1乃至3の何れか一項に記載の学習装置における各手段、又は、請求項4又は5に記載の情報処理装置における各手段、として機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/009806 WO2021176714A1 (ja) | 2020-03-06 | 2020-03-06 | 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021176714A1 JPWO2021176714A1 (ja) | 2021-09-10 |
JP7452623B2 true JP7452623B2 (ja) | 2024-03-19 |
Family
ID=77613967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022504937A Active JP7452623B2 (ja) | 2020-03-06 | 2020-03-06 | 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240202495A1 (ja) |
JP (1) | JP7452623B2 (ja) |
WO (1) | WO2021176714A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11694018B2 (en) * | 2021-01-29 | 2023-07-04 | Salesforce, Inc. | Machine-learning based generation of text style variations for digital content items |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018060364A (ja) | 2016-10-05 | 2018-04-12 | 国立研究開発法人情報通信研究機構 | 因果関係認識装置及びそのためのコンピュータプログラム |
JP2019220142A (ja) | 2018-06-18 | 2019-12-26 | 日本電信電話株式会社 | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム |
-
2020
- 2020-03-06 JP JP2022504937A patent/JP7452623B2/ja active Active
- 2020-03-06 US US17/908,898 patent/US20240202495A1/en active Pending
- 2020-03-06 WO PCT/JP2020/009806 patent/WO2021176714A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018060364A (ja) | 2016-10-05 | 2018-04-12 | 国立研究開発法人情報通信研究機構 | 因果関係認識装置及びそのためのコンピュータプログラム |
JP2019220142A (ja) | 2018-06-18 | 2019-12-26 | 日本電信電話株式会社 | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021176714A1 (ja) | 2021-09-10 |
US20240202495A1 (en) | 2024-06-20 |
WO2021176714A1 (ja) | 2021-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Learning latent opinions for aspect-level sentiment classification | |
US11544474B2 (en) | Generation of text from structured data | |
Hill et al. | The goldilocks principle: Reading children's books with explicit memory representations | |
CN109299228B (zh) | 计算机执行的文本风险预测方法及装置 | |
CN110457708B (zh) | 基于人工智能的词汇挖掘方法、装置、服务器及存储介质 | |
US20130018650A1 (en) | Selection of Language Model Training Data | |
US20210125516A1 (en) | Answer training device, answer training method, answer generation device, answer generation method, and program | |
Jain et al. | Fine-tuning textrank for legal document summarization: A Bayesian optimization based approach | |
KR20200007713A (ko) | 감성 분석에 의한 토픽 결정 방법 및 장치 | |
CN110717038B (zh) | 对象分类方法及装置 | |
CN111126067B (zh) | 实体关系抽取方法及装置 | |
JPWO2019106965A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20200088088A (ko) | 단어 속성 분류 장치 및 방법 | |
Budhiraja et al. | A supervised learning approach for heading detection | |
Shah et al. | Simple App Review Classification with Only Lexical Features. | |
Laskar et al. | CQSumDP: a ChatGPT-annotated resource for query-focused abstractive summarization based on debatepedia | |
JP7452623B2 (ja) | 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム | |
Xiaoyan et al. | BiLSTM model with attention mechanism for sentiment classification on Chinese mixed text comments | |
Mahmoodvand et al. | Semi-supervised approach for Persian word sense disambiguation | |
JP6426074B2 (ja) | 関連文書検索装置、モデル作成装置、これらの方法及びプログラム | |
Rodrigues et al. | Finely tuned, 2 billion token based word embeddings for portuguese | |
Ling | Coronavirus public sentiment analysis with BERT deep learning | |
WO2022079826A1 (ja) | 学習装置、情報処理装置、学習方法、情報処理方法及びプログラム | |
CN113869034A (zh) | 基于强化依赖图的方面情感分类方法 | |
Pisařovic et al. | Preprocessing of normative documents for interactive question answering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220829 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20220922 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20220922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7452623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |