JP6077727B1 - 多言語の固有表現認識モデルの転移を行うコンピュータシステム、方法、およびプログラム - Google Patents
多言語の固有表現認識モデルの転移を行うコンピュータシステム、方法、およびプログラム Download PDFInfo
- Publication number
- JP6077727B1 JP6077727B1 JP2016562284A JP2016562284A JP6077727B1 JP 6077727 B1 JP6077727 B1 JP 6077727B1 JP 2016562284 A JP2016562284 A JP 2016562284A JP 2016562284 A JP2016562284 A JP 2016562284A JP 6077727 B1 JP6077727 B1 JP 6077727B1
- Authority
- JP
- Japan
- Prior art keywords
- source language
- sample
- similarity
- word
- annotated source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
Description
図2は、CRFマッピングで使用される情報要素のブロック図であり、情報入力、中間情報、及び情報出力を示す。このプロセスは、ソース言語の注釈付きのテキストサンプル202と、ターゲット言語のテキストサンプル204とにより開始する。ソース言語の注釈付きテキストサンプル202中の固有表現に、例えばブランド名、サイズ、色、種類などの各自の固有表現クラスをタグ付けする。ソース言語の注釈付きテキストサンプル202中の残りの単語はタグ付けしないか、又はそれらが固有表現でないことを示すような形でタグ付けする。
単語トークンの位置208は、文の中で単語が固有表現であるかどうか、また固有表現である場合にはどのクラスの固有表現であるかを判定する助けとなり得る位置に、その単語があるか否かを示す。例えば、文頭又は文末にあることや、文頭又は文末から一定の距離にあることは、単語がある固有表現のクラスに属するかどうかを判定する助けとなる場合がある。これらの特徴は、あるトークン(製品の見出しや説明中にあるブランド名など)が文頭に出現する傾向があり他のトークンが文末に出現する傾向があるという観測に基づく。
単語形状210では、単語を「普通の」テキストから目立たせる単語の特定の特徴を解析する。単語形状210の特徴は2値である。2値の特徴は、存在するかしないかのどちらかである。したがって、単語は特定の単語形状210の特徴を持つか持たないかのどちらかになる。2値の単語形状210の特徴は、単語が英数文字であるかどうか、大文字が使用されているかどうか、特定のパターンに基づく特徴を持つかどうか(例えば特定のパターンは製品のモデル番号を示す)である。
見出しの存在212は、トークンが製品の見出し中にあるか否かを記述する別の2値の特徴である。例えば、ある単語が項目の見出しの中にある場合には、その単語は固有表現である可能性が高い。例えば、製品の見出しにある単語は、製品の説明にある単語よりもブランド名である可能性が高い。
近接キーワード214は、単語の前又は後ろの一定の距離内にある。例えば、テキスト列「small white blouse」で単語「white」を解析する場合は、「small」は「white」の1単語前にあり、「blouse」は1単語後ろにある。同様に、同じテキスト列で「blouse」を解析する場合は、「small」は「blouse」の2単語前にある。
品詞(POS:part of speech)は、文における単語の機能を識別する。品詞の例として名詞、動詞、形容詞、副詞などがある。特定の単語が、異なる文では異なる品詞を有する場合がある。例えば、「cook」は、英語では文によって名詞になる場合も動詞になる場合もある。同様に、ソース言語にある品詞の一部がすべてのターゲット言語には存在しない場合もある。
(参考文献1)Slav Petrov, Dipanjan Das, and Ryan McDonald. 2011. A universal part-of-speech tagset. arXiv preprint arXiv:1104.2086.
ガゼティア218は、固有表現に相当する単語及び/又はフレーズのリストである。ガゼティア218は、固有表現の辞書、用語集、又は年鑑に似る場合がある。しかし、NERシステムのガゼティア218は単なるリストとすることができる。辞書、用語集、又は年鑑の各項目にある追加的な詳細が存在してもよいが、ガゼティア218がNERシステムで機能するためには必要ない。一実施形態では、1以上のガゼティア218は、リスト中の各固有表現について1以上の分類を含み得る。ソース言語の1以上のガゼティア218をCRF系列ラベリング206に組み込むことができる。
単語の数値表現は多くの自然言語処理作業で使用されている。単語の数値表現を使用する方法で特に一般的なのは、1992年にIBM(商標)のBrownらによって提案された方法である(下記参考文献2(Brownらの1992))。同文献は全体が参照により組み込まれる。そのため、この技術は一般にIBM(商標)クラスタリング又はBrownクラスタリング220と呼ばれている。
(参考文献2)Peter F Brown, Peter V Desouza, Robert L Mercer, Vincent J Della Pietra, and Jenifer C Lai. 1992. Classbased n-gram models of natural language. Computational linguistics, 18(4):467-479.
次いで、Brownクラスタリングマッピング300で使用される情報要素のブロック図であり、情報入力、中間情報、及び情報出力を示す図3を参照する。Brownクラスタリングマッピング300は、ソース言語とターゲット言語の語彙、ソース言語の注釈付きのテキストサンプル202、及びターゲット言語のサンプルテキスト204で開始する。次いで各語彙に別々にBrownクラスタリングを行って、ソース言語サンプルのクラスタリングモデル302と、ターゲット言語サンプルのクラスタリングモデル304とを生成する。実施形態によっては、これらのモデルは、上記で説明したように確率の行列で表すことができる。次いで、各クラスタリングモデルにBrownクラスタリング分類を行って、ソース言語サンプルのモデル306を生成し、ターゲット言語サンプルの分類済みモデル308を生成する。次いで、ソース言語サンプルの分類済みモデル306とターゲット言語サンプルの分類済みモデル308との間の類似度行列310を生成する。そしてこの類似度行列310をソース言語サンプルの分類済みモデル306及びターゲット言語サンプルの分類済みモデル308と組み合わせて、2言語の固有表現認識モデル312を生成する。
完全一致による文字列の類似度では、単語類似度関数は、ソース言語のクラスにある単語がターゲット言語のクラスにある単語と完全に同じである場合、すなわちテキスト列が各言語で全く同じである場合に第1の値を返す。単語が完全に同じでない場合には異なる値が返される。一般的な値は、一致する場合が「1」で一致しない場合が「0」である。この概念は数学的には次のように説明することができる。
ソース言語の単語とターゲット言語の単語とが似ているが完全には同じでない場合がある。そのような状況では、編集距離による文字列の類似度がより適する場合がある。編集距離とは、第2の文字列の完全一致を作り出すために第1の文字列に加えられる変更の最小数の測定値である。変更は文字の追加、文字の削除、及び文字の入れ替えを含み得る。例えば、文字列「smite」を「smiley」に変えるには、「t」を「l」に入れ替え、「y」を追加することが必要となる。したがって、「smite」と「smiley」の編集距離は2になる。例えばレーベンシュタイン(Levenshtein)距離など、編集距離を生成する多くの手段が当技術分野で知られている。編集距離による文字列の類似度では、単語類似度関数は、ソース言語のクラスにある単語とターゲット言語のクラスにある単語との間の編集距離が閾値Θ未満である場合に第1の値を返す。編集距離が閾値を超える場合は異なる値が返される。一般的な値は、編集距離が閾値未満である場合が「1」、それ以外の場合が「0」である。この概念は数学的には次のように説明することができる。
同義語集合は、同義の単語のリスト又はグループである。同義語集合は、単一の言語に制限してもよいし複数の言語の類義語を含んでもよい。2値の同義語集合の類似度では、ターゲット言語のクラスにある単語を、ソース言語のクラスにある単語の同義語集合、すなわちソース言語のクラスにおけるその単語の同義語のリストと比較する。2値の同義語集合の類似度では、単語類似度関数は、ターゲット言語のクラスにある単語が、ソース言語のクラスにある単語の同義語集合にある単語と完全に同じである場合に第1の値を返す。単語が完全に同じではない場合には異なる値が返される。一般的な値は、一致する場合が「1」、一致しない場合が「0」である。一実施形態では、Navigli及びPonzettoの2012(下記参考文献3)で説明されるようにBabelNet同義語集合を使用することができ、同文献はその全体が参照により組み込まれる。別の実施形態では、WordNet同義語集合を使用することができる。当業者に理解されるように、他の実施形態では他の同義語集合も使用することができる。
(参考文献3)Roberto Navigli and Simone Paolo Ponzetto. 2012. BabelNet: The automatic construction, evaluation and application of a wide-coverage multilingual semantic network. Artificial Intelligence, 193:217-250.
Brownクラスタリングにおいて、それほど頻繁に出現しない単語についての予測確率は信頼性が高くない可能性がある。単語類似度関数に生成されるクラスはBrownクラスタリングを使用して生成されるため、頻度で重み付けされた成分を追加することで2値の同義語集合の類似度の精度をさらに高めることが望ましい場合がある。例えば、上記の2値の同義語集合の類似度関数によって生成される2値行列を、その行列の各要素で比較される単語の一方又は両方の頻度を表す別の関数で変更することができる。例示的な一実施形態では、2値の同義語集合の類似度行列の各要素に、ソース言語の単語が出現する頻度の10を底とする対数とターゲット言語の単語が出現する頻度の10を底とする対数との和を乗算することができる。この概念は数学的には次のように説明することができる。
上記のように、ガゼティアは、固有表現に相当する単語及び/又はフレーズのリストである。ガゼティアの拡張は、グラフに基づく半教師あり学習を使用して、ソース言語のガゼティアをターゲット言語に拡張する。例えば、ソース言語(すなわち英語=LS)のガゼティアにある文字列「New York」を考えると、「New York」をターゲット言語(例えばLT=スペイン語)のガゼティアの対応する単語に対応付けることが望ましい。「New York」と「Nueva York」の間には直接の関連はないが、何らかの言語内意味類似度モデルに基づいて、「Puerto Rico」(英語)が「New York」に類似すると推測する可能性がある。同じくスペイン語の言語内類似度モデルに基づくと、「Nueva York」も同様に「Puerto Rico」(スペイン語)に類似する。そして、「Puerto Rico」は実際には両方の言語で全く同じであるため、「New York」を「Nueva York」に対応付けることができる。ソース言語のガゼティアからターゲット言語のガゼティアへのこの間接的な見解の推測は、半教師ありのグラフ伝播(下記参考文献4(Zhuらの2003)。参照により全体が組み込まれる)によりモデル化することができる。グラフ伝播では、グラフノードがVS∪VTであり、正のラベルは、LTに拡張されるLSガゼティアの項目である。負のラベルは、LSにある他の異なるガゼティアの項目である。
(参考文献4)Xiaojin Zhu, Zoubin Ghahramani, and John Lafferty. 2003. Semi-supervised learning using gaussian fields and harmonic functions. In IN ICML, pages 912-919.
対象とするデータセットは、製品のリスト(見出しと説明)を含む。製品の見出しは長さが約10語で構造が整っておらず、そのため認識作業の難しさが増す。電子商取引では、従来のタグセット、すなわち人名、地名、及び組織名に対して、新しい固有表現のタグセットを導入することが必要とされている。この実験では、次の6つの新しいタグタイプ、1)色、2)ブランド名、3)サイズ、4)種類、例えばカメラやシャツ、5)素材、例えばプラスチックや木綿、及び6)モデル、すなわち製品のモデル番号(例えば「A1533」)を導入した。この実験の残りの部分では、ソース言語は英語でありターゲット言語はスペイン語であった。使用したデータセットは、i)Brownクラスタリングのデータセット:Rakutenショッピング(Rakuten,2013a)の英語とスペイン語のデータと、スペイン語のWikipediaからのダンプ(Al−Rfou’,2013)、ii)トレーニングデータ:英語のRakutenショッピングから取った1800個の注釈付きの英語の製品、iii)テストデータ:Rakuten Spain(Rakuten,2013b)から取った300個の注釈付きのスペイン語の製品、であった。
本開示の技術は新しい技術であるため、結果を比較するための強固なベースラインが必要であった。言語のペア(LS;LT)を考慮し、Microsoft(商標)のBing(商標)Translate APIを使用してLTからLSへの翻訳を生成した。次いで翻訳後のテキストにLSのNERモデルを適用し、Bing(商標)Translateで生成された単語の位置合わせを使用して、タグ付けされたトークンを再度LTに対応付けることによってNERの性能を評価した。
調査した各言語で、英語にはStanford CoreNLP(下記参考文献5(Manningらの2014)。全体が参照により組み込まれる)、スペイン語にはTree Tagger(下記参考文献6(Schmidの1994)。全体が参照により組み込まれる)を使用して、文をトークン付けし、品詞タグを割り当てた。英語単言語の場合の性能(80:20のトレーニング用/試験用の分割比、及び5倍の交差検証)は、最新の英語のNERシステムと比べて大幅に低かったが、これは主として、対象とした領域及び固有表現のタグセットの性質と、トレーニングデータの量が少なかったことに起因した。トレーニングデータの量が少なかったことは、単言語の結果と、ベースラインと、本提案のシステムの性能に著しい影響を与えた。本提案のシステムの性能は低かったが、タグタイプの大半ではベースライン性能を上回り、全体で約+13%のマイクロ平均のFスコアの向上が得られた。「モデル」タグは最も言語に依存しないタグであるため、タグの中で最良のFスコアをもたらす。ベースラインの性能が低いのは、主として、機械翻訳で生成された単語の位置合わせの品質が低いためであることに留意されたい。さらに他の所見には、i)Brownクラスタリング機能が主に「Brand」タグを向上させることと、ii)ガゼティア拡張技術が、Google(商標)で翻訳したLSのガゼティアを使用するのと同等の性能(.3%)を示すこととが含まれる。図13は、本開示の技術と従来の方法の性能を示す試験結果のグラフである。
(参考文献5)Christopher D. Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven J. Bethard, and David McClosky. 2014. The Stanford CoreNLP natural language processing toolkit. In Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pages 55-60.
(参考文献6)Helmut Schmid. 1994. Probabilistic part-of-speech tagging using decision trees.
Claims (6)
- 注釈付きのソース言語のサンプルと、ターゲット言語のサンプルとを取得する取得部と、
前記注釈付きのソース言語のサンプルに対して条件付き確率場の系列ラベリングを適用して前記注釈付きのソース言語の固有表現のそれぞれについて最適な重みを求めることで、前記注釈付きのソース言語の固有表現認識モデルを生成する第1生成部と、
前記注釈付きのソース言語のサンプルと前記ターゲット言語のサンプルとの類似度を算出する算出部と、
前記注釈付きのソース言語の固有表現認識モデルと前記類似度とに基づいて、前記ターゲット言語の固有表現認識モデルを生成する第2生成部と
を備える多言語の固有表現認識システム。 - 前記第1生成部が、前記注釈付きのソース言語の固有表現のそれぞれについて、次の単語又は直前の単語が別のクラスに属する確率を示すクラス確率と、特定の単語が前記注釈付きのソース言語のサンプル中に該特定の単語のクラスに基づいて出現する確率である単語確率とを最適化することで、前記注釈付きのソース言語の固有表現認識モデルを生成する、
請求項1に記載の多言語の固有表現認識システム。 - 前記算出部が、Brownクラスタマッピング及びガゼティア拡張の少なくとも一方を用いて前記類似度を算出する、
請求項1又は2に記載の多言語の固有表現認識システム。 - 前記算出部が、完全一致による文字列の類似度と、編集距離による文字列の類似度と、2値の同義語集合の類似度と、頻度で重み付けした同義語集合の類似度とのうちの少なくとも一つを用いた前記Brownクラスタマッピングにより前記類似度を算出する、
請求項3に記載の多言語の固有表現認識システム。 - コンピュータにより実行される多言語の固有表現認識方法であって、
注釈付きのソース言語のサンプルと、ターゲット言語のサンプルとを取得する取得ステップと、
前記注釈付きのソース言語のサンプルに対して条件付き確率場の系列ラベリングを適用して前記注釈付きのソース言語の固有表現のそれぞれについて最適な重みを求めることで、前記注釈付きのソース言語の固有表現認識モデルを生成する第1生成ステップと、
前記注釈付きのソース言語のサンプルと前記ターゲット言語のサンプルとの類似度を算出する算出ステップと、
前記注釈付きのソース言語の固有表現認識モデルと前記類似度とに基づいて、前記ターゲット言語の固有表現認識モデルを生成する第2生成ステップと
を含む多言語の固有表現認識方法。 - 注釈付きのソース言語のサンプルと、ターゲット言語のサンプルとを取得する取得ステップと、
前記注釈付きのソース言語のサンプルに対して条件付き確率場の系列ラベリングを適用して前記注釈付きのソース言語の固有表現のそれぞれについて最適な重みを求めることで、前記注釈付きのソース言語の固有表現認識モデルを生成する第1生成ステップと、
前記注釈付きのソース言語のサンプルと前記ターゲット言語のサンプルとの類似度を算出する算出ステップと、
前記注釈付きのソース言語の固有表現認識モデルと前記類似度とに基づいて、前記ターゲット言語の固有表現認識モデルを生成する第2生成ステップと
をコンピュータに実行させる多言語の固有表現認識プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662288109P | 2016-01-28 | 2016-01-28 | |
US62/288,109 | 2016-01-28 | ||
PCT/JP2016/068565 WO2017130434A1 (ja) | 2016-01-28 | 2016-06-22 | 多言語の固有表現認識モデルの転移を行うコンピュータシステム、方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6077727B1 true JP6077727B1 (ja) | 2017-02-08 |
JPWO2017130434A1 JPWO2017130434A1 (ja) | 2018-02-01 |
Family
ID=57981620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016562284A Active JP6077727B1 (ja) | 2016-01-28 | 2016-06-22 | 多言語の固有表現認識モデルの転移を行うコンピュータシステム、方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6077727B1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109710927A (zh) * | 2018-12-12 | 2019-05-03 | 东软集团股份有限公司 | 命名实体的识别方法、装置、可读存储介质及电子设备 |
CN110399614A (zh) * | 2018-07-26 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 用于真产品词识别的系统和方法 |
CN110705295A (zh) * | 2019-09-11 | 2020-01-17 | 北京航空航天大学 | 基于关键词提取的实体名消岐方法 |
CN111274829A (zh) * | 2020-02-07 | 2020-06-12 | 中国科学技术大学 | 一种利用跨语言信息的序列标注方法 |
WO2021214941A1 (ja) * | 2020-04-23 | 2021-10-28 | 富士通株式会社 | 機械学習プログラム、機械学習方法および固有表現認識装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009093481A (ja) * | 2007-10-10 | 2009-04-30 | Nippon Telegr & Teleph Corp <Ntt> | 大規模タグ付きコーパス作成方法、その装置およびプログラム |
-
2016
- 2016-06-22 JP JP2016562284A patent/JP6077727B1/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009093481A (ja) * | 2007-10-10 | 2009-04-30 | Nippon Telegr & Teleph Corp <Ntt> | 大規模タグ付きコーパス作成方法、その装置およびプログラム |
Non-Patent Citations (2)
Title |
---|
JPN6016050799; 天野 禎章 外1名: 'ラベル伝播による他言語資源の利用と転移学習を用いた重要文抽出システム' 言語処理学会第17回年次大会発表論文集 チュートリアル 本会議 ワークショップ [CD-ROM] , 20110331, p.500-503, 言語処理学会 * |
JPN6016050801; 菊井 玄一郎: 'ウエブからの情報抽出とその応用における課題' 電子情報通信学会技術研究報告 第111巻第228号, 20111003, p.57-62, 社団法人電子情報通信学会 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399614A (zh) * | 2018-07-26 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 用于真产品词识别的系统和方法 |
CN109710927A (zh) * | 2018-12-12 | 2019-05-03 | 东软集团股份有限公司 | 命名实体的识别方法、装置、可读存储介质及电子设备 |
CN109710927B (zh) * | 2018-12-12 | 2022-12-20 | 东软集团股份有限公司 | 命名实体的识别方法、装置、可读存储介质及电子设备 |
CN110705295A (zh) * | 2019-09-11 | 2020-01-17 | 北京航空航天大学 | 基于关键词提取的实体名消岐方法 |
CN110705295B (zh) * | 2019-09-11 | 2021-08-24 | 北京航空航天大学 | 基于关键词提取的实体名消岐方法 |
CN111274829A (zh) * | 2020-02-07 | 2020-06-12 | 中国科学技术大学 | 一种利用跨语言信息的序列标注方法 |
CN111274829B (zh) * | 2020-02-07 | 2023-06-16 | 中国科学技术大学 | 一种利用跨语言信息的序列标注方法 |
WO2021214941A1 (ja) * | 2020-04-23 | 2021-10-28 | 富士通株式会社 | 機械学習プログラム、機械学習方法および固有表現認識装置 |
JP7440797B2 (ja) | 2020-04-23 | 2024-02-29 | 富士通株式会社 | 機械学習プログラム、機械学習方法および固有表現認識装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017130434A1 (ja) | 2018-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017130434A1 (ja) | 多言語の固有表現認識モデルの転移を行うコンピュータシステム、方法、およびプログラム | |
Khan et al. | A novel natural language processing (NLP)–based machine translation model for English to Pakistan sign language translation | |
Xia et al. | Dual sentiment analysis: Considering two sides of one review | |
Danenas et al. | Natural language processing-enhanced extraction of SBVR business vocabularies and business rules from UML use case diagrams | |
JP6077727B1 (ja) | 多言語の固有表現認識モデルの転移を行うコンピュータシステム、方法、およびプログラム | |
Wang et al. | Automatic paper writing based on a RNN and the TextRank algorithm | |
Ren et al. | Detecting the scope of negation and speculation in biomedical texts by using recursive neural network | |
Sazzed | Development of sentiment lexicon in bengali utilizing corpus and cross-lingual resources | |
Lata et al. | Mention detection in coreference resolution: survey | |
Dehkharghani et al. | A novel approach to sentiment analysis in Persian using discourse and external semantic information | |
Sujoy et al. | Pre-annotation based approach for development of a Sanskrit named entity recognition dataset | |
Hnin et al. | Aspect level opinion mining for hotel reviews in Myanmar language | |
JP4478042B2 (ja) | 頻度情報付き単語集合生成方法、プログラムおよびプログラム記憶媒体、ならびに、頻度情報付き単語集合生成装置、テキスト索引語作成装置、全文検索装置およびテキスト分類装置 | |
Jabbar et al. | A comparative review of Urdu stemmers: Approaches and challenges | |
Zeng et al. | Lexicon expansion for latent variable grammars | |
Trandabăţ | Mining Romanian texts for semantic knowledge | |
TW201822031A (zh) | 以文字資訊建立圖表索引方法及其電腦程式產品 | |
Gupta et al. | A Statistical Language Modeling Framework for Extractive Summarization of Text Documents | |
Hasan et al. | Learning-based named entity recognition for morphologically-rich, resource-scarce languages | |
Devi et al. | Advancements on NLP applications for Manipuri language | |
Nathani et al. | Part of Speech Tagging for a Resource Poor Language: Sindhi in Devanagari Script using HMM and CRF | |
Bindu et al. | Design and development of a named entity based question answering system for Malayalam language | |
Liu et al. | Domain phrase identification using atomic word formation in Chinese text | |
Iwakura et al. | A named entity recognition method based on decomposition and concatenation of word chunks | |
Khedkar et al. | A survey of machine translation and parts of speech tagging for indian languages |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20161212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6077727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |