JP2019128634A - 最適化装置及びハイパーパラメータの最適化方法 - Google Patents

最適化装置及びハイパーパラメータの最適化方法 Download PDF

Info

Publication number
JP2019128634A
JP2019128634A JP2018007955A JP2018007955A JP2019128634A JP 2019128634 A JP2019128634 A JP 2019128634A JP 2018007955 A JP2018007955 A JP 2018007955A JP 2018007955 A JP2018007955 A JP 2018007955A JP 2019128634 A JP2019128634 A JP 2019128634A
Authority
JP
Japan
Prior art keywords
optimization
visualization
dimensional vector
unit
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018007955A
Other languages
English (en)
Other versions
JP6856557B2 (ja
Inventor
鈴木 麻由美
Mayumi Suzuki
麻由美 鈴木
琢磨 柴原
Takuma Shibahara
琢磨 柴原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018007955A priority Critical patent/JP6856557B2/ja
Priority to US16/248,822 priority patent/US10936971B2/en
Publication of JP2019128634A publication Critical patent/JP2019128634A/ja
Application granted granted Critical
Publication of JP6856557B2 publication Critical patent/JP6856557B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】自然言語を対象とした学習モデルを決定する最適なハイパーパラメータを提供する。【解決手段】プロセッサとメモリを含んで自然言語処理により文書集合の学習を行う最適化装置であって、予め設定されたグループデータに基づいて所定の条件を満たすハイパーパラメータを決定し、当該決定したハイパーパラメータで学習モデルを生成し、当該学習モデルから高次元ベクトルを取得する最適化部と、解析対象の単語または文書の前記高次元ベクトルを前記グループデータに基づいて変換する高次元可視化部と、を有する。【選択図】図14

Description

本発明は、自然言語を用いた学習結果を最適化する技術に関する。
機械学習技術は、ヘルスケアや金融、産業などさまざまな分野で蓄積されたデータの解析に対して、新しい社会価値を創出する技術として注目されている。
自然言語処理における学習は、文書集合に含まれる単語や文章ごとに高次元のベクトルなどの数値に変換する。単語や文章間の関係性が数値に変換されることにより、コンピュータにおいても自然言語を処理可能となる。
自然言語処理における学習では、複数のハイパーパラメータが存在する。自然言語処理における学習のハイパーパラメータとは、Bag of WordsやWord to Vecといったアルゴリズムの種類、および各アルゴリズムにおいてモデルを決定するために必要なパラメータを指す。
ハイパーパラメータを変更すると、異なるモデルが生成される。学習対象である文書集合を変更することによっても、異なるモデルが生成される。どのハイパーパラメータの組み合わせが最適であるかの検証は、以下の様に行われる。
単語を学習した場合で説明を行う。まず、予め複数の単語対を用意しておく。例えば、greatとgreater、taughとtaugherなど比較級の単語対や、brotherとsister、JapanとTokyoなど反対の意味や国の名前と都市の名前など、関係性がある単語を対にする。生成したモデルに対して、greatの単語ベクトルとgreaterの単語ベクトルを引き算し、taugherの単語ベクトルを足し算した結果が、学習した全単語中でどの単語と最も近いかを探し、taughであれば正解、とする。
本計算を各単語対に対して繰り返し、モデルの精度を算出する。頻繁に使用される単語であれば、単語対を大量に用意し、最も精度のよいハイパーパラメータの組み合わせを探索することにより、単語の関係性を正しく学習したモデルを取得することが可能である(例えば、非特許文献1)。
Tomas Mikolov, Kai Chen, Greg Corrado, Jeffrey Dean著、"Efficient Estimation of Word Representations in Vector Space"、2013年9月7日、ICLR 2013.
ヘルスケアや金融、産業などの業界で使われる専門性の高い単語については、単語対または文章対を作成することは容易ではない。つまり、専門性の高い文書集合を対象とした場合における、より高精度なモデルの精度検証方法が必要である可能性がある。
本発明は、自然言語を対象とした学習におけるモデル決定のためのハイパーパラメータ探索において、類似する意味や類似する表現を含む単語や文章をまとめた複数個のグループを生成し、グループ内における各高次元のベクトル同士の距離が最小となるようなモデルを生成可能にするハイパーパラメータを提供することを目的とする。
本発明は、プロセッサとメモリを含んで自然言語処理により文書集合の学習を行う最適化装置であって、予め設定されたグループデータに基づいて所定の条件を満たすハイパーパラメータを決定し、当該決定したハイパーパラメータで学習モデルを生成し、当該学習モデルから高次元ベクトルを取得する最適化部と、解析対象の単語または文書の前記高次元ベクトルを前記グループデータに基づいて変換する高次元可視化部と、を有する。
本発明によれば、文書集合に対し、専門性の高い用語においても高精度な高次元ベクトルを生成可能となるハイパーパラメータを選択することが可能となる。これにより、学習する文書集合の専門性に適した基準で最適なモデルを得ることが可能となり、当該最適なモデルにより生成される各単語の高次元ベクトルを最適な低次元空間に変換し、各単語に対して解釈に役立つ情報を提示することが期待できる。
本発明の実施例を示し、最適化装置の構成の一例を示すブロック図である。 本発明の実施例を示し、最適化装置で稼働するソフトウェアの一例を示すブロック図である。 本発明の実施例を示し、文書解釈部の一例を示すブロック図である。 本発明の実施例を示し、最適化部の一例を示すブロック図である。 本発明の実施例を示し、高次元可視化部の一例を示すブロック図である。 本発明の実施例を示し、最適化装置で行われる処理の一例を示すフローチャートである。 本発明の実施例を示し、最適化部の処理の一例を示すフローチャートである。 本発明の実施例を示し、最適化の繰り返し回数の決定方法の一例を説明する図である。 本発明の実施例を示し、図7のステップS704で行われるスコアの算出処理の一例を説明する図である 本発明の実施例を示し、単語選択部で行われる処理の一例を示すフローチャートである。 本発明の実施例を示し、高次元可視化部で行われる処理の一例を示すフローチャートである。 本発明の実施例を示し、高次元可視化部が提供する可視化ハイパーパラメータ探索の一例を示す図である。 本発明の実施例を示し、高次元可視化部が提供する可視化ハイパーパラメータ探索の一例を示す図である。 本発明の実施例を示し、高次元可視化部が提供する可視化ハイパーパラメータ探索の一例を示す図である。 本発明の実施例を示し、考察要素提示部で行われる処理の一例を示すフローチャートである。 本発明の実施例を示し、ハイパーパラメータの表示画面の一例を示す図である。
本発明の実施形態を、図面を用いて説明する。以下、本発明の実施例を説明するための全図において、基本的に同一機能を有するものは同一符号を付し、その繰り返しの説明は省略する。
まず、本実施例の最適化装置を説明する。本実施例の最適化装置は、最適なハイパーパラメータの選択により自然言語の学習モデルを生成し、最適な可視化パラメータによる可視化結果の表示を行う例を示す。以下、自然言語処理における学習の説明において、単語を学習対象とする場合で説明する。なお、最適なハイパーパラメータ(第1のハイパーパラメータ)は、後述するように、所定の条件を満たすパラメータである。
図1は、本実施例の最適化装置100のハードウェア構成の一例を示すブロック図である。本実施例の最適化装置100は、CPU102と、メモリ103と、入出力インターフェイス104と、通信装置105と、ドライブ装置106と、を有する。これらはデータバス101によって相互に接続されている。
CPU102は、制御装置と演算装置からなり、最適化装置100の制御や、演算や情報転送をつかさどる中央処理装置である。メモリ103は、最適化装置100が処理すべきデジタルデータを一定期間保持することが可能である記憶装置である。
入出力インターフェイス104は、装置の外部に接続する機器との情報の入出力に使用するインターフェイスである。入出力インターフェイス104に、キーボードやマウスなどの入力装置107と、ディスプレイなどの出力装置108を接続することが可能である。
通信装置105は、インターネットなどのネットワークに接続するケーブルを通信装置105に接続することで、インターネットなどのネットワークへの接続を可能にする装置である。ドライブ装置106は、情報が書き込まれているまたは書き込み可能である空のディスクメディアやHDDなどの記憶媒体109を含み、書き込まれている情報の読み出し、および情報の書き込みを行う装置である。
メモリ103には、本実施例の最適化装置100の機能を実現させるために必要なプログラム200と各種データが格納されている。CPU102が、メモリ103に格納されたプログラム200を実行することによって、最適化装置100の機能を実現する各種処理が行われる。なお、CPU102が実行するプログラム200はドライブ装置106に接続された前記記憶媒体109に格納しておき、そのプログラムを読み込んでメモリ103に格納するようにしてもよい。
図2はメモリ103、または前記記憶媒体109に格納されている演算処理用のプログラム200の実行により実装される機能の一例を示すブロック図である。プログラム200は、参照データ格納部210、文書解釈部220および結果表示部230からなる。なお、文書解釈部220は、文書解釈モジュールとしてもよい。
参照データ格納部210は、類似する意味や類似する表現(あるいは機能)などを含む単語や文章をまとめた複数個のグループ(グループデータ)を格納しておく機能を有する。なお、参照データ格納部210は、学習用の単語や文章のグループと、評価用の単語や文章のグループをそれぞれ用意しておいても良い。
文書解釈部220は、参照データ格納部210にて用意したグループの単語や文章を用いて最適なモデル(学習モデル)を生成し、可視化により人間が解釈しやすい形式に変換する機能を含む。なお、文書解釈部220は、参照データ格納部210に格納されたグループの単語や文章を用いて変換を実施する。また、文書解釈部220は、記憶媒体109から読み込んだデータから最適なモデルを生成しても良い。
結果表示部230は、ユーザインターフェイスによる操作や文書解釈部220の結果および途中結果を出力装置108に表示する機能を含む。
文書解釈部220と、結果表示部230の各機能部はプログラム200としてメモリ103にロードされる。なお、本実施例では、自然言語学習部430(後述)をソフトウェアによって実現する例を示すが、ハードウェアによって実現してもよい。CPU102は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、CPU102は、文書解釈プログラムに従って処理することで文書解釈部220として機能する。他のプログラムについても同様である。さらに、CPU102は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
最適化装置100の各機能を実現するプログラム、テーブル等の情報は、ドライブ装置106や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
図3は、文書解釈部220の実行により実装される機能の一例を示すブロック図である。文書解釈部220は、最適化部310および高次元可視化部320からなる。最適化部310は、参照データ格納部210にて用意されたグループの単語や文章を用いて最適なモデルを生成する機能を含む。
高次元可視化部320は、後述するように、モデルへ単語を適用して分散表現(または埋め込み表現)で得られる高次元ベクトルを低次元に変換することで、可視化により人間が解釈しやすい形式に変換する機能を含む。
図4は、最適化部310の実行により実装される機能の一例を示すブロック図である。最適化部310は、ハイパーパラメータ生成部410、単語選択部420、自然言語学習部430および結果評価部440からなる。
ハイパーパラメータ生成部410は、参照データ格納部210にて用意されたグループの単語や文章を用いて最適なモデルを生成するために、探索するハイパーパラメータを生成する機能を含む。単語選択部420は、モデルの評価に用いる単語や文章を参照データ格納部210より読み出してグループごとに管理する機能を含む。
自然言語学習部430は、ハイパーパラメータ生成部410にて生成したハイパーパラメータを使用した機械学習によりモデルを生成する機能を含む。結果評価部440は、自然言語学習部430にて生成されたモデルに、単語選択部420にて読みだした単語を適用して分散表現による高次元ベクトルを出力させて、当該高次元ベクトルを取得した後、参照データ格納部210で管理されたグループを用いてモデルの精度の評価を行う機能を含む。
図5は、高次元可視化部320の実行により実装される機能の一例を示すブロック図である。高次元可視化部320は、可視化ハイパーパラメータ生成部510、可視化調整部520、可視化評価部530および考察要素提示部540からなる。
可視化ハイパーパラメータ生成部510は、結果評価部440がモデルから取得した高次元ベクトル(例えば、200次元)を2次元または3次元といった人間が目で見て解釈できる低次元に変換するために、可視化ハイパーパラメータを生成する機能を含む。
可視化調整部520は、可視化ハイパーパラメータ生成部510にて生成した可視化ハイパーパラメータ(第2のハイパーパラメータ)を使用し、モデルから取得した高次元ベクトルを2次元または3次元に変換する機能を含む。可視化評価部530は、可視化調整部520により2次元または3次元に変換された低次元ベクトルに対して、参照データ格納部210に格納されたグループの単語や文章を用いて精度評価を行う機能を含む。
考察要素提示部540は、可視化評価部530にて最も高い精度であった可視化結果や、学習に用いた文書集合や専門知識により構築された辞書、または結果評価部440において最も高い精度であった高次元ベクトルなどを用いて、可視化結果や高次元ベクトルについて考察を行うための要素を提示する機能を含む。
次に、本実施例のプログラム200を実行した際の処理の流れを説明する。図6は、本実施例の最適化装置100で行われる処理の一例を示すフローチャートである。最適化装置100は、プログラム200の実行により、自然言語処理の学習において、設定された条件を満たす最適なモデルと、前記最適なモデルを用いて表現される高次元ベクトルなどを可視化した結果および考察のための要素を提示する。ここで、高次元ベクトルの出力結果に対して考察を行うための要素とは、単語間の距離に基づいたリストや、単語が登場する文章や文書の一覧、単語の意味などである。
最適化装置100は、文書解釈部220を機能させて、ドライブ装置106に接続された記憶媒体109から、メモリ103に参照データを読み込む(ステップS601)。なお、最適化装置100は、入力装置107等から参照データの指定を受け付けて、記憶媒体109からメモリ103に読み込むようにしても良い。また、参照データには単語や文章あるいは文書が含まれる。また、文書解釈部220は、参照データ格納部210から参照データを読み出しても良い。
続いて、最適化装置100の最適化部310は学習する文書集合や学習手法の選択を含むハイパーパラメータを複数種類試行し、最適なモデルを決定する(ステップS602)。なお、試行するハイパーパラメータのうち初期のハイパーパラメータは、予め与えられてもよい。
その後、最適化装置100の高次元可視化部320は、ステップS602で決定した最適なモデルにより生成される高次元ベクトルを、低次元に変換するための最適な可視化ハイパーパラメータを決定し、高次元ベクトルの出力結果について考察を行うための要素(考察要素)を生成する(ステップS603)。
最後に、高次元可視化部320は、ステップS602の結果である最適なモデルとそのハイパーパラメータと、ステップS603の結果である最適な低次元空間への変換結果と、前記変換結果を生成したときの可視化ハイパーパラメータおよび高次元ベクトルの出力結果について考察を行うための要素を出力装置108に表示し、処理を終了する(ステップS604)。なお、最適化部310のみ機能させ、高次元可視化部320は機能させない、としても良い。
上記処理によって、最適化装置100は、可視化ハイパーパラメータおよび高次元ベクトルの変換結果を出力装置108に出力し、最適化装置100の利用者に対して、グループ内における高次元のベクトル同士の距離が最小となるようなモデルを生成可能にするハイパーパラメータを提示することができる。
図7は、最適化装置100の最適化部310で行われる処理の一例を示すフローチャートである。この処理は、図6のステップS602で実行される。最適化装置100の最適化部310は学習する文書空間や、学習手法の選択を含むハイパーパラメータを複数種類試行し、最適なモデルを決定する。
まず、最適化部310は、ハイパーパラメータの範囲および初期ハイパーパラメータを決定する(ステップS701)。自然言語処理における学習のハイパーパラメータとは、学習する文書集合や、Bag of WordsやWord to Vecといったアルゴリズムの種類、および各アルゴリズムにおいてモデルを決定するために必要な次元の長さや、対象とする単語の前後何単語を学習に利用するか、などの情報である。
次に、最適化部310は、参照データ格納部210に格納された参照データを用いて、評価対象とする単語や文章の選択を行う(ステップS702)。参照データには予め、類似する意味や類似する表現などを含む単語や文章をまとめた複数個のグループを格納してある。
たとえば、ヘルスケアの業界、特に糖尿病に関する自然言語を学習したい場合であれば、1型糖尿病とHbA1c(ヘモグロビンエーワンシー)と膵ランゲルハンス島β細胞をグループ1とし、2型糖尿病とHbA1cと加齢とKCNJ15、をグループ2とする。
これにより、グループ1には1型糖尿病の診断に関係の深い単語が、グループ2には2型糖尿病の診断に関係の深い単語が登録されていることになる。また、上記単語は単語選択部420にて選択した後、グループを形成し、参照データ格納部210に格納しておく等としても良い。
続いて、最適化部310は、ステップS701にて決定されたハイパーパラメータを用いて、自然言語処理における学習を行う(ステップS703)。また、最適化部310は、学習結果としてモデルを生成する。
その後、最適化部310は、ステップS703にて生成されたモデルと、ステップS702にて選択した単語や文章(参照データ)を用いてスコアの算出を行う(ステップS704)。スコアは、参照データの各グループに登録されている単語間のベクトル距離をコサイン距離にて算出し、全グループにおける総和とする。本スコア算出式は、次の式(1)として表せる。
ここで、Mはグループ番号の最大数、Nは各グループにおける単語対の番号の最大数であり、wordXg,iおよびwordYg,iはグループ番号gのi番目の単語対の2つの単語を意味する。
本スコアの値が小さい場合、グループ1に登録された単語の意味が近く、かつグループ2に登録された単語の意味も近い状態となることから、グループ1に登録された単語は1型糖尿病、グループ2に登録された単語は2型糖尿病に関係が深い単語として学習されていると推定することができる。本実施例では、スコアを単語間のコサイン距離としたが、これに限定されるものではなく、単語間のベクトルの差のコサイン距離など異なる指標を用いても良い。
続いて、最適化部310は、繰り返し回数の判定を行う(ステップS705)。ここでは、予め定めた最適化を行う回数(所定値)に達したか否かの判定を行う。最適化の回数は予め定めておいても良いし、ステップS704にて算出したスコアが予め定めた閾値を下回ったか否かで判定するような動的な回数として与えても良い。
最適化を行う回数等の条件に満たない場合、最適化部310は、ステップS701にて設定したハイパーパラメータを変更し、再度ステップS703からステップS705までを繰り返す(ステップS706)。
ここで、ハイパーパラメータは、予め最適化の回数を定めてある場合、そのパターン数分(回数分)を予め用意しておいても良いし、スコアが最小となるように降下法等のように探索を行っても良い。
最適化部310は、最適化を行う回数等の条件を満たした場合、ステップS703からステップS706までの中で、スコアが最小であったハイパーパラメータを最適なハイパーパラメータとして選択し、上記ハイパーパラメータにより学習を行ってモデルを生成する(ステップS707)。
ここで、最適化部310が生成するモデルは、ハイパーパラメータを変更した最適化の試行ごとに生成したモデルを保持しておき、スコアが最小であるモデルをステップS707にて抽出しても良い。
上記処理によって、ハイパーパラメータの試行によって生成したモデルを評価して、スコアが最小となる最適なモデルが決定される。
図8は、ステップS705における最適化の繰り返し回数の決定方法の一例を説明する図である。最適化装置100の利用者などが、予め、最適化を行う回数を決定し、前記回数分だけハイパーパラメータの組み合わせを用意しておく。
本実施例では、最適化を行う回数をNとする。そして、最適化部310は、N通りのハイパーパラメータにより生成したN通りのモデル(81−1〜81−N)を用いて、ステップS704により各モデルのスコアを算出する。または、試行ごとにハイパーパラメータを降下法等による探索を実施したり、ランダムにハイパーパラメータを変更する処理をN回行っても良い。
最適化部310が算出したスコアは、図8中の表82のようにモデル毎に表すことが可能となり、本図の例では最もスコアの低いハイパーパラメータパタン4によるモデルが選択される。
図9は、図7のステップS704におけるスコアの算出処理の一例を説明する図である。最適化部310は、ステップS703にて学習したモデルにより生成される各単語ベクトル同士を用いるのではなく、その単語ベクトルを特徴量として入力し、予め用意しておいたクラスとして識別した結果を用いてスコアの算出を行う。
予め用意しておいたクラスは、本実施例であれば、1型糖尿病か2型糖尿病かの2クラスや、糖尿病か健常者かの2クラス等が考えられる。最適化部310は、このような各ハイパーパラメータによるモデルにより生成された高次元ベクトルを用いた識別器を生成する。
そして、最適化部310は、N通りのハイパーパラメータにより生成したN通りのモデル91−1〜91−Nに単語を入力して高次元ベクトルを生成し、生成した高次元ベクトルを2クラスに識別させ、各識別器の識別精度をスコアとして扱う。識別の学習および識別精度の算出に用いるデータは予め識別器のハイパーパラメータ決定用、パラメータ決定用および評価用のように分けて用意しておき、10フォールドクロスバリデーション等を用いて識別精度の算出を行っても良い。N通りのモデルにおける識別精度のうち、最も識別精度が高かったモデルを選択するようにしても良い。
図10は、単語選択部420における参照データ格納部210に格納する単語の選択方法の一例を示すフローチャートである。この処理は、図7のステップS702で実行されてもよいし、あらかじめ本実施例のプログラム200を実行する前に実行され参照データ格納部210に格納しておいてもよい。
最適化部310の単語選択部420は、まず、単語を抽出する対象文献を決定する(ステップS1001)。単語選択部420は、例えば、自然言語学習部430にて学習する文書集合が金融に関する文書集合にも関わらず、結果評価部440にて評価に用いる単語がヘルスケアに関する単語であった場合、ヘルスケアに関する単語は学習していないため高次元ベクトルに変換することができない場合が発生する。
つまり、学習に用いる文書集合には、評価に用いる単語が含まれている必要がある。そのため、ハイパーパラメータ生成部410にて選択されうる学習用の文書集合ごとに、本処理を行っても良いし、学習していない単語には結果評価部440にて例外処理を行うこととして学習に用いる文書集合とは別に、所定の基準で選択した文書集合を用意し本処理を行っても良い。
次に、単語選択部420は、決定した文書から単語を抽出する(ステップS1002)。続いて、単語選択部420は、抽出した単語に対してアノテーション処理を行い、解析に不要な単語である冠詞や動詞を除外し、解析に必要な単語のみとする(ステップS1003)。
アノテーション処理では、ユーザが定義した辞書や、専門用語ごとに用意されている辞書等を単語選択部420が使用しても良い。最後に、単語選択部420は、シノニム統合処理を行い、異なる表記であるが同じ単語を統合し、解析に用いる単語群を決定する(ステップS1004)。この後、単語選択部420が、参照データ格納部210のグループごとに格納する単語の仕分けを、予め設定された知識ベースに基づく辞書を用いて行っても良いし、ステップS1001にて選択する対象文献の種類からグループを生成しても良い。
図11は、最適化装置100の高次元可視化部320で行われる処理の一例を示すフローチャートである。この処理は、図6のステップS603で実行される。
最適化装置100の高次元可視化部320は、参照データ格納部210に格納されたグループを用いて、高次元ベクトルの可視化により人間が解釈しやすい形式に最適に変換する。
まず、高次元可視化部320は、可視化処理における可視化ハイパーパラメータの範囲および初期の可視化ハイパーパラメータを決定する(ステップS1101)。可視化処理における可視化ハイパーパラメータとは、t−SNE(t-distributed stochastic neighbor embedding)や主成分分析といった高次元を低次元に変換するアルゴリズムの種類、および各アルゴリズムにおける初期値や学習率、などである。
次に、高次元可視化部320は、ステップS1101にて決定した可視化ハイパーパラメータと、最適化部310にて生成した高次元ベクトルを入力として、2次元または3次元の低次元へ変換を行う(ステップS1102)。可視化ハイパーパラメータが変更されると、生成される低次元ベクトルも変化する。
図12A〜図12Cは高次元可視化部320における可視化ハイパーパラメータの探索の説明をする図である。図12A〜図12Cは、wordA、wordB,wordC,wordDの低次元ベクトルが可視化ハイパーパラメータ(図中Parameter set A〜C)によって変化する様子を示す。
図12A〜図12Cのうち、どの可視化ハイパーパラメータによる結果が最良であるかは、例えば、wordAとwordBは近く、wordAとwordCは遠くにあることがよいなどの指標がなければ、決定することは難しいことがわかる。
その後、高次元可視化部320は、ステップS1102にて生成された低次元ベクトルと、単語選択部420にて選択された単語のうち、特定の単語または高次元ベクトルにおける距離が近い単語群または参照データ格納部210に格納されたグループを用いてスコアの算出を行う(ステップS1103)。
以下、高次元可視化部320が参照データ格納部210に格納されたグループの単語を用いる場合にて説明を行う。スコアは、各グループに登録されている単語間のベクトル距離をユークリッド距離にて算出し、全グループにおける総和とする。本スコアの算出式は、式(2)として表せる。
ここで、Mはグループ番号の最大数、Nは各グループにおける単語対の番号の最大数であり、map(wordXg,i)およびmap(wordYg,i)はグループ番号gのi番目の単語対の2つの単語における低次元ベクトルを意味する。
本スコアの値が小さい場合、参照データ格納部210のグループ1に登録された単語が近くに配置され、かつグループ2に登録された単語も近くに配置されていることとなる。つまり、意味が近く、高次元なベクトル表現としても類似している単語を、低次元に変換しても関係性が損なわれず、類似した単語が凝集するように変換されていると考えることができる。スコアは、本実施例では単語間のユークリッド距離としたが、単語間のベクトルの角度など異なる指標を用いても良い。
続いて、高次元可視化部320は、繰り返し回数の判定を行う(ステップS1104)。ここでは、予め定めた最適化を行う回数に達したか否かの判定を行う。最適化の回数は予め定めておいても良いし、ステップS1103にて算出したスコアが予め定めた閾値を下回ったか否かで判定するような動的な回数として与えても良い。
最適化を行う回数等の条件に満たない場合、ステップS1101にて設定した可視化ハイパーパラメータを変更し、再度ステップS1102からステップS1104までを行う(ステップS1105)。
ここで、可視化ハイパーパラメータは、予め最適化の回数を定めてある場合、そのパターン数分を予め用意しておいても良いし、スコアが最小となるように降下法等のようにパターンの探索を行っても良い。
最適化を行う回数等の条件を満たした場合、可視化評価部530において、ステップS1102からステップ1105までの中で、スコアが最小であった可視化ハイパーパラメータを決定し、上記可視化ハイパーパラメータにより生成された低次元ベクトルを生成する(ステップS1106)。
ここで、低次元ベクトルは、可視化ハイパーパラメータを変更した最適化の試行ごとに保持しておき、スコアが最小である低次元ベクトルをステップS1106にて抽出しても良い。最後に、考察要素提示部540において、最適な低次元ベクトル等を用いて考察要素の生成を行う(ステップS1107)。なお、考察要素とは、新たな知見を得る可能性を含む要素であり、例えば、処理対象の文書集合が学術論文であれば、数十年の間に行われた研究に関する単語を取得することができる。これにより、最適化装置100の利用者は、学術論文の分野における研究のトレンドや、未研究の分野などを考察することができる。また、考察要素提示部540は、考察要素として、図12A〜図12Cで示したように、単語のクラスタを考察要素として出力してもよい。
上記処理によって、図6のステップS602で決定されたモデル(学習モデル)によって生成される高次元ベクトルを、低次元ベクトルに変換することができ、可視化ハイパーパラメータが決定される。
図13は、考察要素提示部540で行われる処理の一例を示すフローチャートである。この処理は、図11のステップS1107で行われる。
まず、考察要素提示部540、考察要素に用いるデータを決定する(ステップS1301)。考察要素に用いるデータとは、可視化評価部530にて決定した低次元ベクトルまたは結果評価部440にて決定した高次元ベクトルを指す。但し、高次元ベクトルおよび低次元のベクトルとしても良い。
また、上記ベクトルのうち指定の単語のみとしても良いし、後述のクラスタリング用の単語と、解析対象とする単語とに分けて設定しても良い。次に、考察要素提示部540は、ステップS1301にて決定したデータを用いて、クラスタリング処理を行う(ステップS1302)。
クラスタリング手法は、K−means法やTopological Data Analysisの概念に基づいた手法など公知または周知の技術を適用すれば良い。また、クラスタリングにおける各クラスタは、最適化装置100の利用者がデータを参照しながら恣意的に設定しても良い。
続いて、考察要素提示部540は、クラスタごとの重心の算出を行う(ステップS1303)。その後、考察要素提示部540は、ステップS1303にて決定したクラスタ重心からある一定の範囲を関心領域として決定する(ステップS1304)。重心からの距離は、設定したクラスタを包含する円または楕円の半径としても良いし、近傍10単語を包含する円または楕円の半径などとしても良い。
最後に、考察要素提示部540は、関心領域内に含まれる単語の解析を行う(ステップS1305)。例えば、クラスタの重心を中心とした関心領域内に含まれる10単語に対して、その各単語が最適化部310において使用した文書集合(参照データ)に含まれる文献の中に登場する文章や文献のタイトルの抽出や、文書集合中で各単語と共起している単語の抽出や、予め用意しておいた専門用語の意味などを記載してある辞書における各単語に関する記載の抽出などを行う。考察要素提示部540は、これらの抽出した情報を考察要素として出力することができる。
上記の処理により、考察要素提示部540は、取得した最適なモデルにより生成される各単語の高次元ベクトルを最適な低次元空間に変換し、各単語に対して解釈に役立つ情報(考察要素)を提示することができる。
図14は、以上の処理において出力装置108であるディスプレイ等に表示される画面の1例である。本実施例におけるプログラム200の実行により表示画面1400が出力される。
表示画面1400の図中上部に配置されたImport fileボタン1401を押下することで、ファイル選択画面(図示省略)から所望のファイル選択することにより最適化部310にて使用する予め設定しておいたハイパーパラメータや、決定された最適なモデルや、高次元可視化部320にて使用する予め設定しておいた可視化ハイパーパラメータや、決定された低次元ベクトル等を読み込むことができる。
選択したデータの名前は、Import file name欄1405に記載される。その後、optimizingボタン1402を押下することで、最適化部310による図7のフローチャートや高次元可視化部320による図8のフローチャートに代表されるような最適化処理が行われる。
結果表示領域1407に表示された結果は、最適化の際に算出されたスコアが低い順に、ランキングとスコアとハイパーパラメータを表として出力された例を示す。オペレータ(または最適化装置100の利用者)は、前記表に付随して表示されているラジオボタン1408やチェックボックス等により、所望のハイパーパラメータセットを選択することが可能である。
ハイパーパラメータセットを選択した後、Saveボタン1404を押下すると、保存したいメモリ空間を指定可能な画面(図示省略)が表示される。メモリ空間(または記憶媒体109)を指定し、実行ボタンを押下すると、指定したメモリ空間に選択されたハイパーパラメータセットが保存される。保存先のメモリ空間(または記憶媒体109)は、Export file name欄1406などに表示される。
高次元可視化部320による最適化を行った後には、mapボタン1403を押下すると、生成した低次元ベクトルを2次元または3次元空間上に描画したグラフ(図12A〜図12C等)が表示される。
グラフ中の単語(図示省略)をクリックすることで、考察要素提示部540の処理をオペレータが行っても良いし、既に解析済みの考察要素提示部540で抽出した各単語が最適化部310において使用した文書集合に含まれる文献の中に登場する文章や文献のタイトルの提示や、文書集合中で各単語と共起している単語の提示、予め用意しておいた専門用語の意味などを記載してある辞書における各単語に関する記載の提示、等が表などにより表示される。
解析結果を保存したい場合、Saveボタン1404を押下すると、保存したいメモリ空間を指定可能な画面が表示される。メモリ空間を指定し、実行ボタンを押下すると、指定したメモリ空間に解析結果が保存される。保存した先のメモリ空間は、Export file name欄1406などに記載される。
以上のように、本実施例における最適化装置100は、モデル決定のためのハイパーパラメータ探索において、類似する意味や類似する表現を含む単語や文章をまとめた複数個のグループを生成して参照データ格納部210に格納し、グループ内における各高次元のベクトル同士の距離が最小となるようなモデルを生成可能にするハイパーパラメータを提供することが可能となる。
これにより、最適化装置100は、解析対象の文書集合に対し、専門性の高い用語においても高精度な高次元ベクトルを生成可能となるハイパーパラメータを選択することで、学習する文書集合の専門性に適した基準で最適なモデルを得ることが可能となり、取得した最適なモデルにより生成される各単語の高次元ベクトルを最適な低次元空間に変換し、各単語に対して結果の解釈に役立つ情報を提示することが可能となる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100 最適化装置
101 データバス
102 CPU
103 メモリ
104 入出力インターフェイス
105 通信装置
106 ドライブ装置
107 入力装置
108 出力装置
109 記憶媒体
200 プログラム
210 参照データ格納部
220 文書解釈部
230 結果表示部
310 最適化部
320 高次元可視化部
410 ハイパーパラメータ生成部
420 単語選択部
430 自然言語学習部
440 結果評価部
510 可視化ハイパーパラメータ生成部
520 可視化調整部
530 可視化評価部
540 考察要素提示部
1400 表示画面
1401 Import fileボタン
1402 optimizingボタン
1403 mapボタン
1404 Saveボタン
1405 Import file name欄
1406 Export file name欄
1407 結果表示領域
1408 ラジオボタン

Claims (12)

  1. プロセッサとメモリを含んで自然言語処理により文書集合の学習を行う最適化装置であって、
    予め設定されたグループデータに基づいて所定の条件を満たすハイパーパラメータを決定し、当該決定したハイパーパラメータで学習モデルを生成し、当該学習モデルから高次元ベクトルを取得する最適化部と、
    解析対象の単語または文書の前記高次元ベクトルを前記グループデータに基づいて変換する高次元可視化部と、を有することを特徴とする最適化装置。
  2. 請求項1に記載の最適化装置であって、
    前記最適化部は、
    前記ハイパーパラメータを生成し、前記学習モデルの評価に用いる単語または文書を取得し、前記ハイパーパラメータを使用した学習により学習モデルを生成し、前記生成したモデルと前記モデルの評価に用いる単語または文書を用いて精度の評価を行うことを特徴とする最適化装置。
  3. 請求項1に記載の最適化装置であって、
    前記高次元可視化部は、
    可視化ハイパーパラメータを生成し、前記生成した可視化ハイパーパラメータを使用して、高次元ベクトルを2次元または3次元の低次元ベクトルに変換し、前記低次元ベクトルに対して精度評価を行い、最も高い精度であった可視化結果を提示することを特徴とする最適化装置。
  4. 請求項3に記載の最適化装置であって、
    前記高次元可視化部は、
    前記学習に用いた文書集合や辞書または高次元ベクトルや前記低次元ベクトルを考察要素に用いるデータとして用いて、前記可視化結果または高次元ベクトルの結果に対して考察を行うための考察要素を提示することを特徴とする最適化装置。
  5. 請求項2に記載の最適化装置であって、
    前記最適化部は、
    前記精度の評価を、単語間の距離に基づいてスコアを算出し、当該スコアが最小となる学習モデルのハイパーパラメータを、前記所定の条件を満たすハイパーパラメータとして決定することを特徴とする最適化装置。
  6. 請求項4に記載の最適化装置であって、
    前記高次元可視化部は、
    前記考察要素に用いるデータを読み込んで、前記データに含まれる単語についてクラスタリングを行った結果を前記考察要素として出力することを特徴とする最適化装置。
  7. プロセッサとメモリを含む計算機が、自然言語処理により文書集合の学習を行う際のハイパーパラメータの最適化方法であって、
    前記計算機が、予め設定されたグループデータに基づいて所定の条件を満たすハイパーパラメータを決定し、当該決定したハイパーパラメータで学習モデルを生成し、当該学習モデルから高次元ベクトルを取得する第1のステップと、
    前記計算機が、解析対象の単語または文書の前記高次元ベクトルを前記グループデータに基づいて変換する第2のステップと、
    を含むことを特徴とするハイパーパラメータの最適化方法。
  8. 請求項7に記載のハイパーパラメータの最適化方法であって、
    前記第1のステップは、
    前記ハイパーパラメータを生成し、前記学習モデルの評価に用いる単語または文書を取得し、前記ハイパーパラメータを使用した学習により学習モデルを生成し、前記生成したモデルと前記モデルの評価に用いる単語または文書を用いて精度の評価を行うことを特徴とするハイパーパラメータの最適化方法。
  9. 請求項7に記載のハイパーパラメータの最適化方法であって、
    前記第2のステップは、
    可視化ハイパーパラメータを生成し、前記生成した可視化ハイパーパラメータを使用して、高次元ベクトルを2次元または3次元の低次元ベクトルに変換し、前記低次元ベクトルに対して精度評価を行い、最も高い精度であった可視化結果を提示することを特徴とするハイパーパラメータの最適化方法。
  10. 請求項9に記載のハイパーパラメータの最適化方法であって、
    前記第2のステップは、
    前記学習に用いた文書集合や辞書または高次元ベクトルや前記低次元ベクトルを考察要素に用いるデータとして用いて、前記可視化結果または高次元ベクトルの結果に対して考察を行うための考察要素を提示することを特徴とするハイパーパラメータの最適化方法。
  11. 請求項8に記載のハイパーパラメータの最適化方法であって、
    前記第1のステップは、
    前記精度の評価を、単語間の距離に基づいてスコアを算出し、当該スコアが最小となる学習モデルのハイパーパラメータを、前記所定の条件を満たすハイパーパラメータとして決定することを特徴とするハイパーパラメータの最適化方法。
  12. 請求項10に記載のハイパーパラメータの最適化方法であって、
    前記第2のステップは、
    前記考察要素に用いるデータを読み込んで、前記データに含まれる単語についてクラスタリングを行った結果を前記考察要素として出力することを特徴とするハイパーパラメータの最適化方法。
JP2018007955A 2018-01-22 2018-01-22 最適化装置及びハイパーパラメータの最適化方法 Active JP6856557B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018007955A JP6856557B2 (ja) 2018-01-22 2018-01-22 最適化装置及びハイパーパラメータの最適化方法
US16/248,822 US10936971B2 (en) 2018-01-22 2019-01-16 Optimization apparatus and optimization method for hyper parameter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018007955A JP6856557B2 (ja) 2018-01-22 2018-01-22 最適化装置及びハイパーパラメータの最適化方法

Publications (2)

Publication Number Publication Date
JP2019128634A true JP2019128634A (ja) 2019-08-01
JP6856557B2 JP6856557B2 (ja) 2021-04-07

Family

ID=67299383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018007955A Active JP6856557B2 (ja) 2018-01-22 2018-01-22 最適化装置及びハイパーパラメータの最適化方法

Country Status (2)

Country Link
US (1) US10936971B2 (ja)
JP (1) JP6856557B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037399A1 (ja) * 2021-09-07 2023-03-16 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP7377494B2 (ja) 2020-05-11 2023-11-10 Jrcモビリティ株式会社 属性の識別装置および識別方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111538776B (zh) * 2020-03-19 2021-10-01 浙江中海达空间信息技术有限公司 多层认知约束的高维地理空间数据聚焦可视化方法
US20220335090A1 (en) * 2021-04-14 2022-10-20 International Business Machines Corporation Identifying equivalent technical terms in different documents

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053848A (ja) * 2010-09-03 2012-03-15 Nippon Telegr & Teleph Corp <Ntt> データ可視化装置、データ変換装置、方法、及びプログラム
US20170293687A1 (en) * 2016-04-12 2017-10-12 Abbyy Infopoisk Llc Evaluating text classifier parameters based on semantic features

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355171B2 (en) * 2009-10-09 2016-05-31 Hewlett Packard Enterprise Development Lp Clustering of near-duplicate documents
BR112015029806A2 (pt) * 2013-05-30 2020-04-28 President And Fellows Of Harvard College sistemas e métodos para realizar otimização bayesiana
US11436270B2 (en) * 2014-02-28 2022-09-06 San Diego State University Research Foundation Knowledge reference system and method
US10534994B1 (en) * 2015-11-11 2020-01-14 Cadence Design Systems, Inc. System and method for hyper-parameter analysis for multi-layer computational structures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053848A (ja) * 2010-09-03 2012-03-15 Nippon Telegr & Teleph Corp <Ntt> データ可視化装置、データ変換装置、方法、及びプログラム
US20170293687A1 (en) * 2016-04-12 2017-10-12 Abbyy Infopoisk Llc Evaluating text classifier parameters based on semantic features

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
斎藤 康毅, ゼロから作るDEEP LEARNING, vol. 第1版, JPN6020049870, 13 February 2017 (2017-02-13), JP, pages 197 - 203, ISSN: 0004413752 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7377494B2 (ja) 2020-05-11 2023-11-10 Jrcモビリティ株式会社 属性の識別装置および識別方法
WO2023037399A1 (ja) * 2021-09-07 2023-03-16 日本電気株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20190228335A1 (en) 2019-07-25
JP6856557B2 (ja) 2021-04-07
US10936971B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
Smilkov et al. Embedding projector: Interactive visualization and interpretation of embeddings
Raikwal et al. Performance evaluation of SVM and k-nearest neighbor algorithm over medical data set
Zhao et al. Spectral feature selection for data mining
JP6856557B2 (ja) 最適化装置及びハイパーパラメータの最適化方法
Maguire et al. Taxonomy-based glyph design—with a case study on visualizing workflows of biological experiments
Sherkat et al. Interactive document clustering revisited: a visual analytics approach
JP6629935B2 (ja) 文書のカテゴリ分類のためのディープラーニング学習方法およびそのシステム
CN112085041A (zh) 神经网络的训练方法、训练装置和电子设备
Edeki et al. Comparison of data mining techniques used to predict cancer survivability
WO2019019969A1 (zh) 知识验证方法、知识验证设备以及存储介质
Schulz et al. Generative data models for validation and evaluation of visualization techniques
Lawson et al. Persistent homology for the automatic classification of prostate cancer aggressiveness in histopathology images
CN115795030A (zh) 文本分类方法、装置、计算机设备和存储介质
JP6775366B2 (ja) 選択装置、および選択方法
JP2016110256A (ja) 情報処理装置及び情報処理プログラム
Cousyn et al. Web-based objects detection to discover key objects in human activities
JP7292235B2 (ja) 分析支援装置及び分析支援方法
Mahmood et al. Interactive subspace cluster analysis guided by semantic attribute associations
JP6721036B2 (ja) 推論システム、推論方法、及び、プログラム
JP2020038557A (ja) 判定装置、判定方法、および判定プログラム
EP3109777B1 (en) Object classification device and program
KR101602898B1 (ko) 객체의 코멘트 데이터를 이용한 데이터 시각화 방법 및 시스템
JP6515438B2 (ja) 重要度算出装置、重要度算出装置方法、及び重要度算出装置システム
JP7034453B1 (ja) 情報解析装置、情報解析方法および情報解析用プログラム
KR101983493B1 (ko) 자연어 텍스트로부터 학습된 객체 표상에 포함된 특성 해석 및 시각화 방법 그리고 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210318

R150 Certificate of patent or registration of utility model

Ref document number: 6856557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150