JPWO2018079020A1 - 情報処理装置および情報処理方法 - Google Patents
情報処理装置および情報処理方法 Download PDFInfo
- Publication number
- JPWO2018079020A1 JPWO2018079020A1 JP2018547148A JP2018547148A JPWO2018079020A1 JP WO2018079020 A1 JPWO2018079020 A1 JP WO2018079020A1 JP 2018547148 A JP2018547148 A JP 2018547148A JP 2018547148 A JP2018547148 A JP 2018547148A JP WO2018079020 A1 JPWO2018079020 A1 JP WO2018079020A1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- information processing
- unit
- labeling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Abstract
Description
1.第1の実施形態
1.1.第1の実施形態の概要
1.2.システム構成例
1.3.データ収集装置10の機能構成例
1.4.情報処理サーバ20の機能構成例
1.5.情報処理端末30の機能構成例
1.6.学習装置40の機能構成例
1.7.データセットの加工
1.8.データ分布図の生成
1.9.ラベリング候補の選択
1.10.ラベリングの実行
1.11.学習性能の予測
1.12.学習データに基づく学習
1.13.本実施形態に係る半教師学習の効果
1.14.情報処理サーバ20の動作の流れ
2.第2の実施形態
2.1.第2の実施形態の概要
2.2.情報処理サーバ20の機能構成例
2.3.ラベリングの要否判定
2.4.情報処理サーバ20の動作の流れ
3.ハードウェア構成例
4.まとめ
<<1.1.第1の実施形態の概要>>
まず、本開示の第1の実施形態の概要について説明する。上述したとおり、近年では、情報処理技術の発展に伴い、種々のアルゴリズムを用いた学習が行われている。例えば、すべての入力にラベル付きの学習データを用いる教師あり学習では、比較的高い学習性能が期待されるが、入力する学習データの量に比例してラベリングの負担も増大することとなる。
次に、本実施形態に係るシステム構成例について説明する。図1は、本実施形態に係る情報処理システムの構成例を示す図である。図1を参照すると、本実施形態に係る情報処理システムは、データ収集装置10、情報処理サーバ20、情報処理端末30、および学習装置40を含んで構成され得る。また、情報処理サーバ20と、データ収集装置10、情報処理端末30、および学習装置40とは、互いに情報通信が行えるように、ネットワーク50を介して接続される。
本実施形態に係るデータ収集装置10は、情報処理サーバ20に入力されるデータセットを収集する装置である。本実施形態に係るデータ収集装置10は、例えば、ユーザにより入力されるデータセットを記憶する機能を有してもよいし、ネットワーク50を介して、例えば、インターネットなどのネットワーク上からデータセットを動的に収集する機能を有してもよい。
本実施形態に係る情報処理サーバ20は、データ収集装置10により収集されたデータセットから、学習装置40の学習性能を予測する機能を有する情報処理装置である。より具体的には、本実施形態に係る情報処理サーバ20は、データ収集装置10が収集したデータセットに基づく学習データからデータ分布図を生成する機能を有する。また、上述したように、本実施形態に係る情報処理サーバ20は、生成したデータ分布図と学習データに係るラベリング状況とに基づいて学習装置40の学習性能を予測する機能を有する。また、本実施形態に係る情報処理サーバ20は、上記のデータ分布図や予測した学習性能に係る表示制御を行う機能を有する。
本実施形態に係る情報処理端末30は、情報処理サーバ20による制御に基づいて、上記のデータ分布図や予測された学習性能をユーザに提示する機能を有する。また、本実施形態に係る情報処理端末30は、ユーザによる入力操作を受け付け、当該入力操作に係る情報を情報処理サーバ20に送信する機能を有する。すなわち、本実施形態に係る情報処理端末30は、学習データのラベリングや学習に係るユーザインタフェースをユーザに提供する情報処理装置である。本実施形態に係る情報処理端末30は、例えば、PC、スマートフォン、タブレットなどであってよい。
本実施形態に係る学習装置40は、学習データに基づく学習を行う機能を有する。本実施形態に係る学習装置40は、例えば、ニューラルネットワーク(ディープラーニング)による半教師学習を行ってよい。また、本実施形態に係る学習装置40は、ドメイン適応や転移学習、弱教師学習などを行ってもよい。本実施形態に係る学習装置40は、上記のような学習により得られたモデルを記録または出力する機能を有する。
ネットワーク50は、上述した各装置と情報処理サーバ20とを接続する機能を有する。ネットワーク50は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク50は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク50は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
次に、本実施形態に係るデータ収集装置10の機能構成例について詳細に説明する。図2は、本実施形態に係るデータ収集装置10の機能ブロック図である。図2を参照すると、本実施形態に係るデータ収集装置10は、入力部110、センサ部120、記憶部130、出力部140、および通信部150を備える。以下、上記に示す各構成について、当該構成が有する特徴を中心に説明する。
入力部110は、ユーザによる入力操作を受け付ける機能を有する。本実施形態に係る入力部110は、例えば、ユーザによるデータセットの入力を受け付け、当該データセットを記憶部130に引き渡す。入力部110は、例えば、各種のボタン、キーボード、タッチパネル、マウス、スイッチなどにより実現され得る。また、入力部110は、マイクロフォンなどを含んでよい。
センサ部120は、学習データとして用いられる種々のセンサ情報を収集する機能を有する。このために、本実施形態に係るセンサ部120は、例えば、GPS(Global Positioning System)、Wi−Fi、加速度センサ、ジャイロセンサ、地磁気センサ、撮像センサ、マイクロフォン、各種のレーダや光センサ、時計などを含んで構成され得る。なお、本実施形態に係るセンサ部120は、上記以外のセンサを含んで構成されてもよい。本実施形態に係るセンサ部120は、収集するデータセットに応じたセンサを含んで構成され得る。また、センサ部120は、収集したセンサ情報を記憶部130に引き渡す。
記憶部130は、入力部110またはセンサ部120から引き渡されるデータセットを記憶する機能を有する。
出力部140は、ユーザに視覚情報や聴覚情報を提示する機能を有する。このために、出力部140は、例えば、ディスプレイ装置やスピーカを含んで構成され得る。ここで、上記のディスプレイ装置は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネル、プロジェクタなどにより実現されてもよい。
通信部150は、情報処理サーバ20との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部150は、記憶部130に記憶されるデータセットを情報処理サーバ20に送信する。また、通信部150は、情報処理サーバ20は、情報処理サーバ20以外の装置との情報通信を行ってもよい。例えば、通信部150は、制御部(図示しない)による制御に基づいて、ネットワーク上からデータセットを動的に収集してもよい。
次に、本実施形態に係る情報処理サーバ20の機能構成例について説明する。図3は、本実施形態に係る情報処理サーバ20の機能ブロック図である。図3を参照すると、本実施形態に係る情報処理サーバ20は、学習データ入力部210、データ分布提示部220、ラベリング候補選択部230、ラベリング実行部240、学習性能予測部250、表示制御部260、および通信部270を備える。以下、上記に示す各構成の概要について説明する。
学習データ入力部210は、データ収集装置10により収集されたデータセットを学習データとしてデータ分布提示部に入力する機能を有する。本実施形態に係る学習データ入力部210の機能詳細については別途後述する。
データ分布提示部220は、学習データ入力部210により入力される学習データに対する次元圧縮を行い、当該学習データに係るデータ分布図を生成する機能を有する。なお、本実施形態に係るデータ分布図には、高次元データを低次元データに射影してプロットした図や、学習データにより構成されるクラスタおよびクラスタ間の重なりの度合いを示す図表が含まれてよい。なお、既にラベリングが行われている学習データが存在する場合、データ分布提示部220は、付与されているラベルに応じて色付けを行うことで、ラベリングが行われている学習データとラベリングが行われていない学習データとを区別してもよい。本実施形態に係るデータ分布提示部220の機能詳細については別途後述する。
ラベリング候補選択部230は、データ分布提示部220により生成されるデータ分布図に基づいて、学習データからラベリング候補を選択する機能を有する。すなわち、本実施形態に係るラベリング候補選択部230は、ラベリングによる性能向上の効果が大きいと予測される学習データを選択することができる。なお、既にラベリングが行われている学習データが存在する場合、ラベリング候補選択部230は、当該学習データを加味してラベリング候補を選択することができる。本実施形態に係るラベリング候補選択部230の機能詳細については別途後述する。
ラベリング実行部240は、情報処理端末30の出力部320に表示されるデータ分布図において選択された学習データと入力値とに基づいて、当該学習データのラベリングを行う機能を有する。
学習性能予測部250は、データ分布図と学習データに係るラベリング状況とに基づいて、学習装置40による学習性能を予測する機能を有する。この際、本実施形態に係る学習性能予測部250は、各クラスタにラベル付きの学習データが存在するか否か、や、クラスタ間の重なりが発生しているか否か、を判定することで、上記の学習性能を予測することができる。本実施形態に係る学習性能予測部250の機能詳細については別途後述する。
表示制御部260は、データ分布提示部220が生成するデータ分布図や学習性能予測部250が予測する学習性能に係る表示を制御する機能を有する。また、本実施形態に係る表示制御部260は、ラベリング候補選択部230が選択したラベリング候補やユーザが選択した学習データに係る表示制御を行う機能を有する。すなわち、本実施形態に係る表示制御部260は、情報処理端末30に表示されるユーザインタフェースの表示を制御する。本実施形態に係る表示制御部260の機能詳細については別途後述する。
通信部270は、データ収集装置10、情報処理端末30、および学習装置40との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部270は、データ収集装置10から収集されたデータセットを受信する。また、通信部270は、表示制御部260により生成される制御信号を情報処理端末30に送信し、情報処理端末30からユーザによる入力情報を受信する。また、通信部270は、学習データを学習装置40に送信する。
次に、本実施形態に係る情報処理端末30の機能構成例について詳細に説明する。図4は、本実施形態に係る情報処理端末30の機能ブロック図である。図4を参照すると、本実施形態に係る情報処理端末30は、入力部310、出力部320、および通信部330を備える。
入力部310は、ユーザによる入力操作を受け付ける機能を有する。本実施形態に係る入力部310は、例えば、ユーザによる学習データの選択操作やラベルの入力操作を受け付ける。また、入力部310は、学習装置40による学習に係るモデル構造やパラメータ、その他の学習設定の入力を受け付けてもよい。入力部310は、例えば、各種のボタン、キーボード、タッチパネル、マウス、スイッチなどにより実現され得る。
出力部320は、学習データのラベリングや学習に係るユーザインタフェースをユーザに提供する機能を有する。より具体的には、本実施形態に係る出力部320は、情報処理サーバ20の制御に基づいて、上記のユーザインタフェース上にデータ分布図や学習性能を表示する。このために、出力部320は、ディスプレイ装置を含んで構成され得る。上記のディスプレイ装置は、例えば、CRTディスプレイ装置、液晶ディスプレイ装置、OLED装置、タッチパネル、プロジェクタなどにより実現されてもよい。また、本実施形態に係る出力部320は、ユーザに聴覚情報を提示する機能を有してもよい。この場合、出力部320は、スピーカなどを含んで構成される。
通信部330は、情報処理サーバ20との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部330は、情報処理サーバ20からユーザインタフェースの表示制御に係る制御信号を受信する。また、通信部330は、ユーザが選択した学習データの情報や入力されたラベルの情報を情報処理サーバ20に送信する。また、通信部330は、入力された学習設定に係る情報を学習装置40に送信してよい。
次に、本実施形態に係る学習装置40の機能構成例について説明する。図5は、本実施形態に係る学習装置40の機能ブロック図である。図5を参照すると、本実施形態に係る学習装置40は、学習部410、認識器出力部420、および通信部430を備える。以下、上記に示す各構成の概要について説明する。
学習部410は、学習データに基づく学習を行う機能を有する。上述したとおり、本実施形態に係る学習データには、ラベル付きの学習データとラベルのない学習データとが含まれてよい。本実施形態に係る学習部410は、例えば、上記の学習データに基づく半教師学習、ドメイン適応、弱教師学習などを行うことができる。なお、学習に係るモデル構造やパラメータ、その他の学習設定は、情報処理端末30に表示されるユーザインタフェースを介して入力されてもよい。本実施形態に係る学習部410の機能詳細については別途後述する。
認識器出力部420は、学習部410による学習結果として得られた認識器を出力する機能を有する。本実施形態に係る認識器出力部は、認識器(モデル)の構造やパラメータ、および学習状況などをメモリやファイルなどに記録する。
通信部430は、情報処理サーバ20との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部430は、情報処理サーバ20から学習データを受信する。情報処理サーバ20により学習データが別途の記憶装置に記憶された場合には、通信部430は、当該記憶装置のパスなどを受信してもよい。また、通信部430は、情報処理端末30から学習設定に係る情報を受信してもよい。
次に、本実施形態に係る学習データ入力部210が有する機能の詳細について説明する。上述したとおり、本実施形態に係る学習データ入力部210は、データ収集装置10により収集されたデータセットを学習データとしてデータ分布提示部に入力する機能を有する。この際、本実施形態に係る学習データ入力部210は、収集されたデータセットに次元削減を目的とする加工を施し、加工後のデータを学習データとしてデータ分布提示部220に入力することができる。本実施形態に係る学習データ入力部は、例えば、PCA(Principal Component Analysis)、オートエンコーダ(AutoEncoder)、VAE(Variational AutoEncoder)などの手法を用いて上記の加工を行うことができる。
次に、本実施形態に係るデータ分布提示部220が有する機能の詳細について説明する。上述したとおり、本実施形態に係るデータ分布提示部220は、学習データ入力部210により入力される学習データに対する次元圧縮を行い、当該学習データに係るデータ分布図を生成する機能を有する。この際、本実施形態に係るデータ分布提示部220は、MDS(Multi−Dimentional Scaling)やtSNE(t−distributed Stochastic Neighbor Embedding)などの手法を用いて上記の次元圧縮を行ってもよい。
次に、本実施形態に係るラベリング候補選択部230が有する機能の詳細について説明する。上述したとおり、本実施形態に係るラベリング候補選択部230は、データ分布提示部220が生成するデータ分布図に基づいて、学習データからラベリング候補を選択する機能を有する。
次に、本実施形態に係るラベリングの実行について詳細に説明する。上述したとおり、本実施形態に係るラベリング実行部240は、出力部320に表示されるデータ分布図において選択された学習データと入力値とに基づいて、当該学習データのラベリングを行う機能を有する。
次に、本実施形態に係る学習性能予測部250の機能詳細について説明する。上述したとおり、本実施形態に係る学習性能予測部250は、データ分布提示部220が生成するデータ分布図と学習データに係るラベリング状況とに基づいて、学習装置40の学習性能を予測する機能を有する。
次に、学習装置40による学習の詳細について説明する。上述したとおり、本実施形態に係る学習装置40の学習部410は、ラベル付きの学習データとラベルのない学習データとに基づく学習を行う機能を有する。本実施形態に係る学習部410は、例えば、上記の学習データに基づく半教師学習、ドメイン適応、弱教師学習などを行ってもよい。なお、以下においては、学習部410が半教師学習を行う場合を例に説明する。
VAEは、DGM(Deep Generative Models)を学習するために、変分ベイズとオートエンコーダを融合した手法である。VAEでは、一般的なオートエンコーダとは異なり、ロス関数に代えてモデルエビデンスの変分下限が用いられる。また、VAEでは、変分下限の計算のため、中間層に確率的な層(ガウスサンプリング層)を有することを特徴の一つとする。
ADGMは、Auxiliary Deep Generative Modelsの略称である。また、SDGMは、Skip Deep Generative Modelsの略称であり、ADGMと類似のグラフモデルで表される。ここで、上記のAuxiliaryは、確率的補助変数を表しており、当該確率的補助変数は、変分ベイズの推論分布推定などにおいて分布の表現力を向上させるために用いられる。
DCGAN(Deep Convolutional Generative Adversarial Network)は、GAN(Generative Adversarial Network)を精緻化したモデルである。ここで、GANとは、生成モデルと判別モデル(真偽判別モデル)とを対向させて学習させる手法である。なお、真偽判別モデルとは、入力されたデータが真のデータであるか、生成モデルが生成した偽のデータであるかを判別する判別器のことを示す。GANでは、生成モデルが真偽判別モデルによる誤判別を増加させるように動作し、真偽判別モデルは生成モデルが生成した偽のデータを偽物と見抜く率を向上させるように動作する。この結果、生成モデルは、真のデータにより近いデータを生成する能力を獲得する。
LadderNetは、はしご(Ladder)結合を有するデノイジングオートエンコーダと認識モデルとを組み合わせた手法である。LadderNetでは、エンコーダと認識モデルとが重みを共有し、また、エンコーダとデコーダは同一の深さで構成され、同じ深さの階層間に結合を有する。なお、エンコーダからデコーダへの結合は、デノイジングの作用を有する演算により構成される。
AAE(Adversarial AutoEncoder)は、上述したGANにおける真偽判別モデルをVAEの中間層に対する事前分布と推論分布の真偽判定に用いる手法である。AAEは、すなわち、中間層をラベルとスタイルに分離することで半教師学習を実現する。
次に、本実施形態に係る半教師学習の効果について、具体例を挙げて説明する。以下では、学習装置40にラケットスポーツAおよびBにおけるスイング種別の判別タスクを行わせた際の判別結果について述べる。
次に、本実施形態に係る情報処理サーバ20の動作の流れについて詳細に説明する。図19は、情報処理サーバ20の動作の流れを示すフローチャートである。
<<2.1.第2の実施形態の概要>>
次に、本開示の第2の実施形態について説明する。ここでは、まず、本開示の第2の実施形態の概要について述べる。上記における第1の実施形態の説明では、情報処理サーバ20が、データ収集装置10により収集、蓄積されたデータセットに基づいて種々の処理を行う場合について述べた。一方、本開示の第2の実施形態に係る情報処理サーバ20は、逐次収集されるデータに基づいて処理を行うことを特徴の一つとする。より具体的には、本実施形態に係る学習性能予測部250は、生成したデータ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う機能を有する。また、本実施形態に係る表示制御部260は、学習性能予測部250によるラベリングの要否判定に基づいて、新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる機能を有する。以下、本実施形態に係る情報処理サーバ20が有する上記の機能について詳細に説明する。
まず、本実施形態に係る情報処理サーバ20の機能構成例について説明する。ここでは、第1の実施形態に係る情報処理サーバ20との差異について中心に述べ、重複する機能については説明を省略する。
本実施形態に係る学習データ入力部210は、データ収集装置10により逐次収集されるデータを学習データとしてデータ分布提示部220に入力する。なお、本実施形態に係るデータ収集装置10は、例えば、ユーザの有するスマートフォンやタブレット、PC、携帯電話などであってよい。
本実施形態に係るデータ分布提示部220は、学習データ入力部210により逐次入力される学習データに基づいてデータ分布図を生成する。
本実施形態に係る学習性能予測部250は、データ分布提示部220により生成されたデータ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う。本実施形態に係る学習性能予測部250が有する上記の機能については、別途詳細に説明する。
本実施形態に係る表示制御部260は、学習性能予測部250によるラベリングの要否判定に基づいて、新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる。
本実施形態に係るラベリング実行部240は、表示制御部260により表示制御されるユーザインタフェースにおいて、ユーザが入力した情報に基づいて学習データのラベリングを行う機能を有する。すなわち、本実施形態に係るラベリング実行部240は、ユーザがラベルの入力を行った場合には、該当する学習データをラベル付きのデータセットへ追加し、ラベリングの入力が行われない場合には、上記の学習データをラベルなしのデータセットへと追加する。
ここで、本実施形態に係るラベリングの要否判定について説明する。上述したとおり、本実施形態に係る学習性能予測部250は、データ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う機能を有する。
次に、本実施形態に係る情報処理サーバ20の動作の流れについて詳細に説明する。図23は、本実施形態に係る情報処理サーバ20の動作の流れを示すフローチャートである。
次に、本開示に係るデータ収集装置10、情報処理サーバ20、情報処理端末30及び学習装置40に共通するハードウェア構成例について説明する。図24は、本開示に係るデータ収集装置10、情報処理サーバ20、情報処理端末30及び学習装置40のハードウェア構成例を示すブロック図である。図14を参照すると、本開示に係る上記の各装置は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
以上説明したように、本開示に係る情報処理サーバ20は、入力される学習データに基づいてデータ分布図を生成し、ユーザにデータの分布状況を可視化して提示することができる。また、本開示に係る情報処理サーバ20は、生成したデータ分布図に基づいて、学習性能を予測し、当該予想の結果をユーザに提示することができる。また、情報処理サーバ20は、学習性能の向上に寄与する学習データを選択し、当該学習データをユーザに提示することができる。係る構成によれば、学習データのラベリング状況に応じた学習性能を予め予測することが可能となる。
(1)
入力される学習データに対する次元圧縮を行い、前記学習データに係るデータ分布図を生成するデータ分布提示部と、
前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測する学習性能予測部と、
前記データ分布図および前記学習性能に係る表示を制御する表示制御部と、
を備え、
前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
情報処理装置。
(2)
前記学習性能予測部は、単一のクラスタのみに属するラベル付きの学習データが存在する場合、当該クラスタのみに属するラベルのない学習データは、当該ラベル付きデータと同一のクラスに分類されると予測する、
前記(1)に記載の情報処理装置。
(3)
前記学習性能予測部は、あるクラスタにおいて、当該クラスタのみに属するラベル付きの学習データが存在しない場合、当該クラスタのみに属するラベルのない学習データが正しいクラスに分類される確率は、全クラスタ数の逆数に比例すると予測する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記学習性能予測部は、クラスタの共通部分に属するラベルのない学習データが正しいクラスに分類される確率は、前記共通部分を形成するクラスタ数の逆数に比例すると予測する、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記学習性能予測部は、すべてのクラスタにおいて、各クラスタのみに属するラベル付き学習データが存在する場合の学習性能を、最大学習性能として予測し、
前記表示制御部は、クラスタ数と前記最大学習性能とを関連付けて表示させる、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記データ分布提示部は、クラスタ数の異なる複数の前記データ分布図を生成し、
前記学習性能予測部は、複数の前記データ分布図に基づいて、各クラスタ数における前記最大学習性能を予測し、
前記表示制御部は、各クラスタ数における前記最大学習性能の比較を表示させる、
前記(5)に記載の情報処理装置。
(7)
前記学習性能予測部は、前記クラスタ数と当該クラスタ数における前記最大学習性能とに基づいて最適クラスタ数を決定し、
前記データ分布提示部は、前記最適クラスタ数に基づいて前記データ分布図を生成する、
前記(6)に記載の情報処理装置。
(8)
前記データ分布図に基づいて、前記学習データからラベリング候補を選択するラベリング候補選択部、
をさらに備え、
前記ラベリング候補選択部は、前記クラスタの重心付近に位置する学習データを前記ラベリング候補として選択し、
前記表示制御部は、前記ラベリング候補を表示させる、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記データ分布図において選択された学習データと入力値とに基づいて、当該当該学習データのラベリングを行うラベリング実行部、
をさらに備える、
前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
前記表示制御部は、選択された学習データに基づいて、当該学習データに対応する参照情報を表示させる、
前記(9)に記載の情報処理装置。
(11)
前記表示制御部は、前記参照情報と、前記参照情報に同期した付随データとを関連付けて表示させる、
前記(10)に記載の情報処理装置。
(12)
前記学習性能予測部は、前記データ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う、
前記(1)〜(11)のいずれかに記載の情報処理装置。
(13)
前記表示制御部は、前記学習性能予測部による前記ラベリングの要否判定に基づいて、前記新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる、
前記(12)に記載の情報処理装置。
(14)
前記学習データに基づく学習を行う学習部、
をさらに備える、
前記(1)〜(13)のいずれかに記載の情報処理装置。
(15)
前記学習部は、類似性を有する異なる2つ以上のデータセットを用いて前記学習を行う、
前記(14)に記載の情報処理装置。
(16)
前記類似性を有する異なる2つ以上のデータセットは、互いにラベリングルールの異なるデータセットである、
前記(15)に記載の情報処理装置。
(17)
前記学習部は、半教師学習またはドメイン適応による学習を行う、
前記(14)〜(16)のいずれかに記載の情報処理装置。
(18)
前記学習データに対する次元削減を行い、前記データ分布提示部に入力する学習データ入力部、
をさらに備える、
前記(1)〜(17)のいずれかに記載の情報処理装置。
(19)
前記学習性能予測部は、前記学習データのラベリングが実行されたことに基づいて、前記学習性能を予想する、
前記(1)〜(18)のいずれかに記載の情報処理装置。
(20)
プロセッサが、
入力される学習データに基づく次元圧縮を行い、前記学習データに係るデータ分布図を生成することと、
前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測することと、
前記データ分布図および前記学習性能に係る表示を制御することと、
を含み、
前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
情報処理方法。
110 入力部
120 センサ部
130 記憶部
140 出力部
150 通信部
20 情報処理サーバ
210 学習データ入力部
220 データ分布提示部
230 ラベリング候補選択部
240 ラベリング実行部
250 学習性能予測部
260 表示制御部
270 通信部
30 情報処理端末
310 入力部
320 出力部
330 通信部
40 学習装置
410 学習部
420 認識器出力部
430 通信部
Claims (20)
- 入力される学習データに対する次元圧縮を行い、前記学習データに係るデータ分布図を生成するデータ分布提示部と、
前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測する学習性能予測部と、
前記データ分布図および前記学習性能に係る表示を制御する表示制御部と、
を備え、
前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
情報処理装置。 - 前記学習性能予測部は、単一のクラスタのみに属するラベル付きの学習データが存在する場合、当該クラスタのみに属するラベルのない学習データは、当該ラベル付きデータと同一のクラスに分類されると予測する、
請求項1に記載の情報処理装置。 - 前記学習性能予測部は、あるクラスタにおいて、当該クラスタのみに属するラベル付きの学習データが存在しない場合、当該クラスタのみに属するラベルのない学習データが正しいクラスに分類される確率は、全クラスタ数の逆数に比例すると予測する、
請求項1に記載の情報処理装置。 - 前記学習性能予測部は、クラスタの共通部分に属するラベルのない学習データが正しいクラスに分類される確率は、前記共通部分を形成するクラスタ数の逆数に比例すると予測する、
請求項1に記載の情報処理装置。 - 前記学習性能予測部は、すべてのクラスタにおいて、各クラスタのみに属するラベル付き学習データが存在する場合の学習性能を、最大学習性能として予測し、
前記表示制御部は、クラスタ数と前記最大学習性能とを関連付けて表示させる、
請求項1に記載の情報処理装置。 - 前記データ分布提示部は、クラスタ数の異なる複数の前記データ分布図を生成し、
前記学習性能予測部は、複数の前記データ分布図に基づいて、各クラスタ数における前記最大学習性能を予測し、
前記表示制御部は、各クラスタ数における前記最大学習性能の比較を表示させる、
請求項5に記載の情報処理装置。 - 前記学習性能予測部は、前記クラスタ数と当該クラスタ数における前記最大学習性能とに基づいて最適クラスタ数を決定し、
前記データ分布提示部は、前記最適クラスタ数に基づいて前記データ分布図を生成する、
請求項6に記載の情報処理装置。 - 前記データ分布図に基づいて、前記学習データからラベリング候補を選択するラベリング候補選択部、
をさらに備え、
前記ラベリング候補選択部は、前記クラスタの重心付近に位置する学習データを前記ラベリング候補として選択し、
前記表示制御部は、前記ラベリング候補を表示させる、
請求項1に記載の情報処理装置。 - 前記データ分布図において選択された学習データと入力値とに基づいて、当該当該学習データのラベリングを行うラベリング実行部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記表示制御部は、選択された学習データに基づいて、当該学習データに対応する参照情報を表示させる、
請求項9に記載の情報処理装置。 - 前記表示制御部は、前記参照情報と、前記参照情報に同期した付随データとを関連付けて表示させる、
請求項10に記載の情報処理装置。 - 前記学習性能予測部は、前記データ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う、
請求項1に記載の情報処理装置。 - 前記表示制御部は、前記学習性能予測部による前記ラベリングの要否判定に基づいて、前記新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる、
請求項12に記載の情報処理装置。 - 前記学習データに基づく学習を行う学習部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記学習部は、類似性を有する異なる2つ以上のデータセットを用いて前記学習を行う、
請求項14に記載の情報処理装置。 - 前記類似性を有する異なる2つ以上のデータセットは、互いにラベリングルールの異なるデータセットである、
請求項15に記載の情報処理装置。 - 前記学習部は、半教師学習またはドメイン適応による学習を行う、
請求項14に記載の情報処理装置。 - 前記学習データに対する次元削減を行い、前記データ分布提示部に入力する学習データ入力部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記学習性能予測部は、前記学習データのラベリングが実行されたことに基づいて、前記学習性能を予想する、
請求項1に記載の情報処理装置。 - プロセッサが、
入力される学習データに基づく次元圧縮を行い、前記学習データに係るデータ分布図を生成することと、
前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測することと、
前記データ分布図および前記学習性能に係る表示を制御することと、
を含み、
前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
情報処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016209332 | 2016-10-26 | ||
JP2016209332 | 2016-10-26 | ||
PCT/JP2017/029691 WO2018079020A1 (ja) | 2016-10-26 | 2017-08-18 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018079020A1 true JPWO2018079020A1 (ja) | 2019-09-12 |
JP6911866B2 JP6911866B2 (ja) | 2021-07-28 |
Family
ID=62023363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018547148A Active JP6911866B2 (ja) | 2016-10-26 | 2017-08-18 | 情報処理装置および情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11610148B2 (ja) |
EP (1) | EP3534303A4 (ja) |
JP (1) | JP6911866B2 (ja) |
CN (1) | CN109844777A (ja) |
WO (1) | WO2018079020A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3531730B1 (en) * | 2014-06-30 | 2021-08-11 | Huawei Technologies Co., Ltd. | Terminal management method and network device |
US11171977B2 (en) * | 2018-02-19 | 2021-11-09 | Nec Corporation | Unsupervised spoofing detection from traffic data in mobile networks |
US11763188B2 (en) * | 2018-05-03 | 2023-09-19 | International Business Machines Corporation | Layered stochastic anonymization of data |
US10635939B2 (en) * | 2018-07-06 | 2020-04-28 | Capital One Services, Llc | System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis |
JP6952660B2 (ja) * | 2018-08-28 | 2021-10-20 | 株式会社東芝 | 更新支援装置、更新支援方法およびプログラム |
US20210358564A1 (en) * | 2018-10-23 | 2021-11-18 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Active Transfer Learning with Deep Featurization |
JP7353032B2 (ja) | 2018-11-15 | 2023-09-29 | 株式会社Preferred Networks | データ生成装置、データ生成方法及びプログラム |
CN111241571B (zh) * | 2018-11-28 | 2023-08-01 | 创新工场(北京)企业管理股份有限公司 | 一种数据共享方法及模型系统、存储介质 |
JP6860602B2 (ja) * | 2019-02-26 | 2021-04-14 | 三菱Ufj信託銀行株式会社 | 汎用人工知能装置及び汎用人工知能プログラム |
US11494690B2 (en) | 2019-03-15 | 2022-11-08 | Hong Kong Applied Science and Technology Research Institute Company Limited | Apparatus and method of high dimensional data analysis in real-time |
KR102213460B1 (ko) * | 2019-03-18 | 2021-02-08 | 주식회사 위젯누리 | 머신러닝을 이용한 소프트웨어 화이트리스트 생성 시스템 및 방법 |
JP7195187B2 (ja) * | 2019-03-19 | 2022-12-23 | ヤフー株式会社 | 推定装置、推定方法及び推定プログラム |
JP7183904B2 (ja) * | 2019-03-26 | 2022-12-06 | 日本電信電話株式会社 | 評価装置、評価方法、および、評価プログラム |
US20220335085A1 (en) * | 2019-07-30 | 2022-10-20 | Nippon Telegraph And Telephone Corporation | Data selection method, data selection apparatus and program |
CN110636066B (zh) * | 2019-09-24 | 2021-10-19 | 中国民航大学 | 基于无监督生成推理的网络安全威胁态势评估方法 |
CN115176277A (zh) | 2020-03-04 | 2022-10-11 | 三菱电机株式会社 | 标注装置以及学习装置 |
WO2022113274A1 (ja) * | 2020-11-27 | 2022-06-02 | 日本電信電話株式会社 | 時系列データ分析装置、時系列データ分析方法、及び時系列データ分析プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100274539A1 (en) * | 2009-04-24 | 2010-10-28 | Hemant VIRKAR | Methods for mapping data into lower dimensions |
WO2015033431A1 (ja) * | 2013-09-06 | 2015-03-12 | Necソリューションイノベータ株式会社 | アノテーション装置及びアノテーションシステム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7412425B2 (en) * | 2005-04-14 | 2008-08-12 | Honda Motor Co., Ltd. | Partially supervised machine learning of data classification based on local-neighborhood Laplacian Eigenmaps |
US20070150802A1 (en) * | 2005-12-12 | 2007-06-28 | Canon Information Systems Research Australia Pty. Ltd. | Document annotation and interface |
WO2008154029A1 (en) * | 2007-06-11 | 2008-12-18 | The Trustees Of Columbia University In The City Of New York | Data classification and hierarchical clustering |
US7740547B2 (en) * | 2007-07-31 | 2010-06-22 | Bridgestone Sports Co., Ltd. | Multi-piece solid golf ball |
WO2010030794A1 (en) * | 2008-09-10 | 2010-03-18 | Digital Infuzion, Inc. | Machine learning methods and systems for identifying patterns in data |
JP2013520714A (ja) * | 2009-10-23 | 2013-06-06 | コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ | 高次元データ空間内のテストデータのクラスを評価するための方法およびシステム |
US8417651B2 (en) * | 2010-05-20 | 2013-04-09 | Microsoft Corporation | Matching offers to known products |
US8311973B1 (en) * | 2011-09-24 | 2012-11-13 | Zadeh Lotfi A | Methods and systems for applications for Z-numbers |
KR102274069B1 (ko) * | 2014-10-30 | 2021-07-06 | 삼성에스디에스 주식회사 | 예측 모델 생성 장치 및 방법 |
-
2017
- 2017-08-18 WO PCT/JP2017/029691 patent/WO2018079020A1/ja unknown
- 2017-08-18 EP EP17865943.9A patent/EP3534303A4/en not_active Withdrawn
- 2017-08-18 JP JP2018547148A patent/JP6911866B2/ja active Active
- 2017-08-18 CN CN201780065036.XA patent/CN109844777A/zh not_active Withdrawn
- 2017-08-18 US US16/329,303 patent/US11610148B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100274539A1 (en) * | 2009-04-24 | 2010-10-28 | Hemant VIRKAR | Methods for mapping data into lower dimensions |
WO2015033431A1 (ja) * | 2013-09-06 | 2015-03-12 | Necソリューションイノベータ株式会社 | アノテーション装置及びアノテーションシステム |
Non-Patent Citations (2)
Title |
---|
LUGHOFER, EDWIN: "Hybrid active learning for reducing the annotation effort of operators in classification systems", PATTERN RECOGNITION, vol. Volume 45, Issue 2, JPN6021021945, February 2012 (2012-02-01), pages 884 - 896, ISSN: 0004524376 * |
竹内正明、外3名: "距離の再定義を伴う事例選択を用いたタンパク質機能情報文抽出方式", 情報処理学会研究報告 2009-BIO-16, vol. 2009, no. 25, JPN6017037441, 26 February 2009 (2009-02-26), JP, pages 9 - 12, ISSN: 0004524375 * |
Also Published As
Publication number | Publication date |
---|---|
JP6911866B2 (ja) | 2021-07-28 |
CN109844777A (zh) | 2019-06-04 |
US20190244132A1 (en) | 2019-08-08 |
EP3534303A1 (en) | 2019-09-04 |
WO2018079020A1 (ja) | 2018-05-03 |
EP3534303A4 (en) | 2019-11-06 |
US11610148B2 (en) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018079020A1 (ja) | 情報処理装置および情報処理方法 | |
US11763580B2 (en) | Information processing apparatus, information processing method, and program | |
US10593322B2 (en) | Electronic device and method for controlling the same | |
TW202131281A (zh) | 圖像處理方法及圖像處理裝置、電子設備和電腦可讀儲存媒介 | |
US10521723B2 (en) | Electronic apparatus, method of providing guide and non-transitory computer readable recording medium | |
EP3523710B1 (en) | Apparatus and method for providing a sentence based on user input | |
US20110176725A1 (en) | Learning apparatus, learning method and program | |
US11881209B2 (en) | Electronic device and control method | |
KR20190096876A (ko) | 음성인식 성능 향상을 위한 비 지도 가중치 적용 학습 시스템 및 방법, 그리고 기록 매체 | |
KR102628042B1 (ko) | 연락처 정보를 추천하는 방법 및 디바이스 | |
US11825278B2 (en) | Device and method for auto audio and video focusing | |
US20210182558A1 (en) | Apparatus for generating user interest information and method therefor | |
US10762902B2 (en) | Method and apparatus for synthesizing adaptive data visualizations | |
WO2020241467A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20200080418A (ko) | 단말기 및 그의 동작 방법 | |
US10917721B1 (en) | Device and method of performing automatic audio focusing on multiple objects | |
KR20190061824A (ko) | 전자장치 및 그 제어 방법 | |
WO2016189905A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20200234187A1 (en) | Information processing apparatus, information processing method, and program | |
WO2020170986A1 (ja) | 情報処理装置、方法及びプログラム | |
KR20210048270A (ko) | 복수 객체에 대한 오디오 포커싱 방법 및 장치 | |
KR102337678B1 (ko) | 그래프 유사 여부를 분석하기 위하여 기계학습을 이용한 전자 장치 및 그 제어 방법 | |
EP4096209A1 (en) | Information processing device, information processing method, and information processing program | |
Rustam et al. | Home Automation-Based Health Assessment Along Gesture Recognition via Inertial Sensors | |
Sharma | Gesture Recognition Using Tensor flow, Opencv and Python. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200708 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6911866 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |