JP2020119506A - メタ学習のために残差ネットワークが提供されるcnnのパラメータを調整するための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置{learning method and learning device for adjusting parameters of cnn in which residual networks are provided for meta learning, and testing method and testing device using the same} - Google Patents
メタ学習のために残差ネットワークが提供されるcnnのパラメータを調整するための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置{learning method and learning device for adjusting parameters of cnn in which residual networks are provided for meta learning, and testing method and testing device using the same} Download PDFInfo
- Publication number
- JP2020119506A JP2020119506A JP2019212164A JP2019212164A JP2020119506A JP 2020119506 A JP2020119506 A JP 2020119506A JP 2019212164 A JP2019212164 A JP 2019212164A JP 2019212164 A JP2019212164 A JP 2019212164A JP 2020119506 A JP2020119506 A JP 2020119506A
- Authority
- JP
- Japan
- Prior art keywords
- layers
- convolution
- sub
- learning
- residual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 238000012360 testing method Methods 0.000 title claims description 135
- 238000013527 convolutional neural network Methods 0.000 claims description 99
- 238000012549 training Methods 0.000 claims description 25
- 230000010339 dilation Effects 0.000 claims description 4
- 238000010998 test method Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 241000282472 Canis lupus familiaris Species 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
Claims (30)
- (i)入力イメージもしくはそれに対応する一つ以上のエンコード済み入力特徴マップに一つ以上のコンボリューション演算を適用することにより、逐次的に一つ以上のエンコード済み出力特徴マップを生成する一つ以上のコンボリューションレイヤ及び(ii)前記コンボリューションレイヤの少なくとも一つまたはこれに含まれているサブコンボリューションレイヤの中から少なくとも一つを迂回して、前記入力イメージまたはこれに対応する前記エンコード済み入力特徴マップをこれに対応するコンボリューションレイヤへフィードフォワード(Feed Forward)するための一つ以上の残差ネットワーク(Residual Network)含む学習装置を利用したCNN(Convolutional Neural Network)基盤学習方法において、
(a)前記学習装置が、前記入力イメージが取得されると、前記残差ネットワークの中から、ドロップアウト(Dropout)される特定の残差ネットワークを任意に選択するプロセスを遂行する段階;
(b)前記学習装置が(i)前記特定の残差ネットワークがドロップアウトされた少なくとも一つの変形CNNに前記入力イメージを入力することにより、調整されたエンコード出力特徴マップを生成し、(ii)前記調整されたエンコード済み出力特徴マップを用いてCNN出力を生成する段階;及び
(c)前記学習装置が前記CNN出力及びそれに対応するGT(Ground Truth)を用いて一つ以上のロスを計算し、前記ロスをバックプロパゲーション(Backpropagation)して、前記変形CNNの少なくとも一つパラメータを調整する段階;
を含むことを特徴とする学習方法。 - 前記コンボリューションレイヤの個数がN個で、前記N個のコンボリューションレイヤそれぞれがL個のサブコンボリューションレイヤを有するとした場合、前記N個のコンボリューションレイヤそれぞれが前記L個のサブコンボリューションレイヤの少なくとも一つを迂回するそれぞれの異なる迂回経路を有するM個のサブ残差ネットワークを含み、
前記(a)段階で、
前記(NxM)個のサブ残差ネットワークの中から、ドロップアウトされる少なくとも一つの特定サブ残差ネットワークが任意に選択されることを特徴とする 請求項1に記載の学習方法。 - 前記(a)ないし(c)段階は、同一の入力イメージを利用して、繰り返して遂行されることを特徴とする請求項1に記載の学習方法。
- 前記学習装置は、(i)前記調整されたエンコード済み出力特徴マップまたはそれに対応する調整されたデコード済み入力特徴マップの中の少なくとも一部に一つ以上のデコンボリューション演算を適用することにより、逐次的に一つ以上の調整されたデコード済み出力特徴マップを生成する一つ以上のデコンボリューションレイヤ及び(ii)前記デコンボリューションレイヤの少なくとも一つと、前記コンボリューションレイヤの少なくとも一つとの間に位置して、一つ以上の入力に一つ以上のコンボリューション演算を適用し、一つ以上の出力を前記デコンボリューションレイヤの少なくとも一つに入力させる一つ以上の中間レイヤをさらに含み、
前記(a)段階で、
前記学習装置は、前記残差ネットワーク及び前記中間レイヤの中から、ドロップアウトされる前記特定の残差ネットワーク及び少なくとも一つの特定の中間レイヤを任意に選択するプロセスを遂行し、
前記(b)段階で、
前記学習装置は、前記特定の残差ネットワーク及び前記特定の中間レイヤがドロップアウトされるように前記変形CNNを制御することを特徴とする請求項1に記載の学習方法。 - 前記学習装置は、前記多数個のデコンボリューションレイヤの少なくとも一つを迂回して、前記調整されたデコード済み入力特徴マップを、これに対応する次のデコンボリューションレイヤへフィードフォワードする追加残差ネットワークをさらに含み、
(i)前記N個のコンボリューションレイヤそれぞれは、L個のサブコンボリューションレイヤを含み、(ii)前記N個のデコンボリューションレイヤそれぞれは、L個のサブデコンボリューションレイヤを含み、前記中間レイヤの個数がK個である際、(1)前記N個のコンボリューションレイヤそれぞれは、前記Lのサブコンボリューションレイヤの中から少なくとも一つが迂回されたそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、(2)前記N個のデコンボリューションレイヤそれぞれが前記L個のサブデコンボリューションレイヤの中から少なくとも一つが迂回されるそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、
前記(a)段階で、
ドロップアウトされる少なくとも一つの特定の中間レイヤ及び少なくとも一つの特定のサブ残差ネットワークは、前記Kの中間レイヤ及び前記(2xNxM)個のサブ残差ネットワークの中からそれぞれ任意に選択されることを特徴とする請求項4に記載の学習方法。 - 前記中間レイヤの少なくとも一つは、膨張コンボリューション(Dilated Convolution)レイヤであることを特徴とする請求項4に記載の学習方法。
- 前記(c)段階において、
前記学習装置は、前記ロスをバックプロパゲーションして、前記デコンボリューションレイヤ、前記中間レイヤ、及び前記コンボリューションレイヤの中の少なくとも一つのパラメータを調整することを特徴とする請求項6に記載の学習方法。 - CNNを基盤にテストイメージをテスティングする方法において、
(a)学習装置が、(i)トレーニングイメージもしくはそれに対応する一つ以上の学習用エンコード済み入力特徴マップに一つ以上のコンボリューション演算を適用することにより、逐次的に一つ以上の学習用エンコード済み出力特徴マップを生成する一つ以上のコンボリューションレイヤ及び(ii)前記コンボリューションレイヤの少なくとも一つまたはこれに含まれているサブコンボリューションレイヤの中の少なくとも一つを迂回して、前記トレーニングイメージまたはそれに対応する前記学習用エンコード済み入力特徴マップをこれに対応するコンボリューションレイヤへフィードフォワードするための一つ以上の残差ネットワークを含むとした場合、(1)前記学習装置が、前記残差ネットワークの中から、ドロップアウトされる特定の残差ネットワークを任意に選択するプロセスを遂行し、(2)前記学習装置が(i)前記特定の残差ネットワークがドロップアウトされた少なくとも一つの変形CNNに前記トレーニングのイメージを入力することで、学習用調整されたエンコード済み出力特徴マップを生成し、(ii)前記学習用調整されたエンコード済み出力特徴マップを利用して学習用CNN出力を生成し、(3)前記学習装置が前記学習用CNN出力及びこれに対応するGTを利用して一つ以上のロスを計算し、前記ロスをバックプロパゲーションして、前記変形CNNの少なくとも一つのパラメータを調整した状態で、テスティング装置が前記テストイメージを取得する段階;及び
(b)前記テスティング装置が前記テストイメージを基盤に一つ以上のテスト用エンコード済み出力特徴マップを生成し、前記テスト用エンコード済み出力特徴マップを利用してテスト用CNN出力を生成する段階;
を含むことを特徴とするテスティング方法。 - 前記コンボリューションレイヤの個数がN個で、前記N個のコンボリューションレイヤそれぞれがL個のサブコンボリューションレイヤを有するとした場合、前記N個のコンボリューションレイヤそれぞれが前記L個のサブコンボリューションレイヤの少なくとも一つを迂回するそれぞれの異なる迂回経路を有するM個のサブ残差ネットワークを含み、
前記(1)プロセスで、
前記(NxM)個のサブ残差ネットワークの中から、ドロップアウトされる少なくとも一つの特定サブ残差ネットワークが任意に選択されることを特徴とする 請求項8に記載のテスティング方法。 - 前記(1)ないし(3)プロセスは、同一のトレーニングイメージを利用して、繰り返して遂行されることを特徴とする請求項8に記載のテスティング方法。
- 前記テスティング装置は、(i)前記テストイメージもしくはそれに対応する一つ以上のテスト用エンコード済み入力特徴マップに一つ以上のコンボリューション演算を適用することにより、逐次的に前記テスト用エンコード済み出力特徴マップを生成する前記コンボリューションレイヤ及び(ii)前記コンボリューションレイヤの少なくとも一つまたはこれに含まれているサブコンボリューションレイヤの中の少なくとも一つを迂回して、前記テストイメージまたはそれに対応する前記テスト用エンコード済み入力特徴マップをこれに対応する次のコンボリューションレイヤへフィードフォワードするための前記残差ネットワークを含む状態で、
前記(b)段階で、
前記テスティング装置は、(b−i)前記残差ネットワークの中から、ドロップアウトされる所定の残差ネットワークを任意に選択するプロセスを遂行し、(b−ii)前記所定の残差ネットワークがドロップアウトされた前記変形CNNに前記テストイメージを入力することで、テスト用調整されたエンコード済み出力特徴マップを生成し、前記テスト用調整されたエンコード済み出力特徴マップを利用して、テスト用CNN出力を生成することを特徴とする請求項8に記載のテスティング方法。 - 前記テスティング装置は、(i)前記テスト用調整されたエンコード済み出力特徴マップまたはそれに対応するテスト用調整されたデコード済み入力特徴マップの中の少なくとも一部に一つ以上のデコンボリューション演算を適用することにより、逐次的に一つ以上のテスト用調整されたデコード済み出力特徴マップを生成する一つ以上のデコンボリューションレイヤ及び(ii)前記デコンボリューションレイヤの少なくとも一つと、前記コンボリューションレイヤの少なくとも一つとの間に位置して、一つ以上の入力に一つ以上のコンボリューション演算を適用し、一つ以上の出力を前記デコンボリューションレイヤの少なくとも一つに入力させる一つ以上の中間レイヤをさらに含み、
前記(b−i)段階において、
前記テスティング装置は、前記残差ネットワーク及び前記中間レイヤの中から、ドロップアウトされる前記所定の残差ネットワーク及び少なくとも一つの所定の中間レイヤを任意に選択するプロセスを遂行し、
前記(b−ii)段階において、
前記テスティング装置は、前記特定の残差ネットワーク及び前記所定の中間レイヤがドロップアウトされるように前記変形CNNを制御することを特徴とする 請求項11に記載のテスティング方法。 - 前記テスティング装置は、前記多数個のデコンボリューションレイヤの少なくとも一つを迂回して、前記テスト用調整されたデコード済み入力特徴マップを、これに対応する次のデコンボリューションレイヤへフィードフォワードする追加残差ネットワークをさらに含み、
(i)前記N個のコンボリューションレイヤそれぞれは、L個のサブコンボリューションレイヤを含み、(ii)前記N個のデコンボリューションレイヤそれぞれは、L個のサブデコンボリューションレイヤを含み、前記中間レイヤの個数がK個である際、(1)前記N個のコンボリューションレイヤそれぞれは、前記Lのサブコンボリューションレイヤの中から少なくとも一つが迂回されたそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、(2)前記N個のデコンボリューションレイヤそれぞれが前記L個のサブデコンボリューションレイヤの中から少なくとも一つが迂回されるそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、
前記(b−i)段階において、
ドロップアウトされる少なくとも一つの所定の中間レイヤ及び少なくとも一つの所定のサブ残差ネットワークは、前記K個の中間レイヤ及び前記(2xNxM)個のサブ残差ネットワークの中からそれぞれ任意に選択されることを特徴とする請求項12に記載のテスティング方法。 - 前記中間レイヤの少なくとも一つは膨張コンボリューションレイヤであることを特徴とする請求項12に記載のテスティング方法。
- 前記(3)プロセスにおいて、
前記学習装置は、前記ロスをバックプロパゲーションして、前記デコンボリューションレイヤ、前記中間レイヤ、及び前記コンボリューションレイヤの中の少なくとも一つのパラメータを調整することを特徴とする請求項13に記載のテスティング方法。 - (i)入力イメージもしくはそれに対応する一つ以上のエンコード済み入力特徴マップに一つ以上のコンボリューション演算を適用することにより、逐次的に一つ以上のエンコード済み出力特徴マップを生成する一つ以上のコンボリューションレイヤ及び(ii)前記コンボリューションレイヤの少なくとも一つまたはこれに含まれているサブコンボリューションレイヤの中から少なくとも一つを迂回して、前記入力イメージまたはこれに対応する前記エンコード済み入力特徴マップをこれに対応するコンボリューションレイヤへフィードフォワード(Feed Forward)するための一つ以上の残差ネットワーク(Residual Network)含む学習装置において、
各インストラクションを格納する少なくとも一つのメモリ;及び
(I)前記残差ネットワークの中から、ドロップアウト(Dropout)される特定の残差ネットワークを任意に選択するプロセス、(II)(i)前記特定の残差ネットワークがドロップアウトされた少なくとも一つの変形CNNに前記入力イメージを入力することで、調整されたエンコード済み出力特徴マップを生成し、 (ii)前記調整されたエンコード出力特徴マップを用いてCNN出力を生成するプロセス、及び(III)前記CNN出力及びこれに対応するGTを利用して一つ以上のロスを計算し、前記ロスをバックプロパゲーションして、前記変形CNNの少なくとも一つパラメータを調整するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とする学習装置。 - 前記コンボリューションレイヤの個数がN個で、前記N個のコンボリューションレイヤそれぞれがL個のサブコンボリューションレイヤを有するとした場合、前記N個のコンボリューションレイヤそれぞれが前記L個のサブコンボリューションレイヤの少なくとも一つを迂回するそれぞれの異なる迂回経路を有するM個のサブ残差ネットワークを含み、
前記(I)プロセスで、
前記(NxM)個のサブ残差ネットワークの中から、ドロップアウトされる少なくとも一つの特定サブ残差ネットワークが任意に選択されることを特徴とする請求項16に記載の学習装置。 - 前記(I)ないし(III)プロセスは、同一の入力イメージを利用して、繰り返して遂行されることを特徴とする請求項16に記載の学習装置。
- 前記学習装置は、(i)前記調整されたエンコード済み出力特徴マップまたはそれに対応する調整されたデコード済み入力特徴マップの中の少なくとも一部に一つ以上のデコンボリューション演算を適用することにより、逐次的に一つ以上の調整されたデコード済み出力特徴マップを生成する一つ以上のデコンボリューションレイヤ及び(ii)前記デコンボリューションレイヤの少なくとも一つと、前記コンボリューションレイヤの少なくとも一つとの間に位置して、一つ以上の入力に一つ以上のコンボリューション演算を適用し、一つ以上の出力を前記デコンボリューションレイヤの少なくとも一つに入力させる一つ以上の中間レイヤをさらに含み、
前記(I)プロセスで、
前記プロセッサは、前記残差ネットワーク及び前記中間レイヤの中から、ドロップアウトされる前記特定の残差ネットワーク及び少なくとも一つの特定の中間レイヤを任意に選択するプロセスを遂行し、
前記(II)プロセスで、
前記学習プロセッサは、前記特定の残差ネットワーク及び前記特定の中間レイヤがドロップアウトされるように前記変形CNNを制御することを特徴とする請求項16に記載の学習装置。 - 前記学習装置は、前記多数個のデコンボリューションレイヤの少なくとも一つを迂回して、前記調整されたデコード済み入力特徴マップを、これに対応する次のデコンボリューションレイヤへフィードフォワードする追加残差ネットワークをさらに含み、
(i)前記N個のコンボリューションレイヤそれぞれは、L個のサブコンボリューションレイヤを含み、(ii)前記N個のデコンボリューションレイヤそれぞれは、L個のサブデコンボリューションレイヤを含み、前記中間レイヤの個数がK個である際、(1)前記N個のコンボリューションレイヤそれぞれは、前記Lのサブコンボリューションレイヤの中から少なくとも一つが迂回されたそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、(2)前記N個のデコンボリューションレイヤそれぞれが前記L個のサブデコンボリューションレイヤの中から少なくとも一つが迂回されるそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、
前記(I)プロセスで、
ドロップアウトされる少なくとも一つの特定の中間レイヤ及び少なくとも一つの特定のサブ残差ネットワークは、前記Kの中間レイヤ及び前記(2xNxM)個のサブ残差ネットワークの中からそれぞれ任意に選択されることを特徴とする請求項19に記載の学習装置。 - 前記中間レイヤの少なくとも一つは、膨張コンボリューション(Dilated Convolution)レイヤであることを特徴とする請求項19に記載の学習装置。
- 前記(III)プロセスにおいて、
前記プロセッサは、前記ロスをバックプロパゲーションして、前記デコンボリューションレイヤ、前記中間レイヤ、及び前記コンボリューションレイヤの中の少なくとも一つのパラメータを調整することを特徴とする請求項21に記載の学習装置。 - CNNを基盤にテストイメージをテスティングするテスティング装置において、
各インストラクションを格納する少なくとも一つのメモリ;及び
学習装置が、(i)トレーニングイメージもしくはそれに対応する一つ以上の学習用エンコード済み入力特徴マップに一つ以上のコンボリューション演算を適用することにより、逐次的に一つ以上の学習用エンコード済み出力特徴マップを生成する一つ以上のコンボリューションレイヤ及び(ii)前記コンボリューションレイヤの少なくとも一つまたはこれに含まれているサブコンボリューションレイヤの中の少なくとも一つを迂回して、前記トレーニングイメージまたはそれに対応する前記学習用エンコード済み入力特徴マップをこれに対応するコンボリューションレイヤへフィードフォワードするための一つ以上の残差ネットワークを含むとした場合、(1)前記学習装置が、前記残差ネットワークの中から、ドロップアウトされる特定の残差ネットワークを任意に選択するプロセスを遂行し、(2)前記学習装置が(i)前記特定の残差ネットワークがドロップアウトされた少なくとも一つの変形CNNに前記トレーニングのイメージを入力することで、学習用調整されたエンコード済み出力特徴マップを生成し、(ii)前記学習用調整されたエンコード済み出力特徴マップを利用して学習用CNN出力を生成し、(3)前記学習装置が前記学習用CNN出力及びこれに対応するGTを利用して一つ以上のロスを計算し、前記ロスをバックプロパゲーションして、前記変形CNNの少なくとも一つパラメータを調整した状態で、 前記テストイメージを基盤に一つ以上のテスト用エンコード済み出力特徴マップを生成し、前記テスト用エンコード済み出力特徴マップを利用して、テスト用CNN出力を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするテスティング装置。 - 前記コンボリューションレイヤの個数がN個で、前記N個のコンボリューションレイヤそれぞれがL個のサブコンボリューションレイヤを有するとした場合、前記N個のコンボリューションレイヤそれぞれが前記L個のサブコンボリューションレイヤの少なくとも一つを迂回するそれぞれの異なる迂回経路を有するM個のサブ残差ネットワークを含み、
前記(1)プロセスで、
前記(NxM)個のサブ残差ネットワークの中から、ドロップアウトされる少なくとも一つの特定サブ残差ネットワークが任意に選択されることを特徴とする請求項23に記載のテスティング装置。 - 前記(1)ないし(3)プロセスは、前記同一のトレーニングイメージを利用して、繰り返して遂行されることを特徴とする請求項23に記載のテスティング装置。
- 前記テスティング装置は、(i)前記テストイメージもしくはそれに対応する一つ以上のテスト用エンコード済み入力特徴マップに一つ以上のコンボリューション演算を適用することにより、逐次的に前記テスト用エンコード済み出力特徴マップをそれぞれ生成する前記コンボリューションレイヤ及び(ii)前記コンボリューションレイヤの少なくとも一つまたはこれに含まれている前記サブコンボリューションレイヤの中の少なくとも一つを迂回して、前記テストイメージまたはそれに対応する前記テスト用エンコード済み入力特徴マップをこれに対応するコンボリューションレイヤへフィードフォワードするための前記残差ネットワークを含む状態で、
前記プロセッサは、(I)前記残差ネットワークの中から、ドロップアウトされる所定の残差ネットワークを任意に選択するプロセス、(II)前記所定の残差ネットワークがドロップアウトされた前記変形CNNに前記テストイメージを入力することで、テスト用調整されたエンコード済み出力特徴マップを生成し、前記テスト用調整されたエンコード済み出力特徴マップを利用して、前記テスト用CNN出力を生成するプロセスを遂行することを特徴とする請求項23に記載のテスティング装置。 - 前記テスティング装置は、(i)前記テスト用調整されたエンコード済み出力特徴マップまたはそれに対応するテスト用調整されたデコード済み入力特徴マップの中の少なくとも一部に一つ以上のデコンボリューション演算を適用することにより、逐次的に一つ以上のテスト用調整されたデコード済み出力特徴マップを生成する一つ以上のデコンボリューションレイヤ及び(ii)前記デコンボリューションレイヤの少なくとも一つと、前記コンボリューションレイヤの少なくとも一つとの間に位置して、一つ以上の入力に一つ以上のコンボリューション演算を適用し、一つ以上の出力を前記デコンボリューションレイヤの少なくとも一つに入力させる一つ以上の中間レイヤをさらに含み、
前記(I)プロセスで、
前記プロセッサは、前記残差ネットワーク及び前記中間レイヤの中から、ドロップアウトされる前記所定の残差ネットワーク及び少なくとも一つの所定の中間レイヤを任意に選択し、
前記(II)プロセスで、
前記学習プロセッサは、前記所定の残差ネットワーク及び前記所定の中間レイヤがドロップアウトされるように前記変形CNNを制御することを特徴とする請求項26に記載のテスティング装置。 - 前記テスティング装置は、前記多数個のデコンボリューションレイヤの少なくとも一つを迂回して、前記テスト用調整されたデコード済み入力特徴マップを、これに対応する次のデコンボリューションレイヤへフィードフォワードする追加残差ネットワークをさらに含み、
(i)前記N個のコンボリューションレイヤそれぞれは、L個のサブコンボリューションレイヤを含み、(ii)前記N個のデコンボリューションレイヤそれぞれは、L個のサブデコンボリューションレイヤを含み、前記中間レイヤの個数がK個である際、(1)前記N個のコンボリューションレイヤそれぞれは、前記Lのサブコンボリューションレイヤの中から少なくとも一つが迂回されたそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、(2)前記N個のデコンボリューションレイヤそれぞれが前記L個のサブデコンボリューションレイヤの中から少なくとも一つが迂回されるそれぞれ別の迂回経路を有するM個のサブ残差ネットワークを含み、
前記(I)プロセスで、
ドロップアウトされる少なくとも一つの所定の中間レイヤ及び少なくとも一つの所定のサブ残差ネットワークは、前記Kの中間レイヤ及び前記(2xNxM)個のサブ残差ネットワークの中からそれぞれ任意に選択されることを特徴とする請求項27に記載のテスティング装置。 - 前記中間レイヤの少なくとも一つは膨張コンボリューションレイヤであることを特徴とする請求項27に記載のテスティング装置。
- 前記(3)プロセスにおいて、
前記学習装置は、前記ロスをバックプロパゲーションして、前記デコンボリューションレイヤ、前記中間レイヤ、及び前記コンボリューションレイヤの中の少なくとも一つのパラメータを調整することを特徴とする請求項28に記載のテスティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/258,047 | 2019-01-25 | ||
US16/258,047 US10496899B1 (en) | 2019-01-25 | 2019-01-25 | Learning method and learning device for adjusting parameters of CNN in which residual networks are provided for meta learning, and testing method and testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119506A true JP2020119506A (ja) | 2020-08-06 |
JP6938049B2 JP6938049B2 (ja) | 2021-09-22 |
Family
ID=68502892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019212164A Active JP6938049B2 (ja) | 2019-01-25 | 2019-11-25 | メタ学習のために残差ネットワークが提供されるcnnのパラメータを調整するための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置{learning method and learning device for adjusting parameters of cnn in which residual networks are provided for meta learning, and testing method and testing device using the same} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10496899B1 (ja) |
EP (1) | EP3686806A1 (ja) |
JP (1) | JP6938049B2 (ja) |
KR (1) | KR102320992B1 (ja) |
CN (1) | CN111488978B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10751548B2 (en) * | 2017-07-28 | 2020-08-25 | Elekta, Inc. | Automated image segmentation using DCNN such as for radiation therapy |
US10776673B2 (en) * | 2019-01-31 | 2020-09-15 | StradVision, Inc. | Learning method and learning device for sensor fusion to integrate information acquired by radar capable of distance estimation and information acquired by camera to thereby improve neural network for supporting autonomous driving, and testing method and testing device using the same |
CN111353583B (zh) * | 2020-02-20 | 2023-04-07 | 南京工程学院 | 基于群卷积特征拓扑空间的深度学习网络及其训练方法 |
US20220156559A1 (en) * | 2020-11-18 | 2022-05-19 | Micron Technology, Inc. | Artificial neural network bypass |
CN112580581A (zh) * | 2020-12-28 | 2021-03-30 | 英特灵达信息技术(深圳)有限公司 | 目标检测方法、装置及电子设备 |
JP2024507684A (ja) * | 2021-02-22 | 2024-02-21 | ビター・メディカル・ソリューションズ・インコーポレイテッド | 大動脈組織のセグメント化および特徴付けのための方法およびシステム |
CN116597167B (zh) * | 2023-06-06 | 2024-02-27 | 中国人民解放军92942部队 | 一种永磁同步电机小样本退磁故障诊断方法、存储介质及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019167665A1 (ja) * | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | 学習装置、方法及びプログラム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3757722B2 (ja) * | 1999-12-15 | 2006-03-22 | Kddi株式会社 | 多層ニューラルネットワークユニット数最適化方法及び装置 |
US9418319B2 (en) * | 2014-11-21 | 2016-08-16 | Adobe Systems Incorporated | Object detection using cascaded convolutional neural networks |
US9928410B2 (en) * | 2014-11-24 | 2018-03-27 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
US20170124409A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Cascaded neural network with scale dependent pooling for object detection |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US10002313B2 (en) * | 2015-12-15 | 2018-06-19 | Sighthound, Inc. | Deeply learned convolutional neural networks (CNNS) for object localization and classification |
US10181195B2 (en) * | 2015-12-28 | 2019-01-15 | Facebook, Inc. | Systems and methods for determining optical flow |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
CN108475331B (zh) * | 2016-02-17 | 2022-04-05 | 英特尔公司 | 用于对象检测的方法、装置、系统和计算机可读介质 |
CN106295629B (zh) * | 2016-07-15 | 2018-06-15 | 北京市商汤科技开发有限公司 | 结构化文本检测方法和系统 |
US10354362B2 (en) * | 2016-09-08 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network |
US10387740B2 (en) * | 2016-10-10 | 2019-08-20 | Gyrfalcon Technology Inc. | Object detection and recognition apparatus based on CNN based integrated circuits |
US10198671B1 (en) * | 2016-11-10 | 2019-02-05 | Snap Inc. | Dense captioning with joint interference and visual context |
CN115097937A (zh) * | 2016-11-15 | 2022-09-23 | 奇跃公司 | 用于长方体检测的深度学习系统 |
US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
US10216766B2 (en) * | 2017-03-20 | 2019-02-26 | Adobe Inc. | Large-scale image tagging using image-to-topic embedding |
US20180336469A1 (en) * | 2017-05-18 | 2018-11-22 | Qualcomm Incorporated | Sigma-delta position derivative networks |
US11049018B2 (en) * | 2017-06-23 | 2021-06-29 | Nvidia Corporation | Transforming convolutional neural networks for visual sequence learning |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
US10733755B2 (en) * | 2017-07-18 | 2020-08-04 | Qualcomm Incorporated | Learning geometric differentials for matching 3D models to objects in a 2D image |
CN107247949B (zh) * | 2017-08-02 | 2020-06-19 | 智慧眼科技股份有限公司 | 基于深度学习的人脸识别方法、装置和电子设备 |
JP7149692B2 (ja) * | 2017-08-09 | 2022-10-07 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US10169679B1 (en) * | 2017-10-13 | 2019-01-01 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
CN108460726B (zh) * | 2018-03-26 | 2020-08-11 | 厦门大学 | 一种基于增强递归残差网络的磁共振图像超分辨重建方法 |
US10223614B1 (en) * | 2018-09-04 | 2019-03-05 | StradVision, Inc. | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same |
US10229346B1 (en) * | 2018-09-04 | 2019-03-12 | StradVision, Inc. | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
-
2019
- 2019-01-25 US US16/258,047 patent/US10496899B1/en active Active
- 2019-09-27 KR KR1020190119503A patent/KR102320992B1/ko active IP Right Grant
- 2019-10-21 CN CN201910998750.5A patent/CN111488978B/zh active Active
- 2019-11-07 EP EP19207673.5A patent/EP3686806A1/en active Pending
- 2019-11-25 JP JP2019212164A patent/JP6938049B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019167665A1 (ja) * | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | 学習装置、方法及びプログラム |
Non-Patent Citations (8)
Title |
---|
GAO HUANG, ET AL.: ""Deep Networks with Stochastic Depth"", ARXIV:1603.09382V3, vol. version v3, JPN6021002103, 28 July 2016 (2016-07-28), pages 1 - 16, ISSN: 0004432421 * |
HAIYING XIA, ET AL.: ""Single Image Rain Removal via a Simplified Residual Dense Network"", IEEE ACCESS, vol. 6, JPN6021002106, 2 November 2018 (2018-11-02), pages 66522 - 66535, XP011697002, ISSN: 0004432424, DOI: 10.1109/ACCESS.2018.2879330 * |
JIU XU, ET AL.: ""DENSE BYNET: RESIDUAL DENSE NETWORK FOR IMAGE SUPER RESOLUTION"", PROCEEDINGS OF 2018 25TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP 2018), JPN6021002107, 10 October 2018 (2018-10-10), pages 71 - 75, XP033455264, ISSN: 0004432425, DOI: 10.1109/ICIP.2018.8451696 * |
KAIMING HE, ET AL.: ""Identity Mappings in Deep Residual Networks"", ARXIV:1603.05027V3, vol. version v3, JPN6021002105, 25 July 2016 (2016-07-25), pages 1 - 15, ISSN: 0004432423 * |
XI CHENG, ET AL.: ""Triple Attention Mixed Link Network for Single Image Super Resolution"", ARXIV:1810.03254V1, vol. version v1, JPN6021002104, 8 October 2018 (2018-10-08), pages 1 - 8, ISSN: 0004432422 * |
YUCHENG WANG, ET AL.: ""Deep Bi-Dense Networks for Image Super-Resolution"", PROCEEDINGS OF 2018 DIGITAL IMAGE COMPUTING: TECHNIQUES AND APPLICATIONS (DICTA), JPN6021002101, 13 December 2018 (2018-12-13), pages 1 - 8, XP033503482, ISSN: 0004432419, DOI: 10.1109/DICTA.2018.8615817 * |
YULUN ZHANG, ET AL.: ""Residual Dense Network for Image Super-Resolution"", PROCEEDINGS OF 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6021002102, 23 June 2018 (2018-06-23), pages 2472 - 2481, XP033476213, ISSN: 0004432420, DOI: 10.1109/CVPR.2018.00262 * |
山下隆義(外1名): "「畳み込みニューラルネットワークの研究動向」", 画像ラボ, vol. 2018年10月号(第29巻,第10号), JPN6021002108, 10 October 2018 (2018-10-10), JP, pages 27 - 35, ISSN: 0004432426 * |
Also Published As
Publication number | Publication date |
---|---|
CN111488978A (zh) | 2020-08-04 |
CN111488978B (zh) | 2023-10-10 |
KR102320992B1 (ko) | 2021-11-03 |
KR20200092843A (ko) | 2020-08-04 |
EP3686806A1 (en) | 2020-07-29 |
US10496899B1 (en) | 2019-12-03 |
JP6938049B2 (ja) | 2021-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020119506A (ja) | メタ学習のために残差ネットワークが提供されるcnnのパラメータを調整するための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置{learning method and learning device for adjusting parameters of cnn in which residual networks are provided for meta learning, and testing method and testing device using the same} | |
KR102309711B1 (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102309702B1 (ko) | 이미지를 인코딩하기 위한 방법 및 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102296507B1 (ko) | 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치 | |
JP6750854B2 (ja) | 情報処理装置および情報処理方法 | |
JP2020126607A (ja) | カメラから取得されたイメージと、それに対応するレーダまたはライダを通じて取得されたポイントクラウドマップをニューラルネットワークのそれぞれのコンボリューションステージごとに統合する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
KR102362744B1 (ko) | 딥 뉴럴 네트워크(deep neural network) 기반의 다중 패치 조합(multiple patch combination)을 이용하여 얼굴을 인식하고, 극도의 상황에서 결함 허용 능력 및 흔들림에 강인한 성질을 향상시키는 방법 | |
KR102313604B1 (ko) | 멀티 피딩을 적용한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102246326B1 (ko) | 라플라시안 피라미드 네트워크를 이용하여 자율 주행 자동차 레벨 4 및 레벨 5를 만족시키기 위해 요구되는 도로 장애물 검출에 있어서의 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 및 이를 이용한 테스팅 방법 및 테스팅 장치 | |
KR20200027427A (ko) | 차선 후보 픽셀의 분류를 통해 차선을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6932395B2 (ja) | イメージを分析するために、ディープラーニングネットワークに利用するためのトレーニングイメージに対するラベルリング信頼度を自動的に評価するための方法、及びこれを利用した信頼度評価装置 | |
US10872297B2 (en) | Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same | |
KR102349933B1 (ko) | 스마트폰, 드론, 선박 혹은 군사적 목적에 이용하기 위한, 입력 데이터를 분석하는 뉴럴 네트워크를 온디바이스 연속 학습하는 방법 및 장치, 그리고, 이에 의해 학습된 뉴럴 네트워크를 테스트하는 방법 및 장치 | |
JP2020119501A (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP2020119496A (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP2020123346A (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
US10325185B1 (en) | Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same | |
KR20200094644A (ko) | V2x 정보 융합 기술을 통해 획득된, 각 객체에 대한 깊이 예측 정보 및 각 객체에 대한 클래스 정보를 이용해 3d 공간을 재구축함으로써 hd 맵을 업데이트하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
US10635938B1 (en) | Learning method and learning device for allowing CNN having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same | |
KR102349975B1 (ko) | 연속 학습 기반의 얼굴 인식을 위한 스마트 데이터베이스를 관리하는 방법 및 장치 | |
KR20220088497A (ko) | 서브-커널 써칭 모듈을 사용하여 온-디바이스 뉴럴 네트워크 모델을 최적화하는 방법 및 장치 | |
KR102349969B1 (ko) | 스마트폰, 드론, 선박 혹은 군사적 목적을 위한, 트레이닝 이미지의 최적화 샘플링에 의해 입력 데이터를 분석하는 뉴럴 네트워크의 온디바이스 연속 학습 방법 및 장치, 그리고, 이를 이용한 테스트 방법 및 장치 | |
Liu et al. | Improve semantic segmentation of high-resolution remote sensing imagery with RS-TTA | |
von Burg | Debugging deep neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191125 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6938049 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |