JP7274071B2 - 学習装置 - Google Patents
学習装置 Download PDFInfo
- Publication number
- JP7274071B2 JP7274071B2 JP2023509940A JP2023509940A JP7274071B2 JP 7274071 B2 JP7274071 B2 JP 7274071B2 JP 2023509940 A JP2023509940 A JP 2023509940A JP 2023509940 A JP2023509940 A JP 2023509940A JP 7274071 B2 JP7274071 B2 JP 7274071B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- domain
- cnn
- image
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013178 mathematical model Methods 0.000 claims description 20
- 238000012937 correction Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 90
- 238000000034 method Methods 0.000 description 31
- 238000005516 engineering process Methods 0.000 description 28
- 239000000306 component Substances 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 15
- 230000008878 coupling Effects 0.000 description 13
- 238000010168 coupling process Methods 0.000 description 13
- 238000005859 coupling reaction Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000011176 pooling Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000001502 supplementing effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 239000008358 core component Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
活性化関数は、例えばReLU(Rectified Linear Unit)やSigmoid、Softmaxなどの非線形関数が用いられ、線形空間から逃れることで誤差逆伝播法(Back Propagation)による畳込み層への勾配伝播の際に、線形空間で微分できなくなる勾配消失問題を避けることができる。
畳込み層は、入力がMチャネルであり出力がNチャネルである、といった任意の次元操作が可能である。畳込み層が有する畳込みフィルタの枚数は、チャネルと表現する。畳込み層のサイズは、出力層のチャネル数×フィーチャーマップの縦サイズ×フィーチャーマップの横サイズで表すことができる。畳込み層の出力は、空間情報を備えるものでありフィーチャーマップ(Feature Map)又は特徴量マップと呼ばれる。
図1は、実施の形態1に係る学習装置1と推論装置2とを備えたシステムの構成例を示すシステムブロック図である。図1が示すとおり本開示技術に係るシステムは、学習装置1と、推論装置2と、学習装置1と推論装置2とが情報を共有できる共有記憶装置3と、学習装置1がアクセスする外部記憶装置4と、から構成される。
この画像の属性を分類(Classification)させる処理、又は物体の位置を回帰(Regression)する処理は、図2Aの中の物体位置又は属性を算出するステップST3が該当する。
Shallow CNNである浅層CNN100は、オリジナルドメインの画像データの特徴量とターゲットドメインの画像データの特徴量とを、それぞれ高次元特徴量空間でプロットしたときに、共通する特徴量(英語ではDomain Shared Featuresであり、以下「ドメイン共有特徴量」と呼ぶ)を抽出するように設計する。そこで浅層特徴量抽出部11には、オリジナルドメインの画像データとターゲットドメインの画像データとが教師データとして入力される。フィルタ学習の初期段階では高次元特徴量空間へのプロットはランダムのように映るが、次第に画像のカテゴリーごとに、分布に一定の法則が見られるようになる。
共通特徴量算出部12で抽出した低レベル特徴量のうちドメイン共有特徴量は、ターゲットドメインの画像のメイン学習が進む度合に応じて、ドメイン共有特徴量を強度に教師する。
非特許文献1:
Hu, Jie, Li Shen, and Gang Sun. ”Squeeze-and-excitation networks.” Proceedings of the IEEE conference on computer vision and pattern recognition.2018.
より具体的に共通特徴量算出部12は、共通特徴量算出部12より算出されたオリジナルドメインとターゲットドメインのそれぞれのフィーチャーマップを空間的に比較し、最も類似するフィーチャーマップ間の距離を、例えば画像相関やピクセル単位での類似性、SSIM(Structure Similarity)などで算出し、重みとしてもよい。
また、より簡易的に共通特徴量算出部12は、Global Average Pooling(GAP)をフィーチャーマップに適用して代表値を算出し、最も類似するフィーチャーマップの代表値間の距離を、例えば画像相関やピクセル単位での類似性、SSIM(Structure Similarity)などで算出し、重みとしてもよい。
このようにして共通特徴量算出部12は、注目すべきチャネルを強調した特徴マップを算出する(ドメイン共有特徴量を算出するステップST13)。前記の重みは、「ドメイン緩和重み」と呼ぶ。ドメイン共有特徴量が強調された特徴マップは、「ドメイン緩和教師信号」と呼ぶ。前記の重みと教師信号とは、まとめて「ドメイン緩和学習情報」と呼ぶ。浅層CNN100の共通特徴量算出部12は、ドメイン緩和重みを算出するステップST14を実施する。
ここではチャネル方向のAttentionを用いた実施の形態を説明したが、本開示技術はチャネル方向のAttentionと空間方向のAttentionとを適宜組み合わせてもよい。
本開示技術においてこのような順番で強調する特徴量を変える理由は、CNNが獲得する特徴量の順序も(1)色、(2)輝度、(3)低周波成分、(4)高周波成分の順番であるというCNNの特質に由来している。
推論対象であるターゲットドメインの画像は、まず画像入力部10へ入力される(ターゲットドメイン画像を入力するステップST21)。入力された画像は、浅層CNN100の浅層特徴量抽出部11において低レベル特徴マップが作成される(低レベル特徴マップを算出するステップST22)。作成された低レベル特徴マップは、高次元特徴量付与部14においてドメイン緩和重みが乗算され(ドメイン緩和重みを乗算するステップST23)、深層CNN110への入力画像が生成される。深層CNN110は、属性回帰部21において入力された画像についての物体位置又は属性を算出し(物体位置又は属性を算出するステップST27)、推論結果を出力する(推論結果を出力するステップST28)。
実施の形態1に係る学習装置1と推論装置2とを備えたシステムは、潤沢にはないにせよ学習用に一定量のターゲットドメインのデータセットがあることを前提とした。実施の形態2に係る学習装置1と推論装置2とを備えたシステムは、学習段階において全くターゲットドメインのデータセットがない場合に対応できるものである。一般に、学習段階において推論すべき教師データがないクラスを学習する問題は、Zero-Shot Learning問題と呼ばれている。以降の実施の形態2についての説明において、実施の形態1と共通する構成要素は同じ符号を用い、重複する説明については適宜省略する。
実施の形態1と実施の形態2とにおいて、コアとなる構成要素である浅層CNN100と深層CNN110とは、ともにCNNを採用した「2つの独立したCNN」として描写がなされた。しかし、本開示技術に係る浅層CNN100と深層CNN110とに該当する構成要素は、2つの独立したCNNである必要はないしそもそもCNNである必要もない。実施の形態3は、「2つの独立したCNN」以外の構成例を採用した本開示技術を明らかにするものである。
結合CNN120を共有する方法は、クラウド上に実現して共有してもよいし、オンラインでつないでもよい。
なお結合NN130は多層のニューラルネットワークであるから、その学習方法は深層学習であると言える。
結合NN130を共有する方法も、クラウド上に実現して共有してもよいし、オンラインでつないでもよい。
結合数理モデル140は、結合CNN120と同様に、入力部と、可変なパラメータによって入力から出力を計算する計算部と、出力部と、を備えなければならない。また、結合数理モデル140は、出力を評価する評価関数に基づいて、可変なパラメータを変更し、機械学習が可能でなければならない。このような結合数理モデル140は、ここでは「学習自在である」と形容する。
結合数理モデル140を共有する方法も、クラウド上に実現して共有してもよいし、オンラインでつないでもよい。
Claims (1)
- 機械学習可能な結合数理モデルを備え、教師用のオリジナルドメインのデータセットからターゲットドメインのデータセットを学習する学習装置であって、
前記結合数理モデルの前段部は、
入力された画像データから複数の低レベル特徴マップを生成し、
前記画像データのうち前記オリジナルドメインと前記ターゲットドメインについて同じ種類の学習対象に属するデータセットの前記低レベル特徴マップを比較し、ドメイン共有特徴量を算出し、
前記ドメイン共有特徴量のうち、(1)色、(2)輝度、(3)低周波成分、及び(4)高周波成分のそれぞれの空間についてドメイン緩和学習情報を算出し、
前記ドメイン緩和学習情報を用いて入力された前記ターゲットドメインの特徴マップを重み付けし新たな重付け特徴マップを生成する高次元特徴量付与部と、
算出された前記ドメイン緩和学習情報のうち、推論装置のメイン学習のEpochに応じて強調するドメイン共有特徴量の切換えを行う学習情報補正部と、を備える、
学習装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/013407 WO2022208632A1 (ja) | 2021-03-29 | 2021-03-29 | 推論装置、推論方法、学習装置、学習方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022208632A1 JPWO2022208632A1 (ja) | 2022-10-06 |
JPWO2022208632A5 JPWO2022208632A5 (ja) | 2023-04-28 |
JP7274071B2 true JP7274071B2 (ja) | 2023-05-15 |
Family
ID=83455707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023509940A Active JP7274071B2 (ja) | 2021-03-29 | 2021-03-29 | 学習装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20230394807A1 (ja) |
EP (1) | EP4296939A4 (ja) |
JP (1) | JP7274071B2 (ja) |
KR (1) | KR102658990B1 (ja) |
CN (1) | CN117099127A (ja) |
WO (1) | WO2022208632A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031851A1 (ja) | 2018-08-08 | 2020-02-13 | 富士フイルム株式会社 | 画像処理方法及び画像処理装置 |
CN111191690A (zh) | 2019-12-16 | 2020-05-22 | 上海航天控制技术研究所 | 基于迁移学习的空间目标自主识别方法、电子设备和存储介质 |
JP2020126468A (ja) | 2019-02-05 | 2020-08-20 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7119493B2 (ja) | 2018-03-28 | 2022-08-17 | 沖電気工業株式会社 | 認識装置、認識方法およびプログラム |
US20200380369A1 (en) | 2019-05-31 | 2020-12-03 | Nvidia Corporation | Training a neural network using selective weight updates |
US20230072400A1 (en) | 2021-09-07 | 2023-03-09 | Arizona Board Of Regents On Behalf Of Arizona State University | SYSTEMS, METHODS, AND APPARATUSES FOR GENERATING PRE-TRAINED MODELS FOR nnU-Net THROUGH THE USE OF IMPROVED TRANSFER LEARNING TECHNIQUES |
KR20230139257A (ko) * | 2022-03-25 | 2023-10-05 | 재단법인 아산사회복지재단 | 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치 |
WO2023230748A1 (en) | 2022-05-30 | 2023-12-07 | Nvidia Corporation | Dynamic class weighting for training one or more neural networks |
-
2021
- 2021-03-29 JP JP2023509940A patent/JP7274071B2/ja active Active
- 2021-03-29 WO PCT/JP2021/013407 patent/WO2022208632A1/ja active Application Filing
- 2021-03-29 CN CN202180096136.5A patent/CN117099127A/zh active Pending
- 2021-03-29 EP EP21934805.9A patent/EP4296939A4/en active Pending
- 2021-03-29 KR KR1020237031632A patent/KR102658990B1/ko active IP Right Grant
-
2023
- 2023-08-18 US US18/235,677 patent/US20230394807A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031851A1 (ja) | 2018-08-08 | 2020-02-13 | 富士フイルム株式会社 | 画像処理方法及び画像処理装置 |
JP2020126468A (ja) | 2019-02-05 | 2020-08-20 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
CN111191690A (zh) | 2019-12-16 | 2020-05-22 | 上海航天控制技术研究所 | 基于迁移学习的空间目标自主识别方法、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP4296939A4 (en) | 2024-05-01 |
EP4296939A1 (en) | 2023-12-27 |
JPWO2022208632A1 (ja) | 2022-10-06 |
US20230394807A1 (en) | 2023-12-07 |
CN117099127A (zh) | 2023-11-21 |
KR20230144087A (ko) | 2023-10-13 |
WO2022208632A1 (ja) | 2022-10-06 |
KR102658990B1 (ko) | 2024-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ding et al. | Semi-supervised locality preserving dense graph neural network with ARMA filters and context-aware learning for hyperspectral image classification | |
WO2020216227A9 (zh) | 图像分类方法、数据处理方法和装置 | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
CN110378381B (zh) | 物体检测方法、装置和计算机存储介质 | |
CN113705769B (zh) | 一种神经网络训练方法以及装置 | |
EP3065085B1 (en) | Digital image processing using convolutional neural networks | |
CN110443286B (zh) | 神经网络模型的训练方法、图像识别方法以及装置 | |
CN109949255A (zh) | 图像重建方法及设备 | |
KR102338372B1 (ko) | 영상으로부터 객체를 분할하는 방법 및 장치 | |
CN111583263A (zh) | 一种基于联合动态图卷积的点云分割方法 | |
CN110826458A (zh) | 一种基于深度学习的多光谱遥感图像变化检测方法及系统 | |
JP7405198B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
Verma et al. | Computational cost reduction of convolution neural networks by insignificant filter removal | |
CN116863194A (zh) | 一种足溃疡图像分类方法、系统、设备及介质 | |
Yifei et al. | Flower image classification based on improved convolutional neural network | |
Bailly et al. | Boosting feature selection for neural network based regression | |
CN110569852B (zh) | 基于卷积神经网络的图像识别方法 | |
JP7274071B2 (ja) | 学習装置 | |
US20230073175A1 (en) | Method and system for processing image based on weighted multiple kernels | |
Shahbaz et al. | Moving object detection based on deep atrous spatial features for moving camera | |
Halder et al. | Color image segmentation using semi-supervised self-organization feature map | |
Hu et al. | Learning to detect saliency with deep structure | |
CN113222867A (zh) | 基于多模板图像的图像数据增强方法及系统 | |
Jiu et al. | Deep context networks for image annotation | |
Lin et al. | Using Fully Convolutional Networks for Floor Area Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230309 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230309 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7274071 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |