JP2022553407A - 複合特性分類と共通局所化のためのニューラルネットワークモデルの学習方法及び装置 - Google Patents
複合特性分類と共通局所化のためのニューラルネットワークモデルの学習方法及び装置 Download PDFInfo
- Publication number
- JP2022553407A JP2022553407A JP2022524128A JP2022524128A JP2022553407A JP 2022553407 A JP2022553407 A JP 2022553407A JP 2022524128 A JP2022524128 A JP 2022524128A JP 2022524128 A JP2022524128 A JP 2022524128A JP 2022553407 A JP2022553407 A JP 2022553407A
- Authority
- JP
- Japan
- Prior art keywords
- class
- neural network
- network model
- loss
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 30
- 239000002131 composite material Substances 0.000 title claims abstract description 21
- 230000004807 localization Effects 0.000 title description 3
- 238000011176 pooling Methods 0.000 claims abstract description 35
- 230000008045 co-localization Effects 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000000644 propagated effect Effects 0.000 description 6
- 238000013145 classification model Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
Abstract
Description
前記ニューラルネットワークモデルは、前記複数のクラス別全結合層にそれぞれ対応し、各クラス別全結合層の出力に応じてクラス別特性確率を演算する複数のクラス別分類器をさらに含むことができる。
前記(d)ステップは、(d-4)複数の前記クラス別分類損失Lcls(Tt)と前記観察損失Lobsに基づいてマルチラベル分類損失L(T)を演算するステップと、(d-5)前記マルチラベル分類損失L(T)を前記複数のクラス別分類器、前記複数のクラス別全結合層、前記プーリング層及び前記畳み込み層に逆伝播するステップと、をさらに含むことができる。
本発明の実施形態によれば、クラス間の関連性が反映できる。
本発明の実施形態によれば、複合特性間の共通局所化が実現できる。
前記ニューラルネットワークモデルは、
入力画像に対して畳み込みフィルタを用いて畳み込み演算を行う畳み込み層と、
前記畳み込み層の出力に対してプーリング(pooling)を行うためのプーリング層と、
複合特性が分類される複数のクラスにそれぞれ対応し、前記プーリング層の出力に対してクラス別重みwfc(Tt)を掛けた値を出力する複数のクラス別全結合層(fully connected layer)と、
を含み、
前記方法は、
(a)入力画像を前記畳み込み層に入力するステップと、
(b)前記畳み込み層の出力に基づいてクラス別観察マップを演算するステップと、
(c)前記クラス別観察マップに基づいて、複数のクラスに共通する観察損失Lobsを演算するステップと、
(d)観察損失Lobsに基づく損失を前記ニューラルネットワークモデルに逆伝播するステップと、を含む。
畳み込み層10は、入力画像に対して複数の畳み込みフィルタを用いて畳み込み演算を行うことにより、特徴マップを抽出する。図2に示すように、畳み込み演算は複数回行われてもよい。畳み込み層10の出力、すなわち特徴マップoconvは、高さ(H)、幅(W)、チャネル数(C)を有すると仮定した。
Nxは学習画像数を示し、CTtはクラスTtに属するクラス別特性の数を示す。
Nxは学習画像数を示し、CTは複数のクラス全体に対するクラス別特性の数を示す。
一方、畳み込み層10の出力oconvとクラス別全結合層30の重みwfc(Tt)に基づいてクラス別観察マップが算出される(S320)。
その後、図8及び図9の(f)を参照すると、入力画像の対象領域
Claims (10)
- 画像の複合特性分類及び共通局所化のためのニューラルネットワークモデルの学習方法であって、
前記ニューラルネットワークモデルは、
入力画像に対して畳み込みフィルタを用いて畳み込み演算を行う畳み込み層と、
前記畳み込み層の出力に対してプーリング(pooling)を行うためのプーリング層と、
複合特性が分類される複数のクラスにそれぞれ対応し、前記プーリング層の出力に対してクラス別重みwfc(Tt)を掛けた値を出力する複数のクラス別全結合層(fully connected layer)と、を含み、
前記複数のクラスは、互いに異なる基準によって区別され、
前記複数のクラスそれぞれは、複数のクラス別特性に分類され、
前記ニューラルネットワークモデルは、前記クラス別全結合層の出力に応じて、前記複数のクラスそれぞれのクラス別特性に対するクラス別特性確率を提供することができ、
前記方法は、
(a)入力画像を前記畳み込み層に入力するステップと、
(b)前記畳み込み層の出力に基づいて、前記複数のクラスそれぞれに対するクラス別観察マップを演算するステップと、
(c)前記クラス別観察マップに基づいて、前記複数のクラスに共通する観察損失Lobsを演算するステップと、
(d)前記観察損失Lobsに基づく損失を前記ニューラルネットワークモデルに逆伝播するステップと、を含み、
前記(c)ステップは、
(c-1)前記クラス別観察マップに基づいて、前記複数のクラスに共通する共通観察マップを生成するステップと、
(c-2)前記共通観察マップ及び前記入力画像の対象領域を用いて前記観察損失Lobsを演算するステップと、
を含み、各ステップがコンピュータプロセッサによって行われる、ニューラルネットワークモデルの学習方法。 - 前記共通観察マップは前記クラス別観察マップの平均値であることを特徴とする、請求項1に記載のニューラルネットワークモデルの学習方法。
- 前記観察損失は、前記共通観察マップと前記入力画像の対象領域をそれぞれ横及び縦方向にプロジェクションした値同士を連結(concatenate)した値に対してコサイン距離を計算することにより算出されることを特徴とする、請求項1に記載のニューラルネットワークモデルの学習方法。
- 前記ニューラルネットワークモデルは、
前記複数のクラス別全結合層にそれぞれ対応し、各クラス別全結合層の出力に応じてクラス別特性確率を演算する複数のクラス別分類器をさらに含むことを特徴とする、請求項1に記載のニューラルネットワークモデルの学習方法。 - 前記(d)ステップは、
(d-1)前記複数のクラス別分類器それぞれの出力結果に基づいてクラス別分類損失Lcls(Tt)を演算するステップと、
(d-2)前記観測損失Lobs及び前記クラス別分類損失Lcls(Tt)に基づいてクラス別特性損失L(Tt)を演算するステップと、
(d-3)前記クラス別特性損失L(Tt)をクラス別に前記複数のクラス別分類器及び前記複数のクラス別全結合層に逆伝播するステップと、を含むことを特徴とする、請求項5に記載のニューラルネットワークモデルの学習方法。 - 前記(d)ステップは、
(d-4)複数の前記クラス別分類損失Lcls(Tt)と前記観察損失Lobsに基づいてマルチラベル分類損失L(T)を演算するステップと、
(d-5)前記マルチラベル分類損失L(T)を前記複数のクラス別分類器、前記複数のクラス別全結合層、前記プーリング層及び前記畳み込み層に逆伝播するステップと、をさらに含むことを特徴とする、請求項6に記載のニューラルネットワークモデルの学習方法。 - 前記プーリング層は全体平均プーリング層(global average pooling layer)であることを特徴とする、請求項1に記載のニューラルネットワークモデルの学習方法。
- ニューラルネットワークモデルが記憶されるメモリと、
プロセッサと、
を含む、画像の複合特性分類及び共通局所化のためのニューラルネットワークモデルの学習装置であって、
前記ニューラルネットワークモデルは、
入力画像に対して畳み込みフィルタを用いて畳み込み演算を行う畳み込み層と、
前記畳み込み層の出力に対してプーリング(pooling)を行うためのプーリング層と、
複合特性が分類される複数のクラスにそれぞれ対応し、前記プーリング層の出力に対してクラス別重みwfc(Tt)を掛けた値を出力する複数のクラス別全結合層(fully connected layer)と、を含み、
前記複数のクラスは、互いに異なる基準によって区別され、
前記複数のクラスそれぞれは、複数のクラス別特性に分類され、
前記ニューラルネットワークモデルは、前記クラス別全結合層の出力に応じて、前記複数のクラスそれぞれのクラス別特性に対するクラス別特性確率を提供することができ、
前記プロセッサは、
入力画像を前記畳み込み層に入力し、前記畳み込み層の出力に基づいて、前記複数のクラスそれぞれに対する複数のクラス別観察マップを演算し、前記複数のクラス別観察マップに基づいて、前記複数のクラスに共通する共通観察マップを生成し、前記共通観察マップ及び前記入力画像の対象領域を用いて観察損失Lobsを演算し、前記観察損失Lobsに基づく損失を前記ニューラルネットワークモデルに逆伝播することを特徴とする、ニューラルネットワークモデルの学習装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0095773 | 2020-07-31 | ||
KR1020200095773A KR102236615B1 (ko) | 2020-07-31 | 2020-07-31 | 복합 특성 분류와 공통 국소화를 위한 신경망 모델의 학습 방법 및 장치 |
PCT/KR2021/009939 WO2022025690A1 (ko) | 2020-07-31 | 2021-07-29 | 복합 특성 분류와 공통 국소화를 위한 신경망 모델의 학습 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022553407A true JP2022553407A (ja) | 2022-12-22 |
Family
ID=75472778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022524128A Pending JP2022553407A (ja) | 2020-07-31 | 2021-07-29 | 複合特性分類と共通局所化のためのニューラルネットワークモデルの学習方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220406035A1 (ja) |
EP (1) | EP4191480A1 (ja) |
JP (1) | JP2022553407A (ja) |
KR (1) | KR102236615B1 (ja) |
CN (1) | CN114641780A (ja) |
WO (1) | WO2022025690A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102236615B1 (ko) * | 2020-07-31 | 2021-04-06 | 주식회사 웨이센 | 복합 특성 분류와 공통 국소화를 위한 신경망 모델의 학습 방법 및 장치 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160096460A (ko) * | 2015-02-05 | 2016-08-16 | 삼성전자주식회사 | 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법 |
CN105938558B (zh) * | 2015-03-06 | 2021-02-09 | 松下知识产权经营株式会社 | 学习方法 |
KR101908680B1 (ko) * | 2016-08-30 | 2018-10-17 | 주식회사 루닛 | 약한 지도 학습 기반의 기계 학습 방법 및 그 장치 |
KR20180048407A (ko) * | 2016-10-31 | 2018-05-10 | 삼성전자주식회사 | 차선 검출 장치 및 방법 |
KR102095335B1 (ko) | 2017-11-15 | 2020-03-31 | 에스케이텔레콤 주식회사 | 연산 가속화가 적용된 신경망 모델의 생성 및 활용을 위한 장치 및 방법 |
KR102183847B1 (ko) * | 2018-08-16 | 2020-11-27 | 한국과학기술원 | 안저 사진에서 녹내장 진단을 위해 cam에서 추출된 roi를 중간 입력자로 사용하는 2단계 랭킹 컨볼루셔널 뉴럴 네트워크 |
KR101977067B1 (ko) * | 2018-08-24 | 2019-05-10 | 주식회사 뷰노 | 심층 신경망 기반 특징 추출을 통하여 진단 맵을 재구축하는 방법 및 이를 이용한 장치 |
JP7215098B2 (ja) * | 2018-11-12 | 2023-01-31 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
KR102074406B1 (ko) * | 2019-07-25 | 2020-02-06 | 주식회사 딥노이드 | 영상 랜드마크 분류 장치 및 방법 |
KR102236615B1 (ko) * | 2020-07-31 | 2021-04-06 | 주식회사 웨이센 | 복합 특성 분류와 공통 국소화를 위한 신경망 모델의 학습 방법 및 장치 |
-
2020
- 2020-07-31 KR KR1020200095773A patent/KR102236615B1/ko active IP Right Grant
-
2021
- 2021-07-29 CN CN202180006146.5A patent/CN114641780A/zh active Pending
- 2021-07-29 WO PCT/KR2021/009939 patent/WO2022025690A1/ko active Application Filing
- 2021-07-29 EP EP21849783.2A patent/EP4191480A1/en active Pending
- 2021-07-29 US US17/777,246 patent/US20220406035A1/en active Pending
- 2021-07-29 JP JP2022524128A patent/JP2022553407A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
KR102236615B1 (ko) | 2021-04-06 |
WO2022025690A1 (ko) | 2022-02-03 |
US20220406035A1 (en) | 2022-12-22 |
CN114641780A (zh) | 2022-06-17 |
EP4191480A1 (en) | 2023-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018055259A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111507469B (zh) | 对自动标注装置的超参数进行优化的方法和装置 | |
CN109840531A (zh) | 训练多标签分类模型的方法和装置 | |
KR20170122241A (ko) | 추론 장치 및 추론 방법 | |
CN111898764A (zh) | 联邦学习的方法、装置和芯片 | |
JP7228961B2 (ja) | ニューラルネットワークの学習装置およびその制御方法 | |
CN112529146B (zh) | 神经网络模型训练的方法和装置 | |
JP2023515704A (ja) | カメラ較正のための方法および装置 | |
WO2024032010A1 (zh) | 一种基于迁移学习策略的少样本目标实时检测方法 | |
US11526760B2 (en) | Training system for artificial neural networks having a global weight constrainer | |
JP2022553407A (ja) | 複合特性分類と共通局所化のためのニューラルネットワークモデルの学習方法及び装置 | |
CN114021704B (zh) | 一种ai神经网络模型的训练方法及相关装置 | |
WO2020190951A1 (en) | Neural network trained by homographic augmentation | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
CN116524581B (zh) | 一种人眼图像光斑分类方法、系统、设备及存储介质 | |
CN115131645A (zh) | 神经网络的训练和应用方法、装置及存储介质 | |
JP2021018477A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20230385656A1 (en) | Method for adding prediction results as training data using ai prediction model | |
CN115719450A (zh) | 基于自适应感受野增强的航拍小目标检测方法 | |
US20220391761A1 (en) | Machine learning device, information processing method, and recording medium | |
EP4075343A1 (en) | Device and method for realizing data synchronization in neural network inference | |
Dasgaonkar et al. | Analysis of multi-layered perceptron, radial basis function and convolutional neural networks in recognizing handwritten digits | |
KR102243125B1 (ko) | 신경망 모델을 이용한 영상의 복합 특성 분류 방법 및 장치 | |
CN115631388B (zh) | 图像分类方法、装置、电子设备及存储介质 | |
US20210004681A1 (en) | Data processing apparatus, training apparatus, method of detecting an object, method of training, and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240326 |