JP6943291B2 - 学習装置、学習方法、及び、プログラム - Google Patents
学習装置、学習方法、及び、プログラム Download PDFInfo
- Publication number
- JP6943291B2 JP6943291B2 JP2019555296A JP2019555296A JP6943291B2 JP 6943291 B2 JP6943291 B2 JP 6943291B2 JP 2019555296 A JP2019555296 A JP 2019555296A JP 2019555296 A JP2019555296 A JP 2019555296A JP 6943291 B2 JP6943291 B2 JP 6943291B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- loss
- domain
- learning
- domain information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Description
以下、図面を参照して、第1の実施形態について説明する。
まず、第1の実施形態に係る学習装置10の構成について、図面を参照して説明する。
次に、図面を参照して、第1の実施形態に係る学習装置10の動作を説明する。
次に、各構成の詳細な動作例を説明する。
y∈[0,1],z∈[0,1]
次に、ドメイン情報有り損失算出部110、ドメイン情報無し損失算出部120、タスク損失算出部130、及び、目的関数最適化部140の動作の詳細例を説明する。
Lds=−loge(Pz(z))
[Pz(0),Pz(1)]=[NNd(NNf(x|θf)|θd)]
第2式は、ドメイン情報の確率ベクトル[Pz(0),Pz(1)]が、データ(x)におけるNNd及びNNfの条件付事後確率ベクトル[NNd(NNf(x|θf)|θd)](つまり、NNdの出力であるドメインの事後確率ベクトル)であることを示す。
Ldu=max(0,1−|Pz(0)−0.5|)
この損失(Ldu)は、識別境界(P=0.5)付近のデータの損失が大きくなる。そのため、この損失(Ldu)を用いることは、識別境界付近にはデータが少ないという仮定を導入することに相当する。これに限られず、ドメイン情報無し損失算出部120は、識別境界とドメイン情報無しデータとの距離が短いと大きくなる損失を算出すればよい。
Lc=−loge(Py(y))
[Py(0),Py(1)]=[NNc(NNf(x|θf)|θc)]
第2式は、クラス情報の確率ベクトル[Py(0),Py(1)]が、データ(x)におけるNNc及びNNfの条件付事後確率ベクトル[NNc(NNf(x|θf)|θd)](つまり、NNcの出力であるクラスの事後確率ベクトル)であることを示す。
θc=argmin(Lc)
θd=argmin(Lds+Ldu)
θf=argmin(Lc−Lds+Ldu)
それぞれの等式は、次のことを示す。
(1)パラメータθcは、タスク損失算出部130が算出する損失(Lc)を最小とするパラメータである。これは、第3の損失を小さくすることである。
(2)パラメータθdは、ドメイン情報有り損失算出部110が算出する損失(Lds)とドメイン情報無し損失算出部120が算出する損失(Ldu)との合計を最小とするパラメータであることを示す。これは、第1の損失と第3の損失を小さくすることである。
(3)パラメータθfは、タスク損失算出部130が算出する損失(Lc)とドメイン情報無し損失算出部120が算出する損失(Ldu)を小さくし、ドメイン情報有り損失算出部110が算出する損失(Lds)を大きくするパラメータであることを示す。これは、第2の損失及び第3の損失を小さくし、第1の損失を大きくすることである。
次に、第1の実施形態に係る学習装置10の効果を説明する。
タスクに関連する損失は、上記に限定されない。例えば、上記でタスク情報の一例として示したクラス情報は、取得できない場合がある。そこで、変形例として、タスク情報を取得できない場合に対応する学習装置11について説明する。
Lr=||x−NNr(NNf(x|θf)|θr)||2
パラメータθrは、NNrのパラメータである。||・||はノルムである。
図面を参照して、学習装置10及び学習装置11の概要である学習装置12を説明する。
以上の説明した学習装置10、学習装置11、及び、学習装置12のハードウェア構成について学習装置10を用いて説明する。
次に、図面を参照して、学習装置10を含むデータ識別システム20を説明する。以下の説明において、データ識別システム20は、学習装置10に替えて、学習装置11、又は、学習装置12を用いてもよい。
11 学習装置
12 学習装置
20 データ識別システム
30 データ提供装置
40 データ取得装置
110 ドメイン情報有り損失算出部
112 第1の損失算出部
120 ドメイン情報無し損失算出部
122 第2の損失算出部
130 タスク損失算出部
131 タスク情報無し損失算出部
132 第3の損失算出部
140 目的関数最適化部
141 目的関数最適化部
142 パラメータ修正部
150 データ処理部
151 データ処理部
152 データ処理部
310 撮像装置
320 教師データ保存装置
410 パターン認識装置
420 結果保存装置
600 情報処理装置
610 CPU
620 ROM
630 RAM
640 内部記憶装置
650 IOC
660 入力機器
670 表示機器
680 NIC
700 記録媒体
Claims (6)
- ドメイン情報を教師とした半教師有り学習において、
前記ドメイン情報を含む第1のデータ及び前記ドメイン情報を含まない第2のデータを入力とし所定の変換後のデータを出力とする第1のニューラルネットワークと、前記変換後のデータを入力とし所定の処理の結果を出力とする第2のニューラルネットワークと、前記変換後のデータを入力としドメイン識別の結果を出力とする第3のニューラルネットワークとを含むデータ処理手段と、
前記第1のデータを用いて前記ドメイン識別の結果における損失である第1の損失を算出する第1の損失算出手段と、
前記第2のデータを用いて前記半教師有り学習における教師無し損失である第2の損失を算出する第2の損失算出手段と、
前記第1のデータ及び前記第2のデータの少なくとも一部を用いて前記所定の処理の結果における損失である第3の損失を算出する第3の損失算出手段と、
前記第2の損失及び前記第3の損失を小さく、かつ、前記第1の損失を大きくするように、前記第1のニューラルネットワークないし前記第3のニューラルネットワークのパラメータを修正するパラメータ修正手段と
を含み、
前記所定の処理は、前記変換後のデータのクラス識別、前記変換後のデータのパターン認識、及び、前記変換後のデータを変換前のデータに相当するデータに構成し直す再構成の少なくとも一つである
学習装置。 - 前記第1の損失算出手段が、
前記第1のデータを用いて前記ドメイン情報の予測誤差に対応した前記第1の損失を算出する
請求項1に記載の学習装置。 - 前記第2のニューラルネットワークが、
前記所定の処理として前記変換後のデータのクラス識別を実行する場合、
前記第2の損失算出手段が、
前記クラス識別の結果である識別境界と前記第2のデータとの距離に応じた前記第2の損失を算出し、
前記第3の損失算出手段が、
前記第3の損失として、前記クラス識別における予測誤差を算出する
請求項1又は2に記載の学習装置。 - 前記第2のニューラルネットワークが、
前記変換後のデータの前記再構成を実行する場合、
前記第3の損失算出手段が、
前記第3の損失として、前記再構成における誤差を算出する
請求項1又は2に記載の学習装置。 - ドメイン情報を教師とした半教師有り学習において、
前記ドメイン情報を含む第1のデータ及び前記ドメイン情報を含まない第2のデータを入力とし所定の変換後のデータを出力とする第1のニューラルネットワークと、前記変換後のデータを入力とし所定の処理の結果を出力とする第2のニューラルネットワークと、前記変換後のデータを入力としドメイン識別の結果を出力とする第3のニューラルネットワークとを含む学習装置が、
前記第1のデータを用いて前記ドメイン識別の結果における損失である第1の損失を算出し、
前記第2のデータを用いて前記半教師有り学習における教師無し損失である第2の損失を算出し、
前記第1のデータ及び前記第2のデータの少なくとも一部を用いて前記所定の処理の結果における損失である第3の損失を算出し、
前記第2の損失及び前記第3の損失を小さく、かつ、前記第1の損失を大きくするように、前記第1のニューラルネットワークないし前記第3のニューラルネットワークのパラメータを修正し、
前記所定の処理は、前記変換後のデータのクラス識別、前記変換後のデータのパターン認識、及び、前記変換後のデータを変換前のデータに相当するデータに構成し直す再構成の少なくとも一つである
学習方法。 - ドメイン情報を教師とした半教師有り学習において、
前記ドメイン情報を含む第1のデータ及び前記ドメイン情報を含まない第2のデータを入力とし所定の変換後のデータを出力とする第1のニューラルネットワークと、前記変換後のデータを入力とし所定の処理の結果を出力とする第2のニューラルネットワークと、前記変換後のデータを入力としドメイン識別の結果を出力とする第3のニューラルネットワークとを含むコンピュータに、
前記第1のデータを用いて前記ドメイン識別の結果における損失である第1の損失を算出する処理と、
前記第2のデータを用いて前記半教師有り学習における教師無し損失である第2の損失を算出する処理と、
前記第1のデータ及び前記第2のデータの少なくとも一部を用いて前記所定の処理の結果における損失である第3の損失を算出する処理と、
前記第2の損失及び前記第3の損失を小さく、かつ、前記第1の損失を大きくするように、前記第1のニューラルネットワークないし前記第3のニューラルネットワークのパラメータを修正する処理と
を実行させ、
前記所定の処理は、前記変換後のデータのクラス識別、前記変換後のデータのパターン認識、及び、前記変換後のデータを変換前のデータに相当するデータに構成し直す再構成の少なくとも一つである
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017224833 | 2017-11-22 | ||
JP2017224833 | 2017-11-22 | ||
PCT/JP2018/042665 WO2019102962A1 (ja) | 2017-11-22 | 2018-11-19 | 学習装置、学習方法、及び、記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019102962A1 JPWO2019102962A1 (ja) | 2020-11-19 |
JP6943291B2 true JP6943291B2 (ja) | 2021-09-29 |
Family
ID=66631903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019555296A Active JP6943291B2 (ja) | 2017-11-22 | 2018-11-19 | 学習装置、学習方法、及び、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200272897A1 (ja) |
JP (1) | JP6943291B2 (ja) |
WO (1) | WO2019102962A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11222210B2 (en) * | 2018-11-13 | 2022-01-11 | Nec Corporation | Attention and warping based domain adaptation for videos |
WO2020255260A1 (ja) * | 2019-06-18 | 2020-12-24 | 日本電信電話株式会社 | 一般化データ生成装置、推定装置、一般化データ生成方法、推定方法、一般化データ生成プログラム、及び推定プログラム |
CN110399856B (zh) * | 2019-07-31 | 2021-09-14 | 上海商汤临港智能科技有限公司 | 特征提取网络训练方法、图像处理方法、装置及其设备 |
WO2021111831A1 (ja) * | 2019-12-06 | 2021-06-10 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理システム及び情報処理装置 |
CN112200297B (zh) * | 2020-09-04 | 2024-03-01 | 星宸科技股份有限公司 | 神经网络优化方法、装置及处理器 |
WO2022137337A1 (ja) * | 2020-12-22 | 2022-06-30 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
US20230143070A1 (en) * | 2021-03-10 | 2023-05-11 | Nec Corporation | Learning device, learning method, and computer-readable medium |
-
2018
- 2018-11-19 US US16/762,571 patent/US20200272897A1/en not_active Abandoned
- 2018-11-19 JP JP2019555296A patent/JP6943291B2/ja active Active
- 2018-11-19 WO PCT/JP2018/042665 patent/WO2019102962A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019102962A1 (ja) | 2019-05-31 |
JPWO2019102962A1 (ja) | 2020-11-19 |
US20200272897A1 (en) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6943291B2 (ja) | 学習装置、学習方法、及び、プログラム | |
CN110097130B (zh) | 分类任务模型的训练方法、装置、设备及存储介质 | |
US10885383B2 (en) | Unsupervised cross-domain distance metric adaptation with feature transfer network | |
US10769496B2 (en) | Logo detection | |
WO2018108129A1 (zh) | 用于识别物体类别的方法及装置、电子设备 | |
WO2019128646A1 (zh) | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 | |
US20160086047A1 (en) | Apparatus and method for extracting feature of image including object | |
CN113837205B (zh) | 用于图像特征表示生成的方法、设备、装置和介质 | |
EP3745309A1 (en) | Training a generative adversarial network | |
JP2011248876A (ja) | 画像をオブジェクト及びそのパーツに関して効率的に解釈するためのシステムと方法 | |
JP2017062778A (ja) | 画像のオブジェクトを分類するための方法およびデバイスならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体 | |
CN108898181B (zh) | 一种图像分类模型的处理方法、装置及存储介质 | |
JP2008102611A (ja) | 画像処理装置 | |
Patel et al. | An optimized deep learning model for flower classification using NAS-FPN and faster R-CNN | |
WO2023109361A1 (zh) | 用于视频处理的方法、系统、设备、介质和产品 | |
CN114330588A (zh) | 一种图片分类方法、图片分类模型训练方法及相关装置 | |
CN112364916A (zh) | 基于迁移学习的图像分类方法、相关设备及存储介质 | |
JPWO2016125500A1 (ja) | 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体 | |
KR101700030B1 (ko) | 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치 | |
JP2021015479A (ja) | 行動認識装置、行動認識方法、及び行動認識プログラム | |
CN116740421A (zh) | 基于无监督公共子空间学习模型的遥感图像分类方法和装置 | |
US20230134508A1 (en) | Electronic device and method with machine learning training | |
Lin et al. | Robot grasping based on object shape approximation and LightGBM | |
JP2021018477A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2023090592A (ja) | OCT-GAN(Neural ODE-based Conditional Tabular Generative Adversarial Networks)装置及びOCT-GAN方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6943291 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |