JP2022088341A - 機器学習装置及び方法 - Google Patents
機器学習装置及び方法 Download PDFInfo
- Publication number
- JP2022088341A JP2022088341A JP2021195279A JP2021195279A JP2022088341A JP 2022088341 A JP2022088341 A JP 2022088341A JP 2021195279 A JP2021195279 A JP 2021195279A JP 2021195279 A JP2021195279 A JP 2021195279A JP 2022088341 A JP2022088341 A JP 2022088341A
- Authority
- JP
- Japan
- Prior art keywords
- loss
- processor
- neural network
- classification model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 89
- 238000013145 classification model Methods 0.000 claims abstract description 81
- 238000013528 artificial neural network Methods 0.000 claims abstract description 68
- 230000000694 effects Effects 0.000 claims abstract description 21
- 238000010801 machine learning Methods 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000000605 extraction Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 101000835996 Caenorhabditis elegans Slit homolog 1 protein Proteins 0.000 description 3
- 230000001364 causal effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001605 fetal effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010035664 Pneumonia Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 206010006451 bronchitis Diseases 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 230000036244 malformation Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Control Of Electric Motors In General (AREA)
- Numerical Control (AREA)
- Feedback Control In General (AREA)
Abstract
Description
E(apbq)=E(ap)E(bq) (1)
independent loss=-|E(apbq)-E(ap)E(bq)| (2)
Claims (20)
- プロセッサによってメモリからモデルパラメータを取得して、前記モデルパラメータに基づいて複数のニューラルネットワーク構造層を含む分類モデルを実行する工程と、
前記プロセッサによって複数のトレーニングサンプルに基づいて、前記複数のニューラルネットワーク構造層における出力層に対応する第1の損失と、前記複数のニューラルネットワーク構造層における前記出力層よりも前に位置する一方に対応する第2の損失を算出する工程と、
プロセッサによって前記第1の損失及び前記第2の損失に基づいて前記モデルパラメータに対して複数の更新操作を実行して前記分類モデルをトレーニングする工程と、
を備える機器学習方法。 - 前記複数のトレーニングサンプルに基づいて前記第1の損失及び前記第2の損失を算出する工程は、
前記プロセッサによって前記複数のトレーニングサンプルに基づいて前記複数のニューラルネットワーク構造層の前記出力層から複数の予測ラベルを生成する工程と、
前記プロセッサによって前記複数の予測ラベルと前記複数のトレーニングサンプルの複数のトレーニングラベルとを比較して前記第1の損失を算出する工程と、
を含む請求項1に記載の機器学習方法。 - 前記複数のトレーニングサンプルに基づいて前記第1の損失及び前記第2の損失を算出する工程は、
前記プロセッサによって前記複数のトレーニングサンプルに基づいて前記分類モデルから複数の抽出特徴を生成する工程と、
前記プロセッサによって前記複数のニューラルネットワーク構造層における一方に対応する前記複数の抽出特徴の間の統計独立性に基づいて、前記第2の損失を算出する工程と、
を含む請求項1に記載の機器学習方法。 - 前記第1の損失及び前記第2の損失に基づいて前記モデルパラメータに対して前記複数の更新操作を実行して前記分類モデルをトレーニングする工程は、
前記プロセッサによって前記第1の損失及び前記第2の損失に基づいて複数の損失差を算出する工程と、
前記プロセッサによって前記複数の損失差に基づいて前記分類モデルに対して複数の逆伝搬操作を実行して前記モデルパラメータを更新する工程と、
を含む請求項3に記載の機器学習方法。 - 前記プロセッサによって前記複数の抽出特徴、及び前記複数のトレーニングサンプルの複数のトレーニングラベルの間の平均処理効果に基づいて第3の損失を算出する工程を更に備える請求項3に記載の機器学習方法。
- 前記第1の損失及び前記第2の損失に基づいて前記モデルパラメータに対して前記複数の更新操作を実行して前記分類モデルをトレーニングする工程は、
前記プロセッサによって前記第1の損失、前記第2の損失、及び前記第3の損失に基づいて、複数の損失差を算出する工程と、
前記プロセッサによって前記複数の損失差に基づいて前記分類モデルに対して複数の逆伝搬操作を実行して前記モデルパラメータを更新する工程と、
を含む請求項5に記載の機器学習方法。 - 前記複数のトレーニングサンプルに基づいて前記第1の損失及び前記第2の損失を算出する工程は、
前記プロセッサによって前記複数のトレーニングサンプルに基づいて前記分類モデルから複数の抽出特徴を生成する工程と、
前記プロセッサによって前記複数のニューラルネットワーク構造における一方に対応する前記複数の抽出特徴と、前記複数のトレーニングサンプルの複数のトレーニングラベルの間の平均処理効果とに基づいて前記第2の損失を算出する工程と、
を含む請求項1に記載の機器学習方法。 - 前記第1の損失及び前記第2の損失に基づいて前記モデルパラメータに対して前記複数の更新操作を実行して前記分類モデルをトレーニングする工程は、
前記プロセッサによって前記第1の損失及び前記第2の損失に基づいて複数の損失差を算出する工程と、
前記プロセッサによって前記複数の損失差に基づいて前記分類モデルに対して複数の逆伝搬操作を実行して前記モデルパラメータを更新する工程と、
を含む請求項7に記載の機器学習方法。 - 前記出力層は、少なくとも1つの完全結合層を含み、前記複数のニューラルネットワーク構造層における一方は、少なくとも1つの畳み込み層を含む請求項1に記載の機器学習方法。
- 前記分類モデルは、ニューラルネットワークに関連づけられる請求項1に記載の機器学習方法。
- 複数のコマンド及びモデルパラメータを記憶するためのメモリと、
前記メモリに接続されるプロセッサと、
を備える機器学習装置であって、
前記プロセッサは、分類モデルを実行するとともに、
前記メモリから前記モデルパラメータを取得して、前記モデルパラメータに基づいて複数のニューラルネットワーク構造層を含む前記分類モデルを実行し、
複数のトレーニングサンプルに基づいて、前記複数のニューラルネットワーク構造層における出力層に対応する第1の損失と、前記複数のニューラルネットワーク構造層における前記出力層よりも前に位置する一方に対応する第2の損失を算出し、
前記第1の損失及び前記第2の損失に基づいて前記モデルパラメータに対して複数の更新操作を実行して前記分類モデルをトレーニングするように、
前記複数のコマンドを実行するためのものである、
機器学習装置。 - 前記プロセッサは、更に、
前記複数のトレーニングサンプルに基づいて前記複数のニューラルネットワーク構造層の前記出力層から複数の予測ラベルを生成し、及び
前記第1の損失を算出するように、前記複数の予測ラベルと前記複数のトレーニングサンプルの複数のトレーニングラベルとを比較するためのものである、
請求項11に記載の機器学習装置。 - 前記プロセッサは、更に、
前記複数のトレーニングサンプルに基づいて前記分類モデルから複数の抽出特徴を生成し、及び
前記複数のニューラルネットワーク構造層における一方に対応する前記複数の抽出特徴の間の統計独立性に基づいて前記第2の損失を算出するためのものである、
請求項11に記載の機器学習装置。 - 前記プロセッサは、更に、
前記第1の損失及び前記第2の損失に基づいて複数の損失差を算出し、及び
前記複数の損失差に基づいて前記分類モデルに対して複数の逆伝搬操作を実行して前記モデルパラメータを更新するためのものである、
請求項13に記載の機器学習装置。 - 前記プロセッサは、更に、
前記複数の抽出特徴と、前記複数のトレーニングサンプルの複数のトレーニングラベルの間の平均処理効果とに基づいて第3の損失を算出するためのものである、
請求項13に記載の機器学習装置。 - 前記プロセッサは、更に、
前記第1の損失、前記第2の損失、及び前記第3の損失に基づいて複数の損失差を算出し、及び
前記複数の損失差に基づいて前記分類モデルに対して複数の逆伝搬操作を実行して前記モデルパラメータを更新するためのものである、
請求項15に記載の機器学習装置。 - 前記プロセッサは、更に、
前記複数のトレーニングサンプルに基づいて前記分類モデルから複数の抽出特徴を生成し、及び
前記複数のニューラルネットワーク構造における一方に対応する前記複数の抽出特徴と、前記複数のトレーニングサンプルの複数のトレーニングラベルの間の平均処理効果とに基づいて前記第2の損失を算出するためのものである、
請求項11に記載の機器学習装置。 - 前記プロセッサは、更に、
前記第1の損失及び前記第2の損失に基づいて複数の損失差を算出し、及び
前記複数の損失差に基づいて前記分類モデルに対して複数の逆伝搬操作を実行して前記モデルパラメータを更新するためのものである、
請求項17に記載の機器学習装置。 - 前記出力層は、少なくとも1つの完全結合層を含み、前記複数のニューラルネットワーク構造層における一方は、少なくとも1つの畳み込み層を含む請求項11に記載の機器学習装置。
- 前記分類モデルは、ニューラルネットワークに関連づけられる請求項11に記載の機器学習装置。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063120216P | 2020-12-02 | 2020-12-02 | |
US63/120,216 | 2020-12-02 | ||
US202163152348P | 2021-02-23 | 2021-02-23 | |
US63/152,348 | 2021-02-23 | ||
US17/448,711 | 2021-09-24 | ||
US17/448,711 US20220172064A1 (en) | 2020-12-02 | 2021-09-24 | Machine learning method and machine learning device for eliminating spurious correlation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022088341A true JP2022088341A (ja) | 2022-06-14 |
JP7307785B2 JP7307785B2 (ja) | 2023-07-12 |
Family
ID=78820691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021195279A Active JP7307785B2 (ja) | 2020-12-02 | 2021-12-01 | 機器学習装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220172064A1 (ja) |
EP (1) | EP4009245A1 (ja) |
JP (1) | JP7307785B2 (ja) |
CN (1) | CN114648094A (ja) |
TW (1) | TWI781000B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116976221B (zh) * | 2023-08-10 | 2024-05-17 | 西安理工大学 | 基于冲蚀特性的堰塞体溃决峰值流量预测方法及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019032807A (ja) * | 2017-08-04 | 2019-02-28 | 富士電機株式会社 | 要因分析システム、要因分析方法およびプログラム |
JP2019096006A (ja) * | 2017-11-21 | 2019-06-20 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
WO2020090651A1 (ja) * | 2018-10-29 | 2020-05-07 | 日本電信電話株式会社 | 音響モデル学習装置、モデル学習装置、それらの方法、およびプログラム |
CN111476363A (zh) * | 2020-03-13 | 2020-07-31 | 清华大学 | 区分化变量去相关的稳定学习方法及装置 |
JP2020135465A (ja) * | 2019-02-20 | 2020-08-31 | 株式会社東芝 | 学習装置、学習方法、プログラムおよび認識装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10108850B1 (en) * | 2017-04-24 | 2018-10-23 | Intel Corporation | Recognition, reidentification and security enhancements using autonomous machines |
US11615208B2 (en) * | 2018-07-06 | 2023-03-28 | Capital One Services, Llc | Systems and methods for synthetic data generation |
US11954881B2 (en) * | 2018-08-28 | 2024-04-09 | Apple Inc. | Semi-supervised learning using clustering as an additional constraint |
CN109766954B (zh) * | 2019-01-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 一种目标对象处理方法、装置、电子设备及存储介质 |
US11699070B2 (en) * | 2019-03-05 | 2023-07-11 | Samsung Electronics Co., Ltd | Method and apparatus for providing rotational invariant neural networks |
-
2021
- 2021-09-24 US US17/448,711 patent/US20220172064A1/en active Pending
- 2021-12-01 CN CN202111451127.1A patent/CN114648094A/zh active Pending
- 2021-12-01 JP JP2021195279A patent/JP7307785B2/ja active Active
- 2021-12-01 EP EP21211637.0A patent/EP4009245A1/en active Pending
- 2021-12-01 TW TW110144877A patent/TWI781000B/zh active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019032807A (ja) * | 2017-08-04 | 2019-02-28 | 富士電機株式会社 | 要因分析システム、要因分析方法およびプログラム |
JP2019096006A (ja) * | 2017-11-21 | 2019-06-20 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
WO2020090651A1 (ja) * | 2018-10-29 | 2020-05-07 | 日本電信電話株式会社 | 音響モデル学習装置、モデル学習装置、それらの方法、およびプログラム |
JP2020135465A (ja) * | 2019-02-20 | 2020-08-31 | 株式会社東芝 | 学習装置、学習方法、プログラムおよび認識装置 |
CN111476363A (zh) * | 2020-03-13 | 2020-07-31 | 清华大学 | 区分化变量去相关的稳定学习方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114648094A (zh) | 2022-06-21 |
JP7307785B2 (ja) | 2023-07-12 |
TWI781000B (zh) | 2022-10-11 |
TW202223770A (zh) | 2022-06-16 |
US20220172064A1 (en) | 2022-06-02 |
EP4009245A1 (en) | 2022-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523640B (zh) | 神经网络模型的训练方法和装置 | |
CN108229667A (zh) | 基于人工神经网络类别的修剪 | |
CN113435430B (zh) | 基于自适应时空纠缠的视频行为识别方法、系统、设备 | |
CN111783997B (zh) | 一种数据处理方法、装置及设备 | |
CN113537630A (zh) | 业务预测模型的训练方法及装置 | |
CN111653274B (zh) | 唤醒词识别的方法、装置及存储介质 | |
US20220188636A1 (en) | Meta pseudo-labels | |
CN113222149A (zh) | 模型训练方法、装置、设备和存储介质 | |
CN113762327B (zh) | 机器学习方法、机器学习系统以及非暂态电脑可读取媒体 | |
CN106802888B (zh) | 词向量训练方法和装置 | |
CN110781970A (zh) | 分类器的生成方法、装置、设备及存储介质 | |
KR20210066545A (ko) | 반도체 소자의 시뮬레이션을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 | |
CN115511069A (zh) | 神经网络的训练方法、数据处理方法、设备及存储介质 | |
CN114299340A (zh) | 模型训练方法、图像分类方法、系统、设备及介质 | |
CN117034090A (zh) | 模型参数调整、模型应用方法、装置、设备及介质 | |
CN112420125A (zh) | 分子属性预测方法、装置、智能设备和终端 | |
EP3292514B1 (en) | Training signal processing model for component replacement in an audio signal processing system | |
JP2022088341A (ja) | 機器学習装置及び方法 | |
CN114241360A (zh) | 一种基于自适应推理的视频识别方法和装置 | |
CN117765432A (zh) | 一种基于动作边界预测的中学理化生实验动作检测方法 | |
CN117371511A (zh) | 图像分类模型的训练方法、装置、设备及存储介质 | |
CN115590530B (zh) | 跨对象目标域代理子域适应方法、系统及介质 | |
US20210042625A1 (en) | Performance of neural networks using learned specialized transformation functions | |
KR102413588B1 (ko) | 학습 데이터에 따른 객체 인식 모델 추천 방법, 시스템 및 컴퓨터 프로그램 | |
CN114462526A (zh) | 一种分类模型训练方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230125 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7307785 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |