JP2022543245A - 学習を転移させるための学習のためのフレームワーク - Google Patents
学習を転移させるための学習のためのフレームワーク Download PDFInfo
- Publication number
- JP2022543245A JP2022543245A JP2022506660A JP2022506660A JP2022543245A JP 2022543245 A JP2022543245 A JP 2022543245A JP 2022506660 A JP2022506660 A JP 2022506660A JP 2022506660 A JP2022506660 A JP 2022506660A JP 2022543245 A JP2022543245 A JP 2022543245A
- Authority
- JP
- Japan
- Prior art keywords
- target
- weights
- source
- policy
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013526 transfer learning Methods 0.000 title claims description 13
- 230000006870 function Effects 0.000 claims abstract description 64
- 238000011156 evaluation Methods 0.000 claims abstract description 49
- 238000013136 deep learning model Methods 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000005457 optimization Methods 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 12
- 238000012546 transfer Methods 0.000 claims abstract description 7
- 230000015654 memory Effects 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 32
- 230000002787 reinforcement Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、学習を転移させるための学習のためのフレームワークに関する。
機械学習モデルは、入力を受信するとともに、受信した入力に基づいて出力、たとえば、予測された出力、を生成する。いくつかの機械学習モデルは、パラメトリックモデルであり、受信した入力とモデルのパラメータの値とに基づいて出力を生成する。
本開示の一局面は、ソースデータセットおよびターゲットデータセットのために共同で最適化される深層学習モデルについての重み割当てを適応的に学習する方法を提供する。当該方法は、データ処理ハードウェアにおいて、ソースデータセットおよびターゲットデータセットを受信するステップと、当該データ処理ハードウェアによって、当該ソースデータセットおよび当該ターゲットデータセットに基づいて深層学習モデルについての損失関数を識別するステップとを含む。損失関数は、エンコーダ重み、ソース分類器層重み、ターゲット分類器層重み、係数、およびポリシー重みを含む。深層学習モデルのための重み割当てを学習するように構成された学習を転移させるための学習(learning to transfer learn:L2TL)アーキテクチャに関する複数の学習反復の各々の第1段階中に、当該方法はまた、当該データ処理ハードウェアによって、勾配降下ベースの最適化を適用して、損失関数を最小化するエンコーダ重み、ソース分類器層重み、およびターゲット分類器層重みを学習するステップと、当該データ処理ハードウェアによって、ポリシーモデルのアクションをサンプリングすることによって係数を決定するステップと含む。L2TLアーキテクチャに関する複数の学習反復の各々の第2段階中に、当該方法はまた、データ処理ハードウェアによって、損失関数についての評価メトリックを最大化するポリシー重みを決定するステップを含む。
詳細な説明
深層ニューラルネットワークは画像、テキストおよび音声を理解するのに優れている。深層ニューラルネットワークの性能は、より多くのトレーニングデータで著しく向上させられる。アプリケーションが多様化しておりわずかなトレーニングデータセットで複数の使用事例をカバーしているので、従来のトレーニングアプローチは高性能を達成するには不充分であることが多い。余分なソースデータセットを利用し、関連情報をターゲットデータセットに「転移」させることが非常に有益となる。転移学習は、通常、大規模ソースデータセット上で予めトレーニングされたモデルを取得し、次いで、当該モデルをターゲットデータセット上でさらにトレーニングする(微調整(fine-tuning)として公知である)形式であり、大多数の現実世界の人工知能の用途のための標準レシピとなってきている。ランダムに初期化してからトレーニングする場合と比べて、微調整は、オブジェクト認識、意味のセグメント化、言語理解、音声合成、視聴覚認識、および言語翻訳について実証されるように、大幅な性能向上および収束加速をもたらす。
Claims (20)
- 方法(400)であって、
データ処理ハードウェア(134)において、ソースデータセット(104)およびターゲットデータセット(106)を受信するステップと、
前記データ処理ハードウェア(134)によって、前記ソースデータセット(104)および前記ターゲットデータセット(106)に基づいて深層学習モデル(150)についての損失関数(201)を識別するステップとを含み、前記損失関数(201)は、
エンコーダ重み(210)と、
ソース分類器層重み(202)と、
ターゲット分類器層重み(204)と、
係数(206)と、
ポリシー重み(208)とを含み、前記方法(400)はさらに、
前記深層学習モデル(150)のための重み割当てを学習するように構成された学習を転移させるための学習(learning to transfer learn:L2TL)アーキテクチャ(200)に関する複数の学習反復の各々の第1段階中に、
前記データ処理ハードウェア(134)によって、勾配降下ベースの最適化を適用して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習するステップと、
前記データ処理ハードウェア(134)によって、ポリシーモデル(209)のアクションをサンプリングすることによって前記係数(206)を決定するステップと、
前記L2TLアーキテクチャ(200)に関する前記複数の学習反復の各々の第2段階中に、
前記データ処理ハードウェア(134)によって、前記損失関数(201)についての評価メトリック(220)を最大化する前記ポリシー重み(208)を決定するステップとを含む、方法(400)。 - 前記学習反復の前記第1段階の実行中、前記ポリシーモデル(209)は固定されている、請求項1に記載の方法(400)。
- 前記ポリシーモデル(209)は強化学習ベースのポリシーモデルを含む、請求項1または2に記載の方法(400)。
- 前記損失関数(201)についての前記評価メトリック(220)を最大化する前記ポリシー重み(208)を決定するステップは、前記第1段階中に学習された前記エンコーダ重み(210)および前記ターゲット分類層重み154を用いるステップを含む、請求項1から3のいずれか1項に記載の方法(400)。
- 前記損失関数(201)についての前記評価メトリック(220)は、ターゲット評価データセット(106′)上の前記深層学習モデル(150)の性能を定量化し、前記ターゲット評価データセット(106′)は、それまで前記深層学習モデル(150)によって認識されていなかったデータサンプルのサブセットを前記ターゲットデータセット(106)内に含む、請求項1から4のいずれか1項に記載の方法(400)。
- 前記複数の学習反復の各々の前記第1段階中に、
前記データ処理ハードウェア(134)によって、特定のサイズを有する前記ソースデータセット(104)からソースデータサンプルのトレーニングバッチをサンプリングするステップと、
前記データ処理ハードウェア(134)によって、前記深層学習モデル(150)をトレーニングする際に用いるためのN個の最適な信頼スコアを有する前記ソースデータサンプルを前記ソースデータサンプルのトレーニングバッチから選択して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習するステップとをさらに含む、請求項1から5のいずれか1項に記載の方法(400)。 - 前記複数の学習反復の各々の前記第2段階中、
前記データ処理ハードウェアによって、ターゲット評価データセット(106′)上のポリシー勾配を用いて前記ポリシーモデル(209)をトレーニングして、前記評価メトリック(220)を最大化する報酬を計算するステップをさらに含み、
前記損失関数(201)についての前記評価メトリック(220)を最大化する前記ポリシー重み(208)を決定するステップは、前記計算された報酬に基づいている、請求項1から6のいずれか1項に記載の方法(400)。 - 前記ソースデータセット(134)は第1の複数の画像を含み、
前記ターゲットデータセット(134)は第2の複数の画像を含む、請求項1から7のいずれか1項に記載の方法(400)。 - 前記ソースデータセット(134)の前記第1の複数の画像内の画像の数は、前記ターゲットデータセット(104)の前記第2の複数の画像内の画像の数よりも多い、請求項8に記載の方法(400)。
- 前記L2TLアーキテクチャ(200)は、エンコーダネットワーク層(152)、ソース分類器層(154)、およびターゲット分類器層(156)を備える、請求項1から9のいずれか1項に記載の方法(400)。
- システム(100)であって、
データ処理ハードウェア(134)と、
前記データ処理ハードウェア(134)と通信するとともに命令を格納するメモリハードウェア(136)とを備え、前記命令は、前記データ処理ハードウェア(134)上で実行されると、前記データ処理ハードウェアに以下の動作を実行させ、前記以下の動作は、
ソースデータセット(106)およびターゲットデータセット(104)を受信する動作と、
前記ソースデータセット(104)および前記ターゲットデータセット(106)に基づいて深層学習モデル(150)についての損失関数(201)を識別する動作とを含み、前記損失関数(201)は、
エンコーダ重み(210)と、
ソース分類器層重み(202)と、
ターゲット分類器層重み(204)と、
係数(206)と、
ポリシー重み(208)とを含み、前記以下の動作はさらに、
前記深層学習モデル(150)のための重み割当てを学習するように構成された学習を転移させるための学習(L2TL)アーキテクチャ(200)に関する複数の学習反復の各々の第1段階中に、
勾配降下ベースの最適化を適用して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習する動作と、
ポリシーモデル(209)のアクションをサンプリングすることによって前記係数(206)を決定する動作と、
前記L2TLアーキテクチャ(200)に関する前記複数の学習反復の各々の第2段階中に、
前記損失関数(201)についての評価メトリック(220)を最大化する前記ポリシー重み(208)を決定する動作とを含む、システム(100)。 - 前記学習反復の前記第1段階の実行中、前記ポリシーモデル(209)は固定されている、請求項11に記載のシステム(100)。
- 前記ポリシーモデル(209)は強化学習ベースのポリシーモデルを含む、請求項11または12に記載のシステム(100)。
- 前記損失関数(201)についての前記評価メトリックを最大化する前記ポリシー重み(208)を決定する動作は、前記第1段階中に学習された前記エンコーダ重み(210)を用いる動作を含む、請求項11から13のいずれか1項に記載のシステム(100)。
- 前記損失関数(201)についての前記評価メトリック(220)は、ターゲット評価データセット(106′)上の前記深層学習モデル(150)の性能を定量化し、前記ターゲット評価データセット(106′)は、それまで前記深層学習モデル(150)によって認識されていなかったデータサンプルのサブセットを前記ターゲットデータセット(106)内に含む、請求項11から14のいずれか1項に記載のシステム(100)。
- 前記以下の動作はさらに、前記複数の学習反復の各々の前記第1段階中に、
特定のサイズを有する前記ソースデータセット(104)からソースデータサンプルのトレーニングバッチをサンプリングする動作と、
前記深層学習モデル(150)をトレーニングする際に用いるためのN個の最適な信頼スコアを有する前記ソースデータサンプルを前記ソースデータサンプルのトレーニングバッチから選択して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習する動作とをさらに含む、請求項11から15のいずれか1項に記載のシステム(100)。 - 前記以下の動作はさらに、前記複数の学習反復の各々の前記第2段階中に、
ターゲット評価データセット(106′)上のポリシー勾配を用いて前記ポリシーモデル(209)をトレーニングして、前記評価メトリック(220)を最大化する報酬を計算する動作を含み、
前記損失関数(201)についての前記評価メトリック(220)を最大化する前記ポリシー重み(208)を決定する動作は、前記計算された報酬に基づいている、請求項11から16のいずれか1項に記載のシステム(100)。 - 前記ソースデータセット(134)は第1の複数の画像を含み、
前記ターゲットデータセット(134)は第2の複数の画像を含む、請求項11から17のいずれか1項に記載のシステム(100)。 - 前記ソースデータセット(134)の前記第1の複数の画像内の画像の数は、前記ターゲットデータセット(104)の前記第2の複数の画像内の画像の数よりも多い、請求項18に記載のシステム(100)。
- 前記L2TLアーキテクチャ(200)は、エンコーダネットワーク層(152)、ソース分類器層(154)、およびターゲット分類器層(156)を備える、請求項11から19のいずれか1項に記載のシステム(100)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023139532A JP2023162346A (ja) | 2019-08-02 | 2023-08-30 | 学習を転移させるための学習のためのフレームワーク |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962881989P | 2019-08-02 | 2019-08-02 | |
US62/881,989 | 2019-08-02 | ||
PCT/US2020/044687 WO2021026044A1 (en) | 2019-08-02 | 2020-08-02 | Framework for learning to transfer learn |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023139532A Division JP2023162346A (ja) | 2019-08-02 | 2023-08-30 | 学習を転移させるための学習のためのフレームワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022543245A true JP2022543245A (ja) | 2022-10-11 |
JP7342242B2 JP7342242B2 (ja) | 2023-09-11 |
Family
ID=72139720
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022506660A Active JP7342242B2 (ja) | 2019-08-02 | 2020-08-02 | 学習を転移させるための学習のためのフレームワーク |
JP2023139532A Pending JP2023162346A (ja) | 2019-08-02 | 2023-08-30 | 学習を転移させるための学習のためのフレームワーク |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023139532A Pending JP2023162346A (ja) | 2019-08-02 | 2023-08-30 | 学習を転移させるための学習のためのフレームワーク |
Country Status (6)
Country | Link |
---|---|
US (2) | US20210034976A1 (ja) |
EP (1) | EP4007973A1 (ja) |
JP (2) | JP7342242B2 (ja) |
KR (1) | KR20220024990A (ja) |
CN (1) | CN114207626A (ja) |
WO (1) | WO2021026044A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113641905B (zh) * | 2021-08-16 | 2023-10-03 | 京东科技信息技术有限公司 | 模型训练方法、信息推送方法、装置、设备及存储介质 |
WO2023090419A1 (ja) * | 2021-11-19 | 2023-05-25 | 凸版印刷株式会社 | コンテンツ生成装置、コンテンツ生成方法、及びプログラム |
CN114492215A (zh) * | 2022-04-18 | 2022-05-13 | 南湖实验室 | 利用策略模型辅助训练的gp世界模型及其训练方法 |
CN116991388B (zh) * | 2023-09-26 | 2024-01-09 | 之江实验室 | 一种深度学习编译器的图优化序列生成方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158768A1 (ja) * | 2015-03-30 | 2016-10-06 | 株式会社メガチップス | クラスタリング装置及び機械学習装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10573031B2 (en) * | 2017-12-06 | 2020-02-25 | Siemens Healthcare Gmbh | Magnetic resonance image reconstruction with deep reinforcement learning |
US20210019630A1 (en) * | 2018-07-26 | 2021-01-21 | Anbang Yao | Loss-error-aware quantization of a low-bit neural network |
US20200104710A1 (en) * | 2018-09-27 | 2020-04-02 | Google Llc | Training machine learning models using adaptive transfer learning |
US20210142177A1 (en) * | 2019-11-13 | 2021-05-13 | Nvidia Corporation | Synthesizing data for training one or more neural networks |
US20210256369A1 (en) * | 2020-02-18 | 2021-08-19 | SparkCognition, Inc. | Domain-adapted classifier generation |
-
2020
- 2020-08-02 CN CN202080055741.3A patent/CN114207626A/zh active Pending
- 2020-08-02 WO PCT/US2020/044687 patent/WO2021026044A1/en unknown
- 2020-08-02 US US16/945,880 patent/US20210034976A1/en active Pending
- 2020-08-02 EP EP20757772.7A patent/EP4007973A1/en active Pending
- 2020-08-02 KR KR1020227002727A patent/KR20220024990A/ko unknown
- 2020-08-02 JP JP2022506660A patent/JP7342242B2/ja active Active
-
2023
- 2023-08-24 US US18/455,182 patent/US20240054345A1/en active Pending
- 2023-08-30 JP JP2023139532A patent/JP2023162346A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158768A1 (ja) * | 2015-03-30 | 2016-10-06 | 株式会社メガチップス | クラスタリング装置及び機械学習装置 |
Non-Patent Citations (1)
Title |
---|
GE, WEIFENG, ET AL.: "Borrowing Treasures from the Wealthy: Deep Transfer Learning through Selective Joint Fine-tuning", ARXIV.ORG [ONLINE], JPN6023011790, 28 February 2017 (2017-02-28), ISSN: 0005022961 * |
Also Published As
Publication number | Publication date |
---|---|
KR20220024990A (ko) | 2022-03-03 |
US20240054345A1 (en) | 2024-02-15 |
WO2021026044A1 (en) | 2021-02-11 |
EP4007973A1 (en) | 2022-06-08 |
JP7342242B2 (ja) | 2023-09-11 |
CN114207626A (zh) | 2022-03-18 |
US20210034976A1 (en) | 2021-02-04 |
JP2023162346A (ja) | 2023-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7342242B2 (ja) | 学習を転移させるための学習のためのフレームワーク | |
JP7303377B2 (ja) | ラベルノイズが存在する状態でのロバストな訓練 | |
JP7293498B2 (ja) | サンプル一致度評価による能動学習 | |
CN110852447B (zh) | 元学习方法和装置、初始化方法、计算设备和存储介质 | |
JP2020071883A (ja) | モデル訓練方法、データ認識方法及びデータ認識装置 | |
CN115841137A (zh) | 一种用于对待量化数据进行定点化处理的方法及计算装置 | |
JP7304488B2 (ja) | 強化学習ベースの局所解釈可能モデル | |
CN115688877A (zh) | 一种用于对待量化数据进行定点化处理的方法及计算装置 | |
WO2023051140A1 (zh) | 用于图像特征表示生成的方法、设备、装置和介质 | |
US11450096B2 (en) | Systems and methods for progressive learning for machine-learned models to optimize training speed | |
US11823058B2 (en) | Data valuation using reinforcement learning | |
WO2019045802A1 (en) | LEARNING DISTANCE MEASUREMENT USING PROXY MEMBERS | |
Sahito et al. | Semi-supervised learning using Siamese networks | |
CN111753995A (zh) | 一种基于梯度提升树的局部可解释方法 | |
CN110909860A (zh) | 神经网络参数初始化的方法和装置 | |
Salam et al. | Optimizing Extreme Learning Machine using Whale Optimization Algorithm for Genes Classification | |
CN111373416B (zh) | 通过离散神经网络输入来增强神经网络的安全性 | |
US20230124177A1 (en) | System and method for training a sparse neural network whilst maintaining sparsity | |
Hu et al. | An Improved Online Multiclass Classification Algorithm Based on Confidence-Weighted | |
WO2023037136A1 (en) | Learning with neighbor consistency for noisy labels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7342242 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |