JP2023162346A - 学習を転移させるための学習のためのフレームワーク - Google Patents
学習を転移させるための学習のためのフレームワーク Download PDFInfo
- Publication number
- JP2023162346A JP2023162346A JP2023139532A JP2023139532A JP2023162346A JP 2023162346 A JP2023162346 A JP 2023162346A JP 2023139532 A JP2023139532 A JP 2023139532A JP 2023139532 A JP2023139532 A JP 2023139532A JP 2023162346 A JP2023162346 A JP 2023162346A
- Authority
- JP
- Japan
- Prior art keywords
- target
- weights
- source
- policy
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012546 transfer Methods 0.000 title claims abstract description 11
- 230000006870 function Effects 0.000 claims abstract description 63
- 238000011156 evaluation Methods 0.000 claims abstract description 53
- 238000013136 deep learning model Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 238000005070 sampling Methods 0.000 claims abstract description 12
- 230000009471 action Effects 0.000 claims abstract description 11
- 230000015654 memory Effects 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 32
- 230000002787 reinforcement Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 description 9
- 238000013526 transfer learning Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
Description
本開示は、学習を転移させるための学習のためのフレームワークに関する。
機械学習モデルは、入力を受信するとともに、受信した入力に基づいて出力、たとえば、予測された出力、を生成する。いくつかの機械学習モデルは、パラメトリックモデルであり、受信した入力とモデルのパラメータの値とに基づいて出力を生成する。
本開示の一局面は、ソースデータセットおよびターゲットデータセットのために共同で最適化される深層学習モデルについての重み割当てを適応的に学習する方法を提供する。当該方法は、データ処理ハードウェアにおいて、ソースデータセットおよびターゲットデータセットを受信するステップと、当該データ処理ハードウェアによって、当該ソースデータセットおよび当該ターゲットデータセットに基づいて深層学習モデルについての損失関数を識別するステップとを含む。損失関数は、エンコーダ重み、ソース分類器層重み、ターゲット分類器層重み、係数、およびポリシー重みを含む。深層学習モデルのための重み割当てを学習するように構成された学習を転移させるための学習(learning to transfer learn:L2TL)アーキテクチャに関する複数の学習反復の各々の第1段階中に、当該方法はまた、当該データ処理ハードウェアによって、勾配降下ベースの最適化を適用して、損失関数を最小化するエンコーダ重み、ソース分類器層重み、およびターゲット分類器層重みを学習するステップと、当該データ処理ハードウェアによって、ポリシーモデルのアクションをサンプリングすることによって係数を決定するステップと含む。L2TLアーキテクチャに関する複数の学習反復の各々の第2段階中に、当該方法はまた、データ処理ハードウェアによって、損失関数についての評価メトリックを最大化するポリシー重みを決定するステップを含む。
有するソースデータサンプルをソースデータサンプルのトレーニングバッチから選択して、損失関数を最小化するエンコーダ重み、ソース分類器層重み、およびターゲット分類器層重みを学習するステップとを含む。追加の例では、複数の学習反復の各々の第2段階中に、当該方法はまた、データ処理ハードウェアによって、ターゲット評価データセット上のポリシー勾配を用いてポリシーモデルをトレーニングして、評価メトリックを最大化する報酬を計算するステップを含む。これらの追加の例では、損失関数についての評価メトリックを最大化するポリシー重みを決定するステップは、計算された報酬に基づいている。
る動作を含む。これらの追加の例では、損失関数についての評価メトリックを最大化するポリシー重みを決定する動作は、計算された報酬に基づいている。
詳細な説明
深層ニューラルネットワークは画像、テキストおよび音声を理解するのに優れている。深層ニューラルネットワークの性能は、より多くのトレーニングデータで著しく向上させられる。アプリケーションが多様化しておりわずかなトレーニングデータセットで複数の使用事例をカバーしているので、従来のトレーニングアプローチは高性能を達成するには不充分であることが多い。余分なソースデータセットを利用し、関連情報をターゲットデータセットに「転移」させることが非常に有益となる。転移学習は、通常、大規模ソースデータセット上で予めトレーニングされたモデルを取得し、次いで、当該モデルをターゲットデータセット上でさらにトレーニングする(微調整(fine-tuning)として公知であ
る)形式であり、大多数の現実世界の人工知能の用途のための標準レシピとなってきている。ランダムに初期化してからトレーニングする場合と比べて、微調整は、オブジェクト認識、意味のセグメント化、言語理解、音声合成、視聴覚認識、および言語翻訳について実証されるように、大幅な性能向上および収束加速をもたらす。
テクチャを対象としている。固定された重み付け割当て関数を用いてソースドメインとターゲットドメインとの間の関連性を測定する転移学習技術とは対照的に、L2TLアーキ
テクチャは、ソースデータセットおよびターゲットデータセットのために共同で最適化される深層学習モデルのための重み割当てを適応的に学習することができる。以下で明らかになるように、深層学習モデルに関する適応重みの学習は、ターゲット評価データセット上における深層学習モデルの性能によって導かれ得る。具体的には、当該性能は、ターゲット性能メトリックを用いて定量化することができ、これにより、L2TLアーキテクチャは、ターゲット評価性能を向上させるという目的のために関連性を直接対象にすることができる。
て変動を減らすことができる。L2TLアーキテクチャは、強化学習を用いてポリシー勾配を計算することができる。L2TLアーキテクチャはまた、確率目標の勾配ベースの最適化、たとえば、Adamオプティマイザ、を用いてポリシー勾配を最適化することもできる。
01を識別するように構成されている。損失関数201は、深層学習モデル150のエンコーダニューラルネットワーク152に関連付けられたエンコーダ重み210と、深層学習モデル150のソース分類器層154に関連付けられたソース分類器層重み202と、深層学習モデル150のターゲット分類器層156に関連付けられたターゲット分類器層重み204と、ソースデータセット104およびターゲットデータセット106についての係数206と、深層学習モデル150のポリシーモデル209に関連付けられたポリシー重み208とを含み得る。損失関数201は以下のように表わされ得る。
MS・BSのトレーニングバッチをサンプリングするとともに、その反復中にトレーニング更新のために最高の重みを有するもののうち上位のBSを用いる。このアプローチも計算上の利益をもたらす。なぜなら、収束に至るまで、ほとんどのソースデータセットサンプルに関して勾配が計算されないであろうからである。
み208との積とともにターゲットデータセット分類損失を集約して、損失関数201についての集約勾配を決定する。
′上の深層学習モデル150(すなわち、エンコーダネットワーク152およびターゲット分類層154)の性能を定量化する。いくつかの例では、ターゲット評価データセット106′は、トレーニングの第1段階中、それまで深層学習モデル150によって認識されていなかったデータサンプル(たとえば、画像)のサブセットをターゲットデータセット106内に含む。したがって、ポリシー重みΦ208を決定することは、ターゲット評価データセット106′に対する評価メトリックRD′T220を最大化するようにポリシー重み208を最適化することを含む。これは以下のように表わされてもよい。
い重みをソースデータセット104内のより関連性の高いデータサンプルに割当てる。ポリシーモデル209は強化学習ベースのポリシーモデルを含み得る。さらに、いくつかの例では、L2TLアーキテクチャ200は、ターゲットタスクに対するソースデータセット104のサンプルの寄与に基づいてこれらサンプルのランク付けをもたらす。
ードサーバ、メインフレーム、および他の適切なコンピュータなどの、さまざまな形態のデジタルコンピュータを表わすよう意図されている。ここに示すコンポーネント、それらの接続および関係、ならびにそれらの機能は単なる例示を意図したものであって、この文書で説明および/または主張される本発明の実現例を限定するよう意図したものではない。
フトウェア、および/またはそれらの組合せにおいて実現され得る。これらのさまざまな実現例は、データおよび命令をストレージシステムとの間で送受信するように結合された、専用または汎用であり得る少なくとも1つのプログラマブルプロセッサと、少なくとも1つの入力デバイスと、少なくとも1つの出力デバイスとを含むプログラマブルシステム上で実行可能および/または解釈可能である1つ以上のコンピュータプログラムにおける実現例を含み得る。
械可読媒体を含む。「機械可読信号」という語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
はASIC(特定用途向け集積回路)といった専用論理回路によって実行可能である。コンピュータプログラムの実行に適したプロセッサは、一例として、汎用および専用のマイクロプロセッサと、任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサとを含む。一般に、プロセッサは、命令およびデータを、読出専用メモリまたはランダムア
クセスメモリまたはそれら双方から受信するであろう。コンピュータの本質的要素は、命令を実行するためのプロセッサと、命令およびデータを格納するための1つ以上のメモリデバイスとである。一般に、コンピュータはまた、たとえば磁気ディスク、光磁気ディスクまたは光ディスクなどの、データを格納するための1つ以上の大容量ストレージデバイスを含むこととなるか、または、当該大容量ストレージデバイスからデータを受信するかまたは当該大容量ストレージデバイスにデータを転送するかまたはそれら双方を行なうように動作可能に結合されることとなるだろう。しかしながら、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令およびデータを格納するのに適したコンピュータ可読媒体は、あらゆる形態の不揮発性メモリ、媒体、およびメモリデバイスを含み、一例として、半導体メモリデバイス、たとえばEPROM、EEPROM、およびフラッシュメモリデバイス;磁気ディスク、たとえば内部ハードディスクまたはリムーバブルディスク;光磁気ディスク;ならびに、CD ROMおよびDVD-ROMディスクを含む。プロセッサおよびメモリは、専用論理回路によって補完されてもよく、または専用論理回路に組込まれてもよい。
Claims (20)
- 方法(400)であって、
データ処理ハードウェア(134)において、ソースデータセット(104)およびターゲットデータセット(106)を受信するステップと、
前記データ処理ハードウェア(134)によって、前記ソースデータセット(104)および前記ターゲットデータセット(106)に基づいて深層学習モデル(150)についての損失関数(201)を識別するステップとを含み、前記損失関数(201)は、
エンコーダ重み(210)と、
ソース分類器層重み(202)と、
ターゲット分類器層重み(204)と、
係数(206)と、
ポリシー重み(208)とを含み、前記方法(400)はさらに、
前記深層学習モデル(150)のための重み割当てを学習するように構成された学習を転移させるための学習(learning to transfer learn:L2TL)アーキテクチャ(200)に関する複数の学習反復の各々の第1段階中に、
前記データ処理ハードウェア(134)によって、勾配降下ベースの最適化を適用して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習するステップと、
前記データ処理ハードウェア(134)によって、ポリシーモデル(209)のアクションをサンプリングすることによって前記係数(206)を決定するステップと、
前記L2TLアーキテクチャ(200)に関する前記複数の学習反復の各々の第2段階中に、
前記データ処理ハードウェア(134)によって、前記損失関数(201)についての評価メトリック(220)を最大化する前記ポリシー重み(208)を決定するステップとを含む、方法(400)。 - 前記学習反復の前記第1段階の実行中、前記ポリシーモデル(209)は固定されている、請求項1に記載の方法(400)。
- 前記ポリシーモデル(209)は強化学習ベースのポリシーモデルを含む、請求項1または2に記載の方法(400)。
- 前記損失関数(201)についての前記評価メトリック(220)を最大化する前記ポリシー重み(208)を決定するステップは、前記第1段階中に学習された前記エンコーダ重み(210)および前記ターゲット分類層重み154を用いるステップを含む、請求項1から3のいずれか1項に記載の方法(400)。
- 前記損失関数(201)についての前記評価メトリック(220)は、ターゲット評価データセット(106′)上の前記深層学習モデル(150)の性能を定量化し、前記ターゲット評価データセット(106′)は、それまで前記深層学習モデル(150)によって認識されていなかったデータサンプルのサブセットを前記ターゲットデータセット(106)内に含む、請求項1から4のいずれか1項に記載の方法(400)。
- 前記複数の学習反復の各々の前記第1段階中に、
前記データ処理ハードウェア(134)によって、特定のサイズを有する前記ソースデータセット(104)からソースデータサンプルのトレーニングバッチをサンプリングするステップと、
前記データ処理ハードウェア(134)によって、前記深層学習モデル(150)をト
レーニングする際に用いるためのN個の最適な信頼スコアを有する前記ソースデータサンプルを前記ソースデータサンプルのトレーニングバッチから選択して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習するステップとをさらに含む、請求項1から5のいずれか1項に記載の方法(400)。 - 前記複数の学習反復の各々の前記第2段階中、
前記データ処理ハードウェアによって、ターゲット評価データセット(106′)上のポリシー勾配を用いて前記ポリシーモデル(209)をトレーニングして、前記評価メトリック(220)を最大化する報酬を計算するステップをさらに含み、
前記損失関数(201)についての前記評価メトリック(220)を最大化する前記ポリシー重み(208)を決定するステップは、前記計算された報酬に基づいている、請求項1から6のいずれか1項に記載の方法(400)。 - 前記ソースデータセット(134)は第1の複数の画像を含み、
前記ターゲットデータセット(134)は第2の複数の画像を含む、請求項1から7のいずれか1項に記載の方法(400)。 - 前記ソースデータセット(134)の前記第1の複数の画像内の画像の数は、前記ターゲットデータセット(104)の前記第2の複数の画像内の画像の数よりも多い、請求項8に記載の方法(400)。
- 前記L2TLアーキテクチャ(200)は、エンコーダネットワーク層(152)、ソース分類器層(154)、およびターゲット分類器層(156)を備える、請求項1から9のいずれか1項に記載の方法(400)。
- システム(100)であって、
データ処理ハードウェア(134)と、
前記データ処理ハードウェア(134)と通信するとともに命令を格納するメモリハードウェア(136)とを備え、前記命令は、前記データ処理ハードウェア(134)上で実行されると、前記データ処理ハードウェアに以下の動作を実行させ、前記以下の動作は、
ソースデータセット(106)およびターゲットデータセット(104)を受信する動作と、
前記ソースデータセット(104)および前記ターゲットデータセット(106)に基づいて深層学習モデル(150)についての損失関数(201)を識別する動作とを含み、前記損失関数(201)は、
エンコーダ重み(210)と、
ソース分類器層重み(202)と、
ターゲット分類器層重み(204)と、
係数(206)と、
ポリシー重み(208)とを含み、前記以下の動作はさらに、
前記深層学習モデル(150)のための重み割当てを学習するように構成された学習を転移させるための学習(L2TL)アーキテクチャ(200)に関する複数の学習反復の各々の第1段階中に、
勾配降下ベースの最適化を適用して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習する動作と、
ポリシーモデル(209)のアクションをサンプリングすることによって前記係数(206)を決定する動作と、
前記L2TLアーキテクチャ(200)に関する前記複数の学習反復の各々の第2段階中に、
前記損失関数(201)についての評価メトリック(220)を最大化する前記ポリシー重み(208)を決定する動作とを含む、システム(100)。 - 前記学習反復の前記第1段階の実行中、前記ポリシーモデル(209)は固定されている、請求項11に記載のシステム(100)。
- 前記ポリシーモデル(209)は強化学習ベースのポリシーモデルを含む、請求項11または12に記載のシステム(100)。
- 前記損失関数(201)についての前記評価メトリックを最大化する前記ポリシー重み(208)を決定する動作は、前記第1段階中に学習された前記エンコーダ重み(210)を用いる動作を含む、請求項11から13のいずれか1項に記載のシステム(100)。
- 前記損失関数(201)についての前記評価メトリック(220)は、ターゲット評価データセット(106′)上の前記深層学習モデル(150)の性能を定量化し、前記ターゲット評価データセット(106′)は、それまで前記深層学習モデル(150)によって認識されていなかったデータサンプルのサブセットを前記ターゲットデータセット(106)内に含む、請求項11から14のいずれか1項に記載のシステム(100)。
- 前記以下の動作はさらに、前記複数の学習反復の各々の前記第1段階中に、
特定のサイズを有する前記ソースデータセット(104)からソースデータサンプルのトレーニングバッチをサンプリングする動作と、
前記深層学習モデル(150)をトレーニングする際に用いるためのN個の最適な信頼スコアを有する前記ソースデータサンプルを前記ソースデータサンプルのトレーニングバッチから選択して、前記損失関数(201)を最小化する前記エンコーダ重み(210)、前記ソース分類器層重み(202)、および前記ターゲット分類器層重み(204)を学習する動作とをさらに含む、請求項11から15のいずれか1項に記載のシステム(100)。 - 前記以下の動作はさらに、前記複数の学習反復の各々の前記第2段階中に、
ターゲット評価データセット(106′)上のポリシー勾配を用いて前記ポリシーモデル(209)をトレーニングして、前記評価メトリック(220)を最大化する報酬を計算する動作を含み、
前記損失関数(201)についての前記評価メトリック(220)を最大化する前記ポリシー重み(208)を決定する動作は、前記計算された報酬に基づいている、請求項11から16のいずれか1項に記載のシステム(100)。 - 前記ソースデータセット(134)は第1の複数の画像を含み、
前記ターゲットデータセット(134)は第2の複数の画像を含む、請求項11から17のいずれか1項に記載のシステム(100)。 - 前記ソースデータセット(134)の前記第1の複数の画像内の画像の数は、前記ターゲットデータセット(104)の前記第2の複数の画像内の画像の数よりも多い、請求項18に記載のシステム(100)。
- 前記L2TLアーキテクチャ(200)は、エンコーダネットワーク層(152)、ソース分類器層(154)、およびターゲット分類器層(156)を備える、請求項11か
ら19のいずれか1項に記載のシステム(100)。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962881989P | 2019-08-02 | 2019-08-02 | |
US62/881,989 | 2019-08-02 | ||
PCT/US2020/044687 WO2021026044A1 (en) | 2019-08-02 | 2020-08-02 | Framework for learning to transfer learn |
JP2022506660A JP7342242B2 (ja) | 2019-08-02 | 2020-08-02 | 学習を転移させるための学習のためのフレームワーク |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022506660A Division JP7342242B2 (ja) | 2019-08-02 | 2020-08-02 | 学習を転移させるための学習のためのフレームワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023162346A true JP2023162346A (ja) | 2023-11-08 |
JP7550939B2 JP7550939B2 (ja) | 2024-09-13 |
Family
ID=72139720
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022506660A Active JP7342242B2 (ja) | 2019-08-02 | 2020-08-02 | 学習を転移させるための学習のためのフレームワーク |
JP2023139532A Active JP7550939B2 (ja) | 2019-08-02 | 2023-08-30 | 学習を転移させるための学習のためのフレームワーク |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022506660A Active JP7342242B2 (ja) | 2019-08-02 | 2020-08-02 | 学習を転移させるための学習のためのフレームワーク |
Country Status (6)
Country | Link |
---|---|
US (2) | US20210034976A1 (ja) |
EP (1) | EP4007973A1 (ja) |
JP (2) | JP7342242B2 (ja) |
KR (1) | KR20220024990A (ja) |
CN (1) | CN114207626A (ja) |
WO (1) | WO2021026044A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220405570A1 (en) * | 2021-06-11 | 2022-12-22 | International Business Machines Corporation | Post-hoc loss-calibration for bayesian neural networks |
CN113641905B (zh) * | 2021-08-16 | 2023-10-03 | 京东科技信息技术有限公司 | 模型训练方法、信息推送方法、装置、设备及存储介质 |
JPWO2023090419A1 (ja) * | 2021-11-19 | 2023-05-25 | ||
CN114202031A (zh) * | 2021-12-15 | 2022-03-18 | 杭州电子科技大学 | 一种基于强化学习的多源域迁移目标识别方法 |
CN114492215A (zh) * | 2022-04-18 | 2022-05-13 | 南湖实验室 | 利用策略模型辅助训练的gp世界模型及其训练方法 |
CN116991388B (zh) * | 2023-09-26 | 2024-01-09 | 之江实验室 | 一种深度学习编译器的图优化序列生成方法及装置 |
CN118070870B (zh) * | 2024-04-19 | 2024-08-13 | 福建亿榕信息技术有限公司 | 基于用户反馈强化学习的电力专业大模型优化方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158768A1 (ja) | 2015-03-30 | 2016-10-06 | 株式会社メガチップス | クラスタリング装置及び機械学習装置 |
US10573031B2 (en) * | 2017-12-06 | 2020-02-25 | Siemens Healthcare Gmbh | Magnetic resonance image reconstruction with deep reinforcement learning |
WO2020019236A1 (en) * | 2018-07-26 | 2020-01-30 | Intel Corporation | Loss-error-aware quantization of a low-bit neural network |
US20200104710A1 (en) * | 2018-09-27 | 2020-04-02 | Google Llc | Training machine learning models using adaptive transfer learning |
US20210142177A1 (en) * | 2019-11-13 | 2021-05-13 | Nvidia Corporation | Synthesizing data for training one or more neural networks |
US20210256369A1 (en) * | 2020-02-18 | 2021-08-19 | SparkCognition, Inc. | Domain-adapted classifier generation |
-
2020
- 2020-08-02 CN CN202080055741.3A patent/CN114207626A/zh active Pending
- 2020-08-02 US US16/945,880 patent/US20210034976A1/en active Pending
- 2020-08-02 JP JP2022506660A patent/JP7342242B2/ja active Active
- 2020-08-02 KR KR1020227002727A patent/KR20220024990A/ko unknown
- 2020-08-02 EP EP20757772.7A patent/EP4007973A1/en active Pending
- 2020-08-02 WO PCT/US2020/044687 patent/WO2021026044A1/en unknown
-
2023
- 2023-08-24 US US18/455,182 patent/US20240054345A1/en active Pending
- 2023-08-30 JP JP2023139532A patent/JP7550939B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP4007973A1 (en) | 2022-06-08 |
CN114207626A (zh) | 2022-03-18 |
JP7342242B2 (ja) | 2023-09-11 |
JP7550939B2 (ja) | 2024-09-13 |
WO2021026044A1 (en) | 2021-02-11 |
US20240054345A1 (en) | 2024-02-15 |
JP2022543245A (ja) | 2022-10-11 |
KR20220024990A (ko) | 2022-03-03 |
US20210034976A1 (en) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7342242B2 (ja) | 学習を転移させるための学習のためのフレームワーク | |
JP7293498B2 (ja) | サンプル一致度評価による能動学習 | |
JP7558342B2 (ja) | ラベルノイズが存在する状態でのロバストな訓練 | |
JP7304488B2 (ja) | 強化学習ベースの局所解釈可能モデル | |
US11823058B2 (en) | Data valuation using reinforcement learning | |
US12062227B2 (en) | Systems and methods for progressive learning for machine-learned models to optimize training speed | |
EP3371747A1 (en) | Augmenting neural networks with external memory | |
CN110770759A (zh) | 神经网络系统 | |
US11416760B2 (en) | Machine learning based user interface controller | |
WO2019045802A1 (en) | LEARNING DISTANCE MEASUREMENT USING PROXY MEMBERS | |
CN111753995A (zh) | 一种基于梯度提升树的局部可解释方法 | |
Sahito et al. | Semi-supervised learning using Siamese networks | |
Wang et al. | Cemab: A cross-entropy-based method for large-scale multi-armed bandits | |
CN110909860A (zh) | 神经网络参数初始化的方法和装置 | |
US20230124177A1 (en) | System and method for training a sparse neural network whilst maintaining sparsity | |
Salam et al. | Optimizing Extreme Learning Machine using Whale Optimization Algorithm for Genes Classification | |
Jing et al. | RSCC: Robust Semi-supervised Learning with Contrastive Learning and Augmentation Consistency Regularization | |
JP2024120643A (ja) | 情報処理装置、情報処理方法およびプログラム | |
Hu et al. | An Improved Online Multiclass Classification Algorithm Based on Confidence-Weighted | |
Long et al. | Self-adaptive Weighted Extreme Learning Machine for Imbalanced Classification Problems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230906 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7550939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |