JP2022122326A - 機械学習装置、機械学習方法、および機械学習プログラム - Google Patents
機械学習装置、機械学習方法、および機械学習プログラム Download PDFInfo
- Publication number
- JP2022122326A JP2022122326A JP2021019468A JP2021019468A JP2022122326A JP 2022122326 A JP2022122326 A JP 2022122326A JP 2021019468 A JP2021019468 A JP 2021019468A JP 2021019468 A JP2021019468 A JP 2021019468A JP 2022122326 A JP2022122326 A JP 2022122326A
- Authority
- JP
- Japan
- Prior art keywords
- domain
- learning
- model
- data
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 30
- 238000013526 transfer learning Methods 0.000 claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 230000003044 adaptive effect Effects 0.000 claims description 29
- 230000007423 decrease Effects 0.000 claims 2
- 230000003362 replicative effect Effects 0.000 claims 2
- 238000000034 method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000006978 adaptation Effects 0.000 description 9
- 238000003062 neural network model Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 6
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
【課題】ドメインの特性に応じて転移学習することができる機械学習技術を提供する。【解決手段】ドメイン適応データ充実度決定部52は、第1ドメインの教師データを用いて学習されたニューラルネットワークの第1モデルを第2ドメインの教師データによって転移学習する際、第2ドメインの教師データ数にもとづいてドメイン適応データ充実度を決定する。学習層決定部54は、ドメイン適応データ充実度にもとづいて、第1モデルを複製した第2モデルの学習対象の層を決定する。転移学習実行部56は、第2ドメインの教師データを用いて第2モデルの学習対象の層を転移学習する。【選択図】図2
Description
本発明は、機械学習技術に関する。
あるドメインで学習されたモデルを別のドメインに適用させる技術として転移学習がある。転移学習では元のドメインはソースドメイン、転移先のドメインはターゲットドメインと呼ばれる。ソースドメインで学習されたモデルをターゲットドメインに効率良く適応させることが必要である。
特許文献1には、ソースドメインから入力画像を受け取り、ソースドメインからソースドメインとは異なるターゲットドメインへの入力画像の変換である変換された画像を生成するために、ソースドメインからの入力画像を含むネットワーク入力を処理するように構成される、ドメイン変換ニューラルネットワークが開示されている。
転移学習においてソースドメインで学習されたモデルをターゲットドメインに適応させる際、ドメインの特性に関係なく転移学習を行っていた。これにより推論精度の汎化性が低下したり、処理量が必要以上に大きくなるという課題があった。
本発明はこうした状況に鑑みてなされたものであり、その目的は、ドメインの特性に応じて転移学習することができる機械学習技術を提供することにある。
上記課題を解決するために、本発明のある態様の機械学習装置は、第1ドメインの教師データを用いて学習されたニューラルネットワークの第1モデルを第2ドメインの教師データによって転移学習する際、第2ドメインの教師データ数にもとづいてドメイン適応データ充実度を決定するドメイン適応データ充実度決定部と、前記ドメイン適応データ充実度にもとづいて、第1モデルを複製した第2モデルの学習対象の層を決定する学習層決定部と、前記第2ドメインの教師データを用いて前記第2モデルの学習対象の層を転移学習する転移学習部とを含む。
本発明の別の態様は、機械学習方法である。この方法は、第1ドメインの教師データを用いて学習されたニューラルネットワークの第1モデルを第2ドメインの教師データによって転移学習する際、第2ドメインの教師データ数にもとづいてドメイン適応データ充実度を決定するステップと、前記ドメイン適応データ充実度にもとづいて、第1モデルを複製した第2モデルの学習対象の層を決定するステップと、前記第2ドメインの教師データを用いて前記第2モデルの学習対象の層を転移学習するステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ドメインの特性に応じて転移学習することができる機械学習技術を提供することができる。
図1は、実施の形態に係る機械学習装置100および推論装置200の構成図である。機械学習装置100は、ソースモデル記憶部30、ターゲットドメイン取得部40、転移学習部50、およびターゲットモデル記憶部60を含む。推論装置200は、ターゲットドメイン取得部70、推論部80、および推論結果出力部90を含む。
転移学習とは、機械学習手法の1つであり、ある十分なデータのある第1タスクに対して学習したモデルを、第1タスクと関連しているが、十分なデータがない第2タスクの学習に応用する手法である。十分なデータで学習された知識を別のタスクへ転移できることから、データの少ない第2タスクでも精度の高い結果を得ることができる。
転移学習において、第1タスクの入力ドメインと第2タスクの入力ドメインの種類は同一であり、確率分布のみが異なる場合を「ドメイン適応」と呼ぶ。
転移元となる第1タスクの入力ドメインを「ソースドメイン」、転移先となる第2タスクの入力ドメインを「ターゲットドメイン」と呼ぶ。また、第1タスクの学習済みモデルを「ソースモデル」、第2タスクの学習済みモデルを「ターゲットモデル」と呼ぶ。
ドメイン適応の例としては、ソースドメインとしてデータを収集しやすいコンピュータ・グラフィックス(CG)やWeb上の画像を利用し、ターゲットドメインとしてカメラ等で撮影したリアル画像を利用するのが好ましいが、ソースドメインとターゲットドメインの画像の態様についてはこれらに限らない。
ソースドメインとして大量のCG画像を利用してソースモデルを学習させておき、ターゲットドメインとしてカメラの撮像画像を利用することで、ソースモデルからドメイン適応により転移学習させてターゲットモデルを生成する。ここで、ドメインに含まれるクラスは一例として人、車、自転車、犬、バイクとし、タスクは分類であるとする。
機械学習装置100は、学習済みのソースモデルとターゲットドメインから転移学習によりターゲットモデルを生成する装置である。
ソースドメイン取得部10は、ソースドメインとして、人、車、自転車、犬、バイクを高精度に分類できるようにソースモデルを学習させることができる大量の人、車、自転車、犬、バイクのCG画像を取得する。
学習部20は、ソースドメインを用いてニューラルネットワークモデルを機械学習してソースモデルを生成し、ソースモデル記憶部30に生成されたソースモデルを格納する。ソースモデルは高精度にソースドメインを分類可能である。
ソースモデル記憶部30に格納されたソースモデルは、転移学習の転移元のモデルとして利用される学習済みモデルである。ソースモデルはニューラルネットワークモデルである。
ターゲットドメイン取得部40は、ターゲットドメインとして、カメラで撮影した人、車、自転車、犬、バイクの画像を取得する。ターゲットドメインは一般的にはソースドメインよりもデータは少ない。
転移学習部50は、ターゲットドメイン取得部40により取得されたターゲットドメインを用いて、ソースモデル記憶部30に格納されたソースモデルを転移学習してターゲットモデルを生成し、ターゲットモデル記憶部60に生成されたターゲットモデルを格納する。
ターゲットモデル記憶部60に格納されたターゲットモデルは、転移学習により生成される学習済みモデルである。ターゲットモデルはニューラルネットワークモデルである。ターゲットモデルは、いったん複製した転移元のソースモデルの一部をターゲットドメインを用いて学習し直したものである。
推論装置200は、機械学習装置100により生成されたターゲットモデルを用いて推論し、画像を分類する装置である。推論装置200は例えば、撮像部を備え、撮像部より取得される画像を推論し、推論結果を出力する。
ターゲットドメイン取得部70は、推論対象のターゲットドメインを取得し、推論部80に供給する。推論部80は、ターゲットモデル記憶部60に格納されたターゲットモデルにもとづいてターゲットドメインを推論し、推論結果を推論結果出力部90に供給する。推論結果出力部90は、推論結果である分類を出力する。
図2は、機械学習装置100の転移学習部50の詳細な構成図である。転移学習部50は、ドメイン適応データ充実度決定部52、学習層決定部54、および転移学習実行部56を含む。
ドメイン適応データ充実度決定部52は、ターゲットドメインの教師データ数にもとづいてドメイン適応データ充実度を決定する。
より具体的には、ドメイン適応データ充実度は、ターゲットドメインのクラスあたりの教師データ数が最小となるクラスの教師データ数と所定教師データ数TDNUMとの比率である。ここで、所定教師データ数は学習を精度良く行うために十分とされる教師データ数である。所定教師データ数はニューラルネットワークモデルに依存する。ここではニューラルネットワークモデルがVGG16であるとして3000とする。事前にソースドメインの教師データを使って教師データ数に応じた学習の精度を計測し、所望の精度を超える教師データ数を所定教師データ数として利用してもよい。ドメイン適応データ充実度は次式で算出するのが好ましい。MIN(n,m)は、nまたはmのうち最小値を選択する関数である。この場合、ドメイン適応データ充実度は0以上1以下の値となる。
ドメイン適応データ充実度=MIN(1,(ターゲットドメインの教師データ数が最小のクラスの教師データ数)/TDNUM)
ドメイン適応データ充実度=MIN(1,(ターゲットドメインの教師データ数が最小のクラスの教師データ数)/TDNUM)
学習層決定部54は、ドメイン適応データ充実度にもとづいて、ニューラルネットワークモデルであるターゲットモデルにおいて学習対象とする層を決定する。
具体的には、学習層決定部54は、ドメイン適応データ充実度が高いほどターゲットモデルの学習対象の層の数を多くし、ドメイン適応データ充実度が低いほどターゲットモデルの学習対象の層の数を少なくしてもよい。
学習層決定部54は、ドメイン適応データ充実度が高いほど上位層(入力に近い層)から下位層(出力に近い層)まで多くの層を学習対象に含め、ドメイン適応データ充実度が低いほど下位層(出力に近い層)側の少ない層を学習対象としてもよい。すなわち、学習層決定部54は、ドメイン適応データ充実度が高いほど入力層に近い層を学習対象の層に含める。
学習層決定部54は、ドメイン適応データ充実度が所定値以下の場合はターゲットモデルの全結合層のみを学習対象の層としてもよい。
このように、ドメイン適応データ充実度が低い場合、つまり教師データ数が少ない場合、ターゲットモデルの下位層だけを学習させることにより、ソースモデルの上位層の詳細な特徴抽出の汎化性能を維持したままソースモデルをターゲットドメインに適応させることができ、転移学習後のターゲットモデルの精度を高く維持することができる。逆に、ドメイン適応データ充実度が高い場合、つまり教師データ数が多い場合、ターゲットモデルのより多くの層を学習させることにより、転移学習後のターゲットモデルの精度を高くすることができる。
転移学習実行部56は、ターゲットドメインの画像を教師データとして用いて、学習層決定部54が決定したターゲットモデルの学習対象とする層を転移学習する。学習対象とする層以外は学習対象としない層となり、複製したソースモデルの層が新たに学習されることなくそのまま利用される。
図3は、機械学習装置100においてソースモデルおよびターゲットモデルとて用いられるニューラルネットワークモデルの構造を示す図である。
本実施の形態では、ソースモデルとターゲットモデルはニューラルネットワークモデルであるVGG16とする。VGG16は畳み込み層(CONV)が13層、全結合層(Dense)が3層、プーリング層が5層で構成される。学習対象となる層は畳み込み層と全結合層である。プーリング層は畳み込み層の出力である特徴マップをサブサンプルする層である。ソースモデルとターゲットモデルはVGG16に限らず、各層の数も本実施の形態に限らない。
図4は、ドメイン適応データ充実度に応じたターゲットモデルの学習対象とする層を説明する図である。
ドメイン適応データ充実度が1.00であれば、全ての層を学習対象とする。ドメイン適応データ充実度が1.00より小さく0.95以上であれば、CONV1-1を除いた層を学習対象とする。CONV1-1はソースモデルの層をそのまま複製して利用する。ドメイン適応データ充実度が0.95より小さく0.90以上であれば、CONV1-1とCONV1-2を除いた層を学習対象とする。CONV1-1とCONV1-2はソースモデルの層をそのまま複製して利用する。以下同様に、ドメイン適応データ充実度が0.10より小さく0.00以上であれば、全ての層を学習対象としない。この場合、全ての層はソースモデルの層をそのまま複製して利用する。
このようにドメイン適応データ充実度が大きいほど入力層に近い、より多くの畳み込み層が学習対象になり、ドメイン適応データ充実度が小さいほど出力層に近い、より少ない畳み込み層が学習対象になる。
ドメイン適応データ充実度と学習対象とする層の関係はこれに限定されない。ドメイン適応データ充実度が高いほど上位層(入力に近い層)から下位層(出力に近い層)まで多くの層を学習対象に含め、ドメイン適応データ充実度が低いほど下位層(出力に近い層)側の少ない層を学習対象とすればよい。なお、Denseは全結合層3つを示す。ここでは全結合層は3つ束ねて制御したが、畳み込み層と同様に1つずつ制御してもよい。また、ドメイン適応データ充実度はターゲットドメインのクラスあたりの教師データ数が最小となるクラスの教師データ数と所定教師データ数TDNUMとの比率であるとしたが、ドメイン適応データ充実度はターゲットドメインのクラスあたりの教師データ数が最小となるクラスの教師データ数としてもよい。
図5は、ドメイン適応データ充実度に応じた学習対象とする層の別の例を説明する図である。
図5に示す例では、プーリング層の単位で複数の畳み込み層を束ねて制御する。たとえば、CONV1-1とCONV1-2の2つの畳み込み層は一つに束ねられて、ドメイン適応データ充実度が1.00以下で0.95以上である場合に学習対象であり、CONV2-1とCONV2-2の2つの畳み込み層は一つに束ねられて、ドメイン適応データ充実度が1.00以下で0.85以上である場合に学習対象である。以下、同様に、2つの隣り合う畳み込み層が一つに束ねられて学習対象とされる。このようにすることで、特徴マップの解像度毎にソースモデルの特徴抽出を維持することができる。
図6は、ドメイン適応データ充実度に応じた学習対象とする層のさらに別の例を説明する図である。
図6に示す例では、入力層に近い層は常に学習対象としない。ここでは、入力層に近いCONV1-1、CONV1-2、CONV2-1、CONV2-2の4つの畳み込み層は学習対象としない。それ以外の畳み込み層については、ドメイン適応データ充実度が大きくなるほど出力層に近い、より少ない畳み込み層が学習対象になる。
このようにすることで、ソースドメインのエッジレベルの詳細な特徴抽出をそのまま利用し、ある程度抽象化された特徴からターゲットドメインに適応させることで精度を向上させることができ、演算量を削減することができる。
図7は、図1の機械学習装置100による機械学習手順を説明するフローチャートである。
機械学習装置100の転移学習部50のドメイン適応データ充実度決定部52は、ターゲットドメインの教師データ数にもとづいてドメイン適応データ充実度を決定する(S10)。
学習層決定部54は、ドメイン適応データ充実度にもとづいて、ソースモデルを複製したターゲットモデルの学習対象とする層を決定する(S20)。
転移学習実行部56は、ターゲットドメインの画像を教師データとして用いてターゲットモデルの学習対象の層を転移学習する(S30)。
以上説明した機械学習装置100および推論装置200の各種の処理は、CPUやメモリ等のハードウェアを用いた装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバと送受信することも、地上波あるいは衛星ディジタル放送のデータ放送として送受信することも可能である。
以上述べたように、本実施の形態の機械学習装置100によれば、ターゲットドメインの教師データ数にもとづくドメイン適応データ充実度に応じて転移学習するターゲットモデルのニューラルネットワークの層を変更することにより、ドメインの特性に応じた処理効率の高く、かつ推論精度と汎化性能の高いターゲットモデルを生成することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 ソースドメイン取得部、 20 学習部、 30 ソースモデル記憶部、 40 ターゲットドメイン取得部、 50 転移学習部、 52 ドメイン適応データ充実度決定部、 54 学習層決定部、 56 転移学習実行部、 60 ターゲットモデル記憶部、 70 ターゲットドメイン取得部、 80 推論部、 90 推論結果出力部、 100 機械学習装置、 200 推論装置。
Claims (6)
- 第1ドメインの教師データを用いて学習されたニューラルネットワークの第1モデルを第2ドメインの教師データによって転移学習する際、第2ドメインの教師データ数にもとづいてドメイン適応データ充実度を決定するドメイン適応データ充実度決定部と、
前記ドメイン適応データ充実度にもとづいて、第1モデルを複製した第2モデルの学習対象の層を決定する学習層決定部と、
前記第2ドメインの教師データを用いて前記第2モデルの学習対象の層を転移学習する転移学習部とを含むことを特徴とする機械学習装置。 - 前記学習層決定部は、前記ドメイン適応データ充実度が大きいほど学習対象の層の数を多くし、前記ドメイン適応データ充実度が小さいほど学習対象の層の数を少なくすることを特徴とする請求項1に記載の機械学習装置。
- 前記学習層決定部は、前記ドメイン適応データ充実度が大きいほど入力層に近い層を学習対象の層に含めることを特徴とする請求項1または2に記載の機械学習装置。
- 前記学習層決定部は、前記ドメイン適応データ充実度が所定値以下の場合は全結合層のみを学習対象の層とすることを特徴とする請求項1に記載の機械学習装置。
- 第1ドメインの教師データを用いて学習されたニューラルネットワークの第1モデルを第2ドメインの教師データによって転移学習する際、第2ドメインの教師データ数にもとづいてドメイン適応データ充実度を決定するステップと、
前記ドメイン適応データ充実度にもとづいて、第1モデルを複製した第2モデルの学習対象の層を決定するステップと、
前記第2ドメインの教師データを用いて前記第2モデルの学習対象の層を転移学習するステップとを含むことを特徴とする機械学習方法。 - 第1ドメインの教師データを用いて学習されたニューラルネットワークの第1モデルを第2ドメインの教師データによって転移学習する際、第2ドメインの教師データ数にもとづいてドメイン適応データ充実度を決定するステップと、
前記ドメイン適応データ充実度にもとづいて、第1モデルを複製した第2モデルの学習対象の層を決定するステップと、
前記第2ドメインの教師データを用いて前記第2モデルの学習対象の層を転移学習するステップとをコンピュータに実行させることを特徴とする機械学習プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021019468A JP2022122326A (ja) | 2021-02-10 | 2021-02-10 | 機械学習装置、機械学習方法、および機械学習プログラム |
EP21925813.4A EP4276698A1 (en) | 2021-02-10 | 2021-12-09 | Machine learning device, machine learning method, and machine learning program |
PCT/JP2021/045349 WO2022172569A1 (ja) | 2021-02-10 | 2021-12-09 | 機械学習装置、機械学習方法、および機械学習プログラム |
CN202180084373.XA CN116615735A (zh) | 2021-02-10 | 2021-12-09 | 机器学习装置、机器学习方法以及机器学习程序 |
US18/447,347 US20230385705A1 (en) | 2021-02-10 | 2023-08-10 | Machine learning device, machine learning method, and non-transitory computer-readable recording medium having embodied thereon a machine learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021019468A JP2022122326A (ja) | 2021-02-10 | 2021-02-10 | 機械学習装置、機械学習方法、および機械学習プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022122326A true JP2022122326A (ja) | 2022-08-23 |
Family
ID=82838632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021019468A Pending JP2022122326A (ja) | 2021-02-10 | 2021-02-10 | 機械学習装置、機械学習方法、および機械学習プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230385705A1 (ja) |
EP (1) | EP4276698A1 (ja) |
JP (1) | JP2022122326A (ja) |
CN (1) | CN116615735A (ja) |
WO (1) | WO2022172569A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3555812B1 (en) | 2016-12-15 | 2022-07-06 | Google LLC | Transforming source domain images into target domain images |
WO2020054058A1 (ja) * | 2018-09-14 | 2020-03-19 | 日本電気株式会社 | 識別システム、パラメータ値更新方法およびプログラム |
JP6974651B2 (ja) * | 2019-03-15 | 2021-12-01 | 富士フイルム株式会社 | 特徴推定方法、特徴推定装置、プログラム及び記録媒体 |
-
2021
- 2021-02-10 JP JP2021019468A patent/JP2022122326A/ja active Pending
- 2021-12-09 EP EP21925813.4A patent/EP4276698A1/en active Pending
- 2021-12-09 WO PCT/JP2021/045349 patent/WO2022172569A1/ja active Application Filing
- 2021-12-09 CN CN202180084373.XA patent/CN116615735A/zh active Pending
-
2023
- 2023-08-10 US US18/447,347 patent/US20230385705A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230385705A1 (en) | 2023-11-30 |
CN116615735A (zh) | 2023-08-18 |
WO2022172569A1 (ja) | 2022-08-18 |
EP4276698A1 (en) | 2023-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11775804B2 (en) | Progressive neural networks | |
TWI799191B (zh) | 用於知識保存類神經網絡剪除之系統及方法 | |
CN111126574A (zh) | 基于内镜图像对机器学习模型进行训练的方法、装置和存储介质 | |
CN106855952B (zh) | 基于神经网络的计算方法及装置 | |
CN111027412A (zh) | 一种人体关键点识别方法、装置及电子设备 | |
CN112308102B (zh) | 图像相似度计算方法、计算装置及存储介质 | |
Sun et al. | Application of convolutional neural network in image processing | |
WO2022172569A1 (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
CN117115447A (zh) | 基于元迁移学习的前视声呐图像分割方法和装置 | |
KR102620875B1 (ko) | 심층 신경망 기반 영상 스티칭 방법 및 장치 | |
WO2022113534A1 (ja) | 機械学習装置、機械学習方法、および学習済みモデル | |
CN115759482A (zh) | 一种社交媒体内容传播预测方法和装置 | |
US20190311302A1 (en) | Electronic apparatus and control method thereof | |
CN113239909B (zh) | 一种题目处理方法、装置、设备及介质 | |
US20220044125A1 (en) | Training in neural networks | |
CN113963236A (zh) | 目标检测方法及装置 | |
CN111868752B (zh) | 神经网络层权重的连续参数化 | |
Yang et al. | NAM net: meta-network with normalization-based attention for few-shot learning | |
WO2022194344A1 (en) | Learnable augmentation space for dense generative adversarial networks | |
Ma et al. | Face image deblurring based on iterative spiral optimazation | |
Kye et al. | Meta-Learned Confidence for Transductive Few-shot Learning | |
JP7421152B2 (ja) | 学習方法、学習装置及びプログラム | |
Islam et al. | A Novel Approach for Generating Clustered Based Ensemble of Classifiers | |
WO2020044567A1 (ja) | データ処理システムおよびデータ処理方法 | |
Xie et al. | A Convolutional Neural Network Model of Image Denoising in Real Scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231228 |