JP7566705B2 - 学習方法、学習プログラム、および学習装置 - Google Patents

学習方法、学習プログラム、および学習装置 Download PDF

Info

Publication number
JP7566705B2
JP7566705B2 JP2021145941A JP2021145941A JP7566705B2 JP 7566705 B2 JP7566705 B2 JP 7566705B2 JP 2021145941 A JP2021145941 A JP 2021145941A JP 2021145941 A JP2021145941 A JP 2021145941A JP 7566705 B2 JP7566705 B2 JP 7566705B2
Authority
JP
Japan
Prior art keywords
learning
neural network
value
loss function
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021145941A
Other languages
English (en)
Other versions
JP2023039012A (ja
Inventor
雄士朗 柏本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021145941A priority Critical patent/JP7566705B2/ja
Priority to US17/651,961 priority patent/US20230072334A1/en
Publication of JP2023039012A publication Critical patent/JP2023039012A/ja
Application granted granted Critical
Publication of JP7566705B2 publication Critical patent/JP7566705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、学習方法、学習プログラム、および学習装置に関する。
学習データを用いたニューラルネットワークの学習が行われている。例えば、教師有り学習データセットの特徴量と教師無し学習データセットの特徴量との区別がつかないように敵対的学習を行う方法が開示されている(例えば、特許文献1参照)。また、教師有り学習データの特徴量の要素間の共分散を損失関数として用いて学習する方法が開示されている(例えば、非特許文献1参照)。
しかし、特許文献1の方法では、区別可能な情報を敵対的学習によって強引に区別不能にする学習を行うため、学習モデルの本来目的とするタスクに悪影響が発生する場合があった。また、特許文献2の方法では、教師有り学習において要素間の共分散を損失関数に用いるため、要素の分散を低減してしまい特徴量の表現能力を低下させる場合があった。すなわち、従来技術では、ニューラルネットワークの性能が低下する場合があった。
国際公開第2021/038812号
本発明は、上記に鑑みてなされたものであって、ニューラルネットワークの性能向上を図ることができる、学習方法、学習プログラム、および学習装置を提供することを目的とする。
実施形態の学習方法は、コンピュータが実行する学習方法であって、複数の学習データからなる学習データ群を入力されたニューラルネットワークの中間層および最終層の少なくとも一方から出力される特徴量における、チャネル間の相関である第1の損失関数の値を低減させるように、前記ニューラルネットワークを学習する学習ステップ、を含み、前記特徴量は、複数の前記学習データの各々に対する、複数の前記チャネルの各々のチャネル値によって表され、前記チャネル間の相関は、前記特徴量に含まれる、互いに異なる前記チャネルに対する前記学習データ群の前記チャネル値の群間の相関を表す値である
学習装置の構成の一例を示すブロック図。 学習処理の一例の説明図。 特徴量の一例の模式図。 ニューラルネットワークの学習処理の一例の説明図。 ニューラルネットワークの学習処理の一例の説明図。 ニューラルネットワークの学習処理の一例の説明図。 表示画面の一例の模式図。 情報処理の流れの一例のフローチャート。 ハードウェア構成図。
以下に添付図面を参照して、学習方法、学習プログラム、および学習装置を詳細に説明する。
図1は、本実施形態の学習装置10の構成の一例を示すブロック図である。
学習装置10は、ニューラルネットワーク20を学習する情報処理装置である。
学習装置10は、処理部12と、記憶部14と、表示部16と、操作入力部18と、を備える。処理部12、記憶部14、表示部16、および操作入力部18は、バス19を介してデータまたは信号を授受可能に接続されている。
記憶部14は、各種のデータを記憶する。記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部14は、学習装置10の外部に設けられた記憶装置であってもよい。また、記憶部14、表示部16、操作入力部18、および処理部12に含まれる複数の機能部、の少なくとも1つを、ネットワーク等を介して学習装置10に通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。
表示部16は、各種の情報を表示するディスプレイである。操作入力部18は、ユーザによる操作入力を受付ける。操作入力部18は、例えば、マウス等の各種のポインティングデバイス、キーボード等である。表示部16と操作入力部18とを一体的に構成したタッチパネルとしてもよい。
処理部12は、ニューラルネットワーク20を学習する学習処理を含む情報処理を実行する。
図2Aは、処理部12による学習処理の一例の説明図である。
処理部12は、複数の学習データ30を入力されたニューラルネットワーク20の中間層および最終層の少なくとも一方から出力される特徴量40における、チャネル間の相関から求められる第1の損失関数の値50を低減させるように、ニューラルネットワーク20を学習する。
学習データ30は、ニューラルネットワーク20の学習に用いる入力データである。ニューラルネットワーク20に入力する複数の学習データ30は、例えば、教師有り学習データセット32および教師無し学習データセット34を含む。
教師有り学習データセット32は、教示情報を付与された複数の教師有り学習データからなる。教師無し学習データセット34は、教示情報を付与されていない複数の教師無し学習データからなる。
教示情報とは、学習の際にニューラルネットワーク20から出力されるべき正解のデータを直接または間接的に表すデータである。教示情報は、正解ラベルと称される場合もある。
特徴量40は、ニューラルネットワーク20に入力された学習データ30がニューラルネットワーク20のモデル内のパラメータに従って処理され、ニューラルネットワーク20の中間層または最終層から配列として出力される。
なお、処理部12は、特徴量40に対して配列の形状の操作や特定の軸を基準とした配列の値の操作を行ってもよい。この操作の一例には、”Global Average Pooling”、”Global Max Pooling”などの配列の次元を削減する操作手法が挙げられる。
図2Bは、特徴量40の一例の模式図である。
図2B中、横軸はチャネル数を表す。縦軸はバッチサイズを表す。チャネルとは、特徴量を表す要素の種類である。要素の種類は、学習データ30が人物の顔の画像データである場合、例えば、顔における両眼間の距離、鼻の高さ、などである。ただし、これらに限らず、実際にはニューラルネットワークの学習により顔画像から個人を識別するために有効な何らかの変量が数値として抽出され、それが要素として用いられればよい。チャネル数は、例えば、256等であるが、この数に限定されない。
バッチサイズとは、学習データ30のサンプル数である。すなわち、バッチサイズは、ニューラルネットワーク20の学習に用いる学習データ30の数である。
第1の損失関数の値50とは、特徴量40における、チャネル間の相関の高さを表す値である。例えば、処理部12は、特徴量40における任意の2つのチャネルの値fおよびfを特定する。fおよびfは、互いに異なるチャネルにおける、複数の学習データ30の各々の特徴量の値の群であり、ベクトルで表される。第1の損失関数の値50は、例えば、相関係数を用いて算出される値である。例えば、第1の損失関数の値50は、これらの2つのチャネルの値fとfとの相関係数ri,jを意味する。iおよびjは、何番目のチャネルであるかを表す整数であり、互いに異なる値である。このため、相関係数ri,jは、i番目のチャネルとj番目のチャネルとの相関係数を意味する。
なお、第1の損失関数の値50には、相関係数ri,jの絶対和または相関係数ri,jの二乗和を用いればよい。
処理部12は、第1の損失関数の値50を低減させるようにニューラルネットワーク20を学習する。すなわち、処理部12は、ベクトルによって表されるi番目のチャネルの値fとj番目のチャネルの値fとのベクトル間の相関を低減させるように、ニューラルネットワーク20を学習する。
詳細には、処理部12は、i番目とj番目のチャネルの組み合わせを変えた複数の組み合わせの各々の第1の損失関数の値50を算出し、これらの第1の損失関数の値50を低減させるようにニューラルネットワーク20を学習する。
具体的には、例えば、処理部12は、損失関数を用いて、チャネル間の相関の高さを表す第1の損失関数の値50を算出し、ニューラルネットワーク20へ逆伝搬させる。例えば、処理部12は、2つのチャネルの値fとfとの相関係数をri,jとすると、式(1)で表されるロスを加えてニューラルネットワーク20を学習する。
Figure 0007566705000001
そして、処理部12は、勾配降下法を用いてニューラルネットワーク20のモデル内のパラメータを更新し、特徴量40のチャネル間の相関である第1の損失関数の値50を低減させる学習を行う。
処理部12が、第1の損失関数の値50を低減させるようにニューラルネットワーク20を繰り返し学習することで、特徴量40のチャネル間の相関を低減させることができる。すなわち、処理部12は、特徴量40の互いに異なるチャネルの値がより異なる情報を表現できるようにニューラルネットワーク20を学習させることができる。このため、処理部12は、特徴量40の表現能力を向上させることができる。
図1に戻り説明を続ける。処理部12による処理を具体的に説明する。
本実施形態では、処理部12は、入力部12Aと、取得部12Bと、導出部12Cと、学習部12Dと、受付部12Eと、表示制御部12Fと、を有する。
入力部12A、取得部12B、導出部12C、学習部12D、受付部12E、および表示制御部12Fは、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のICなどのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
図3Aは、ニューラルネットワーク20の学習処理の一例の説明図である。
入力部12Aは、複数の学習データ30をニューラルネットワーク20へ入力する。
例えば、入力部12Aは、複数の学習データ30として、教師有り学習データセット32および教師無し学習データセット34をニューラルネットワーク20へ入力する。
なお、ニューラルネットワーク20に入力する複数の学習データ30として、複数の教師有り学習データセット32の群、および、複数の教師無し学習データセット34の群、を用いてもよい。
この場合、複数の教師有り学習データセット32は、互いに異なるドメインの教師有り学習データセット32であってもよい。異なるドメインであるとは、データの種類およびデータの取得環境の少なくとも一方が異なることを意味する。具体的には、例えば、互いに異なるドメインの教師有り学習データセット32は、風景の教師有り学習データセット32と、人物の画像データである教師有り学習データセット32、等である。
同様に、複数の教師無し学習データセット34は、互いに異なるドメインの学習データ30であってもよい。
また、教師無し学習データセット34には、教師有り学習データセット32から教示情報を除いたデータのセットを用いてもよい。
入力部12Aは、教師有り学習データセット32に含まれる一部の教師有り学習データをニューラルネットワーク20へ入力してもよい。また、入力部12Aは、教師有り学習データセット32に含まれる全ての教師有り学習データをニューラルネットワーク20へ入力してもよい。
同様に、入力部12Aは、教師無し学習データセット34に含まれる一部の教師無し学習データをニューラルネットワーク20へ入力してもよい。また、入力部12Aは、教師無し学習データセット34に含まれる全ての教師無し学習データをニューラルネットワーク20へ入力してもよい。
取得部12Bは、特徴量40として、第1特徴量40Aおよび第2特徴量40Bを取得する。
第1特徴量40Aは、教師有り学習データセット32をニューラルネットワーク20へ入力することによって、ニューラルネットワーク20の中間層および最終層の少なくとも一方から出力される特徴量40である。
第2特徴量40Bは、教師無し学習データセット34をニューラルネットワーク20へ入力することによって、ニューラルネットワーク20の中間層および最終層の少なくとも一方から出力される特徴量40である。
取得部12Bは、教師有り学習データセット32をニューラルネットワーク20へ入力することで、該ニューラルネットワーク20から第1特徴量40Aを取得する。また、取得部12Bは、教師無し学習データセット34をニューラルネットワーク20へ入力することで、該ニューラルネットワーク20から第2特徴量40Bを取得する。
取得部12Bによる第1特徴量40Aおよび第2特徴量40Bの取得順は限定されない。例えば、取得部12Bは、第1特徴量40Aを取得した後に第2特徴量40Bを取得してよい。また、取得部12Bは、第2特徴量40Bを取得した後に第1特徴量40Aを取得してよい。
上述したように、第1特徴量40Aおよび第2特徴量40Bは、ニューラルネットワーク20の中間層または最終層から出力された特徴量40である。第1特徴量40Aおよび第2特徴量40Bは、ニューラルネットワーク20の互いに異なる層から出力された特徴量40であってもよい。また、第1特徴量40Aおよび第2特徴量40Bは、ニューラルネットワーク20の同じ層から出力された特徴量40であってもよい。
ニューラルネットワーク20から出力される第1特徴量40Aおよび第2特徴量40Bは、それぞれ1つであってもよいし、複数であってもよい。複数である場合、例えば、取得部12Bは、ニューラルネットワーク20における2か所以上の層の各々から得られた複数の特徴量40を、それぞれ独立に第1特徴量40Aおよび第2特徴量40Bとして取得してもよい。
導出部12Cは、特徴量40から第1の損失関数の値50を導出する。
例えば、導出部12Cは、第1特徴量40Aに基づいて第2の損失関数の値50Bを導出する。
第2の損失関数の値50Bは、教師有り学習データセット32をニューラルネットワーク20へ入力することによってニューラルネットワーク20から得られる出力情報が、教師有り学習データセット32に付与された教示情報から求められる理想とする出力の状態からどれだけ遠いかを表す値である。言い換えると、第2の損失関数の値50Bは、教師有り学習データセット32に付与された教示情報に対して、ニューラルネットワーク20から出力された出力情報がどれだけ近いまたは遠い情報であるかを表す情報である。
出力情報は、ニューラルネットワーク20から出力される出力データを直接または間接的に表す情報である。言い換えると、出力情報は、教師有り学習データセット32をニューラルネットワーク20へ入力することによって、該ニューラルネットワーク20が該教師有り学習データセット32についての推論結果として出力する情報である。詳細には、出力情報は、ニューラルネットワーク20から出力される、ニューラルネットワーク20の目的とするタスクに関するデータである。
ニューラルネットワーク20の目的とするタスクは、入力データの分類、入力データの識別、入力データから異なるデータの生成、入力データから特定のパターンの検出、などである。入力データは、ニューラルネットワーク20に入力するデータである。ニューラルネットワーク20の学習段階では、入力データは、学習データ30である。
導出部12Cは、第1特徴量40Aに基づいて目的とするタスクに応じた出力情報を導出し、導出した出力情報と教示情報との第2の損失関数の値50Bを導出する。なお、第2の損失関数の値50Bは、相関係数を用いて算出された値であってもよい。
また、導出部12Cは、第2特徴量40Bに基づいて第3の損失関数の値50Cを導出する。第3の損失関数の値50Cは、第1の損失関数の値50の一例である。導出部12Cは、第2特徴量40Bにおけるチャネル間の相関を表す第1の損失関数の値50を、第3の損失関数の値50Cとして導出する。
学習部12Dは、第2の損失関数の値50Bおよび第3の損失関数の値50Cを低減させるように、ニューラルネットワーク20を学習する。
詳細には、学習部12Dは、第2の損失関数の値50Bをニューラルネットワーク20に逆伝搬させ、勾配降下法によりニューラルネットワーク20のモデル内のパラメータを更新することで学習を行う。この学習により、学習部12Dは、目的とするタスクに対する性能が向上するようにニューラルネットワーク20を学習させる。
この際、学習部12Dは、更にニューラルネットワーク20の中間出力あるいは最終出力を分類器やデコーダ等の他のニューラルネットワークに入力することで得られる出力を、目的とするタスクに関する第2の損失関数の値50Bの算出に用いてもよい。そして、学習部12Dは、これらの他のニューラルネットワークの学習と同時に、ニューラルネットワーク20の学習を行ってもよい。
また、学習部12Dは、第1の損失関数の値50の一例である第3の損失関数の値50Cをニューラルネットワーク20に逆伝搬させ、勾配降下法によりニューラルネットワーク20のモデル内のパラメータを更新することで学習を行う。これらの処理により、学習部12Dは、教師無し学習データセット34が入力されたとき得られる第2特徴量40Bの表現能力が向上し、目的とするタスクにおける性能が向上するように、ニューラルネットワーク20を学習させることができる。
なお、第2特徴量40Bから導出される第3の損失関数の値50Cに用いられる損失関数は、チャネル間の相関の高さを表す損失関数のみではなく、同時に他の種類の損失関数を含んだものであってもよい。この場合、学習部12Dは、これらの複数種類の損失関数を第3の損失関数の値50Cに用いて、ニューラルネットワーク20を学習すればよい。複数種類の損失関数を第3の損失関数の値50Cに用いてニューラルネットワーク20に逆伝搬させる際には、学習部12Dは、各々の種類の損失関数を個別に逆伝搬させればよい。あるいは、学習部12Dは、第3の損失関数の値50Cに用いる複数種類の損失関数を重み付け和により統合した上で、ニューラルネットワーク20に逆伝搬させてもよい。
学習部12Dが、第2の損失関数の値50Bおよび第3の損失関数の値50Cを低減させるようにニューラルネットワーク20を繰り返し学習することで、ニューラルネットワーク20に目的とするタスクの学習をさせることができる。また、学習部12Dは、該タスクを教師無し学習データセット34に対して適用した場合のニューラルネットワーク20の性能を向上させることができる。
なお、図3Aには、導出部12Cが、第1特徴量40Aに基づいて、教師有り学習データセット32をニューラルネットワーク20へ入力することによってニューラルネットワーク20から得られる出力情報が、教師有り学習データセット32に付与された教示情報から求められる理想とする出力の状態からどれだけ遠いかを表す値である第2の損失関数の値50Bを導出する例を示した。しかし、導出部12Cは、第1特徴量40Aに基づいて、第1特徴量40Aのチャネル間の相関を表す第1の損失関数の値50である第4の損失関数の値を導出してもよい。そして、学習部12Dは、第2の損失関数の値50Bに加えて第4の損失関数の値50Dを用い、第4の損失関数の値50Dおよび第3の損失関数の値50Cを低減させるようにニューラルネットワーク20を学習してもよい。
図3Bは、ニューラルネットワーク20の学習処理の一例の説明図である。図3Bには、第2の損失関数の値50B、第4の損失関数の値50D、及び第3の損失関数の値50Cをニューラルネットワーク20の学習に用いる形態を示す。
図3Aと同様に、入力部12Aは、複数の学習データ30として、教師有り学習データセット32および教師無し学習データセット34をニューラルネットワーク20へ入力する。なお、入力部12Aは、上記と同様に、2以上の教師有り学習データセット32および2以上の教師無し学習データセット34を学習データ30として用いてもよい。
取得部12Bは、特徴量40として、ニューラルネットワーク20から第1特徴量40Aおよび第2特徴量40Bを取得する。取得部12Bは、教師有り学習データセット32をニューラルネットワーク20へ入力することで、該ニューラルネットワーク20から第1特徴量40Aを取得する。また、取得部12Bは、教師無し学習データセット34をニューラルネットワーク20へ入力することで、該ニューラルネットワーク20から第2特徴量40Bを取得する。
導出部12Cは、第1特徴量40Aから第2の損失関数の値50B、及び第4の損失関数の値50Dを導出し、第2特徴量40Bから第3の損失関数の値50Cを導出する。第4の損失関数の値50Dは、第1の損失関数の値50の一例である。導出部12Cは、第1特徴量40Aにおけるチャネル間の相関を表す第1の損失関数の値50を、第4の損失関数の値50Dとして導出すればよい。
この場合、学習部12Dは、第2の損失関数の値50B、第4の損失関数の値50D、及び第3の損失関数の値50Cを低減させるように、ニューラルネットワーク20を学習する。詳細には、学習部12Dは、第2の損失関数の値50B、第1の損失関数の値50の一例である第4の損失関数の値50D、及び第3の損失関数の値50Cの各々をニューラルネットワーク20に逆伝搬させ、勾配降下法によりニューラルネットワーク20のモデル内のパラメータを更新することで学習を行う。この学習により、学習部12Dは、第1特徴量40Aおよび第2特徴量40Bの各々の表現能力が向上し、且つ、目的とするタスクにおける性能が向上するようにニューラルネットワーク20を学習することができる。
すなわち、学習部12Dが第2の損失関数の値50B、第4の損失関数の値50D、及び第3の損失関数の値50Cを低減させるようにニューラルネットワーク20を繰り返し学習することで、ニューラルネットワーク20に目的とするタスクの学習をさせつつ、且つ、該タスクを教師無し学習データセット34に対して適用した場合のニューラルネットワーク20の性能を向上させることができる。
なお、処理部12は、教師無し学習データセット34を用いず、教師有り学習データセット32のみを用いてニューラルネットワーク20を学習してもよい。
図3Cは、ニューラルネットワーク20の学習処理の一例の説明図である。図3Cには、学習データ30として教師有り学習データセット32のみを用いる形態を示す。
この場合、入力部12Aは、複数の学習データ30として、教師有り学習データセット32をニューラルネットワーク20へ入力する。なお、入力部12Aは、2以上の教師有り学習データセット32を学習データ30として用いてもよい。
取得部12Bは、特徴量40として、ニューラルネットワーク20から第1特徴量40Aを取得する。取得部12Bは、教師有り学習データセット32をニューラルネットワーク20へ入力することで、該ニューラルネットワーク20から第1特徴量40Aを取得する。
導出部12Cは、第1特徴量40Aから第2の損失関数の値50Bおよび第4の損失関数の値50Dを導出する。上述したように、第2の損失関数の値50Bは、教師有り学習データセット32をニューラルネットワーク20へ入力することによってニューラルネットワーク20から得られる出力情報が、教師有り学習データセット32に付与された教示情報から求められる理想とする出力の状態からどれだけ遠いかを表す値である。第4の損失関数の値50Dは、上述したように、第1特徴量40Aにおけるチャネル間の相関を表す第1の損失関数の値50である。
この場合、学習部12Dは、第2の損失関数の値50Bおよび第4の損失関数の値50Dを低減させるように、ニューラルネットワーク20を学習する。
詳細には、学習部12Dは、第2の損失関数の値50Bをニューラルネットワーク20に逆伝搬させ、勾配降下法によりニューラルネットワーク20のモデル内のパラメータを更新することで学習を行う。この学習により、学習部12Dは、目的とするタスクに対する性能が向上するようにニューラルネットワーク20を学習させる。この際、学習部12Dは、更にニューラルネットワーク20の中間出力あるいは最終出力を分類器やデコーダ等の他のニューラルネットワークに入力することで得られる出力を、目的とするタスクに関する第2の損失関数の値50Bの算出に用いてもよい。そして、学習部12Dは、これらの他のニューラルネットワークの学習と同時に、ニューラルネットワーク20の学習を行ってもよい。
また、学習部12Dは、第4の損失関数の値50Dをニューラルネットワーク20に逆伝搬させ、勾配降下法によりニューラルネットワーク20のモデル内のパラメータを更新することで学習を行う。この学習により、学習部12Dは、ニューラルネットワーク20から出力される特徴量40の表現能力が向上し、目的とするタスクに対する性能が向上するように、ニューラルネットワーク20を学習させることができる。
すなわち、学習部12Dが、第2の損失関数の値50Bおよび第4の損失関数の値50Dを低減させるようにニューラルネットワーク20を繰り返し学習することで、ニューラルネットワーク20の目的とするタスクの性能を向上させることができる。
なお、学習部12Dは、複数の損失関数である第2の損失関数の値50Bおよび第4の損失関数の値50Dを逆伝搬させるときに、各々の損失関数を個別に逆伝搬させてもよいし、複数の損失関数を重み付け和により統合して逆伝搬させてもよい。
図1に戻り説明を続ける。受付部12Eは、ユーザによる操作入力部18の操作指示を受付ける。本実施形態では、受付部12Eは、学習条件の入力を受付ける。学習条件は、学習対象のニューラルネットワーク20のネットワーク構造、学習に用いる学習データ30、および学習時に用いる設定内容、の少なくとも1つを含む。
例えば、ユーザは、表示部16に表示された表示画面を視認しながら操作入力部18を操作することで、学習条件を入力する。
図4は、表示画面60の一例の模式図である。例えば、表示画面60は、ネットワーク構造の選択領域60A、教師有り学習データセット32の選択領域60B、教師無し学習データセット34の選択領域60C、パラメータの入力領域60D、学習状況表示領域60E、終了ボタン60F、および保存ボタン60G、などを含む。
ネットワーク構造の選択領域60Aは、学習対象のニューラルネットワーク20のネットワーク構造の選択領域である。ユーザは、ネットワーク構造の選択領域60Aに表示されたネットワーク構造の一覧の中から所望のネットワーク構造を選択する。この選択処理により、ユーザは、学習対象のニューラルネットワーク20のネットワーク構造を入力する。
教師有り学習データセット32の選択領域60Bは、学習に用いる教師有り学習データセット32の選択領域である。ユーザは、教師有り学習データセット32の選択領域60Bに表示された教師有り学習データセット32の一覧の中から所望の教師有り学習データセット32を選択する。この選択処理により、ユーザは、学習に用いる教師有り学習データセット32を入力する。
教師無し学習データセット34の選択領域60Cは、学習に用いる教師無し学習データセット34の選択領域である。ユーザは、教師無し学習データセット34の選択領域60Cに表示された教師無し学習データセット34の一覧の中から所望の教師無し学習データセット34を選択する。この選択処理により、ユーザは、学習に用いる教師無し学習データセット34を入力する。
パラメータの入力領域60Dは、ニューラルネットワーク20の学習時に用いる設定内容の入力欄である。例えば、設定内容は、複数の損失関数の統合に用いる重み付け値や、逆伝搬の際に用いるパラメータなどである。ユーザは、パラメータの入力領域60Dに所望のパラメータを入力することで、ニューラルネットワーク20の学習時に用いる設定内容を入力する。
学習状況表示領域60Eは、ニューラルネットワーク20の学習状況の表示欄である。
終了ボタン60Fは、学習終了を指示するための操作ボタンである。保存ボタン60Gは、学習中のニューラルネットワーク20の保存指示を入力するための操作ボタンである。
受付部12Eは、ネットワーク構造の選択領域60A、教師有り学習データセット32の選択領域60B、教師無し学習データセット34の選択領域60C、およびパラメータの入力領域60Dの各々を介して入力された学習条件を受付ける。
受付部12Eが学習条件を受付けた場合、学習部12Dは、受け付けた学習条件に応じてニューラルネットワーク20を学習すればよい。
例えば、学習部12Dは、受け付けた学習条件に含まれる教師有り学習データセット32および教師無し学習データセット34を学習データ30として用いる。また、学習部12Dは、ネットワーク構造の選択領域60Aを介して入力されたネットワーク構造のニューラルネットワーク20を学習対象として用いる。また、学習部12Dは、パラメータの入力領域60Dを介して入力された学習時に用いる設定内容を用いて、ニューラルネットワーク20を学習する。
ユーザが表示画面60を介して学習条件を入力し、学習部12Dが学習条件に応じてニューラルネットワーク20を学習する。このため、専門的な知識を十分に備えていないユーザであっても、容易にニューラルネットワーク20の学習条件を入力することができる。また、学習部12Dは、ユーザの所望の学習条件に応じたニューラルネットワーク20の学習を行うことができる。
表示制御部12Fは、学習部12Dによるニューラルネットワーク20の学習進捗状況、および、学習進捗状況に応じた学習条件の変更推奨内容、の少なくとも一方を表示画面60に表示する。
例えば、表示制御部12Fは、学習部12Dによるニューラルネットワーク20の学習進捗状況を、表示画面60の学習状況表示領域60Eに表示する。ユーザは、学習状況表示領域60Eを視認することで、ニューラルネットワーク20の学習状況を容易に確認することができる。
学習条件の変更推奨内容は、学習条件の推奨する変更内容を表す情報である。例えば、表示制御部12Fが、学習進捗状況に応じて、学習完了の目安となる閾値に損失関数の値が届かないと判別した場面を想定する。この場合、表示制御部12Fは、学習データ30のデータ量の増加を推奨することを表す情報を表示画面60に表示する。また、表示制御部12Fが、学習進捗状況に応じて、学習完了の目安となる閾値に損失関数の値が届かないと判別した場面を想定する。この場合、表示制御部12Fは、ニューラルネットワーク20のパラメータ変更を推奨することを表す情報を、表示画面60に表示する。これらの損失関数の値は、上述した、第1の損失関数の値50、第2の損失関数の値50B、第3の損失関数の値50C、および第4の損失関数の値50Dを意味する。
ユーザは、提示された変更推奨内容に応じて、学習条件を変更すればよい。このため、専門的な知識を十分に備えていないユーザであっても、容易にニューラルネットワーク20の学習条件を変更することができる。
次に、本実施形態の学習装置10で実行する情報処理の流れの一例を説明する。
図5は、本実施形態の学習装置10で実行する情報処理の流れの一例のフローチャートである。図5には、図3Aに示す学習処理の情報処理の流れの一例を示す。
入力部12Aは、複数の学習データ30をニューラルネットワーク20へ入力する(ステップS100)。
取得部12Bは、ニューラルネットワーク20の中間層および最終層の少なくとも一方から出力された、第1特徴量40Aおよび第2特徴量40Bを特徴量40として取得する(ステップ102)。
導出部12Cは、ステップS102で取得した第1特徴量40Aおよび第2特徴量40Bから第1の損失関数の値50を導出する(ステップS104)。例えば、導出部12Cは、第1特徴量40Aから第2の損失関数の値50Bを導出し、第2特徴量40Bから第3の損失関数の値50Cを導出する。
学習部12Dは、ステップS104で導出した第2の損失関数の値50Bおよび第3の損失関数の値50Cを低減させるように、ニューラルネットワーク20を学習する(ステップS106)。
次に、処理部12は、学習を終了するか否かを判断する(ステップS108)。処理部12は、例えば、ステップS104で導出した第2の損失関数の値50Bおよび第3の損失関数の値50Cが学習完了の目安となる閾値以下となったか否かを判別することで、ステップS108の判断を行う。また、処理部12は、ユーザによる操作入力部18の操作指示によって終了ボタン60Fが操作指示されたか否かを判別することで、ステップS108の判断を行ってもよい。
ステップS108で否定判断すると(ステップS108:No)、上記ステップS100へ戻る。ステップS108で肯定判断すると(ステップS108:Yes)、学習したニューラルネットワーク20を記憶部14へ記憶し、本ルーチンを終了する。
以上説明したように、本実施形態の学習方法は、複数の学習データ30を入力されたニューラルネットワーク20の中間層および最終層の少なくとも一方から出力される特徴量40における、チャネル間の相関を表す第1の損失関数の値50を低減させるように、ニューラルネットワーク20を学習する。
学習データ30をニューラルネットワーク20に入力したときに得られる特徴量40のチャネル間の相関が高いほど、これらのチャネルによって表現される情報には重複が多いといえる。このため、特徴量40のチャネル間の相関が高い状態であるほど、相関が低い状態である場合に比べて特徴量40の表現能力が低い状態であるといえる。具体的には、例えば、ニューラルネットワーク20の目的とするタスクが特徴量40を用いたデータ識別である場合、特徴量40のチャネル間の相関の高い状態は好ましくない状態である。
一方、本実施形態の学習装置10で実行される学習方法は、特徴量40におけるチャネル間の第1の損失関数の値50を低減させるようにニューラルネットワーク20を学習する。このため、本実施形態の学習方法は、特徴量40の表現能力を向上させることができる。
すなわち、本実施形態の学習方法は、特徴量40のチャネルの値の分散を低減させることなく、特徴量40のチャネル間の相関を低減させることで、特徴量40の表現能力の向上を図ることができる。
従って、本実施形態の学習方法は、ニューラルネットワーク20の性能向上を図ることができる。
なお、ニューラルネットワーク20に入力する学習データ30には、ニューラルネットワーク20の適用先で用いる入力データと同じドメインのデータを用いる事が好ましい。
学習データ30と適用先で用いる入力データとの間で、データの取得環境やデータの種類などのドメインの違いが存在する場合がある。このような場合、ニューラルネットワーク20を用いた推論の性能が低下する場合がある。一方、学習データ30に適用先で用いる入力データと同じドメインのデータを用いることで、本実施形態の学習方法は、適用先で用いる入力データに対する特徴量40の表現能力を向上させることができる。また、この場合、特徴量40のチャネル間の相関の計算および低減処理において教示情報は不要である。このため、この場合、本実施形態の学習方法は、上記効果に加えて、教師無しの入力データを用いる適用先で利用可能なニューラルネットワーク20を容易に提供することができる。
また、上述したように、第1の損失関数の値50は、相関係数を用いて算出された値であってもよい。
第1の損失関数の値50として相関係数を用いた場合、チャネル間の分散を高めつつ共分散を低下させる学習を行うことが可能であり、特徴量40の表現能力を更に向上させるニューラルネットワーク20の学習を行うことができる。また、相関係数は、元の値の分布に関わらず値域が-1から1の範囲となるため、個別に正規化する必要がない。
また、本実施形態の学習方法は、図3Aおよび図3Bを用いて説明したように、教師有り学習データセット32および教師無し学習データセット34を学習データ30として用いてよい。教師有り学習データセット32および教師無し学習データセット34を学習データ30として用いることで、教師有り学習データセット32および教師無し学習データセット34の双方に対する表現能力を向上させるニューラルネットワーク20の学習を行うことができる。このため、本実施形態の学習方法は、上記効果に加えて、ニューラルネットワーク20の汎用的な性能向上を図ることが出来る。
また、上述したように、学習データ30として、複数の教師有り学習データセット32および複数の教師無し学習データセット34を用いてもよい。複数の教師有り学習データセット32および複数の教師無し学習データセット34を用いることで、上記効果に加えて、ニューラルネットワーク20の更なる性能向上を図ることができる。
次に、本実施形態の学習装置10のハードウェア構成の一例を説明する。
図6は、本実施形態の学習装置10の一例のハードウェア構成図である。
本実施形態の学習装置10は、CPU(Central Processing Unit)81、ROM(Read Only Memory)82、RAM(Random Access Memory)83、および通信I/F84等がバス85により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
CPU81は、本実施形態の学習装置10を制御する演算装置である。ROM82は、CPU81による各種処理を実現するプログラム等を記憶する。ここではCPUを用いて説明しているが、学習装置10を制御する演算装置として、GPU(Graphics Processing Unit)を用いてもよい。RAM83は、CPU81による各種処理に必要なデータを記憶する。通信I/F84は、表示部16および操作入力部18などに接続し、データを送受信するためのインターフェースである。
本実施形態の学習装置10では、CPU81が、ROM82からプログラムをRAM83上に読み出して実行することにより、上記各機能がコンピュータ上で実現される。
なお、本実施形態の学習装置10で実行される上記各処理を実行するためのプログラムは、HDD(ハードディスクドライブ)に記憶されていてもよい。また、本実施形態の学習装置10で実行される上記各処理を実行するためのプログラムは、ROM82に予め組み込まれて提供されていてもよい。
また、本実施形態の学習装置10で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disc)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、本実施形態の学習装置10で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、本実施形態の学習装置10で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施形態を説明したが、本実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 学習装置
12A 入力部
12B 取得部
12C 導出部
12D 学習部
12E 受付部
12F 表示制御部

Claims (11)

  1. コンピュータが実行する学習方法であって、
    複数の学習データからなる学習データ群を入力されたニューラルネットワークの中間層および最終層の少なくとも一方から出力される特徴量における、チャネル間の相関である第1の損失関数の値を低減させるように、前記ニューラルネットワークを学習する学習ステップ、
    を含
    前記特徴量は、
    複数の前記学習データの各々に対する、複数の前記チャネルの各々のチャネル値によって表され、
    前記チャネル間の相関は、
    前記特徴量に含まれる、互いに異なる前記チャネルに対する前記学習データ群の前記チャネル値の群間の相関を表す値である、
    学習方法。
  2. 前記チャネル値の群間の相関は、
    前記チャネル値の群間の相関係数によって表される、
    請求項1に記載の学習方法。
  3. 複数の前記学習データとして、教示情報を付与された複数の教師有り学習データである教師有り学習データセットと、前記教示情報が付与されていない複数の教師無し学習データである教師無し学習データセットと、を前記ニューラルネットワークに入力する入力ステップと、
    前記教師有り学習データセットを入力することによって前記ニューラルネットワークから出力される前記特徴量である第1特徴量と、前記教師無し学習データセットを入力することによって前記ニューラルネットワークから出力される前記特徴量である第2特徴量と、を取得する取得ステップと、
    前記第1特徴量に基づいて導出される、前記教師有り学習データセットに付与された前記教示情報と前記教師有り学習データセットを入力することによって前記ニューラルネットワークから得られる前記教示情報に対応する出力情報との相関を表す第2の損失関数の値、および、前記第2特徴量におけるチャネル間の相関表す前記第1の損失関数の値である第3の損失関数の値を導出する相関導出ステップと、
    を含み、
    前記学習ステップは、
    前記第2の損失関数の値および前記第3の損失関数の値を低減させるように、前記ニューラルネットワークを学習する、
    請求項1に記載の学習方法。
  4. 複数の前記学習データとして、教示情報を付与された複数の教師有り学習データである教師有り学習データセットと、前記教示情報が付与されていない複数の教師無し学習データである教師無し学習データセットと、を前記ニューラルネットワークに入力する入力ステップと、
    前記教師有り学習データセットを入力することによって前記ニューラルネットワークから出力される前記特徴量である第1特徴量と、前記教師無し学習データセットを入力することによって前記ニューラルネットワークから出力される前記特徴量である第2特徴量と、を取得する取得ステップと、
    前記第1特徴量に基づいて導出される、前記教師有り学習データセットに付与された前記教示情報と前記教師有り学習データセットを入力することによって前記ニューラルネットワークから得られる前記教示情報に対応する出力情報との相関を表す第2の損失関数の値、前記第1特徴量におけるチャネル間の相関を表す前記第1の損失関数の値である第4の損失関数の値、および、前記第2特徴量におけるチャネル間の相関を表す前記第1の損失関数の値である第3の損失関数の値を導出する導出ステップと、
    を含み、
    前記学習ステップは、
    前記第2の損失関数の値、前記第3の損失関数の値、及び前記第4の損失関数の値を低減させるように、前記ニューラルネットワークを学習する、
    請求項1に記載の学習方法。
  5. 複数の前記学習データとして、教示情報を付与された複数の教師有り学習データである教師有り学習データセットを前記ニューラルネットワークに入力する入力ステップと、
    前記教師有り学習データセットを入力することによって前記ニューラルネットワークから出力される前記特徴量である第1特徴量を取得する取得ステップと、
    前記第1特徴量に基づいて導出される、前記教師有り学習データセットに付与された前記教示情報と前記教師有り学習データセットを入力することによって前記ニューラルネットワークから得られる前記教示情報に対応する出力情報との相関を表す第2の損失関数の値、および、前記第1特徴量におけるチャネル間の相関を表す前記第1の損失関数の値である第4の損失関数の値を導出する導出ステップと、
    を含み、
    前記学習ステップは、
    前記第2の損失関数の値および前記第4の損失関数の値を低減させるように、前記ニューラルネットワークを学習する、
    請求項1に記載の学習方法。
  6. 前記第1の損失関数の値の算出に相関係数を用いる、
    請求項1~請求項の何れか1項に記載の学習方法。
  7. 複数の前記学習データは、
    複数の教師有り学習データセットの群、および、複数の教師無し学習データセットの群、の各々を複数含む、
    請求項1~請求項の何れか1項に記載の学習方法。
  8. 学習対象の前記ニューラルネットワークのネットワーク構造、学習に用いる前記学習データ、および学習時に用いる設定内容、の少なくとも1つを含む学習条件の入力を受け付ける受付ステップを含み、
    前記学習ステップは、
    受け付けた前記学習条件に応じて前記ニューラルネットワークを学習する、
    請求項1~請求項の何れか1項に記載の学習方法。
  9. 前記ニューラルネットワークの学習進捗状況、および前記学習進捗状況に応じた前記学習条件の変更推奨内容、の少なくとも一方を含む表示画面を表示する表示ステップと、
    を含む、
    請求項に記載の学習方法。
  10. コンピュータに実行させるための学習プログラムであって、
    複数の学習データからなる学習データ群を入力されたニューラルネットワークの中間層および最終層の少なくとも一方から出力される特徴量における、チャネル間の相関である第1の損失関数の値を低減させるように、前記ニューラルネットワークを学習する学習ステップ、
    含み、
    前記特徴量は、
    複数の前記学習データの各々に対する、複数の前記チャネルの各々のチャネル値によって表され、
    前記チャネル間の相関は、
    前記特徴量に含まれる、互いに異なる前記チャネルに対する前記学習データ群の前記チャネル値の群間の相関を表す値である、
    学習プログラム。
  11. 複数の学習データからなる学習データ群を入力されたニューラルネットワークの中間層および最終層の少なくとも一方から出力される特徴量における、チャネル間の相関である第1の損失関数の値を低減させるように、前記ニューラルネットワークを学習する学習部を備え
    前記特徴量は、
    複数の前記学習データの各々に対する、複数の前記チャネルの各々のチャネル値によって表され、
    前記チャネル間の相関は、
    前記特徴量に含まれる、互いに異なる前記チャネルに対する前記学習データ群の前記チャネル値の群間の相関を表す値である、
    学習装置。
JP2021145941A 2021-09-08 2021-09-08 学習方法、学習プログラム、および学習装置 Active JP7566705B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021145941A JP7566705B2 (ja) 2021-09-08 2021-09-08 学習方法、学習プログラム、および学習装置
US17/651,961 US20230072334A1 (en) 2021-09-08 2022-02-22 Learning method, computer program product, and learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021145941A JP7566705B2 (ja) 2021-09-08 2021-09-08 学習方法、学習プログラム、および学習装置

Publications (2)

Publication Number Publication Date
JP2023039012A JP2023039012A (ja) 2023-03-20
JP7566705B2 true JP7566705B2 (ja) 2024-10-15

Family

ID=85385493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021145941A Active JP7566705B2 (ja) 2021-09-08 2021-09-08 学習方法、学習プログラム、および学習装置

Country Status (2)

Country Link
US (1) US20230072334A1 (ja)
JP (1) JP7566705B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102537207B1 (ko) * 2019-12-30 2023-05-25 포항공과대학교 산학협력단 머신 러닝에 기반한 이미지 처리 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210192758A1 (en) 2018-12-27 2021-06-24 Shanghai Sensetime Intelligent Technology Co., Ltd. Image processing method and apparatus, electronic device, and computer readable storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210192758A1 (en) 2018-12-27 2021-06-24 Shanghai Sensetime Intelligent Technology Co., Ltd. Image processing method and apparatus, electronic device, and computer readable storage medium

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GATYS, Leon A. ほか,A Neural Algorithm of Artistic Style,arXiv[online],2015年09月02日,pp.1-16,[retrieved on 2024.04.25], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1508.06576v2.pdf>
HUANG, Xun ほか,Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization,arXiv[online],2017年07月30日,[retrieved on 2024.04.25], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1703.06868v2.pdf>
MATSUMOTO, Eiichi,画風を変換するアルゴリズム,Blog[online],Preferred Networks Research & Development,2015年09月10日,[retrieved on 2024.04.25], Retrieved from the Internet: <URL: https://tech.preferred.jp/ja/blog/chainer-gogh/>

Also Published As

Publication number Publication date
US20230072334A1 (en) 2023-03-09
JP2023039012A (ja) 2023-03-20

Similar Documents

Publication Publication Date Title
JP6569047B1 (ja) 学習方法、コンピュータプログラム、分類器、及び生成器
JP7135504B2 (ja) 画像識別装置、画像識別方法及びプログラム
AU2019202799B2 (en) A method to automatically predict handle locations for skinningtransformations using deep learning
CN108229267B (zh) 对象属性检测、神经网络训练、区域检测方法和装置
TWI828109B (zh) 用於組織分割之機器學習模型的交互式訓練
EP3598288A1 (en) System and method for generating photorealistic synthetic images based on semantic information
EP3648011B1 (en) Hierarchical clustered reinforcement machine learning
US20200320381A1 (en) Method to explain factors influencing ai predictions with deep neural networks
US20160224892A1 (en) Transfer learning apparatus, transfer learning system, transfer learning method, and recording medium
JP7059695B2 (ja) 学習方法および学習装置
JP6954004B2 (ja) 畳み込みニューラルネットワークモデルの決定装置及び決定方法
JP6722351B2 (ja) 学習装置、画像認識装置、学習方法及びプログラム
CN113327212B (zh) 人脸驱动、模型的训练方法、装置、电子设备及存储介质
WO2020004049A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023044336A (ja) 学習装置、学習方法およびプログラム
JP2021144461A (ja) 学習装置及び推論装置
JPWO2018116921A1 (ja) 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP7566705B2 (ja) 学習方法、学習プログラム、および学習装置
JP2024029832A (ja) 判定プログラム、判定装置、および判定方法
JP7396509B2 (ja) 機械学習プログラム、機械学習方法および推定装置
WO2019123544A1 (ja) データ処理方法およびデータ処理装置
US20200193329A1 (en) Learning method and learning apparatus
JP7700542B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2022151502A (ja) プログラム、情報処理装置、及び方法
JP7427328B2 (ja) 特徴量の評価装置および評価装置方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241002

R150 Certificate of patent or registration of utility model

Ref document number: 7566705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150