JPWO2019102797A1 - ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム - Google Patents
ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム Download PDFInfo
- Publication number
- JPWO2019102797A1 JPWO2019102797A1 JP2019556154A JP2019556154A JPWO2019102797A1 JP WO2019102797 A1 JPWO2019102797 A1 JP WO2019102797A1 JP 2019556154 A JP2019556154 A JP 2019556154A JP 2019556154 A JP2019556154 A JP 2019556154A JP WO2019102797 A1 JPWO2019102797 A1 JP WO2019102797A1
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- correct answer
- learning
- output
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
ニューラルネットワーク10は、入力層10Aと、複数の中間層10Bと、第1の出力層10Cと、第2の出力層10Dと、を含む階層型ニューラルネットワークである。各層は複数の「ノード」を含む。図1においてノードの図示は省略した。ある層に属するノードは、その層よりも出力側の層に属するノードと結合している。各ノードのノード間の結合の各々には、結合の重みが割り当てられる。それぞれの結合の重みは、本発明の実施形態に係るニューラルネットワークの学習方法を使用して決定される。
ニューラルネットワーク10の学習方法の一例を概説する。本発明の第1実施形態に係るニューラルネットワークの学習方法は、次のステップ1からステップ5を含む。
ミニバッチは、予め用意された学習用データ群の部分集合であり、予め用意された学習用データ群の全体の中から選ばれた複数の学習用サンプルにより構成される学習用データ群である。ミニバッチ学習は、ミニバッチに含まれる全ての学習サンプルを用いて各学習サンプルについて出力と正解との誤差を評価し、これらの誤差の評価結果を利用して、ミニバッチ単位によりニューラルネットワークの重みをまとめて更新する手法である。ミニバッチは「第2の学習用データ群」の一例である。
ミニバッチを形成する際の条件の一例として、「1ミニバッチに複数の正解形態を必ず含める」というミニバッチ条件1を満たすようミニバッチを形成する態様があり得る。図3に示した学習用データ群の全体からミニバッチ条件1を満たして形成するミニバッチの例を表1に示す。
ミニバッチを形成する際の他の条件の例として、「ミニバッチ間で複数の正解形態を入れ替える」というミニバッチ条件2を満たすようミニバッチを形成する態様があり得る。図3に示した学習用データ群の全体からミニバッチ条件2を満たして形成するミニバッチの例を表2に示す。
ここでは内視鏡画像から病変領域を認識するための画像認識装置への適応を想定した具体例について説明する。学習用入力画像は、内視鏡で撮影された画像、若しくは、表示装置の画面に表示された内視鏡画像をキャプチャしたキャプチャ画面であってもよい。
図5は、学習装置の機能を示すブロック図である。学習装置100は、信号処理装置102を備える。信号処理装置102は、記憶装置130に記憶されているデータを取得することができる。また、信号処理装置102は、記憶装置130にデータを記憶させることができる。
第1の重み更新量算出部112の機能と第2の重み更新量算出部122の機能は、1つの「重み更新量算出部」として統合されてもよい。例えば、重み更新量算出部は、第1の誤差算出部111にて算出された誤差と、第2の誤差算出部121にて算出された誤差とを組み合わせた誤差に基づき、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各々の重みの更新量を算出してもよい。
重みの更新処理は、ミニバッチ単位で行う形態に限らず、ニューラルネットワーク10に入力する学習用入力画像ごとに、重みの更新処理を実施してもよい。この場合、第1の重み更新量算出部112及び第2の重み更新量算出部122の各々は、ニューラルネットワーク10に入力された学習用入力画像の1枚ごとに、重みの更新量を算出する。また、第1の重み更新処理部114及び第2の重み更新処理部124の各々は、ニューラルネットワーク10に入力された学習用入力画像の1枚ごとに、ニューラルネットワーク10の重みを更新する処理を行う。
本発明に係るニューラルネットワークの学習方法は、ミニバッチ学習に限らず、学習用サンプルの1件ごとに逐次重みを更新するオンライン学習に適用することもできる。オンライン学習を行う場合、図5に示された信号処理装置102におけるミニバッチ形成部104は省略することができる。
第2の正解形態は、矩形領域に限らず、他の多角形領域、円領域、若しくは楕円領域などであってもよい。
図6は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。図6に示すフローチャートは、ミニバッチ学習に適用されてもよいし、学習用サンプルの1件ごとに逐次重みを更新するオンライン学習に適用されてもよい。
図7は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。図7に示したフローチャートについて、図6に示したフローチャートと同一又は類似するステップには同一のステップ番号を付し、その説明は省略する。図6との相違点を説明する。
図8は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。ステップS50において、学習装置は、第1の学習用データ群から第2の学習用データ群を選び出す。ステップS50は、図7で説明したステップS20と同様の処理である。
図9は、図8のステップS58に適用される処理内容の例を示すフローチャートである。図9のステップS101において、学習装置は、第1の学習用入力データをニューラルネットワーク10へ入力する。ここでいう「第1の学習用入力データ」は、図8のステップS52にて選択された学習用サンプルの入力用データとしての学習用入力画像を指す。
図11は、図8のステップS60に適用される処理内容を示すフローチャートである。
図12は、図8のステップS62に適用される処理内容を示すフローチャートである。
第1実施形態から第5実施形態として説明したように、本発明の実施形態に係るニューラルネットワークの学習方法及び学習装置によれば、例えば、次のような利点がある。
図13は、学習済みのニューラルネットワークを用いた画像認識装置の例1を示すブロック図である。画像認識装置200は、学習済みのニューラルネットワーク210を備える。学習済みのニューラルネットワーク210は、既述した本発明の実施形態に係るニューラルネットワークの学習方法を使用して学習されたニューラルネットワーク10である。学習済みのニューラルネットワーク210は「学習済みモデル」の一例である。
図14は、学習済みのニューラルネットワークを用いた画像認識装置の例2を示すブロック図である。画像認識装置201は、学習済みのニューラルネットワーク211を備える。学習済みのニューラルネットワーク211は、既述した本発明の実施形態に係るニューラルネットワークの学習方法を使用して学習されたニューラルネットワーク10の一部である第3のニューラルネットワーク13と第1のニューラルネットワーク11である。学習済みのニューラルネットワーク211は「学習済みモデル」の一例である。
学習用入力データに正解データを関連付けて学習用サンプルを作成するための装置は、学習装置100とは別のコンピュータを用いて構成することができる。また、学習装置100が学習用サンプルを作成する機能を備えていてもよい。
図16から図20は、学習用サンプルを作成する際に表示装置142に表示される画面の例である。
図1では、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13から構成されるニューラルネットワーク10を例示したが、本発明の適用に際して、ニューラルネットワークの構造については様々な形態があり得る。
上述の各実施形態で説明した構成や変形例等で説明した事項は、適宜組み合わせて用いることができ、また、一部の事項を置き換えることもできる。
[1]本発明の実施に際しては、内視鏡画像から病変領域を認識する用途に限らず、様々な応用が可能である。例えば、本発明は、風景の画像を1又は複数の対象物の領域に分類するセグメンテーションを行う場合に用いることができる。
図5で説明したミニバッチ形成部104、学習用サンプル選択部106、ニューラルネットワーク10、第1の出力取得部110、第1の誤差算出部111、第1の重み更新量算出部112、第1の重み更新処理部114、第2の出力取得部120、第2の誤差算出部121、第2の重み更新量算出部122、第2の重み更新処理部124、重み決定部126、並びに、図15で説明した学習用サンプル作成部160、学習用入力データ取得部161、第1の正解特定情報取得部162A、第2の正解特定情報取得部162B、第1の正解データ作成部164A、第2の正解データ作成部164B、及び関連付け処理部166などの各種の制御部並びに処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
図25は、学習装置若しくは画像認識装置、又はこれらの両方の機能を備えた装置として用いることができるコンピュータのハードウェア構成の例を示すブロック図である。コンピュータには、デスクトップ型、ノート型、又はタブレット型など、各種形態のコンピュータが含まれる。また、コンピュータには、サーバコンピュータであってもよいし、マイクロコンピュータであってもよい。
上述の実施形態で説明した学習装置の学習機能、及び、学習済みモデルを用いた画像認識装置の認識機能のうち少なくとも一方の処理機能をコンピュータに実現させるプログラムを光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。またこのような有体物たる非一時的な情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
10A 入力層
10B 中間層
10C 第1の出力層
10D 第2の出力層
11 第1のニューラルネットワーク
12 第2のニューラルネットワーク
12A サブネットワーク
12B サブネットワーク
13 第3のニューラルネットワーク
14 第4のニューラルネットワーク
15 第5のニューラルネットワーク
16 第6のニューラルネットワーク
50 認識対象
61 マスク画像
62 矩形領域
100 学習装置
102 信号処理装置
104 ミニバッチ形成部
106 学習用サンプル選択部
110 第1の出力取得部
111 第1の誤差算出部
112 第1の更新量算出部
114 第1の更新処理部
120 第2の出力取得部
121 第2の誤差算出部
122 第2の更新量算出部
124 第2の更新処理部
126 重み決定部
130 記憶装置
131 学習用入力データ記憶部
132 学習用データ群記憶部
134 ミニバッチ記憶部
140 入力装置
142 表示装置
160 学習用サンプル作成部
161 学習用入力データ取得部
162 正解特定情報取得部
162A 第1の正解特定情報取得部
162B 第2の正解特定情報取得部
164 正解データ作成部
164A 第1の正解データ作成部
164B 第2の正解データ作成部
166 関連付け処理部
200、201 画像認識装置
210 学習済みのニューラルネットワーク
211 学習済みのニューラルネットワーク
242 表示装置
300 ウインドウ
301 画像表示エリア
302 学習用入力データ
303 病変領域
304 第1の正解データ作成ボタン
306 第2の正解データ作成ボタン
308 複数形態の正解データ作成ボタン
310、320、330、340 ウインドウ
313 輪郭
314、334 操作案内表示エリア
316、336 実行ボタン
317、327、337、347 キャンセルボタン
318 戻るボタン
322 第1の正解データ
324 マスク画像
326、346 保存ボタン
333 矩形枠
342 第2の正解データ
344 矩形領域
410、420、430 ニューラルネットワーク
500 コンピュータ
502 メモリ
503 記憶装置
504 入力インターフェース部
505 通信インターフェース部
506 表示制御部
507 周辺機器用インターフェース部
508 バス
510 入力装置
520 表示装置
I 入力画像
L1 第1の正解データ
L2 第2の正解データ
L4 第4の正解データ
L5 第5の正解データ
L6 第6の正解データ
OP1 第1の出力
OP2 第2の出力
OP4 第4の出力
OP5 第5の出力
OP6 第6の出力
S11〜S16 学習処理のステップ
S22〜S40、S22B 学習処理のステップ
S50〜S74 学習処理のステップ
S101〜S107 学習処理のステップ
S111〜S114 学習処理のステップ
S121〜S124 学習処理のステップ
Claims (21)
- ニューラルネットワークの学習方法であって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
学習用データ群から、前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択ステップと、
前記選択した前記学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
前記出力取得ステップにて得られた前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
前記評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する重み更新ステップと、
前記選択ステップ、前記出力取得ステップ、前記評価ステップ、及び前記重み更新ステップを複数回実施した後に、前記第1のニューラルネットワーク、前記第2のニューラルネットワーク及び前記第3のニューラルネットワークの各々の重みを決定する重み決定ステップと、
を含むニューラルネットワークの学習方法。 - 前記複数回実施される前記選択ステップにて選択される複数の前記学習用サンプルの中には、前記第1の正解形態を有した第1の学習用サンプルと、前記第2の正解形態を有した第2の学習用サンプルの両方が含まれる請求項1に記載のニューラルネットワークの学習方法。
- 前記学習用サンプルとして、入力用画像に前記第1の正解形態及び前記第2の正解形態の両方の正解形態が関連付けられたデータが用いられる請求項1に記載のニューラルネットワークの学習方法。
- ニューラルネットワークの学習方法であって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
前記第1の正解形態及び前記第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、前記第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出すステップと、
前記第2の学習用データ群に含まれる学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
前記出力取得ステップにて取得された前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
前記第2の学習用データ群に含まれる学習用サンプルをすべて用いて、前記評価ステップから得られた評価結果に基づいて前記ニューラルネットワークの重みを更新する重み更新ステップと、を含み、
前記重みを更新する学習単位としての前記第2の学習用データ群の中に、前記第1の正解形態及び前記第2の正解形態が含まれているニューラルネットワークの学習方法。 - ニューラルネットワークの学習方法であって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データを前記ニューラルネットワークに入力することにより、少なくとも前記第1の出力を取得する第1の出力取得ステップと、
前記第1の出力取得ステップにて取得された少なくとも前記第1の出力について評価を行う第1の評価ステップと、
前記第1の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第1の更新ステップと、
前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第2の正解形態を有した第2の学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから少なくとも前記第2の出力を取得する第2の出力取得ステップと、
前記第2の出力取得ステップにて得られた少なくとも前記第2の出力について評価を行う第2の評価ステップと、
前記第2の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第2の更新ステップと、
を含み、
前記ニューラルネットワークに入力する前記第1の学習用入力データを変えて、前記第1の出力取得ステップ及び前記第1の評価ステップを少なくとも2回実施し、
かつ、
前記少なくとも2回の前記第1の出力取得ステップ及び前記第1の評価ステップを実施する間に、前記第2の出力取得ステップ及び前記第2の評価ステップを少なくとも1回実施するニューラルネットワークの学習方法。 - 前記ニューラルネットワークは、畳み込み層を含む請求項1から5のいずれか一項に記載のニューラルネットワークの学習方法。
- 前記第1のニューラルネットワーク及び前記第2のニューラルネットワークのうち少なくとも一方は、1×1の畳み込みによる処理を行う畳み込み層を含む請求項6に記載のニューラルネットワークの学習方法。
- 前記ニューラルネットワークは、入力された画像内の少なくとも1つの特定領域を抽出した少なくとも1つのマスク画像を出力する請求項1から7のいずれか一項に記載のニューラルネットワークの学習方法。
- 前記ニューラルネットワークは、入力された画像内の少なくとも1つの矩形領域を出力する請求項1から8のいずれか一項に記載のニューラルネットワークの学習方法。
- 前記第1の正解形態は、少なくとも1枚の画像に対し、画像内の特定領域の各画素と対応するものを含む請求項1から9のいずれか一項に記載のニューラルネットワークの学習方法。
- 前記第2の正解形態は、少なくとも1枚の画像に対し、画像内の矩形領域と対応するものを含む請求項1から10のいずれか一項に記載のニューラルネットワークの学習方法。
- 前記第1のニューラルネットワークから得られる前記第1の出力と前記第2のニューラルネットワークから得られる前記第2の出力のそれぞれの評価を重み付けして行う請求項1から11のいずれか一項に記載のニューラルネットワークの学習方法。
- 請求項1から12のいずれか一項に記載のニューラルネットワークの学習方法を用いて、前記ニューラルネットワークを学習することにより、前記重みが決定された学習済みの前記ニューラルネットワークを含む学習済みモデル。
- ニューラルネットワークの学習装置であって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
学習用データ群から、前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択部と、
前記選択した前記学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得部と、
前記出力取得部にて得られた前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価部と、
前記評価部にて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する重み更新部と、
前記選択部による選択ステップ、前記出力取得部による出力取得ステップ、前記評価部による評価ステップ、及び前記重み更新部による重み更新ステップを複数回実施した後に、前記第1のニューラルネットワーク、前記第2のニューラルネットワーク及び前記第3のニューラルネットワークの各々の重みを決定する重み決定部と、
を備える学習装置。 - ニューラルネットワークの学習装置であって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
前記第1の正解形態及び前記第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、前記第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出す学習用データ群選択部と、
前記第2の学習用データ群に含まれる学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得部と、
前記出力取得部にて取得された前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価部と、
前記第2の学習用データ群に含まれる学習用サンプルをすべて用いて、前記評価部から得られた評価結果に基づいて前記ニューラルネットワークの重みを更新する重み更新部と、を含み、
前記重みを更新する学習単位としての前記第2の学習用データ群の中に、前記第1の正解形態及び前記第2の正解形態が含まれている学習装置。 - ニューラルネットワークの学習装置であって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データを前記ニューラルネットワークに入力することにより、少なくとも前記第1の出力を取得する第1の出力取得部と、
前記第1の出力取得部にて取得された少なくとも前記第1の出力について評価を行う第1の評価部と、
前記第1の評価部にて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第1の更新部と、
前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第2の正解形態を有した第2の学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから少なくとも前記第2の出力を取得する第2の出力取得部と、
前記第2の出力取得部にて得られた少なくとも前記第2の出力について評価を行う第2の評価部と、
前記第2の評価部にて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第2の更新部と、
を含み、
前記ニューラルネットワークに入力する前記第1の学習用入力データを変えて、前記第1の出力取得部による第1の出力取得ステップ及び前記第1の評価部による第1の評価ステップを少なくとも2回実施し、
かつ、
前記少なくとも2回の前記第1の出力取得ステップ及び前記第1の評価ステップを実施する間に、前記第2の出力取得部による第2の出力取得ステップ及び前記第2の評価部による第2の評価ステップを少なくとも1回実施する学習装置。 - 前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを作成する学習用サンプル作成部を備え、
前記学習用サンプル作成部は、
学習用入力データを取得する学習用入力データ取得部と、
前記学習用入力データに対する前記第1の正解形態の正解を特定する第1の正解特定情報を取得する第1の正解特定情報取得部と、
前記第1の正解特定情報を基に、前記学習用入力データに対する前記第1の正解データを作成する第1の正解データ作成部と、
前記学習用入力データに対する前記第2の正解形態の正解を特定する第2の正解特定情報を取得する第2の正解特定情報取得部と、
前記第2の正解特定情報を基に、前記学習用入力データに対する第2の正解データを作成する第2の正解データ作成部と、
前記第1の正解データ作成部によって作成された前記第1の正解データ及び前記第2の正解データ作成部によって作成された前記第2の正解データのうち少なくとも1つの正解データを前記学習用入力データと関連付ける関連付け処理部と、
を含む請求項14から16のいずれか一項に記載の学習装置。 - 前記学習用入力データ取得部を介して取得された前記学習用入力データを表示する表示装置と、
前記学習用入力データに対する前記第1の正解形態の正解を特定する指示、及び前記学習用入力データに対する前記第2の正解形態の正解を特定する指示のうち、少なくとも1つの指示を、ユーザが入力するための入力装置と、
を備え、
前記表示装置は、前記入力装置から入力された指示に従って前記第1の正解データ作成部を用いて作成された前記第1の正解データ、及び前記入力装置から入力された指示に従って前記第2の正解データ作成部を用いて作成された前記第2の正解データのうち、少なくとも1つを表示する請求項17に記載の学習装置。 - コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
前記プログラムは、
学習用データ群から、前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択ステップと、
前記選択した前記学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
前記出力取得ステップにて得られた前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
前記評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する重み更新ステップと、
前記選択ステップ、前記出力取得ステップ、前記評価ステップ、及び前記重み更新ステップを複数回実施した後に、前記第1のニューラルネットワーク、前記第2のニューラルネットワーク及び前記第3のニューラルネットワークの各々の重みを決定する重み決定ステップと、
をコンピュータに実行させるプログラム。 - コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
前記プログラムは、
前記第1の正解形態及び前記第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、前記第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出すステップと、
前記第2の学習用データ群に含まれる学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
前記出力取得ステップにて取得された前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
前記第2の学習用データ群に含まれる学習用サンプルをすべて用いて、前記評価ステップから得られた評価結果に基づいて前記ニューラルネットワークの重みを更新する重み更新ステップと、をコンピュータに実行させるものであり、
前記重みを更新する学習単位としての前記第2の学習用データ群の中に、前記第1の正解形態及び前記第2の正解形態が含まれているプログラム。 - コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、
前記ニューラルネットワークは、
第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
を含むニューラルネットワークであり、
前記プログラムは、
前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データを前記ニューラルネットワークに入力することにより、少なくとも前記第1の出力を取得する第1の出力取得ステップと、
前記第1の出力取得ステップにて取得された少なくとも前記第1の出力について評価を行う第1の評価ステップと、
前記第1の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第1の更新ステップと、
前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第2の正解形態を有した第2の学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから少なくとも前記第2の出力を取得する第2の出力取得ステップと、
前記第2の出力取得ステップにて得られた少なくとも前記第2の出力について評価を行う第2の評価ステップと、
前記第2の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第2の更新ステップと、
をコンピュータに実行させるものであり、
前記ニューラルネットワークに入力する前記第1の学習用入力データを変えて、前記第1の出力取得ステップ及び前記第1の評価ステップを少なくとも2回実施し、
かつ、
前記少なくとも2回の前記第1の出力取得ステップ及び前記第1の評価ステップを実施する間に、前記第2の出力取得ステップ及び前記第2の評価ステップを少なくとも1回実施するプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223474 | 2017-11-21 | ||
JP2017223474 | 2017-11-21 | ||
PCT/JP2018/040070 WO2019102797A1 (ja) | 2017-11-21 | 2018-10-29 | ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019102797A1 true JPWO2019102797A1 (ja) | 2020-11-19 |
JP7008081B2 JP7008081B2 (ja) | 2022-01-25 |
Family
ID=66631588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019556154A Active JP7008081B2 (ja) | 2017-11-21 | 2018-10-29 | ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7008081B2 (ja) |
WO (1) | WO2019102797A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325338B (zh) * | 2020-02-12 | 2023-05-05 | 暗物智能科技(广州)有限公司 | 神经网络结构评价模型构建和神经网络结构搜索方法 |
JP7420607B2 (ja) * | 2020-03-19 | 2024-01-23 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、車両、情報処理サーバ、及びプログラム |
EP3982299A1 (en) * | 2020-10-09 | 2022-04-13 | Naver Corporation | Superloss: a generic loss for robust curriculum learning |
WO2024047770A1 (ja) * | 2022-08-30 | 2024-03-07 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記録媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08214174A (ja) * | 1995-02-01 | 1996-08-20 | Canon Inc | 色処理方法 |
JP2010500081A (ja) * | 2006-08-11 | 2010-01-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 系統的なデータ・スケーリングを遺伝的アルゴリズムに基づく特徴サブセット選択に統合する方法および装置 |
JP2014229124A (ja) * | 2013-05-23 | 2014-12-08 | 独立行政法人情報通信研究機構 | ディープ・ニューラルネットワークの学習方法、ディープ・ニューラルネットワークのサブネットワークのパラメータを記憶した記憶媒体及びコンピュータプログラム |
JP2015019162A (ja) * | 2013-07-09 | 2015-01-29 | 大日本印刷株式会社 | 会議支援システム |
WO2017079529A1 (en) * | 2015-11-04 | 2017-05-11 | Nec Laboratories America, Inc. | Universal correspondence network |
-
2018
- 2018-10-29 WO PCT/JP2018/040070 patent/WO2019102797A1/ja active Application Filing
- 2018-10-29 JP JP2019556154A patent/JP7008081B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08214174A (ja) * | 1995-02-01 | 1996-08-20 | Canon Inc | 色処理方法 |
JP2010500081A (ja) * | 2006-08-11 | 2010-01-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 系統的なデータ・スケーリングを遺伝的アルゴリズムに基づく特徴サブセット選択に統合する方法および装置 |
JP2014229124A (ja) * | 2013-05-23 | 2014-12-08 | 独立行政法人情報通信研究機構 | ディープ・ニューラルネットワークの学習方法、ディープ・ニューラルネットワークのサブネットワークのパラメータを記憶した記憶媒体及びコンピュータプログラム |
JP2015019162A (ja) * | 2013-07-09 | 2015-01-29 | 大日本印刷株式会社 | 会議支援システム |
WO2017079529A1 (en) * | 2015-11-04 | 2017-05-11 | Nec Laboratories America, Inc. | Universal correspondence network |
Also Published As
Publication number | Publication date |
---|---|
WO2019102797A1 (ja) | 2019-05-31 |
JP7008081B2 (ja) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7008081B2 (ja) | ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム | |
CN111899245B (zh) | 图像分割、模型的训练方法及装置,电子设备及存储介质 | |
US10460231B2 (en) | Method and apparatus of neural network based image signal processor | |
US11288550B2 (en) | Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program | |
US10740694B2 (en) | System and method for capture and adaptive data generation for training for machine vision | |
CN110570426B (zh) | 使用深度学习的图像联合配准和分割 | |
CN104937635B (zh) | 基于模型的多假设目标追踪器 | |
CN109215080A (zh) | 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置 | |
JP6887055B2 (ja) | 機械学習方法及び装置、プログラム、学習済みモデル、並びに判別装置 | |
US20180032841A1 (en) | Medical Scanner Teaches Itself To Optimize Clinical Protocols And Image Acquisition | |
US20200250427A1 (en) | Shadow and cloud masking for agriculture applications using convolutional neural networks | |
CN109919971B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN109472752A (zh) | 基于航拍图像的多曝光融合系统 | |
CN113487656B (zh) | 图像配准方法及装置,训练方法及装置,控制方法及装置 | |
WO2020059446A1 (ja) | 学習装置及び学習方法 | |
JP2021039625A (ja) | 物体数推定装置、物体数推定方法、および物体数推定プログラム | |
KR20190109669A (ko) | 인공지능 기반 부품 검색 시스템 | |
CN109993026A (zh) | 亲属识别网络模型的训练方法及装置 | |
CN108089753B (zh) | 一种利用Faster-RCNN对指尖位置进行预测的定位方法 | |
CN111199540A (zh) | 图像质量评价方法、装置、电子设备及存储介质 | |
CN110472600A (zh) | 眼底图识别及其训练方法、装置、设备和存储介质 | |
JP6622150B2 (ja) | 情報処理装置および情報処理方法 | |
JP2021089493A (ja) | 情報処理装置およびその学習方法 | |
WO2024062839A1 (ja) | 識別装置、識別方法、プログラム | |
US20240062857A1 (en) | Systems and methods for visualization of medical records |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7008081 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |