JPWO2019102797A1 - ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム - Google Patents

ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム Download PDF

Info

Publication number
JPWO2019102797A1
JPWO2019102797A1 JP2019556154A JP2019556154A JPWO2019102797A1 JP WO2019102797 A1 JPWO2019102797 A1 JP WO2019102797A1 JP 2019556154 A JP2019556154 A JP 2019556154A JP 2019556154 A JP2019556154 A JP 2019556154A JP WO2019102797 A1 JPWO2019102797 A1 JP WO2019102797A1
Authority
JP
Japan
Prior art keywords
neural network
correct answer
learning
output
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019556154A
Other languages
English (en)
Other versions
JP7008081B2 (ja
Inventor
誠 大関
誠 大関
正明 大酒
正明 大酒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019102797A1 publication Critical patent/JPWO2019102797A1/ja
Application granted granted Critical
Publication of JP7008081B2 publication Critical patent/JP7008081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

認識精度の向上及び機械学習に必要なデータの準備の負担軽減が可能なニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラムを提供する。ニューラルネットワーク10は、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワーク11と、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワーク12と、これら各々への入力要素を出力する第3のニューラルネットワークと、を含む。学習用データ群から、第1の正解形態及び第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択し、選択した学習用サンプルを用いて第1の出力及び第2の出力の少なくとも1つを取得し、その評価結果に基づいて、ニューラルネットワークの重みを更新するステップを複数回実施した後に、各ニューラルネットワーク11、12、13の重みを決定する。

Description

本発明はニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラムに係り、特に、画像認識などに用いるニューラルネットワークの機械学習技術、並びに、コンピュータを用いた情報処理技術に関する。
近年、多層のニューラルネットワークを用いて画像又は音声などを認識する技術の開発が活発に行われている。特許文献1には、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)を用いた画像認識方法が提案されている。特許文献1に記載の画像認識方法は、画像中で一部重なっている複数の認識対象の各々を正しく認識し得る画像認識方法である。認識対象は、例えば人物である。特許文献1によれば、第1畳み込みニューラルネットワークを用いて認識対象の中央領域を認識できるように学習し、学習後の第1畳み込みニューラルネットワークと同一構成の第2畳み込みニューラルネットワークを用いて認識対象の位置の回帰を学習する方法が開示されている。また、特許文献1には、人物領域座標出力ニューラルネットワークの学習と人物中央領域出力ニューラルネットワークの学習の順番は逆でもよい旨の記載がある。
特開2017−59207号公報
ニューラルネットワークを用いて画像認識を行うためには、入力画像データと識別結果との誤差が小さくなるよう、予めニューラルネットワークの「重み」と呼ばれるパラメータを適切に設定する必要がある。適切な重みを設定するために行われる重みの探索及び調整は「学習」と呼ばれる。画像認識の精度を向上させるためには、多様かつ大量の画像データと、それぞれの画像データについての正解データとのペア(組)を用いて学習しなければならない。このことは、画像認識の分野に限らず、音声認識の分野など、様々な対象の認識処理に共通する。
一般的に、ニューラルネットワークを用いて高い認識性能を実現するためには、学習用サンプルとしての多くの正解データを要する。学習用入力データへの「正解」のラベル付与は、人手によって行われるため、作業者の負担が大きく、良質な正解データを大量に取得するためには膨大な費用と時間が必要となる。
本発明はこのような事情に鑑みてなされたもので、認識精度の向上及び機械学習に必要なデータの準備の負担軽減が可能なニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラムを提供することを目的とする。
課題を解決するために、次の発明態様を提供する。
本発明の一の態様は、ニューラルネットワークの学習方法であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、学習用データ群から、第1の正解形態及び第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択ステップと、選択した学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得ステップと、出力取得ステップにて得られた第1の出力及び第2の出力の少なくとも1つについて評価を行う評価ステップと、評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する重み更新ステップと、選択ステップ、出力取得ステップ、評価ステップ、及び重み更新ステップを複数回実施した後に、第1のニューラルネットワーク、第2のニューラルネットワーク及び第3のニューラルネットワークの各々の重みを決定する重み決定ステップと、を含むニューラルネットワークの学習方法である。
本態様によれば、選択ステップ、出力取得ステップ、評価ステップ、及び重み更新ステップを複数回実施することによって、第1の正解形態を含んだ学習用サンプルを用いる学習と、第2の正解形態を含んだ学習用サンプルを用いる学習とが複合的に実施され、第1のニューラルネットワーク、第2のニューラルネットワーク及び第3のニューラルネットワークの各ニューラルネットワークの重みを更新する処理が行われる。第3のニューラルネットワークは、第1のニューラルネットワーク及び第2のニューラルネットワークの各々への入力要素を出力する共通の処理部として機能しており、第2の正解形態を用いた学習による重み更新の効果が第1の正解形態についての認識精度の向上に寄与する。また、第1の正解形態を用いた学習による重み更新の効果が第2の正解形態についての認識精度の向上に寄与する。
本態様によれば、異なる正解形態の学習用サンプルを、相互に両方の形態に対応した認識精度の向上に活用し得るため、学習用サンプルの準備の負担を軽減でき、かつ、認識精度を向上させることができる。
「重み」はニューラルネットワークにおけるパラメータであり、各層の処理に用いるフィルタのフィルタ係数(結合の重み)やノードのバイアスなどを含む。
「認識」という用語は、「識別」及び「判別」のそれぞれの概念を含む。「複合的に実施」とは、並行して実施すること、同時に実施すること、交互に実施すること、並びに、統合して実施することのそれぞれの概念を含む。
複数回実施される選択ステップにて選択される複数の学習用サンプルの中には、第1の正解形態を有した第1の学習用サンプルと、第2の正解形態を有した第2の学習用サンプルの両方が含まれる構成とすることが好ましい。
学習用サンプルとして、入力用画像に第1の正解形態及び第2の正解形態の両方の正解形態が関連付けられたデータが用いられる構成とすることができる。
本発明の他の一の態様は、ニューラルネットワークの学習方法であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、第1の正解形態及び第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出すステップと、第2の学習用データ群に含まれる学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得ステップと、出力取得ステップにて取得された第1の出力及び第2の出力の少なくとも1つについて評価を行う評価ステップと、第2の学習用データ群に含まれる学習用サンプルをすべて用いて、評価ステップから得られた評価結果に基づいてニューラルネットワークの重みを更新する重み更新ステップと、を含み、重みを更新する学習単位としての第2の学習用データ群の中に、第1の正解形態及び第2の正解形態が含まれているニューラルネットワークの学習方法である。
本態様によれば、重みを更新する学習単位の内で、第1の正解形態に対応した学習と、第2の正解形態に対応した学習とが複合的に実施され、複数の正解形態を用いた学習の効果が相互に両形態に対応した認識精度の向上に寄与する。本態様によれば、学習用サンプルの準備の負担を軽減でき、かつ、認識精度を向上させることができる。
本発明の他の一の態様は、ニューラルネットワークの学習方法であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、第1の正解形態及び第2の正解形態のうち少なくとも第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データをニューラルネットワークに入力することにより、少なくとも第1の出力を取得する第1の出力取得ステップと、第1の出力取得ステップにて取得された少なくとも第1の出力について評価を行う第1の評価ステップと、第1の評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第1の更新ステップと、第1の正解形態及び第2の正解形態のうち少なくとも第2の正解形態を有した第2の学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから少なくとも第2の出力を取得する第2の出力取得ステップと、第2の出力取得ステップにて得られた少なくとも第2の出力について評価を行う第2の評価ステップと、第2の評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第2の更新ステップと、を含み、ニューラルネットワークに入力する第1の学習用入力データを変えて、第1の出力取得ステップ及び第1の評価ステップを少なくとも2回実施し、かつ、少なくとも2回の第1の出力取得ステップ及び第1の評価ステップを実施する間に、第2の出力取得ステップ及び第2の評価ステップを少なくとも1回実施するニューラルネットワークの学習方法である。
本態様によれば、第1の正解形態に対応した学習と、第2の正解形態に対応した学習とが複合的に実施され、複数の正解形態を用いた学習の効果が相互に両形態の認識精度の向上に寄与する。本態様によれば、認識精度を向上させることができ、かつ、学習用サンプルの準備の負担を軽減できる。
上述した各態様におけるニューラルネットワークは、畳み込み層を含む構成とすることができる。
第1のニューラルネットワーク及び第2のニューラルネットワークのうち少なくとも一方は、1×1の畳み込みによる処理を行う畳み込み層を含む構成とすることができる。
「1×1の畳み込み」は、複数の特徴量のチャネルごとの特徴マップをチャネル方向に畳み込み、複数の特徴量をまとめる処理である。
ニューラルネットワークは、入力された画像内の少なくとも1つの特定領域を抽出した少なくとも1つのマスク画像を出力する構成とすることができる。
ニューラルネットワークは、入力された画像内の少なくとも1つの矩形領域を出力する構成とすることができる。
第1の正解形態は、少なくとも1枚の画像に対し、画像内の特定領域の各画素と対応するものを含む構成とすることができる。
第2の正解形態は、少なくとも1枚の画像に対し、画像内の矩形領域と対応するものを含む構成とすることができる。
上述した各態様に係るニューラルネットワークの学習方法において、第1のニューラルネットワークから得られる第1の出力と第2のニューラルネットワークから得られる第2の出力のそれぞれの評価を重み付けして行う構成とすることができる。
本発明の他の一の態様に係る学習済みモデルは、上述した各態様のうちいずれか一態様のニューラルネットワークの学習方法を用いて、ニューラルネットワークを学習することにより、重みが決定された学習済みのニューラルネットワークを含む学習済みモデルである。
本態様に係る学習済みモデルを用いることにより、認識精度の高い認識処理が可能である。
学習済みモデルは、プログラムに準ずるものである。また、学習済みモデルを用いた信号処理装置は、画像処理装置、認識装置、識別装置、或いは、判別装置などの用語の概念を含む。
本発明の他の一の態様は、ニューラルネットワークの学習装置であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、学習用データ群から、第1の正解形態及び第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択部と、選択した学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得部と、出力取得部にて得られた第1の出力及び第2の出力の少なくとも1つについて評価を行う評価部と、評価部にて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する重み更新部と、選択部による選択ステップ、出力取得部による出力取得ステップ、評価部による評価ステップ、及び重み更新部による重み更新ステップを複数回実施した後に、第1のニューラルネットワーク、第2のニューラルネットワーク及び第3のニューラルネットワークの各々の重みを決定する重み決定部と、を備える学習装置である。
本発明の他の一の態様は、ニューラルネットワークの学習装置であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、第1の正解形態及び第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出す学習用データ群選択部と、第2の学習用データ群に含まれる学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得部と、出力取得部にて取得された第1の出力及び第2の出力の少なくとも1つについて評価を行う評価部と、第2の学習用データ群に含まれる学習用サンプルをすべて用いて、評価部から得られた評価結果に基づいてニューラルネットワークの重みを更新する重み更新部と、を含み、重みを更新する学習単位としての第2の学習用データ群の中に、第1の正解形態及び第2の正解形態が含まれている学習装置である。
本発明の他の一の態様は、ニューラルネットワークの学習装置であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、第1の正解形態及び第2の正解形態のうち少なくとも第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データをニューラルネットワークに入力することにより、少なくとも第1の出力を取得する第1の出力取得部と、第1の出力取得部にて取得された少なくとも第1の出力について評価を行う第1の評価部と、第1の評価部にて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第1の更新部と、第1の正解形態及び第2の正解形態のうち少なくとも第2の正解形態を有した第2の学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから少なくとも第2の出力を取得する第2の出力取得部と、第2の出力取得部にて得られた少なくとも第2の出力について評価を行う第2の評価部と、第2の評価部にて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第2の更新部と、を含み、ニューラルネットワークに入力する第1の学習用入力データを変えて、第1の出力取得部による第1の出力取得ステップ及び第1の評価部による第1の評価ステップを少なくとも2回実施し、かつ、少なくとも2回の第1の出力取得ステップ及び第1の評価ステップを実施する間に、第2の出力取得部による第2の出力取得ステップ及び第2の評価部による第2の評価ステップを少なくとも1回実施する学習装置である。
本発明の他の一の態様は、上述した各態様の学習装置において、第1の正解形態及び第2の正解形態のうち少なくとも1つを有した学習用サンプルを作成する学習用サンプル作成部を備え、学習用サンプル作成部は、学習用入力データを取得する学習用入力データ取得部と、学習用入力データに対する第1の正解形態の正解を特定する第1の正解特定情報を取得する第1の正解特定情報取得部と、第1の正解特定情報を基に、学習用入力データに対する第1の正解データを作成する第1の正解データ作成部と、学習用入力データに対する第2の正解形態の正解を特定する第2の正解特定情報を取得する第2の正解特定情報取得部と、第2の正解特定情報を基に、学習用入力データに対する第2の正解データを作成する第2の正解データ作成部と、第1の正解データ作成部によって作成された第1の正解データ及び第2の正解データ作成部によって作成された第2の正解データのうち少なくとも1つの正解データを学習用入力データと関連付ける関連付け処理部と、を含む構成とすることができる。
本発明の他の一の態様に係る学習装置は、学習用入力データ取得部を介して取得された学習用入力データを表示する表示装置と、学習用入力データに対する第1の正解形態の正解を特定する指示、及び学習用入力データに対する第2の正解形態の正解を特定する指示のうち、少なくとも1つの指示を、ユーザが入力するための入力装置と、を備え、表示装置は、入力装置から入力された指示に従って第1の正解データ作成部を用いて作成された第1の正解データ、及び入力装置から入力された指示に従って第2の正解データ作成部を用いて作成された第2の正解データのうち、少なくとも1つを表示する構成とすることができる。
本発明の他の一の態様は、コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、プログラムは、学習用データ群から、第1の正解形態及び第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択ステップと、選択した学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得ステップと、出力取得ステップにて得られた第1の出力及び第2の出力の少なくとも1つについて評価を行う評価ステップと、評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する重み更新ステップと、選択ステップ、出力取得ステップ、評価ステップ、及び重み更新ステップを複数回実施した後に、第1のニューラルネットワーク、第2のニューラルネットワーク及び第3のニューラルネットワークの各々の重みを決定する重み決定ステップと、をコンピュータに実行させるプログラムである。
本発明の他の一の態様は、コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、プログラムは、第1の正解形態及び第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出すステップと、第2の学習用データ群に含まれる学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得ステップと、出力取得ステップにて取得された第1の出力及び第2の出力の少なくとも1つについて評価を行う評価ステップと、第2の学習用データ群に含まれる学習用サンプルをすべて用いて、評価ステップから得られた評価結果に基づいてニューラルネットワークの重みを更新する重み更新ステップと、をコンピュータに実行させるものであり、重みを更新する学習単位としての第2の学習用データ群の中に、第1の正解形態及び第2の正解形態が含まれているプログラムである。
本発明の他の一の態様は、コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、プログラムは、第1の正解形態及び第2の正解形態のうち少なくとも第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データをニューラルネットワークに入力することにより、少なくとも第1の出力を取得する第1の出力取得ステップと、第1の出力取得ステップにて取得された少なくとも第1の出力について評価を行う第1の評価ステップと、第1の評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第1の更新ステップと、第1の正解形態及び第2の正解形態のうち少なくとも第2の正解形態を有した第2の学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから少なくとも第2の出力を取得する第2の出力取得ステップと、第2の出力取得ステップにて得られた少なくとも第2の出力について評価を行う第2の評価ステップと、第2の評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第2の更新ステップと、をコンピュータに実行させるものであり、ニューラルネットワークに入力する第1の学習用入力データを変えて、第1の出力取得ステップ及び第1の評価ステップを少なくとも2回実施し、かつ、少なくとも2回の第1の出力取得ステップ及び第1の評価ステップを実施する間に、第2の出力取得ステップ及び第2の評価ステップを少なくとも1回実施するプログラムである。
本発明の他の一の態様は、ニューラルネットワークの学習装置であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、学習装置は、プロセッサを含み、プロセッサは、学習用データ群から、第1の正解形態及び第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択ステップと、選択した学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得ステップと、出力取得部にて得られた第1の出力及び第2の出力の少なくとも1つについて評価を行う評価ステップと、評価部にて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する重み更新ステップと、選択ステップ、出力取得ステップ、評価ステップ、及び重み更新ステップを複数回実施した後に、第1のニューラルネットワーク、第2のニューラルネットワーク及び第3のニューラルネットワークの各々の重みを決定する重み決定ステップと、の各ステップの処理を行う学習装置である。
本発明の他の一の態様は、ニューラルネットワークの学習装置であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、学習装置は、プロセッサを含み、プロセッサは、第1の正解形態及び第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出す学習用データ群選択ステップと、第2の学習用データ群に含まれる学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから第1の出力及び第2の出力の少なくとも1つを取得する出力取得ステップと、出力取得ステップにて取得された第1の出力及び第2の出力の少なくとも1つについて評価を行う評価ステップと、第2の学習用データ群に含まれる学習用サンプルをすべて用いて、評価ステップから得られた評価結果に基づいてニューラルネットワークの重みを更新する重み更新ステップと、を含む各ステップの処理を行うものであり、重みを更新する学習単位としての第2の学習用データ群の中に、第1の正解形態及び第2の正解形態が含まれている学習装置である。
本発明の他の一の態様は、ニューラルネットワークの学習装置であって、ニューラルネットワークは、第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、第1のニューラルネットワーク及び第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、を含むニューラルネットワークであり、学習装置は、プロセッサを含み、プロセッサは、第1の正解形態及び第2の正解形態のうち少なくとも第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データをニューラルネットワークに入力することにより、少なくとも第1の出力を取得する第1の出力取得ステップと、第1の出力取得ステップにて取得された少なくとも第1の出力について評価を行う第1の評価ステップと、第1の評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第1の更新ステップと、第1の正解形態及び第2の正解形態のうち少なくとも第2の正解形態を有した第2の学習用サンプルをニューラルネットワークへの入力に用いることにより、ニューラルネットワークから少なくとも第2の出力を取得する第2の出力取得ステップと、第2の出力取得ステップにて得られた少なくとも第2の出力について評価を行う第2の評価ステップと、第2の評価ステップにて得られる評価結果に基づいて、ニューラルネットワークの重みを更新する第2の更新ステップと、を含む各ステップの処理を行うものであり、ニューラルネットワークに入力する第1の学習用入力データを変えて、第1の出力取得ステップ及び第1の評価ステップを少なくとも2回実施し、かつ、少なくとも2回の第1の出力取得ステップ及び第1の評価ステップを実施する間に、第2の出力取得ステップ及び第2の評価ステップを少なくとも1回実施する学習装置である。
本発明によれば、認識精度の向上、及び、機械学習に必要なデータ準備の負担軽減が可能である。
図1は、本発明の実施形態に係るニューラルネットワークの学習方法の概要を模式的に示した説明図である。 図2は、入力画像に対応した2種類の正解形態の簡単な例である。 図3は、学習用データ群の例を示す図表である。 図4は、ニューラルネットワークの学習方法の例を示すフローチャートである。 図5は、学習装置の機能を示すブロック図である。 図6は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。 図7は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。 図8は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。 図9は、図8のステップS58に適用される処理内容を示すフローチャートである。 図10は、図8のステップS58に適用される他の処理内容を示すフローチャートである。 図11は、図8のステップS60に適用される処理内容を示すフローチャートである。 図12は、図8のステップS62に適用される処理内容を示すフローチャートである。 図13は、学習済みのニューラルネットワークを用いた画像認識装置の例1を示すブロック図である。 図14は、学習済みモデルを用いた画像認識装置の例2を示すブロック図である。 図15は、学習装置に搭載される学習用サンプルの作成機能に関するブロック図である。 図16は、学習用サンプルの作成を開始する際に表示される操作画面の一例を示す図である。 図17は、第1の正解データを作成する際に表示される操作画面の一例を示す図である 図18は、正解データの確認画面の一例を示す図である。 図19は、第2の正解データを作成する際に表示される操作画面の一例を示す図である。 図20は、正解データの確認画面の一例を示す図である。 図21は、学習用サンプル作成機能によって作成された学習サンプルの一例を示す概念図である。 図22は、ニューラルネットワークの他の形態例1を示す概念図である。 図23は、ニューラルネットワークの他の形態例2を示す概念図である。 図24は、ニューラルネットワークの他の形態例3を示す概念図である。 図25は、コンピュータのハードウェア構成の例を示すブロック図である。
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
図1は、本発明の実施形態に係るニューラルネットワークの学習方法の概要を模式的に示した説明図である。ここでは、画像認識に用いる階層型ニューラルネットワークである畳み込みニューラルネットワークを例示する。ニューラルネットワークとは、脳神経系の仕組みを模擬した情報処理の数理モデルである。ニューラルネットワークを用いた処理は、コンピュータを用いて実現することができる。
《ニューラルネットワークの構造例》
ニューラルネットワーク10は、入力層10Aと、複数の中間層10Bと、第1の出力層10Cと、第2の出力層10Dと、を含む階層型ニューラルネットワークである。各層は複数の「ノード」を含む。図1においてノードの図示は省略した。ある層に属するノードは、その層よりも出力側の層に属するノードと結合している。各ノードのノード間の結合の各々には、結合の重みが割り当てられる。それぞれの結合の重みは、本発明の実施形態に係るニューラルネットワークの学習方法を使用して決定される。
ニューラルネットワーク10の入力から出力に向けたデータの流れの方向に沿って、入力側を「前」、出力側を「後ろ」と表現する。なお、図1において実線の矢印はデータの流れを示す。図1において破線の矢印は学習に基づく重みの更新処理を含むフィードバックの流れを示す。
本例のニューラルネットワーク10は、複数の中間層10Bの一部に畳み込み層とプーリング層の組み合わせを含む畳み込みニューラルネットワークである。図1では、ニューラルネットワーク10の層構造を簡略化して示しているが、ニューラルネットワーク10を構成する中間層10Bの層数、及び各層の処理内容、並びに各層の配列順序は、特に制限されず、様々な組み合わせからなる層構造が採用され得る。
畳み込み層は、前の層において局所領域内にあるノードにフィルタを適用した畳み込み演算を行い、特徴マップを取得する。畳み込み層は、フィルタが表す特徴的な濃淡構造を画像から抽出する特徴抽出の役割を担う。
プーリング層は、畳み込み層から出力された特徴マップの局所領域を代表値により集約するプーリング処理を行う。プーリング層は、畳み込み層から出力された特徴マップを縮小して解像度を低下させた新たな特徴マップを生成する。プーリング層は、畳み込み層によって抽出された対象特徴量が位置変動に対して影響を受けないようにロバスト性を与える(位置変動に対する感度を低下させる)役割を担う。
ニューラルネットワーク10は、畳み込み層及びプーリング層の他に、正規化層及び全結合層のうち少なくとも1種の層を1層以上含んでもよい。また、中間層10Bの各層は、必要に応じて活性化関数を含んでよい。
正規化層は、画像の濃淡を正規化する処理を行う。例えば、正規化層は、畳み込み層の出力及びプーリング層の出力の少なくとも一方の出力に対して局所コントラスト正規化の処理を行う。
全結合層は、隣接層間のノードの全てを結合した層である。全結合層は、出力層付近に配置され得る。例えば、全結合層は、畳み込み層とプーリング層を経て特徴が抽出された特徴マップを1つのノードに結合し、活性化関数を用いて特徴変数を出力する。一般に、畳み込みニューラルネットワークでは、最後のプーリング層から出力層の間に、全結合層が1層以上配置される。
第1の出力層10C及び第2の出力層10Dの各々は、例えば、全結合層からの出力を基に、ソフトマックス関数などを用いて、クラス分類を行う。
本例のニューラルネットワーク10は、中間層10Bの出力を第1のニューラルネットワーク11と第2のニューラルネットワーク12の各々に入力する構造を有しており、ニューラルネットワーク10に対する1つの入力から、2種類の出力を得ることができる。すなわち、ニューラルネットワーク10は、第1の出力層10Cを有する第1のニューラルネットワーク11と、第2の出力層10Dを有する第2のニューラルネットワーク12と、入力層10Aを有する第3のニューラルネットワーク13と、を含んで構成される。図1に示すように、ニューラルネットワーク10は、第3のニューラルネットワーク13の後ろに第1のニューラルネットワーク11と第2のニューラルネットワーク12とが並列に接続された層構造を有する。第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各々は、ニューラルネットワーク10を構成しているサブネットワークである。
ニューラルネットワーク10は、第3のニューラルネットワーク13及び第1のニューラルネットワーク11を用いて第1の認識処理を行う第1の認識処理経路と、第3のニューラルネットワーク13及び第2のニューラルネットワーク12を用いて第2の認識処理を行う第2の認識処理経路と、を含む。
第3のニューラルネットワーク13は、第1の識別処理と第2の識別処理の両方に共通する処理を担う共通処理部に相当する。第3のニューラルネットワーク13は、第1のニューラルネットワーク11及び第2のニューラルネットワーク12への入力要素を出力するニューラルネットワークである。
第3のニューラルネットワーク13は、入力層10Aの他に、畳み込み層及びプーリング層をそれぞれ1層以上含んで構成される。
第1のニューラルネットワーク11は、第3のニューラルネットワーク13から出力された要素が入力されるニューラルネットワークである。第1のニューラルネットワーク11は、第1の正解形態に対応した第1の出力OP1を生成するニューラルネットワークである。図1において、第1のニューラルネットワーク11から得られる第1の出力OP1を「出力1」と表記した。
第1のニューラルネットワーク11は、例えば、畳み込み層、及び全結合層のうちの少なくとも1種の層を1層以上含んで構成される。第1のニューラルネットワーク11は、畳み込み層、及び全結合層の各層をそれぞれ1層以上含んでもよい。第1のニューラルネットワーク11は、畳み込み層として「1×1の畳み込み」を行う畳み込み層を含んでもよい。1×1の畳み込みは、複数の特徴量のチャネルごとの特徴マップを、「1×1」のフィルタを用いて、まとめる処理である。また、第1のニューラルネットワーク11は、プーリング層を含んでもよい。
第2のニューラルネットワーク12は、第3のニューラルネットワーク13から出力された要素が入力されるニューラルネットワークである。第2のニューラルネットワーク12は、第2の正解形態に対応した第2の出力OP2を生成するニューラルネットワークである。第2のニューラルネットワーク12は、第1のニューラルネットワーク11とは異なるニューラルネットワークである。第2の正解形態は、第1の正解形態とは異なる正解形態である。図1において、第2のニューラルネットワーク12から得られる第2の出力OP2を「出力2」と表記した。
第2のニューラルネットワーク12は、例えば、畳み込み層、及び全結合層のうちの少なくとも1種の層を1層以上含んで構成される。第2のニューラルネットワーク12は、畳み込み層、及び全結合層の各層をそれぞれ1層以上含んでもよい。第2のニューラルネットワーク12は、畳み込み層として「1×1の畳み込み」を行う畳み込み層を含んでもよい。
第1のニューラルネットワーク11及び第2のニューラルネットワーク12の各々が「1×1の畳み込み」を行う畳み込み層を含む構成が好ましい。
ニューラルネットワーク10から得られる2種類の出力に対応して、「第1の正解形態」と「第2の正解形態」の2種類の正解形態がある場合、入力画像を「I」、第1の正解形態の正解ラベルを「L1」、第2の正解形態の正解ラベルを「L2」と表記すると、畳み込みニューラルネットワーク10の学習に使用するデータセットは、{I,L1}、{I,L2}及び{I,L1,L2}の組み合わせを含む集合により構成される。「データセット」は、「学習用データ群」と同義である。「正解ラベル」は、「正解データ」と同義である。
以後、第1の正解形態の正解ラベルを「第1の正解データ」といい、符号L1で示す。第2の正解形態の正解ラベルを「第2の正解データ」といい、符号L2で示す。図1において、第1の正解データL1を「正解1」と表記し、第2の正解データL2を「正解2」と表記した。
図2は、入力画像に対応した2種類の正解形態の簡単な例である。図2には、入力画像Iと、これに対応する第1の正解データL1及び第2の正解データL2の例が示されている。入力画像Iは、認識対象50の画像領域を含む。図2では、図示の簡略化のために、認識対象50としての顔を模した顔図形の絵柄を例示したが、認識対象50は、顔に限らない。例えば、入力画像としての内視鏡画像を扱う場合、認識対象は病変領域であってもよい。画像認識の用途に応じて、様々な認識対象を想定し得る。また、認識対象は、画像内に複数含まれていてもよい。
第1の正解データL1は、認識対象50の画像領域を特定したマスク画像61を含むものであってよい。例えば、マスク画像61は、認識対象50の画像領域の輪郭を外縁とする画像領域であってもよい。マスク画像61は、認識対象50の画像領域を画素単位により抽出した認識対象領域であってよい。
第2の正解データL2は、認識対象50の画像領域と重なる矩形領域62を含むものであってよい。矩形領域62は、バウンディングボックス(Bounding Box)と呼ばれる場合がある。矩形領域62は、認識対象50の画像領域を内包する大きさであってもよい。矩形領域62は、認識対象50の画像領域の少なくとも一部と重なるものであればよく、認識対象50の画像領域の一部は、矩形領域62からはみ出していてもよい。
図1に示した第3のニューラルネットワーク13と第1のニューラルネットワーク11とが組み合わされたニューラルネットワークは、例えば、入力画像Iから認識対象の画像領域を抽出するセグメンテーションを行う。第1のニューラルネットワーク11は、第1の出力OP1としての認識対象領域を出力し得る。
第3のニューラルネットワーク13と第2のニューラルネットワーク12とが組み合わされたニューラルネットワークは、例えば、入力画像Iから認識対象の画像領域を含んだ大まかに囲んだ矩形領域を出力し得る。
《第1実施形態に係るニューラルネットワークの学習方法の概要》
ニューラルネットワーク10の学習方法の一例を概説する。本発明の第1実施形態に係るニューラルネットワークの学習方法は、次のステップ1からステップ5を含む。
[ステップ1]まず、学習に使用する学習用データ群を用意する。学習に使用する学習用データ群は、予め用意された学習用サンプルのデータ全体であってもよいし、予め用意された学習用サンプルのデータ全体から取得された一部のデータ群であってもよい。学習用データ群は、複数の学習用サンプルを含む。
予め用意された学習用サンプルのデータ全体から一部のデータ群を選び出すステップは「第1の学習用データ群から第2の学習用データ群を選び出すステップ」の一例である。この場合、「予め用意された学習用サンプルのデータ全体」が「第1の学習用データ群」に相当し、「一部のデータ群」が「第2の学習用データ群」に相当する。
1つの学習用サンプルは、学習用入力画像と、少なくとも1つの正解形態の正解データとの組み合わせから成る。ここでは、第1の正解形態として、認識対象領域を詳細に抽出したマスク画像を例示する。「詳細に抽出」とは、例えば、認識対象の正確な輪郭を外縁とする輪郭線で囲まれた認識対象領域を抽出することを指す。マスク画像のマスク領域は、学習用入力画像内の特定領域である認識対象領域の各画素と対応するものに相当する。
また、第2の正解形態として、認識対象領域を概略的に特定するよう矩形領域によって簡素に抽出した矩形画像を例示する。第2の正解形態は、第1の正解形態に比べて、認識対象領域を「大雑把に」又は「粗く」抽出したものに相当する。
1つの学習用入力画像に対して、第1の正解形態と第2の正解形態の両方の正解データが与えられていてもよいし、いずれか一形態の正解データのみが与えられていてもよい。学習に使用する学習用データ群の中に、第1の正解形態と第2の正解形態とが混在していればよい。
[ステップ2]ステップ1で用意したラベル付き学習用サンプルの学習用入力画像をニューラルネットワーク10に入力し、ニューラルネットワーク10を用いてセグメンテーションを行う。
[ステップ3]学習用入力画像に対応付けられた正解形態がマスク画像の場合、第3のニューラルネットワーク13及び第1のニューラルネットワーク11からなるニューラルネットワークについて、通常のCNNを用いた学習処理と同様の重みの更新処理を行うことができる。すなわち、第1のニューラルネットワーク11の出力について、損失関数を用いて誤差を算出し、フィードバックを行う。ここでのフィードバックは、算出した誤差に基づき、第1のニューラルネットワーク11と第3のニューラルネットワーク13の重みを更新する処理を含む。
第1のニューラルネットワーク11の出力を取得するステップは「出力取得ステップ」及び「第1の出力取得ステップ」の一例である。損失関数を用いて誤差を算出することは、ニューラルネットワークの出力を評価することに相当する。損失関数は「評価関数」に相当する。損失関数を用いた誤差の算出を行うステップは「評価ステップ」及び「第1の評価ステップ」の一例である。「第1のニューラルネットワーク11と第3のニューラルネットワーク13の重みを更新する処理」のステップは、「重み更新ステップ」及び「第1の重み更新ステップ」の一例である。
[ステップ4]学習用入力画像に対応付けられた正解形態が矩形領域の場合、ニューラルネットワーク10の中間層の出力に、畳み込み処理を行った後に、損失関数を用いて誤差を算出し、フィードバックを行う。すなわち、算出した誤差に基づき、第2のニューラルネットワーク12と第3のニューラルネットワーク13の重みを更新する処理を行う。
第2のニューラルネットワーク12の出力を取得するステップは「出力取得ステップ」及び「第2の出力取得ステップ」の一例である。第2のニューラルネットワーク12からの出力に対して損失関数を用いた誤差の算出を行うステップは「評価ステップ」及び「第2の評価ステップ」の一例である。「第2のニューラルネットワーク12と第3のニューラルネットワーク13の重みを更新する処理」のステップは、「重み更新ステップ」及び「第2の重み更新ステップ」の一例である。
[ステップ5]上述したステップ2からステップ4を、ニューラルネットワーク10の重みが収束するまで繰り返し行う。
ステップ2からステップ4の処理は、ミニバッチの単位で実施することができる。
〈ミニバッチ学習について〉
ミニバッチは、予め用意された学習用データ群の部分集合であり、予め用意された学習用データ群の全体の中から選ばれた複数の学習用サンプルにより構成される学習用データ群である。ミニバッチ学習は、ミニバッチに含まれる全ての学習サンプルを用いて各学習サンプルについて出力と正解との誤差を評価し、これらの誤差の評価結果を利用して、ミニバッチ単位によりニューラルネットワークの重みをまとめて更新する手法である。ミニバッチは「第2の学習用データ群」の一例である。
図3は、予め用意された学習用データ群の例である。ここでは、説明を簡単にするために、学習用データ群の全体がA〜Gの7つの学習用サンプルの集合である場合を説明する。学習用サンプルは、入力用画像データと、これに対応する正解データとの組み合わせから構成される学習用データある。学習用サンプルには、第1の正解形態と第2の正解形態のそれぞれに対応した2つの正解データが含まれている場合と、第1の正解形態と第2の正解形態のうちどちらか1形態のみの正解データが含まれている場合とがあり得る。
図3に示した図表において「名前」は、個々の学習用サンプルを識別する識別名を意味する。「入力」は「入力用画像データ」を意味する。「正解1」は第1の正解形態の正解データ(第1の正解データ)を意味する。「正解2」は第2の正解形態の正解データ(第2の正解データ)を意味する。「有」は、データが存在することを表す。「無」はデータが存在しないことを表す。
例えば、学習用サンプルAは、入力用画像データと、第1の正解データと、第2の正解データとを含む。学習用サンプルAは、入力用画像データに、第1の正解形態と第2の正解形態のそれぞれに対応した2つの正解データが関連付けされている学習用データである。学習用サンプルAは、第1の正解データが付された学習用サンプルとして用いることができ、かつ、第2の正解データが付された学習用サンプルとして用いることができる。学習用サンプルAは、実質的に2つの学習用サンプルであると見做すこともできる。
学習用サンプルBは、入力用画像データに対して、第1の正解形態に対応した正解データが存在せず、第2の正解形態に対応した正解データのみを有していることを表す。
学習用サンプルA、D、E、Gはそれぞれ「第1の学習用サンプル」の例である。学習用サンプルA、B、C、E、Fはそれぞれ「第2の学習用サンプル」の例である。
〈ミニバッチの形成例1〉
ミニバッチを形成する際の条件の一例として、「1ミニバッチに複数の正解形態を必ず含める」というミニバッチ条件1を満たすようミニバッチを形成する態様があり得る。図3に示した学習用データ群の全体からミニバッチ条件1を満たして形成するミニバッチの例を表1に示す。
Figure 2019102797
なお、表1では、学習回数として3回目までを示したが、学習回数については、特に制限はない。
このように、各ミニバッチ内に複数の正解形態を混在させ、ミニバッチに属する学習用サンプルをすべて用いて学習を行う態様により、ミニバッチの学習単位により第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各ニューラルネットワークの重みを、更新していくことができる。
表1に示したように、ミニバッチ条件1に従うミニバッチ学習を複数回実施することにより、第1の正解形態を用いた学習が少なくとも2回実施され、その2回の間に、第2の正解形態を用いた学習が少なくとも1回実施される。
〈ミニバッチの形成例2〉
ミニバッチを形成する際の他の条件の例として、「ミニバッチ間で複数の正解形態を入れ替える」というミニバッチ条件2を満たすようミニバッチを形成する態様があり得る。図3に示した学習用データ群の全体からミニバッチ条件2を満たして形成するミニバッチの例を表2に示す。
Figure 2019102797
表2では、学習回数として3回目までを示したが、学習回数については、特に制限はない。
このように、異なるミニバッチ間で複数の正解形態を混在させることにより、ミニバッチの学習単位で複数の正解形態を交互に用いて、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各ニューラルネットワークの重みを、更新していくことができる。
表2に示したように、ミニバッチ条件2に従うミニバッチ学習を複数回実施することにより、第1の正解形態を用いた学習が少なくとも2回実施され、その2回の間に、第2の正解形態を用いた学習が少なくとも1回実施される。
《第2実施形態》
ここでは内視鏡画像から病変領域を認識するための画像認識装置への適応を想定した具体例について説明する。学習用入力画像は、内視鏡で撮影された画像、若しくは、表示装置の画面に表示された内視鏡画像をキャプチャしたキャプチャ画面であってもよい。
第1の正解形態は、病変領域を詳細に示したマスク画像である。第2の正解形態は、病変領域を簡素に示した矩形画像である。「病変領域」は「画像内の特定領域」の一例である。
図4は、ニューラルネットワークの学習方法の例を示すフローチャートである。図4に示した処理プロセスの各ステップは、コンピュータを用いて実行される。コンピュータは、プログラムを実行することにより、学習装置として機能し得る。コンピュータは、CPU(Central Processing Unit)及びメモリを備える。コンピュータは、GPU(Graphics Processing Unit)を含んでもよい。以下、ニューラルネットワーク10の学習処理を行う信号処理装置を「学習装置」という。なお、「学習装置」は「画像処理装置」と言い換えてもよい。
ステップS11において、学習装置は、学習用データ群から複数の学習用サンプルを選択してミニバッチを形成する。学習用データ群は予め用意され、学習装置の内部記憶装置、又は学習装置に接続される外部記憶装置に格納されている。外部記憶装置は、例えば、メモリカードなどの可搬型記憶メディアであってもよいし、通信回線を介して接続される外付けハードディスク装置などであってもよい。また、外部記憶装置は、通信回線を介して接続される他のコンピュータの記憶装置であってもよい。
学習装置は、プログラムに従って学習用データ群から自動的にミニバッチを形成し得る。或いは、学習装置は、ユーザによって入力装置などから学習用サンプルを選択する指示が与えられることにより、その入力された指示に従ってミニバッチを形成してもよい。ミニバッチの形成に際しては、上述したミニバッチ条件1又はミニバッチ条件2に従う。ステップS11のミニバッチを形成するステップは「第2の学習用データ群を選び出すステップ」の一例である。
ステップS12において、学習装置は、ミニバッチに含まれる学習用サンプルの学習用入力画像をニューラルネットワーク10に入力して第1の出力OP1及び第2の出力OP2を取得する。
ステップS12において、ミニバッチからニューラルネットワーク10に入力する入力画像を選択するステップは「選択ステップ」の一例である。また、ステップS12は「出力取得ステップ」の一例である。
ステップS13において、学習装置は、第1の正解形態に係る第1の正解データと第1の出力OP1との誤差、及び第2の正解形態に係る第2の正解データと第2の出力OP2との誤差を算出する。誤差の算出方法は、例えば、二乗誤差、又は、交差エントロピーなどがあり得る。ステップS13は「評価ステップ」の一例である。
ステップS12とステップS13は、ミニバッチに含まれる全ての学習用入力画像について実施される。
ステップS14において、学習装置は、ステップS13にて算出した誤差に基づいて、ニューラルネットワーク10の重みを更新する。重みの更新量を算出する方法は、例えば、最急降下法などを採用し得る。第1の正解形態に関する誤差に基づいて算出された重みの更新量を使って、第1のニューラルネットワーク11と第3のニューラルネットワーク13の重みが更新される。第2の正解形態に関する誤差に基づいて算出された重みの更新量を使って、第2のニューラルネットワーク12と第3のニューラルネットワーク13の重みが更新される。
或いはまた、第1の正解形態に関する誤差と、第2の正解形態に関する誤差とを重み付けして、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各ニューラルネットワークの重みの更新量を算出してもよい。ステップS14による重みの更新は、ミニバッチ単位で行われる。ステップS14は「重み更新ステップ」の一例である。
ステップS15において、学習装置は、学習終了条件を満たすか否かの判定を行う。学習装置は、ステップS15の判定処理にて、No判定の場合、すなわち、学習終了条件を満たさないと判定した場合は、ステップS11に戻り、学習終了条件を満たすまで、ステップS11からステップS14を繰り返す。
学習終了条件は、誤差の値に基づいて定められていてもよいし、更新回数に基づいて定められていてもよい。誤差の値に基づく方法としては、例えば、誤差が規定の範囲内に収束していることを学習終了条件としてよい。更新回数に基づく方法としては、例えば、更新回数が規定回数に到達したことを学習終了条件としてよい。
なお、評価関数として用いる損失関数の重み付けは、更新回数に従って線形に変化させる態様、又は段階的に変化される態様があり得る。
ステップS15の判定処理にて、Yes判定の場合、すなわち、学習終了条件を満たしていると判定した場合は、ステップS16に進む。
ステップS16において、学習装置は、ニューラルネットワークの重みを決定し、学習の処理を終了する。ステップS16は「重み決定ステップ」の一例である。
このようにして学習された重みを使うことにより、病変領域の詳細な抽出、すなわちセグメンテーション、及び/又は、病変領域の簡易的抽出(検出)を高精度で実施することが可能になる。
また、学習終了後は、第2のニューラルネットワーク12を使用せずに、第3のニューラルネットワーク13と第1のニューラルネットワーク11を使用してセグメンテーションを行うことも可能である。
《学習装置の構成》
図5は、学習装置の機能を示すブロック図である。学習装置100は、信号処理装置102を備える。信号処理装置102は、記憶装置130に記憶されているデータを取得することができる。また、信号処理装置102は、記憶装置130にデータを記憶させることができる。
記憶装置130は、学習用データ群記憶部132と、ミニバッチ記憶部134と、を含む。学習用データ群記憶部132は、学習に使用し得る学習用サンプルの全データが記憶されている記憶領域である。ミニバッチ記憶部134は、学習用データ群記憶部132に記憶された学習用サンプル全体の学習用データ群の中から選ばれた一部の学習用データ群であるミニバッチを記憶する記憶領域である。ミニバッチ記憶部134は、ミニバッチに属する学習用サンプルを記憶してもよいし、ミニバッチに属する学習用サンプルを特定するための情報を記憶してもよい。
記憶装置130の記憶領域の一部又は全部は、信号処理装置102の内部に備えてもよい。記憶装置130は、学習装置100に含まれてもよいし、学習装置100とは別の外部装置、サーバ又はクラウドストレージなどであってよい。また、記憶装置130は、信号処理装置102が実行するプログラムを記憶する記憶領域を含んでいてもよい。
学習装置100は、入力装置140と、表示装置142と、を備えていることが好ましい。入力装置140と表示装置142は、ユーザインターフェースとして機能する。入力装置140は、例えば、操作ボタンやキーボード、マウス、タッチパネル、若しくは、音声入力装置、又はこれらの適宜の組み合わせであってよい。ユーザは、入力装置140を操作することにより、学習装置100に各種の指示を入力することができる。信号処理装置102は、入力装置140から入力された指示に応じて各種処理を実行し得る。
表示装置142は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、若しくは、プロジェクタ、又はこれらの適宜の組み合わせであってよい。表示装置142は、信号処理装置102の処理に必要な各種設定情報、又は、処理結果を示す情報などの各種情報を表示し得る。
信号処理装置102は、ミニバッチ形成部104と、学習用サンプル選択部106と、ニューラルネットワーク10と、を含む。また、信号処理装置102は、第1の出力取得部110と、第1の誤差算出部111と、第1の重み更新量算出部112と、第1の重み更新処理部114と、第2の出力取得部120と、第2の誤差算出部121と、第2の重み更新量算出部122と、第2の重み更新処理部124と、重み決定部126と、を含む。
ミニバッチ形成部104は、予め定められた条件に従い、学習用サンプルを選択してミニバッチを形成する処理を行う。ミニバッチを形成条件は、例えば、既に説明した「ミニバッチ条件1」或いは「ミニバッチ条件2」のようなものである。ミニバッチ形成部104は、学習用データ群記憶部132に記憶されている学習用データ群からプログラムに従って、自動的にミニバッチを形成し得る。或いはまた、ミニバッチ形成部104は、ユーザの操作に応じて入力装置140から与えられる指示に従ってミニバッチを形成し得る。ミニバッチ形成部104は「学習用データ群選択部」の一例である。
学習用サンプル選択部106は、学習用データ群記憶部132又はミニバッチ記憶部134から、学習に使用する1つ又は複数の学習用サンプルを選択する処理を行う。学習用サンプル選択部106は、ミニバッチから、ニューラルネットワーク10に入力する学習用サンプルを順次に選択する処理を行う。学習用サンプル選択部106は、学習用データ群記憶部132に記憶された学習用データ群の中から学習に使用する学習用サンプルを選択してもよい。学習用サンプル選択部106によって選択された学習用サンプルの学習用入力画像は、ニューラルネットワーク10に入力される。学習用サンプル選択部106は、「選択部」の一例である。
第1の出力取得部110は、第1のニューラルネットワーク11から出力された第1の出力OP1を取得する。第1の出力OP1は、第1の出力取得部110を介して、第1の誤差算出部111に入力される。第1の出力取得部110は、第1の誤差算出部111の入力部であってよい。
第1の誤差算出部111は、ニューラルネットワーク10に入力された学習用入力画像に対応した第1の正解データL1と、実際に、第1のニューラルネットワーク11から得られた第1の出力OP1との誤差を算出する。第1の誤差算出部111によって算出された誤差は、第1の重み更新量算出部112に送られる。第1の誤差算出部111は「第1の評価部」の一例である。
第1の重み更新量算出部112は、第1の誤差算出部111にて算出された誤差を基に、第1のニューラルネットワーク11及び第3のニューラルネットワーク13の各々の重みの更新量を算出する。第1の重み更新量算出部112は、ミニバッチ単位で重みの更新量を算出する。
第1の重み更新処理部114は、第1の重み更新量算出部112によって算出した更新量に従い、第1のニューラルネットワーク11及び第3のニューラルネットワーク13の各々の重みを更新する処理を行う。第1の重み更新処理部114は、ミニバッチ単位で重みの更新処理を行う。第1の重み更新処理部114は、「第1の更新部」の一例である。
第2の出力取得部120は、第2のニューラルネットワーク12から出力された第2の出力OP2を取得する。第2の出力OP2は、第2の出力取得部120を介して、第2の誤差算出部121に入力される。第2の出力取得部120は、第2の誤差算出部121の入力部であってよい。第2の出力取得部120と第1の出力取得部110の組み合わせは「出力取得部」の一例である。
第2の誤差算出部121は、ニューラルネットワーク10に入力された学習用入力画像に対応した第2の正解データL2と、実際に、第2のニューラルネットワーク12から得られた第2の出力OP2との誤差を算出する。第2の誤差算出部121によって算出された誤差は、第2の重み更新量算出部122に送られる。第2の誤差算出部121は「第2の評価部」の一例である。第2の誤差算出部121と第1の誤差算出部111の組み合わせは「評価部」の一例である。
第2の重み更新量算出部122は、第2の誤差算出部121にて算出された誤差を基に、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各々の重みの更新量を算出する。第2の重み更新量算出部122は、ミニバッチ単位で重みの更新量を算出する。
第2の重み更新処理部124は、第2の重み更新量算出部122によって算出した更新量に従い、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各々の重みを更新する処理を行う。第2の重み更新処理部124は、ミニバッチ単位で重みの更新処理を行う。第2の重み更新処理部124は「第2の更新部」の一例である。第2の重み更新処理部124と第1の重み更新処理部114の組み合わせは「更新部」の一例である。
重み決定部126は、予め定められた学習終了条件に従って学習を終了させ、ニューラルネットワーク10の重みを決定する。
〈変形例1〉
第1の重み更新量算出部112の機能と第2の重み更新量算出部122の機能は、1つの「重み更新量算出部」として統合されてもよい。例えば、重み更新量算出部は、第1の誤差算出部111にて算出された誤差と、第2の誤差算出部121にて算出された誤差とを組み合わせた誤差に基づき、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各々の重みの更新量を算出してもよい。
また、第1の重み更新処理部114の機能と第2の重み更新処理部124の機能は、1つの「重み更新処理部」として統合されてもよい。例えば、重み更新処理部は、重み更新量算出部にて算出された更新量に従い、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各々の重みを更新する処理を行う。
〈変形例2〉
重みの更新処理は、ミニバッチ単位で行う形態に限らず、ニューラルネットワーク10に入力する学習用入力画像ごとに、重みの更新処理を実施してもよい。この場合、第1の重み更新量算出部112及び第2の重み更新量算出部122の各々は、ニューラルネットワーク10に入力された学習用入力画像の1枚ごとに、重みの更新量を算出する。また、第1の重み更新処理部114及び第2の重み更新処理部124の各々は、ニューラルネットワーク10に入力された学習用入力画像の1枚ごとに、ニューラルネットワーク10の重みを更新する処理を行う。
〈変形例3〉
本発明に係るニューラルネットワークの学習方法は、ミニバッチ学習に限らず、学習用サンプルの1件ごとに逐次重みを更新するオンライン学習に適用することもできる。オンライン学習を行う場合、図5に示された信号処理装置102におけるミニバッチ形成部104は省略することができる。
〈変形例4〉
第2の正解形態は、矩形領域に限らず、他の多角形領域、円領域、若しくは楕円領域などであってもよい。
《第3実施形態》
図6は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。図6に示すフローチャートは、ミニバッチ学習に適用されてもよいし、学習用サンプルの1件ごとに逐次重みを更新するオンライン学習に適用されてもよい。
ステップS22において、学習装置は、学習用データ群から学習用サンプルを選択する。ここでいう学習用データ群は、予め用意された学習用データ群の全体であってもよいし、その一部であってもよい。学習用データ群は、ミニバッチであってもよい。ただし、学習用データ群の中に、第1の正解形態と第2の正解形態のそれぞれの正解データが含まれているものとする。ステップS22は「選択ステップ」の一例である。
ステップS24において、学習装置は、ステップS22にて選択した学習用サンプルをニューラルネットワーク10へ入力する。
ステップS26において、学習装置は、ニューラルネットワーク10から第1の出力OP1及び第2の出力OP2の少なくとも1つの出力を取得する。ニューラルネットワーク10は、入力された学習用入力画像に対して、常に、第1の出力OP1と第2の出力OP2の2種類の出力を取得してもよいし、正解データが存在する正解形態に対応した出力のみを取得してもよい。例えば、図3の学習用サンプルBを用いた場合、第1の正解データが存在しないため、第1の出力OP1を得る演算を省略し、第2の出力OP2のみを取得してよい。ステップS26は「出力取得ステップ」の一例である。
図6のステップS28において、学習装置は、入力に用いた学習用サンプルに第1の正解データがあるか否かを判定する。ステップS26の判定処理にてYes判定の場合、つまり、第1の正解データがあると判定した場合は、ステップS30に進む。一方、ステップS26の判定処理にてNo判定の場合、つまり、第1の正解データが無いと判定した場合は、ステップS33に進む。
ステップS30において、学習装置は、第1の正解データを用いて第1の出力OP1を評価する。評価は、損失関数を用いた誤差の算出を含む。ステップS30は「評価ステップ」及び「第1の評価ステップ」の一例である。
ステップS32において、学習装置は、ステップS20の評価結果を基に、ニューラルネットワーク10の重みを更新する。ステップS32は「更新ステップ」及び「第1の更新ステップ」の一例である。
ステップS33において、学習装置は、入力に用いた学習用サンプルに第2の正解データがあるか否かを判定する。ステップS33の判定処理にてYes判定の場合、つまり、第2の正解データがあると判定した場合は、ステップS34に進む。
ステップS34において、学習装置は、第2の正解データを用いて第2の出力OP2を評価する。ステップS34は「評価ステップ」及び「第2の評価ステップ」の一例である。
ステップS36において、学習装置は、ステップS34の評価結果を基に、ニューラルネットワーク10の重みを更新する。ステップS36は「更新ステップ」及び「第2の更新ステップ」の一例である。
ステップS36の後、ステップS38に進む。また、ステップS33の判定処理にてNo判定の場合、つまり、第2の正解データが無いと判定した場合は、ステップS38に進む。
ステップS38において、学習装置は、学習終了条件を満たすか否かを判定する。ステップS38の判定処理にてNo判定の場合、つまり、学習終了条件を満たしていないと判定した場合は、ステップS22に戻り、ステップS22からステップS38の処理を繰り返す。学習装置は、学習終了条件が満たされるまで、ステップS22からステップS38の処理を繰り返し実行する。
ステップS38の判定処理にてYes判定の場合、つまり、学習終了条件を満たしていると判定した場合は、ステップS40に進む。
ステップS40において、学習装置は、ニューラルネットワーク10の重みを決定し、学習の処理を終了する。ステップS40は「重み決定ステップ」の一例である。
なお、図6では、第1の出力を評価してから第2の出力を評価する例を示したが、評価処理の順番は特に限定されない。第2の出力を評価してから第1の出力を評価してもよく、また、第1の出力の評価と第2の出力の評価を並列に処理してもよい。
《第4実施形態》
図7は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。図7に示したフローチャートについて、図6に示したフローチャートと同一又は類似するステップには同一のステップ番号を付し、その説明は省略する。図6との相違点を説明する。
図7に示したフローチャートは、図6と比較して、ステップS20とステップS39が追加されており、図6のステップS22に代えて、ステップS22Bを含む。
ステップS20において、学習装置は、第1の学習用データ群から第2の学習用データ群を選び出す処理を行う。第2の学習用データ群は、第1の学習用データ群の一部であってもよいし、全部であってもよい。例えば、ミニバッチ学習の場合、第2の学習用データ群は、ミニバッチに相当する。第1の学習用データ群は、用意された学習用データ群の全体であってよく、また、その一部であってもよい。
ステップS22Bにおいて、学習装置は、ステップS20にて選び出された第2の学習用データ群から学習用サンプルを選択する。
ステップS24からステップS38の処理は、図6と同様である。
図7に示すフローチャートでは、ステップS38の判定処理にてNo判定である場合、ステップS39に進む。
ステップS39において、学習装置は、第2の学習用データ群を変更するか否かを判定する。ステップS39の判定処理にてNo判定である場合、すなわち、第2の学習用データ群を変更しないと判定した場合は、第2の学習用データ群を変更せずに、ステップS22Bに戻る。
その一方、ステップS39の判定処理にてYes判定である場合、すなわち、第2の学習用データを変更すると判定した場合は、ステップS20に戻り、第2の学習データ群を選び直す。
《第5実施形態》
図8は、ニューラルネットワークの学習方法の他の例を示すフローチャートである。ステップS50において、学習装置は、第1の学習用データ群から第2の学習用データ群を選び出す。ステップS50は、図7で説明したステップS20と同様の処理である。
次いで、ステップS52において、学習装置は、ステップS50にて選び出された第2の学習用データ群から学習用サンプルを選択する。ステップS52は、図7で説明したステップS22Bと同様の処理である。
ステップS54において、学習装置は、ステップS52にて選択された学習用サンプルに第1の正解データがあるか否かを判定する。ステップS54の判定処理にてYes判定の場合、すなわち、学習用サンプルに第1の正解データが存在する場合は、ステップS56に進む。
ステップS56において、学習装置は、ステップS52にて選択された学習用サンプルに第2の正解データがあるか否かを判定する。ステップS56の判定処理にてYes判定の場合、すなわち、学習用サンプルに第1の正解データと第2の正解データの両方が存在する場合は、ステップS58に進む。
ステップS58において、学習装置は、第1の正解形態と第2の正解形態の学習処理を行う。ステップS58の処理内容は、図9及び図10のフローチャートを用いて後述する。
図8のステップS56の判定処理にてNo判定の場合、すなわち、学習用サンプルに第2の正解データが存在せず、第1の正解データのみが存在する場合は、ステップS60に進む。ステップS60において、学習装置は、第1の正解形態の学習処理を行う。ステップS60の処理内容は、図11のフローチャートを用いて後述する。
図8のステップS54の判定処理にてNo判定の場合、すなわち、学習用サンプルに第1の正解データが存在せず、第2の正解データのみが存在する場合は、ステップS62に進む。ステップS62において、学習装置は、第2の正解形態の学習処理を行う。ステップS62の処理内容は、図12のフローチャートを用いて後述する。
ステップS58、ステップS60、又はステップS62の処理の後、ステップS70に進む。
ステップS70において、学習装置は、学習終了条件を満たすか否かを判定する。ステップS70の判定処理にてNo判定の場合、つまり、学習終了条件を満たしていないと判定した場合は、ステップS72に進む。
ステップS72において、学習装置は、第2の学習用データ群を変更するか否かを判定する。ステップS72の判定処理にてNo判定である場合、すなわち、第2の学習用データ群を変更しないと判定した場合は、第2の学習用データ群を変更せずに、ステップS52に戻る。
その一方、ステップS72の判定処理にてYes判定である場合、すなわち、第2の学習用データを変更すると判定した場合は、ステップS50に戻り、第2の学習データ群を選び直す。
ステップS70の判定処理にてYes判定である場合、つまり、学習終了条件を満たしていると判定した場合は、ステップS74に進む。
ステップS74において、学習装置は、ニューラルネットワーク10の重みを決定し、学習の処理を終了する。
〈第1の正解形態と第2の正解形態の学習処理〉
図9は、図8のステップS58に適用される処理内容の例を示すフローチャートである。図9のステップS101において、学習装置は、第1の学習用入力データをニューラルネットワーク10へ入力する。ここでいう「第1の学習用入力データ」は、図8のステップS52にて選択された学習用サンプルの入力用データとしての学習用入力画像を指す。
図9のステップS102において、学習装置は、ニューラルネットワーク10から第1の出力及び第2の出力を取得する。学習装置は、第1の学習用入力データについてニューラルネットワーク10を用いた処理を行い、第1の出力及び第2の出力をそれぞれ得る。ステップS102は「出力取得ステップ」の一例である。
ステップS103において、学習装置は、第1の出力を評価する。学習装置は、ステップS102にて取得した第1の出力と、第1の学習用入力データに対応付けられている第1の正解データと誤差を算出し、第1の出力を評価する。ステップS103は「評価ステップ」及び「第1の評価ステップ」の一例である。
ステップS104において、学習装置は、ステップS103の評価結果を基に、ニューラルネットワークの重みを更新する。学習装置は、ステップS103の評価結果から、第1のニューラルネットワーク11及び第3のニューラルネットワーク13の各ニューラルネットワークの重みの更新量を算出し、算出した更新量に従い重みを更新する。ステップS104は「更新ステップ」及び「第1の更新ステップ」の一例である。
ステップS105において、学習装置は、第2の出力を評価する。学習装置は、ステップS102にて取得した第2の出力と、第1の学習用入力データに対応付けられている第2の正解データと誤差を算出し、第2の出力を評価する。ステップS105は「評価ステップ」及び「第2の評価ステップ」の一例である。
ステップS106において、学習装置は、ステップS105の評価結果を基に、ニューラルネットワークの重みを更新する。学習装置は、ステップS105の評価結果から、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各ニューラルネットワークの重みの更新量を算出し、算出した更新量に従い重みを更新する。ステップS106は「更新ステップ」及び「第2の更新ステップ」の一例である。
学習装置は、ステップS106の終了後、図8のフローチャートに復帰する。
なお、図9で説明したステップS105をステップS103よりも前に実施してもよい。その場合、ステップS106をステップS104よりも前に実施してもよい。
図10は、図8のステップS58に適用される処理内容の他の例を示すフローチャートである。図10において、図9に示したフローチャートと同一又は類似のステップには同一の符号を付し、その説明は省略する。図10に示したフローチャートは、図9に示したフローチャートのステップS104とステップS106が省略され、代わって、ステップS105の後にステップS107が追加されている。
ステップS107において、学習装置は、ステップS103にて得られた評価結果と、ステップS105にて得られた評価結果とに基づいて、ニューラルネットワークの重みを更新する。学習装置は、ステップS103の評価結果とステップS105の評価結果から、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各ニューラルネットワークの重みの更新量を算出し、算出した更新量に従い重みを更新する。
学習装置は、ステップS107の終了後、図8のフローチャートに復帰する。
〈第1の正解形態の学習処理〉
図11は、図8のステップS60に適用される処理内容を示すフローチャートである。
図11のステップS111において、学習装置は、第1の学習用入力データをニューラルネットワーク10へ入力する。ステップS112において、学習装置は、ニューラルネットワーク10から第1の出力を取得する。学習装置は、第1の学習用入力データについてニューラルネットワーク10を用いた処理を行い、第1の出力を得る。
ステップS113において、学習装置は、第1の出力を評価する。学習装置は、ステップS112にて取得した第1の出力と、第1の学習用入力データに関連付けられている第1の正解データと誤差を算出し、第1の出力を評価する。
ステップS114において、学習装置は、ステップS113の評価結果を基に、ニューラルネットワークの重みを更新する。学習装置は、ステップS113の評価結果から、第1のニューラルネットワーク11及び第3のニューラルネットワーク13の各ニューラルネットワークの重みの更新量を算出し、算出した更新量に従い重みを更新する。
〈第2の正解形態の学習処理〉
図12は、図8のステップS62に適用される処理内容を示すフローチャートである。
図12のステップS121において、学習装置は、第2の学習用入力データをニューラルネットワーク10へ入力する。ここでいう「第2の学習用入力データ」は、図8のステップS52にて選択された学習用サンプルの入力用データとしての学習用入力画像を指す。「第2の学習用入力データ」は、第2の正解データが関連付けられている学習用入力データであることを示している。
ステップS122において、学習装置は、ニューラルネットワーク10から第2の出力を取得する。学習装置は、第2の学習用入力データについてニューラルネットワーク10を用いた処理を行い、第2の出力を得る。
ステップS123において、学習装置は、第2の出力を評価する。学習装置は、ステップS122にて取得した第2の出力と、第2の学習用入力データに関連付けられている第2の正解データと誤差を算出し、第2の出力を評価する。誤差の算出には、損失関数が用いられる。
ステップS124において、学習装置は、ステップS123の評価結果を基に、ニューラルネットワークの重みを更新する。学習装置は、ステップS123の評価結果から、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各ニューラルネットワークの重みの更新量を算出し、算出した更新量に従い重みを更新する。
学習装置は、ステップS124の終了後、図8のフローチャートに復帰する。
《本発明の実施形態に係るニューラルネットワークの学習方法及び学習装置の利点》
第1実施形態から第5実施形態として説明したように、本発明の実施形態に係るニューラルネットワークの学習方法及び学習装置によれば、例えば、次のような利点がある。
(1)上述の各実施形態に係るニューラルネットワークの学習方法及び学習装置によれば、第1の正解形態を用いた学習と、第2の正解形態を用いた学習とを並行して行い、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13の各ニューラルネットワークの重みの更新を繰り返すことにより、ニューラルネットワーク10の重みが決定される。第2の正解形態を用いた学習による重み更新の効果が第1の正解形態についての認識精度の向上に寄与する。また、第1の正解形態を用いた学習による重み更新の効果が第2の正解形態についての認識精度の向上に寄与する。
(2)第2の正解形態を含んだ学習用サンプルは、第1の正解形態についての認識精度の向上に役立ち、第1の正解形態を含んだ学習用サンプルは、第2の正解形態についての認識精度の向上に役立つ。第1の正解形態として例示した認識対象領域のマスク画像に比べて、第2の正解形態として例示した矩形領域は、正解データの作成が簡易であり、正解データの作成コストが低い。第1の正解形態に比べて正解データの作成コストが低い第2の正解形態を用いることにより、機械学習に必要な学習用データの準備負担を軽減することができる。良質な正解データが少ない場合でも、高い認識性能を持つニューラルネットワークを得ることができる。
(3)第1の正解形態を含んだ学習用サンプルの数が比較的少ない場合であっても、第1の正解形態に関して高い認識性能を持つニューラルネットワークを得ることができる。例えば、セグメンテーションのタスクを主目的とする場合に、認識対象領域を詳細に特定したマスク画像の正解データは良質な正解データに相当し、認識対象領域を簡素に(粗く)特定した矩形領域の正解データは低質な正解データに相当する。本発明の実施形態に係るニューラルネットワークの学習方法及び学習装置によれば、良質な正解データが少ない場合であっても高い認識性能を持つニューラルネットワークを得ることができる。学習済みのニューラルネットワークは、「学習済みモデル」と呼ばれる。学習済みモデルは、認識処理を行うプログラムモジュールと理解してもよく、学習済みモデルは、「認識器」、「識別器」、「判別器」又は「検出器」の概念を含む。
(4)上述の各実施形態に係るニューラルネットワークの学習方法及び学習装置によれば、高い認識性能を持つ学習済みモデルを、低コストにより得ることができる。
《学習済みのニューラルネットワークを用いた画像認識装置の例1》
図13は、学習済みのニューラルネットワークを用いた画像認識装置の例1を示すブロック図である。画像認識装置200は、学習済みのニューラルネットワーク210を備える。学習済みのニューラルネットワーク210は、既述した本発明の実施形態に係るニューラルネットワークの学習方法を使用して学習されたニューラルネットワーク10である。学習済みのニューラルネットワーク210は「学習済みモデル」の一例である。
画像認識装置200は、入力画像に対して2形態の認識結果を出力し得る。画像認識装置200は、コンピュータを用いて実現することができる。画像認識装置200は、表示装置242と接続され得る。
画像認識装置200に画像を入力すると、学習済みのニューラルネットワーク210によって処理が行われ、第1の認識結果と、第2の認識結果が出力される。第1の認識結果は、認識対象領域を詳細に抽出した情報を含む。第2の認識結果は、認識対象領域を簡素に抽出した情報を含む。第1の認識結果若しくは第2の認識結果又はこれらの両方は、表示装置242に表示される。
画像認識装置200は、図5で説明した学習装置100がそのまま使われるものであってもよい。この場合、表示装置242は、図5に示した表示装置142であってよい。
《学習済みのニューラルネットワークを用いた画像認識装置の例2》
図14は、学習済みのニューラルネットワークを用いた画像認識装置の例2を示すブロック図である。画像認識装置201は、学習済みのニューラルネットワーク211を備える。学習済みのニューラルネットワーク211は、既述した本発明の実施形態に係るニューラルネットワークの学習方法を使用して学習されたニューラルネットワーク10の一部である第3のニューラルネットワーク13と第1のニューラルネットワーク11である。学習済みのニューラルネットワーク211は「学習済みモデル」の一例である。
画像認識装置201は、入力画像に対して1形態の認識結果を出力する。画像認識装置201は、コンピュータを用いて実現することができる。
画像認識装置201に画像を入力すると、学習済みのニューラルネットワーク211によって処理が行われ、第1の認識結果が出力される。第1の認識結果は、認識対象領域を詳細に抽出した情報を含む。第1の認識結果は、表示装置242に表示される。
《学習用サンプルの作成機能》
学習用入力データに正解データを関連付けて学習用サンプルを作成するための装置は、学習装置100とは別のコンピュータを用いて構成することができる。また、学習装置100が学習用サンプルを作成する機能を備えていてもよい。
図15は、学習装置に搭載される学習用サンプルの作成機能に関するブロック図である。図15に示すように、学習装置100は、学習用サンプル作成部160を含む。学習用サンプル作成部160は、学習用入力データ取得部161と、正解特定情報取得部162と、正解データ作成部164と、関連付け処理部166とを含む。
学習用入力データ取得部161は、第1の正解形態及び第2の正解形態のうち少なくとも1形態についての正解データが未付与である学習用入力データを取り込む。学習用入力データ取得部161は、第1の正解形態及び第2の正解形態の2形態のどちらの正解データも未付与である学習用入力データを取得し得る。学習用入力データ取得部161は、学習用入力データ記憶部131から、学習用入力データを取得することができる。
記憶装置130は、学習用入力データ記憶部131を含んでいてよい。学習用入力データ記憶部131は、第1の正解形態及び第2の正解形態のうち少なくとも1形態についての正解データが未付与である学習用入力データを記憶しておく記憶領域である。なお、学習用入力データ記憶部131は、記憶装置130とは異なる記憶装置によって構成されていてもよい。
正解特定情報取得部162は、第1の正解特定情報取得部162Aと第2の正解特定情報取得部162Bとを含む。第1の正解特定情報取得部162Aは、入力装置140から与えられる第1の正解特定情報を取得する。第1の正解特定情報は、第1の正解形態の正解を特定する情報である。第1の正解特定情報は、例えば、認識対象領域の詳細な輪郭を指定する情報であってよい。ユーザは、表示装置142に表示される学習用入力データの画像を確認しながら、入力装置140を操作して、第1の正解形態の正解を特定する指示の入力を行うことができる。
第2の正解特定情報取得部162Bは、入力装置140から与えられる第2の正解特定情報を取得する。第2の正解特定情報は、第2の正解形態の正解を特定する情報である。第2の正解特定情報は、例えば、認識対象領域を簡素に囲む矩形形状を指定する情報であってよい。ユーザは、表示装置142に表示される学習用入力データの画像を確認しながら、入力装置140を操作して、第2の正解形態の正解を特定する指示の入力を行うことができる。
正解データ作成部164は、第1の正解データ作成部164Aと第2の正解データ作成部164Bとを含む。第1の正解データ作成部164Aは、第1の正解特定情報に基づき第1の正解データを作成する処理を行う。第1の正解データは、例えば、認識対象領域のマスク画像である。第2の正解データ作成部164Bは、第2の正解特定情報に基づき第2の正解データを作成する処理を行う。第2の正解データは、例えば、認識対象領域を囲む矩形領域である。
関連付け処理部166は、学習用入力データ取得部161を介して取得した学習用入力データと、正解データ作成部164によって作成された正解データとを関連付ける処理を行い、正解データが付与された学習用サンプルを作成する。こうして作成された学習用サンプルは、記憶装置130の学習用データ群記憶部132に記憶される。
《ユーザインターフェース画面の例》
図16から図20は、学習用サンプルを作成する際に表示装置142に表示される画面の例である。
図16は、学習用サンプルの作成を開始する際に表示される操作画面の一例を示す図である。図16に例示したウインドウ300は、画像表示エリア301と、第1の正解データ作成ボタン304と、第2の正解データ作成ボタン306と、複数形態の正解データ作成ボタン308と、を含む。「ボタン」は、GUI(graphical user interface)ボタンである。GUIボタンについて「押す」という表現には、クリックする、又はタッチするなど、ボタンに対応した指令の入力を行う動作が含まれる。
画像表示エリア301には、学習用入力データ302の画像内容が表示される。ここでは、内視鏡画像を例示する。学習用入力データ302の画像内には、認識対象領域としての病変領域303が含まれている。なお、1枚の画像内に複数の病変領域が含まれる場合がある。
第1の正解データ作成ボタン304は、第1の正解データを作成する際に選択されるボタンである。第2の正解データ作成ボタン306は、第2の正解データを作成する際に選択されるボタンである。複数形態の正解データ作成ボタン308は、第1の正解データと第2の正解データの両方を作成する際に選択されるボタンである。ユーザは、作成しようとする正解データの形態に応じて、所望のボタンを選択し得る。なお、既に付与済みの正解データが存在している場合には、付与済みの正解データのボタンは、グレーアウトにより、選択対象から外れていることが示される。
第1の正解データ作成ボタン304が押されると、第1の正解データを作成するための操作画面が表示装置142に表示される。
図17は、第1の正解データを作成する際に表示される操作画面の一例を示す図である。図17に例示したウインドウ310は、画像表示エリア301の他に、操作案内表示エリア314と、実行ボタン316と、キャンセルボタン317と、戻るボタン318と、を含む。
操作案内表示エリア314には、ユーザに対して求められる操作内容のメッセージが表示される。ユーザは、入力装置140を用いて、病変領域303の輪郭313を指定する操作を行う。画像内に複数の病変領域が含まれている場合は、それぞれの病変領域について輪郭を指定することができる。
実行ボタン316は、ユーザが指定した輪郭313に従って第1の正解データの作成を実行する指令を入力するボタンである。ユーザが輪郭313を指定した後、実行ボタン316を押すと、指定された輪郭313で囲まれた領域をマスクしたマスク画像を表す第1の正解データが作成される。
キャンセルボタン317は、輪郭313の指定を取り消す際に選択されるボタンである。ユーザは、キャンセルボタン317を押すことによって、輪郭313の指定をやり直すことができる。ユーザが戻るボタン318を押すと、図16の操作画面から図15の操作画面に戻る。
図18は、正解データの確認画面の一例を示す図である。例えば、図17において実行ボタン316が押されると、図18に示すような確認画面が表示される。図18に例示したウインドウ320は、画像表示エリア301にマスク画像324を含む第1の正解データ322の画像内容が表示される。なお、マスク画像324以外の画像領域については、元の画像内容をそのまま表示してもよいし、認識対象外の領域であることを表示するように、差別化表示してもよい。
ウインドウ320は、保存ボタン326と、キャンセルボタン327と、戻るボタン318と、を含む。
保存ボタン326は、作成された正解データを学習用入力データと関連付けて記憶装置130に保存する指令を入力するためのボタンである。キャンセルボタン327は、作成された正解データの保存を取り止める際に選択されるボタンである。キャンセルボタン327が押された場合は、図17の操作画面に戻って、輪郭313の指定をやり直すことができる。
図19は、第2の正解データを作成する際に表示される操作画面の一例を示す図である。図16に示した第2の正解データ作成ボタン306が押されると、第2の正解データを作成するための操作画面が表示装置142に表示される。
図19に例示したウインドウ330は、画像表示エリア301の他に、操作案内表示エリア334と、実行ボタン336と、キャンセルボタン337と、戻るボタン318と、を含む。
操作案内表示エリア334には、ユーザに対して求められる操作内容のメッセージが表示される。ユーザは、入力装置140を用いて、病変領域303を簡素に囲む矩形枠333を指定する操作を行う。
実行ボタン336は、ユーザが指定した矩形枠333に従って第2の正解データの作成を実行する指令を入力するボタンである。ユーザが矩形枠333を指定した後、実行ボタン336を押すと、指定された矩形枠333で囲まれた矩形領域を表す第2の正解データが作成される。キャンセルボタン337は、矩形枠333の指定を取り消す際に選択されるボタンである。
図20は、正解データの確認画面の一例を示す図である。例えば、図19において実行ボタン336が押されると、図20に示すような確認画面が表示される。図20に例示したウインドウ340は、画像表示エリア301に矩形領域344を含む第2の正解データ342の画像内容が表示される。矩形領域344以外の画像領域については、元の画像内容をそのまま表示してもよいし、認識対象外の領域であることを表示するように、差別化表示してもよい。
ウインドウ340は、保存ボタン346と、キャンセルボタン347と、戻るボタン318と、を含む。
保存ボタン346は、作成された正解データを学習用入力データと関連付けて記憶装置130に保存する指令を入力するためのボタンである。キャンセルボタン347は、作成された正解データの保存を取り止める際に選択されるボタンである。キャンセルボタン347が押された場合は、図19の操作画面に戻って、矩形枠333の指定をやり直すことができる。
図16に示した複数形態の正解データ作成ボタン308が押された場合は、図17及び図18で説明した第1の正解データを作成する際の操作手順と、図19及び図20で説明した第2の正解データを作成する際の操作手順の両方が段階的に実行される。
図21は、上述した学習用サンプル作成機能によって作成された学習サンプルの一例を示す概念図である。図21に示した学習用入力データ302には、第1の正解データ322と第2の正解データ342とが関連付けられている。第2の正解データ342は、第1の正解データ322に比べて、簡易に作成することができる。
《ニューラルネットワークの構造に関する他の形態》
図1では、第1のニューラルネットワーク11、第2のニューラルネットワーク12及び第3のニューラルネットワーク13から構成されるニューラルネットワーク10を例示したが、本発明の適用に際して、ニューラルネットワークの構造については様々な形態があり得る。
また、第1の正解形態と第2の正解形態の2形態の正解形態を用いる構成に限らず、3形態以上の正解形態を用いる構成も可能である。
図22は、ニューラルネットワークの他の形態例1を示す概念図である。図1に示したニューラルネットワーク10に代えて、図22に示すニューラルネットワーク410を用いてもよい。
ニューラルネットワーク410は、図1に示したニューラルネットワーク10の構成に加えて、第4のニューラルネットワーク14を含む。第4のニューラルネットワーク14は、第3のニューラルネットワーク13から出力された要素が入力されるニューラルネットワークである。第4のニューラルネットワーク14は、第4の正解形態に対応した第4の出力OP4を生成するニューラルネットワークである。図22において、第4のニューラルネットワーク14から得られる第4の出力OP4を「出力4」と表記した。第4の正解形態の正解ラベルを「第4の正解データ」といい、符号L4で示す。図22において、第4の正解データL4を「正解4」と表記した。
正解形態が3形態以上である場合についても、既述した2形態の例と同様の考え方を拡張して適用することができる。ニューラルネットワークの構造のみを示して、詳細な説明については省略する。
図23は、ニューラルネットワークの他の形態例2を示す概念図である。図1に示したニューラルネットワーク10に代えて、図23に示すニューラルネットワーク420を用いてもよい。
ニューラルネットワーク420は、図1に示したニューラルネットワーク10の構成に加えて、第5のニューラルネットワーク15を含む。第5のニューラルネットワーク15は、第3のニューラルネットワーク13の中間層から出力された要素が入力されるニューラルネットワークである。第5のニューラルネットワーク15は、第5の正解形態に対応した第5の出力OP5を生成するニューラルネットワークである。図23において、第5のニューラルネットワーク15から得られる第5の出力OP5を「出力5」と表記した。第5の正解形態の正解ラベルを「第5の正解データ」といい、符号L5で示す。図23において、第5の正解データL5を「正解5」と表記した。
図24は、ニューラルネットワークの他の形態例3を示す概念図である。図1に示したニューラルネットワーク10に代えて、図24に示すニューラルネットワーク430を用いてもよい。
ニューラルネットワーク430は、図1に示したニューラルネットワーク10の構成に加えて、第6のニューラルネットワーク16を含む。第6のニューラルネットワーク16は、第2のニューラルネットワーク12の中間層から出力された要素が入力されるニューラルネットワークである。第6のニューラルネットワーク16は、第6の正解形態に対応した第6の出力OP6を生成するニューラルネットワークである。図24において、第6のニューラルネットワーク16から得られる第6の出力OP6を「出力6」と表記した。第6の正解形態の正解ラベルを「第6の正解データ」といい、符号L6で示す。図24において、第6の正解データL6を「正解6」と表記した。
図24のように、第2のニューラルネットワーク12は、第6のニューラルネットワーク16への入力要素を出力する中間層を含む前半のサブネットワーク12Aと、後半のサブネットワーク12Bとの組み合わせた構造であると把握される。
この場合、後半のサブネットワーク12Bが「第2のニューラルネットワーク」の一例に相当し、第6のニューラルネットワーク16が「第1のニューラルネットワーク」の一例に相当し、第3のニューラルネットワーク13とサブネットワーク12Aが「第3のニューラルネットワーク」の一例に相当すると解釈することも可能である。
また、図22から図24に示した各形態を適宜組み合わせた構造を有するニューラルネットワークを採用してもよい。
《実施形態及び変形例等の組み合わせについて》
上述の各実施形態で説明した構成や変形例等で説明した事項は、適宜組み合わせて用いることができ、また、一部の事項を置き換えることもできる。
《他の応用例》
[1]本発明の実施に際しては、内視鏡画像から病変領域を認識する用途に限らず、様々な応用が可能である。例えば、本発明は、風景の画像を1又は複数の対象物の領域に分類するセグメンテーションを行う場合に用いることができる。
[2]本発明は、CT(Computed Tomography)画像から特定の部位を認識する用途に用いることができる。入力データは、3次元データであってもよい。
[3]本発明は、デジタルカメラを用いて撮影された画像から顔領域を抽出する用途に用いることができる。
[4]本発明は、文書のデータから、文字領域及び/又は写真領域の抽出を行う用途に用いることができる。
[5]本発明は、映像監視の分野に応用することができる。例えば、本発明は、監視カメラなどを用いて撮影される動画から、人物若しくは不審者等の抽出を行う用途に用いることができる。
《各処理部のハードウェア構成について》
図5で説明したミニバッチ形成部104、学習用サンプル選択部106、ニューラルネットワーク10、第1の出力取得部110、第1の誤差算出部111、第1の重み更新量算出部112、第1の重み更新処理部114、第2の出力取得部120、第2の誤差算出部121、第2の重み更新量算出部122、第2の重み更新処理部124、重み決定部126、並びに、図15で説明した学習用サンプル作成部160、学習用入力データ取得部161、第1の正解特定情報取得部162A、第2の正解特定情報取得部162B、第1の正解データ作成部164A、第2の正解データ作成部164B、及び関連付け処理部166などの各種の制御部並びに処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、或いは、CPUとFPGAの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
《コンピュータのハードウェア構成の例》
図25は、学習装置若しくは画像認識装置、又はこれらの両方の機能を備えた装置として用いることができるコンピュータのハードウェア構成の例を示すブロック図である。コンピュータには、デスクトップ型、ノート型、又はタブレット型など、各種形態のコンピュータが含まれる。また、コンピュータには、サーバコンピュータであってもよいし、マイクロコンピュータであってもよい。
コンピュータ500は、CPU501と、メモリ502と、記憶装置503と、入力インターフェース部504と、ネットワーク接続用の通信インターフェース部505と、表示制御部506と、周辺機器用インターフェース部507と、バス508と、を備える。図25において「IF」の表記は「インターフェース」を表す。
記憶装置503は、例えば、ハードディスク装置を用いて構成されてよい。記憶装置503には、学習処理及び/又は認識処理等の画像処理に必要な各種プログラムやデータ等が記憶されている。記憶装置503に記憶されているプログラムがメモリ502にロードされ、これをCPU501が実行することにより、コンピュータは、プログラムで規定される各種の処理を行う手段として機能する。記憶装置503は、図5で説明した記憶装置130として機能し得る。
入力装置510は入力インターフェース部504に接続される。表示装置520は表示制御部506に接続される。入力装置510と表示装置520は、図5で説明した入力装置140と表示装置142として機能し得る。
《コンピュータを動作させるプログラムについて》
上述の実施形態で説明した学習装置の学習機能、及び、学習済みモデルを用いた画像認識装置の認識機能のうち少なくとも一方の処理機能をコンピュータに実現させるプログラムを光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。またこのような有体物たる非一時的な情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
また、上述の実施形態で説明した学習装置の学習機能、及び、学習済みモデルを用いた画像認識装置の認識機能のうち少なくとも一方の処理機能の一部又は全部をアプリケーションサーバとして提供し、電気通信回線を通じて処理機能を提供するサービスを行うことも可能である。
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、又は削除することが可能である。本発明は以上説明した実施形態に限定されるものでは無く、本発明の技術的思想内で当該分野の通常の知識を有するものにより、多くの変形が可能である。
10 ニューラルネットワーク
10A 入力層
10B 中間層
10C 第1の出力層
10D 第2の出力層
11 第1のニューラルネットワーク
12 第2のニューラルネットワーク
12A サブネットワーク
12B サブネットワーク
13 第3のニューラルネットワーク
14 第4のニューラルネットワーク
15 第5のニューラルネットワーク
16 第6のニューラルネットワーク
50 認識対象
61 マスク画像
62 矩形領域
100 学習装置
102 信号処理装置
104 ミニバッチ形成部
106 学習用サンプル選択部
110 第1の出力取得部
111 第1の誤差算出部
112 第1の更新量算出部
114 第1の更新処理部
120 第2の出力取得部
121 第2の誤差算出部
122 第2の更新量算出部
124 第2の更新処理部
126 重み決定部
130 記憶装置
131 学習用入力データ記憶部
132 学習用データ群記憶部
134 ミニバッチ記憶部
140 入力装置
142 表示装置
160 学習用サンプル作成部
161 学習用入力データ取得部
162 正解特定情報取得部
162A 第1の正解特定情報取得部
162B 第2の正解特定情報取得部
164 正解データ作成部
164A 第1の正解データ作成部
164B 第2の正解データ作成部
166 関連付け処理部
200、201 画像認識装置
210 学習済みのニューラルネットワーク
211 学習済みのニューラルネットワーク
242 表示装置
300 ウインドウ
301 画像表示エリア
302 学習用入力データ
303 病変領域
304 第1の正解データ作成ボタン
306 第2の正解データ作成ボタン
308 複数形態の正解データ作成ボタン
310、320、330、340 ウインドウ
313 輪郭
314、334 操作案内表示エリア
316、336 実行ボタン
317、327、337、347 キャンセルボタン
318 戻るボタン
322 第1の正解データ
324 マスク画像
326、346 保存ボタン
333 矩形枠
342 第2の正解データ
344 矩形領域
410、420、430 ニューラルネットワーク
500 コンピュータ
502 メモリ
503 記憶装置
504 入力インターフェース部
505 通信インターフェース部
506 表示制御部
507 周辺機器用インターフェース部
508 バス
510 入力装置
520 表示装置
I 入力画像
L1 第1の正解データ
L2 第2の正解データ
L4 第4の正解データ
L5 第5の正解データ
L6 第6の正解データ
OP1 第1の出力
OP2 第2の出力
OP4 第4の出力
OP5 第5の出力
OP6 第6の出力
S11〜S16 学習処理のステップ
S22〜S40、S22B 学習処理のステップ
S50〜S74 学習処理のステップ
S101〜S107 学習処理のステップ
S111〜S114 学習処理のステップ
S121〜S124 学習処理のステップ

Claims (21)

  1. ニューラルネットワークの学習方法であって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    学習用データ群から、前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択ステップと、
    前記選択した前記学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
    前記出力取得ステップにて得られた前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
    前記評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する重み更新ステップと、
    前記選択ステップ、前記出力取得ステップ、前記評価ステップ、及び前記重み更新ステップを複数回実施した後に、前記第1のニューラルネットワーク、前記第2のニューラルネットワーク及び前記第3のニューラルネットワークの各々の重みを決定する重み決定ステップと、
    を含むニューラルネットワークの学習方法。
  2. 前記複数回実施される前記選択ステップにて選択される複数の前記学習用サンプルの中には、前記第1の正解形態を有した第1の学習用サンプルと、前記第2の正解形態を有した第2の学習用サンプルの両方が含まれる請求項1に記載のニューラルネットワークの学習方法。
  3. 前記学習用サンプルとして、入力用画像に前記第1の正解形態及び前記第2の正解形態の両方の正解形態が関連付けられたデータが用いられる請求項1に記載のニューラルネットワークの学習方法。
  4. ニューラルネットワークの学習方法であって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    前記第1の正解形態及び前記第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、前記第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出すステップと、
    前記第2の学習用データ群に含まれる学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
    前記出力取得ステップにて取得された前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
    前記第2の学習用データ群に含まれる学習用サンプルをすべて用いて、前記評価ステップから得られた評価結果に基づいて前記ニューラルネットワークの重みを更新する重み更新ステップと、を含み、
    前記重みを更新する学習単位としての前記第2の学習用データ群の中に、前記第1の正解形態及び前記第2の正解形態が含まれているニューラルネットワークの学習方法。
  5. ニューラルネットワークの学習方法であって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データを前記ニューラルネットワークに入力することにより、少なくとも前記第1の出力を取得する第1の出力取得ステップと、
    前記第1の出力取得ステップにて取得された少なくとも前記第1の出力について評価を行う第1の評価ステップと、
    前記第1の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第1の更新ステップと、
    前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第2の正解形態を有した第2の学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから少なくとも前記第2の出力を取得する第2の出力取得ステップと、
    前記第2の出力取得ステップにて得られた少なくとも前記第2の出力について評価を行う第2の評価ステップと、
    前記第2の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第2の更新ステップと、
    を含み、
    前記ニューラルネットワークに入力する前記第1の学習用入力データを変えて、前記第1の出力取得ステップ及び前記第1の評価ステップを少なくとも2回実施し、
    かつ、
    前記少なくとも2回の前記第1の出力取得ステップ及び前記第1の評価ステップを実施する間に、前記第2の出力取得ステップ及び前記第2の評価ステップを少なくとも1回実施するニューラルネットワークの学習方法。
  6. 前記ニューラルネットワークは、畳み込み層を含む請求項1から5のいずれか一項に記載のニューラルネットワークの学習方法。
  7. 前記第1のニューラルネットワーク及び前記第2のニューラルネットワークのうち少なくとも一方は、1×1の畳み込みによる処理を行う畳み込み層を含む請求項6に記載のニューラルネットワークの学習方法。
  8. 前記ニューラルネットワークは、入力された画像内の少なくとも1つの特定領域を抽出した少なくとも1つのマスク画像を出力する請求項1から7のいずれか一項に記載のニューラルネットワークの学習方法。
  9. 前記ニューラルネットワークは、入力された画像内の少なくとも1つの矩形領域を出力する請求項1から8のいずれか一項に記載のニューラルネットワークの学習方法。
  10. 前記第1の正解形態は、少なくとも1枚の画像に対し、画像内の特定領域の各画素と対応するものを含む請求項1から9のいずれか一項に記載のニューラルネットワークの学習方法。
  11. 前記第2の正解形態は、少なくとも1枚の画像に対し、画像内の矩形領域と対応するものを含む請求項1から10のいずれか一項に記載のニューラルネットワークの学習方法。
  12. 前記第1のニューラルネットワークから得られる前記第1の出力と前記第2のニューラルネットワークから得られる前記第2の出力のそれぞれの評価を重み付けして行う請求項1から11のいずれか一項に記載のニューラルネットワークの学習方法。
  13. 請求項1から12のいずれか一項に記載のニューラルネットワークの学習方法を用いて、前記ニューラルネットワークを学習することにより、前記重みが決定された学習済みの前記ニューラルネットワークを含む学習済みモデル。
  14. ニューラルネットワークの学習装置であって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    学習用データ群から、前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択部と、
    前記選択した前記学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得部と、
    前記出力取得部にて得られた前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価部と、
    前記評価部にて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する重み更新部と、
    前記選択部による選択ステップ、前記出力取得部による出力取得ステップ、前記評価部による評価ステップ、及び前記重み更新部による重み更新ステップを複数回実施した後に、前記第1のニューラルネットワーク、前記第2のニューラルネットワーク及び前記第3のニューラルネットワークの各々の重みを決定する重み決定部と、
    を備える学習装置。
  15. ニューラルネットワークの学習装置であって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    前記第1の正解形態及び前記第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、前記第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出す学習用データ群選択部と、
    前記第2の学習用データ群に含まれる学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得部と、
    前記出力取得部にて取得された前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価部と、
    前記第2の学習用データ群に含まれる学習用サンプルをすべて用いて、前記評価部から得られた評価結果に基づいて前記ニューラルネットワークの重みを更新する重み更新部と、を含み、
    前記重みを更新する学習単位としての前記第2の学習用データ群の中に、前記第1の正解形態及び前記第2の正解形態が含まれている学習装置。
  16. ニューラルネットワークの学習装置であって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データを前記ニューラルネットワークに入力することにより、少なくとも前記第1の出力を取得する第1の出力取得部と、
    前記第1の出力取得部にて取得された少なくとも前記第1の出力について評価を行う第1の評価部と、
    前記第1の評価部にて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第1の更新部と、
    前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第2の正解形態を有した第2の学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから少なくとも前記第2の出力を取得する第2の出力取得部と、
    前記第2の出力取得部にて得られた少なくとも前記第2の出力について評価を行う第2の評価部と、
    前記第2の評価部にて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第2の更新部と、
    を含み、
    前記ニューラルネットワークに入力する前記第1の学習用入力データを変えて、前記第1の出力取得部による第1の出力取得ステップ及び前記第1の評価部による第1の評価ステップを少なくとも2回実施し、
    かつ、
    前記少なくとも2回の前記第1の出力取得ステップ及び前記第1の評価ステップを実施する間に、前記第2の出力取得部による第2の出力取得ステップ及び前記第2の評価部による第2の評価ステップを少なくとも1回実施する学習装置。
  17. 前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを作成する学習用サンプル作成部を備え、
    前記学習用サンプル作成部は、
    学習用入力データを取得する学習用入力データ取得部と、
    前記学習用入力データに対する前記第1の正解形態の正解を特定する第1の正解特定情報を取得する第1の正解特定情報取得部と、
    前記第1の正解特定情報を基に、前記学習用入力データに対する前記第1の正解データを作成する第1の正解データ作成部と、
    前記学習用入力データに対する前記第2の正解形態の正解を特定する第2の正解特定情報を取得する第2の正解特定情報取得部と、
    前記第2の正解特定情報を基に、前記学習用入力データに対する第2の正解データを作成する第2の正解データ作成部と、
    前記第1の正解データ作成部によって作成された前記第1の正解データ及び前記第2の正解データ作成部によって作成された前記第2の正解データのうち少なくとも1つの正解データを前記学習用入力データと関連付ける関連付け処理部と、
    を含む請求項14から16のいずれか一項に記載の学習装置。
  18. 前記学習用入力データ取得部を介して取得された前記学習用入力データを表示する表示装置と、
    前記学習用入力データに対する前記第1の正解形態の正解を特定する指示、及び前記学習用入力データに対する前記第2の正解形態の正解を特定する指示のうち、少なくとも1つの指示を、ユーザが入力するための入力装置と、
    を備え、
    前記表示装置は、前記入力装置から入力された指示に従って前記第1の正解データ作成部を用いて作成された前記第1の正解データ、及び前記入力装置から入力された指示に従って前記第2の正解データ作成部を用いて作成された前記第2の正解データのうち、少なくとも1つを表示する請求項17に記載の学習装置。
  19. コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    前記プログラムは、
    学習用データ群から、前記第1の正解形態及び前記第2の正解形態のうち少なくとも1つを有した学習用サンプルを選択する選択ステップと、
    前記選択した前記学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
    前記出力取得ステップにて得られた前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
    前記評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する重み更新ステップと、
    前記選択ステップ、前記出力取得ステップ、前記評価ステップ、及び前記重み更新ステップを複数回実施した後に、前記第1のニューラルネットワーク、前記第2のニューラルネットワーク及び前記第3のニューラルネットワークの各々の重みを決定する重み決定ステップと、
    をコンピュータに実行させるプログラム。
  20. コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    前記プログラムは、
    前記第1の正解形態及び前記第2の正解形態を含む少なくとも2種類の正解形態を含む第1の学習用データ群から、前記第1の学習用データ群の一部又は全部である第2の学習用データ群を選び出すステップと、
    前記第2の学習用データ群に含まれる学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから前記第1の出力及び前記第2の出力の少なくとも1つを取得する出力取得ステップと、
    前記出力取得ステップにて取得された前記第1の出力及び前記第2の出力の少なくとも1つについて評価を行う評価ステップと、
    前記第2の学習用データ群に含まれる学習用サンプルをすべて用いて、前記評価ステップから得られた評価結果に基づいて前記ニューラルネットワークの重みを更新する重み更新ステップと、をコンピュータに実行させるものであり、
    前記重みを更新する学習単位としての前記第2の学習用データ群の中に、前記第1の正解形態及び前記第2の正解形態が含まれているプログラム。
  21. コンピュータに、ニューラルネットワークの学習を実行させるプログラムであって、
    前記ニューラルネットワークは、
    第1の正解形態に対応した第1の出力を行う第1のニューラルネットワークと、
    第2の正解形態に対応した第2の出力を行う第2のニューラルネットワークと、
    前記第1のニューラルネットワーク及び前記第2のニューラルネットワークへの入力要素を出力する第3のニューラルネットワークと、
    を含むニューラルネットワークであり、
    前記プログラムは、
    前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第1の正解形態の第1の正解データと関連付けられた第1の学習用入力データを前記ニューラルネットワークに入力することにより、少なくとも前記第1の出力を取得する第1の出力取得ステップと、
    前記第1の出力取得ステップにて取得された少なくとも前記第1の出力について評価を行う第1の評価ステップと、
    前記第1の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第1の更新ステップと、
    前記第1の正解形態及び前記第2の正解形態のうち少なくとも前記第2の正解形態を有した第2の学習用サンプルを前記ニューラルネットワークへの入力に用いることにより、前記ニューラルネットワークから少なくとも前記第2の出力を取得する第2の出力取得ステップと、
    前記第2の出力取得ステップにて得られた少なくとも前記第2の出力について評価を行う第2の評価ステップと、
    前記第2の評価ステップにて得られる評価結果に基づいて、前記ニューラルネットワークの重みを更新する第2の更新ステップと、
    をコンピュータに実行させるものであり、
    前記ニューラルネットワークに入力する前記第1の学習用入力データを変えて、前記第1の出力取得ステップ及び前記第1の評価ステップを少なくとも2回実施し、
    かつ、
    前記少なくとも2回の前記第1の出力取得ステップ及び前記第1の評価ステップを実施する間に、前記第2の出力取得ステップ及び前記第2の評価ステップを少なくとも1回実施するプログラム。
JP2019556154A 2017-11-21 2018-10-29 ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム Active JP7008081B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017223474 2017-11-21
JP2017223474 2017-11-21
PCT/JP2018/040070 WO2019102797A1 (ja) 2017-11-21 2018-10-29 ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019102797A1 true JPWO2019102797A1 (ja) 2020-11-19
JP7008081B2 JP7008081B2 (ja) 2022-01-25

Family

ID=66631588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019556154A Active JP7008081B2 (ja) 2017-11-21 2018-10-29 ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム

Country Status (2)

Country Link
JP (1) JP7008081B2 (ja)
WO (1) WO2019102797A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325338B (zh) * 2020-02-12 2023-05-05 暗物智能科技(广州)有限公司 神经网络结构评价模型构建和神经网络结构搜索方法
JP7420607B2 (ja) * 2020-03-19 2024-01-23 本田技研工業株式会社 情報処理装置、情報処理方法、車両、情報処理サーバ、及びプログラム
EP3982299A1 (en) * 2020-10-09 2022-04-13 Naver Corporation Superloss: a generic loss for robust curriculum learning
WO2024047770A1 (ja) * 2022-08-30 2024-03-07 日本電気株式会社 情報処理システム、情報処理方法及び記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214174A (ja) * 1995-02-01 1996-08-20 Canon Inc 色処理方法
JP2010500081A (ja) * 2006-08-11 2010-01-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 系統的なデータ・スケーリングを遺伝的アルゴリズムに基づく特徴サブセット選択に統合する方法および装置
JP2014229124A (ja) * 2013-05-23 2014-12-08 独立行政法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法、ディープ・ニューラルネットワークのサブネットワークのパラメータを記憶した記憶媒体及びコンピュータプログラム
JP2015019162A (ja) * 2013-07-09 2015-01-29 大日本印刷株式会社 会議支援システム
WO2017079529A1 (en) * 2015-11-04 2017-05-11 Nec Laboratories America, Inc. Universal correspondence network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214174A (ja) * 1995-02-01 1996-08-20 Canon Inc 色処理方法
JP2010500081A (ja) * 2006-08-11 2010-01-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 系統的なデータ・スケーリングを遺伝的アルゴリズムに基づく特徴サブセット選択に統合する方法および装置
JP2014229124A (ja) * 2013-05-23 2014-12-08 独立行政法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法、ディープ・ニューラルネットワークのサブネットワークのパラメータを記憶した記憶媒体及びコンピュータプログラム
JP2015019162A (ja) * 2013-07-09 2015-01-29 大日本印刷株式会社 会議支援システム
WO2017079529A1 (en) * 2015-11-04 2017-05-11 Nec Laboratories America, Inc. Universal correspondence network

Also Published As

Publication number Publication date
WO2019102797A1 (ja) 2019-05-31
JP7008081B2 (ja) 2022-01-25

Similar Documents

Publication Publication Date Title
JP7008081B2 (ja) ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム
CN111899245B (zh) 图像分割、模型的训练方法及装置,电子设备及存储介质
US10460231B2 (en) Method and apparatus of neural network based image signal processor
US11288550B2 (en) Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
US10740694B2 (en) System and method for capture and adaptive data generation for training for machine vision
CN110570426B (zh) 使用深度学习的图像联合配准和分割
CN104937635B (zh) 基于模型的多假设目标追踪器
CN109215080A (zh) 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置
JP6887055B2 (ja) 機械学習方法及び装置、プログラム、学習済みモデル、並びに判別装置
US20180032841A1 (en) Medical Scanner Teaches Itself To Optimize Clinical Protocols And Image Acquisition
US20200250427A1 (en) Shadow and cloud masking for agriculture applications using convolutional neural networks
CN109919971B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN109472752A (zh) 基于航拍图像的多曝光融合系统
CN113487656B (zh) 图像配准方法及装置,训练方法及装置,控制方法及装置
WO2020059446A1 (ja) 学習装置及び学習方法
JP2021039625A (ja) 物体数推定装置、物体数推定方法、および物体数推定プログラム
KR20190109669A (ko) 인공지능 기반 부품 검색 시스템
CN109993026A (zh) 亲属识别网络模型的训练方法及装置
CN108089753B (zh) 一种利用Faster-RCNN对指尖位置进行预测的定位方法
CN111199540A (zh) 图像质量评价方法、装置、电子设备及存储介质
CN110472600A (zh) 眼底图识别及其训练方法、装置、设备和存储介质
JP6622150B2 (ja) 情報処理装置および情報処理方法
JP2021089493A (ja) 情報処理装置およびその学習方法
WO2024062839A1 (ja) 識別装置、識別方法、プログラム
US20240062857A1 (en) Systems and methods for visualization of medical records

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220107

R150 Certificate of patent or registration of utility model

Ref document number: 7008081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150