JP7334801B2 - 学習装置、学習方法および学習プログラム - Google Patents

学習装置、学習方法および学習プログラム Download PDF

Info

Publication number
JP7334801B2
JP7334801B2 JP2021566628A JP2021566628A JP7334801B2 JP 7334801 B2 JP7334801 B2 JP 7334801B2 JP 2021566628 A JP2021566628 A JP 2021566628A JP 2021566628 A JP2021566628 A JP 2021566628A JP 7334801 B2 JP7334801 B2 JP 7334801B2
Authority
JP
Japan
Prior art keywords
learning
data
learning model
image
focused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021566628A
Other languages
English (en)
Other versions
JPWO2021130888A1 (ja
JPWO2021130888A5 (ja
Inventor
剛 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021130888A1 publication Critical patent/JPWO2021130888A1/ja
Publication of JPWO2021130888A5 publication Critical patent/JPWO2021130888A5/ja
Application granted granted Critical
Publication of JP7334801B2 publication Critical patent/JP7334801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Description

本発明は、機械学習に関するものであり、特に、機械学習によって生成する学習モデルによる推定精度を向上する技術に関するものである。
ディープラーニングを使用した機械学習によって生成された学習モデルを用いたデータの分類が広く用いられるようになっている。例えば、画像の分類のための機械学習では、画像データと、画像上の対象物を示すラベルを教師データとして学習された学習モデルが生成され、生成した学習モデルを用いて画像上の対象物の分類(分類されるカテゴリを意味する)の推定が行われる。また、機械学習によって生成された学習モデルを用いたデータの分類の推定が広く用いられるようになるにつれ、より高い推定の精度が要求されるようになっている。そのため、推定の精度を向上できる学習モデルを生成する技術の開発も行われている。精度の高い学習モデルを生成する技術としては、例えば、特許文献1のような技術が開示されている。
特許文献1の学習装置は、機械学習を行う際に、画像の分類の確からしさを示す指標である分類確信度に基づいて選択された画像データを用いて学習を行っている。特許文献1は、分類確信度の高い画像を用いて機械学習を行うことで、学習モデルの生成に要する時間を抑制しつつ精度の高い学習モデルを生成することが出来るとしている。
非特許文献1には、学習モデルが画像の分類を推定する際に分類の対象が存在していると認識している領域を検出する手法であるGrad-CAM(Gradient-weighted Class Activation Mapping)法が開示されている。また、非特許文献2には、心電図の信号データと、信号データに対応する感情を教師データとして機械学習を行って学習モデルを生成し、学習モデルが信号データ中で特徴のある部分と認識している部分をGrad-CAM法によって検出する技術が開示されている。
国際公開第2017/145960号
Ramprasaath R. Selvaraju、外5名、"Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization"、[online]、2017年3月21日、[2019年11月23日検索]、インターネット<https://arxiv.org/pdf/1610.02391.pdf> 清水 茂樹、外5名、「深層学習を用いた心電位によるドライバー感情推定」、自動車技術会論文集、自動車技術会、2019年3月15日、第50巻、第2号、p.505-510
しかしながら特許文献1の技術は、次のような点で十分ではない。特許文献1の機械学習装置は、分類確信度の高い画像データを選択的に用いて学習を行っているため、分類確信度が低い画像については学習モデルに十分に反映されない恐れがある。そのため、特許文献1の学習装置が用いている学習モデルでは、分類確信度が低い画像データと類似したような画像データの分類を推定する際に、十分な推定精度が得られない恐れがある。また、非特許文献1および非特許文献2は、学習モデルが注目している部分を検出する技術に関するものであり、推定精度を向上することができる学習モデルを生成する技術については開示されていない。
本発明は、上記の課題を解決するため、様々なデータに対して推定精度を向上することができる学習モデルを生成する学習装置を提供することを目的としている。
上記の課題を解決するため、本発明の学習装置は、学習部と、注目部分検出部と、データ生成部を備えている。学習部は、第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する。注目部分検出部は、生成された学習モデルを用いて第1の学習用データのカテゴリを分類する。注目部分検出部は、その分類をする際に、学習モデルが第1の学習用データ上で注目した部分を検出する。データ生成部は、注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいて、注目した部分を加工した第2の学習用データを生成する。
本発明の学習方法は、第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する。本発明の学習方法は、学習モデルを用いて第1の学習用データのカテゴリを分類する際に、学習モデルが第1の学習用データ上で注目した部分を検出する。本発明の学習方法は、注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいて、注目した部分を加工した第2の学習用データを生成する。
本発明の記録媒体は、コンピュータに処理を実行させるコンピュータプログラムを記録する。コンピュータプログラムは、第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する処理をコンピュータに実行させる。コンピュータプログラムは、学習モデルを用いて第1の学習用データのカテゴリを分類する際に、学習モデルが第1の学習用データ上で注目した部分を検出する処理をコンピュータに実行させる。コンピュータプログラムは、注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいて、注目した部分を加工した第2の学習用データを生成する処理をコンピュータに実行させる。
本発明によると、様々なデータに対して推定精度を向上することができる学習モデルが得られる。
本発明の第1の実施形態の構成を示す図である。 本発明の第1の実施形態における動作フローを示す図である。 本発明の第2の実施形態の構成を示す図である。 本発明の第2の実施形態の学習装置の構成を示す図である。 本発明の第2の実施形態の端末装置の構成を示す図である。 本発明の第2の実施形態における動作フローを示す図である。 本発明の第2の実施形態において機械学習に用いる画像の例を示す図である。 本発明の第2の実施形態において注目部分にマーキングを行った画像の例を示す図である。 本発明の第2の実施形態において学習モデルが注目部分を模式的に示した画像の例を示す図である。 本発明の第2の実施形態において学習モデルが注目部分を模式的に示した画像の例を示す図である。 本発明の第2の実施形態における比較画像の例を示す図である。 本発明の第2の実施形態において不活性化の加工を行った画像の例を示す図である。 本発明の第2の実施形態において不活性化の加工を行った画像の例を示す図である。 本発明の第3の実施形態の構成を示す図である。 本発明の第3の実施形態の学習装置の構成を示す図である。 本発明の第3の実施形態の学習装置の動作フローを示す図である。 本発明の第3の実施形態におけるユーザインタフェースの例を示す図である。 本発明の第3の実施形態におけるユーザインタフェースの例を示す図である。 本発明の第3の実施形態におけるユーザインタフェースの例を示す図である。 本発明の第3の実施形態におけるユーザインタフェースの例を示す図である。 本発明の推定装置の構成を示す図である。 本発明の他の構成の例を示す図である。
(第1の実施形態)
本発明の第1の実施形態について図を参照して詳細に説明する。図1Aは、本実施形態の学習装置の構成を示した図である。また、図1Bは、本実施形態の学習装置の動作フローを示した図である。本実施形態の学習装置は、学習部1と、注目部分検出部2と、データ生成部3を備えている。
学習部1は、第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する。注目部分検出部2は、生成された学習モデルを用いて第1の学習用データのカテゴリを分類する。注目部分検出部2は、その分類をする際に、学習モデルが第1の学習用データ上で注目した部分を検出する。データ生成部3は、注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいて、注目した部分を加工した第2の学習用データを生成する。データ生成部3は、例えば、第1の学習用データ上において学習モデルを用いてカテゴリを分類するときに注目した部分が、予め決定された注目すべき部分(注目決定部分)に対し一致する割合(一致の割合)が所定値より低い場合、注目した部分の分類に対する寄与が小さくなるように注目した部分を加工して第2の学習用データを学習モデルの学習用データとして生成する。たとえば、データ生成部3は、一致の割合を検出する一致検出部とデータ加工部とを含む。データ加工部は、一致の割合が所定値より低い場合、学習モデルが注目した部分に対して、学習モデルがカテゴリを分類しないよう加工し、加工によって第2の学習用データを学習モデルの学習用データとして生成する。
本実施形態の学習装置の動作の一例について説明する。図1Bに示すように、本実施形態の学習装置の学習部1は、第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する(ステップS1)。学習モデルが生成されると、注目部分検出部2は、学習部1に対し、生成した学習モデルを用いて第1の学習用データのカテゴリを分類するように指示する。注目部分検出部2は、分類の際に学習モデルが注目した部分を検出する(ステップS2)。学習モデルが注目した部分の検出が行われると、データ生成部3は、第1の学習用データ上において学習モデルを用いてカテゴリを分類するときに注目した部分が予め決定された注目決定部分に対し一致する割合を検出する。
注目すべき部分である注目決定部分について説明する。たとえば、第1に、第1の学習用データが画像で、ステップS2においてその画像に映っている対象物である犬を識別する場合、学習部1は画像を犬のカテゴリに分類するものとする。この場合、注目決定部分は、画像中の犬が映っている部分である。第2に、第1の学習用データがテキストデータを含む言語データで、ステップS2において学習部1は言語データが含意するカテゴリを分類するものとする。この場合、注目決定部分はカテゴリの分類に強く影響を与える部分であり、たとえば、単語、カテゴリに関連する表現部分である。第3に、第1の学習用データが時系列の信号を表す時系列データで、ステップS2において学習部1は時系列データのカテゴリ、たとえば、時系列データが異常か正常かを分類するものとする。この場合、注目決定部分はカテゴリの分類に強く影響を与える部分である。たとえば正常状態と区別される、異常な波形の部分あるいは、異常につながる兆候が生じた部分である。
データ生成部3は、一致の割合が所定値より低い場合、ステップS2において注目部分検出部2で検出された注目した部分を加工した第2の学習用データを生成する(ステップS3)。ステップS3の加工により、第2の学習用データを用いた学習では本来注目すべきでない部分に注目して分類しないよう学習モデルが生成される。
なお、一致の割合とは、たとえば、学習モデルが注目した部分を、予め決定された注目決定部分と比較することにより生成される指標であり、その指標は、両部分の位置の一致の割合を示す。また、一致の割合が所定値より低い場合に学習モデルがカテゴリを分類しないよう加工するとは、学習データに対し分類を行う学習モデルを生成する機械学習を行うときに、注目部分検出部2が注目した部分のカテゴリの分類への寄与が小さくなるように加工することをいう。学習モデルがカテゴリを分類しないよう加工する際に、注目部分検出部2が注目した部分がカテゴリの分類に寄与しない程度に加工を行ってもよい。その具体的な加工方法については、第2の実施形態で説明される加工方法が利用される。そのように学習モデルが注目した部分にカテゴリを分類しないように加工することは、注目した部分で機械学習が発火しないよう加工すること、言い換えれば、機械学習において不活性化する加工を施すことを意味する。
本実施形態の学習装置では、一致の割合が所定値より低い場合、学習モデルが注目した部分に対し学習モデルがカテゴリを分類しないよう加工したデータを、第2の学習用データとして学習に用いる。したがって、第2の学習用データを用いた学習後には、注目すべきでない部分に注目してカテゴリを分類する学習を行う可能性が低くなる。よって、本実施形態の学習装置は、同じカテゴリに分類するための様々な学習データに対して、注目すべき箇所に適切に注目して学習を行った学習モデルを生成することができる。たとえば、学習部は、分類確信度が低い第1の学習用データを用いて学習モデルを学習した場合でも、第2の学習用データによる学習によって学習モデルが再構成され、注目すべき箇所に適切に注目するように学習される。そのため、本実施形態の学習装置は、様々なデータに対して分類の精度を向上することができる。これによって、最終的に生成される学習モデルによるカテゴリ分類の推定の精度を向上することができる。
(第2の実施形態)
本発明の第2の実施形態について図を参照して詳細に説明する。図2は、本実施形態の学習システムの構成を示した図である。本実施形態の学習システムは、学習装置10と、端末装置100を備えている。学習装置10と端末装置100は、通信ケーブルまたはネットワークを介して接続されている。学習装置10と端末装置100は、無線回線を介して接続されていてもよい。
本実施形態の学習システムは、分析対象のデータとラベルデータを教師データとして用い、CNN(Convolutional Neural Network)を代表とするニューラルネットワーク(NN)を用いたディープラーニングによって学習モデルを生成する機械学習システムである。分析対象のデータは、例えば、画像、言語および時系列信号などCNNを用いた機械学習が適用可能なサンプルデータである。以下では、カテゴリを分類する対象となる物体が画像中に含まれる画像データと、物体の分類カテゴリを示すラベルデータを基に、画像中の物体が分類されるカテゴリを推定する学習モデルを生成する場合を例に説明する。
学習装置10の構成について説明する。図3は、本実施形態の学習装置10の構成を示した図である。学習装置10は、学習用データ入力部11と、学習用データ保存部12と、学習部13と、学習モデル保存部14と、注目部分検出部15と、一致検出部16と、データ加工部17を備えている。一致検出部16と、データ加工部17は、データ生成手段の一例である。
学習用データ入力部11は、カテゴリを分類する対象となる物体が画像中に含まれる画像データと、対象の物体の分類を示すラベルデータからなる機械学習の学習用データ(第1の学習用データ)と、注目決定部分の情報とを受け付ける。学習用データ入力部11は、注目決定部分の情報及び学習用データを端末装置100から受け取る。学習用データ入力部11は、注目決定部分の情報及び学習用データを互いに関連付けして学習用データ保存部12に保存する。
注目決定部分の情報は、カテゴリを分類する対象が存在する部分を示す情報であり、画像の場合、対象の物体が存在する画像上の領域を示す情報である。具体的に言えば、注目決定部分は、例えば、犬が映っている画像データと犬を示す正解ラベルデータを教師データとして機械学習を行うとき、画像上において犬が映っている領域が該当する。
注目決定部分は、たとえば、ユーザが、図示しない入力デバイスを操作することによって設定される。ユーザが入力デバイスに表示されている学習用データの画像上で、カテゴリが判断されるべき対象を囲むようカーソルを移動させる、あるいはタッチ入力することでマーキングを施すことで、対象の位置を示す軌跡が生成される。このように生成されたマーキングの軌跡で囲まれた画像部分が、注目決定部分として設定される。注目決定部分を示す情報は、マーキング軌跡で囲まれた画像部分を含む画像データである。マーキングについては、端末装置100の説明においても詳述する。
なお、注目決定部分の情報は、上記以外の画像データであってもよい。また、学習用データがテキストデータあるいは時系列信号のデータであっても、マーキングによって囲まれた部分の領域を端末装置100によって設定可能であれば、注目決定部分の情報は、画像データを用いた注目決定部分の情報と同様に作成される。
学習用データは、機械学習に用いる教師データが含まれるデータであり、カテゴリを分類する対象の物体が画像中に含まれる画像データと、画像データ上の物体の分類を示すラベルデータが組み合わされたデータである。
学習用データ保存部12は、注目決定部分の情報と学習用データを互いに関連付けて保存する。また、学習用データ保存部12は、後述するデータ加工部17において生成された画像データ(第2の学習用データ)を、加工前の画像データが含まれている学習用データ(第1の学習用データ)に関連付けて保存する。
学習部13は、CNNを用いた機械学習によって学習モデルを生成する。学習部13は、学習用データ、すなわち、カテゴリを分類する対象の物体が撮影された画像データと、画像データ上の物体の分類を示すラベルデータを教師データとして用いて、教師データを入力として、画像データ上の物体の分類を推定する学習モデルを生成する。また、学習部13は、データ加工部17で生成された画像データを用いて再学習を行い、学習モデルを更新する。学習部13は、生成した学習モデルのデータを学習モデル保存部14に保存する。また、学習部13は、再学習を行った際に、再学習の結果を用いて学習モデル保存部14に保存されている学習モデルを更新する。また、学習部13は、機械学習によって生成した学習モデルを用いて、未知の画像上の物体の分類を推定する。
注目部分検出部15は、学習部13において学習モデルを用いて第1の学習用データのカテゴリを分類する場合に、学習モデルが第1の学習用データ上で注目した部分を検出する。注目した部分は、カテゴリの分類に寄与した部分である。具体的には、CNNを用いた機械学習によって生成された学習モデルを用いて物体のカテゴリを分類する際に、カテゴリを分類する対象の物体が存在すると認識した領域を注目した部分として検出する。注目部分検出部15は、たとえば、非特許文献1に開示されているGrad-CAM(Gradient-weighted Class Activation Mapping)法を用いて、注目した部分を抽出する。CNNを用いてカテゴリの分類を推定する際に、学習モデルが注目している部分をGRAD-CAM法を用いて検出することは特徴部位の可視化ともいう。また、学習モデルが注目した部分は、分類に影響を与えた特徴量を有するので、特徴部位とも呼ばれる。
機械学習の学習モデルが回帰型ニューラルネットワーク(Recurrent Neural Network:RNN)の場合、注目部分検出部15は、Attentionと呼ばれる注目部分の視覚化手法を用いて、学習モデルが注目した部分の検出および注目した部分の視覚化を実行してもよい。なお、注目部分検出部15がNNの学習モデルが注目した部分を検出する手法は、Grad-CAMやAttentionによる手法に限定されない。Attentionによる手法は、F. Wang, et al., “Residual Attention Network for Image Classification”, arXiv:1704.06904v1 [cs.CV] 23 Apr 2017に開示されており、詳しい説明は省略する。
一致検出部16は、学習用データに関連付けされた注目決定部分の情報と、Grad-CAM法を用いて検出した部分のデータを用いる。一致検出部16は、学習モデルが物体のカテゴリの分類を推定している際に注目した部分が注目決定部分に対して一致する割合を判定する。たとえば、一致検出部16は、学習用データに関連付けされた注目決定部分のデータと、Grad-CAM法を用いて検出された注目した部分の情報を比較し一致の割合を算出する。
一致検出部16は、例えば、注目決定部分と注目した部分とが互いに重なっている部分のピクセルの数(第1のピクセル数)を検出する。一致検出部16は、注目部分検出部15が検出した注目した部分のピクセル数(第2のピクセル数)を検出する。一致検出部16は、検出した第1のピクセル数の第2のピクセル数に対する比を、一致の割合として算出する。一致検出部16は、一致の割合があらかじめ設定された基準値未満のとき、学習モデルが注目した部分が注目決定部分と一致していないと判定する。
データ加工部17は、一致の割合が基準値未満と判定された学習用データの画像について、学習モデルが注目した部分を学習モデルがカテゴリを分類しないようにする加工を行う。したがって、加工後の第2の学習用データには、カテゴリを分類する対象が存在すると機械学習が認識できる特徴がない。学習モデルがカテゴリを分類しないよう加工するとは、機械学習に対して不活性化するともいう。学習部13が第2の学習用データを用いて再学習して学習モデルを更新する機械学習を行う場合、誤った注目部分によって機械学習が活性化されない、つまり誤った注目部分がカテゴリへの分類に寄与することは、避けられる。
データ加工部17は、例えば、学習用データに関連付けされた注目決定部分に対応する画像部分以外の部分のコントラスト比をあらかじめ設定された基準以下まで下げることで学習モデルがカテゴリを分類しないようにする。学習モデルがカテゴリを分類しないようにする加工は、注目決定部分との一致の割合が基準未満となった注目部分にのみ行われてもよい。学習モデルがカテゴリを分類しないようにする加工は、加工を施す領域内の各ピクセル間の輝度または色度のいずれか一方の差、または両方の差をあらかじめ設定された範囲内に変更することで行われてもよい。
学習モデルがカテゴリを分類しないようにする加工は、注目決定部分との一致の割合が基準未満となった注目部分に、ランダムなパターンによるノイズの付加や、ドットパターンやその他のパターンの図形を多数、付加することで行われてもよい。また、学習モデルがカテゴリを分類しないようにする加工は、注目決定部分との一致の割合が基準未満となった注目部分をあらかじめ設定された色で塗りつぶすことによって行われてもよい。
データ加工部17は、一致の割合に応じて加工の強度を変化させる。データ加工部17は、注目決定分部に対応する画像部分以外の部分のコントラスト比を一致の割合に応じて変化させる。データ加工部17は、一致の割合が下がるにつれてコントラスト比を下げるように加工する。一致の割合とコントラスト比の関係はあらかじめ設定されている。加工を施す領域内の各ピクセル間の輝度や色度を変化させる場合も同様に、一致の割合が下がるにつれて各ピクセル間の輝度や色度の差を小さくする。
データ加工部17は、注目決定部分との一致の割合が基準未満となった、学習モデルによる注目部分に加工を施す際に、加工を施す対象となる部分の大きさを一致の割合に応じて変化させてもよい。例えば、データ加工部17は、一致の割合が低くなるにつれて加工を施す対象となる部分が大きくなるように加工を施す。また、データ加工部17は、注目決定部分との一致の割合が基準未満となった注目部分に、ランダムなパターンによるノイズやドットパターン付加することで学習モデルがカテゴリを分類しないようにする加工を施す際に、一致の割合に応じてランダムなパターンやノイズの密度を変化させてもよい。例えば、データ加工部17は、一致の割合が低くなるにつれてランダムなパターンやノイズの密度が大きくなるように加工を施す。
データ加工部17が、学習モデルがカテゴリを分類しないようにする加工の強度は、一致の割合を複数段階に分け、一致の割合の段階に応じて段階的に設定されていてもよい。また、データ加工部17が、学習モデルがカテゴリを分類しないようにする加工は、一致の割合に応じて上述した加工方法が組み合わされて行われてもよい。また、データ加工部17が、学習モデルがカテゴリを分類しないようにする加工は、一致の割合が基準未満であったときにあらかじめ設定された一定の強度で行われてもよい。
図10は、Grad-CAM法によって検出した注目部分と、学習用データの画像に関連付けされた注目決定部分を同一の画像上に示した比較画像の例を模式的に示した図である。また、図11および図12は、注目決定部分に対応する画像部分以外の部分を学習モデルがカテゴリを分類しないようにする加工を画像データに施した場合の例を模式的に示した図である。
図11では、注目決定部分に対応する画像部分以外の部分のコントラスト比を所定の値まで下げた場合の例を示している。また、図12は、注目決定部分との一致の割合が基準未満となった、注目部分のみコントラスト比を所定の値まで下げた場合の例を示している。図11または図12のような加工を行うことで、注目決定部分との一致の割合が基準未満となった、注目部分を、カテゴリの分類に寄与しない部分とすることができるため、加工後の画像を用いて学習を行う際に正しく犬の部分に注目する可能性が高くなる。
学習用データ入力部11、学習部13、注目部分検出部15、一致検出部16およびデータ加工部17における各処理は、CPU(Central Processing Unit)、または、CPUおよびGPU(Graphics Processing Unit)上でコンピュータプログラムを実行することで行われる。各処理を行うコンピュータプログラムは、例えば、ハードディスクドライブに記録されている。CPU、または、CPUおよびGPUは、各処理を行うコンピュータプログラムをメモリ上に読み出すことで実行する。
学習用データ保存部12および学習モデル保存部14は、不揮発性の半導体記憶装置やハードディスクドライブなどの記憶装置またはそれらの記憶装置の組み合わせによって構成されている。学習用データ保存部12および学習モデル保存部14のいずれか一方または両方は、学習装置10の外部に備えられ、ネットワークを介して接続されていてもよい。また、学習装置10は、複数の情報処理装置を組み合わせることで構成されていてもよい。
〔端末装置100の構成〕
図2に示す端末装置100の構成について説明する。図4は、本実施形態の端末装置100の構成を示す図である。端末装置100は、機械学習を行って学習モデル生成する際に学習用データを生成する作業者の操作用端末である。本実施形態の端末装置100は、学習用データ生成部101と、制御部102と、データ送受信部103と、入力部104と、出力部105を備えている。
学習用データ生成部101は、注目決定部分のデータを生成する。注目決定部分のデータの生成方法については後で説明する。注目決定部分のデータは、例えば、学習用モデルに用いる画像データと同じ大きさ、すなわち、同じピクセル数の画像において、注目決定部分を線で囲った画像データとして生成される。注目決定部分のデータは、画像上で注目決定部分を特定できる形式のものであればよく、例えば、注目決定部分以外が黒または他の色で塗りつぶされた画像データであってもよい。学習用データ生成部101は、注目決定部分のデータを学習用データに関連づけたデータとして出力する。
制御部102は、端末装置100の動作全般と、学習装置10における機械学習に必要なデータの送受信の制御を行う。制御部102は、学習装置10から受信した画像データおよび一致の割合のデータの表示装置への出力の制御、並びに作業者の入力結果に応じた動作の制御を行う。
データ送受信部103は、学習装置10に注目決定部分の情報が関連づけられた学習用データを送信する。また、データ送受信部103は、学習モデルがカテゴリを分類しないようにする加工が施された画像データ、一致の割合の算出結果および学習モデルの生成結果などの機械学習を行う際に作業者が確認または選択を行う必要があるデータを学習装置10から受信する。
入力部104は、学習用データに用いる画像中の注目決定部分を示す情報を受け付ける。入力部104は、マウス、ペンタブレットまたはキーボードなどの入力装置からの入力を受け付ける。入力部104に入力データを送る入力装置は、複数の種類の入力装置の組み合わせによって構成されていてもよい。
出力部105は、注目部分の設定を行う際に、設定を行う画像の表示データをディスプレイ装置に出力する。また、出力部105は、制御部102の指示に基づいて学習装置10から送られてきた情報の表示データをディスプレイ装置に出力する。
端末装置100の学習用データ生成部101、制御部102、データ送受信部103、入力部104および出力部105における各処理は、CPU上でコンピュータプログラムを実行することで行われる。各処理を行うコンピュータプログラムは、例えば、ハードディスクドライブに記録されている。CPUは、各処理を行うコンピュータプログラムをメモリ上に読み出すことで実行する。
〔学習システムの動作〕
本実施形態の学習システムの動作について説明する。図5は、本実施形態の学習システムのうち学習装置10の動作フローを示す図である。
始めに、端末装置100において、学習用データに注目決定部分の情報を付加したデータの生成が行われる。注目決定部分の情報は、カテゴリを分類する対象の物体が撮影された画像データに、注目すべき対象の部分を囲むマーキングによる軌跡を付加することで生成される。機械学習に用いる加工前に生成され学習用データに関連付けされる。画像データは、作業の開始前に端末装置100に作業者によって入力される。画像データは、ネットワークを介して端末装置100に入力されてもよい。また、画像データは、あらかじめ学習装置10または端末装置100内に保存されていてもよい。
端末装置100の制御部102は、出力部105に注目決定部分の情報を付加する画像データの出力を要求する。画像データの出力の要求を受けると、出力部105は、画像の分類の指定と注目決定部分の指定を要求する画像データを生成してディスプレイ装置に出力する。
注目決定部分の情報の生成は、カテゴリを分類する対象の物体が映っている画像上の領域に対してマーキングを施すことで行われる。マーキングすることで付加された注目決定部分の情報は、マーキングされた部分を元の画像データとは別の画像データとして学習用データに関連付けされる。注目部分の情報は、マーキングを施した部分の位置や範囲を座標データとして示した数値情報のみのデータとして学習用データに関連付けられてもよい。
マーキングは、例えば、カテゴリを分類する対象の物体が映っている領域の輪郭を線で囲むことで行われる。マーキングは、カテゴリを分類する対象の物体が映っている領域を四角形やその他の多角形の線で囲むことで行われてもよい。マーキングは、線で囲むだけでなく、複数の点を付けることで各点を直線で結んだ内部の領域が注目決定部分として設定されるようにしてもよい。また、マーキングは、カテゴリを分類する対象の物体が映っている領域に丸印やその他形状の印を付けることで行われてもよい。そのような構成とした場合に、印を付けた点を中心として一定の範囲内が注目決定部分として設定されるようにしてもよい。
図6は、カテゴリを分類する対象の物体が映っている画像の例を模式的に示した図である。図6は画像上にカテゴリを分類する対象としたい犬と、猫および家具が存在する場合を示している。なお、図面作成の都合上、図6には、背景が省略されているが、実際の画像には背景が存在するものとする。図7は、注目決定部分のマーキングを行った画像の例を模式的に示した図である。図7では、カテゴリを分類する対象である犬を注目決定部分として線で囲むことでマーキングが行われている。マーキングで囲む注目決定部分に対応する領域は、一般的には犬全体でなく、犬の顔を中心とする領域である。
注目決定部分の情報が関連付けされた学習用データの生成が完了すると、制御部102は、注目決定部分が関連付けされた学習用データを学習装置10に送信する要求をデータ送受信部103に要求する。注目決定部分の情報が関連付けされた学習用データを学習装置10に送信する要求を受け取ると、データ送受信部103は、が関連付けされた学習用データを学習装置10に送る。
端末装置100から学習装置10に送られた学習用データは、学習用データ入力部11から学習装置10に入力される。注目決定部分の情報が関連付けされた学習用データを入力するので、学習用データ入力部11は、注目決定部分の情報が関連付けされた学習用データを学習用データ保存部12に保存する(ステップS11)。
学習用データが保存されると、学習部13は、学習用データ(ここでは第1の学習用データとする)を基にCNNを用いた機械学習を行って学習モデルを生成する(ステップS12)。学習用データを用いた機械学習は、複数の第1の学習用データを用いてあらかじめ設定された回数、反復して行われる。学習部13は、生成した学習モデルのデータを学習モデル保存部14に保存する。
学習モデルが生成されると、注目部分検出部15の動作に移行する。すなわち、注目部分検出部15は、学習部13に対し、たとえば、機械学習に用いた画像データを入力として、学習モデルを用いて物体の分類を推定する処理を行うよう指示する。物体の分類を推定する処理が実行されると、注目部分検出部15は、学習モデルが画像データの物体の分類を行う際に、カテゴリへの分類に寄与した部分、すなわち、学習モデルによって注目された部分(以下、注目部分とも呼ばれる)の検出を行う(ステップS13)。
注目部分検出部15は、Grad-CAM法を用いて画像からテゴリを分類する対象の物体を検出するときの、注目部分の情報を画像ごとに検出する。図8および図9は、Grad-CAM法を用いて検出した注目部分を示す情報をヒートマップとして画像上に付加した例を模式的に示した図である。図8の例では、CNNを用いた学習モデルは、犬に注目している。また、図9の例では、CNNを用いた学習モデルは、猫に注目している。このとき、ラベルデータの正解カテゴリが犬であったとすると、図8の例では、学習モデルは画像上の正しい部分を注目している。一方で、図9の例では、学習モデルは、注目が必要な部分、すなわち、犬が存在する部分とは異なった部分に注目している。
注目部分の情報を検出すると、注目部分検出部15は、検出した注目部分の情報を一致検出部16に送る。注目部分の情報を受け取ると、一致検出部16、学習用データ保存部12から対応する学習用データに関連付けられている注目決定部分の情報を読み出す。注目部分の情報を読み出すと一致検出部16は、Grad-CAM法によって検出した注目部分と、学習用データに関連付けられている注目決定部分を比較する。
一致検出部16は、注目部分検出部15が検出した注目部分の位置が、学習用データに関連付けられている注目決定部分の位置に対し、一致する割合を算出する(ステップS14)。具体的に、一致検出部16は、注目部分検出部15が検出した注目部分と、学習用データに関連付けられている注目決定部分との互いに重なっているピクセルの数を計数する。次に、一致検出部16は、重なっているピクセル数の学習用データに関連付けされた注目決定部分のピクセル数に対する比を一致の割合として算出する。一致の割合を算出すると、一致検出部16は、一致の割合をあらかじめ設定された基準値と比較する。
一致の割合が基準未満であったとき(ステップS15でNo)、一致検出部16は、一致の割合が基準未満の画像データについて、学習モデルがカテゴリを分類しないようにする加工が必要であると判断する。学習モデルがカテゴリを分類しないようにする加工が必要であると判断すると、一致検出部16は、画像データの不活性化の加工の要求をデータ加工部17に送る。
画像データの不活性化の加工の要求を受け取ると、データ加工部17は、一致の割合が基準未満の画像データに対して、一致していない注目部分を学習モデルがカテゴリを分類しないようにする加工を行う(ステップS16)。データ加工部17は、学習用データ保存部12の学習用データに関連付けされた注目決定部分の情報を基に、一致していない注目部分、すなわち、予めマーキングを施した注目決定部分に対応する画像部分以外の部分を学習モデルがカテゴリを分類しないようにする加工を画像データに施す。
画像データの加工を行うと、データ加工部17は、注目すべきではない部分について、学習モデルがカテゴリを分類しないようにする加工を施した画像データを、学習用データ保存部12に保存する(ステップS17)。加工を施したデータが学習用データとして保存されたときに一致の割合が未検出の画像があるとき(ステップS18でYes)、一致の割合が未検出の画像データが学習用データ保存部12から学習部13に出力されステップS13からの動作が繰り返される。加工を施したデータが学習用データとして保存されたときに一致の割合が未検出の画像がないとき(ステップS18でNo)、一致の割合が全ての画像で基準以上であったかの確認が行われる。この場合、一致の割合が基準未満で学習モデルがカテゴリを分類しないようにする加工を施した画像があり、一致の割合が全ての画像で基準以上でないためステップS19でNoとなる。ステップS19でNoとなると、学習部13は、学習用データ保存部12に保存された学習用データを用いて学習モデルの再学習を行う。
再学習は、学習モデルがカテゴリを分類しないようにする加工が施された画像データと、一致の割合が基準を超えているために学習モデルがカテゴリを分類しないようにする加工が施されなかった画像データを教師データとして用いて行われる。再学習を行う際に、加工が行われた画像データの数に対して、加工が行われていない画像データの数が設定されてもよい。また、再学習を行う際に、教師データとして新たな学習用データが用いられてもよい。
再学習を終えると、学習部13は、再学習の結果として生成した学習モデルで、学習モデル保存部14の学習モデルのデータを更新する(ステップS20)。
学習モデルのデータが更新されると、学習部13は、生成した学習モデルの推定精度の検証を行う。学習モデルの精度の検証は、例えば、学習部13が複数の検証用画像の画像データを読み込み、学習モデルを用いて検証用画像上の物体の分類を推定する。学習部13は、推定した物体(のカテゴリ)の分類の結果と、画像データに紐づけられた正解を示すラベルデータを比較することで行われる。そのような方法で、精度の検証が行われる場合に、学習部13は、推定結果とラベルデータが一致する画像の割合(正答率)があらかじめ設定された値以上である場合に、精度が十分であり終了基準を満たすと判断する。終了基準を満たすとき(ステップS21でYes)、学習モデルの生成は完了する。生成が完了した学習モデルは、画像データのカテゴリの分類の推定に用いられる。また、終了基準を満たさないとき(ステップS21でNo)、ステップS13からの動作が繰り返され、一致の割合が基準を満たさない画像に対して学習モデルがカテゴリを分類しないようにする加工が施される。一致の割合が基準未満の画像の再加工は、例えば、コントラスト比を前回の加工時よりも下げることによって行われる。
ステップS15において算出した一致の割合が基準以上であったとき(ステップS15でYes)、一致検出部16は、対応する画像データについて、学習モデルがカテゴリを分類しないようにする加工は不要と判断する。不活性化の加工を不要と判断すると、一致検出部16は、学習用データに不活性化の加工を行っていないことを示す情報を付加してもよい。次に、ステップS18において、一致の割合が未検出の画像があるとき(ステップS18でYes)、一致の割合が未検出の画像データが学習用データ保存部12から学習部13に出力されステップS13からの動作が繰り返される。加工を施したデータが学習用データとして保存されたときに一致の割合が未検出の画像がないとき(ステップS18でNo)、一致の割合が全ての画像で基準以上であったかの確認が行われる。一致の割合が全ての画像で基準以上でないとき、すなわち、学習モデルがカテゴリを分類しないようにする加工を施した画像があるとき(ステップS19でNo)、学習部13は、学習用データ保存部12の学習用データを用いて再学習を行う。再学習は、学習モデルがカテゴリを分類しないようにする加工が行われた画像データと、一致の割合が基準以上で学習モデルがカテゴリを分類しないようにする加工が行われていない画像データの両方を用いて行われる。再学習を終えると、学習部13は、再学習の結果として生成した学習モデルで、学習モデル保存部14の学習モデルのデータを更新する(ステップS20)。
学習モデルのデータが更新されると、学習部13は、生成した学習モデルの精度の検証を行なう。また、ステップS19でYes、すなわち、一致の割合が全ての画像で基準以上であり、学習モデルがカテゴリを分類しないようにする加工を施した画像がないときも学習モデルの精度の検証が行われる。
学習モデルの精度の検証によって、終了基準を満たすとき(ステップS21でYes)、学習モデルの生成は完了する。生成が完了した学習モデルは、画像データの分類の推定に用いられる。また、終了基準を満たさないとき(ステップS21でNo)、ステップS13からの動作が繰り返され、一致の割合が基準を満たさない画像に対して学習モデルがカテゴリを分類しないようにする加工が施される。再学習後に行われる学習モデルがカテゴリを分類しないようにする加工では、例えば、学習用データに関連付けされた注目決定部分以外のコントラスト比をさらに下げる処理や不活性化する領域を広げることによって行われる。
上記の説明では、学習モデルによる注目部分の検出から、一致の割合の判定、画像の加工までの処理を画像データ1枚ごとに行っている。そのような処理方法に代えて、複数の画像データまたは全ての画像データについて、学習モデルによる注目部分の検出を行った後に、一致の割合が基準未満の画像の加工が行われてもよい。
また、ステップS18の代わりに、所定枚数の画像の学習用データに対して全て未検出の画像があるかを判断してもよい。また、ステップS19及びステップS20は、省略してもよい。
上記の説明では、学習装置10と端末装置100をそれぞれ独立した装置としているが、学習装置10が端末装置100の機能の一部または全てを有していてもよい。また、上記の説明では画像上の物体の分類を推定する構成について説明したが、学習装置10は、言語解析や時系列の信号解析に用いることもできる。言語解析に適用する場合には、CNNあるいはRNNを用いた機械学習によって生成した学習モデルに、Grad-CAM法を適用することで言語や信号のどの部分に注目しているかを検出する。
時系列信号の信号解析では、時系列の信号データと、その信号データが指し示す現象を教師データとして、CNNによる機械学習が行われ、信号データのうち学習モデルが注目している部分の情報がGrad-CAM法で検出される。例えば、建造物や機械などの振動の波形データを対応する現象、地震など自然現象や心電図などの生体の観測結果の波形データと対応する現象を教師データとしてCNNを用いた機械学習を行い、学習モデルが注目している部分の情報をGrad-CAM法を用いて検出することができる。そのように、検出した注目部分が、推定対象となる現象に対応する部分と異なっていたときに、学習モデルが注目した部分の信号の波形のフラット化や、ノイズの添加を行うことで学習モデルがカテゴリを分類しないようにする加工を施した学習用データを生成することができる。また、言語解析においても、単語の認識の精度が低いときに、Grad-CAM法を用いて学習モデルが注目している部分を検出し、誤認識に影響を与えていると思われる部分に学習モデルがカテゴリを分類しないようにする加工を施すことで、認識の精度を向上する学習用データを生成することができる。
本実施形態の学習装置10は、CNNやRNNを用いた機械学習によって生成した学習モデルが、データのカテゴリを分類する際に注目している部分を検出している。また、学習装置10は、学習モデルを用いてカテゴリを分類するときに注目した部分が、あらかじめ設定された注目決定部分に対し一致する割合が所定値より低い場合、学習モデルが注目している部分に、学習モデルがカテゴリを分類しないようにする加工を施すことで再学習の際に用いる学習用データを生成している。あらかじめ設定された注目決定部分と一致する割合が低い部分を学習モデルが注目していたときに、学習モデルが注目している部分に学習モデルがカテゴリを分類しないように加工を施したデータを学習用データとして用いて再学習を行うことで、カテゴリを分類する対象により注目した学習が行われるようになる。そのため、本実施形態の学習装置10は、カテゴリを分類する対象となる部分と他の部分の識別が難しいデータが入力された場合にも、カテゴリの分類を精度よく推定できる学習モデルを生成することができる。その結果、本実施形態の学習装置10を用いて生成した学習モデルを用いて推定を行うことで、カテゴリの分類の推定の精度を向上することができる。
(第3の実施形態)
本発明の第3の実施形態の学習システムについて図を参照して詳細に説明する。図13は、本実施形態の学習システムの構成を示した図である。本実施形態の学習システムは、本来注目すべきでない部分に注目して学習モデルがカテゴリを分類しないようにする加工を画像に施す際に、加工後の画像の候補を、ユーザが用いるユーザ端末装置を介してユーザに示すことを特徴とする。ユーザとは、学習モデルの提供を受けてデータの解析に学習モデルを利用する人物のことをいう。
本実施形態の学習システムは、学習装置20と、ユーザ端末装置30と、端末装置100を備えている。端末装置100の構成と機能は、第2の実施形態と同様である。学習装置20と端末装置100は、通信ケーブルまたはネットワークを介して接続されている。また、学習装置20とユーザ端末装置30も、通信ケーブルまたはネットワークを介して接続されている。学習装置20およびユーザ端末装置30は、端末装置100とそれぞれ無線回線を介して接続されていてもよい。
学習装置20の構成について説明する。図14は、本実施形態の学習装置20の構成を示す図である。本実施形態の学習装置20は、学習用データ入力部11と、学習用データ保存部12と、学習部13と、学習モデル保存部14と、注目部分検出部15と、一致検出部16と、データ加工部21と、データ加工制御部22と、ユーザ端末通信部23を備えている。
本実施形態の学習装置20の学習用データ入力部11、学習用データ保存部12、学習部13、学習モデル保存部14、注目部分検出部15および一致検出部16の構成と機能は、第2の実施形態の同名称の部位と同様である。
データ加工部21は、第2の実施形態のデータ加工部17と同様に、学習モデルが注目している部分を学習モデルがカテゴリを分類しないようにする加工を行う。データ加工部21は、学習モデルがカテゴリを分類しないようにする加工を行う際に複数の画像候補を生成する。
データ加工部21は、例えば、学習用モデルに関連付けされた注目決定部分以外の部分について、コントラスト比を下げる加工を行う際にコントラスト比の異なる複数の画像候補を生成する。データ加工部21は、例えば、加工対象となる領域の平均のコントラスト比を算出し、加工対象の領域のコントラスト比が、算出した平均値よりも低く、互いにコントラスト比が異なる複数の画像候補を生成する。データ加工部21は、学習モデルが注目した部分を覆う範囲を変えることで複数の画像候補を生成してもよい。
データ加工制御部22は、データ加工部21が生成した画像候補をユーザ端末装置30にユーザ端末通信部23を介して送る。また、データ加工制御部22は、ユーザ端末装置30から受信する画像候補の選択結果に基づいて、データ加工部21に学習用データとして用いる画像データを指示する。
ユーザ端末通信部23は、ネットワークを介してユーザ端末装置30とデータの送受信を行う。ユーザ端末通信部23は、データ加工制御部22から入力された画像候補のデータをユーザ端末装置30に送信する。また、ユーザ端末通信部23は、ユーザ端末装置30から受信する画像候補の選択結果をデータ加工制御部22に送る。
学習用データ入力部11、学習部13、注目部分検出部15、一致検出部16、データ加工部21、データ加工制御部22およびユーザ端末通信部23における各処理は、CPU、または、CPUおよびGPU上でコンピュータプログラムを実行することで行われる。各処理を行うコンピュータプログラムは、例えば、ハードディスクドライブに記録されている。CPU、または、CPUおよびGPUは、各処理を行うコンピュータプログラムをメモリ上に読み出すことで実行する。
学習装置20の学習用データ保存部12および学習モデル保存部14は、不揮発性の半導体記憶装置やハードディスクドライブなどの記憶装置またはそれらの記憶装置の組み合わせによって構成されている。学習用データ保存部12および学習モデル保存部14のいずれか一方または両方は、学習装置20の外部に備えられ、ネットワークを介して接続されていてもよい。また、学習装置20は、複数の情報処理装置を組み合わせることで構成されていてもよい。
ユーザ端末装置30は、学習モデルがカテゴリを分類しないようにする加工を行う際の画像候補のデータを、ディスプレイ装置に表示しユーザに提示する。ユーザ端末装置30は、ユーザの選択結果を学習装置20に送信する。ユーザ端末装置30には、パーソナルコンピュータやタブレット型端末装置などの通信機能を有する情報処理装置が用いされる。
本実施形態の学習システムの動作について説明する。図15は、学習装置20の動作フローを示す図である。
本実施形態において、注目部分の情報を付加した学習用データを生成する動作は、第2の実施形態と同様である。また、本実施形態において、生成した学習用データを教師データとしてCNNを用いた機械学習をあらかじめ設定された回数、反復して学習モデルを生成し、注目部分の検出を行って、一致の割合の算出を行うステップS31からS34までの動作は、第2の実施形態のステップS11からS14までの動作と同じである。よって、以下では、ステップS34において一致の割合の算出を行った後の動作から説明する。
ステップS34において一致の割合を算出すると、一致検出部16は、算出した一致の割合をあらかじめ設定された基準値と比較する。
算出した一致の割合が基準未満であったとき(ステップS35でNo)、一致検出部16は、対応する画像データについて、学習用データに関連付けされた注目決定部分以外の画像部分を学習モデルがカテゴリを分類しないようにする加工が必要であると判断する。学習モデルがカテゴリを分類しないようにする加工が必要であると判断すると、一致検出部16は、学習モデルがカテゴリを分類しないようにする加工の要求をデータ加工部21に送る。
学習モデルがカテゴリを分類しないようにする加工の要求を受け取ると、データ加工部21は、学習用データに関連付けされた注目決定部分以外の部分を学習モデルがカテゴリを分類しないようにする加工を行う(ステップS36)。学習モデルがカテゴリを分類しないようにする加工は、第2の実施形態と同様に行われる。
データ加工部21は、学習モデルがカテゴリを分類しないようにする加工を行う際に、複数の画像候補を生成する。データ加工部21は、例えば、学習用モデルに付加された注目部分以外の部分について、コントラスト比を下げる加工を行う際にコントラスト比の異なる複数の画像候補を生成する。データ加工部21は、例えば、加工対象となる領域の平均のコントラスト比を算出し、加工対象の領域のコントラスト比が、算出した平均値よりも低く、互いにコントラスト比が異なる複数の画像候補を生成する。データ加工部21は、学習モデルが注目した部分を覆う範囲を変えることで複数の画像候補を生成してもよい。
学習モデルがカテゴリを分類しないようにする加工を行うと、データ加工部21は、不活性化した画像データを一時保存する。データ加工部21が画像データを保存した際に、一致の割合の判定が未了の画像が存在するとき(ステップS37でYes)、ステップS33に戻り、一致の割合の判定が未了の画像について学習モデルが注目している部分の検出が行われる。
データ加工部21が画像データを保存した際に、一致の割合の判定がすべての画像について完了しているとき(ステップS37でNo)、一致の割合が全ての画像で基準以上であったかの確認が行われる。一致の割合が全ての画像で基準以上でないとき、すなわち、学習モデルがカテゴリを分類しないようにする加工を施した画像があるとき(ステップS38でNo)、データ加工部21は、生成した候補の画像候補のデータをデータ加工制御部22に送る。画像候補のデータを受け取ると、データ加工制御部22は、画像候補のデータをユーザ端末通信部23に送る。画像候補のデータと送信の要求を受け取ると、ユーザ端末通信部23は、受け取った画像候補のデータをユーザ端末装置30にネットワークを介して送信する(ステップS39)。
ユーザ端末装置30は、ネットワークを介して学習装置20からデータを受信し、候補画像のデータを取得する。画像候補のデータを取得すると、ユーザ端末装置30は、画像候補からいずれかの画像をユーザが選択する際の表示データを生成して表示データをディスプレイ装置に表示する。
ユーザは、表示を参照し画像候補のデータから適切な加工内容を選択し、選択結果を入力する。加工の内容の選択は画像ごとに行われてもよく、物体の分類ごとに行われてもよい。
図16は、候補データ出力部33がディスプレイ装置に送る表示データの例を模式的に示した図である。図16の例では、1つの画像に対して、2通りの加工を行った場合の加工後の画像が候補A、候補Bとして示されている。また、ユーザが候補画像を選択する際の選択ボタンが表示されている。ユーザは、例えば、マウスを用いて候補Aか候補Bを選択することで選択結果を入力する。
ユーザによる選択結果の入力が行われると、ユーザ端末装置30は、選択結果を学習装置20にネットワークを介して送信する。
学習装置20のユーザ端末通信部23は、ネットワークを介してユーザ端末装置30からデータを受信し、選択結果を取得する(ステップS40)。選択結果を取得すると、ユーザ端末通信部23は、取得した選択結果をデータ加工制御部22に送る。選択結果を受け取ると、データ加工制御部22は、選択結果に示されている画像を、学習用データとして用いる画像データとして選択する情報をデータ加工部21に送る。
学習用データとして用いる画像データの情報を受け取ると、データ加工部21は、受け取った情報に対応する画像データを、学習用データとして学習用データ保存部12に保存する(ステップS41)。加工が行われた画像データが学習用データとして保存されると、学習部13は、保存された学習用データを用いて再度、CNNを用いた機械学習を実行し学習モデルの再学習を行う(ステップS42)。再学習は、学習モデルがカテゴリを分類しないようにする加工が行われた画像データと、一致の割合が基準以上で学習モデルがカテゴリを分類しないようにする加工が行われていない画像データの両方を用いて行われる。
再学習が完了すると、学習部13は、学習モデルによる推定精度の検証を行なう。また、ステップS38でYes、すなわち、一致の割合が全ての画像で基準以上であり、学習モデルがカテゴリを分類しないようにする加工を施した画像がないときも学習モデルの精度の検証が行われる。
推定精度の検証は、第2の実施形態と同様に行われる。学習モデルによる推定精度の検証を行った際に、推定精度が基準を満たすとき(ステップS43でYes)、学習モデルの生成は完了する。推定精度が基準を満たさないとき(ステップS43でNo)、ステップS33に戻り、一致の割合が基準を満たさない画像に対して学習モデルがカテゴリを分類しないようにする加工が施される。
上記の例では、加工内容の選択を行う際に、ユーザ端末装置30がディスプレイ装置に加工内容ごとの加工後の画像の状態を表示する例を示した。ユーザ端末装置30は、学習モデルが注目している部分を画像上に重ねてディスプレイ装置に表示してもよい。
図17は、学習モデルが注目している部分を画像上に重ねて示した表示データの例を模式的に示した図である。図17では、画像1および画像2のそれぞれの画像に対して学習モデルが注目した部分が、ヒートマップとして示されている。また、図17の表示データでは、他の画像の表示を行うための操作ボタンが表示されている。
図18は、学習用データとして用いた画像に付加した注目部分と、学習モデルが注目による注目部分を画像上に示した画像データを並べて表示する表示データの例を模式的に示した図である。図18では、画像に付加した注目部分のマーキングが示された画像と、学習モデルが注目した部分のヒートマップとして示されている画像を並べて表示する表示データを示している。また、図18の表示データでは、他の画像の表示を行うための操作ボタンが表示されている。
図19は、学習用データとして用いた画像に付加した注目部分と、学習モデルが注目による注目部分を画像上に示した画像データを重ねて表示する表示データの例を模式的に示した図である。図19では画像1と、画像2の2つの画像について、画像に付加した注目部分のマーキングと、学習モデルが注目した部分のヒートマップが同一の画像上に重ねて示されている。また、図19の表示データでは、他の画像の表示を行うための操作ボタンが表示されている。
上記の説明では、学習モデルによる注目部分の検出から、一致の割合の判定、画像の加工までの処理を画像データ1枚ごとに行っている。そのような処理方法に代えて、複数の画像データまたは全ての画像データについて、学習モデルによる注目部分の検出を行った後に、一致の割合が基準未満の画像の加工が行われてもよい。
上記の説明では、学習装置20、ユーザ端末装置30および端末装置100をそれぞれ独立した装置としているが、他の装置が有する機能の一部または全てを有していてもよい。例えば、学習装置20が端末装置100の機能の一部または全てを有していてもよい。また、ユーザ端末装置30と端末装置100は、一体の装置として構成されていてもよく、他の装置が有する機能の一部を重複して有していてもよい。また、上記の説明では画像上の物体の分類を推定する構成について説明したが、学習装置20は第2の実施形態と同様に、言語解析や時系列の信号解析に用いることもできる。
本実施形態の学習システムは、学習装置20がカテゴリを分類しないようにする加工を行う際の加工後の状態を示す画像データをユーザ端末装置30に送信している。ユーザ端末装置30がディスプレイ装置に加工後の状態を示す画像を表示することでユーザは、加工後の状態を見ながら画像の加工状態を選択することができる。よって、ユーザが適切な加工状態を選択できるようになり用途に応じた適切な学習モデルを生成することができる。そのため、本実施形態の学習モデルを用いることで学習モデルの推定精度が向上する。
第2の実施形態および第3の実施形態において機械学習によって生成された学習モデルは、図20のような推定装置において、入力されたデータのカテゴリの分類を推定する学習モデルとして用いることができる。図20は、推定装置40の構成を示す図である。図20の推定装置40は、第2の実施形態および第3の実施形態において機械学習によって生成された学習モデルを用いて、入力されるデータの推定を行う装置である。以下では、画像上の物体の分類を推定する推定装置の場合を例に説明する。
図20の推定装置40は、データ入力部41と、データ保存部42と、推定部43と、学習モデル保存部44と、推定結果出力部45を備えている。
データ入力部41は、画像上の物体の分類を推定する画像データの入力を受け付ける。データ入力部41は、入力された画像データをデータ保存部42に保存する。
データ保存部42は、データ入力部41に入力された画像データを保存する。
推定部43は、学習モデル保存部44に保存された学習モデルを用いて、画像データに撮影されている物体の分類を推定する。推定装置40において用いられる学習モデルは、第2の実施形態および第3の実施形態において生成される学習モデルと同様の学習モデルである。
学習モデル保存部44は、機械学習による学習済みのモデル、すなわち、学習モデルを保存する。学習モデルは、作業者によって推定装置40に入力される。学習モデルは、ネットワークを介した他のサーバから取得されてもよい。
推定結果出力部45は、推定部43による画像上の分類の推定結果をディスプレイ装置に送る。推定結果出力部45は、推定部43による推定結果を他の端末装置にネットワークを介して送信してもよい。
図20の推定装置40は、第2の実施形態および第3の実施形態の学習システムの一部として備えられていてもよい。そのような構成とした場合に、推定装置40への画像データの入力および推定結果の取得を、端末装置やユーザ端末装置を用いて行う構成としてもよい。また、上記の説明では画像上の物体の分類を推定する学習モデルについて説明したが、推定装置40は、言語解析や時系列の信号解析を行う学習モデルによる分類の推定に用いることもできる。
第1の実施形態の学習装置、第2の実施形態の学習装置および第3の実施形態の学習装置における各処理は、コンピュータプログラムをコンピュータで実行することによって行うことができる。図21は、学習装置における各処理を行うコンピュータプログラムを実行するコンピュータ50の構成の例を示したものである。コンピュータ50は、CPU51と、メモリ52と、記憶装置53と、I/F(Interface)部54を備えている。また、第2の実施形態および第3の実施形態の端末装置、第3の実施形態のユーザ端末、並びに第4の実施形態の推定装置も同様の構成を備えている。
CPU51は、記憶装置53から各処理を行うコンピュータプログラムを読み出して実行する。コンピュータプログラムを実行する演算処理部は、CPU51に代えて、CPUとGPUとの組み合わせによって構成されていてもよい。メモリ52は、DRAM(Dynamic Random Access Memory)等によって構成され、CPU51が実行するコンピュータプログラムや処理中のデータが一時保存される。記憶装置53は、CPU51が実行するコンピュータプログラムを保存している。記憶装置53は、例えば、不揮発性の半導体記憶装置によって構成されている。記憶装置53には、ハードディスクドライブ等の他の記憶装置が用いられてもよい。I/F部54は、学習システムの他のユニットや管理対象のネットワークの端末等との間でデータの入出力を行うインタフェースである。コンピュータ50は、通信ネットワークを介して他の情報処理装置と通信を行う通信モジュールをさらに備えていてもよい。
また、各処理に行うコンピュータプログラムは、記録媒体に格納して頒布することもできる。記録媒体としては、例えば、データ記録用磁気テープや、ハードディスクなどの磁気ディスクを用いることができる。また、記録媒体としては、CD-ROM(Compact Disc Read Only Memory)等の光ディスクを用いることもできる。不揮発性の半導体記憶装置を記録媒体として用いてもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する学習手段と、
前記学習モデルを用いて前記第1の学習用データのカテゴリを分類する際に、前記学習モデルが前記第1の学習用データ上で注目した部分を検出する注目部分検出手段と、
前記注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいて、前記注目した部分を加工した第2の学習用データを生成するデータ生成手段と
を備える学習装置。
(付記2)
前記データ生成手段は、前記注目した部分が前記注目決定部分に対し一致する割合が所定値よりも低い場合に、前記注目した部分の前記分類に対する寄与が小さくなるように前記注目した部分を加工して前記第2の学習用データを生成する付記1に記載の学習装置。
(付記3)
前記データ生成手段は、
前記注目決定部分が、前記学習モデルを用いてカテゴリを分類するときに前記注目した部分に対し一致する割合を検出する一致検出手段と、
前記一致の割合が所定値より低い場合、前記注目した部分に対して、前記学習モデルがカテゴリを分類しないよう加工し、加工によって前記第2の学習用データを生成するデータ加工手段と
を含む付記1または2に記載の学習装置。
(付記4)
前記学習手段は、前記第2の学習用データを用いた再学習によって前記学習モデルを更新する付記1から3いずれかに記載の学習装置。
(付記5)
前記学習手段は、前記学習モデルの推定精度が所定の基準を満たすとき、前記学習モデルの生成が終了したと判断する付記1から4いずれかに記載の学習装置。
(付記6)
前記データ上においてカテゴリを分類する対象が存在する部分の情報を注目部分の情報として前記第1の学習用データに関連付けて保存する学習用データ保存手段をさらに備える付記1から5いずれかに記載の学習装置。
(付記7)
前記データ生成手段は、前記第2の学習用データを生成する際に、それぞれ異なる複数の加工内容に基づいて加工を施した前記第2の学習用データを生成する付記1から6いずれかに記載の学習装置。
(付記8)
前記学習手段は、前記注目決定部分の情報としてカテゴリを分類する対象が存在する画像上の領域を示す情報を関連付けた前記第1の学習用データを用いて機械学習を実行して、前記画像上の物体の分類を推定する学習モデルを生成し、
前記データ生成手段は、前記画像上において前記学習モデルを用いて前記カテゴリを分類するときに前記注目した部分が、前記注目決定部分に対し一致する割合が所定値より低い場合、前記画像上の前記注目した部分がカテゴリの分類に寄与しないように加工し前記第2の学習用データを生成する付記1から7いずれかに記載の学習装置。
(付記9)
前記データ生成手段は、前記注目した部分と前記注目決定部分が重なっている部分である第1のピクセル数の前記学習モデルが前記注目した部分である第2のピクセル数に対する比を前記一致する割合として算出する付記8に記載の学習装置。
(付記10)
前記データ生成手段は、前記画像のコントラスト比、輝度または色度のうち少なくとも1つを変化させる加工を施して前記第2の学習用データを生成する付記8または9に記載の学習装置。
(付記11)
第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成し、
前記学習モデルを用いて前記第1の学習用データのカテゴリを分類する際に、前記学習モデルが前記第1の学習用データ上で注目した部分を検出し、
前記注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいて、前記注目した部分を加工した第2の学習用データを生成する
学習方法。
(付記12)
前記注目した部分が前記注目決定部分に対し一致する割合が所定値よりも低い場合に、前記注目した部分の前記分類に対する寄与が小さくなるように前記注目した部分を加工して前記第2の学習用データを生成する付記11に記載の学習方法。
(付記13)
前記注目決定部分が、前記学習モデルを用いてカテゴリを分類するときに前記注目した部分に対し一致する割合を検出し、
前記一致の割合が所定値より低い場合、前記注目した部分に対して、前記学習モデルがカテゴリを分類しないよう加工し、加工によって前記第2の学習用データを生成する付記11または12に記載の学習方法。
(付記14)
前記第2の学習用データを用いた再学習によって前記学習モデルを更新する付記11から13いずれかに記載の学習方法。
(付記15)
前記学習モデルの推定精度が所定の基準を満たすとき、前記学習モデルの生成が終了したと判断する付記11から14いずれかに記載の学習方法。
(付記16)
前記データ上においてカテゴリを分類する対象が存在する部分の情報を注目部分の情報として前記第1の学習用データに関連付けて保存する付記11から15いずれかに記載の学習方法。
(付記17)
前記第2の学習用データを生成する際に、それぞれ異なる複数の加工内容に基づいて加工を施した前記第2の学習用データを生成する付記11から16いずれかに記載の学習方法。
(付記18)
前記注目決定部分の情報としてカテゴリを分類する対象が存在する画像上の領域を示す情報を画像データと関連付けた前記第1の学習用データを用いて機械学習を実行して、前記画像上の物体の分類を推定する学習モデルを生成し、
前記画像上において前記学習モデルを用いて前記カテゴリを分類するときに前記注目した部分が、前記注目決定部分に対し一致する割合が所定値より低い場合、前記画像上の前記注目した部分がカテゴリの分類に寄与しないように加工し前記第2の学習用データを生成する付記11から17いずれかに記載の学習方法。
(付記19)
前記注目した部分と前記注目決定部分が重なっている部分である第1のピクセル数の前記学習モデルが前記注目した部分である第2のピクセル数に対する比を前記一致する割合として算出する付記18に記載の学習方法。
(付記20)
前記画像のコントラスト比、輝度または色度のうち少なくとも1つを変化させる加工を施して前記第2の学習用データを生成する付記18または19に記載の学習方法。
(付記21)
第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する処理と、
前記学習モデルを用いて前記第1の学習用データのカテゴリを分類する際に、前記学習モデルが前記第1の学習用データ上で注目した部分を検出する処理と、
前記注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいて、前記注目した部分を加工した第2の学習用データを生成する処理と
をコンピュータに実行させるコンピュータプログラムを記録した記録媒体。
(付記22)
記注目した部分が前記注目決定部分に対し一致する割合が所定値よりも低い場合に、前記注目した部分の前記分類に対する寄与が小さくなるように前記注目した部分を加工して前記第2の学習用データを生成する処理をコンピュータに実行させるコンピュータプログラムを記録した付記21に記載の記録媒体。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
1 学習部
2 注目部分検出部
3 データ生成部
10 学習装置
11 学習用データ入力部
12 学習用データ保存部
13 学習部
14 学習モデル保存部
15 注目部分検出部
16 一致検出部
17 データ加工部
20 学習装置
21 データ加工部
22 データ加工制御部
23 ユーザ端末通信部
30 ユーザ端末装置
31 候補データ受信部
32 ユーザ端末制御部
33 候補データ出力部
34 選択結果入力部
35 選択結果送信部
40 推定装置
41 データ入力部
42 データ保存部
43 推定部
44 学習モデル保存部
45 推定結果出力部
50 コンピュータ
51 CPU
52 メモリ
53 記憶装置
54 I/F部
100 端末装置
101 学習用データ生成部
102 制御部
103 データ送受信部
104 入力部
105 出力部

Claims (10)

  1. 第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する学習手段と、
    前記学習モデルを用いて前記第1の学習用データのカテゴリを分類する際に、前記学習モデルが前記第1の学習用データ上で注目した部分を検出する注目部分検出手段と、
    前記注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいた強度による加工によって、前記注目した部分を加工した第2の学習用データを生成するデータ生成手段と
    を備える学習装置。
  2. 前記データ生成手段は、前記注目した部分が前記注目決定部分に対し一致する割合が所定値よりも低い場合に、前記注目した部分の前記分類に対する寄与が小さくなるように前記注目した部分を加工して前記第2の学習用データを生成する請求項1に記載の学習装置。
  3. 前記データ生成手段は、
    前記注目決定部分が、前記学習モデルを用いてカテゴリを分類するときに前記注目した部分に対し一致する割合を検出する一致検出手段と、
    前記一致の割合が所定値より低い場合、前記注目した部分に対して、前記学習モデルがカテゴリを分類しないよう加工し、加工によって前記第2の学習用データを生成するデータ加工手段と
    を含む請求項1または2に記載の学習装置。
  4. 前記学習手段は、前記第2の学習用データを用いた再学習によって前記学習モデルを更新する請求項1から3いずれかに記載の学習装置。
  5. 前記学習手段は、前記学習モデルの推定精度が所定の基準を満たすとき、前記学習モデルの生成が終了したと判断する請求項1から4いずれかに記載の学習装置。
  6. 前記第1の学習用データ上においてカテゴリを分類する対象が存在する部分の情報を注目部分の情報として前記第1の学習用データに関連付けて保存する学習用データ保存手段をさらに備える請求項1から5いずれかに記載の学習装置。
  7. 前記学習手段は、前記注目決定部分の情報としてカテゴリを分類する対象が存在する画像上の領域を示す情報を関連付けた前記第1の学習用データを用いて機械学習を実行して
    、前記画像上の物体の分類を推定する学習モデルを生成し、
    前記データ生成手段は、前記画像上において前記学習モデルを用いて前記カテゴリを分類するときに前記注目した部分が、前記注目決定部分に対し一致する割合が所定値より低い場合、前記画像上の前記注目した部分がカテゴリの分類に寄与しないように加工し前記第2の学習用データを生成する請求項1から6いずれかに記載の学習装置。
  8. 前記データ生成手段は、前記注目した部分と前記注目決定部分が重なっている部分である第1のピクセル数の前記学習モデルが前記注目した部分である第2のピクセル数に対する比を前記一致する割合として算出する請求項7に記載の学習装置。
  9. 第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成し、
    前記学習モデルを用いて前記第1の学習用データのカテゴリを分類する際に、前記学習モデルが前記第1の学習用データ上で注目した部分を検出し、
    前記注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいた強度による加工によって、前記注目した部分を加工した第2の学習用データを生成する
    学習方法。
  10. 第1の学習用データを基に機械学習を実行し、第1の学習用データのカテゴリを分類する学習モデルを生成する処理と、
    前記学習モデルを用いて前記第1の学習用データのカテゴリを分類する際に、前記学習モデルが前記第1の学習用データ上で注目した部分を検出する処理と、
    前記注目した部分が、予め決定された注目すべき注目決定部分に対し一致する割合に基づいた強度による加工によって、前記注目した部分を加工した第2の学習用データを生成する処理と
    をコンピュータに実行させる学習プログラム。
JP2021566628A 2019-12-25 2019-12-25 学習装置、学習方法および学習プログラム Active JP7334801B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/050784 WO2021130888A1 (ja) 2019-12-25 2019-12-25 学習装置、推定装置および学習方法

Publications (3)

Publication Number Publication Date
JPWO2021130888A1 JPWO2021130888A1 (ja) 2021-07-01
JPWO2021130888A5 JPWO2021130888A5 (ja) 2022-07-21
JP7334801B2 true JP7334801B2 (ja) 2023-08-29

Family

ID=76573137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021566628A Active JP7334801B2 (ja) 2019-12-25 2019-12-25 学習装置、学習方法および学習プログラム

Country Status (3)

Country Link
US (1) US20230024586A1 (ja)
JP (1) JP7334801B2 (ja)
WO (1) WO2021130888A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022096379A (ja) * 2020-12-17 2022-06-29 富士通株式会社 画像出力プログラム,画像出力方法および画像出力装置
JP7383684B2 (ja) * 2021-12-08 2023-11-20 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2023166940A1 (ja) * 2022-03-03 2023-09-07 パナソニックIpマネジメント株式会社 注視領域モデル生成システム及び推論装置
JP7299542B1 (ja) 2022-05-18 2023-06-28 キヤノンマーケティングジャパン株式会社 情報処理システム及びその制御方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273475A (ja) 2000-03-24 2001-10-05 Denso Corp 教師データ選別方法及び装置,学習機能付き制御装置,記録媒体
JP2018173814A (ja) 2017-03-31 2018-11-08 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法
WO2019171122A1 (en) 2018-03-05 2019-09-12 Omron Corporation Method, device, system and program for detecting workpiece and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273475A (ja) 2000-03-24 2001-10-05 Denso Corp 教師データ選別方法及び装置,学習機能付き制御装置,記録媒体
JP2018173814A (ja) 2017-03-31 2018-11-08 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法
WO2019171122A1 (en) 2018-03-05 2019-09-12 Omron Corporation Method, device, system and program for detecting workpiece and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
足立一樹ほか,注目領域に基づいたCNNの特徴マップに対する正則化,電子情報通信学会論文誌D [online],日本,[検索日 2020.02.12],2019年03月01日,Vol.J102-D, No.3,pp.185-193

Also Published As

Publication number Publication date
US20230024586A1 (en) 2023-01-26
JPWO2021130888A1 (ja) 2021-07-01
WO2021130888A1 (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
JP7334801B2 (ja) 学習装置、学習方法および学習プログラム
JP6837597B2 (ja) 能動学習のシステム及び方法
US11551134B2 (en) Information processing apparatus, information processing method, and storage medium
US11170201B2 (en) Method and apparatus for recognizing object
US11210513B2 (en) Detection method and detection device
JP2020008896A (ja) 画像識別装置、画像識別方法及びプログラム
US20140200452A1 (en) User interaction based image segmentation apparatus and method
US11748904B2 (en) Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method
JP2019086475A (ja) 学習プログラム、検出プログラム、学習方法、検出方法、学習装置および検出装置
CN110930386B (zh) 图像处理方法、装置、设备及存储介质
CN111429482A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN107067536A (zh) 一种图像边界确定方法、装置、设备和存储介质
KR20210061839A (ko) 전자 장치 및 그 제어 방법
JP2021018104A (ja) 自動判別処理装置、自動判別処理方法、検査システム、プログラム、および記録媒体
KR102340184B1 (ko) 콘솔 단말기에서 인공지능 학습기법을 이용하여 수동 표적을 추적하는 장치 및 방법
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
US20220207863A1 (en) Object detection device, object detection method, program, and recording medium
CN111652350B (zh) 神经网络可视化解释方法及弱监督定位物体方法
JP7483095B2 (ja) 産業システムのための多目的異常検出システム
JPWO2021130978A1 (ja) 動作分析システムおよび動作分析プログラム
US9773164B2 (en) Apparatus and method for recognizing human body in hybrid manner
KR102451492B1 (ko) 크라우드 펀딩을 통한 다국어 자막 서비스를 제공하는 서버 및 그 서버의 제어 방법
WO2023209786A1 (ja) アノテーション装置、アノテーション方法及び学習装置
JP7347539B2 (ja) 前景抽出装置、前景抽出方法、及び、プログラム
WO2022181252A1 (ja) 関節点検出装置、学習モデル生成装置、関節点検出方法、学習モデル生成方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R151 Written notification of patent or utility model registration

Ref document number: 7334801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151