JP6874757B2 - 学習装置、学習方法およびプログラム - Google Patents

学習装置、学習方法およびプログラム Download PDF

Info

Publication number
JP6874757B2
JP6874757B2 JP2018501652A JP2018501652A JP6874757B2 JP 6874757 B2 JP6874757 B2 JP 6874757B2 JP 2018501652 A JP2018501652 A JP 2018501652A JP 2018501652 A JP2018501652 A JP 2018501652A JP 6874757 B2 JP6874757 B2 JP 6874757B2
Authority
JP
Japan
Prior art keywords
image data
learning
certainty
classification
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018501652A
Other languages
English (en)
Other versions
JPWO2017145960A1 (ja
Inventor
大地 久田
大地 久田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017145960A1 publication Critical patent/JPWO2017145960A1/ja
Application granted granted Critical
Publication of JP6874757B2 publication Critical patent/JP6874757B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

本開示は、機械学習を用いた学習装置、学習方法および記録媒体に関する。
近年、ディープラーニングを使用した画像分類手法が広く使われるようになってきている。画像をディープラーニングで学習させる際は生の画像データ(RGB値など)をそのまま学習させるため、学習に必要なメモリサイズが大きくなる。また、学習にあたっては学習させる画像の枚数が増えても、短時間で高精度な学習モデルを作成できる効果的な学習手法が求められている。
例えば、特許文献1には、疵検査対象物に生じている疵の特徴量から疵種を判別するための学習モデルの更新を、疵種の判別結果に対する確信度が低い疵データだけを用いて更新することが開示されている。
また、特許文献2には、学習データの候補の中から不適切な学習データを削除する機械学習システムが開示されている。
また、特許文献3には、確信度が機械学習システムを学習する必要があることを示す所定の基準を満たすデータを新たな学習データとして記憶部に蓄積する方法が開示されている。
特開2011−192032号公報 特開2005−181928号公報 特許第5224280号公報
Toby Segaran、「Programming Collective Intelligence Building Smart Web 2.0 Applications Collective Intelligence」、O’Reilly Media、2007年、pp.3 Yann LeCun、Leon Bottou、Yoshua Bengio、Patrick Haffner、「Gradient−Based Learning Applied to Document Recognition」、Proceedings of the IEEE、IEEE、1998年11月、VOL86、No.11、pp.2278−2324
機械学習とは人工知能の一種であり、コンピュータに「学習」を可能にするアルゴリズムである(非特許文献1)。機械学習は、人間が作ったお手本データを分析し、学習モデルを作成する。学習モデルを用いることにより、将来の値に対する予測をすることが出来る。
近年、画像分類の分野では機械学習技術の中でも特にディープラーニングを使った研究が盛んにおこなわれている。世界的に有名な画像分類コンテストであるImageNet Challengeでは2012年からディープラーニングを使用したシステムが精度首位を独占し続けている。
ディープラーニングも機械学習技術の1つであるため、高精度な学習モデルを得るには数千枚から数万枚以上の大量画像を学習させることが必要となる。しかし、画像データは一般的な文書データや時系列の数値データとは異なり、1データあたりのデータサイズが非常に大きい。例えば、一般的な画像サイズであるVGA(640x480 pixel)では1枚当たり約1MBのデータ容量が必要となる。このため、学習に使用するお手本データを全て一度に読み込むには数GB〜数十GB以上のメモリが必要となる。また、超高解像度映像(4K、8K)の普及も今後進んでいくことが予想されるため、画像の学習に必要なメモリ量は更に増加すると考えられる。
特許文献1に関連する技術では、疵種の判別結果に対する確信度が低い疵データだけを用いて、学習モデルを更新しているため、確信度が低い疵データが大量にある場合、学習に必要なメモリ量が増加してしまう。
また、特許文献2に関連する技術では、学習データとして適切であると判定されたデータは、十分に学習がされていても、学習データとして採用されてしまう。したがって、学習データとして適切であると判定されたデータが大量にある場合、または、学習データとして適切であると判定されうるデータが追加される場合、学習に必要なメモリ量が増加してしまう可能性がある。
特許文献3に関連する技術では、一度、学習データとして蓄積されなかったデータが、再び学習データとして蓄積されることが無い。したがって、学習を何度も行うことによって、学習対象となりえた場合であっても、特許文献3に関連する技術では、該学習データを蓄積しないため、効率的とは言い難い。
本開示は、上記課題に鑑みてなされたものであり、その目的は、学習に必要なメモリサイズを低減し、且つ、効率的に学習を行う技術を提案することにある。
本開示の一態様に係る学習装置は、複数の画像データの中から、各画像データに関連付けられた、各画像データに対する分類の確からしさを示す分類確信度に基づいて、画像データを学習データとして選択する画像選択手段と、前記選択された画像データを格納する画像データ記憶手段と、前記格納された画像データを用いて学習を行い、学習モデルを生成する学習手段と、前記学習を行う際に用いられた前記画像データを、前記学習モデルを用いて分類し、該画像データに対する前記分類確信度を更新する確信度更新手段と、を備え、前記確信度更新手段は、前記分類が行われた画像データの数が所定の条件を満たす場合に前記複数の画像データの夫々に関連付けられた前記分類確信度を更新する。
また、本開示の一態様に係る学習方法は、複数の画像データの中から、各画像データに関連付けられた、各画像データに対する分類の確からしさを示す分類確信度に基づいて、画像データを学習データとして選択し、前記選択された画像データを格納し、前記格納された画像データを用いて学習を行い、学習モデルを生成し、前記学習を行う際に用いられた前記画像データを、前記学習モデルを用いて分類し、該画像データに対する前記分類確信度を更新し、前記分類が行われた画像データの数が所定の条件を満たす場合に前記複数の画像データの夫々に関連付けられた前記分類確信度を更新する。
なお、上記各装置または方法を、コンピュータによって実現するコンピュータプログラム、およびそのコンピュータプログラムが格納されている、コンピュータ読み取り可能な非一時的記録媒体も、本開示の範疇に含まれる。
本開示によれば、学習に必要なメモリサイズを低減し、且つ、効率的に学習を行うことができる。
第1の実施の形態に係る学習装置の機能構成の一例を示す機能ブロック図である。 第1の実施の形態に係る学習装置の画像読込部の機能構成の一例を示す機能ブロック図である。 第1の実施の形態に係る学習装置の確信度更新部の機能構成の一例を示す機能ブロック図である。 画像変換情報の一例を示す図である。 画像データ記憶部に格納される画像データの一例を示す図である。 確信度記憶部に格納される分類確信度の一例を示す図である。 第1の実施の形態に係る学習装置の処理の流れの一例を示すフローチャートである。 第1の実施の形態に係る学習装置の画像読込部における画像読込処理の流れの一例を示すフローチャートである。 第1の実施の形態に係る学習装置の学習部における学習処理の流れの一例を示すフローチャートである。 第1の実施の形態に係る学習装置の確信度更新部における確信度更新処理の流れの一例を示すフローチャートである。 確信度記憶部に格納される分類確信度の他の例を示す図である。 第2の実施の形態に係る学習装置の機能構成の一例を示す機能ブロック図である。 第2の実施の形態に係る学習装置の学習処理の流れの一例を示すフローチャートである。 各実施の形態における学習装置を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。
以下の各実施の形態では、ディープラーニング手法であるConvolutional Neural Network(CNN)(非特許文献2参照)を用いて、機械学習を行うとするが、本開示はこれに限定されるものではない。
<第1の実施の形態>
第1の実施の形態について、図面を参照して説明する。図1は、本実施の形態に係る学習装置100の機能構成の一例を示す機能ブロック図である。図1に示す通り、本実施の形態に係る学習装置100は、画像記憶部110と、画像読込部(画像選択部)120と、画像データ記憶部130と、学習部140と、学習モデル記憶部150と、確信度更新部160と、確信度記憶部170と、閾値更新部180と、を備える。また、図2は、画像読込部120の機能構成の一例を示す機能ブロック図である。図3は、確信度更新部160の機能構成の一例を示す機能ブロック図である。
画像記憶部110は画像データを格納する。画像記憶部110が格納する画像データは、全て、学習データとなりうる(学習対象となる)画像データである。つまり、画像記憶部110が格納する画像データは、学習データの候補である。画像記憶部110に格納される画像データは、予め用意されていてもよいし、都度追加されてもよい。また、画像記憶部110は、学習装置100とは別個の記憶装置によって実現されるものであってもよい。
画像読込部120は、画像記憶部110に格納された複数の画像データの中から、後述する分類確信度に基づいて、画像データを学習データとして読み込む(選択する)。そして、画像読込部120は、読み込んだ画像データに画像変換処理を施す。画像読込部120は、図2に示す通り、選択部121と、読込部122と、変換部123とを備える。
選択部121は、画像読込部120を参照し、画像記憶部110に格納された複数の画像データの中からランダムに1つの画像データを選択する。また、選択部121は、画像変換方法を表す画像変換情報を予め保持している。選択部121は、この画像変換方法の中から、ランダムに1つの画像変換方法を選択する。選択部121が保持する画像変換情報の一例を図4に示す。画像変換情報は、画像変換方法と、該画像変換方法を識別するための識別子である画像変換番号とを含む情報である。
図4に示す通り、例えば、画像変換番号が「1」の画像変換方法は「90度回転」である。そのほかに、画像変換方法は、「180度回転」、「上下反転」、「左右反転」等が挙げられるが、これに限定されるものではない。つまり、図4に示す画像変換方法の種類数は、5であるが、種類数はこれに限定されない。例えば、画像変換方法には「270度回転」が含まれてもよい。また、図4に示す画像変換情報には「画像変換無」も含まれる。
選択部121は、選択した画像変換方法に関連する画像変換番号と、選択した画像データを表す情報とを用いて、確信度記憶部170を参照し、画像変換番号と画像データを表す情報との組み合わせが学習データとなりうるか否かを確認する。画像データを表す情報とは、例えば、画像名や識別子等が挙げられるが、本実施の形態では、画像名として説明を行う。選択部121は、確信度記憶部170に格納された上記画像名と画像変換方法との組み合わせに対する分類確信度と、確信度閾値とを参照し、該分類確信度が確信度閾値Th(0<Th<1)以上の場合、再度画像データの選択と画像変換方法の選択とを行う。分類確信度および確信度閾値の詳細については後述する。
一方、上記画像名と画像変換方法との組み合わせに対する分類確信度が確信度閾値Th未満の場合、選択部121は、選択した画像データの画像名を読込部122に供給し、選択した画像変換方法と画像変換番号とを変換部123に供給する。
また、選択部121は、学習装置100による学習の指標となる値である学習回数eを確信度記憶部170から取得する。そして、選択部121は、学習回数eが自身に記憶している最大学習回数Emax以上か否かを判定する。そして、選択部121は、学習回数eが最大学習回数Emax以上の場合、十分に学習が終わったと判定し、学習を終了する。なお、最大学習回数Emaxは、画像記憶部110に新たな画像データが追加された場合や所定のタイミングで更新されるものであってもよい。また、画像記憶部110に新たな画像データが追加された場合や所定のタイミングで、例えば、学習回数eがリセットされると、選択部121は、上述した画像データの選択と画像変換方法の選択とを開始してもよい。
このように、選択部121は、学習回数eが最大学習回数Emaxを下回る場合に画像データの選択を行うため、十分学習した学習モデルに対して、余分な学習を行わない。これにより、学習装置100はより効率的に学習を行うことができる。
読込部122は、選択部121から供給された画像名によって表される画像データを画像読込部120から読み込む。つまり、読込部122は、選択部121が選択した画像データを学習データとして読み込む。そして、読込部122は、読み込んだ画像データを変換部123に供給する。
変換部123は、選択部121から画像変換方法と画像変換番号とを受け取る。また、変換部123は読込部122から画像データを受け取る。読込部123は受け取った画像データに対し、受け取った画像変換方法に従って、画像変換処理を施す。そして、変換部123は、画像変換処理を施した画像データを画像データ記憶部130に格納する。また、変換部123は、画像データ記憶部130に格納した画像データの場所を示す情報である画像アドレスを学習部140に供給する。
画像データ記憶部130は、画像読込部120によって画像変換処理が施された画像データを格納する。画像データ記憶部130に格納される画像データの一例について、図5を参照して説明する。
図5は、本実施の形態に係る学習装置100の画像データ記憶部130に格納される画像データの一例を示す図である。画像データは、例えば、図5の形式で画像データ記憶部130に格納されている。画像データは、各画素の画素値がrgb値((0、0、0)から(255、255、255))で示されたデータである。この画像データには、画像アドレスと画像データを表す情報と画像変換番号とが関連付けられている。画像データを表す情報は、図5では、画像ID(IDentifier)と画像名とであるとして説明を行うが、何れか一方であってもよいし、その他の識別子であってもよい。なお、画像データ記憶部130に格納される画像データ数は、学習装置100のメモリ量に応じて変化する。
画像データ記憶部130には、このような画像データが、複数格納されている。
学習部140は、画像読込部120から画像アドレスを受け取る。学習部140は、画像データ記憶部130を参照し、受け取った画像アドレスに格納されている画像データを取得する。そして、学習部140は取得した画像データを用いて、学習モデル記憶部150に格納されている学習モデルを学習する。本実施の形態では、学習部140は、CNNを採用した機械学習を行う。学習部140は学習によって生成(出力)された学習モデルを、学習モデル記憶部150に格納する。そして、学習部140は、学習に用いた画像データの画像アドレスを、確信度更新部160に供給する。
学習モデル記憶部150は、学習部140によって生成された学習モデルを格納する。
確信度更新部160は、学習部140から受け取った画像アドレスに格納された画像データを、学習モデルを用いて分類し、分類結果に基づいて、確信度記憶部170に格納された、該画像データに対する分類確信度を更新する。また、確信度更新部160は、分類が行われた画像データの数が所定の条件を満たす場合に複数の画像データの夫々に関連付けられた分類確信度を更新する。分類確信度は各画像データに対する分類の確からしさを示すものである。具体的には、分類確信度は、学習モデルを用いて、各画像データを分類した際の分類結果に対する確信度であり、分類結果に対して学習モデルがどれくらいの自信を持っているかを表す値である。確信度更新部160は、図3に示す通り、分類部161と、減衰部162とを備える。
分類部161は、学習部140から画像アドレスを受け取り、該画像アドレスを自身に保持する。分類部161は、画像アドレスの個数がK個(Kは任意の自然数)溜まるまで、画像アドレスを受け取る。そして、画像アドレスがK個になると、分類部161は保持している1以上の画像アドレスの夫々に格納されている画像データを画像データ記憶部130から取得する。そして、分類部161は、取得した1以上の画像データを、学習モデル記憶部150に格納された学習モデルを用いて分類する。この画像アドレスの個数のKは、画像データ記憶部130の容量に応じて設定される。また、受信した画像アドレスは、画像データ記憶部130に格納されている画像データのアドレスであるため、分類部161は、画像データ記憶部130に、画像データ記憶部130の容量に応じて設定された数の画像データが格納されたことを確認していると言い換えることができる。
そして、分類部161は、確信度記憶部170に格納された、分類した画像データの画像名と画像変換番号との組み合わせに対する分類確信度を、分類する際に出力される分類確信度に更新する。分類した画像データの画像名および画像変換番号は、図5を用いて説明した通り、画像データ記憶部130に格納されている画像データに関連付けられている。分類部161は、学習部140から受け取った画像アドレスを用いて、画像データ記憶部130から分類した画像データの画像名および画像変換番号を取得することにより、上記分類確信度を更新することができる。
そして、分類部161は、分類に使用した画像データを画像データ記憶部130から削除する。分類部161が分類を行った時点で、新たな画像データ(K+1番目の画像データ)が画像データ記憶部130に格納されていない場合は、分類部161は、画像データ記憶部130内の全ての画像データを削除する。
分類部161は、この削除した画像データの数を保持する。そして、分類部161は、後述する減衰部162が前回分類確信度を減衰させてから、削除した画像データの数が所定の数以上か否かを判定する。例えば、分類部161は、削除した画像データの数が、画像記憶部110に格納された画像データ数D以上か否かを判定する。なお、画像データ数Dは、画像記憶部110に格納された画像データ数に限定されず、K以上の自然数であればよい。
分類部161は、削除した画像データの数がD以上の場合、減衰部162に分類確信度の減衰指示を送信する。そして、分類部161は、減衰部162から減衰したことを示す通知を受け取ると、削除した画像データの数をゼロに戻し、再度削除した画像データの数のカウントを開始する。
減衰部162は、分類部161から減衰指示を受け取ると、確信度記憶部170に格納されている全分類確信度を減衰させる。分類部161が削除した画像データは、上述した通り、分類が行われた画像データである。したがって、減衰部162は、分類が行われた画像データの数が所定の条件を満たす場合に複数の画像データの夫々に関連付けられた分類確信度を更新すると言い換えることができる。
具体的には、減衰部162は、確信度記憶部に格納されている全分類確信度に忘却係数β(0<β<1)をかけて、分類確信度を更新する(減衰させる)。これにより、減衰部162は、所定の間隔で、分類確信度を減衰させることができる。そして、この減衰させた分類確信度が確信度閾値Thよりも小さくなると、画像読込部120はこの分類確信度に基づいて、該分類確信度に関連する画像データを選択することができる。
よって、学習装置100は、分類確信度が確信度閾値Th以上になり、学習対象から外れた画像データを、所定の間隔で学習対象とすることができる。
また、減衰部162は、分類確信度を減衰させると、確信度記憶部170に格納されている学習回数eに1を足す。
確信度記憶部170は、学習回数eを格納する。学習回数は、学習装置100による学習の指標となる値である。上述した通り、学習回数eは、減衰部162が分類確信度を減衰させたタイミングで増加する。なお、学習回数eの増加のタイミングはこれに限定されない。学習回数eは、ユーザからの指示、画像記憶部110に新たな画像データが追加された場合、または、所定のタイミングで、リセットされてもよいし、減衰されてもよい。
また、確信度記憶部170は、確信度閾値Thを格納する。確信度閾値Thは、すべての画像データに対して1つ設定されるものであってもよいし、画像記憶部110に格納された画像データ毎に設定されるものであってもよい。
また、確信度記憶部170は、分類確信度を格納する。ここで、確信度記憶部170が格納する分類確信度について、図6を参照して説明する。図6は、本実施の形態に係る学習装置100の確信度記憶部170に格納される分類確信度の一例を示す図である。
図6に示す通り、確信度記憶部170には、画像名と、画像変換方法との組み合わせの夫々に対する分類確信度が格納されている。確信度記憶部170に格納された分類確信度は、図6に示すような表形式であるとして説明を行うが、分類確信度のデータ形式はこれに限定されるものではない。図6に示す表では、画像記憶部110に格納された画像名が1列目に記載されている。なお、図6の1列目には画像名の代わりに画像IDが格納されていてもよい。そして、画像名の夫々には、画像変換方法に関連する画像変換番号ごとに、分類確信度が関連付けられている。これにより、選択部121は、例えば、画像名「dog01.jpg」と、画像変換番号「1」との組み合わせに対する分類確信度である「0.9」を取得することができる。
閾値更新部180は、確信度記憶部170に格納された確信度閾値Thを更新する。具体的には、閾値更新部180は、確信度記憶部170に格納された全ての分類確信度を用いて、確信度閾値Th(0<Th<1)を更新する。例えば、閾値更新部180は、確信度記憶部170に格納された全ての分類確信度を昇順で並び替え、分類確信度が小さい方からR番目の分類確信度を新たな確信度閾値とする。ここで、Rは以下の式で計算される。
R=画像データ数D×画像変換方法の種類数S×学習割合L(e)・・・(1)
画像データ数Dは、上述した通り、画像記憶部110に格納された画像データの数である。ここで、学習割合L(e)は以下の式で表される。
L(e)=(最大学習回数Emax−学習回数e)/最大学習回数Emax・・・(2)
これにより、閾値更新部180は、学習の進捗状態に応じて自動的に確信度閾値を更新することができる。
画像読込部120は、以上のように閾値更新部180によって更新された確信度閾値を用いて、読み込む画像データを選択する。これにより、学習の進捗状況に応じて、画像読込部120は読み込む画像データを選択することができる。
また、確信度閾値Thが画像データ毎に設定されるものである場合、閾値更新部180は、画像データ毎の分類確信度を昇順で並び替え、分類確信度が小さい方からR番目の分類確信度を新たな確信度閾値Thとする。このとき、上記式(1)において、画像データ数Dを1としてRを算出すればよい。
閾値更新部180が確信度閾値Thを更新するタイミングは、任意のタイミングであってもよい。また、閾値更新部180は、確信度記憶部170を監視し、分類確信度が更新されたことを検出すると、確信度閾値Thを更新してもよい。なお、閾値更新部180は、分類確信度が減衰部162によって全て更新されたタイミングで確信度閾値Thを更新してもよいし、分類部161によって何れかの分類確信度が更新されたタイミングで確信度閾値Thを更新してもよい。
また、確信度閾値Thは、例えば、図示しない入力装置を用いて、ユーザが指定したものであってもよい。この場合、確信度閾値Thを1に近い値にすると、学習装置100は、ほぼ全部の画像データを学習するため、学習に時間がかかるが確実に全ての画像データを使って学習モデルを作成することができる。一方で、確信度閾値Thを0に近い値にすると、学習装置100は、分類確信度の高い画像データの学習を省略することができるため、高速に学習モデルを作成することができる。このように、確信度閾値は、生成される学習モデルに対する要件に応じて設定されるものであってもよい。
次に、図7から図10を参照して、本実施の形態に係る学習装置100の動作について説明する。図7は、本実施の形態に係る学習装置100の処理の流れの一例を示すフローチャートである。図7に示す通り、学習装置100の画像読込部120が、画像読込処理を実行する(ステップS1)。この画像読込処理については、図8を用いて説明する。そして、学習部140が学習処理を実行する(ステップS2)。学習処理については、図9を用いて説明する。そして、確信度更新部160が確信度更新処理を実行する(ステップS3)。この確信度更新処理については、図10を用いて説明する。その後、画像読込部120が処理を終了するまで、学習装置100は、ステップS1〜S3を繰り返す。また、上記S1〜S3は、夫々独立して実行されてもよい。例えば、画像読込部120は、ある画像データに対して、画像読込処理が終了すると、ステップS3の終了を待たずに次の画像データに対して、画像読込処理を行ってもよい。
次に、図8を用いて、画像読込処理の流れについて、説明する。図8は、本実施の形態に係る学習装置100の画像読込部120における画像読込処理の流れの一例を示すフローチャートである。
図8に示す通り、選択部121が、画像読込部120を参照し、画像記憶部110に格納された複数の画像データの中からランダムに1つの画像データを選択する(ステップS11)。また、選択部121は、画像変換方法の中から、ランダムに1つの画像変換方法を選択する(ステップS12)。なお、ステップS11とステップS12とは同時に行われてもよいし、逆順で行われてもよい。
選択部121は、選択した画像変換方法に関連する画像変換番号と、選択した画像データを表す情報とを用いて、確信度記憶部170を参照し、画像変換番号と画像名との組み合わせに対する分類確信度が確信度閾値Th以上か否かを確認する(ステップS13)。
選択部121は、分類確信度が確信度閾値Th以上である場合(ステップS13にてYES)、ステップS11に戻り、再度画像データを選択する(ステップS11)。選択部121は、分類確信度が確信度閾値Th未満となるまで、ステップS11とステップS12とを繰り返す。
分類確信度が確信度閾値Th未満の場合(ステップS13にてNO)、読込部122は、選択部121が選択した画像データを読み込む(ステップS14)。
そして、変換部123は、読込部122がステップS14で読み込んだ画像データに対し、選択部121がステップS12で選択した画像変換処理を施すことにより、画像データを変換する(ステップS15)。変換部123は、画像変換した画像データを、画像データ記憶部130に書き込み(ステップS16)、書き込んだ場所を示す画像アドレスを学習部140に供給する(ステップS17)。
このステップS17の終了後、学習部140は、図7に示したステップS2を開始することができる。
その後、選択部121は確信度記憶部170から学習回数eを取得し(ステップS18)、該学習回数eが最大学習回数Emax以上か否かを判定する(ステップS19)。そして、選択部121は、学習回数eが最大学習回数Emax以上の場合(ステップS19にてYES)、十分に学習が終わったと判定し、学習を終了する。学習回数eが最大学習回数Emax未満の場合(ステップS19にてNO)、画像読込部120は次の画像データの選択をおこなう(ステップS11)。このように、画像読込部120は、学習回数eが最大学習回数Emax未満の場合、ある画像データを画像データ記憶部130に格納して、この画像データの画像アドレスを学習部140に供給すると、後述する確信度更新部160の処理の終了を待たずに次の画像データを選択してもよい。また、画像読込部120は、確信度更新部160の処理が終了した後に、ステップS11を開始してもよい。この場合、例えば、画像読込部120は、確信度記憶部170を監視し、確信度更新部160によって学習回数eが更新されたことを検知すると、ステップS11を開始してもよい。なお、選択部121は、ステップS19の判定を、ステップS11の前に行ってもよい。また、選択部121は、学習を終了する場合、学習部140に学習終了の通知を送信してもよい。
次に、図9を用いて、学習処理の流れについて、説明する。図9は、本実施の形態に係る学習装置100の学習部140における学習処理の流れの一例を示すフローチャートである。
図9に示す通り、学習部140は、画像読込部120から画像アドレスを受け取ったか否かを確認し(ステップS21)、画像アドレスを受け取るまでステップS21を繰り返す。なお、学習部140は、画像アドレスを最後に受け取ってから所定時間経過する、または、画像読込部120から学習終了の通知を受け取ると、図9に示す学習処理を終了してもよい。また、このとき学習部140は、確信度更新部160に学習終了の通知を送信してもよい。
学習部140は、画像アドレスを受け取ると(ステップS21にてYES)、画像データ記憶部130を参照し、受け取った画像アドレスに格納されている画像データを取得する(ステップS22)。
そして、学習部140は取得した画像データを用いて学習を行う(ステップS23)。その後、学習部140は学習によって生成された学習モデルを学習モデル記憶部150に格納する(ステップS24)。また、学習部140は、学習に用いた画像データの画像アドレス、すなわち、ステップS21で受け取った画像アドレスを、確信度更新部160に供給する(ステップS25)。なお、ステップS24とステップS25とは同時に行われてもよい。そして、学習部140は、ステップS21に処理を戻す。
次に、図10を用いて、確信度更新処理の流れについて、説明する。図10は、本実施の形態に係る学習装置100の確信度更新部160における確信度更新処理の流れの一例を示すフローチャートである。
図10に示す通り、分類部161は、学習部140から画像アドレスを受け取ったか否かを確認し(ステップS31)、画像アドレスを受け取るまでステップS31を繰り返す。なお、分類部161は、学習部140から学習終了の通知を受け取ると、図10に示す確信度更新処理を終了してもよい。また、分類部161は、画像アドレスを最後に受け取ってから所定時間経過した場合は、図10に示す確信度更新処理を終了してもよい。また、分類部161が画像アドレスを最後に受け取ってから所定時間経過した場合に、K個未満の画像アドレスを保持している場合は、確信度更新部160は、ステップS34以降の処理を実行した後に、図10に示す確信度更新処理を終了してもよい。
分類部161は、学習部140から画像アドレスを受け取ると(ステップS31にてYES)、該画像アドレスを自身に保持する(ステップS32)。そして、分類部161は、画像アドレスの個数がK個か否かを確認し(ステップS33)、画像アドレスの個数がK個未満の場合(ステップS33にてNO)、処理をステップS31に戻す。画像アドレスの個数がK個の場合(ステップS33にてYES)、保持している1以上の画像アドレスの夫々に格納されている画像データを、学習モデルを用いて分類する(ステップS34)。そして、分類部161は、確信度記憶部170に格納された、分類した画像データの画像名と画像変換番号との組み合わせに対する分類確信度を、分類する際に出力される分類確信度に更新する(ステップS35)。分類部161は、分類に使用した画像データを画像データ記憶部130から削除する(ステップS36)。
そして、分類部161は、減衰部162が前回分類確信度を減衰させてから、画像データ記憶部130から削除した画像データの数がD(DはK以上の自然数)以上か否かを判定する(ステップS37)。分類部161は、一度も分類確信度を減衰させていない場合は、削除した画像データの数の総数がD以上か否かを判定する。削除した画像データの数がD未満の場合(ステップS37にてNO)、確信度更新部160は、処理をステップS31に戻す。削除した画像データの数がD以上の場合(ステップS37にてYES)、減衰部162が、確信度記憶部170に格納されている全分類確信度を減衰させる(ステップS38)。そして、減衰部162は、確信度記憶部170に格納されている学習回数eに1を足す(ステップS39)。その後、確信度更新部160は、処理をステップS31に戻す。
一般的にディープラーニングおよびニューラルネットワークではデータを分類する際、分類対象カテゴリ数の値(0〜1)が出力され、値が最も大きい出力値を分類確信度とする。分類確信度が小さい画像データは学習モデルに学習が不十分な画像データである。効率的に高精度な学習モデルを得るためには、学習が十分な画像データを繰り返し学習させるより、分類基準が難しく学習が不十分な画像データを学習させた方がよい。これにより、効率的に学習モデルの精度を向上することができる。しかし、学習が不十分な画像データのみを学習させると、学習データとなる画像データの性質が偏る。したがって、今まで、高い分類確信度で分類できていたはずの画像データに対する分類の精度が低下してしまう恐れがある。
しかしながら、本実施の形態に係る学習装置100は、学習データとして用いられた画像データの分類確信度を、該画像データの分類により得られる分類確信度に更新する。また、本実施の形態に係る学習装置100は、分類が行われた画像データの数が所定の条件を満たす場合、複数の画像データの夫々に関連付けられた分類確信度を更新する。これにより、例えば、学習データとして十分学習が済んだ等の理由により、選択されなかった画像データの分類確信度を下げることができ、学習データとして選択されるようにすることができる。これにより、学習装置10は、学習を何度も行うことによって、学習対象となりえる画像データを学習対象に含めることができる。したがって、学習装置100は、学習を何度も行うことによって、既に何度も学習データとして使用された画像データに対する学習内容の忘却を抑制することができるため、学習モデルの精度を高めることができ、且つ、効率的に学習を行うことができる。
また、学習に必要なメモリ量を削減するために、一度に全ての画像をメモリ上に読み込まずに画像データを1枚ずつ読み込んで学習する方法が考えられる。この方法では、学習に必要なメモリ量を削減することが出来る。しかしながら、機械学習では同じ画像データを何度も繰り返し学習することが一般的であり、この方法では同じ画像データを何度もメモリ上に読み込んではメモリ上から破棄するという処理を行うことになるため効率的とは言い難い。
しかしながら、本実施の形態に係る学習装置100の画像読込部120は、分類確信度に基づいて、画像データを読み込む。このように、本実施の形態に係る学習装置100は、学習モデルの高精度化に最適な画像を、分類確信度を用いて取捨選択できるため、一枚ずつ読み込む場合に比べ、効率よく学習を行うことができる。
また、確信度更新部160が画像データ記憶部130に、画像データ記憶部130の容量に応じて設定された数の画像データが格納されると、設定された数の画像データの夫々を分類し、分類後に該設定された数の画像データの夫々を画像データ記憶部130から削除する。
これにより、画像データを1枚ずつ読み込む場合に比べ、画像記憶部110に対するI/O回数を削減することができると共に画像データ記憶部130を効率的に使用することができる。
また、画像を機械学習する際、この画像をそのまま何度も学習させるのではなく、この画像に対して様々な画像変換処理を施して、画像変換処理を施した画像を用いて学習する方法がある。この場合、全画像に対して有効だと想定される画像変換処理を施した画像を事前に作成して保管し、該保管した画像を学習するか、画像を読み込むタイミングで画像変換処理を施し、該画像変換処理を施した画像を学習する。この方法は簡単に画像の種類を増やすことが出来るため、学習モデルの精度を向上させることに対し効果的であるが、学習対象の画像数が比例的に増えてしまうため学習時間が増加してしまう。したがって、この方法は、効率的な学習方法とは言い難い。
しかしながら、本実施の形態に係る学習装置100は、画像読込部120が画像データと画像変換方法との組み合わせに対する分類確信度を用いて、画像データを読み込むため、学習に必要な画像データのみを選択することができる。したがって、本実施の形態に係る学習装置100によれば、必要な画像データのみを逐次読みこんで学習するため、学習装置100が学習に必要とするメモリサイズを削減し、学習速度を高速化することができる。よって、本実施の形態に係る学習装置100によれば、効率的に学習を行うことができる。
ここで、画像読込部120の変換部123が画像変換を行う際に、使用する画像変換方法は、画像変換対象の画像データと分類対象のカテゴリの特性に合わせることが好ましい。例えば、分類部161が分類対象のカテゴリの特性として、手の画像を含む画像データを右手と左手とに分類したいという特性を有している場合、このような画像データに対して左右反転するという画像変換方法を適用すると該画像データが分類されるカテゴリが変わってしまう。したがって、このような場合、上記手の画像の画像データに対し、左右反転するという画像変換方法は、使用すべきでない。
したがって、確信度記憶部170に格納された分類確信度は、このような組み合わせに対して設定されないことが好ましい。そして、上述した選択部121がランダムに選択した画像データと画像変換方法とが、上記組み合わせになった場合、分類確信度が確信度閾値Th以上の場合と同様に、学習装置100は、再度選択部121に画像データおよび画像変換方法の選択を再度行わせる。
また、新たに画像記憶部110に画像データが追加された場合、学習装置100は、この画像データが選択部121に選択されるような分類確信度を登録することが好ましい。例えば、確信度更新部160は、画像記憶部110を監視し、新たな画像データが登録されたことを検知した場合、該画像データに対する分類確信度を確信度記憶部170に登録してもよい。
これにより、画像読込部120が追加された画像データも他の画像データと同様に、分類確信度に基づいて、学習データとして読み込むか否かを判定することができるため、学習装置100は、一般的な追加学習に比べて高速に学習することができる。
また、本実施の形態に係る学習装置100は、画像読込部120を複数有していてもよい。これにより、学習装置100は、画像データの読み込みを並列に行うことができる。よって、学習装置100は、より高速な学習を行うことができる。なお、この場合、画像データ記憶部130と確信度記憶部170とを共有メモリなどのプロセス間でデータを共有できる領域に実装することが好ましい。
また、確信度記憶部170に格納される分類確信度は、図6の形式に限定されず、図11のような形式であってもよい。図11は、確信度記憶部170に格納される分類確信度の他の例を示す図である。
図11に示す通り、確信度記憶部170に格納された分類確信度は、図5に示す画像データと同様の形式で格納されてもよい。このとき、分類確信度は、画像データのrgb値と同様に、0〜255の整数値で量子化される。図11に示す通り、分類確信度は、画像変換方法の種類毎の表形式で表現される。各表の横幅はM(任意の自然数)である。そして、分類確信度は、各画像IDによって表される位置に格納されていてもよいし、各画像IDから算出される値の位置に格納されていてもよい。例えば、画像IDが「1」の画像データに対する分類確信度が1列1行目に格納されていてもよい。このとき、確信度閾値も同様に0〜255の値で表現されてもよい。また画像読込部120が、確信度閾値と比較できるように、分類確信度を0〜1の値に変換してもよい。
このように、分類確信度を、画像データと同じ形式で保存することにより、学習装置100が使用するメモリサイズを削減することができる。また、学習装置100は、OpenCV(Open Source Computer Vision Library)などの画像処理に特化したライブラリを使用することで、効率的に確信度減衰処理を実行することができる。
<第2の実施の形態>
第2の実施の形態について、図12および図13を参照して説明する。本実施の形態は、本開示における課題を解決する最小の構成について説明する。図12は、本実施の形態に係る学習装置10の機能構成の一例を示す機能ブロック図である。図12に示す通り、本実施の形態に係る学習装置10は、画像選択部12と、画像データ記憶部13と、学習部14と、確信度更新部16とを備える。
画像選択部12は、上述した第1の実施の形態に係る画像読込部120に相当する。画像選択部12は、複数の画像データの中から、各画像データに関連付けられた、各画像データに対する分類の確からしさを示す分類確信度に基づいて、画像データを学習データとして選択する。画像選択部12は、選択した画像データを複数の画像データの中から取得する。例えば、複数の画像データがデータベースとして記憶部に格納されている場合、画像選択部12は、この記憶部から選択した画像データを読み込む。画像選択部12は、取得した画像データを画像データ記憶部13に格納する。そして、画像選択部12は、格納した画像データのアドレスを学習部14に供給する。
画像データ記憶部13は、上述した第1の実施の形態に係る画像データ記憶部130に相当する。画像データ記憶部13には、画像選択部12によって選択された画像データが格納されている。
学習部14は、上述した第1の実施の形態に係る学習部140に相当する。学習部14は、画像選択部12から画像データのアドレスを受け取る。学習部14は、受け取ったアドレスに格納された画像データを用いて学習を行い、学習モデルを生成する。学習部14は学習を行う際に用いた画像データのアドレスと、生成した学習モデルとを確信度更新部16に供給する。
確信度更新部16は、上述した第1の実施の形態に係る確信度更新部160に相当する。確信度更新部16は、学習部14から画像データのアドレスと学習モデルとを受け取る。確信度更新部16は、アドレスに格納された画像データを、学習モデルを用いて分類する。そして、確信度更新部16は、該画像データに対する分類確信度を更新する。
また、確信度更新部16は、分類が行われた画像データの数が所定の条件を満たす場合に、複数の画像データの夫々に関連付けられた分類確信度を更新する。例えば、分類が行われた画像データの数が、所定の数になると、確信度更新部16は、画像選択部12が画像データを選択する元となる複数の画像データの夫々の分類確信度を減衰させる。
次に、図13を用いて、本実施の形態に係る学習装置10の処理の流れについて説明する。図13は、本実施の形態に係る学習装置10の学習処理の流れの一例を示すフローチャートである。図13に示す通り、本実施の形態にかかる学習装置10は、画像選択部12が、複数の画像データの中から、各画像データに関連付けられた分類確信度に基づいて、画像データを学習データとして選択する(ステップS121)。そして、画像選択部12は、選択した画像データを画像データ記憶部13に格納する(ステップS122)。
学習部14が、画像データ記憶部13に格納された画像データを用いて学習を行い、学習モデルを生成する(ステップS123)。その後、確信度更新部16が、画像データ記憶部13に格納された、学習を行う際に用いられた画像データを、学習モデルを用いて分類し、該画像データに対する分類確信度を更新する(ステップS124)。そして、確信度更新部16が、分類が行われた画像データの数が所定の条件を満たすか否かを判定し(ステップS125)、満たす場合(ステップS125にてYES)、複数の画像データの夫々に関連付けられた分類確信度を更新する(ステップS126)。ステップS126終了後、または、ステップS125にてNOの場合、学習装置10は処理をステップS121に戻す。
以上のように、本実施の形態に係る学習装置10は、学習を行う際に用いられた画像データを、学習モデルを用いて分類し、該画像データに対する分類確信度を更新する。これにより、画像選択部12は、次の画像選択の際に、この更新された分類確信度に基づいて、画像データを学習データとして選択することができる。このように画像選択部12は、分類確信度が所定の閾値より低い画像データを学習データとして選択する。したがって、画像選択部12は、例えば、分類確信度が高い画像データのような学習データとして十分学習が済んだ画像データを、学習データとして選択しない。よって、画像データ記憶部13には、分類確信度に基づいて、画像選択部12が選択した画像データのみが格納される。これにより、学習装置10は、学習に必要なメモリ量を削減することができる。
また、確信度更新部16は、分類が行われた画像データの数が所定の条件を満たす場合、複数の画像データの夫々に関連付けられた分類確信度を更新する。これにより、例えば、学習データとして十分学習が済んだ等の理由により、選択されなかった画像データの分類確信度を下げることができ、学習データとして選択されるようにすることができる。これにより、学習装置10は、学習を何度も行うことによって、学習対象となりえる画像データを学習対象に含めることができる。したがって、学習装置10は、学習を何度も行うことによって、既に何度も学習データとして使用された画像データに対する学習内容の忘却を抑制することができるため、学習モデルの精度を高めることができ、且つ、効率的に学習を行うことができる。
(ハードウェア構成について)
本開示の各実施の形態において、各学習装置の各構成要素は、機能単位のブロックを示している。各学習装置の各構成要素の一部又は全部は、例えば図14に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。情報処理装置900は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
各実施の形態における各学習装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。各学習装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やRAM903に格納されており、必要に応じてCPU901が読み出す。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
各学習装置の実現方法には、様々な変形例がある。例えば、各学習装置は、構成要素毎にそれぞれ別個の情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。また、各学習装置が備える複数の構成要素が、一つの情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。
また、各学習装置の各構成要素の一部又は全部は、その他の汎用または専用の回路、プロセッサ等やこれらの組み合わせによって実現される。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。
各学習装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
各学習装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
なお、上述した各実施の形態は、本開示の好適な実施の形態であり、上記各実施の形態にのみ本開示の範囲を限定するものではなく、本開示の要旨を逸脱しない範囲において当業者が上記各実施の形態の修正や代用を行い、種々の変更を施した形態を構築することが可能である。
この出願は、2016年2月24日に出願された日本出願特願2016−033280を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 学習装置
12 画像選択部
13 画像データ記憶部
14 学習部
16 確信度更新部
100 学習装置
110 画像記憶部
120 画像読込部
121 選択部
122 読込部
123 変換部
130 画像データ記憶部
140 学習部
150 学習モデル記憶部
160 確信度更新部
161 分類部
162 減衰部
170 確信度記憶部
180 閾値更新部

Claims (10)

  1. 複数の画像データの中から、各画像データに関連付けられた、各画像データに対する分類の確からしさを示す分類確信度に基づいて、画像データを学習データとして選択する画像選択手段と、
    前記選択された画像データを格納する画像データ記憶手段と、
    前記格納された画像データを用いて学習を行い、学習モデルを生成する学習手段と、
    前記学習を行う際に用いられた前記画像データを、前記学習モデルを用いて分類し、該画像データに対する前記分類確信度を更新する確信度更新手段と、を備え、
    前記確信度更新手段は、前記分類が行われた画像データの数が所定の条件を満たす場合に前記複数の画像データの夫々に関連付けられた前記分類確信度を更新する、ことを特徴とする学習装置。
  2. 前記確信度更新手段は、前記画像データ記憶手段に、前記画像データ記憶手段の容量に応じて設定された数の画像データが格納されると、前記設定された数の画像データの夫々を分類し、分類後に該設定された数の画像データの夫々を前記画像データ記憶手段から削除する、ことを特徴とする請求項1に記載の学習装置。
  3. 前記確信度更新手段は、前記画像データ記憶手段から削除された、前記分類が行われた画像データの数が所定の数以上の場合に前記複数の画像データの夫々に関連付けられた前記分類確信度を更新する、ことを特徴とする請求項2に記載の学習装置。
  4. 前記画像選択手段は、
    前記画像データに施す画像変換方法を選択し、該選択された画像変換方法と前記画像データとに関連付けられた前記分類確信度に基づいて、該画像データを学習データとして選択し、
    選択した画像データに対して、前記画像変換方法に応じた画像変換を施し、
    前記画像データ記憶手段は、前記画像変換が施された画像データを格納する、ことを特徴とする請求項1から3の何れか1項に記載の学習装置。
  5. 前記分類確信度と比較する確信度閾値を算出する閾値算出手段を更に備え、
    前記閾値算出手段は、前記複数の分類確信度のうち、所定の条件を満たす分類確信度を前記確信度閾値として算出し、
    前記画像選択手段は、前記分類確信度が前記確信度閾値未満の場合、前記画像データを学習データとして選択する、
    ことを特徴とする請求項1から4の何れか1項に記載の学習装置。
  6. 前記閾値算出手段は、前記複数の分類確信度を昇順に並び変え、並び替えた分類確信度のうち、学習の進捗状況に応じて算出された値の位置に存在する分類確信度を前記確信度閾値とする、ことを特徴とする請求項5に記載の学習装置。
  7. 前記閾値算出手段は、前記確信度更新手段によって前記分類確信度が更新されると、前記確信度閾値を更新する、ことを特徴とする請求項5または6に記載の学習装置。
  8. 前記確信度更新手段は、前記複数の画像データの夫々に関連付けられた前記分類確信度を更新した回数をカウントし、
    前記画像選択手段は、前記カウントされた回数が所定の閾値を下回る場合、前記画像データの選択を行う、ことを特徴とする、請求項1から7の何れか1項に記載の学習装置。
  9. 複数の画像データの中から、各画像データに関連付けられた、各画像データに対する分類の確からしさを示す分類確信度に基づいて、画像データを学習データとして選択し、
    前記選択された画像データを格納し、
    前記格納された画像データを用いて学習を行い、学習モデルを生成し、
    前記学習を行う際に用いられた前記画像データを、前記学習モデルを用いて分類し、該画像データに対する前記分類確信度を更新し、
    前記分類が行われた画像データの数が所定の条件を満たす場合に前記複数の画像データの夫々に関連付けられた前記分類確信度を更新する、ことを特徴とする学習方法。
  10. 複数の画像データの中から、各画像データに関連付けられた、各画像データに対する分類の確からしさを示す分類確信度に基づいて、画像データを学習データとして選択する処理と、
    選択された画像データを格納する処理と、
    格納された画像データを用いて学習を行い、学習モデルを生成する処理と、
    前記学習を行う際に用いられた前記画像データを、前記学習モデルを用いて分類し、該画像データに対する前記分類確信度を更新する処理と、
    前記分類が行われた画像データの数が所定の条件を満たす場合に前記複数の画像データの夫々に関連付けられた前記分類確信度を更新する処理と、をコンピュータに実行させるプログラム。
JP2018501652A 2016-02-24 2017-02-20 学習装置、学習方法およびプログラム Active JP6874757B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016033280 2016-02-24
JP2016033280 2016-02-24
PCT/JP2017/006036 WO2017145960A1 (ja) 2016-02-24 2017-02-20 学習装置、学習方法および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2017145960A1 JPWO2017145960A1 (ja) 2018-12-20
JP6874757B2 true JP6874757B2 (ja) 2021-05-19

Family

ID=59685153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018501652A Active JP6874757B2 (ja) 2016-02-24 2017-02-20 学習装置、学習方法およびプログラム

Country Status (3)

Country Link
US (1) US10878286B2 (ja)
JP (1) JP6874757B2 (ja)
WO (1) WO2017145960A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3762866A1 (en) * 2018-03-05 2021-01-13 Omron Corporation Method, device, system and program for detecting workpiece and storage medium
JP6933164B2 (ja) * 2018-03-08 2021-09-08 株式会社Jvcケンウッド 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム
JP7139723B2 (ja) * 2018-06-27 2022-09-21 富士通株式会社 選定プログラム、選定方法および選定装置
US10635939B2 (en) 2018-07-06 2020-04-28 Capital One Services, Llc System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis
JP7257227B2 (ja) * 2018-08-29 2023-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法及び情報処理システム
CN111090707B (zh) * 2018-10-24 2023-03-31 中国移动通信有限公司研究院 数据处理方法及装置、电子设备及存储介质
JP7135750B2 (ja) * 2018-11-12 2022-09-13 富士通株式会社 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置
JP7167668B2 (ja) * 2018-11-30 2022-11-09 コニカミノルタ株式会社 学習方法、学習装置、プログラムおよび記録媒体
US12039758B2 (en) * 2019-03-27 2024-07-16 Nec Corporation Image processing apparatus, image processing method, and non-transitory computer readable medium storing program
US11580321B2 (en) * 2019-04-08 2023-02-14 Ares Technologies, Inc. Systems, devices, and methods for machine learning using a distributed framework
US11450084B2 (en) * 2019-05-13 2022-09-20 Goodrich Corporation Data fusion on target taxonomies
KR102357729B1 (ko) * 2019-09-10 2022-02-03 라온피플 주식회사 복수의 이미지들에 대해 기계학습 및 테스트를 수행하기 위한 방법 및 장치
JP7396040B2 (ja) * 2019-12-27 2023-12-12 日本電気株式会社 画像分析装置、画像分析方法及びコンピュータプログラム
US20230142100A1 (en) * 2020-02-20 2023-05-11 Nec Corporation Inspection assistance apparatus, inspection assistance method, and computer readable recording medium
US20230260270A1 (en) 2020-07-28 2023-08-17 Mitsubishi Electric Corporation Learning utilization system, utilizing device, learning device, non-transitory computer-readable medium, and learning utilization method
CN117099098A (zh) * 2021-03-26 2023-11-21 三菱电机株式会社 重新学习系统和重新学习方法
JP2024046407A (ja) * 2022-09-22 2024-04-03 株式会社日立製作所 計算機システム及びモデルの学習方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555317A (en) * 1992-08-18 1996-09-10 Eastman Kodak Company Supervised training augmented polynomial method and apparatus for character recognition
JP4827285B2 (ja) 2000-09-04 2011-11-30 東京エレクトロン株式会社 パターン認識方法、パターン認識装置及び記録媒体
US7299215B2 (en) * 2002-05-10 2007-11-20 Oracle International Corporation Cross-validation for naive bayes data mining model
JP2005181928A (ja) 2003-12-24 2005-07-07 Fuji Xerox Co Ltd 機械学習システム及び機械学習方法、並びにコンピュータ・プログラム
WO2010016109A1 (ja) * 2008-08-05 2010-02-11 富士通株式会社 サンプルの帰属クラス予測方法、帰属クラス予測プログラムおよび帰属クラス予測装置
JP5224280B2 (ja) 2008-08-27 2013-07-03 株式会社デンソーアイティーラボラトリ 学習データ管理装置、学習データ管理方法及び車両用空調装置ならびに機器の制御装置
US8370282B1 (en) * 2009-07-22 2013-02-05 Google Inc. Image quality measures
JP2011192032A (ja) 2010-03-15 2011-09-29 Nippon Steel Corp 疵学習装置、疵学習方法、及びコンピュータプログラム
US8379994B2 (en) * 2010-10-13 2013-02-19 Sony Corporation Digital image analysis utilizing multiple human labels
US8903167B2 (en) * 2011-05-12 2014-12-02 Microsoft Corporation Synthesizing training samples for object recognition
US9152700B2 (en) * 2011-09-30 2015-10-06 Google Inc. Applying query based image relevance models
US9483741B2 (en) * 2013-03-28 2016-11-01 Wal-Mart Stores, Inc. Rule-based item classification
US9195910B2 (en) * 2013-04-23 2015-11-24 Wal-Mart Stores, Inc. System and method for classification with effective use of manual data input and crowdsourcing
US10169686B2 (en) * 2013-08-05 2019-01-01 Facebook, Inc. Systems and methods for image classification by correlating contextual cues with images
US10235629B2 (en) * 2015-06-05 2019-03-19 Southwest Research Institute Sensor data confidence estimation based on statistical analysis
US9613296B1 (en) * 2015-10-07 2017-04-04 GumGum, Inc. Selecting a set of exemplar images for use in an automated image object recognition system

Also Published As

Publication number Publication date
WO2017145960A1 (ja) 2017-08-31
US20190057285A1 (en) 2019-02-21
US10878286B2 (en) 2020-12-29
JPWO2017145960A1 (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
JP6874757B2 (ja) 学習装置、学習方法およびプログラム
CN111868780B (zh) 学习用数据生成装置及方法、模型生成系统以及程序
JP2019518273A (ja) 深層ニューラルネットワークベースのq学習の経験メモリをプルーニングする方法及び装置
JP2018055259A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021533474A (ja) ノード分類方法、モデル訓練方法並びに、その装置、機器及びコンピュータプログラム
WO2019200735A1 (zh) 牲畜特征向量的提取方法、装置、计算机设备和存储介质
CN111027605A (zh) 基于深度学习的细粒度图像识别方法和装置
JPWO2012032788A1 (ja) 排他的分類器による一般物体の画像認識装置及び方法
US10860892B1 (en) Systems and methods of synthetic data generation for data stream
CN109800260A (zh) 高并发数据存储方法、装置、计算机设备和存储介质
US20220383157A1 (en) Interpretable machine learning for data at scale
JP2018195231A (ja) 学習モデル作成装置、該方法および該プログラム
WO2021027157A1 (zh) 基于图片识别的车险理赔识别方法、装置、计算机设备及存储介质
JP2020042797A (ja) サンプル処理方法、装置、機器および記憶媒体
CN113762519A (zh) 一种数据清洗方法、装置及设备
CN112149754B (zh) 一种信息的分类方法、装置、设备及存储介质
CN110163206B (zh) 车牌识别方法、系统、存储介质和装置
EP3651024A1 (en) Method of operating storage device, storage device performing the same and storage system including the same
CN116229180A (zh) 一种基于对称kld的处理多类型标签噪声的自适应动态阈值方法、系统、设备及介质
CN107506735A (zh) 照片归类方法以及归类系统
CN113535939A (zh) 文本处理方法和装置、电子设备以及计算机可读存储介质
CN112884158A (zh) 一种机器学习程序的训练方法、装置及设备
JP2020107185A (ja) 画像認識装置、画像認識方法及びプログラム
US9378466B2 (en) Data reduction in nearest neighbor classification
JP2018005552A (ja) データベース管理装置、データベース管理方法、およびデータベース管理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6874757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150