JP2020095428A - モデル学習システム、モデル学習方法、プログラム、及び記憶媒体 - Google Patents

モデル学習システム、モデル学習方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP2020095428A
JP2020095428A JP2018232189A JP2018232189A JP2020095428A JP 2020095428 A JP2020095428 A JP 2020095428A JP 2018232189 A JP2018232189 A JP 2018232189A JP 2018232189 A JP2018232189 A JP 2018232189A JP 2020095428 A JP2020095428 A JP 2020095428A
Authority
JP
Japan
Prior art keywords
image
model
learning
processing unit
learning system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018232189A
Other languages
English (en)
Inventor
泰佑 鷲谷
Taisuke Washiya
泰佑 鷲谷
康友 塩見
Yasutomo Shiomi
康友 塩見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018232189A priority Critical patent/JP2020095428A/ja
Priority to US16/699,869 priority patent/US11676065B2/en
Priority to CN201911277899.0A priority patent/CN111310779B/zh
Publication of JP2020095428A publication Critical patent/JP2020095428A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • G06F18/2185Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習に必要なデータ数を削減できる、モデル学習システム、モデル学習方法、プログラム、及び記憶媒体を提供する。【解決手段】実施形態に係るモデル学習システムは、処理部を備える。前記処理部は、第1画像をモデルに入力して前記モデルから出力された第2画像を取得し、前記第2画像を補正して第3画像を生成し、前記第1画像を入力データ、前記第3画像を教師データとして用いて前記モデルを学習させる。【選択図】図1

Description

本発明の実施形態は、モデル学習システム、モデル学習方法、プログラム、及び記憶媒体に関する。
モデルの教師あり学習では、学習に大量のデータが必要となる。このため、学習に必要なデータ数を削減できる技術の開発が望まれている。
国際公開WO2018/168539
本発明が解決しようとする課題は、モデルの学習に必要なデータ数を削減できる、モデル学習システム、モデル学習方法、プログラム、及び記憶媒体を提供することである。
実施形態に係るモデル学習システムは、処理部を備える。前記処理部は、第1画像をモデルに入力して前記モデルから出力された第2画像を取得し、前記第2画像を補正して第3画像を生成し、前記第1画像を入力データ、前記第3画像を教師データとして用いて前記モデルを学習させる。
実施形態に係るモデル学習システムの構成を表すブロック図である。 実施形態に係るモデル学習システムの動作の一例を表すフローチャートである。 第1実施例に係るモデル学習システムによる処理を表す画像である。 第1実施例に係るモデル学習システムによる処理を表す画像である。 第1実施例に係るモデル学習システムによる処理を表す画像である。 第1実施例に係るモデル学習システムによる処理を表す画像である。 第1実施例に係るモデル学習システムによる処理を表す画像である。 第1実施例に係るモデル学習システムによる処理を表す画像である。 第2実施例に係るモデル学習システムによる処理を表す画像である。 第2実施例に係るモデル学習システムによる処理を表す画像である。 第2実施例に係るモデル学習システムによる処理を表す画像である。 実施形態に係るモデル学習システムの動作の別の一例を表すフローチャートである。 実施形態に係るモデル学習システムの動作の別の一例を表すフローチャートである。 実施形態に係るモデル学習システムの動作の別の一例を表すフローチャートである。
以下に、本発明の各実施形態について図面を参照しつつ説明する。
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、実施形態に係るモデル学習システムの構成を表すブロック図である。
実施形態に係るモデル学習システム1は、処理部10を備える。図1に表した例では、モデル学習システム1は、入力部20、表示部30、モデル記憶部40、及び画像記憶部50をさらに備える。
モデル記憶部40は、モデルを記憶している。画像記憶部50は、モデルの学習に用いられる画像を記憶している。処理部10は、画像記憶部50に記憶された画像を用いて、モデル記憶部40に記憶されたモデルの学習を行う。処理部10は、モデルを学習させると、そのモデルをモデル記憶部40に保存する。
モデルは、例えば、ニューラルネットワークである。処理部10は、例えば、中央演算処理装置からなる処理回路を含む。モデル記憶部40及び画像記憶部50は、例えば、ハードディスクドライブ(HDD)、ネットワーク接続ハードディスク(NAS)、組み込み用マルチメディアカード(eMMC)、ソリッドステートドライブ(SSD)、及びソリッドステートハイブリッドドライブ(SSHD)の少なくともいずれかを含む。1つの記憶装置が、モデル記憶部40及び画像記憶部50として機能しても良い。
入力部20は、処理部10へ情報を入力する操作を受け付ける。入力部20は、例えば、キーボード、タッチパッド、及びマイク(音声入力)の少なくともいずれかを含む。
表示部30は、処理部10から送信された情報をユーザに向けて表示する。表示部30は、例えば、モニタ及びプリンタの少なくともいずれかを含む。入力部20及び表示部30の両方として機能するタッチパネルなどが用いられても良い。
処理部10、入力部20、表示部30、モデル記憶部40、及び画像記憶部50は、有線通信、無線通信、又はネットワークにより相互に接続される。
図2は、実施形態に係るモデル学習システムの動作の一例を表すフローチャートである。
図2は、学習済みのモデルを、モデル学習システム1により再学習する際の動作を表している。
図2に表したように、処理部10は、モデル記憶部40及び画像記憶部50にアクセスし、学習済みのモデルに第1画像(入力画像)を入力する(ステップS1)。モデルは、画像を入力すると、別の画像を出力するように学習されている。処理部10は、モデルから出力された第2画像(出力画像)を取得する(ステップS2)。
処理部10は、第2画像を補正し、第2画像とは異なる第3画像(補正画像)を生成する(ステップS3)。処理部10は、第1画像を入力データとして用い、第3画像を教師データとして用いてモデルを再学習させる(ステップS4)。処理部10は、学習させたモデルを、モデル記憶部40に保存する(ステップS5)。
実施形態の効果を説明する。
実施形態に係るモデル学習システム1では、処理部10は、学習済みのモデル及び第1画像を基に得られた第2画像を補正し、第3画像を生成する。処理部10は、この第3画像を教師データとして用いて、モデルを再学習させる。このため、実施形態に係るモデル学習システム1によれば、再学習において、必要となる教師データの数を削減することができる。
また、実施形態に係るモデル学習システム1によれば、再学習に用いる教師データが、入力データを基にして生成される。このため、モデルに入力されるデータの傾向が学習時に用いたデータから変化した場合でも、適切な出力データが得られるようにモデルが再学習される。
処理部10は、生成された第3画像を、表示部30に表示させても良い。これにより、ユーザは、第3画像が教師データとして適切か容易に確認できる。例えば、ユーザの意図しない学習がモデルに対して実行されることを防止できる。
(第1実施例)
図3〜図8は、第1実施例に係るモデル学習システムによる処理を表す画像である。
第1実施例では、モデルに溶接時の様子を撮影した画像が入力され、その画像の特徴を示す別の画像がモデルから出力される。図3(a)は、撮影された画像の一例である。図3(a)の画像は、金属部材のアーク溶接中に撮影された画像である。処理部10は、モデルに図3(a)に表した画像を入力する。例えば、モデルは、図3(a)の画像の特徴を示す、図3(b)に表した画像を出力する。図3(a)は、動画から静止画をキャプチャしたものでもいい。
図3(b)に表した画像には、一方向に沿った2つの線L1及びL2と、曲がった線L3と、が含まれる。線L1〜L3は、溶接時の画像の特徴を示している。例えば、図3(b)の画像では、線L1及びL2は、赤色で表される。線L3は、緑色で表される。その他の部分は、青色で表される。処理部10は、図3(b)に表した画像を補正する。例えば、処理部10は、補正において、特徴を示す線を削除又は補完し、且つ画像に含まれるノイズを除去する。以下では、補正の具体的な一例を説明する。
図4(a)、図4(b)、及び図4(c)の画像は、図3(b)に表した画像を色ごとに分けたものである。図4(a)の画像は、線L1及びL2のみを含む。図4(b)の画像は、線L3のみを含む。図4(c)の画像は、他の要素のみを含む。この例では、図4(c)の画像には、実質的に何も含まれていない。
処理部10は、各画像を二値化する。二値化は、線L1〜L3の輝度が、その他の部分の輝度と異なるように、実行される。処理部10は、二値画像に、縮小処理及び拡大処理の少なくともいずれかを加える。例えば、処理部10は、二値画像に、縮小処理と拡大処理の両方を加える。処理部10は、拡大処理及び縮小処理を、複数回実行しても良い。拡大処理と縮小処理が交互に繰り返されても良い。拡大処理と縮小処理の実行順序は、適宜変更可能である。処理部10は、縮小処理又は拡大処理の実行時に、回転処理を加えてもいい。これにより、図4(d)〜図4(f)に表した画像が生成される。縮小処理及び拡大処理により、画像中のノイズが除去される。
処理部10は、図5(a)に表したように、線L1及びL2を含む画像に2つの領域(領域R1及び領域R2)を設定する。領域R1と領域R2の境界は、画像の第1方向D1の中心である。第1方向D1は、線L1及びL2を結ぶ方向である。また、処理部10は、線L1及びL2を含む画像について、第1方向D1の各点における、第2方向D2の濃淡値の合計を算出する。第2方向D2は、第1方向D1に垂直な方向である。
図5(b)は、濃淡値の合計の算出結果を表す。図5(b)において、横軸は、第1方向D1における位置Pを表す。縦軸は、濃淡値の合計Sumを表す。処理部10は、領域R1及びR2のそれぞれにおける合計Sumのピークを検出する。領域R1又はR2で複数のピークが検出された場合、画像の第1方向D1の中心により近いピークのみを残し、他のピークは除去する。これにより、領域R1及びR2のそれぞれに、1つの線のみが存在する画像が得られる。
例えば、モデルから出力された画像において、線L1及びL2以外に、一方向に沿った別の線が存在する可能性がある。上記の処理により、中心から遠い線は、除去される。図5(a)及び図5(b)の例では、領域R1及びR2で、それぞれ1つのピークのみが検出されている。このため、図5(a)及び図5(b)の例では、ピークの削除は行われない。次に、処理部10は、線L1及びL2を直線近似する。これにより、図5(a)に表した画像から、図5(c)に表した画像が得られる。
処理部10は、線L1及びL2の位置情報を基に、図4(e)に表した画像に対して、図6(a)に表したように、5つの領域R11〜R15を設定する。領域R11とR12の境界の位置は、線L1の位置に対応する。領域R14とR15の境界の位置は、線L2の位置に対応する。領域R12〜R14は、線L1に対応する境界と線L2に対応する境界との間の領域を、3等分することで設定される。
処理部10は、線L3の一部が領域R11及びR15に存在するとき、その部分を除去する。すなわち、処理部10は、領域R11及びR15に含まれる画素の輝度を、全て黒色に対応する値に設定する。また、処理部10は、領域R12及びR14に存在する線L3の一部を、曲線近似する。処理部10は、領域R13に存在する線L3の一部には、処理を加えない。これらの処理により、図6(b)に表した画像が生成される。
処理部10は、図4(f)に表した画像と、図5(c)に表した画像と、図6(b)に表した画像と、を結合し、図6(c)に表した画像を生成する。図3(b)に表した画像では、線L1〜L3が不鮮明であったが、補正によりこれらの線が鮮明となっている。処理部10は、図3(a)の画像を入力データとし、図6(c)の画像を教師データとして用いてモデルを学習させる。
例えば、品質検査やインプロセスモニタリングなどでは、溶接時の画像から抽出される特徴に基づき、溶接の良否を判定する。このとき、特徴が抽出された画像が不鮮明であったり、特徴が正確に抽出されていなかったりすると、溶接の良否を正確に判定できない。実施形態に係るモデル学習システム1によれば、特徴が抽出された画像について、補正により、不要な線が削除されたり、必要な線が鮮明化される。補正された画像を用いてモデルを学習することで、モデルが溶接時の画像から特徴をより正確に抽出できるようになる。
図7(a)〜図7(e)及び図8(a)〜図8(c)は、その他の例を表す。処理部10は、図7(a)の画像をモデルに入力し、図7(b)の画像を取得する。図7(b)の画像では、線L1が不鮮明となっている。また、図7(b)の画像には、線L1〜L3に加え、線L4が含まれている。処理部10は、図7(b)の画像に、上記と同様の処理を加えて補正し、図7(c)の画像を生成する。補正により、線L1が鮮明となり、線L4が除去される。処理部10は、図7(a)の画像を入力データとし、図7(c)の画像を教師データとして用いてモデルを学習させる。
図7(d)は、図7(a)の画像を別のモデルに入力して得られた画像を表す。図7(d)の画像では、線L2が不鮮明となっている。また、図7(d)の画像においても、線L1〜L3に加え、線L4が含まれている。処理部10は、図7(d)の画像を補正し、図7(e)の画像を生成する。補正により、線L2が鮮明となり、線L4が除去される。処理部10は、図7(a)の画像を入力データとし、図7(e)の画像を教師データとして用いてモデルを学習させる。
同様に、処理部10は、図8(a)の画像をモデルに入力し、図8(b)の画像を取得する。処理部10は、図8(b)の画像を補正し、図8(c)の画像を生成する。処理部10は、図8(a)の画像を入力データとし、図8(c)の画像を教師データとして用いてモデルを学習させる。
(第2実施例)
図9〜図11は、第2実施例に係るモデル学習システムによる処理を表す画像である。
第2実施例では、モデルに段ボールの画像(写真)が入力される。モデルは、その画像から、段ボールへの付着物や印字などが除去された、段ボールの画像を出力する。図9(a)は、段ボールの画像の一例である。モデルは、図9(a)の画像から、段ボール以外のものや印字が除去された、図9(b)に表した画像を出力する。処理部10は、図9(b)に表した画像を補正する。例えば、処理部10は、補正において、段ボールの形状をより明確にし、且つ画像に含まれるノイズを除去する。以下では、補正の具体的な一例を説明する。
処理部10は、図9(b)に表した画像を二値化し、図10(a)に表した画像を生成する。次に、処理部10は、図10(a)に表した画像に収縮処理及び拡大処理を加え、印字に対応する画素やノイズを除去する。これにより、図10(b)に表した画像を生成する。処理部10は、図10(b)に表した画像をポリゴン近似し、図10(c)に表した画像を生成する。処理部10は、図10(c)に表した画像に基づき、図10(d)に表したように、形状推定を実行する。これにより、段ボールの各面が識別される。
処理部10は、図11(a)〜図11(c)に表したように、段ボールの面ごとに色を補正する。例えば、処理部10は、図10(d)に表した段ボールの各面について、図9(b)の画像中の類似する部分を基に、色を補正する。処理部10は、図11(a)〜図11(c)に表した画像を結合し、平滑化することで、図11(d)に表した画像を生成する。処理部10は、図9(a)の画像を入力データとし、図11(d)の画像を教師データとして用いてモデルを学習させる。
以上の通り、第2実施例によれば、段ボールの画像から、付着物や印字が除去され、段ボール自体の画像が生成される。例えば、段ボール自体の画像から、段ボールに凹みや傷などが無いか容易に確認できるようになる。
上述した各実施例で示したように、実施形態に係るモデル学習システム1は、特に工業的な用途に好適に用いられる。また、工業的な用途においては、第2画像を二値化し、縮小処理及び拡大処理を加える第1処理と、第2画像に近似処理を加える第2処理と、の少なくともいずれかが実行され、第2画像が補正されることが好ましい。これらの処理により、画像がより鮮明となり、画像に設計情報や工程の特徴がより反映され易くなるためである。
図12は、実施形態に係るモデル学習システムの動作の別の一例を表すフローチャートである。
図12に表したフローチャートは、未学習のモデルを、モデル学習システム1により学習する際の動作を含む。
処理部10は、入力画像(例えば第1学習画像)及び教師画像(例えば第2学習画像)を用いてモデルを学習させる(ステップS11)。処理部10は、モデルの学習について、所定の条件が充足されたか判定する(ステップS12)。条件が満たされていると、処理部10は、モデルの学習を終了させ、ステップS13に進む。条件が満たされていないと、処理部10は、条件が満たされるまで、ステップS11を繰り返す。条件は、例えば、予め登録された入力画像及び教師画像が全て学習されることである。条件は、ユーザによる学習を終了させる操作の入力であっても良い。
モデルの学習が完了すると、モデル学習システム1は、モデルを用いて画像を取得しつつ、モデルを適宜再学習させる。以降のステップS13〜S17は、図2に表したフローチャートのステップS1〜S5と同様である。すなわち、処理部10は、学習済みのモデルに第1画像を入力し(ステップS13)、第2画像を取得する(ステップS14)。処理部10は、第2画像を補正して第3画像を生成する(ステップS15)。処理部10は、第1画像を入力データとして用い、第3画像を教師データとして用いてモデルを再学習させる(ステップS16)。処理部10は、学習させたモデルを、モデル記憶部40に保存する(ステップS17)。
図13は、実施形態に係るモデル学習システムの動作の別の一例を表すフローチャートである。
処理部10は、上述した通り、モデルから出力された出力画像に基づく補正画像の生成と、前記補正画像を教師データとして用いたモデルの学習と、を含む学習動作を実行可能である。実施形態に係るモデル学習システム1は、この学習動作に関する情報を表示しても良い。この情報は、図12に表したフローチャートのステップS11の学習から、ステップS13〜S16の学習動作への切り替えをユーザが判断するために用いられる。
図13に表したように、処理部10は、モデルを学習させる(ステップS21)。処理部10は、学習動作に関する情報を表示部30に表示させる(ステップS22)。その後、例えば、処理部10は、モデルの学習について、所定の条件が充足されたか判断する(ステップS23)。処理部10は、条件が満たされるまで、ステップS21及びS22を繰り返す。例えば、条件が満たされた後、処理部10は、学習動作(例えば、図12のフローチャートのステップS13〜S16)を実行しても良い。
例えば、学習動作に関する情報は、学習動作の実行についての評価値を含む。例えば、評価値が低いほど、学習動作の実行が推奨されていることを示す。評価値が高いほど、学習動作の実行は推奨されない(非推奨である)ことを示す。情報は、学習動作の実行を推奨する推奨情報、又は学習動作の実行を推奨しない非推奨情報を含んでも良い。例えば、推奨情報は、学習動作の実行が推奨されることを示す文章を含み、非推奨情報は、学習動作の実行が推奨されないことを示す文章を含む。
学習動作によれば、上述した通り、学習に必要なデータ数を削減できる。ただし、モデルから出力された出力画像を基に教師画像を生成するため、モデルが十分に学習されていないと、適切な教師画像が得られない。従って、学習動作は、モデルが十分に学習された後に実行されることが望ましい。例えば、実施形態に係るモデル学習システム1は、学習動作に関する情報をユーザに向けて表示する。ユーザは、この情報を基に、通常の入力画像と教師画像のペアデータを要する学習から、上記学習動作に切り替えるタイミングを判断することができる。これにより、ユーザの利便性を向上させることができる。
例えば、処理部10は、ある入力画像及びある教師画像を用いて、モデルを学習させる。処理部10は、学習の前又は後で、その入力画像をモデルに入力し、モデルから出力された出力画像を得る。処理部10は、教師画像と出力画像との差分を算出する。差分の算出には、例えば、平均二乗誤差などの方法が用いられる。
その後、処理部10は、別の入力画像及び別の教師画像を用いて、モデルを学習させる。処理部10は、その学習の前又は後で、その別の入力画像をモデルに入力し、モデルから出力された別の出力画像を得る。処理部10は、別の教師画像と別の出力画像との差分を算出する。以降は、同様にして、学習時に、教師画像と出力画像との差分を算出する。
処理部10は、これらの差分の変化を計算する。例えば、処理部10は、変化の割合又は変化の量を、評価値とする。この場合、評価値が大きいと、モデルの学習が十分では無いことを示し、評価値が小さいと、モデルの学習が十分であることを示す。例えば、評価値が表示されることで、ユーザは、評価値に基づき、上記学習動作への切り替えを判断できる。
又は、処理部10は、評価値が所定の閾値を超えるとき、非推奨情報を表示しても良い。処理部10は、評価値が所定の閾値以下となったとき、推奨情報を表示しても良い。推奨情報又は非推奨情報が表示されることで、ユーザは、上記学習動作への切り替えを容易に判断できるようになる。
この他に、評価値として、補正による画像の変化を示す値が用いられても良い。
例えば、処理部10は、ある入力画像を用いてモデルを学習させた際、学習の前又は後で、その入力画像をモデルに入力して出力画像を得る。処理部10は、出力画像を補正し、補正画像を生成する。処理部10は、出力画像と補正画像との差分を算出する。
その後、処理部10は、別の入力画像を用いてモデルを学習させた際、その学習の前又は後で、別の入力画像をモデルに入力して別の出力画像を得る。処理部10は、別の出力画像を補正し、別の補正画像を生成する。処理部10は、別の出力画像と別の補正画像との差分を算出する。
処理部10は、これらの差分の変化を計算する。処理部10は、この計算により得られた変化の割合又は変化の量を、評価値としても良い。この場合も、評価値が大きいと、モデルの学習が十分では無いことを示し、評価値が小さいと、モデルの学習が十分であることを示す。モデルの学習が十分で無いと、モデルからは、不鮮明であったり、適切に特徴が反映されていない画像が出力され易くなる。このような画像は、補正により大きく変更される。従って、モデルの学習が十分では無いほど、出力画像と補正画像との差分も大きくなる。この差分の変化に基づく評価値でも、学習動作の推奨又は非推奨を適切にユーザに知らせることができる。
図14は、実施形態に係るモデル学習システムの動作の別の一例を表すフローチャートである。
処理部10は、第3画像(補正画像)を用いたモデルの学習について、ユーザから評価を受け付けても良い。図14に表したフローチャートのステップS31〜33は、図2に表したフローチャートのステップS1〜3と同様である。次に、処理部10は、第3画像を表示部30に表示させる(ステップS34)。
ユーザは、第3画像を確認し、第3画像に関する評価を入力部20を用いて入力する。処理部10は、ユーザからの評価を受け付ける(ステップS35)。処理部10は、評価が肯定的か判断する(ステップS36)。評価が肯定的ではない場合、処理部10は、モデルを再学習させず、処理を終了する。
評価が肯定的である場合、処理部10は、第2画像と第3画像の差分を算出する。処理部10は、この差分が所定の閾値を超えるか判断する(ステップS37)。差分が閾値を超えるとき、処理部10は、第1画像を入力データ、第3画像を教師データとして用いてモデルを再学習させる(ステップS38)。処理部10は、再学習させたモデルを保存する(ステップS39)。差分が閾値以下のとき、処理部10は、処理を終了する。
図14に表した動作によれば、教師データとして適切な第3画像のみがモデルの再学習に用いられる。このため、よりユーザの意図する結果が出力されるよう、モデルを適切に学習させることができる。
図14に表した動作において、第3画像についての評価が肯定的であった場合、処理部10は、第2画像と第3画像の差分に拘わらず、ステップS38を実行しても良い。ただし、差分が小さい場合、十分に望ましい画像がモデルから出力されていることを示す。従って、第3画像を用いて再学習を実行する必要性は薄い。差分に基づいて再学習の実行を判断することで、無用にモデルが再学習されることを抑制できる。これにより、処理部10により計算量を低減できる。また、モデルが過学習され、モデルの汎化能力が低減することを抑制できる。
以上で説明した実施形態に係るモデル学習システム及びモデル学習方法によれば、モデルの学習に必要なデータ数を削減できる。同様に、コンピュータを、モデル学習システムとして動作させるためのプログラムを用いることで、モデルの学習に必要なデータ数を削減できる。
また、以上では、入力データ及び教師データとして画像を用いる場合について説明した。しかし、実施形態に係るモデル学習システム、モデル学習方法、プログラム、及び記憶媒体は、画像以外のデータが入力されるモデルに対しても適用可能である。例えば、モデルには、文章が入力されても良い。このモデルは、第1文章が入力されると、第2文章を出力する。処理部10は、第2文章を補正し、第3文章を生成する。処理部10は、第1文章を入力データ、第3文章を教師データとして用いてモデルを学習させる。これにより、モデルの学習に必要なデータ数を削減できる。
上記の種々のデータの処理は、例えば、プログラム(ソフトウェア)に基づいて実行される。例えば、コンピュータが、このプログラムを記憶し、このプログラムを読み出すことにより、上記の種々の情報の処理が行われる。
上記の種々の情報の処理は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク及びハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、または、他の記録媒体に記録されても良い。
例えば、記録媒体に記録された情報は、コンピュータ(または組み込みシステム)により読み出されることが可能である。記録媒体において、記録形式(記憶形式)は任意である。例えば、コンピュータは、記録媒体からプログラムを読み出し、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させる。コンピュータにおいて、プログラムの取得(または読み出し)は、ネットワークを通じて行われても良い。
実施形態に係る処理部は、1つまたは複数の装置(例えばパーソナルコンピュータなど)を含む。実施形態に係る処理部は、ネットワークにより接続された複数の装置を含んでも良い。
以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。
1 モデル学習システム、 10 処理部、 20 入力部、 30 表示部、 40 モデル記憶部、 50 画像記憶部、 D1 第1方向、 D2 第2方向、 L1〜L4 線、 P 位置、 R1、R2、R11〜R15 領域、 Sum 合計

Claims (12)

  1. 第1画像をモデルに入力して前記モデルから出力された第2画像を取得し、
    前記第2画像を補正して第3画像を生成し、
    前記第1画像を入力データ、前記第3画像を教師データとして用いて前記モデルを学習させる、
    処理部を備えたモデル学習システム。
  2. 第1学習画像を入力データ、第2学習画像を教師データとして用いてモデルを学習させ、
    前記モデルに第1画像を入力して前記モデルから出力された第2画像を取得し、
    前記第2画像を補正して第3画像を生成し、
    前記第1画像を入力データ、前記第3画像を教師データとして用いて前記モデルを学習させる、
    処理部を備えたモデル学習システム。
  3. 前記第3画像を表示する表示部をさらに備えた請求項1又は2に記載のモデル学習システム。
  4. 第1画像をモデルに入力して前記モデルから出力された第2画像を取得し、前記第2画像を補正して第3画像を生成する処理部と、
    前記第3画像を表示する表示部と、
    前記第3画像に関する評価を受け付ける入力部と、
    を備え、
    前記評価に基づき、前記処理部は、前記第1画像を入力データ、前記第3画像を教師データとして用いて、前記モデルを学習させる学習動作を実行可能であるモデル学習システム。
  5. 前記処理部は、前記評価が前記第3画像に肯定的である場合、前記第2画像と前記第3画像との差分を算出し、前記差分が所定の閾値を超えていると、前記学習動作を実行する請求項4記載のモデル学習システム。
  6. 前記処理部は、
    前記第2画像を二値化し、縮小処理及び拡大処理の少なくともいずれかを加える第1処理と、
    前記第2画像に近似処理を加える第2処理と、
    の少なくともいずれかを実行することで、前記第2画像を補正する請求項1〜5のいずれか1つに記載のモデル学習システム。
  7. モデルから出力された出力画像に基づく補正画像の生成と、前記補正画像を教師データとして用いた前記モデルの学習と、を含む学習動作を実行可能であり、前記モデルの学習時に前記学習動作に関する情報を出力する処理部を備えたモデル学習システム。
  8. 前記情報は、前記学習動作の実行についての評価値を含む請求項7記載のモデル学習システム。
  9. 前記処理部は、
    前記モデルの学習時に、前記学習動作の実行についての評価値を算出し、
    前記評価値が所定の閾値を超えていると、前記学習動作の実行を推奨する推奨情報を含んだ前記情報を出力する、
    請求項7記載のモデル学習システム。
  10. 第1画像をモデルに入力して前記モデルから出力された第2画像を取得し、
    前記第2画像を補正して第3画像を生成し、
    前記第1画像を入力データ、前記第3画像を教師データとして用いて前記モデルを学習させるモデル学習方法。
  11. 処理装置に、
    第1画像をモデルに入力させて前記モデルから出力された第2画像を取得させ、
    前記第2画像を補正させて第3画像を生成させ、
    前記第1画像を入力データ、前記第3画像を教師データとして用いて前記モデルを学習させる、
    プログラム。
  12. 請求項11記載のプログラムを記憶した記憶媒体。
JP2018232189A 2018-12-12 2018-12-12 モデル学習システム、モデル学習方法、プログラム、及び記憶媒体 Pending JP2020095428A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018232189A JP2020095428A (ja) 2018-12-12 2018-12-12 モデル学習システム、モデル学習方法、プログラム、及び記憶媒体
US16/699,869 US11676065B2 (en) 2018-12-12 2019-12-02 Model training system
CN201911277899.0A CN111310779B (zh) 2018-12-12 2019-12-12 模型学习系统、模型学习方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018232189A JP2020095428A (ja) 2018-12-12 2018-12-12 モデル学習システム、モデル学習方法、プログラム、及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2020095428A true JP2020095428A (ja) 2020-06-18

Family

ID=71071613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018232189A Pending JP2020095428A (ja) 2018-12-12 2018-12-12 モデル学習システム、モデル学習方法、プログラム、及び記憶媒体

Country Status (3)

Country Link
US (1) US11676065B2 (ja)
JP (1) JP2020095428A (ja)
CN (1) CN111310779B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014306A1 (ja) * 2020-07-16 2022-01-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 学習方法、画像識別方法、学習装置、及び画像識別システム
JP7357463B2 (ja) 2019-05-08 2023-10-06 株式会社東芝 判定装置、判定システム、溶接システム、判定方法、プログラム、及び記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301980B2 (en) * 2020-04-21 2022-04-12 GM Global Technology Operations LLC System and method to evaluate the integrity of spot welds

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301779A (ja) * 2005-04-18 2006-11-02 Konica Minolta Photo Imaging Inc 画像処理システム、画像処理方法及び画像処理プログラム
JP2014178229A (ja) * 2013-03-15 2014-09-25 Dainippon Screen Mfg Co Ltd 教師データ作成方法、画像分類方法および画像分類装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100819006B1 (ko) * 2007-02-13 2008-04-03 삼성전자주식회사 마이크로 어레이용 마스크 세트, 이의 제조 방법, 및마스크 세트를 이용한 마이크로 어레이의 제조 방법
PT2879719T (pt) * 2012-08-01 2018-10-08 Ohio State Innovation Foundation Administração intratecal do vírus adeno-associado 9 recombinante
US10796223B2 (en) 2014-02-10 2020-10-06 Mitsubishi Electric Corporation Hierarchical neural network apparatus, classifier learning method and discriminating method
JP2018063504A (ja) 2016-10-12 2018-04-19 株式会社リコー 生成モデル学習方法、装置及びプログラム
JP7047778B2 (ja) 2017-01-19 2022-04-05 日本電気株式会社 ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、及び、ニューラルネットワーク学習プログラム
JP7103337B2 (ja) 2017-02-22 2022-07-20 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
EP3598434A4 (en) 2017-03-13 2020-04-22 Sony Corporation LEARNING DEVICE, LEARNING METHOD, LANGUAGE SYNTHETIZER AND LANGUAGE SYNTHESIS METHOD
JP7036610B2 (ja) 2017-03-16 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 学習方法およびプログラム
JP6487493B2 (ja) * 2017-05-18 2019-03-20 ファナック株式会社 画像処理システム
JP6928876B2 (ja) * 2017-12-15 2021-09-01 京セラドキュメントソリューションズ株式会社 フォーム種別学習システムおよび画像処理装置
WO2019162346A1 (en) * 2018-02-23 2019-08-29 Asml Netherlands B.V. Methods for training machine learning model for computation lithography
JP7139749B2 (ja) * 2018-07-23 2022-09-21 日本電信電話株式会社 画像認識学習装置、画像認識装置、方法、及びプログラム
JP2020129439A (ja) * 2019-02-07 2020-08-27 株式会社日立製作所 情報処理システムおよび情報処理方法
JP2020160616A (ja) * 2019-03-25 2020-10-01 ブラザー工業株式会社 生成装置、コンピュータプログラム、生成方法
EP3857506A4 (en) * 2019-05-03 2022-01-05 Samsung Electronics Co., Ltd. IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD THEREOF
JP7357463B2 (ja) * 2019-05-08 2023-10-06 株式会社東芝 判定装置、判定システム、溶接システム、判定方法、プログラム、及び記憶媒体
EP3739513A1 (en) * 2019-05-13 2020-11-18 Fujitsu Limited Surface defect identification method and apparatus
JP7383946B2 (ja) * 2019-09-12 2023-11-21 株式会社アイシン 画像復元装置、画像復元方法、画像復元プログラム、復元器生成装置、復元器生成方法、復元器生成プログラム、判定器生成装置、判定器生成方法、判定器生成プログラム、物品判定装置、物品判定方法、および物品判定プログラム
JP7370777B2 (ja) * 2019-09-13 2023-10-30 株式会社東芝 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体
JP2021060962A (ja) * 2019-10-08 2021-04-15 キヤノン株式会社 教師データの生成方法、学習済の学習モデル、及びシステム
JP2021189582A (ja) * 2020-05-27 2021-12-13 ブラザー工業株式会社 学習済みの機械学習モデル、画像処理装置、および、機械学習モデルのトレーニング方法
JP7487096B2 (ja) * 2020-12-24 2024-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御システム及び制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301779A (ja) * 2005-04-18 2006-11-02 Konica Minolta Photo Imaging Inc 画像処理システム、画像処理方法及び画像処理プログラム
JP2014178229A (ja) * 2013-03-15 2014-09-25 Dainippon Screen Mfg Co Ltd 教師データ作成方法、画像分類方法および画像分類装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUNCHAO WEI, ET AL.: "STC: A Simple to Complex Framework for Weakly-Supervised Semantic Segmentation", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. Year: 2017 | Volume: 39, Issue: 11, JPN6022009437, 2017, US, pages 2314 - 2320, ISSN: 0004850542 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7357463B2 (ja) 2019-05-08 2023-10-06 株式会社東芝 判定装置、判定システム、溶接システム、判定方法、プログラム、及び記憶媒体
WO2022014306A1 (ja) * 2020-07-16 2022-01-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 学習方法、画像識別方法、学習装置、及び画像識別システム

Also Published As

Publication number Publication date
US11676065B2 (en) 2023-06-13
US20200193233A1 (en) 2020-06-18
CN111310779B (zh) 2023-11-03
CN111310779A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
CN111310779B (zh) 模型学习系统、模型学习方法以及存储介质
US11507766B2 (en) Method and apparatus for processing encoded pattern, storage medium, and electronic apparatus
US11423297B2 (en) Processing apparatus, processing method, and nonvolatile recording medium
US9626738B2 (en) Image processing apparatus, image processing method, and storage medium
US8837856B2 (en) Image processing apparatus, image processing method, and computer readable medium
US20120301034A1 (en) Image processing apparatus, image processing method, and computer readable medium
US8958637B2 (en) Image processing apparatus, image processing method, and computer readable medium
JP2013031118A5 (ja) 画像処理装置及びその制御方法、並びにプログラム
CN100444627C (zh) 图像显示装置及其修正值制成方法
US20210407047A1 (en) Automatic Artifact Removal in a Digital Image
JP5686346B2 (ja) 2次元コード生成方法、2次元コード生成装置、プログラム及び記憶媒体
JP2021047797A (ja) 機械学習装置、機械学習方法、及びプログラム
JP2014030944A (ja) 電子機器およびプログラム
JP4868139B2 (ja) 画像処理装置及び画像処理プログラム
JP4453583B2 (ja) 画像処理装置及びプログラム
JP4618030B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP7431005B2 (ja) 学習データ生成装置、学習データ生成方法、及びプログラム
US20200285426A1 (en) Information processing device, learning device, and storage medium storing learnt model
JP6406982B2 (ja) 画像形成装置およびその制御方法
JP2021026729A (ja) 画像処理装置、および、学習済みの機械学習モデル
JP2012095173A (ja) 画像処理装置、画像形成装置、および画像処理方法
JP2022003446A (ja) 情報処理装置
JP2020134625A (ja) 画像形成装置
JP6164024B2 (ja) 画像処理装置及びプログラム
JP2008236668A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220817

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221014

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221214