JP6861124B2 - 機械学習装置及び方法 - Google Patents

機械学習装置及び方法 Download PDF

Info

Publication number
JP6861124B2
JP6861124B2 JP2017154837A JP2017154837A JP6861124B2 JP 6861124 B2 JP6861124 B2 JP 6861124B2 JP 2017154837 A JP2017154837 A JP 2017154837A JP 2017154837 A JP2017154837 A JP 2017154837A JP 6861124 B2 JP6861124 B2 JP 6861124B2
Authority
JP
Japan
Prior art keywords
learning
image
image processing
target
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017154837A
Other languages
English (en)
Other versions
JP2019032782A (ja
Inventor
近藤 伸和
伸和 近藤
淳平 大越
淳平 大越
直史 浜
直史 浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017154837A priority Critical patent/JP6861124B2/ja
Priority to US15/936,942 priority patent/US20190050684A1/en
Publication of JP2019032782A publication Critical patent/JP2019032782A/ja
Application granted granted Critical
Publication of JP6861124B2 publication Critical patent/JP6861124B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は機械学習装置及び方法に関し、例えば、画像に含まれる学習対象を機械学習する機械学習装置に適用して好適なものである。
近年、AI(Artificial Intelligence)技術が脚光を浴びており、これに伴い機械学習の研究も盛んに行われている。産業分野においても、製品検査、加工制御及びエラー監視などにおける認識精度の向上や、制御仕様の変更時におけるSI(System Integration)コストの低減を目的として機械学習の研究開発が積極的に進められている。
また近年では、工場のスマート化(スマート工場化)も進められており、機械学習技術のより一層の進歩が期待されている。ここで、スマート工場とは、センサや設備を含めた工場内のあらゆる機器をインターネットに接続し、品質及び状態などの様々な情報間の因果関係の明確化を実現し、設備同士、又は設備と人が強調して動作することにより実現される工場をいう。
なお機械学習に関連して、下記非特許文献1及び2には、予め数千クラス、約150万枚の画像を学習した学習結果を画像認識プラットフォームに入れておくことで、顧客が用意する画像が少ない場合においても高精度の画像認識を行い得る画像学習のフレームワークが開示されている。
"〔AI導入〕もっと身近に劇的に 画像認識プラットフォーム"、[online]、NTTコムウェア、[平成29年7月3日検索]、インターネット〈URL: http://www.nttcom.co.jp/dl/〉 "御社専用の画像認識AI作れます、NTTコムウェア "AI初心者"企業でも業務に取り入れやすく"、[online]、日経テクノロジーonline、[平成29年7月3日検索]、インターネット〈URL:http://techon.nikkeibp.co.jp/atcl/news/16/030106520/?rt=nocnt〉
ところで、例えばスマート工場などにおいてAIを導入し、当該AIに非特許文献1及び2に開示された技術を適用したとしても、製品仕様の変更等に伴う再学習には数か月単位の学習時間が必要となる。
そして、この学習時間は、作成に人手を要する教師データの枚数に比例するため、かかる学習時間を短縮させるためには、より多くの作業員を動員しなければならないという問題がある。一方で、かかる再学習は、工場の稼働に影響を及ぼさない時間的範囲内(例えば1日以内)で行われることが望まれる。
本発明は以上の点を考慮してなされたもので、短時間で効率良く機械学習を行い得る機械学習装置及び方法を提案しようとするものである。
かかる課題を解決するため本発明においては、外部から基本的な学習結果でなる基本学習情報を取得し、取得した前記基本学習情報をチューニングするようにして学習対象を学習する機械学習装置において、予め用意された教師データセットに基づく各画像に対する画像加工処理の要否をそれぞれ判定する要否判定部と、前記要否判定部により前記画像加工処理を施すべきと判定された各前記画像に対して必要な前記画像加工処理をそれぞれ施すことにより加工画像を生成する画像加工処理部と、前記教師データセットを用いた1回目のアクティブラーニングと、前記画像加工処理部により生成された各前記加工画像の画像データを教師データとする2回目のアクティブラーニングとを実行することにより前記基本学習情報をチューニングする学習部とを有し、前記学習対象ごとに、当該学習対象に対して学習効果が高い前記画像加工処理が予め設定され、前記要否判定部は、前記教師データセットに基づく前記画像に含まれる前記学習対象に対して前記画像加工処理が設定されている場合には、当該画像に対して当該画像加工処理を施すべきと判定し、前記画像加工処理部は、前記要否判定部により前記画像加工処理を施すべきと判定された前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理をそれぞれ施すことにより1又は複数の当該画像の前記加工画像を生成し、前記学習対象ごとに、当該学習対象を含む前記画像に対して前記画像加工処理を施すことにより得られた前記加工画像の画像データを教師データとして前記学習部が当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理を選択して設定する学習効果評価部をさらに備え、前記学習効果評価部は、前記学習対象ごとに、当該学習対象を含む前記画像内の予め規定された複数の部位に対してそれぞれ別個に前記画像加工処理を施すことにより得られた各前記加工画像の画像データをそれぞれ教師データとして前記学習部が当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理及び当該画像加工処理を施すべき当該画像内の前記部位を設定し、前記画像加工処理部は、前記要否判定部により前記画像加工処理を施すべきと判定された前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理を、それぞれ当該学習対象の当該画像加工処理について設定された前記部位に対して施すことにより当該画像の前記加工画像をそれぞれ生成するようにした。
また本発明においては、外部から基本的な学習結果でなる基本学習情報を取得し、取得した前記基本学習情報をチューニングするようにして学習対象を学習する機械学習装置により実行される機械学習方法において、予め用意された教師データセットを用いた1回目のアクティブラーニングを実行することにより前記基本学習情報をチューニングする第1のステップと、前記教師データセットに基づく各画像に対する画像加工処理の要否をそれぞれ判定する第2のステップと、前記画像加工処理を施すべきと判定した各前記画像に対して必要な前記画像加工処理をそれぞれ施すことにより加工画像を生成する第3のステップと、生成した各前記加工画像の画像データを教師データとする2回目のアクティブラーニングを実行することにより前記基本学習情報をチューニングする第4のステップとを有し、前記学習対象ごとに、当該学習対象に対して学習効果が高い前記画像加工処理が予め設定され、前記第2のステップにおいて、前記機械学習装置は、前記教師データセットに基づく前記画像に含まれる前記学習対象に対して前記画像加工処理が設定されている場合には、当該画像に対して当該画像加工処理を施すべきと判定し、前記第3のステップにおいて、前記機械学習装置は、前記画像加工処理を施すべきと判定した前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理をそれぞれ施すことにより1又は複数の当該画像の前記加工画像を生成し、前記第2のステップの前に実行され、前記学習対象ごとに、当該学習対象を含む前記画像に対して前記画像加工処理を施すことにより得られた前記加工画像の画像データを教師データとして当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理を選択して設定する学習効果評価ステップを備え、前記学習効果評価ステップでは、前記学習対象ごとに、当該学習対象を含む前記画像内の予め規定された複数の部位に対してそれぞれ別個に前記画像加工処理を施すことにより得られた各前記加工画像の画像データをそれぞれ教師データとして当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理及び当該画像加工処理を施すべき当該画像内の前記部位を設定し、前記第3のステップでは、前記要否判定部により前記画像加工処理を施すべきと判定された前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理を、それぞれ当該学習対象の当該画像加工処理について設定された前記部位に対して施すことにより当該画像の前記加工画像をそれぞれ生成するようにした。
本発明の機械学習装置及び方法によれば、必要最低限の数の教師データセットにより学習効果が高い加工画像を作成し、作成したこれらの加工画像の画像データを教師データとして学習対象を学習することができる。従って、基本学習情報を用いたことによる学習時間の短縮化に加えて、教師データセット以外の教師データを作成するための人員の動員も、そのための時間も必要なく、各段的に短い時間で学習を行うことができる。
本発明によれば、短時間で効率良く機械学習を行い得る機械学習装置及び方法を実現できる。
本実施の形態による機械学習システムの全体構成を示すブロック図である。 前処理実行要否管理テーブルの構成を示す図表である。 前処理候補項目リストの構成を示す図表である。 本実施の形態による機械学習処理の流れを示すブロック図である。 事前機械学習処理の流れを示すフローチャートである。 学習効果評価処理の処理手順を示すフローチャートである。 他の実施の形態の説明に供する特性曲線図である。
以下図面について、本発明の一実施の形態を詳述する。なお、以下においては、カメラから出力される映像データに基づく動画像を「映像」と呼び、「映像」を構成する1枚1枚の静止画を「画像」と呼ぶものとする。
(1)本実施の形態による機械学習システムの構成
図1において、1は全体として本実施の形態による機械学習システムを示す。この機械学習システム1は、スマート工場2内に配設された複数のカメラ3と、ストレージ装置4と、機械学習装置5とを備えて構成され、機械学習装置5がインターネット等のネットワーク6を介してクラウドサーバ7に接続されている。
カメラ3は、スマート工場2内の所定箇所にそれぞれ配設された汎用の撮像装置であり、撮像により得られた映像データをストレージ装置4に送信する。またストレージ装置4は、例えば、RAID(Redundant Arrays of Inexpensive Disks)などの大容量の記憶装置から構成され、カメラ3から送信される映像データを現場データD1として記憶する。
機械学習装置5は、CPU(Central Processing Unit)10、メモリ11、記憶装置12、入力装置13及び表示装置14を備える汎用のコンピュータ装置から構成される。
CPU10は、本機械学習装置5全体の動作制御を司るプロセッサである。またメモリ11は、例えば、揮発性の半導体メモリから構成され、各種プログラムや必要なデータを一時的に記憶保持するために利用される。後述する学習効果評価部20、学習部21、教師データ生成要否判定部22、教師データ生成部23、前処理候補項目リスト24及び前処理実行要否管理テーブル25もこのメモリ11に格納されて保持される。
記憶装置12は、ハードディスク装置やSSD(Solid State Drive)などの不揮発性記憶装置から構成され、プログラムやデータを長期間保持するために利用される。記憶装置12に格納されたプログラムが機械学習装置5の起動時や必要時にメモリ11にロードされ、メモリ11にロードされたプログラムがCPU10により実行されることにより、後述のような機械学習装置5全体としての各種処理が行われる。
入力装置13は、キーボードやマウスなどから構成され、オペレータが必要な指令や情報を入力するために利用される。また表示装置14は、液晶ディスプレイや有機EL(ElectroLuminescence)ディスプレイなどから構成され、必要な情報やGUI(Graphical User Interface)を表示するために利用される。
クラウドサーバ7は、CPU及びメモリ等の情報処理資源を備える汎用のサーバ装置から構成され、種々のスマート工場において共通して利用可能な画像認識の学習結果でなるモデル(以下、これを基本学習情報と呼ぶ)26を保持している。この基本学習情報26は、既存のスマート工場において実行された深層学習により得られたものである。
(2)本実施の形態による事前機械学習機能
次に、かかる機械学習装置5に実装された事前機械学習機能について説明する。本機械学習装置5における機械学習方式は、クラウドサーバ7が保持する基本学習情報26をネットワーク6を介してダウンロードし、ダウンロードした基本学習情報26を利用してスマート工場2における学習対象の学習を行う(基本学習情報26のチューニング)移転学習と呼ばれるものである。
そして本機械学習装置5は、基本学習情報26をチューニングする際、予め用意された教師データセット(以下、これを初期教師データセットと呼ぶ)に基づく各画像に対して、その画像内に含まれる学習対象にとって学習効果の高い画像加工処理(以下、これらを前処理と呼ぶ)をそれぞれ施すことにより1又は複数の加工画像を生成し、生成したこれら加工画像の画像データを教師データとしてその学習対象の更なる学習を行う事前機械学習機能を有する点を特徴の1つとしている。
実際上、本機械学習システム1では、初期時、オペレータが、学習対象ごとに、予め規定された複数種類の前処理の中からその学習対象を含む画像に対してその前処理を施すことにより得られる加工画像の画像データを教師データとして学習した場合により高い学習効果が得られる1又は複数種類の前処理(以下、これを有効前処理と呼ぶ)を機械学習装置5にそれぞれ設定する。
なお、このような前処理の種類としては、画像内の学習対象及び又はその背景の輝度、彩度又は明度を変化させる画像加工処理や、画像内の学習対象及び又はその背景の左右や上下を反転させる画像加工処理などが挙げられる。
また機械学習装置5に対して学習対象ごとの有効前処理をそれぞれ設定する方法としては、予め他の場所で実行した後述の学習効果評価処理により決定された学習対象ごとの有効前処理に関する情報を機械学習装置5がクラウドサーバ7等からダウンロードして内部設定する方法や、機械学習装置5が、そのスマート工場2においてかかる学習効果評価処理を実行することにより学習対象ごとの有効前処理を決定して内部設定する方法を適用することができる。
またオペレータは、初期時、機械学習装置5を操作することにより、上述の基本学習情報26をクラウドサーバ7から機械学習装置5にダウンロードさせる一方、少なくとも1つの学習対象を含み、その学習対象のラベル付けが行われた必要最低限の数の画像の画像データセットを上述の初期教師データセットD2として予めストレージ装置4内に用意しておく。
そしてオペレータは、この後、かかる初期教師データセットD2を利用して基本学習情報26をチューニングするチューニング処理(以下、これを事前機械学習処理と呼ぶ)を機械学習装置5に開始させる。
機械学習装置5は、かかる事前機械学習処理を開始すると、まず、初期教師データセットD2を利用して各学習対象の1回目のアクティブラーニングを実行する。この際、初期教師データセットD2に基づく各画像内の学習対象に対しては既にラベル付けがなされているため、この1回目のアクティブラーニングにおいて、オペレータは各画像内の学習対象に対するラベル付け等の作業を行う必要はない。
そして機械学習装置5は、1回目のアクティブラーニングが完了すると、2回目のアクティブラーニングを開始し、かかる初期教師データセットD2に基づく各画像に対して、その画像内に存在する学習対象について有効前処理として設定された各前処理をそれぞれ施すことにより、これらの前処理がそれぞれ施された加工画像をそれぞれ生成する。
例えば画像内にある学習対象が含まれており、その学習対象に対する有効前処理として、画像内のその学習対象の輝度、彩度及び明度をそれぞれ変化させる画像加工処理が設定されている場合には、その画像内のその学習対象の輝度を変化させた加工画像と、その画像内のその学習対象の彩度を変化させた加工画像と、その画像内のその学習対象の明度を変化させた加工画像とがそれぞれ生成されることになる。
そして機械学習装置5は、このようにして生成した各加工画像の画像データを新たな教師データ(以下、これを人工教師データと呼ぶ)として2回目のアクティブラーニングを実行することにより学習対象を学習する。
なお、初期教師データセットに基づく各画像内の学習対象に対して既にラベル付けがなされているため、人工教師データに基づく各画像内の学習対象についても既にラベル付けがなされている。よって、かかる2回目のアクティブラーニングにおいても、オペレータは人工教師データに基づく画像内の学習対象に対するラベル付け等の作業を行う必要はない。
そして機械学習装置5は、2回目のアクティブラーニングを完了すると、かかる基本学習情報26のチューニング処理(事前機械学習処理)を終了して、この後、通常の運用を開始する。
以上のような本実施の形態による事前機械学習機能を実現するための手段として、本機械学習装置5のメモリ11には、図1に示すように、プログラムとして学習効果評価部20、学習部21、教師データ生成要否判定部22及び教師データ生成部23が格納され、制御情報として前処理候補項目リスト24及び前処理実行要否管理テーブル25が格納されている。
学習効果評価部20は、各学習対象について、予め規定された複数の前処理が掲載された後述の前処理候補項目リスト24を参照しながら、これら前処理ごとの学習効果をそれぞれ評価する機能を有するプログラムである。学習効果評価部20は、かかる評価結果に基づいて、学習対象ごとにその学習対象を含む画像に対して実行すべき前処理(有効前処理)をそれぞれ決定し、決定結果を後述する前処理実行要否管理テーブル25に設定する。
学習部21は、CNN(Convolution Neural Network)やRNN(Recurrent Neural Network)などのニューラルネットワークを用いた深層学習を実行するプログラムである。学習部21は、基本学習情報26のチューニングの実行時(事前機械学習処理時)、上述の初期教師データセットD2や人工教師データに基づいて各学習対象をそれぞれ学習する。
また学習部21は、通常運用時には、それまでの学習結果に基づいて、ストレージ装置4に蓄積された現場データD1に基づく各画像内に含まれる学習対象を認識する認識処理を実行すると共に、学習対象の確度が低い画像についてはそのラベル付けをオペレータに要求する。そして学習部21は、かかる画像に対してその学習対象のラベル付けが行われると、その画像の画像データを教師データとしてその学習対象を学習する。
教師データ生成要否判定部22は、上述した事前機械学習処理の2回目のアクティブラーニングの実行時に、初期教師データセットD2に基づく各画像について、前処理実行要否管理テーブル25を参照して、その画像に対して何らかの前処理を施すべきか(その画像の加工画像を生成すべきか)否かを判定する機能を有するプログラムである。教師データ生成要否判定部22は、この判定で肯定結果を得た場合には、当該画像の加工画像を生成すべき旨の指示を教師データ生成部23に与える。
また教師データ生成要否判定部22は、通常運用時にオペレータにより学習対象のラベル付けされた画像についても、その画像に対して何らかの前処理を施すべきか否かを前処理実行要否管理テーブル25を参照して判定する。そして教師データ生成要否判定部22は、この判定で肯定結果を得た場合には、当該画像の加工画像を生成すべき旨の指示を教師データ生成部23に与える。
教師データ生成部23は、教師データ生成要否判定部22から加工画像を生成すべき旨の指示が与えられた画像について、その画像の加工画像を生成する機能を有するプログラムである。
実際上、教師データ生成部23は、上述した事前機械学習処理の2回目のアクティブラーニングの実行時や、事前機械学習処理の後に開始される通常運用時、ある画像について教師データ生成要否判定部22から加工画像を生成すべき旨の指示が与えられると、その画像内の学習対象について設定されている有効前処理を前処理実行要否管理テーブル25上で検索し、当該検索により検出した各有効前処理をその画像にそれぞれ個別に施すことにより当該画像の1又は複数の加工画像を生成する。そして教師データ生成部23は、このようにして生成した各加工画像の画像データをそれぞれ上述の人工教師データとして学習部21に送信する。
一方、前処理候補項目リスト24は、学習効果評価部20が、各学習対象に対する前処理ごとの学習効果をそれぞれ評価する際に利用するリストであり、学習対象ごとに作成される。この前処理候補項目リスト24は、図2に示すように、項番欄24A、前処理項目欄24B、対象部位欄24C及び前処理要否欄24Dを備えて構成される。本前処理項目候補リスト24では、1つの行が1つの前処理の項目に対応する。
そして項番欄24Aには、対応する前処理に対して付与された項番が格納される。また前処理項目欄24Bは、前処理大項目欄24BA及び前処理小項目欄24BBから構成される。そして前処理大項目欄24BAには、前処理をその内容に応じて幾つかの大項目に分けた場合のこれら大項目の名称が格納され、前処理小項目欄24BBには、対応する大項目に属する前処理の小項目の名称が格納される。
なおかかる前処理の大項目としては、画像内の学習対象及び背景などといった加工対象となる部位(以下、これを対象部位と呼ぶ)に対する前処理のパラメータのパラメータ値を調整可能な「関数制御」や、画像内の対象部位の向きを変える「角度変換」などがある。またかかる前処理の内容の小項目としては、例えば大項目が「関数制御」である場合には、画像内の対象部位の輝度のパラメータ値を変化させる「輝度」、当該対象部位の彩度のパラメータ値を変化させる「彩度」、当該対象部位の明度のパラメータ値を変化させる「明度」などがあり、大項目が「角度変換」である場合には、画像内の対象部位の左右方向の向きを反転させる「反転」などがある。本実施の形態における「前処理」は、この前処理の小項目を指す。
さらに対象部位欄24Cは、画像内の対象部位にそれぞれ対応させた複数の部位欄24CAから構成される。ここで「画像内の対象部位」としては、画像内の学習対象を表す「本体」や、その学習対象の背景を表す「背景」などがある。そして、各部位欄24CA内には、それぞれ対応する学習対象を含む画像内の対応する対象部位に対応して前処理を施した場合の学習効果評価値が格納される。
なお本実施の形態の場合、かかる学習効果評価値は、対応する学習対象を含む第1の画像内の対応する対象部位に対して対応する前処理を施すことにより得られた加工画像の画像データを教師データとして学習部21が学習した後に、その学習対象を含む他の第2の画像内の当該学習対象を認識する認識処理を学習部21が行ったときのその学習対象の確度(認識率)と、元の第1の画像内のその学習対象を認識する認識処理を学習部21が行ったときのその学習対象の確度との差分として算出される。
また前処理大項目が「関数制御」である前処理の画像内部位欄24CAには、それぞれ対応するパラメータ(例えば、前処理小項目が「輝度」である場合には輝度パラメータ、前処理項目が「彩度」である場合には彩度パラメータ)を1からそのパラメータの最大値まで1ずつ大きくした場合の各学習効果評価値がそれぞれ順番に並べて格納される。
さらに前処理要否欄24Dには、対応する各部位欄24CAにそれぞれ格納された学習効果評価値に基づいて学習効果評価部20(図1)により判定された、対応する学習対象に対して対応する項目の前処理を施す必要があるか否かの判定結果が格納される。
具体的に、同じ行の各画像内部位欄24CAにそれぞれ格納されたすべての学習効果評価値がその学習効果評価値について設定された学習効果評価基準値未満であった場合には、かかる判定結果として「否」が前処理要否欄24Dに格納され、これら学習効果評価値の少なくとも1つがその学習効果評価基準値以上であった場合には、かかる判定結果として「要」が前処理要否欄24Dに格納される。
他方、前処理実行要否管理テーブル25は、学習対象ごとに作成され、対応する学習対象について設定されたその学習対象を含む画像に対して実行すべき前処理を管理するために利用されるテーブルである。この前処理実行要否管理テーブル25は、図3に示すように、前処理項目欄25A、前処理要否欄25B及び対象部位欄25Cを備えて構成される。本前処理実行要否管理テーブル25では、1つの行が1つの前処理の項目に対応する。
前処理項目欄25Aは、前処理大項目欄25AA及び前処理小項目欄25ABから構成される。そしてこれら前処理大項目欄25AA及び前処理小項目欄25ABには、前処理候補項目リスト24の対応する前処理大項目欄24BA又は前処理小項目欄24BBに格納される情報と同じ情報がそれぞれ格納される。
また前処理要否欄25Bには、対応する学習対象を含む画像に対して対応する前処理を実行すべきか否かを表す情報が格納される。具体的には、対応する前処理を実行すべき場合には前処理要否欄25Bに「要」が格納され、対応する前処理を実行する必要がない場合には前処理要否欄に「否」が格納される。従って、前処理要否欄25Bに「要」が格納された前処理が上述の有効前処理に該当する。
さらに対象部位欄25Cは、前処理候補項目リスト24の対象部位欄24Cと同様に、画像内の加工対象となり得る各部位(対象部位)にそれぞれ対応させた複数の部位欄25CAから構成されている。
そして、これら部位欄25CA内には、それぞれ対象とする画像内の対応する対象部位に対して対応する前処理を施すべきか否かを表す情報が格納される。例えば、図3の場合、かかる前処理を施す場合には「○」、施さない場合には「×」が格納されている。
従って、図3の例の場合、学習対象が信号灯の「光源装置」である場合には、少なくとも本体(学習対象)及びその背景の輝度のパラメータ値を変化させる前処理を施した加工画像と(小項目が「輝度」の行の前処理要否が「要」で本体及び背景が「○」)、少なくとも本体の彩度のパラメータ値を変化させる前処理を施した加工画像と(小項目が「彩度」の行の前処理要否が「要」で本体が「○」、背景が「×」)を作成すべきことが規定されていることが示されている。
また図3では、これらと併せて、さらに本体(学習対象)の向きを左右反転させる前処理を施した加工画像(小項目が「反転」の行の前処理要否が「要」で本体が「○」、背景が「×」)を作成すべきことも規定されていることが示されている。
図4は、以上のような本実施の形態の機械学習機能に関連して上述の学習効果評価部20、学習部21、教師データ生成要否判定部22及び教師データ生成部23によりそれぞれ実行される一連の処理の流れを示す。
まず、前処理実行要否管理テーブル25が予め機械学習装置5に用意されていない場合の処理の流れについて説明する。この場合には、学習効果評価部20が、学習対象ごとに、その学習対象を含む画像に対して施すべき前処理(有効前処理)をそれぞれ決定し、決定結果を前処理実行要否管理テーブル25に設定する。
実際上、この場合に学習効果評価部20は、まず、学習部21に対して前処理実行要否管理テーブル25を作成するためのアクティブラーニングの開始を指示する。
学習部21は、この指示を受信すると、ストレージ装置4に保持された現場データD1のうち、前処理実行要否管理テーブル25の作成用として予めオペレータにより指定された学習対象ごとの現場データD1のうちの1つの学習対象の現場データD1を取得し(S1)、取得した現場データD1に基づく画像ごとに、その画像内の学習対象を認識する認識処理を実行する。また学習部21は、その学習対象の確度が低い画像については、その画像及び必要な情報を表示装置14(図1)に表示するようにして、その画像内のその学習対象に対するラベル付けをオペレータ30に要求する(S2)。
そして、学習部21は、かかる画像内のかかる学習対象に対するラベル付けがオペレータ30により行われると、その画像の画像データ(そのときオペレータ30により付与されたラベルの情報を含む)と、その学習対象に対する学習部21のそのときの確度とを教師データ生成要否判定部22を介して学習効果評価部20に転送する(S3)。
学習効果評価部20は、かかる画像の画像データ等を受領すると、前処理候補項目リスト24に掲載された前処理の中から1つの前処理と、その前処理を施す画像内の1つの部位(対象部位)とをそれぞれ選択し、その前処理をその画像内のその部位に実行するよう教師データ生成部23に指示を与えると共に、その画像の画像データを教師データ生成部23に転送する(S4)。
かくして教師データ生成部23は、かかる指示に従って、学習効果評価部20から転送されてきた画像データに対して指定された部位(対象部位)に指定された前処理を施し、かくして得られた加工画像の画像データを教師データとして学習部21に送信する(S5)。
学習部21は、教師データ生成部23から転送されてきた教師データに基づいて対応する学習対象を学習する。また学習部21は、かかる前処理を施す前の同じ現場データD1を再度ストレージ装置4から読み出し、その現場データD1に基づく各画像内にそれぞれ含まれるその学習対象を認識する認識処理を再度実行し、このときのその学習対象の確度を学習効果評価部20に通知する(S6)。
学習効果評価部20は、かかる確度が学習部21から通知されると、その画像についての教師データを教師データ生成部23が生成する前に学習部21において実行された認識処理により得られたその学習対象の確度と、その画像についての教師データに基づいてその学習対象を学習した後に学習部21において実行された認識処理により得られたその学習対象の確度とを比較し、これら確度の差分を上述の学習効果評価値として、前処理候補項目リスト24の対応する部位欄24CA(図3)に格納する(S7)。
この後、学習効果評価部20、教師データ生成部23及び学習部21は、以上の処理を同じ画像について、前処理候補項目リスト24に掲載された対象部位ごとにそれぞれ実行する。この際、学習効果評価部20は、大項目が「関数制御」の前処理(小項目名が「輝度」、「彩度」及び「明度」などの前処理)については、対応するパラメータのパラメータ値を1つずつ変化させながら上述の処理をそれぞれの対象部位についてそれぞれ実行するよう学習部21及び教師データ生成部23に指示を与える。
そして学習効果評価部20は、以上のようにして1つの前処理について対象部位ごとの学習効果評価値を前処理候補項目リスト24の対応する部位欄24CAにそれぞれ格納し終えると、これら対象部位ごとの学習効果評価値に基づいて、その学習対象を含む画像に対してその前処理を施すことにより得られた加工画像の画像データを教師データとすることが有効であるか否かを判定し、判定結果を前処理候補項目リスト24の前処理要否欄24D(図2)に格納する(S7)。
具体的に、学習効果評価部20は、各対象部位のうち、少なくとも1つの対象部位の学習効果評価値がその対象部位について予め設定された上述の学習効果評価基準値以上であった場合には、その学習対象を含む画像に対してその前処理を実行すべきこと意味する「要」を前処理候補項目リスト24の対応する前処理要否欄24D(図3)に格納する。
また学習効果評価部20は、すべての対象部位の学習効果評価値がその対象部位について予め設定された上述の学習効果評価基準値未満であった場合には、その学習対象を含む画像に対してその前処理を実行する必要がないことを意味する「否」を前処理候補項目リスト24の対応する前処理要否欄24Dに格納する。
そして学習効果評価部20は、以上の処理をすべての前処理についてそれぞれ実行することにより、そのとき対象としている学習対象に対する各前処理の要否を順次判定し、判定結果を前処理候補項目リスト24の対応する前処理要否欄24Dに順次格納する(S7)。
さらに学習効果評価部20は、以上の処理をすべての学習対象について同様に実行することにより、これら各学習対象に対する前処理ごとの要否が登録された学習対象ごとの前処理候補項目リスト24をそれぞれ作成する(S7)。
そして学習効果評価部20は、この後、このようにして作成した学習対象ごとの前処理候補項目リスト24に基づいて、これら学習対象ごとの前処理実行要否管理テーブル25をそれぞれ作成する(S8)。
具体的に、学習効果評価部20は、まず、1つの学習対象を選択する。そして学習効果評価部20は、選択した学習対象(以下、これを選択学習対象と呼ぶ)の前処理候補項目リスト24に掲載されている前処理の中から1つの前処理を選択し、選択した前処理(以下、これを選択前処理と呼ぶ)に対応する行の前処理要否欄24D(図2)に格納されている情報(「要」又は「否」)を、その選択学習対象に対応する前処理実行要否管理テーブル25のその選択前処理に対応する行の前処理要否欄25B(図3)に格納する。
また学習効果評価部20は、かかる前処理候補項目リスト24における選択前処理に対応する行の各部位欄24CA(図2)にそれぞれ格納されている情報(「○」又は「×」)を、その選択学習対象に対応する前処理実行要否管理テーブル25のその選択前処理に対応する行の対応する部位欄25CA(図3)にそれぞれ格納する。
学習効果評価部20は、以上の処理を、その選択学習対象に関して、すべての前処理について順次実行する。また学習効果評価部20は、この後、以上の処理をすべての学習対象について実行する。このようにして学習効果評価部20は、学習対象ごとの前処理実行要否管理テーブル25を作成する。
そして学習効果評価部20は、以上のようにして各学習対象に対する前処理実行要否管理テーブル25をそれぞれ作成し終えると、基本学習情報26をチューニングする事前学習処理の開始を学習部21に指示する。
学習部21は、かかる指示が与えられると、まず、初期教師データセットD2をストレージ装置4から読み出し、読み出した初期教師データセットD2と、基本学習情報26とを用いて1回目のアクティブラーニングを実行することにより、各学習対象を学習する(S9)。
続いて、学習部21は、2回目のアクティブラーニングを開始し、初期教師データセットD2をストレージ装置4から読み出し(S10)、読み出した初期教師データセットD2に基づく各画像の画像データを教師データ生成要否判定部22に順次送信する(S11)。
教師データ生成要否判定部22は、学習部21から画像データが与えられるごとに、その画像データに基づく画像に含まれる学習対象に対応する前処理実行要否管理テーブル25を参照して、その画像に対して実行すべきすべての前処理(前処理要否欄に「要」が格納された前処理)及びその前処理の対象部位(対象部位欄に「○」が格納された対象部位)を教師データ生成部23に通知すると共に、その画像の画像データを教師データ生成部23に送信する(S12)。
かくして教師データ生成部23は、教師データ生成要否判定部22から与えられた画像データに基づく画像に対して、教師データ生成要否判定部22から指定された各前処理を指定された対象部位にそれぞれ施した加工画像をそれぞれ生成し、生成したこれら加工画像の画像データを人工教師データとして学習部21に送信する(S13)。
そして学習部21は、かかる人工教師データが与えられると、この人工教師データを用いて各学習対象を学習する。また学習部21は、人工教師データを用いた学習対象の学習が完了すると、この後、動作モードを通常運用モードに切り替えて、通常の運用時の動作を開始する。
(3)事前機械学習機能に関連する具体的な処理内容
次に、上述した本実施の形態の事前機械学習機能に関連して機械学習装置5において実行される各種処理の処理内容について説明する。なお以下においては、各種処理の処理主体を学習部21等の「プログラム」として説明するが、実際上は、その「プログラム」に基づいてCPU10(図1)がその処理を実行することは言うまでもない。
(3−1)事前機械学習処理
図5は、本実施の形態の機械学習装置5において実行される事前機械学習処理の一連の流れを示す。この機械学習処理は、オペレータが、クラウドサーバ7から上述の基本学習情報26(図1)を機械学習装置5にダウンロードさせ、さらに基本学習情報26のチューニングに使用する上述の初期教師データセットD2(図1)のストレージ装置4における格納場所を機械学習装置5に設定した後、入力装置13(図1)を介して事前機械学習処理の実行を機械学習装置5に指示することにより開始される。
機械学習装置5にかかる指示が与えられると、まず、学習効果評価部20が、学習対象ごとの前処理実行要否管理テーブル25に必要な情報が格納されているか否かを判断する(S20)。そして学習効果評価部20は、この判断で否定結果を得ると、各学習対象の前処理ごとの学習効果をそれぞれ評価して前処理実行要否管理テーブル25を作成する学習効果評価処理を実行する(S21)。
続いて、学習効果評価部20が学習部21、教師データ生成要否判定部22及び教師データ生成部23等を制御することにより、基本学習情報26をチューニングするための1回目のアクティブラーニングを実行させる(S22)。このアクティブラーニングにより、初期教師データセットD2及び基本学習情報26を用いて各学習対象の学習が行われる。
そして、かかる1回目のアクティブラーニングが完了すると、この後、学習効果評価部20が、少なくとも1つの前処理実行要否管理テーブル25の少なくとも1つの前処理要否欄に「要」が格納されているか否かを判断する(S23)。
この判断で否定結果を得ることは、すべての学習対象について有効前処理が存在しない(つまり、いずれの学習対象にも学習効果の高い前処理が存在しない)ことを意味する。かくして、このとき学習効果評価部20は、この事前機械学習処理を終了し、この後、通常運用を開始するよう学習部21等に指示を与える。
これに対して、ステップS23の判断で肯定結果を得ることは、少なくとも1つの学習対象について有効前処理が存在する(つまり、いずれかの学習対象に学習効果の高い前処理が存在する)ことを意味する。かくして、このとき学習効果評価部20は、学習部21及び教師データ生成要否判定部22等を制御することにより、事前機械学習処理の2回目のアクティブラーニングを実行させる(S24)。
そして、学習効果評価部20は、この2回目のアクティブラーニングが完了すると、基本学習情報26のチューニング処理(事前機械学習処理)を終了し、この後、通常運用を開始するよう学習部21等に指示を与える。
(3−2)学習効果評価処理
一方、図6は、図5について上述した事前機械学習処理のステップS21において、学習効果評価部20により実行される学習効果評価処理の処理手順を示す。
学習効果評価部20は、事前機械学習処理のステップS21に進むと、この図6に示す学習効果評価処理を開始し、まず、学習対象の中からステップS31以降が未処理の1つの学習対象を選択する(S30)。
続いて、学習効果評価部20は、前処理候補項目リスト24(図2)を参照して、当該前処理候補項目リスト24に登録されている前処理の中からステップS32以降の処理が未処理の前処理を1つ選択する(S31)。
さらに学習効果評価部20は、ステップS30で選択した前処理(以下、これを選択前処理と呼ぶ)についてステップS33以降の処理が未処理の対象部位を1つ選択し(S32)、この後、選択前処理の大項目が「関数制御」であるか否かを判断する(S33)。
学習効果評価部20は、この判断で否定結果を得ると、ステップS20で選択した学習対象(以下、これを選択学習対象と呼ぶ)を含む画像について、選択前処理をステップS32で選択した対象部位(以下、これを選択対象部位と呼ぶ)に施した場合の学習効果評価値を図4について上述した手順により取得し、取得した学習効果評価値をその選択学習対象に対応する前処理候補項目リスト24(図2)の対応する部位欄24CAに登録する(S34)。そして学習効果評価部20は、この後、ステップS39に進む。
これに対して、学習効果評価部20は、ステップS33の判断で肯定結果を得ると、選択前処理に対応するパラメータ(「輝度」、「彩度」又は「明度」等)のパラメータ値nを初期値(例えば「0」)に設定する(S35)。
そして学習効果評価部20は、この後、選択学習対象を含む画像について、選択前処理を対応するパラメータのパラメータ値を「n」として選択対象部位に施した場合の学習効果評価値を図4について上述した手順により取得する。また学習効果評価部20は、このようにして取得した学習効果評価値をその選択学習対象に対応する前処理候補項目リスト24(図2)の対応する部位欄24CAに登録する(S36)。
次いで、学習効果評価部20は、対応するパラメータのパラメータ値がそのパラメータの最大値kとなったか否かを判断する(S37)。例えば、「輝度」のパラメータのパラメータ値の設定可能範囲が0〜100である場合に、当該パラメータの最大値kは「100」ということになる。
そして学習効果評価部20は、この判断で否定結果を得ると、パラメータ値nの値を1だけ増加させた後(S38)、ステップS36に戻る。そして学習効果評価部20は、この後、ステップS37で肯定結果を得るまでステップS36〜ステップS38の処理を繰り返す。
この繰返し処理により、選択学習対象を含む画像について、選択前処理を選択対象部位に施す際、対応するパラメータのパラメータ値を1から最大値kまで順番に変化させ場合における各パラメータ値での学習効果評価値を順次得ることができる。そして、これらの学習効果評価値は、対応する前処理候補項目リスト24の対応する部位欄24CAに順番に並べて登録される。
そして学習効果評価部20は、やがて選択前処理に関連するパラメータのパラメータ値を1から最大値kまで順番に変化させた場合における各パラメータ値での学習効果評価値を取得し終えることによりステップS37で肯定結果を得ると、前処理候補項目リスト24に登録されているすべての対象部位についてステップS33〜ステップS38の処理を実行し終えたか否かを判断する(S39)。
学習効果評価部20は、このステップS39で否定結果を得ると、ステップS32に戻り、この後、ステップS32で選択する対象部位を未処理の他の対象部位に順次切り替えながら、ステップS32〜ステップS39の処理を繰り返す。
そして学習効果評価部20は、やがて前処理候補項目リスト24に登録されているすべての対象部位についてステップS32〜ステップS38の処理を実行し終えることによりステップS39で肯定結果を得ると、そのときの選択前処理について、そのときの選択学習対象を含む画像に対してその選択前処理を施した画像の画像データを教師データとした場合の学習効果が大きいか否かを判断する(S40)。
具体的に、学習効果評価部20は、大項目が「制御関数」以外の前処理については、対象部位ごとにその対象部位の学習効果評価値を学習効果評価基準値とそれぞれ比較し、いずれかの対象部位の学習効果評価値が学習効果評価基準値以上であった場合には、選択学習対象を含む画像に対して選択前処理を施した画像の画像データを教師データとした場合の学習効果が大きいと判断する。これに対して、学習効果評価部20は、いずれの対象部位の学習効果評価値も学習効果評価基準値未満であった場合には、選択学習対象を含む画像に対して選択前処理を施した画像の画像データを教師データとした場合の学習効果が小さいと判断する。
また学習効果評価部20は、大項目が「制御関数」の前処理については、対象部位ごとに、対応するパラメータのパラメータ値nを1から最大値kまで変化させたときの各学習効果評価値の平均値をその対象前処理の学習効果評価値として算出し、これを上述の学習効果評価基準値と比較する。そして学習効果評価部20は、いずれかの対象部位の学習効果評価値が学習効果評価基準値以上であった場合には、選択学習対象を含む画像に対して選択前処理を施した画像の画像データを教師データとした場合の学習効果が大きいと判断する。これに対して、学習効果評価部20は、いずれの対象部位の学習効果評価値も学習効果評価基準値未満であった場合には、選択学習対象を含む画像に対して対象前処理を施した画像の画像データを教師データとした場合の学習効果が小さいと判断する。
そして学習効果評価部20は、ステップS40の判断で肯定結果を得た場合には、前処理候補項目リスト24における選択前処理の行の前処理要否欄24D(図2)に、選択学習対象に対して選択前処理が必要であることを意味する「要」を格納する(S41)。
これに対して学習効果評価部20は、ステップS40の判断で否定結果を得た場合には、前処理候補項目リスト24における対象前処理の行の前処理要否欄24Dに、選択学習対象に対して選択前処理が不要であることを意味する「否」を格納する(S42)。
この後、学習効果評価部20は、選択学習対象について、前処理候補項目リスト24に掲載されたすべての前処理を選択前処理としてステップS32〜ステップS42の処理を実行し終えたか否かを判断する(S43)。
学習効果評価部20は、この判断で否定結果を得るとステップS31に戻り、この後、ステップS31で選択する前処理を未処理の他の前処理に順次切り替えながらステップS31〜ステップS43の処理を繰り返す。
そして学習効果評価部20は、やがて選択学習対象について、前処理候補項目リスト24に掲載されたすべての前処理を選択前処理としてステップS32〜ステップS42の処理を実行し終えることによりステップS43で肯定結果を得ると、すべての学習対象についてステップS31〜ステップS43の処理を実行し終えたか否かを判断する(S44)。
学習効果評価部20は、この判断で否定結果を得るとステップS30に戻り、この後、ステップS30で選択する学習対象を未処理の他の学習対象に順次切り替えながらステップS30〜ステップS44の処理を繰り返す。
そして学習効果評価部20は、やがてすべての学習対象についてステップS31〜ステップS43の処理を実行し終えることによりステップS43で肯定結果を得ると、以上のようにした作成した学習対象ごとの前処理候補項目リスト24に基づいて上述のようにして学習対象ごとの前処理実行要否管理テーブル25をそれぞれ作成し(S45)、この後、この学習効果評価処理を終了する。
(4)本実施の形態の効果
以上のように本実施の形態の機械学習装置5は、クラウドサーバ7から基本学習情報26をダウンロードし、ダウンロードした基本学習情報26をチューニングするようにして学習対象を学習する。この際、機械学習装置5は、学習対象ごとに、当該学習対象を含む画像に対して学習効果の高い前処理を施すことにより当該画像の加工画像を生成し、生成した各加工画像の画像データを教師データとして学習対象をさらに学習する。
従って、本機械学習装置5によれば、必要最低限の数の教師データセットにより学習効果が高い加工画像を作成し、作成したこれらの加工画像の画像データを教師データとして学習対象を学習することができる。この結果、本機械学習装置5によれば、基本学習情報26を用いたことによる学習時間の短縮化に加えて、教師データセット以外の教師データを作成するための人員の動員も、そのための時間も必要なく、各段的に短い時間で学習を行うことができ、かくして短時間で効率良く機械学習を行い得る機械学習装置及び方法を実現できる。
(5)他の実施の形態
なお上述の実施の形態においては、本発明をスマート工場2において学習対象の学習を行う機械学習装置5に適用するようにした場合について述べたが、本発明はこれに限らず、スマート工場2以外の場所で使用される機械学習装置にも本発明を広く適用することができる。
また上述の実施の形態においては、図6について上述した学習効果評価処理のステップS40において、大項目が「制御関数」である前処理については、対応するパラメータのパラメータ値を1〜最大値kまで順次切り替えることにより得られた各学習効果評価値の平均値を学習効果評価値としてその前処理の学習効果を評価するようにした場合について述べたが、本発明はこれに限らず、例えば図7に示すように、パラメータ値が1〜最大値kの範囲を複数の範囲(例えば図7のように「下位」、「中盤」及び「上位」)に区分し、範囲ごとにその平均値を学習効果評価値として算出して、算出したこれら学習効果評価値に基づいてその前処理の学習効果を評価するようにしてもよい。
例えば図7の例では、パラメータ値が「上位」の場合には学習効果が認められるため、その範囲内のパラメータ値(例えば、その範囲の中央値)でその前処理を実行することを前提としてその前処理が有効前処理と判断するようにしてもよい。なお、この場合には、かかるパラメータ値で対応する前処理を実行するよう前処理実行要否管理テーブル25に必要な情報を設定できるようにし、そのパラメータ値でその前処理を実行するよう教師データ生成部23を構築するようにすればよい。
さらに上述の実施の形態においては、一度設定した学習対象ごとの前処理実行要否管理テーブル25をそのまま使い続けるようにした場合について述べたが、本発明はこれに限らず、例えば、学習効果評価部20が図6について上述した学習効果評価処理を定期的又は不定期に実行することにより前処理実行要否管理テーブル25を適宜更新するようにしてもよい。
本発明は、アクティブラーニングにより学習対象を学習する機械学習装置に適用することができる。
1……機械学習システム、2……スマート工場、3……カメラ、4……ストレージ装置、5……機械学習装置、7……クラウドサーバ、10……CPU、11……メモリ、14……表示装置、20……学習効果評価部、21……学習部、22……教師データ生成要否判定部、23……教師データ生成部、24……前処理候補項目リスト、25……前処理実行要否管理テーブル、30……オペレータ、D1……現場データ、D2……初期教師データセット。

Claims (4)

  1. 外部から基本的な学習結果でなる基本学習情報を取得し、取得した前記基本学習情報をチューニングするようにして学習対象を学習する機械学習装置において、
    予め用意された教師データセットに基づく各画像に対する画像加工処理の要否をそれぞれ判定する要否判定部と、
    前記要否判定部により前記画像加工処理を施すべきと判定された各前記画像に対して必要な前記画像加工処理をそれぞれ施すことにより加工画像を生成する画像加工処理部と、
    前記教師データセットを用いた1回目のアクティブラーニングと、前記画像加工処理部により生成された各前記加工画像の画像データを教師データとする2回目のアクティブラーニングとを実行することにより前記基本学習情報をチューニングする学習部と
    有し
    前記学習対象ごとに、当該学習対象に対して学習効果が高い前記画像加工処理が予め設定され、
    前記要否判定部は、
    前記教師データセットに基づく前記画像に含まれる前記学習対象に対して前記画像加工処理が設定されている場合には、当該画像に対して当該画像加工処理を施すべきと判定し、
    前記画像加工処理部は、
    前記要否判定部により前記画像加工処理を施すべきと判定された前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理をそれぞれ施すことにより1又は複数の当該画像の前記加工画像を生成し、
    前記学習対象ごとに、当該学習対象を含む前記画像に対して前記画像加工処理を施すことにより得られた前記加工画像の画像データを教師データとして前記学習部が当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理を選択して設定する学習効果評価部をさらに備え、
    前記学習効果評価部は、
    前記学習対象ごとに、当該学習対象を含む前記画像内の予め規定された複数の部位に対してそれぞれ別個に前記画像加工処理を施すことにより得られた各前記加工画像の画像データをそれぞれ教師データとして前記学習部が当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理及び当該画像加工処理を施すべき当該画像内の前記部位を設定し、
    前記画像加工処理部は、
    前記要否判定部により前記画像加工処理を施すべきと判定された前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理を、それぞれ当該学習対象の当該画像加工処理について設定された前記部位に対して施すことにより当該画像の前記加工画像をそれぞれ生成する
    ことを特徴とする機械学習装置。
  2. 前記学習効果評価部は、
    前記学習対象ごとに、当該学習対象を含む前記画像内の予め規定された複数の部位に対してそれぞれ別個に前記画像加工処理を施すことにより得られた各前記加工画像の画像データをそれぞれ教師データとして前記学習部が当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理及び当該画像加工処理を施すべき当該画像内の前記部位を設定する処理を定期的に実行する
    ことを特徴とする請求項に記載の機械学習装置。
  3. 外部から基本的な学習結果でなる基本学習情報を取得し、取得した前記基本学習情報をチューニングするようにして学習対象を学習する機械学習装置により実行される機械学習方法において、
    予め用意された教師データセットを用いた1回目のアクティブラーニングを実行することにより前記基本学習情報をチューニングする第1のステップと、
    前記教師データセットに基づく各画像に対する画像加工処理の要否をそれぞれ判定する第2のステップと、
    前記画像加工処理を施すべきと判定した各前記画像に対して必要な前記画像加工処理をそれぞれ施すことにより加工画像を生成する第3のステップと、
    生成した各前記加工画像の画像データを教師データとする2回目のアクティブラーニングを実行することにより前記基本学習情報をチューニングする第4のステップと
    有し
    前記学習対象ごとに、当該学習対象に対して学習効果が高い前記画像加工処理が予め設定され、
    前記第2のステップにおいて、前記機械学習装置は、
    前記教師データセットに基づく前記画像に含まれる前記学習対象に対して前記画像加工処理が設定されている場合には、当該画像に対して当該画像加工処理を施すべきと判定し、
    前記第3のステップにおいて、前記機械学習装置は、
    前記画像加工処理を施すべきと判定した前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理をそれぞれ施すことにより1又は複数の当該画像の前記加工画像を生成し、
    前記第2のステップの前に実行され、
    前記学習対象ごとに、当該学習対象を含む前記画像に対して前記画像加工処理を施すことにより得られた前記加工画像の画像データを教師データとして当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理を選択して設定する学習効果評価ステップを備え、
    前記学習効果評価ステップでは、
    前記学習対象ごとに、当該学習対象を含む前記画像内の予め規定された複数の部位に対してそれぞれ別個に前記画像加工処理を施すことにより得られた各前記加工画像の画像データをそれぞれ教師データとして当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理及び当該画像加工処理を施すべき当該画像内の前記部位を設定し、
    前記第3のステップでは、
    前記要否判定部により前記画像加工処理を施すべきと判定された前記画像に対して、当該画像に含まれる前記学習対象について設定された各前記画像加工処理を、それぞれ当該学習対象の当該画像加工処理について設定された前記部位に対して施すことにより当該画像の前記加工画像をそれぞれ生成する
    ことを特徴とする機械学習方法。
  4. 前記学習効果評価ステップでは、
    前記学習対象ごとに、当該学習対象を含む前記画像内の予め規定された複数の部位に対してそれぞれ別個に前記画像加工処理を施すことにより得られた各前記加工画像の画像データをそれぞれ教師データとして当該学習対象を学習した場合の学習効果を予め規定された複数種類の前記画像加工処理ごとにそれぞれ評価し、評価結果に基づいて当該学習対象を含む前記画像に対して施すべき前記画像加工処理及び当該画像加工処理を施すべき当該画像内の前記部位を設定する処理を定期的に実行する
    ことを特徴とする請求項に記載の機械学習方法。
JP2017154837A 2017-08-09 2017-08-09 機械学習装置及び方法 Active JP6861124B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017154837A JP6861124B2 (ja) 2017-08-09 2017-08-09 機械学習装置及び方法
US15/936,942 US20190050684A1 (en) 2017-08-09 2018-03-27 Machine learning device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017154837A JP6861124B2 (ja) 2017-08-09 2017-08-09 機械学習装置及び方法

Publications (2)

Publication Number Publication Date
JP2019032782A JP2019032782A (ja) 2019-02-28
JP6861124B2 true JP6861124B2 (ja) 2021-04-21

Family

ID=65275114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017154837A Active JP6861124B2 (ja) 2017-08-09 2017-08-09 機械学習装置及び方法

Country Status (2)

Country Link
US (1) US20190050684A1 (ja)
JP (1) JP6861124B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220044147A1 (en) * 2018-10-05 2022-02-10 Nec Corporation Teaching data extending device, teaching data extending method, and program
JP7179672B2 (ja) * 2019-04-24 2022-11-29 株式会社日立製作所 計算機システム及び機械学習方法
JP7515322B2 (ja) 2020-07-08 2024-07-12 三菱電機株式会社 設定管理装置、設定管理方法、及び、設定管理プログラム
KR102484916B1 (ko) 2022-08-23 2023-01-06 (주)위세아이텍 사용자 설정 기반 플랜트 예지정비 장치 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130339278A1 (en) * 2011-02-28 2013-12-19 Nec Corporation Data discrimination device, method, and program
US9361695B2 (en) * 2012-12-11 2016-06-07 Honda Motor Co., Ltd. Method of recognizing a position of a workpiece from a photographed image
US9934563B2 (en) * 2015-10-29 2018-04-03 Empire Technology Development Llc 3D object rotation-based mechanical parts selection through 2D image processing

Also Published As

Publication number Publication date
JP2019032782A (ja) 2019-02-28
US20190050684A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
JP6861124B2 (ja) 機械学習装置及び方法
US11573991B2 (en) Deep reinforcement learning-based multi-step question answering systems
US20210241177A1 (en) Method and system for performing machine learning process
US20170357945A1 (en) Automated matching of job candidates and job listings for recruitment
Rajendran et al. Attend, adapt and transfer: Attentive deep architecture for adaptive transfer from multiple sources in the same domain
CN110520871A (zh) 训练机器学习模型
US20190108640A1 (en) Image crop suggestion and evaluation using deep-learning
US20160253578A1 (en) Learning user preferences for photo adjustments
CN111695695B (zh) 用户决策行为量化分析方法及装置
CN110413786B (zh) 基于网页文本分类的数据处理方法、智能终端及存储介质
WO2020171944A1 (en) Method and apparatus for displaying page to user through reinforcement learning
CN110447041A (zh) 噪声神经网络层
KR20190044683A (ko) 로봇 에이전트용 제어 정책
EP3915052A1 (en) Action selection using interaction history graphs
KR20210033235A (ko) 데이터 증강 방법 및 장치, 그리고 컴퓨터 프로그램
CN114186084A (zh) 在线多模态哈希检索方法、系统、存储介质及设备
CN114600196A (zh) 特定领域的人类模型协同注释工具
JP2022032703A (ja) 情報処理システム
KR20230068989A (ko) 멀티-태스크 모델의 학습을 수행하는 방법 및 전자 장치
CN112905809B (zh) 知识图谱学习方法和系统
CN110288444A (zh) 实现用户相关推荐的方法和系统
CN112100530A (zh) 网页分类方法、装置、电子设备及存储介质
CN111222663B (zh) 数据处理方法及其系统、计算机系统及计算机可读介质
US20220277195A1 (en) Automated data augmentation in deep learning
JP7156463B2 (ja) 電子機器、電子機器システム、座標系設定方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210329

R150 Certificate of patent or registration of utility model

Ref document number: 6861124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150