JP2019046380A - 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム - Google Patents

学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム Download PDF

Info

Publication number
JP2019046380A
JP2019046380A JP2017171486A JP2017171486A JP2019046380A JP 2019046380 A JP2019046380 A JP 2019046380A JP 2017171486 A JP2017171486 A JP 2017171486A JP 2017171486 A JP2017171486 A JP 2017171486A JP 2019046380 A JP2019046380 A JP 2019046380A
Authority
JP
Japan
Prior art keywords
class
learning
candidate
identification
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017171486A
Other languages
English (en)
Other versions
JP6883787B2 (ja
Inventor
川口 京子
Kyoko Kawaguchi
京子 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017171486A priority Critical patent/JP6883787B2/ja
Priority to US16/116,954 priority patent/US11514307B2/en
Publication of JP2019046380A publication Critical patent/JP2019046380A/ja
Application granted granted Critical
Publication of JP6883787B2 publication Critical patent/JP6883787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】本開示は、識別器のより一層の小型化を可能とする学習装置を提供すること。
【解決手段】正解クラスに対応する候補クラスのクラス該当度が他の候補クラスのクラス該当度と比較して最大となるように、第1の識別器Dm1に対して学習処理を施す第1の学習部10と、前記学習処理済みの第1の識別器Dm1を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器Dm1が出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する学習データ生成部20と、前記第2の学習データを用いて前記第2の識別器Dm2に対して学習処理を施す第2の学習部30と、を備える。
【選択図】図2

Description

本開示は、学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラムに関する。
従来、識別対象(例えば、画像中の物体の種別や状態)が属するクラスの識別を行う識別器(例えば、ニューラルネットワーク、SVM等)が知られている。尚、この種の識別器は、機械学習により、識別機能が付与される。
近年、学習時間の短縮を図るべく、種々の機械学習の手法が検討されており、「ダークナレッジ(Dark knowledge)」と称される手法(Distilling:「蒸留」とも称される)が注目されている(非特許文献1を参照)。ダークナレッジ学習システムは、精度の高い大規模な識別器(以下、「大規模識別器」と称する)の機械学習を行った後に、当該大規模識別器を利用して、小規模な識別器(以下、「小規模識別器」と称する)の機械学習を行うものである。
図1は、ダークナレッジ学習システムについて、簡易的に説明する図である。
ダークナレッジ学習システムにおいては、まず、例えば、画像等の識別対象と正解クラスを関連付けた学習データを用いて、クラス識別法の機械学習によって大規模識別器の機械学習が行われる(STEP1)。
クラス識別法の機械学習では、正解クラスに対応する候補クラスのクラス該当度が、他の候補クラスのクラス該当度と比較して最大となるように、大規模識別器に対して学習処理を施す。尚、クラス該当度とは、入力された識別対象の情報から推定される当該候補クラスに該当する確率を表す(以下同じ)。
クラス識別法の機械学習では、例えば、Sクラスが正解クラスであるとすると、Sクラスのクラス該当度が最大の場合には、ネットワークパラメータ(重み係数及びバイアス等)の更新は行わない。一方、Tクラスのクラス該当度が最大の場合には、Sクラスのクラス該当度が最大になるように、ネットワークパラメータ(重み係数及びバイアス等)の更新を行う。同様に、Uクラスのクラス該当度が最大の場合には、Sクラスのクラス該当度が最大になるように、ネットワークパラメータ(重み係数及びバイアス等)の更新を行う。尚、Sクラスのクラス該当度が最大になるように、ネットワークパラメータの更新を行う際には、UクラスやTクラスのクラス該当度は特に考慮しない。
このような処理を繰り返し実行することによって、大規模識別器は、各候補クラスS,T,Uのクラス該当度が、入力された識別対象の特徴に応じたベイズ確率を正確に出力し得る構成となる。
ダークナレッジ学習システムにおいては、次に、学習処理済みの大規模識別器を用いて、小規模識別器用の学習データの生成が行われる(STEP2)。
この学習データ生成処理は、例えば、学習処理済みの大規模識別器に対して画像を入力し、大規模識別器の各出力素子が出力する各候補クラスのクラス該当度を取得する処理である。そして、入力した画像と各候補クラスS,T,Uのクラス該当度を関連付けたデータ(Soft Targetとも称される)を小規模識別器用の学習データとして生成する。
ダークナレッジ学習システムにおいては、次に、STEP2で生成した小規模識別器用の学習データを用いて、回帰法の機械学習によって小規模識別器の機械学習が行われる(STEP3)。
回帰法による機械学習では、例えば、小規模識別器のSクラスのクラス該当度を出力する出力素子、Tクラスのクラス該当度を出力する出力素子、Uクラスのクラス該当度を出力する出力素子のそれぞれに対して、STEP2で生成した学習データの値を正解値(各候補クラスS,T,Uのクラス該当度)として設定し、当該学習データの画像を入力したときの各出力素子が当該正解値を出力するように、ネットワークパラメータ(重み係数及びバイアス等)の更新を行う。
このような処理を繰り返し実行することによって、小規模識別器の各候補クラスS,T,Uの各出力素子は、大規模識別器と同様のクラス該当度を算出し得るようになる。
このように、ダークナレッジ学習システムによれば、大規模識別器に比べて小さい小規模識別器(例えば、中間層の層数が少なく、各中間層の素子数が少ない)で、大規模識別器と同程度の精度の小規模識別器を構成することができる。又、小規模識別器は、回帰法を用いて機械学習を行うことから、より少ない学習データで識別機能を保有し得る。
ところで、学習処理の高速化や識別処理の高速化の観点から、識別器のより一層の小型化要請がある。しかしながら、従来技術に係るダークナレッジ学習システムにおいて生成する小規模識別器では、大規模識別器と同数以上の出力素子が必要となるため、小型化に限界がある。
そこで、本開示は、識別器のより一層の小型化を可能とする学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラムを提供することを目的とする。
前述した課題を解決する主たる本開示は、
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す第1の学習部と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する学習データ生成部と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す第2の学習部と、
を備える学習装置である。
又、他の局面では、
上記学習装置から取得した前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
推定装置である。
又、他の局面では、
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施し、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成し、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す、
学習方法である。
又、他の局面では、
上記学習方法で学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
推定方法である。
又、他の局面では、
コンピュータに、
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す処理と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する処理と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す処理と、
を実行させる、学習プログラムである。
又、他の局面では、
コンピュータに、
上記学習プログラムで学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する処理
を実行させる、推定プログラムである。
本開示に係る学習装置によれば、識別器のより一層の小型化が可能である。
ダークナレッジ学習システムについて、簡易的に説明する図 第1の実施形態に係る学習装置の全体構成を示すブロック図 第1の実施形態に係る大規模識別器及び小規模識別器について説明する図 第1の実施形態に係る学習装置のハードウェア構成の一例を示す図 第1の実施形態に係る第1の学習部が行う処理の一例を示すフローチャート 第1の実施形態に係る異なるクラス間での識別分離性について説明する図 第1の実施形態に係る圧縮ルールの一例を示す図 第1の実施形態に係る圧縮ルールの一例を示す図 第1の実施形態に係る学習データ生成部が行う処理の一例を示すフローチャート 第1の実施形態に係る第2の学習部が行う学習処理の一例を示すフローチャート 第1の実施形態に係る学習装置の応用例を示す図 第1の実施形態に係る推定装置が行う推定処理の一例を示すフローチャート 第2の実施形態に係る学習装置の構成の一例を示す図 第2の実施形態に係る圧縮ルール生成部が行う動作の一例を示すフローチャート 第2の実施形態に係る圧縮ルール生成部が行う動作の一例を示すフローチャート 第2の実施形態に係る圧縮ルール生成部が行う動作の一例を示すフローチャート 第2の実施形態に係る圧縮ルール生成部が参照するデータテーブル 第2の実施形態の変形例に係る圧縮ルール生成部の処理を模式的に示す図
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(第1の実施形態)
[学習装置の全体構成]
以下、図2〜図4を参照して、第1の実施形態に係る学習装置1の構成の一例について説明する。
図2は、本実施形態に係る学習装置1の全体構成を示すブロック図である。
本実施形態に係る学習装置1は、大規模識別器Dm1(本発明の「第1の識別器」に相当する)及び小規模識別器Dm2(本発明の「第2の識別器」に相当する)に対して学習処理を施す学習装置であって、第1の学習部10、学習データ生成部20、及び、第2の学習部30を備えている。
本実施形態に係る学習装置1は、上記したダークナレッジ学習システムと同様の手法を用いており、第1の学習部10にて大規模識別器Dm1の機械学習を行った後に(フェーズT1)、学習データ生成部20にて学習処理済みの大規模識別器Dm1を利用して小規模識別器Dm2用の学習データDt2を生成し(フェーズT2)、第2の学習部30にて当該学習データDt2を用いて小規模識別器Dm2の機械学習を行う(フェーズT3)。そして、学習装置1は、最終的に得られた学習処理済みの小規模識別器Dm2に係るモデルデータを、推定装置2に受け渡し、当該小規模識別器Dm2を用いた識別処理を実行させる。
図2中のT1、T2、及びT3は、本実施形態に係る学習装置1が実行する処理のフェーズを表す。各フェーズT1、T2、T3は、それぞれ、第1の学習部10、学習データ生成部20、及び第2の学習部30によって各別に実行される。
又、図2中のDt1及びDt2は、それぞれ、大規模識別器Dm1に対して学習処理を施す際の学習データ(以下、「第1の学習データDt1」と称する)、小規模識別器Dm2に対して学習処理を施す際の学習データ(以下、「第2の学習データDt2」と称する)を表す。
尚、第1の学習データDt1は、識別対象の画像データDt1aと正解クラスデータDt1b(正解ラベルとも称される)を関連付けて記憶する。第2の学習データDt2は、画像データDt2aと一次元圧縮値データDt2b(詳細は後述)を関連付けて記憶する。
又、図2中のDm1及びDm2は、それぞれ、例えば、大規模識別器を構成するニューラルネットワークのモデルデータ(例えば、入力層、中間層及び出力層に関するデータ)、及び小規模識別器を構成するニューラルネットワークのモデルデータである(詳細は後述)。
図3は、本実施形態に係る大規模識別器Dm1及び小規模識別器Dm2について説明する図である。
大規模識別器Dm1及び小規模識別器Dm2は、例えば、ニューラルネットワークを含んで構成される。但し、大規模識別器Dm1及び小規模識別器Dm2としては、ニューラルネットワークに限らず、SVM(Support Vector Machine)やベイズ識別器等、他の学習器を用いることもできる。又、大規模識別器Dm1及び小規模識別器Dm2としては、その他、アンサンブルモデルが用いられてもよいし、複数種類の識別器が組み合わされて構成されてもよいし、領域分割処理や色分割処理等の前処理部と組み合わされて構成されてもよい。
大規模識別器Dm1及び小規模識別器Dm2が識別する「識別対象」は、音声や画像や動画、距離や温度などのセンシングデータ等、任意の対象であってよい。
尚、本実施形態では、一例として、自動車の室内空間を撮影した画像を「識別対象」として、当該画像から、「自動車の助手席に人物が存在する状態(以下、人物クラスa)」、「自動車の助手席に荷物が置かれている状態(以下、荷物クラスb)」及び「自動車の助手席が空席である状態(以下、空席クラスc)」の3つの候補クラスのいずれに該当するかを識別する態様について説明する。
本実施形態に係る大規模識別器Dm1は、識別対象を分類する各候補クラスa,b,cのクラス該当度を出力する複数の出力素子を各別に有している。尚、大規模識別器Dm1の各出力素子には、確率を表現し得る関数として、例えば、ソフトマックス関数等が用いられる。
大規模識別器Dm1を用いて識別処理を行う際には、各候補クラスa,b,cのクラス該当度のうち、クラス該当度が最大の候補クラス(図3中では人物クラスa)が識別対象の識別結果となる。
一方、本実施形態に係る小規模識別器Dm2は、大規模識別器Dm1と同様に、識別対象を各候補クラスa,b,cのいずれかに分類するように構成されているが、大規模識別器Dm1とは異なり、各候補クラスa,b,cのクラス該当度を一次元の値に圧縮した状態(以下、「一次元圧縮値」とも称する)で出力する構成となっている(圧縮については、図7を参照して後述)。尚、小規模識別器Dm2の出力素子には、連続値を出力し得る関数として、例えば、sigmoid関数等を用いてもよい。
小規模識別器Dm2を用いて識別処理を行う際には、例えば、一次元圧縮値を各候補クラスa,b,cのクラス該当度に復元し(例えば、一次元圧縮値0.6から、人物クラスaのクラス該当度1.0、荷物クラスbのクラス該当度0.8、及び空席クラスcのクラス該当度0.0、のように復元する)、クラス該当度が最大の候補クラスを識別対象が属するクラスと判断する(詳細は後述)。
本実施形態に係る学習装置1は、このように、各候補クラスa,b,cのクラス該当度を一次元の値に圧縮した状態で出力し得る小規模識別器Dm2を構成することで、当該小規模識別器Dm2の小型化を図っている。
尚、大規模識別器Dm1は、小規模識別器Dm2よりも、中層層の層数や各中間層における素子数が多く設定されている。例えば、大規模識別器Dm1としては公知のGoogle Net、小規模識別器Dm2としては公知のAlexNet、Network In Network等を用いることができる。
又、大規模識別器Dm1及び小規模識別器Dm2は、例えば、識別対象(入力画像)に対して、畳み込みニューラルネットワークやHOG抽出処理等の特徴ベクトル抽出処理を行った後、かかる特徴ベクトルに基づいて識別処理を実行する構成となっている。但し、かかる特徴抽出処理は、公知の手法と同様であるから、ここでの詳細な説明は省略する。
図4は、本実施形態に係る学習装置1のハードウェア構成の一例を示す図である。
学習装置1は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105等を備えたコンピュータである。尚、上記した大規模識別器Dm1のモデルデータ、小規模識別器Dm2のモデルデータ、第1の学習データDt1、及び第2の学習データDt2等は、外部記憶装置104に記憶されている。
上記した第1の学習部10、学習データ生成部20、及び第2の学習部30は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された制御プログラム(例えば、処理プログラム)や各種データを参照することによって実現される。但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
次に、図2、図5〜図10を参照して、本実施形態に係る学習装置1の各構成について、詳述する。
[第1の学習部]
第1の学習部10は、第1の学習データDt1を用いて、大規模識別器Dm1に対して、クラス識別法によって学習処理を施す。
クラス識別法の機械学習については、図1を参照して上記した通りであり、大規模識別器Dm1が出力する正解クラスに対応する候補クラスのクラス該当度が、他の候補クラスのクラス該当度と比較して最大となるように、当該大規模識別器Dm1に対して学習処理を施す。
第1の学習部10が大規模識別器Dm1の学習処理を行う際には、例えば、交差エントロピーが損失関数として用いられる。そして、公知の誤差逆伝播法等によって、損失関数が最小化するように、ネットワークパラメータ(重み係数、及びバイアス等)の最適化が行われる。
尚、第1の学習データDt1は、上記したように、画像データDt1a及び正解クラスデータDt1bのデータセットであって、画像データDt1a(本実施形態では、自動車の室内空間を撮影した画像)と正解クラスデータDt1b(本実施形態では、人物クラスa、荷物クラスb及び空席クラスcのいずれか一つ)とが関連付けられた状態で記憶部(例えば、外部記憶装置104)に複数記憶されている。
図5は、第1の学習部10が行う処理の一例を示すフローチャートである。
ステップS11において、第1の学習部10は、まず、学習処理に用いていない未処理の第1の学習データDt1があるか否かを判定し、未処理の第1の学習データDt1がある場合(S11:Yes)、ステップS12に処理を進め、未処理の第1の学習データDt1がない場合(S11:No)、第1の学習部10は、一連の処理を終了するべく、ステップS14に処理を進める。
ステップS12において、第1の学習部10は、未処理の第1の学習データDt1を記憶部から取得する。
ステップS13において、第1の学習部10は、第1の学習データDt1を用いて、大規模識別器Dm1に対して学習処理を施す。尚、この際の学習処理は、上記したように、クラス識別法が用いられ、大規模識別器Dm1が出力する正解クラスに対応する候補クラスのクラス該当度が他の候補クラスのクラス該当度と比較して最大となるように、当該大規模識別器Dm1に対して、学習処理を施す。そして、第1の学習部10は、再度、ステップS11に戻る。
ステップS14において、第1の学習部10は、学習処理が施された大規模識別器のモデルデータDm1(学習処理済みのネットワークパラメータ)を、例えば、外部記憶装置104に格納し、一連の処理を終了する。
大規模識別器Dm1は、かかる処理によって、識別対象(自動車の室内空間を撮影した画像)について、各候補クラス(人物クラスa、荷物クラスb及び空席クラスc)のいずれが尤もらしいかのクラス該当度を出力し得るように、最適化される。
[学習データ生成部]
学習データ生成部20は、学習処理済みの大規模識別器Dm1を用いて識別対象の識別処理を行うと共に、所定の圧縮ルールに基づいて、大規模識別器Dm1が出力する複数の候補クラスそれぞれについてのクラス該当度を次元圧縮した値に変換し、識別対象と関連付けて第2の学習データを生成する。
より詳細には、学習データ生成部20は、第1の識別処理部21及び圧縮部22を含んで構成される。
第1の識別処理部21は、識別対象の画像(画像データDt2a)を学習処理済みの大規模識別器Dm1に入力して、当該大規模識別器Dm1を用いた画像解析(例えば、ニューラルネットワークの順伝搬処理)により、当該大規模識別器Dm1から、各候補クラスa,b,cのクラス該当度を出力する。
尚、第1の識別処理部21に入力される画像としては、第1の学習データDt1の画像データDt1aが用いられてもよいし、第1の学習データDt1の画像データDt1aとは異なる画像が用いられてもよい。
圧縮部22は、所定の圧縮ルールに基づいて、複数の候補クラスa,b,cそれぞれのクラス該当度を次元圧縮した値(例えば、一次元圧縮値)に変換して、入力画像(第1の識別処理部21で識別対象とした画像データDt2a)とその際の一次元圧縮値データDt2bとを関連付けて、小規模識別器Dm2用の第2の学習データDt2として記憶する。
ここで、図6〜図8を参照して、各候補クラスa,b,cのクラス該当度を次元圧縮する圧縮ルールについて説明する。
図6は、異なるクラス間での識別分離性について説明する図である。
図6Aは、異なるクラス間でクラス該当度の共分散が大きい状態の一例を表している。又、図6Bは、異なるクラス間でのクラス該当度の共分散が小さい状態の一例を表す。
図6A、図6Bに示す各点は、学習処理済みの識別器において識別対象を識別した識別結果であり、3つの候補クラスそれぞれについてのクラス該当度を3次元空間上の一点として表したものである。尚、各軸上の目盛りは、クラス該当度を表す。
尚、図6A中の各点は、以下の項目を表す。
点X:正解クラスが候補クラスXに該当する識別対象を識別した際の各候補クラスのクラス該当度
点Y:正解クラスが候補クラスYに該当する識別対象を識別した際の各候補クラスのクラス該当度
点Z:正解クラスが候補クラスZに該当する識別対象を識別した際の各候補クラスのクラス該当度
又、図6B中の各点は、以下の項目を表す。
点Sitting Human:正解クラスが人物クラスaに該当する識別対象を識別した際の各候補クラスのクラス該当度
点Object:正解クラスが荷物クラスbに該当する識別対象を識別した際の候補クラスのクラス該当度
点Empty Seat:正解クラスが空席クラスcに該当する識別対象を識別した際の候補クラスのクラス該当度
識別分離性は、一般に、識別対象を分類する候補クラスの種類等に依拠する。例えば、ある候補クラスと他の候補クラスの画像上の外観が類似していると、識別処理の際にクラス該当度が相関性を有するものとなる。
この点、図6Aにおいては、3つの候補クラスのクラス該当度が同程度となる点が数多く存在し、例えば、候補クラスXに該当する識別対象を識別した際に、候補クラスXのクラス該当度の他に、候補クラスYのクラス該当度、及び候補クラスZのクラス該当度も高い値として算出されている。そのため、仮に、かかる候補クラスのクラス該当度を次元圧縮すると、識別分離性が著しく低下するおそれがある。
一方、図6Bにおいては、一の候補クラスのクラス該当度と他の候補クラスのクラス該当度が同程度となる領域(相関性が高い領域)が、「人物クラス」と「荷物クラス」の間の領域と、「空席クラス」と「荷物クラス」の間の領域のみとなっている。かかる候補クラスのクラス該当度については、これらの相関性が高い領域を適切に連結することによって、識別分離性を低下させることなく、次元圧縮することが可能である。
かかる観点から、本実施形態において、「次元圧縮する対象の候補クラス」は、より好適には、図6Bのように、2つの候補クラス間でのみ類似度が高い場合が生じるものが選択される。換言すると、3以上の候補クラスのクラス該当度が同時に高い値となるようなもの(3以上の候補クラス間で相互に類似度が高いもの)は、候補クラスの選択としては好適ではない。但し、いずれの候補クラスに対しても相関性を有さない候補クラスが含まれていてもよいのは勿論である。
図7、図8は、本実施形態に係る圧縮ルールの一例を示す図である。
図7Aは、図6Bと同様の図である。図7Bは、「人物クラスa」、「荷物クラスb」及び「空席クラスc」それぞれのクラス該当度を一次元圧縮値(図7Aの太線矢印を参照。ここでは、0から1の数値範囲のいずれかの値)に圧縮した状態を示している。
図8中には、各候補クラスa,b,cのクラス該当度と一次元圧縮値の関係の具体的な一例を表している。図8中の「クラス」の項目は、画像の実際のクラス(正解クラス)を表す。「クラス該当度」の項目は、大規模識別器Dm1が当該画像の識別結果として出力する人物クラスa、荷物クラスb及び空席クラスcそれぞれについてのクラス該当度を表す。「画像の説明」の項目は、当該画像の種類を簡易的に説明したものである。「一次元の値への圧縮」の項目は、一次元圧縮値を示したものである。
本実施形態に係る圧縮ルールでは、例えば、一次元圧縮値の最小値を0、最大値を1として、その間の数値範囲(0〜1)を3分割して、「人物クラス」については1〜0.67の数値範囲、「荷物クラス」については0.67〜0.33の数値範囲、「空席クラス」については0.33〜0と数値範囲を割り当てている。そして、圧縮ルールにおいては、まず、最大のクラス該当度の候補クラスの数値範囲を選択し、次に、当該数値範囲内において、二番目のクラス該当度の候補クラスを考慮して、当該二番目の候補クラス側に偏位するように一次元圧縮値を決定している。
例えば、典型的な人物画像は、各候補クラスa,b,cのクラス該当度((人物のクラス該当度,荷物のクラス該当度,空席のクラス該当度)で表す)としては、例えば、(1,0,0)に相当する。この場合の一次元圧縮値は、「人物クラスa」の数値範囲(1〜0.67)のうち、「荷物クラスb」及び「空席クラスc」のクラス該当度が共に0であることから、「1」と算出される。
又、人物のように見える荷物画像は、各候補クラスa,b,cのクラス該当度としては、例えば、(0.8,1,0)に相当する。この場合の一次元圧縮値は、クラス該当度が最大の「荷物クラスb」の数値範囲(0.67〜0.33)のうち、「人物クラスa」(二番目にクラス該当度が大きい)のクラス該当度が0.8と大きいことから、「人物クラスa」の数値範囲(1〜0.67)側に偏位させて「0.6」と算出される。
他方、荷物のように見える荷物画像は、各候補クラスa,b,cのクラス該当度としては、例えば、(0,1,0.8)に相当する。この場合の一次元圧縮値は、クラス該当度が最大の「荷物クラスb」の数値範囲(0.67〜0.33)のうち、「空席クラスc」(二番目にクラス該当度が大きい)のクラス該当度が0.8と大きいことから、「空席クラスc」の数値範囲(0.33〜0)側に偏位させて「0.4」と算出される。
又、荷物のように見える空席画像は、各候補クラスa,b,cのクラス該当度としては、例えば、(0,0.8,1)に相当する。この場合の一次元圧縮値は、クラス該当度が最大の「空席クラスc」の数値範囲(0.33〜0)のうち、「荷物クラスb」(二番目にクラス該当度が大きい)のクラス該当度が0.8と大きいことから、「荷物クラスb」の数値範囲(0.67〜0.33)側に偏位させて「0.33」と算出される。
尚、各候補クラスa,b,cの数値範囲は、類似度の高い(識別対象によっては、クラス該当度が共に高くなる場合があることを意味する。以下同じ)候補クラス同士が隣接するように、割り当てられている。ここでは、図6Bを参照して説明したように、「人物クラスa」と「荷物クラスb」との類似度が高く、「空席クラスc」と「荷物クラスb」との類似度が高い。従って、「荷物クラスb」の領域(0.67〜0.33)が、「人物クラスa」の領域(1〜0.67)と「空席クラスc」の領域(0.33〜0)との間に設定されている。
これによって、一次元圧縮値は、「人物クラスa」の領域(1〜0.67)と「荷物クラスb」の領域(0.67〜0.33)の間の0.66付近の値において、人物にも見え、且つ、荷物にも見える画像を識別した際の「人物クラスa」のクラス該当度と「荷物クラスb」のクラス該当度の共分散状態を表現している。又、一次元圧縮値は、「空席クラスc」の領域(0.33〜0)と「荷物クラスb」の領域(0.67〜0.33)の間の0.33付近の値において、空席にも見え、且つ、荷物にも見える画像を識別した際の「空席クラスc」のクラス該当度と「荷物クラスb」のクラス該当度の共分散状態を表現している。つまり、一次元圧縮値においても、各候補クラスa,b,cのクラス該当度の比較と同等のクラス識別を可能としている。
但し、上記の圧縮ルールは、一例であって、種々に変更可能である。例えば、一次元圧縮値の数値範囲内(ここでは、0〜1)において、特定の候補クラスが占める割合が大きくなるように設定されてもよい。又、一次元圧縮値の数値範囲内(ここでは、0〜1)において、異なるクラス間で相関が生じる領域の占める割合が大きくなるように設定されてもよい。又、上記の圧縮ルールは、クラス該当度が3番目の大きさの候補クラスについても、考慮するものとしてもよい。又、一次元圧縮値を求める際には、各候補クラスa,b,cのクラス該当度と一次元圧縮値を関連付ける関数を用いてもよい。
図9は、学習データ生成部20が行う処理の一例を示すフローチャートである。
ステップS21においては、学習データ生成部20は、まず、第2の学習データDt2の対象とする画像データDt2aのうち、未処理のものがあるか否かを判定し、未処理の画像データDt2aがある場合(S21:Yes)、ステップS22に処理を進め、未処理の画像データDt2aがない場合(S21:No)、学習データ生成部20は、一連の処理を終了する。
ステップS22においては、学習データ生成部20(第1の識別処理部21)は、学習処理済みの大規模識別器Dm1に対して、画像データDt2aを入力し、当該大規模識別器Dm1を用いた画像解析(例えば、ニューラルネットワークの順伝搬処理)によって、各候補クラスa,b,cのクラス該当度を算出する。
ステップS23においては、学習データ生成部20(圧縮部22)は、上記した圧縮ルールに従って、各候補クラスa,b,cのクラス該当度を一次元圧縮値に変換する。
ステップS24においては、学習データ生成部20(圧縮部22)は、一次元圧縮値データDt2bを入力した画像データDt2aと関連付けて記憶部(例えば、外部記憶装置104)に格納する。そして、学習データ生成部20は、再度、ステップS21に戻って処理を実行する。
学習データ生成部20は、このような処理を繰り返し実行することによって、第2の学習データDt2(クラス該当度の一次元圧縮値のデータDt2bと画像データDt2aとを関連付けたデータ)を複数生成する。
[第2の学習部]
第2の学習部30は、第2の学習データDt2を用いて、小規模識別器Dm2に対して、回帰法によって学習処理を施す。
回帰法の機械学習については、図1を参照して上記した通りであり、小規模識別器Dm2が識別する識別対象の識別結果が、第2の学習データDt2の一次元圧縮値Dt2bとなるように、小規模識別器Dm2に対して学習処理を施す。
第2の学習部30が小規模識別器Dm2の学習処理を行う際には、例えば、二乗誤差が損失関数として用いられる。そして、公知の誤差逆伝播法等によって、損失関数が最小化するように、ネットワークパラメータ(重み係数、及びバイアス等)の最適化が行われる。
尚、第2の学習データDt2は、上記したように、画像データDt2a及び各候補クラスa,b,cのクラス該当度の一次元圧縮値データDt2bのデータセットであって、画像データDt2a(本実施形態では、自動車の室内空間を撮影した画像)と一次元圧縮値データDt2bとが関連付けられた状態で記憶部(例えば、外部記憶装置104)に複数記憶されている。
図10は、第2の学習部30が行う学習処理の一例を示すフローチャートである。
ステップS31においては、第2の学習部30は、まず、学習処理に用いていない未処理の第2の学習データDt2があるか否かを判定し、未処理の第2の学習データDt2がある場合(S31:Yes)、ステップS32に処理を進め、未処理の第2の学習データDt2がない場合(S31:No)、第2の学習部30は、一連の処理を終了するべく、ステップS34に処理を進める。
ステップS32においては、第2の学習部30は、未処理の第2の学習データDt2を記憶部から取得する。
ステップS33においては、第2の学習部30は、第2の学習データDt2を用いて、小規模識別器Dm2に対して学習処理を施す。尚、この際の学習処理は、上記したように、回帰法が用いられ、小規模識別器Dm2が出力する出力値が、第2の学習データDt2の一次元圧縮値Dt2bとなるように、小規模識別器Dm2に対して学習処理を施す。そして、第2の学習部30は、再度、ステップS31に戻って処理を実行する。
ステップS34においては、第2の学習部30は、学習処理が施された小規模識別器のモデルデータDm2(学習処理済みのネットワークパラメータ)を、例えば、外部記憶装置104に格納する。そして、一連のフローを終了する。
小規模識別器Dm2は、かかる処理によって、識別対象(自動車の室内空間を撮影した画像)について、各候補クラスa,b,cのクラス該当度に復元可能な一次元圧縮値を出力し得るように最適化される。
[効果]
以上のように、本実施形態に係る学習装置1は、ダークナレッジ学習システムにおいて、学習処理済みの大規模識別器Dm1を用いて、各候補クラスa,b,cのクラス該当度を次元圧縮した状態にて、小規模識別器Dm2用の第2の学習データDt2を生成し、これを用いて小規模識別器Dm2に対して学習処理を施す。
これによって、高い識別性能を確保しつつ、より小型な小規模識別器Dm2を構成することができる。又、これによって、小規模識別器Dm2に対して学習処理を施す際の学習データを軽減することも可能となる。
特に、本実施形態に係る学習装置1は、各候補クラスa,b,cの識別処理における相関性を考慮した圧縮ルールを用いて、各候補クラスa,b,cのクラス該当度を次元圧縮する。これによって、小規模識別器Dm2の高い識別性能を確実に確保することが可能となる。
(第1の実施形態の応用例)
図11は、第1の実施形態に係る学習装置1の応用例を示す図である。
本実施形態に係る応用例においては、推定装置2が設けられている点で、第1の実施形態と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。
推定装置2は、学習装置1から学習処理済みの小規模識別器Dm2のモデルデータを取得する。そして、推定装置2は、小規模識別器Dm2を用いて、入力された識別対象の識別処理を行い、小規模識別器Dm2が出力する次元圧縮した値と所定の圧縮ルールとに基づいて、識別対象を複数の候補クラスのいずれかに分類する。
尚、推定装置2は、学習装置1と同様に、主たるコンポーネントとして、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、外部記憶装置(例えば、フラッシュメモリ)、及び通信インターフェイス等を備えたコンピュータである。
より詳細には、推定装置2は、入力部41、第2の識別処理部42、復元部43、及び出力部44を含んで構成される。
入力部41は、未識別状態の識別対象(例えば、自動車の室内空間を撮影した画像)をカメラ装置等から取得する。
第2の識別処理部42は、学習処理済みの小規模識別器Dm2を用いて、入力部41が取得した識別対象を識別する。
復元部43は、第2の識別処理部42が出力する一次元圧縮値を圧縮ルール(図8を参照)に従って各候補クラスa,b,cのクラス該当度に復元する。
出力部44は、復元部43が出力する各候補クラスa,b,cのクラス該当度のうち、クラス該当度が最大の候補クラスを選択して、識別結果として外部(例えば、ディスプレイ)に出力する。
尚、本実施形態に係る推定装置2は、一次元圧縮値を各候補クラスa,b,cのクラス該当度に復元する構成とするが、圧縮ルールから直接的に、識別対象を複数の候補クラスa,b,cのいずれかに分類する構成としてもよいのは勿論である。
図12は、推定装置2が行う推定処理の一例を示すフローチャートである。
ステップS41において、推定装置2は、まず、識別すべき画像データがあるか否かを判定し、識別すべき画像データがある場合(S41:Yes)、ステップS42に処理を進め、識別すべき画像データがない場合(S41:No)、一連の処理を終了する。
ステップS42において、推定装置2(第2の識別処理部41)は、学習処理済みの小規模識別器Dm2に対して、識別すべき画像データを入力し、当該小規模識別器Dm2を用いた画像解析(例えば、ニューラルネットワークの順伝搬処理)によって、一次元圧縮値を算出する。
ステップS43において、推定装置2(復元部43)は、第2の識別処理部42が出力する一次元圧縮値を圧縮ルールに従って各候補クラスa,b,cのクラス該当度に復元する。
ステップS44において、推定装置2(出力部44)は、復元部43が出力する各候補クラスa,b,cのクラス該当度のうち、クラス該当度が最大の候補クラスを選択して、識別結果として外部(例えば、ディスプレイ)に出力する。そして、一連の処理を終了する。
推定装置2は、かかる構成によって、学習装置1から取得した学習処理済みの小規模識別器Dm2のモデルデータを用いて、識別対象を複数の候補クラスのいずれかに分類する。
(第2の実施形態)
図13は、第2の実施形態に係る学習装置1の構成の一例を示す図である。
本実施形態に係る学習装置1は、上記した圧縮ルールを生成する圧縮ルール生成部50を有している点で、第1の実施形態と相違する。尚、図13には、上記した第1の実施形態の応用例と同様に、推定装置2を有する構成を示している。
圧縮ルール生成部50の処理は、大規模識別器Dm1に学習処理を施すフェーズT1の後であって、且つ、学習処理済みの大規模識別器Dm1を用いて小規模識別器Dm2用の学習データDt2を生成するフェーズT2前のフェーズT2aにおいて、実行される。
圧縮ルール生成部50は、第3の識別処理部51、分析部52、及び圧縮ルール設定部53を含んで構成される。
第3の識別処理部51は、学習処理済みの大規模識別器Dm1を用いて、識別対象の識別処理を行って、各候補クラスa,b,cのクラス該当度を生成する。
分析部52は、第3の識別処理部51が生成した各候補クラスa,b,cのクラス該当度のクラス間における共分散の状態を分析する。
圧縮ルール設定部53は、分析部52が生成したクラス間における共分散の状態に基づいて、上記した圧縮ルールDrを設定する。
学習データ生成部20(圧縮部22)及び、推定装置2の復元部43は、圧縮ルール設定部50が設定した圧縮ルールのデータDrを参照して、第1の実施形態と同様の処理を実行する。
以下、図14〜図17を参照して、圧縮ルール生成部50が圧縮ルールを生成する際の処理の一例を説明する。
本実施形態に係る圧縮ルール設定部50は、例えば、第1の学習データDt1と同様の構成を有する第3の学習データDt3(正解クラスデータDt3bと画像データDt3aのデータセット)を用いて、各候補クラスa,b,cのクラス該当度のクラス間における共分散の状態を分析する。
但し、圧縮ルール設定部50が参照する第3の学習データDt3は、第1の学習データDt1と同一のデータであってもよい。他方、圧縮ルール設定部50は、正解クラスデータDt3bを用いることなく、第3の識別処理部51が出力する各候補クラスa,b,cのクラス該当度から、直接的にクラス間の共分散を求めてもよい。
図14〜図16は、圧縮ルール生成部50が行う動作の一例を示すフローチャートである。圧縮ルール生成部50は、候補クラス間の識別分離性の調査Saを行った後(図15を参照して後述)、クラス該当度の連結位置の調査Sbを行う(図16を参照して後述)。
図17は、圧縮ルール生成部50が参照するデータテーブルである。尚、図17は、各候補クラスa,b,cのクラス該当度について、正解クラス毎に分散値を算出した一覧表に相当する。尚、分析部52は、図17のデータテーブルを用いて、各候補クラスa,b,cのクラス間の相関度合いを分析する。
ステップSa1において、まず、第3の識別処理部51は、学習処理済みの大規模識別器Dm1に対して第3の学習データDt3の画像データDt3aを入力して、画像解析(例えば、ニューラルネットワークの順伝搬処理)により、各候補クラスa,b,cのクラス該当度を出力する。
ステップSa2において、分析部52は、ステップSa1で生成された各候補クラスa,b,cのクラス該当度を用いて、クラス該当度の分散値を正解クラス毎に算出する(図17Aを参照)。
ステップSa3において、分析部52は、正解クラスのときに、各候補クラスa,b,cのクラス該当度の分散値が基準値(例えば、1.0×10−5)よりも小さいか否かを判定する。そして、分析部52は、当該分散値が基準値よりも小さい場合(Sa3:Yes)、ステップSa4に処理を進める。一方、分析部52は、当該分散値が基準値よりも小さくない場合(Sa3:No)、ステップSa5に処理を進める。
尚、このステップSa3においては、分析部52は、各候補クラスa,b,cの識別分離性の程度を判定しており、正解クラスのときにもいずれかのクラス該当度の分散値が大きい場合には(Sa3:No)、他の候補クラスとの識別分離性の程度が小さく一次元圧縮値に圧縮すると復元することができない状態と判定し得る。
ステップSa4において、分析部52は、不正解クラスのときに、各候補クラスa,b,cのクラス該当度の分散値が基準値(例えば、1.0×10−5)よりも小さい候補クラスがあるか否かを判定する。そして、分析部52は、当該分散値が基準値よりも小さいものがある場合(Sa4:Yes)、ステップSa6に処理を進める。一方、当該分散値が基準値よりも小さいものがない場合(Sa4:No)、ステップSa5に処理を進める。
尚、このステップSa4においては、分析部52は、ステップSa3と同様に、各候補クラスa,b,cの識別分離性の程度を判定している。不正解クラスのときに分散値が小さい候補クラスは、正解クラスに対して高いに識別分離性を有することを意味する。つまり、不正解クラスのときに分散値が小さい候補クラスがない場合には(Sa4:No)、他の候補クラスとの識別分離性の程度が小さく一次元圧縮値に圧縮すると復元することができない状態と判定し得る。
ステップSa5において、分析部52は、圧縮ルールの生成が失敗した旨をディスプレイ等に出力し、フローSaの一連のルーチン処理を終了する。
ステップSa6において、分析部52は、図17Aの一覧表中から、正解クラスの項目(N1)、及び分散値が小さい不正解クラスの項目(N2)を連結位置から除外し(図17Bを参照)、図16の連結位置の調査のフローSbに移行する。
尚、フローSbに移行する際に、図17Aの一覧表中で除外されていない項目が、各候補クラスa,b,cのクラス間の相関度合いが高い項目であり、連結すべき位置の候補となる。
ステップSb1において、分析部52は、各候補クラスa,b,c中から一の正解クラスを選択する。
ステップSb2において、分析部52は、図17Bの一覧表中で、当該正解クラスの行において、分散値が基準値(例えば、1.0×10−5)よりも大きい不正解クラスが2つかを判定する。分析部52は、例えば、当該不正解クラスが2つである場合(Sb2:Yes)、ステップSb3に処理を進める。一方、当該不正解クラスが2つでない場合(Sb2:No)、ステップSb6に処理を進める。
ステップSb3において、分析部52は、選択された2項目を連結N3する(図17Cを参照)。
尚、図17Cでは、荷物クラスが正解クラスの行において、人物クラスの候補クラスと空席クラスの候補クラスとを連結している。かかる連結は、荷物クラスと人物クラスが、識別処理において相関性を有していると判断したことを意味する。
ステップSb4において、分析部52は、N3で連結した項目が正解・不正解を反転させた関係においても相関性が高いか否かを判定する。分析部52は、例えば、N3で連結した項目の正解・不正解を反転させた項目の分散値が基準値(例えば、1.0×10−5)よりも大きいか否かにより、当該相関性を判定する(例えば、正解クラスが荷物クラスのときの人物クラスに関するクラス該当度の分散と、正解クラスが人物クラスのときの荷物クラスに関するクラス該当度の分散と、が共に高い値かを判定する)。そして、分析部52は、当該相関性が高い場合(Sb4:Yes)、ステップSb5に処理を進める。一方、相関性が低い場合(Sb4:No)、ステップSb6に処理を進める。
ステップSb5において、分析部52は、ステップSb4で選択された2項目を連結N4する(図17Dを参照)。
尚、このステップSb4、Sb5は、ステップSb2、Sb3で分析した共分散の状態の確認の処理に相当する。例えば、図17Dでは、荷物クラスbが正解クラスのときの人物クラスaの候補クラスの分散値と、人物クラスaが正解クラスのときの荷物クラスbの候補クラスの分散値は、共に大きく、両者は相関性を有していると言える。又、荷物クラスbが正解クラスのときの空席クラスcの候補クラスの分散値と、空席クラスcが正解クラスのときの荷物クラスbの候補クラスの分散値は、共に大きく、両者は相関性を有していると言える。
ステップSb6において、分析部52は、連結調査が未処理のものがあるか否かを判定し、未処理のものがある場合(Sb6:Yes)、再度、ステップSb1に戻って処理を繰り返す。未処理のものがない場合(Sb6:No)、ステップSb7に処理を進める。
ステップSb7において、分析部52は、連結N4の個数が(候補クラス数−1)カ所存在するかを判定する(候補クラス数が3の場合には、連結N4の個数が2カ所存在するか否かを判定する)。そして、分析部52は、連結N4の個数が(候補クラス数−1)カ所存在する場合(Sb7:Yes)、ステップSb8に処理を進める。一方、連結N4の個数が(候補クラス数−1)カ所に満たない場合(Sb7:No)、ステップSb9に処理を進める。
尚、ステップSb7の条件が満たされている場合、第1の候補クラスと第2の候補クラスの間(ここでは、人物クラスaと荷物クラスbの間)、及び、第2の候補クラスと第3の候補クラスの間(ここでは、荷物クラスbと空席クラスcの間)においてのみ、識別処理の際に相関性を有すると判断できる。換言すると、各候補クラスa,b,cのクラス該当度を一次元圧縮値として表現可能であることを意味する。
ステップSb8において、圧縮ルール設定部53は、上記の連結N3及び連結N4に基づいて、圧縮ルールを設定する(図17Eを参照)。
圧縮ルール設定部53は、例えば、連結N4で連結する順に、各候補クラスa,b,cのクラス該当度の数値範囲を均等に設定する(例えば、空席クラスc=0〜0.33、荷物クラスb=0.33〜0.67、人物クラスa=0.67〜1.0)。そして、圧縮ルール設定部53は、各候補クラスa,b,cのクラス該当度の数値範囲が、他の候補クラスとの識別処理における相関性(画像中の類似度)が高くなるほど、他の候補クラスの数値範囲との境界側になるように設定する(例えば、人物のように見える荷物画像=0.6、荷物のように見える人物画像=0.7)。
圧縮ルール生成部50は、上記のようにして、第1の実施形態と同様の圧縮ルールを設定することができる。そして、連結位置の調査のフローSbのルーチン処理を終了する。
尚、ステップSb9においては、圧縮ルール生成部50は、圧縮ルールの生成が失敗した旨をディスプレイ等に出力し、一連のフローを終了する。
以上のように、本実施形態に係る学習装置1によれば、学習処理済みの大規模識別器Dm1を用いて、複数の候補クラスa,b,cそれぞれについてのクラス該当度のクラス間の相関度合いを分析し、その結果を用いて圧縮ルールを生成する。
これによって、識別処理において相関性を有する候補クラスが明確でない場合等、事前に圧縮ルールを設定していない場合にも、適切な圧縮ルールを生成することが可能となる。
又、本実施形態に係る学習装置1によれば、正解クラス毎の複数の候補クラスa,b,cそれぞれについてのクラス該当度の分散として、クラス間の相関度合いを算出する。従って、クラス間の相関度合いを容易に分析することが可能となる。
尚、本実施形態においては、推定装置2は、学習装置1から、学習処理済みの小規模識別器Dm2のモデルデータに加えて、圧縮ルールのデータDrを取得して、識別対象を複数の候補クラスのいずれかに分類する構成となる。
(第2の実施形態の変形例)
本実施形態に係る圧縮ルール生成部50は、候補クラス数が4つの場合にも、適用し得るのは勿論である。
図18は、圧縮ルール生成部50の処理を模式的に示す図である。尚、図18は、図17と同様に、圧縮ルール生成部50が参照するデータテーブルであり、各候補クラスA,B,C,Dのクラス該当度について、正解クラス毎に分散値を算出した一覧表に相当する。
この際に圧縮ルール生成部50が行う具体的な処理は、図14乃至図16のフローチャートと同様であるからここでの説明は詳細な省略する。
圧縮ルール生成部50は、まず、各候補クラスA,B,C,Dのクラス該当度を用いて、クラス該当度の分散値を正解クラス毎に算出する(図18Aを参照)。
次に、圧縮ルール生成部50は、は、図18Aの一覧表中から、正解クラスの項目(N1)、及び分散値が小さい不正解クラスの項目(N2)を連結位置から除外する(図18Bを参照)。
次に、圧縮ルール生成部50は、図18Bの一覧表中で、当該正解クラスの行において、分散値が大きい不正解クラスが2つのものを連結(N3)する(図18Cを参照)。
次に、圧縮ルール生成部50は、図18Cの一覧表中で、N3で連結した項目について、正解・不正解を反転させた関係において相関性が高い場合(共分散している場合)、2項目を連結(N4)する(図18Cを参照)。
このようにして生成した連結N4の個数が、(候補クラス数−1)カ所(ここでは、3カ所)である場合、第1の候補クラスと第2の候補クラスの間(ここでは、AクラスとBクラスの間)、第2の候補クラスと第3の候補クラスの間(ここでは、BクラスとCクラスの間)、及び、第3の候補クラスと第4の候補クラスの間(ここでは、CクラスとDクラスの間)においてのみ、識別処理の際に相関性を有すると判断できる。従って、各候補クラスA,B,C,Dのクラス該当度を一次元圧縮値として表現可能であることを意味する。
圧縮ルール生成部50は、このようにして、候補クラス数が3クラスの場合と同様に、圧縮ルールを設定することができる(図18Dを参照)。
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
上記実施形態では、小規模識別器Dm2の一例として、単一の識別対象のクラスのみを識別する態様を示した。しかしながら、小規模識別器Dm2は、複数の識別対象のクラスを識別可能に構成してもよい。例えば、小規模識別器Dm2は、一枚の入力画像から、助手席の空席状態に関する候補クラス(例えば、助手席が「人物クラス」、「荷物クラス」又は「空席クラス」)のクラス該当度を出力する出力素子に加えて、車中に存在する人の総数に関する候補クラス(例えば、「2人有りクラス」、「3人有りクラス」又は「4人有りクラス」)のクラス該当度を出力する出力素子を有する構成としてもよい。本発明によれば、学習データの軽減等を図ることができるため、かかる態様においては、他の識別対象のクラスを識別する素子への干渉を低減することにもつながる。
又、上記実施形態では、圧縮ルールの一例として、複数の候補クラスのクラス該当度を一次元の値に圧縮する態様を示したが、二次元等の値に圧縮する構成としてもよい。その場合、複数の候補クラスのクラス該当度を二次元座標上の一点に変換すればよい。尚、かかる態様においても、圧縮ルールは、複数の候補クラスそれぞれについて、識別処理において相関性を有する候補クラス同士が隣接するように、次元圧縮した値の数値範囲を割り当て、複数の候補クラスそれぞれについてのクラス該当度に基づいて、最大のクラス該当度を有する第1の候補クラスに対応する数値範囲内において、第1の候補クラスに次ぐ大きさのクラス該当度を有する第2の候補クラスの数値範囲に近づくように、次元圧縮した値への変換を行うように構成すればよい。
又、上記実施形態では、学習装置1の動作の一例として、第1の学習部10、学習データ生成部20、及び第2の学習部30が順番に実行されるものとして示したが、これらの処理の一部又は全部が並列で実行されるものとしてもよいのは勿論である。
又、上記実施形態では、学習装置1の構成の一例として、一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータ、及び当該コンピュータが書き込むデータ等が、複数のコンピュータに分散して格納されてもよい。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す第1の学習部10と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する学習データ生成部20と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す第2の学習部30と、
を備える学習装置1を開示する。
この学習装置1によれば、高い識別性能を確保しつつ、より小型な小規模識別器Dm2を構成することができる。又、この学習装置1によれば、小規模識別器Dm2に対して学習処理を施す際の学習データを軽減することも可能となる。
又、本開示の学習装置1において、前記次元圧縮した値は、所定の数値範囲を、類似度の高い候補クラス同士が隣接するように前記複数の候補クラスそれぞれに分割した領域内のいずれかの値であって、前記所定の圧縮ルールは、前記次元圧縮した値が、最大のクラス該当度を有する第1の候補クラスに対応する前記数値範囲内において、前記第1の候補クラスに次ぐ大きさのクラス該当度を有する第2の候補クラスのクラス該当度に応じて、前記第2の候補クラスに対応する前記数値範囲の側に偏位するように、前記変換を行ってもよい。
この学習装置1によれば、小規模識別器Dm2の高い識別性能を確実に確保することが可能となる。
又、本開示の学習装置1は、学習処理済みの前記第1の識別器Dm1を用いて前記識別対象の識別処理を行い、前記第1の識別器が出力する前記複数の候補クラスについてのクラス該当度からクラス間の相関度合いを求め、当該相関度合いに基づいて、前記所定の圧縮ルールを生成する圧縮ルール生成部50、を更に有してもよい。
この学習装置1によれば、識別処理において相関性を有する候補クラスが明確でない場合等、事前に圧縮ルールを設定していない場合にも、適切な圧縮ルールを生成することが可能となる。
又、本開示の学習装置1において、前記圧縮ルール生成部50は、正解クラス毎の前記複数の候補クラスそれぞれについてのクラス該当度の分散によって、前記クラス間の相関度合いを判断してもよい。
この学習装置1によれば、クラス間の相関度合いを容易に分析することが可能となる。
又、本開示の学習装置1において、前記複数の候補クラスa,b,cは、少なくとも3つの候補クラスを有してもよい。
又、本開示の学習装置1において、前記第1の識別器Dm1及び前記第2の識別器Dm2は、いずれも、ニューラルネットワークを含んで構成されてもよい。
又、本開示の学習装置1において、前記識別対象は、画像データであってもよい。
又、上記学習装置1から取得した前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する推定装置2を開示する。
又、識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施し、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成し、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す、学習方法を開示する。
又、上記学習方法で学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する推定方法を開示する。
又、コンピュータに、
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す処理と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する処理と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す処理と、
を実行させる、学習プログラムを開示する。
又、コンピュータに、
上記学習プログラムで学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する処理
を実行させる、推定プログラムを開示する。
本開示に係る学習装置によれば、識別器のより一層の小型化が可能である。
1 学習装置
2 推定装置
10 第1の学習部
20 学習データ生成部
21 第1の識別処理部
22 圧縮部
30 第2の学習部
41 入力部
42 第2の識別処理部
43 復元部
44 出力部
50 圧縮ルール生成部
51 第3の識別処理部
52 分析部
53 圧縮ルール設定部
Dm1 大規模識別器
Dm2 小規模識別器
Dt1 第1の学習データ
Dt2 第2の学習データ

Claims (13)

  1. 識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す第1の学習部と、
    前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する学習データ生成部と、
    前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す第2の学習部と、
    を備える学習装置。
  2. 前記次元圧縮した値は、前記複数の候補クラスそれぞれに領域分割された所定の数値範囲内のいずれかの値であり、
    前記複数の候補クラスそれぞれの領域の前記数値範囲は、類似度の高い候補クラス同士が隣接するように割り当てられ、
    前記所定の圧縮ルールは、前記次元圧縮した値が、前記複数の候補クラスのうち、最大のクラス該当度を有する第1の候補クラスに対応する前記数値範囲内において、前記第1の候補クラスに次ぐ大きさのクラス該当度を有する第2の候補クラスのクラス該当度に応じて、前記第2の候補クラスに対応する前記数値範囲の側に偏位するように、前記変換を行う
    請求項1に記載の学習装置。
  3. 前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度から前記複数の候補クラス間の相関度合いを求め、当該相関度合いに基づいて前記所定の圧縮ルールを生成する圧縮ルール生成部、を更に有する
    請求項2に記載の学習装置。
  4. 前記圧縮ルール生成部は、各正解クラスに対応する前記複数の候補クラスそれぞれのクラス該当度の分散によって、前記複数の候補クラス間の相関度合いを判断する
    請求項3に記載の学習装置。
  5. 前記次元圧縮した値は、前記複数の候補クラスそれぞれのクラス該当度を一次元に圧縮した値である
    請求項1から4のいずれか一項に記載の学習装置。
  6. 前記複数の候補クラスは、前記正解クラスおよび前記他の正解クラスを含む少なくとも3つの候補クラスを有する
    請求項1から5のいずれか一項に記載の学習装置。
  7. 前記第1の識別器及び前記第2の識別器は、いずれも、ニューラルネットワークを含んで構成される
    請求項1から6のいずれか一項に記載の学習装置。
  8. 前記識別対象は、画像データである
    請求項1から7のいずれか一項に記載の学習装置。
  9. 請求項1から8のいずれか一項に記載の学習装置から取得した前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
    推定装置。
  10. 識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施し、
    前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成し、
    前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す、
    学習方法。
  11. 請求項10に記載の学習方法で学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
    推定方法。
  12. コンピュータに、
    識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す処理と、
    前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する処理と、
    前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す処理と、
    を実行させる、学習プログラム。
  13. コンピュータに、
    請求項12に記載の学習プログラムで学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する処理
    を実行させる、推定プログラム。

JP2017171486A 2017-09-06 2017-09-06 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム Active JP6883787B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017171486A JP6883787B2 (ja) 2017-09-06 2017-09-06 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム
US16/116,954 US11514307B2 (en) 2017-09-06 2018-08-30 Learning apparatus, learning method, estimation apparatus, estimation method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017171486A JP6883787B2 (ja) 2017-09-06 2017-09-06 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム

Publications (2)

Publication Number Publication Date
JP2019046380A true JP2019046380A (ja) 2019-03-22
JP6883787B2 JP6883787B2 (ja) 2021-06-09

Family

ID=65517325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171486A Active JP6883787B2 (ja) 2017-09-06 2017-09-06 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム

Country Status (2)

Country Link
US (1) US11514307B2 (ja)
JP (1) JP6883787B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210071935A (ko) 2019-12-03 2021-06-16 주식회사 히타치하이테크 탐색 장치, 탐색 프로그램 및 플라스마 처리 장치
US11189470B2 (en) 2018-03-20 2021-11-30 Hitachi High-Tech Corporation Search device, search method and plasma processing apparatus
US11657059B2 (en) 2018-03-14 2023-05-23 Hitachi High-Tech Corporation Search device, searching method, and plasma processing apparatus

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11935277B2 (en) * 2019-03-14 2024-03-19 Nec Corporation Generation method, training data generation device and program
CN110210544B (zh) * 2019-05-24 2021-11-23 上海联影智能医疗科技有限公司 图像分类方法、计算机设备和存储介质
EP3767536A1 (en) * 2019-07-17 2021-01-20 Naver Corporation Latent code for unsupervised domain adaptation
CN113688893A (zh) * 2021-08-19 2021-11-23 西交利物浦大学 一种图片分类的方法、装置、电子设备及存储介质
KR20230068508A (ko) * 2021-11-11 2023-05-18 한국전자기술연구원 효율적인 딥러닝 학습을 위한 메모리 구조 및 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160063359A1 (en) * 2014-08-29 2016-03-03 Google Inc. Processing images using deep neural networks

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4034602B2 (ja) * 2002-06-17 2008-01-16 富士通株式会社 データ分類装置、データ分類装置の能動学習方法及び能動学習プログラム
JP6456031B2 (ja) * 2014-03-25 2019-01-23 キヤノン株式会社 画像認識装置、画像認識方法およびプログラム
US9384450B1 (en) * 2015-01-22 2016-07-05 International Business Machines Corporation Training machine learning models for open-domain question answering system
US10387430B2 (en) * 2015-02-26 2019-08-20 International Business Machines Corporation Geometry-directed active question selection for question answering systems

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160063359A1 (en) * 2014-08-29 2016-03-03 Google Inc. Processing images using deep neural networks

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11657059B2 (en) 2018-03-14 2023-05-23 Hitachi High-Tech Corporation Search device, searching method, and plasma processing apparatus
US11907235B2 (en) 2018-03-14 2024-02-20 Hitachi High-Tech Corporation Plasma processing apparatus including predictive control
US11189470B2 (en) 2018-03-20 2021-11-30 Hitachi High-Tech Corporation Search device, search method and plasma processing apparatus
KR20210071935A (ko) 2019-12-03 2021-06-16 주식회사 히타치하이테크 탐색 장치, 탐색 프로그램 및 플라스마 처리 장치
US11747774B2 (en) 2019-12-03 2023-09-05 Hitachi High-Tech Corporation Search device, search program, and plasma processing apparatus

Also Published As

Publication number Publication date
US20190073588A1 (en) 2019-03-07
US11514307B2 (en) 2022-11-29
JP6883787B2 (ja) 2021-06-09

Similar Documents

Publication Publication Date Title
JP2019046380A (ja) 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム
KR102252081B1 (ko) 이미지 특성의 획득
US9852358B2 (en) Information processing device, information processing method, and information processing system
JP6835218B2 (ja) 群衆状態認識装置、学習方法および学習プログラム
US11138419B2 (en) Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium
US10586330B2 (en) Detection of outlier lesions based on extracted features from skin images
JP2017059207A (ja) 画像認識方法
JP7166784B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN105096281A (zh) 图像处理装置及图像处理方法
JP2017146840A (ja) 画像処理装置およびプログラム
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018116364A (ja) 辞書生成装置、評価装置、辞書生成方法、評価方法及びプログラム
WO2019146651A1 (ja) 計算手法決定システム、計算手法決定装置、処理装置、計算手法決定方法、処理方法、計算手法決定プログラム、及び、処理プログラム
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
JP2016031747A (ja) 情報処理装置、情報処理方法
US20200098450A1 (en) Predicting device, predicting method, predicting program, learning model input data generating device, and learning model input data generating program
WO2018033952A1 (ja) パノラマ画像合成解析システム、パノラマ画像合成解析方法及びプログラム
CN110610228A (zh) 信息处理装置、信息处理方法及记录介质
JP2020204880A (ja) 学習方法、プログラム及び画像処理装置
KR102504319B1 (ko) 영상 객체 속성 분류 장치 및 방법
US11182650B2 (en) Information processing apparatus to generate a next generation image processing program in genetic programming, control method, and non-transitory computer-readable storage medium for storage program
JP5570895B2 (ja) 検出器構成装置、方法、及びプログラム
JP6442873B2 (ja) 指紋画像処理装置、指紋画像処理方法及びプログラム
JP7200571B2 (ja) 機械学習方法、機械学習装置および機械学習プログラム
JP2020126523A (ja) 画像切出装置、画像解析装置及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210420

R151 Written notification of patent or utility model registration

Ref document number: 6883787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151