JP7159955B2 - 分類装置、分類方法及び分類プログラム - Google Patents
分類装置、分類方法及び分類プログラム Download PDFInfo
- Publication number
- JP7159955B2 JP7159955B2 JP2019075317A JP2019075317A JP7159955B2 JP 7159955 B2 JP7159955 B2 JP 7159955B2 JP 2019075317 A JP2019075317 A JP 2019075317A JP 2019075317 A JP2019075317 A JP 2019075317A JP 7159955 B2 JP7159955 B2 JP 7159955B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- classification
- input
- label
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、分類装置、分類方法及び分類プログラムに関する。
深層学習、ディープニューラルネットワークは、画像認識や音声認識などで大きな成功を収めている(例えば、非特許文献1参照)。例えば、深層学習を使った画像認識では、深層学習の多数の非線形関数を含んだモデルに画像を入力すると、その画像が何を写しているのかという分類結果を出力する。
しかしながら、悪意ある攻撃者が、モデルに最適なノイズを入力画像に加えると、小さなノイズで簡単に深層学習を誤分類させることができる(例えば、非特許文献2参照)。これは敵対的攻撃と呼ばれており、FGSM(Fast Gradient Sign Method)やPGD(Projected Gradient Descent)などの攻撃方法が報告されている(例えば、非特許文献3,4参照)。
この敵対的攻撃に対して頑健な性質をモデルに持たせるためには、ラベルとの相関の強い入力の要素のみを用いればよいことが示唆されている(例えば、非特許文献5参照)。
Ian Goodfellow, Yoshua Bengio, and Aaron Courville, "Deep learning", MIT press, 2016.
Christian Szegedy, et al, "Intriguing properties of neural networks", arXiv preprint: 1312. 6199, 2013.
Ian J. Goodfellow, et al., "EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES", arXiv preprint: 1412.6572, 2014.
Aleksander Madry, et al., "Towards Deep Learning Models Resistant to Adversarial Attacks", arXiv preprint: 1706.06083, 2017.
Dimitris Tsipras, et al., "Robustness May Be at Odds with Accuracy", arXiv preprint: 1805.12152, 2018.
このように、深層学習が敵対的攻撃に脆弱で誤分類してしまうという問題があった。また、深層学習が複雑な非線形関数で構成されているため、何かを分類した際の判断理由が不明瞭であるという問題があった。
本発明は、上記に鑑みてなされたものであって、頑健であり、入力の中でどの要素を使用してクラス分類を行ったか解釈が容易である分類装置、分類方法及び分類プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る分類装置は、クラス分類を行うモデルであって深層学習モデルである第1のモデルを用いて、クラス分類を行う分類部と、分類部の前段に設けられ、教師データの入力に対するラベルと第1のモデルの出力との関係を評価する損失関数と、分類部への入力の大きさと、の和を最小化する第2のモデルを用いて、第1のモデルの入力を選別する前処理部と、を有することを特徴とする。
本発明によれば、頑健であり、入力の中でどの要素を使用してクラス分類を行ったか解釈が容易である。
以下、図面を参照して、本発明の一実施の形態を詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[深層学習モデル]
まず、深層学習モデルについて説明する。図1は、深層学習モデルを説明する図である。図1に示すように、深層学習のモデルは信号の入る入力層、入力層からの信号を様々に変換する1層または複数の中間層、及び、中間層の信号を確率などの出力に変換する出力層からなる。
まず、深層学習モデルについて説明する。図1は、深層学習モデルを説明する図である。図1に示すように、深層学習のモデルは信号の入る入力層、入力層からの信号を様々に変換する1層または複数の中間層、及び、中間層の信号を確率などの出力に変換する出力層からなる。
入力層には入力データが入力される。また、出力層からは各クラスの確率が出力される。例えば、入力データは、所定の形式で表現された画像データである。また、例えば、クラスが車、船、犬、猫についてそれぞれ設定されている場合、出力層からは、入力データの元になった画像に写っているものが車である確率、船である確率、犬である確率及び猫である確率がそれぞれ出力される。
[従来の分類器の学習方法]
深層学習モデルを有する分類器の従来の学習について説明する。図2は、従来の分類器の学習処理の処理手順を示すフローチャートである。
深層学習モデルを有する分類器の従来の学習について説明する。図2は、従来の分類器の学習処理の処理手順を示すフローチャートである。
図2に示すように、従来の学習処理では、予め用意したデータセットからランダムに入力とラベルとを選択し、分類器に入力を印加する(ステップS1)。そして、従来の学習処理では、分類器の出力を計算し、その出力とデータセットのラベルとを使用して損失関数を計算する(ステップS2)。
従来の学習処理では、計算される損失関数が小さくなるように学習し、損失関数の勾配を使って分類器のパラメータを更新する(ステップS3)。損失関数は、通常、分類器の出力とラベルとが一致するほど小さくなる関数を設定するため、これにより分類器が入力のラベルを分類できるようになる。
そして、従来の学習処理では、別途用意したデータセットを正しく分類できるかどうかなどを評価基準とする。従来の学習処理では、評価基準を満たさない場合には(ステップS4:No)、ステップS1に戻り学習を継続し、評価基準を満たす場合には(ステップS4:Yes)、学習を終了する。
[深層学習による画像認識]
分類処理の一例として、深層学習による画像認識処理について説明する。ここで、深層学習において、画像x∈RC×H×Wを認識し、M個のラベルから、その画像のラベルyを求める問題を考える。ここで、xは列ベクトルで表され、Rは行列で表される。Cは画像のチャネル(RGB式の場合は3チャネル)、Hは縦の大きさ、Wは横の大きさとする。
分類処理の一例として、深層学習による画像認識処理について説明する。ここで、深層学習において、画像x∈RC×H×Wを認識し、M個のラベルから、その画像のラベルyを求める問題を考える。ここで、xは列ベクトルで表され、Rは行列で表される。Cは画像のチャネル(RGB式の場合は3チャネル)、Hは縦の大きさ、Wは横の大きさとする。
このとき、深層学習のモデルの出力f(x,θ)∈RMは、各ラベルに対するスコアを表し、式(1)によって得られる最も大きなスコアを持つ出力の要素が、深層学習の認識結果である。ここで、f,θは、列ベクトルで表される。
画像認識は、クラス分類の一つであり、分類を行うfを分類器と呼ぶ。ここで、θは、深層学習のモデルのパラメータであり、このパラメータは、事前に用意したN個のデータセット{(xi,yi)},i=1,・・・,Nから学習する。この学習では、クロスエントロピーなどの、yi=maxjfj(x)と正しく認識できるほど小さな値となるような損失関数L(x,y,θ)を設定し、式(2)に示す最適化を行ってθを求める。
[敵対的攻撃]
深層学習の認識は脆弱性を持っており、敵対的攻撃によって誤認識させることができる。敵対的攻撃は、式(3)に示す最適化問題で定式化される。
深層学習の認識は脆弱性を持っており、敵対的攻撃によって誤認識させることができる。敵対的攻撃は、式(3)に示す最適化問題で定式化される。
||・||pはlpノルムであり、pとしてp=2やp=∞が主に用いられる。これは誤って認識する最もノルムの小さなノイズを求めるという問題であり、FGSMやPGDなどのモデルの勾配を使った攻撃方法が提案されている。
[相関の強弱と頑健性との関係]
敵対的攻撃に対して頑健な性質をモデルに持たせるためには、ラベルとの相関の強い要素のみを入力として用いればよい。このため、本実施の形態では、入力のうちラベルとの相関の強い要素のみをモデルに入力させるようにすることによって、モデルに頑健性を持たせている。そこで、入力する要素の特徴量に対するラベルとの相関とモデルの頑健性とについて説明する。
敵対的攻撃に対して頑健な性質をモデルに持たせるためには、ラベルとの相関の強い要素のみを入力として用いればよい。このため、本実施の形態では、入力のうちラベルとの相関の強い要素のみをモデルに入力させるようにすることによって、モデルに頑健性を持たせている。そこで、入力する要素の特徴量に対するラベルとの相関とモデルの頑健性とについて説明する。
次の分類問題を考える。入力x∈Rd+1と、ラベルのペア(x,y)が式(4)のような分布Dに従うとする。
ただし、N(ηy,1)は、平均ηy分散1の正規分布であり、p≧0.5である。また、xiは、入力のi番目の要素(特徴量)である。ηは、このxに対する線形分類器f(x)=sign(wTx)が99%以上となるのに十分な大きさとし、例えば、η=Θ(1/√d)とする。x1は、yに高い確率pでラベルと相関しており、ここでは、p=0.95とする。なお、行ベクトルwはパラメータである。
このとき、通常の最適な線形分類器は、式(5)となる。
このとき、式(6)は、η≧3/√dのとき、99%より大きくなる。
しかしながら、ここで、||δ||∞=2ηの敵対的攻撃を加えると,xi+δi~N(-ηy,1),i=2,・・・,d+1とできる。すると、上述のモデルの正答率は1%より小さくなり,敵対的攻撃に脆弱であることが分かる。
一方、式(7)に示す線形分類器について説明する。
εが1より小さいと、通常の正答率及び上記の敵対的攻撃がともにpの確率となり、p=0.95とすると95%の正答率を双方で達成できる。
以上より、ラベルとの相関が弱いが多数あるx2,・・・,xd+1という特徴量を用いると通常の正答率は高くなるが敵対的攻撃に脆弱となることが分かる。一方、ラベルとの相関が強いが一つしかない特徴量x1のみを使うことで敵対的攻撃に頑健になることが分かる。
このことから、本実施の形態では、モデルへの入力として、ラベルとの相関の弱い要素は使用せず、ラベルとの相関の強い要素のみを用いるようにすることで、敵対的攻撃に対して頑健なモデルを構築する。
[実施の形態]
次に、実施の形態について説明する。本実施の形態では、前述のラベルとの相関の強い要素のみをモデルの入力に使うという考えを援用して、自動的に、ラベルとの相関が強い要素のみが分類器に入力されるように学習するようなマスクモデルを、分類部のモデルの前段に設ける。
次に、実施の形態について説明する。本実施の形態では、前述のラベルとの相関の強い要素のみをモデルの入力に使うという考えを援用して、自動的に、ラベルとの相関が強い要素のみが分類器に入力されるように学習するようなマスクモデルを、分類部のモデルの前段に設ける。
図3は、実施の形態に係る分類装置の構成の一例を示すブロック図である。図3に示す分類装置10は、ROM(Read Only Memory)、RAM(Random Access Memory)、CPU(Central Processing Unit)等を含むコンピュータ等に所定のプログラムが読み込まれて、CPUが所定のプログラムを実行することで実現される。また、分類装置10は、NIC(Network Interface Card)等を有し、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置との間の通信を行うことも可能である。
分類装置10は、前処理部11と分類部12と学習部13とを有する。前処理部11は、深層学習モデルであるマスクモデル111(第2のモデル)を有する。分類部12は、深層学習モデルであるモデル121(第1のモデル)を有する。
前処理部11は、分類部12の前段に設けられ、マスクモデル111を用いて、モデル121の入力を選別する。マスクモデル111は、教師データの入力に対するラベルとモデル111の出力との関係を評価する損失関数と、分類部12への入力の大きさと、の和を最小化するモデルである。
分類部12は、モデル121を用いてクラス分類を行う。モデル121は、クラス分類を行うモデルであって深層学習モデルである。
学習部13は、教師データを学習し、損失関数と分類部12への入力の大きさとの和を最小化するようにモデル121及びマスクモデル111のパラメータを更新する。学習部13は、後述するように、二値を取る確率分布であるベルヌーイ分布の近似を用いて損失関数の勾配を求める。
このように、分類装置10は、教師データの入力に対するラベルとモデル121の出力との関係を評価する損失関数と、分類部12への入力の大きさと、の和を最小化するようにマスクモデル111を用いて、ラベルとの相関の強い入力を選別して、分類部12のモデル121に入力する。言い換えると、分類装置10は、マスクモデル111を用いて、ラベルとの相関が弱い不要な入力を、モデル121の前段でマスクしている。
[モデル構造の概要]
図4は、実施の形態におけるモデル構造の概要を説明する図である。図4に示すように、分類装置10では、深層学習の分類器f(・)(モデル121)の前段に、入力xのうち必要な入力のみを選別するマスクモデルg(・)(マスクモデル111)を設ける。マスクモデルgは、入力xをマスクして、必要な入力xに対しては1を付与し、不要な入力xに対しては0を付与する。そして、分類装置10は、入力xとマスクモデルg(・)の出力とを乗じた値を、分類器f(・)に入力することによって、式(8)に示す出力を得る。
図4は、実施の形態におけるモデル構造の概要を説明する図である。図4に示すように、分類装置10では、深層学習の分類器f(・)(モデル121)の前段に、入力xのうち必要な入力のみを選別するマスクモデルg(・)(マスクモデル111)を設ける。マスクモデルgは、入力xをマスクして、必要な入力xに対しては1を付与し、不要な入力xに対しては0を付与する。そして、分類装置10は、入力xとマスクモデルg(・)の出力とを乗じた値を、分類器f(・)に入力することによって、式(8)に示す出力を得る。
ここで、列ベクトルg(x)の大きさは、H×Wとし、入力の画像サイズと同じ大きさで1チャネルとする。また、式(8)の白丸の中心に点を有する記号は、入力xの全てのチャネルに対して、g(x)と要素ごとの積をとる演算とする。
gi(x)=0または1とすれば、入寮xの必要な画像ピクセルのみを選択するマスクモデルになる。しかしながら、このモデルでは、ステップ関数などの{0,1}をとる関数は微分が計算できず、勾配を使って学習する深層学習には適さない。
この問題を解決するため、本実施の形態では、gumbel max trickを使ったベルヌーイ分布の近似を用いる。ベルヌーイ分布B(・)とは、二値をとる確率分布であり、ベルヌーイ分布を出力とすることで、gi(x)=0または1を実現できる。この場合も、ステップ関数と同様に勾配の計算ができないが、式(9)~式(11)のような近似計算が存在する。
ここで、Uは、一様分布である。σはシグモイド関数で微分可能な関数であり、列ベクトルで表される。また、P(Dσ(α)=1)は、パラメータσ(α)をもつベルヌーイ分布B(σ(α))からサンプルされたDσ(α)が1をとる確率である。P(G(α,τ)=1)は、G(α,τ)が1をそれぞれとる確率である。Uを一様分布からサンプリングしながら計算すれば、G(α,τ)のαに関する勾配が計算できる。
図5は、マスクモデルに対する処理の流れについて説明する図である。本実施の形態では、この関数を出力とした深層学習のマスクモデルg(x)を、分類器fの前段に設ける。この結果、ラベルとの相関が強い入力は、分類器fの入力として選別され、ラベルとの相関が弱い不要な入力は、モデル121の前段でマスクされる。分類装置10は、分類器fの入力として選別された入力に対し、学習中である場合には(ステップS10:Yes)、Gumbel Softmaxを使用し、式(10)を適用して損失関数の勾配を求め、モデル121及びマスクモデル111のパラメータを更新する。また、分類装置10は、学習ではなく(ステップS10:No)、実際に推論する場合、すなわち、分類を行う場合には、分類器fの入力として選別された入力に対し、ベルヌーイ分布を用いてクラス分類を行う。
ここで、式(8)に示す分類器fの出力を通常通り学習させると、g(x)は、全て1となるように学習してしまい、入力を選別するようにならない。
このため、本実施の形態では、学習時の目的関数を式(12)とする。
式(12)の第1項は、教師データの入力に対するラベルとモデル121の出力との関係を評価する損失関数である。式(12)の第2項は、分類部12への入力の大きさを示す関数であり、gが0をとるほど小さくなるような関数である。式(12)の第2項に対し、たとえば、式(13)とする。λは、その関数の強さを調整するパラメータである。
このように、式(12)は、教師データの入力に対するラベルとモデル121の出力との関係を評価する損失関数と、分類部12への入力の大きさと、の和を最小化する関数であり、モデル121に適用される。学習部13は、この式(12)をマスクモデルgに学習させて0または1を出力させることによって、分類器fに必要な入力をマスクモデルgに自動的に選別させる。
具体的に、マスクモデルgが0を出力した場合、この入力の要素との積は0となり、分類部12の入力として選択されない。言い換えると、この入力の要素は、ラベルとの相関が弱い不要な入力としてマスクされる。一方、マスクモデルgが1を出力した場合、この入力の要素がそのまま分類部12に入力されることから、この入力の要素は分類部12の入力として選択されることになる。言い換えると、この入力の要素は、ラベルとの相関が強い入力として選別され、分類部12に入力される。
[学習処理]
次に、マスクモデル111及びモデル121に対する学習処理について説明する。図6は、実施の形態における学習処理の処理手順を示すフローチャートである。
次に、マスクモデル111及びモデル121に対する学習処理について説明する。図6は、実施の形態における学習処理の処理手順を示すフローチャートである。
図6に示すように、学習部13は、予め用意したデータセットからランダムに入力とラベルとを選択し、マスクモデル111に入力を印加する(ステップS11)。学習部13は、マスクモデル111の出力を計算し、元の入力と要素毎の積を計算させる(ステップS12)。マスクモデル111の出力は、0または1である。マスクモデル111の出力が0である場合、元の入力との積は0となり、元の入力は、モデル121に入力される前にマスクされる。また、マスクモデル111の出力が1である場合、元の入力がそのままモデル121に入力される。
学習部13は、分類部12のモデル121に、マスクモデル111によって選別された入力を印加する(ステップS13)。学習部13は、分類部12のモデル121の出力とマスクモデル111の出力とを目的関数(式(12)参照)に入力する(ステップS14)。
学習部13は、損失関数の勾配(式(10)参照)を使ってマスクモデル111、分類部12のモデル121のパラメータを更新する(ステップS15)。そして、学習部13は、別途用意したデータセットを正しく分類できるかどうかなどを評価基準とする。学習部13は、評価基準を満たさないと判定した場合(ステップS16:No)、ステップS1に戻り学習を継続する。一方、学習部13は、評価基準を満たすと判定した場合(ステップS16:Yes)、学習を終了する。
[実施の形態の効果]
このように、分類装置10は、教師データの入力に対するラベルとモデル121の出力との関係を評価する損失関数と、分類部12への入力の大きさと、の和を最小化するようにマスクモデル111を用いて、ラベルとの相関が強い入力を選別して分類部12のモデル121に入力している。言い換えると、分類装置10は、モデル121の前段で、マスクモデル111によって、ラベルとの相関が弱い不要な入力をマスクしている。したがって、分類装置10によれば、分類部12のモデル121は、ラベルとの相関が強い要素が入力されるため、誤分類することなくクラス分類を行うことができ、敵対的攻撃に対しても頑健である。
このように、分類装置10は、教師データの入力に対するラベルとモデル121の出力との関係を評価する損失関数と、分類部12への入力の大きさと、の和を最小化するようにマスクモデル111を用いて、ラベルとの相関が強い入力を選別して分類部12のモデル121に入力している。言い換えると、分類装置10は、モデル121の前段で、マスクモデル111によって、ラベルとの相関が弱い不要な入力をマスクしている。したがって、分類装置10によれば、分類部12のモデル121は、ラベルとの相関が強い要素が入力されるため、誤分類することなくクラス分類を行うことができ、敵対的攻撃に対しても頑健である。
また、分類装置10では、マスクモデル111によって、ラベルとの相関が弱い不要な入力がマスクされ、分類部12のモデル121には、ラベルとの相関が強い要素が入力される。このため、分類装置10では、入力の中でどの要素を使用して分類したか解釈が容易である。
[実施形態のシステム構成について]
図1に示した分類装置10の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、分類装置10の機能の分散および統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散または統合して構成することができる。
図1に示した分類装置10の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、分類装置10の機能の分散および統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散または統合して構成することができる。
また、分類装置10においておこなわれる各処理は、全部または任意の一部が、CPUおよびCPUにより解析実行されるプログラムにて実現されてもよい。また、分類装置10においておこなわれる各処理は、ワイヤードロジックによるハードウェアとして実現されてもよい。
また、実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的に行うこともできる。もしくは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上述および図示の処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて適宜変更することができる。
[プログラム]
図7は、プログラムが実行されることにより、分類装置10が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
図7は、プログラムが実行されることにより、分類装置10が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、分類装置10の各処理を規定するプログラムは、コンピュータ1000により実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、分類装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施の形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施の形態について説明したが、本実施の形態による本発明の開示の一部をなす記述及び図面により本発明は限定されることはない。すなわち、本実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれる。
10 分類装置
11 前処理部
12 分類部
13 学習部
111 マスクモデル
121 モデル
11 前処理部
12 分類部
13 学習部
111 マスクモデル
121 モデル
Claims (5)
- クラス分類を行うモデルであって深層学習モデルである第1のモデルを用いて、クラス分類を行う分類部と、
前記分類部の前段に設けられ、教師データの入力に対するラベルと前記第1のモデルの出力との関係を評価する損失関数と、前記分類部への入力の大きさと、の和を最小化する第2のモデルを用いて、前記第1のモデルの入力を選別する前処理部と、
を有することを特徴とする分類装置。 - 前記教師データを学習し、前記損失関数と前記分類部への入力の大きさとの和を最小化するように前記第1のモデル及び前記第2のモデルのパラメータを更新する学習部をさらに有することを特徴とする請求項1に記載の分類装置。
- 前記学習部は、二値を取る確率分布であるベルヌーイ分布の近似を用いて前記損失関数の勾配を求めることを特徴とする請求項2に記載の分類装置。
- 分類装置が実行する分類方法であって、
クラス分類を行うモデルであって深層学習モデルである第1のモデルを用いて、クラス分類を行う分類工程と、
前記分類工程の前に実行され、教師データの入力に対するラベルと前記第1のモデルの出力との関係を評価する損失関数と、前記分類工程への入力の大きさとの和を最小化する第2のモデルを用いて、前記第1のモデルの入力を選別する前処理工程と、
を含んだことを特徴とする分類方法。 - クラス分類を行うモデルであって深層学習モデルである第1のモデルを用いて、クラス分類を行う分類ステップと、
前記分類ステップの前に実行され、教師データの入力に対するラベルと前記第1のモデルの出力との関係を評価する損失関数と、前記分類ステップへの入力の大きさとの和を最小化する第2のモデルを用いて、前記第1のモデルの入力を選別する前処理ステップと、
をコンピュータに実行させることを特徴とする分類プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019075317A JP7159955B2 (ja) | 2019-04-11 | 2019-04-11 | 分類装置、分類方法及び分類プログラム |
PCT/JP2020/013689 WO2020209087A1 (ja) | 2019-04-11 | 2020-03-26 | 分類装置、分類方法及び分類プログラム |
US17/602,282 US20220164604A1 (en) | 2019-04-11 | 2020-03-26 | Classification device, classification method, and classification program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019075317A JP7159955B2 (ja) | 2019-04-11 | 2019-04-11 | 分類装置、分類方法及び分類プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020173624A JP2020173624A (ja) | 2020-10-22 |
JP7159955B2 true JP7159955B2 (ja) | 2022-10-25 |
Family
ID=72751096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019075317A Active JP7159955B2 (ja) | 2019-04-11 | 2019-04-11 | 分類装置、分類方法及び分類プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220164604A1 (ja) |
JP (1) | JP7159955B2 (ja) |
WO (1) | WO2020209087A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019459A1 (en) | 2014-07-18 | 2016-01-21 | University Of Southern California | Noise-enhanced convolutional neural networks |
JP2016109495A (ja) | 2014-12-03 | 2016-06-20 | タカノ株式会社 | 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム |
JP2018005640A (ja) | 2016-07-04 | 2018-01-11 | タカノ株式会社 | 分類器生成装置、画像検査装置、及び、プログラム |
JP2018010626A (ja) | 2016-06-30 | 2018-01-18 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
-
2019
- 2019-04-11 JP JP2019075317A patent/JP7159955B2/ja active Active
-
2020
- 2020-03-26 US US17/602,282 patent/US20220164604A1/en active Pending
- 2020-03-26 WO PCT/JP2020/013689 patent/WO2020209087A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019459A1 (en) | 2014-07-18 | 2016-01-21 | University Of Southern California | Noise-enhanced convolutional neural networks |
JP2016109495A (ja) | 2014-12-03 | 2016-06-20 | タカノ株式会社 | 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム |
JP2018010626A (ja) | 2016-06-30 | 2018-01-18 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP2018005640A (ja) | 2016-07-04 | 2018-01-11 | タカノ株式会社 | 分類器生成装置、画像検査装置、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220164604A1 (en) | 2022-05-26 |
WO2020209087A1 (ja) | 2020-10-15 |
JP2020173624A (ja) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Stark et al. | Captcha recognition with active deep learning | |
Gao et al. | HEp-2 cell image classification with deep convolutional neural networks | |
CN107943856A (zh) | 一种基于扩充标记样本的文本分类方法及系统 | |
CN111126226B (zh) | 一种基于小样本学习和特征增强的辐射源个体识别方法 | |
CN111126115A (zh) | 暴力分拣行为识别方法和装置 | |
Akhand et al. | Convolutional Neural Network based Handwritten Bengali and Bengali-English Mixed Numeral Recognition. | |
CN112232395B (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
Zhu et al. | Solar filament recognition based on deep learning | |
KR20200071865A (ko) | 차원 축소에 기반한 영상 객체 인식 시스템 및 방법 | |
CN110163206B (zh) | 车牌识别方法、系统、存储介质和装置 | |
CN113344069B (zh) | 一种基于多维关系对齐的无监督视觉表征学习的图像分类方法 | |
US20220261641A1 (en) | Conversion device, conversion method, program, and information recording medium | |
Rawf et al. | A comparative technique using 2D CNN and transfer learning to detect and classify Arabic-script-based sign language | |
CN114048843A (zh) | 一种基于选择性特征迁移的小样本学习网络 | |
CN112750128B (zh) | 图像语义分割方法、装置、终端及可读存储介质 | |
JP7159955B2 (ja) | 分類装置、分類方法及び分類プログラム | |
Tan et al. | Wide Residual Network for Vision-based Static Hand Gesture Recognition. | |
WO2020235011A1 (ja) | 学習装置、学習方法及び学習プログラム | |
Kishan et al. | Handwritten character recognition using CNN | |
CN113592045B (zh) | 从印刷体到手写体的模型自适应文本识别方法和系统 | |
CN115797642A (zh) | 基于一致性正则化与半监督领域自适应图像语义分割算法 | |
Neekhara et al. | Adversarial reprogramming of sequence classification neural networks | |
Ge et al. | Multi-grained cascade adaboost extreme learning machine for feature representation | |
CN113486736A (zh) | 一种基于活跃子空间与低秩进化策略的黑盒对抗攻击方法 | |
Kim et al. | Hidden conditional ordinal random fields for sequence classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7159955 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |