JP2015032308A - 畳み込みニューラルネットワークの分類器、及びその分類方法、訓練方法 - Google Patents
畳み込みニューラルネットワークの分類器、及びその分類方法、訓練方法 Download PDFInfo
- Publication number
- JP2015032308A JP2015032308A JP2014152783A JP2014152783A JP2015032308A JP 2015032308 A JP2015032308 A JP 2015032308A JP 2014152783 A JP2014152783 A JP 2014152783A JP 2014152783 A JP2014152783 A JP 2014152783A JP 2015032308 A JP2015032308 A JP 2015032308A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- convolutional neural
- classifier
- regions
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Abstract
【課題】充分な柔軟性を有する畳み込みニューラルネットワークの分類器、該畳み込みニューラルネットワークの分類器を用いる方法及び該畳み込みニューラルネットワークの分類器の訓練方法を提供する。
【解決手段】畳み込みニューラルネットワークの分類器は、少なくとも1つの特徴図の層の少なくとも1つの特徴図が複数の領域に区分された複数の特徴図の層と、複数の領域にそれぞれ対応し、対応する領域におけるニューロンの応答値を取得する複数の緩い畳み込みテンプレートとを含む。
【選択図】図2
【解決手段】畳み込みニューラルネットワークの分類器は、少なくとも1つの特徴図の層の少なくとも1つの特徴図が複数の領域に区分された複数の特徴図の層と、複数の領域にそれぞれ対応し、対応する領域におけるニューロンの応答値を取得する複数の緩い畳み込みテンプレートとを含む。
【選択図】図2
Description
本発明は、画像認識分野に関し、具体的に、畳み込みニューラルネットワークの分類器、畳み込みニューラルネットワークの分類器を用いる分類方法、及び畳み込みニューラルネットワークの分類器の訓練方法に関する。
畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の分類器は、常に画像認識に用いられる。図1は、従来の畳み込みニューラルネットワークの分類器を示し、図4乃至図7は、従来の畳み込みニューラルネットワークの分類器によりニューロンの応答値を算出するプロセスを示している。該従来の畳み込みニューラルネットワークの分類器により認識を行うプロセスでは、手書きの数字を例として、1つの画像を入力して、畳み込み、空間最大サンプリング及び全連結の処理を複数回繰り返した後で、畳み込みニューラルネットワーク分類器が各数字についての信頼度を出力し、信頼度の最も高い出力が認識の結果である。図1、図4乃至図7における各ブロック、例えばF1、F2及びF3は特徴図であり、入力画像も特徴図と見なされてもよい。
上記の方法では、畳み込み操作の機能は、前の層の特徴図から特徴を抽出することである。しかし、従来の畳み込みニューラルネットワークの分類器の畳み込み操作は、抽出された特徴の数がある程度限定されているため、畳み込みニューラルネットワークの分類器の構成が十分な柔軟性を有していない。
よって、上記課題を解決できる技術が望ましい。
以下、本発明の主旨を理解させるため、本発明を簡単に説明する。なお、これらの説明は、本発明を限定するものではない。以下の説明は、本発明の肝心又は重要な部分を決定するものではなく、本発明の範囲を限定することではない。その目的は、その後の詳しい説明の前文として、ある概念を簡単に説明するものに過ぎない。
本発明は、畳み込みニューラルネットワークの分類器、畳み込みニューラルネットワークの分類器を用いる分類方法、及び畳み込みニューラルネットワークの分類器の訓練方法を提供することを1つの主な目的とする。
本発明の一の実施例では、少なくとも1つの特徴図の層の少なくとも1つの特徴図が複数の領域に区分された複数の特徴図の層と、前記複数の領域にそれぞれ対応し、対応する領域におけるニューロンの応答値を取得する複数の畳み込みテンプレートと、を含む、畳み込みニューラルネットワークの分類器を提供する。
本発明の他の実施例では、畳み込みニューラルネットワークの分類器を用いる分類方法であって、前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、前記分類方法は、前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、分類対象を前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、前記出力結果に基づいて前記分類対象を分類するステップと、を含む、分類方法を提供する。
本発明の他の実施例では、畳み込みニューラルネットワークの分類器の訓練方法であって、前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、前記訓練方法は、前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、既知の標識を有する訓練サンプルを前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、前記出力結果と前記既知の標識との差に基づいて逆方向伝播を行い、前記畳み込みテンプレートにおける加重値を含む前記畳み込みニューラルネットワークの分類器のパラメータを補正するステップと、所定の条件が満たされるまで、上記のステップを繰り返すステップと、を含む、訓練方法を提供する。
また、本発明の実施例は、上記の方法を実施するコンピュータプログラムをさらに提供する。
また、本発明の実施例は、上記の方法を実施するコンピュータプログラムを記録する、少なくともコンピュータ読み取り可能な媒体の形式のコンピュータプログラムプロダクトをさらに提供する。
図面による本発明に対する以下の説明を参照すると、本発明の上記及び他利点がより明らかになるであろう。
下記図面の詳細の説明を通じて、本発明の実施例の上記の目的、他の目的、特徴及び利点はより明確になる。図面におけるユニットは、単なる本発明の原理を示すものである。図面において、同一又は類似する技術的特徴又はユニットは、同一又は類似する記号で示されている。
従来の畳み込みニューラルネットワークの分類器を示す図である。
本発明の実施例に係る畳み込みニューラルネットワークの分類器を示す図である。
図1又は図2から選択された局所を示す図である。
従来の畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
従来の畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
従来の畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
従来の畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
本発明の実施例に係る畳み込みニューラルネットワークの分類器の特徴図の区分方式を示す図である。
本発明の実施例に係る畳み込みニューラルネットワークの分類器の訓練方法のフローチャートである。
本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いる分類方法のフローチャートである。
本発明に係る畳み込みニューラルネットワークの分類器を用いる分類方法及び畳み込みニューラルネットワークの分類器の訓練方法の実施に適用できる計算機器の例の構成を示す図である。
以下、図面を参照しながら本発明の例示的な実施例を詳細に説明する。本発明のある図面またはある実施形態に記載の要素と技術的特徴は、1つまたは複数の他の図面または実施形態における要素と技術的特徴と組み合せることができる。また、注意すべきなのは、明瞭に説明するために、図面および明細書には本発明に関係のない、当業者が既知の要素と処理の表示と記載が省略されている。
図2は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を示す図であり、図3は、図1又は図2から選択された局所を示す図であり、図8乃至図11は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いてニューロンの応答値を計算するプロセスを示す図である。
図2、図3、及び図8乃至図11に示すように、本発明の実施例に係る畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図は、複数の領域に区分されている。本発明の実施例に係る畳み込みニューラルネットワークの分類器は、複数の畳み込みテンプレートをさらに含み、これらの畳み込みテンプレートは、区分された複数の領域にそれぞれ対応し、各畳み込みテンプレートは、対応する領域におけるニューロンの応答値を取得するために用いられる。
具体的には、図2に示す畳み込みニューラルネットワークの分類器は、図1に示す従来の畳み込みニューラルネットワークの分類器に比べて、図2における緩い畳み込み操作1’及び2’それぞれが図1における畳み込み操作1及び2に取って代わる。また、図1に比べて、図2では、全連結操作の前にもう1つの緩い畳み込み操作3’を追加している。図2における緩い畳み込み操作は、上述した複数の畳み込みテンプレートを用いて畳み込みを行う操作である。
本文における「緩い畳み込み操作」という用語は、同一特徴図におけるニューロンの応答値を算出する際に異なる畳み込みテンプレートを用いることを意味し、該特徴図が位置する層を「緩い畳み込み層」と称する。
他の実施例では、畳み込みニューラルネットワークの分類器のネットワーク構造を適切に調整してもよく、例えば、「緩い畳み込み−空間最大サンプリング」の操作セットの数を増加或いは減少させてもよいし、全連結操作の数を増加或いは減少させてもよいし、個別に現れる緩い畳み込み操作の数を増加或いは減少させてもよいし、空間最大サンプリング操作の代わりに空間サブサンプリング操作を行ってもよい。
緩い畳み込み操作をより具体的に説明するため、図2における特徴図F1、F2及びF3の局所を例として選択して説明する。図2から選択された局所は、図3に示されている。図3に示すように、隣接する2つの層、L層とL+1層が選択された。以下は、図3を参照しながら、従来の畳み込みニューラルネットワークの分類器と本発明に係る畳み込みニューラルネットワークの分類器とを比較する。
図4乃至図7は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT1、T2、T3及びT4の応答値(それに応じて、応答値もT1、T2、T3及びT4と標記する)を算出するプロセスを示している。図8乃至図11は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT1、T2、T3及びT4の応答値(それに応じて、応答値もT1、T2、T3及びT4と標記する)を算出するプロセスを示している。以下は、比較しながら本発明の実施例に係る畳み込みニューラルネットワークの分類器を説明する。
先ず、理解させるために、図4乃至図11について以下の5点を説明する。
(1)図4乃至図11における丸のそれぞれは、1つのニューロンを表す。
(2)図4乃至図11におけるw値は、全て畳み込みテンプレート値であり、ニューラルネットワーク訓練では、後方伝播により全てのw値を学習する。
(3)図4乃至図11における全ての畳み込みテンプレートのサイズは2×2であるが、実際に用いる場合は、畳み込みテンプレートのサイズは任意の値であってもよい。
(4)図8乃至図11におけるL+1層の特徴図F3の破線は、特徴図F3の全てのニューロンが2つの種類に区分されていることを表し、各ニューロンは同じテンプレートを用いる、即ちT1及びT2は1組の畳み込みテンプレートを用い、T3及びT4はもう1組の畳み込みテンプレートを用いる。なお、1つの特徴図におけるニューロンが区分された数は任意に指定されてもよく、区分の方式は具体的なタスクに応じて決定されてもよい。例えば、手書き文字認識について、字画の画素の密度分布に基づいて区分されてもよい。各種の区分方式は後述する。
図4乃至図11の下方には、ニューロンT1、T2、T3及びT4の応答値を算出するための具体的な式が示されている。L+1層のニューロンの応答値の算出プロセスは、L層に移動ウィンドウを設定し、L層の移動ウィンドウにおけるニューロンの応答値に対応する畳み込みテンプレート値を乗算する。式におけるb、b1、b2はオフセット(ニューラルネットワークの訓練プロセスにおいて後方伝播により学習される)を表す。式における関数Func()は非線形的変換関数を表し、従来方法は双曲線正接関数をよく用い、本発明の実施例は、収束速度を速くするため、非線形的切り捨て関数(truncation function)を用いもよいが、詳細は後述する。
先ず、図4乃至図7を参照しながら、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT1、T2、T3及びT4の応答値(それに応じて、応答値もT1、T2、T3及びT4と標記する)を算出するプロセスを説明する。
図4は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT1の応答値を算出するプロセスを示している。図4に示すように、従来の畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS1、S2、S4、S5(即ち特徴図F1の左上の4つのニューロン)の応答値(それに応じて、応答値もS1、S2、S4及びS5と標記する)と特徴図F2のニューロンS10、S11、S13、S14(即ち特徴図F2の左上の4つのニューロン)の応答値(それに応じて、応答値もS10、S11、S13及びS14と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT1の応答値を取得する。従って、応答値T1は以下のとおりである。
T1=Func(w1*S1+w2*S2+w3*S4+w4*S5+w5*S10+w6*S11+w7*S13+w8*S14)+b (1)
図5は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT2の応答値を算出するプロセスを示している。図5に示すように、従来の畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS2、S3、S5、S6(即ち特徴図F1の右上の4つのニューロン)の応答値(それに応じて、応答値もS2、S3、S5及びS6と標記する)と特徴図F2のニューロンS11、S12、S14、S15(即ち特徴図F2の右上の4つのニューロン)の応答値(それに応じて、応答値もS11、S12、S14及びS15と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT2の応答値を取得する。従って、応答値T2は以下のとおりである。
図5は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT2の応答値を算出するプロセスを示している。図5に示すように、従来の畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS2、S3、S5、S6(即ち特徴図F1の右上の4つのニューロン)の応答値(それに応じて、応答値もS2、S3、S5及びS6と標記する)と特徴図F2のニューロンS11、S12、S14、S15(即ち特徴図F2の右上の4つのニューロン)の応答値(それに応じて、応答値もS11、S12、S14及びS15と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT2の応答値を取得する。従って、応答値T2は以下のとおりである。
T2=Func(w1*S2+w2*S3+w3*S5+w4*S6+w5*S11+w6*S12+w7*S14+w8*S15)+b (2)
図6は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT3の応答値を算出するプロセスを示している。図6に示すように、従来の畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS4、S5、S7、S8(即ち特徴図F1の左下の4つのニューロン)の応答値(それに応じて、応答値もS4、S5、S7及びS8と標記する)と特徴図F2のニューロンS13、S14、S16、S17(即ち特徴図F2の左下の4つのニューロン)の応答値(それに応じて、応答値もS13、S14、S16及びS17と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT3の応答値を取得する。従って、応答値T3は以下のとおりである。
図6は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT3の応答値を算出するプロセスを示している。図6に示すように、従来の畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS4、S5、S7、S8(即ち特徴図F1の左下の4つのニューロン)の応答値(それに応じて、応答値もS4、S5、S7及びS8と標記する)と特徴図F2のニューロンS13、S14、S16、S17(即ち特徴図F2の左下の4つのニューロン)の応答値(それに応じて、応答値もS13、S14、S16及びS17と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT3の応答値を取得する。従って、応答値T3は以下のとおりである。
T3=Func(w1*S4+w2*S5+w3*S7+w4*S8+w5*S13+w6*S14+w7*S16+w8*S17)+b (3)
図7は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT4の応答値を算出するプロセスを示している。図7に示すように、従来の畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS5、S6、S8、S9(即ち特徴図F1の右下の4つのニューロン)の応答値(それに応じて、応答値もS5、S6、S8及びS9と標記する)と特徴図F2のニューロンS14、S15、S17、S18(即ち特徴図F2の右下の4つのニューロン)の応答値(それに応じて、応答値もS14、S15、S17及びS18と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT4の応答値を取得する。従って、応答値T4は以下のとおりである。
図7は、従来の畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT4の応答値を算出するプロセスを示している。図7に示すように、従来の畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS5、S6、S8、S9(即ち特徴図F1の右下の4つのニューロン)の応答値(それに応じて、応答値もS5、S6、S8及びS9と標記する)と特徴図F2のニューロンS14、S15、S17、S18(即ち特徴図F2の右下の4つのニューロン)の応答値(それに応じて、応答値もS14、S15、S17及びS18と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT4の応答値を取得する。従って、応答値T4は以下のとおりである。
T4=Func(w1*S5+w2*S6+w3*S8+w4*S9+w5*S14+w6*S15+w7*S17+w8*S18)+b (4)
図4乃至図7から、従来の畳み込み方式によりL+1層の特徴図F3の任意のニューロンの応答値を算出する際に、L層の特徴図F1はずっと同じ畳み込みテンプレート(w1、w2、w3、w4)を用い、L層の特徴図F2はずっと同じ畳み込みテンプレート(w5、w6、w7、w8)を用いることがわかった。
図4乃至図7から、従来の畳み込み方式によりL+1層の特徴図F3の任意のニューロンの応答値を算出する際に、L層の特徴図F1はずっと同じ畳み込みテンプレート(w1、w2、w3、w4)を用い、L層の特徴図F2はずっと同じ畳み込みテンプレート(w5、w6、w7、w8)を用いることがわかった。
続いて、図8乃至図11を参照しながら、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT1、T2、T3及びT4の応答値を算出するプロセスを説明する。
図8乃至図11に示すように、特徴図F3は上下2つの領域に区分され、上方領域の2つのニューロンT1、T2の応答値は1組のテンプレートにより算出され、下方領域の2つのニューロンT3、T4の応答値はもう1組のテンプレートにより算出される。
図8は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT1の応答値を算出するプロセスを示している。図8に示すように、本発明の実施例に係る畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS1、S2、S4、S5(即ち特徴図F1の左上の4つのニューロン)の応答値(それに応じて、応答値もS1、S2、S4及びS5と標記する)と特徴図F2のニューロンS10、S11、S13、S14(即ち特徴図F2の左上の4つのニューロン)の応答値(それに応じて、応答値もS10、S11、S13及びS14と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT1の応答値を取得する。従って、応答値T1は以下のとおりである。
T1=Func(w1*S1+w2*S2+w3*S4+w4*S5+w5*S10+w6*S11+w7*S13+w8*S14)+b1 (5)
図9は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT2の応答値を算出するプロセスを示している。図9に示すように、本発明の実施例に係る畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS2、S3、S5、S6(即ち特徴図F1の右上の4つのニューロン)の応答値(それに応じて、応答値もS2、S3、S5及びS6と標記する)と特徴図F2のニューロンS11、S12、S14、S15(即ち特徴図F2の右上の4つのニューロン)の応答値(それに応じて、応答値もS11、S12、S14及びS15と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT2の応答値を取得する。従って、応答値T2は以下のとおりである。
図9は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT2の応答値を算出するプロセスを示している。図9に示すように、本発明の実施例に係る畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS2、S3、S5、S6(即ち特徴図F1の右上の4つのニューロン)の応答値(それに応じて、応答値もS2、S3、S5及びS6と標記する)と特徴図F2のニューロンS11、S12、S14、S15(即ち特徴図F2の右上の4つのニューロン)の応答値(それに応じて、応答値もS11、S12、S14及びS15と標記する)、並びに加重値w1、w2、w3及びw4により構成されたテンプレートと加重値w5、w6、w7、w8により構成されたテンプレートに基づいて、特徴図F3のニューロンT2の応答値を取得する。従って、応答値T2は以下のとおりである。
T2=Func(w1*S2+w2*S3+w3*S5+w4*S6+w5*S11+w6*S12+w7*S14+w8*S15)+b1 (6)
以上から、特徴図F3の上方領域におけるニューロンT1及びT2の応答値を算出する際に同じ組のテンプレートを用いることがわかった。
以上から、特徴図F3の上方領域におけるニューロンT1及びT2の応答値を算出する際に同じ組のテンプレートを用いることがわかった。
図10は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT3の応答値を算出するプロセスを示している。図10に示すように、本発明の実施例に係る畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS4、S5、S7、S8(即ち特徴図F1の左下の4つのニューロン)の応答値(それに応じて、応答値もS4、S5、S7及びS8と標記する)と特徴図F2のニューロンS13、S14、S16、S17(即ち特徴図F2の左下の4つのニューロン)の応答値(それに応じて、応答値もS13、S14、S16及びS17と標記する)、並びに加重値w9、w10、w11及びw12により構成されたテンプレートと加重値w13、w14、w15、w16により構成されたテンプレートに基づいて、特徴図F3のニューロンT3の応答値を取得する。従って、応答値T3は以下のとおりである。
T3=Func(w9*S4+w10*S5+w11*S7+w12*S8+w13*S13+w14*S14+w15*S16+w16*S17)+b2 (7)
図11は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT4の応答値を算出するプロセスを示している。図11に示すように、本発明の実施例に係る畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS5、S6、S8、S9(即ち特徴図F1の右下の4つのニューロン)の応答値(それに応じて、応答値もS5、S6、S8及びS9と標記する)と特徴図F2のニューロンS14、S15、S17、S18(即ち特徴図F2の右下の4つのニューロン)の応答値(それに応じて、応答値もS14、S15、S17及びS18と標記する)、並びに加重値w9、w10、w11及びw12により構成されたテンプレートと加重値w13、w14、w15、w16により構成されたテンプレートに基づいて、特徴図F3のニューロンT4の応答値を取得する。従って、応答値T4は以下のとおりである。
図11は、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いて図3におけるL+1層の特徴図F3のニューロンT4の応答値を算出するプロセスを示している。図11に示すように、本発明の実施例に係る畳み込みニューラルネットワークの分類器では、L層の特徴図F1のニューロンS5、S6、S8、S9(即ち特徴図F1の右下の4つのニューロン)の応答値(それに応じて、応答値もS5、S6、S8及びS9と標記する)と特徴図F2のニューロンS14、S15、S17、S18(即ち特徴図F2の右下の4つのニューロン)の応答値(それに応じて、応答値もS14、S15、S17及びS18と標記する)、並びに加重値w9、w10、w11及びw12により構成されたテンプレートと加重値w13、w14、w15、w16により構成されたテンプレートに基づいて、特徴図F3のニューロンT4の応答値を取得する。従って、応答値T4は以下のとおりである。
T4=Func(w9*S5+w10*S6+w11*S8+w12*S9+w13*S14+w14*S15+w15*S17+w16*S18)+b2 (8)
図8乃至図11(特にその計算式)から、緩い畳み込み操作について、L+1層の特徴図F3の任意のニューロン応答値を算出する際に、同一種類のニューロンT1及びT2について、L層の特徴図F1が同じ畳み込みテンプレート(w1、w2、w3、w4)を用い、L層の特徴図F2が同じ畳み込みテンプレート(w5、w6、w7、w8)を用いる。他の種類のニューロンT3及びT4について、L層の特徴図F1が同じ畳み込みテンプレート(w9、w10、w11、w12)を用い、L層の特徴図F2が同じ畳み込みテンプレート(w13、w14、w15、w16)を用いる。緩い畳み込み操作について、同一特徴図における各ニューロンの応答値を算出する際に、同一種類に属するニューロンは同じ畳み込みテンプレートを用いる。
図8乃至図11(特にその計算式)から、緩い畳み込み操作について、L+1層の特徴図F3の任意のニューロン応答値を算出する際に、同一種類のニューロンT1及びT2について、L層の特徴図F1が同じ畳み込みテンプレート(w1、w2、w3、w4)を用い、L層の特徴図F2が同じ畳み込みテンプレート(w5、w6、w7、w8)を用いる。他の種類のニューロンT3及びT4について、L層の特徴図F1が同じ畳み込みテンプレート(w9、w10、w11、w12)を用い、L層の特徴図F2が同じ畳み込みテンプレート(w13、w14、w15、w16)を用いる。緩い畳み込み操作について、同一特徴図における各ニューロンの応答値を算出する際に、同一種類に属するニューロンは同じ畳み込みテンプレートを用いる。
上記の実施例では、緩い畳み込み操作により2つの特徴図に対して複数の畳み込みテンプレートを用いて畳み込みを行う(例えばF3が複数のテンプレートを用いてF1との畳み込みを行う)ことで、より多くの特徴を抽出できる。モード認識理論によれば、統計分類器の認識効果は主にサンプルから抽出された特徴の数及び有効性を頼りにする。複数のテンプレートと単一のテンプレートの特徴抽出の基本的な操作が同じである(いずれも畳み込みである)ため、複数のテンプレートによりより多くの特徴を抽出できるから、複数のテンプレートを用いる方法は、単一テンプレートを用いる方法に比べて、分類の正確率の向上について好適である。
また、収束速度を速くするため、本発明の実施例では、応答値を算出する際に用いられる活性化関数は、正の応答値を取得するように設定されてもよい。
図8乃至図11の非線形的変換関数Func()(活性化関数とも称する)は、負の畳み込み結果を正の小さな値に変換するように設定されている。畳み込み結果は、関数Func()の括弧における内容を指す。例えば、下記の式(9)に示すように、各ニューロンの応答値を算出する際に、非線形的切り捨て関数(truncation function)を図8乃至図11の非線形的変換関数Func()として用いる。
ここで、xは畳み込み結果を表す。例えば、式(5)において、xは、w1*S1+w2*S2+w3*S4+w4*S5+w5*S10+w6*S11+w7*S13+w8*S14を表す。
上記式(9)は、全ての0以下のx値を0よりもわずかに大きい小さな値εと切り捨て、0よりも大きいx値をそのままにすることを意味する。ここで、一例として、小さな値は0〜10−6の範囲内に設定されてもよいが、実際な要求に応じて、他の範囲内の値であってもよい。
本発明の他の実施例では、下記の式(10)に示すように、図8乃至図11の非線形的変換関数Func()は、負の畳み込み結果の絶対値を求めるように設定されている非線形的切り捨て関数であってもよい。
Func(x)=|x| (10)
なお、上記の式(9)及び(10)は単なる一例であり、該関数が正の応答値を取得できるものであれば、要求に応じて他の非線形的変換関数を用いてもよい。
なお、上記の式(9)及び(10)は単なる一例であり、該関数が正の応答値を取得できるものであれば、要求に応じて他の非線形的変換関数を用いてもよい。
新たな活性化関数、即ち正の応答値を取得する活性化関数を用いることで、収束速度を速くすることができる。緩い畳み込みにより抽出された特徴の数を増加させるため、畳み込みニューラルネットワーク全体のパラメータの数の合計が大幅に増加し、訓練サンプルの数がそのままである場合はネットワーク訓練の時の収束速度が降下し、訓練時間が延長してしまう。これに対して、正の応答値を取得する活性化関数を用いることで収束速度を加速できるため、好適である。
以下は、本発明の実施例に係る畳み込みニューラルネットワークの分類器における特徴図の区分方式を説明する。
本発明の実施例に係る畳み込みニューラルネットワークの分類器は、訓練段階において、特徴図の区分方式を予め決定する必要がある。1つの実施例では、図2に示される畳み込みニューラルネットワークの分類器は、まず左から1番目の緩い畳み込み層における全ての特徴図のニューロンの区分方式を決定し、そして他の緩い畳み込み層における特徴図のニューロンの区分方式を決定する。
まずは、区分方式を決定するための物理的基礎を説明する。
区分方式の物理的基礎は、具体的なタスクに関連してもよい。例えば、1つの実施例では、特徴図の複数の領域(各領域は一定の数のニューロンを含む)の区分は、画像の画素の分布に基づいて行われる。以下は、手書き文字認識を一例として、字画の画像の分布に基づく区分方式を説明し、該方式の基本的思想は、区分領域間の字画の画素分布の差を小さくすることができる区分方式を見つけることである。説明の便宜上、図2に示される畳み込みニューラルネットワークの分類器の左から1番目の緩い畳み込み層における全ての特徴図のニューロンの区分方式のみを説明し、他の特徴図は同様な区分方式を用いてもよい。
仮に全てN個の訓練サンプルが有するとする。訓練用の全ての文字サンプルimagek(k=1,…,N)を常用の方法で二値化して、同じサイズ(高さがHであり、幅がWである)に正規化する。そして、全ての文字サンプルをポイントごとに加えて、字画画素まとめ図StrokeMapを取得する。
二値化処理を実行したため、文字サンプルが1の領域は字画画素を有するものであり、0の領域は字画画素を有しないものである。字画画素まとめ図StrokeMapにおける各画素の値は、該画素位置において全ての訓練画素が有する字画画素の回数の平均値である。
字画画素まとめ図StrokeMapにおける全ての画素をスキャンし、下記の処理を行う。
(1)字画画素まとめ図StrokeMapから現在点(i,j)を決定する。
(2)字画画素まとめ図StrokeMapは、この点を通る水平線及び垂直線により所定数の領域、例えば4つの領域に区分され、各領域における字画画素の回数の平均値の和(即ち全ての画素値の和)を算出する。
(3)4つの領域は、2組の2つ領域に分割され、合計6種類(C2 4=6)の組に区分できる。各組における2つの領域の字画画素の回数の平均値の和の差を算出する。6つの組の差の合計を算出して、記憶する。
字画画素まとめ図StrokeMapから、記憶された6組の差の合計値が最も小さい点を見つける。この点を通る水平線及び垂直線により、字画画素まとめ図StrokeMapは4つの領域に区分され、この区分方式を特徴図のニューロンの区分方式とする、即ち特徴図の全てのニューロンもそれに応じて4種類に分けられ、各種類のニューロンは同じテンプレートを用いる。
上記の例では、特徴図の複数の領域の区分は、画像の画素分布に基づいて行われ、具体的には、画像の二値画像の前景画素の数量分布に基づいて行われる。なお、画像の二値画像の前景画素の密度分布に基づいて、複数の領域の区分を行ってもよい。例えば、区分された各領域の密度を同じにしてもよい。
また、1つの実施例では、複数の領域の区分は、画像の構造に基づいて行われてもよい。文字画像を例とすると、例えば、区分される画像は手書き文字「化」である。「化」は左右構造の文字であり、部首に基づいて「化」を左右2つの領域、即ち「イ」を含む画像領域と「ヒ」を含む画像領域に区分してもよい。例えば、区分される画像は手書き文字「6」である場合、「6」を上下2つの部分、即ち大体「o」を含む画像領域と上方の円弧部分を含む画像領域と区分してもよい。なお、人それぞれの手書きの習慣が異なるため、実際の区分プロセスでは、区分するための割合を固定せず、一定の割合に基づいて変動するものであってもよい。
ここでは、手書き文字を例として画像の構造又は画像の二値画像の画素分布に基づいて領域を区分することを説明しているが、対象となる画像は手書きの文字に限定されず、任意の画像、例えば細胞分裂画像、地図画像であってもよい。
以上、区分方式を決定するための物理的な基礎を説明した。次に、複数の緩い畳み込み層間及び複数の特徴図間の区分方式が同じであるか否かに応じて区分方式を説明する。ここで、2種類の区分方式があり、1つは、各サンプルに対応する特徴図の全てが同一の区分方式を用いるか否かの区分方式であり、もう1つは、サンプル間は同一の区分方式を用いるか否かの区分方式である。それに応じて、1つの畳み込みニューラルネットワークの分類器における全ての特徴図について、下記4つの区分方式を採用できる。
(1)全てのサンプルが同一の区分方式を用い、各サンプルに対応する全ての特徴図が同一の区分方式を用いる。ここで、「全ての特徴図」は、緩い畳み込み層における全ての特徴図を指す。
(2)全てのサンプルが同一の区分方式を用い、各サンプルに対応する全ての特徴図が異なる区分方式を用いる。ここで、「全ての特徴図」は、緩い畳み込み層における全ての特徴図を指す。全ての特徴図が異なる区分方式を用いることは、(a)各層における特徴図が同一の区分方式を用いるが、異なる層が異なる区分方式を用いること、及び(b)各層における全ての特徴図が異なる区分方式を用いること、を含む。
(3)全てのサンプルが異なる区分方式を用い、各サンプルに対応する全ての特徴図が同一の区分方式を用いる。ここで、「全ての特徴図」は、緩い畳み込み層における全ての特徴図を指す。
(4)全てのサンプルが異なる区分方式を用い、各サンプルに対応する全ての特徴図が異なる区分方式を用いる。ここで、「全ての特徴図」は、緩い畳み込み層における全ての特徴図を指す。全ての特徴図が異なる区分方式を用いることは、(a)各層における特徴図が同一の区分方式を用いるが、異なる層が異なる区分方式を用いること、及び(b)各層における全ての特徴図が異なる区分方式を用いること、を含む。
以下は、上記(4)の区分方式の一例を説明する。図12は、入力サンプル「6」の3つの区分方式を3つの緩い畳み込み層にそれぞれ適用するプロセスを示している。全てのサンプルが異なる区分方式を用い、各層における全ての特徴図が同一の区分方式を用いるが、異なる層が異なる区分方式を用いる。
以上、複数の緩い畳み込み層間及び複数の特徴図間の区分方式が同じであるか否かに応じて区分方式を説明した。以下は、複数の異なるサンプルの区分方式が固定的なものであるか否かに応じて、区分方式を説明する。
1つの実施例では、固定的な方式により、サンプルとなる画像を複数の画像領域に区分してもよく、区分された複数の画像領域は、緩い畳み込み層における特徴図の複数の領域にそれぞれ対応する。ここで、例えば、訓練サンプルの総体的な特徴に基づいて固定的な方式を決定してもよい。言い換えれば、訓練サンプルの総体的な特徴に基づいて1つの固定的な方式を決定して、該固定的な方式に基づいて各訓練サンプルを区分する。具体的な固定的な方式は、上記方式のうちいずれか1つであってもよい。
もう1つの実施例では、畳み込みニューラルネットワークの分類器は、サンプルである画像を複数の画像領域に区分する画像分割手段をさらに含み、区分された複数の画像領域は、緩い畳み込み層における複数の領域にそれぞれ対応する。ここで、訓練サンプルの個体特徴に基づいて動的な方式を決定してもよい。言い換えれば、1つの訓練サンプルともう1つの訓練サンプルとは個体特徴が異なる場合があるため、異なる訓練サンプルの区分方式が異なる場合はある。この場合は、画像分割手段は、訓練サンプルの個体特徴に基づいて、個別に、サンプルである画像を複数の画像領域に区分してもよい。具体的な区分方式は、上記方式のうちいずれか1つであってもよい。
以下は、図13を参照しながら、本発明の実施例に係る畳み込みニューラルネットワークの分類器の訓練方法1300を説明する。
図13に示すように、ステップS1302において、畳み込みニューラルネットワークの分類器に含まれている複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分する。
例えば、上記の区分方式のいずれかを用いて、少なくとも1つの特徴図の層における少なくとも1つの特徴図を複数の領域に区分してもよい。
また、本発明の実施例に係る畳み込みニューラルネットワークの分類器の配置、例えばネットワーク層の数、各層の操作(緩い畳み込み、空間最大サンプリング、全連結)、各層における特徴図の数及び特徴図の大きさは予め設定されている。ここで、出力層の特徴図の数は、具体的なタスクの種別の数に一致する。例えば、数字認識タスクについて、出力層の特徴図の数は10であり、大文字アルファベット認識タスクについて、出力層の特徴図の数は26である。
ステップ1304において、既知の標識を有する訓練サンプルを畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得する。前方伝播を行う際に、複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する。好適には、正の応答値を取得するように設定されている活性化関数により応答値を算出してもよい。例えば、該活性化関数は、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されてもよい。
例えば、ネットワークにおける全てのテンプレートの加重値は、0〜1の分布によりランダムの初期化を行ってもよい。そして、全ての訓練サンプルを本発明の実施例に係る畳み込みニューラルネットワークの分類器に順次に送り込んで、訓練を行う。各訓練サンプルについて、前方伝播を行って出力結果、即ち出力層の値を取得する。
ステップS1306において、出力結果と既知の標識との差に基づいて逆方向伝播を行い、畳み込みテンプレートにおける加重値を含む畳み込みニューラルネットワークの分類器のパラメータを補正する。即ち、畳み込みニューラルネットワークの分類器のパラメータは、畳み込みテンプレートにおける加重値だけではなく、他のパラメータを含む。
ステップS1308において、所定の条件が満たされたか否かを判断する。例えば、畳み込みニューラルネットワークの分類器のパラメータの訓練集についての錯誤率が所定値に達した、或いは所定値より低くなったかを判断する。なお、所定の条件は、他の条件、例えば所定の回数又は他の収束条件などであってもよい。
ステップS1308において、所定の条件が満たされた場合は、処理が終了し、そうでない場合は、ステップS1302に戻る。
以下は、図14を参照しながら、本発明の実施例に係る畳み込みニューラルネットワークの分類器を用いる分類方法1400を説明する。
図14に示すように、ステップS1402において、畳み込みニューラルネットワークの分類器に含まれている複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分する。ここで、訓練時と同じ区分方式を用いて特徴図を区分する。
ステップS1404において、分類対象を畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得する。前方伝播を行う際に、複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する。好適には、正の応答値を取得するように設定されている活性化関数を用いて、応答値を算出してもよい。例えば、該活性化関数は、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されている活性化関数であってもよい。
本発明の実施例によれば、畳み込み操作の代わりに、緩い畳み込み操作を用いることで、畳み込みニューラルネットワークの分類器の柔軟性を向上でき、より多くの特徴を抽出して認識の正確率を向上できる。また、従来の活性化関数の代わりに、正の応答値を取得する活性化関数を用いることで、収束速度を加速できる。
以上、具体的な実施例を用いて本発明の基本原理について説明したが、強調すべきなのは、本発明の方法と装置の全て又はいずれのステップ又は構成要素が、任意の計算装置(プロセッサや記憶媒体等を含む)または計算装置のネットワークにおいて、ハードウェア、ファームウェア、ソフトウェアまたはそれらの組合せにより実現できることは、当業者にとって理解されるところである。また、これは当業者が本発明の明細書を読んだ上で彼らの基本的なプログラミングスキルを利用して実現できるものである。
従って、本発明の目的は、任意の計算装置において1つ又は1組のプログラムを実行することにより実現することができる。前記計算装置は従来の汎用装置であってもよい。また、本発明の目的は、前記方法又は装置を実現するプログラムコードを含むプログラム製品を提供するだけで実現される。即ち、このようなプログラム製品も本発明を構成するものであり、且つこのようなプログラム製品を格納した記憶媒体も本発明を構成するものである。もとろん、前記記憶媒体は、任意の従来の記憶媒体又は将来開発される任意の記憶媒体であってもよい。
ソフトウェアおよび/またはファームウェアを通じて本発明の実施例を実現する場合、記憶媒体またはネットワークを通じて専用ハードウェア構造を有するコンピュータ、例えば、図15に示されたような汎用コンピュータ1500に当該ソフトウェアを構成するプログラムをインストールし、当該コンピュータは、各種類のプログラムがインストールされたときに、各種の機能等を実行することができる。
図15では、セントラル・プロセッシング・ユニット(CPU)1501は、読み取り専用メモリ(ROM)1502に格納されたプログラムまたは記憶部1508からランダム・アクセス・メモリ(RAM)1503にアップロードされたプログラムにより各種の処理を実行する。RAM1503には、必要に応じてCPU1501が各種の処理を実行するときに必要なデータを記憶する。CPU1501、ROM1502とRAM1503はバス1504を介して互いに連結する。入力/出力インターフェース1505もバス1504に接続される。
以下の要素も入力/出力インターフェース1505に接続される:キーボードやマウス等を含む入力部1506;例えばブラウン管(CRT)や液晶ディスプレイ(LCD)等のモニタやスピーカー等を含む出力部1507;ハードディスク等を含む記録部1508;例えばLANカード等のネットワークインタフェースカードやモデム等を含む通信部1509。また、通信部1509はネットワーク、例えばインターネットを介して通信処理を行う。必要に応じて、ドライブ部1510も入力/出力インターフェース1505に接続される。取り外し可能な媒体1511、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体記憶装置等を、必要に応じてドライブ部1510に挿入し、その中から読み出されたコンピュータプログラムは必要に応じて記録部1508にインストールされる。
ソフトウェアを通じて前記一連の処理を実現する場合、ネットワーク、例えばインターネット、または記憶媒体、例えば取り外し可能な媒体1511からソフトウェアを構成するプログラムをインストールする。
当業者が理解されるように、ここでの記録媒体は、図15に示されたような、中にプログラムが記録され、設備と分離して配布しユーザにプログラムを提供する取り外し可能な媒体1511には限らない。取り外し可能な媒体1511の例として、磁気ディスク(フロッピー(登録商標)ディスクを含む)、光ディスク(コンパクトディスク(CD)による読み出し専用メモリー(CD−ROM)とデジタル多用途ディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標)を含む)と半導体記憶装置などを含む。また、記録媒体は、ROM1502や記録部1508に含まれるハードディスクであっても良い。その中にプログラムが記録され、且つそれを記録する設備と一緒にユーザに配布される。
本発明は、機械読み取り可能な命令コードを格納したプログラム製品を提供する。命令コードが機械に読み取りされ且つ実行されるときに、前記本発明の実施例の方法を実行することができる。
また、前記機械読み取り可能な命令コードを格納したプログラム製品の記憶媒体も本発明の開示に含まれる。記憶媒体はフロッピーディスク、磁気ディスク、光ディスク、メモリカード、メモリスティック等を含む。
ここでの実施例は例示的なものであり、本発明はこれらの実施例に限定されないことは、当業者に理解されるところである。
本明細書にある「第一」、「第二」及び「第N」等の記載は、関連特徴を文字上区別し、本発明をより明瞭に記載するためである。従って、限定的な意味合いは有しない。
例として、前記方法の各ステップおよび前記設備の各構成モジュールおよび/またはユニットは、ソフトウェア、ファームウェア、ハードウェアまたはその組合せによって実現でき、且つその設備の中の一部となる。前記設備の各構成モジュールやユニットがソフトウェア、ファームウェア、ハードウェアまたはその組合せにより結合されるときに使用可能な手段または方式は、当業者に熟知されているため、ここでは、その説明を省略した。
例として、ソフトウェアまたはファームウェアを通じて本発明を実現する場合、記憶媒体またはネットワークから専用ハードウェア構造を有するコンピュータ(例えば、図15に示された汎用コンピュータ1500)に当該ソフトウェアを構成するプログラムをインストールすることができる。当該コンピュータは、各種のプログラムがインストールされたときに、各種の機能を実現できる。
1つの実施形態について記載および/または図示した特徴は同一または類似の方法で1つまたは複数の他の実施形態で使用することができ、また、その他の実施形態の中の特徴と組合せ、または他の実施形態の特徴を代替することもできる。
強調すべきなのは、用語「含む/備える」は、本明細書において特徴、要素、ステップまたはモジュールの存在を表し、1つまたは複数の他の特徴、要素、ステップまたはモジュールの存在または付加を排除しない。
また、本発明の方法は、明細書に説明された時間順で行なわれることに限らず、他の時間順で、又は並行して、又は単独で実行することもできる。従って、本発明の技術的範囲は、明細書に記載の方法の実行順番に限定されない。
本発明は、添付の請求の範囲の要旨と範囲内に本発明に対する様々な変更、改善又は均等物を設計することができるものと認めるべきである。且つ、本発明の範囲は明細書に記載の過程、設備、手段、方法とステップの具体的な実施例に限定されない。当業者は、本発明に開示された内容から本発明の実施例に基本的に同じ機能を有し、基本的に同じ効果を奏する既存の、または将来開発される過程、設備、手段、方法またはステップを使用又は実行することができる。従って、添付の請求の範囲の要旨は、このような過程、設備、手段、方法またはステップを含む。
また、上述の各実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
少なくとも1つの特徴図の層の少なくとも1つの特徴図が複数の領域に区分された複数の特徴図の層と、
前記複数の領域にそれぞれ対応し、対応する領域におけるニューロンの応答値を取得する複数の畳み込みテンプレートと、を含む、畳み込みニューラルネットワークの分類器。
少なくとも1つの特徴図の層の少なくとも1つの特徴図が複数の領域に区分された複数の特徴図の層と、
前記複数の領域にそれぞれ対応し、対応する領域におけるニューロンの応答値を取得する複数の畳み込みテンプレートと、を含む、畳み込みニューラルネットワークの分類器。
(付記2)
前記畳み込みニューラルネットワークの分類器は、画像を分類するために用いられ、
前記画像は、固定的な方式により複数の画像領域に区分され、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、付記1に記載の畳み込みニューラルネットワークの分類器。
前記畳み込みニューラルネットワークの分類器は、画像を分類するために用いられ、
前記画像は、固定的な方式により複数の画像領域に区分され、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、付記1に記載の畳み込みニューラルネットワークの分類器。
(付記3)
前記畳み込みニューラルネットワークの分類器は、画像を分類するために用いられ、
前記畳み込みニューラルネットワークの分類器は、前記画像を複数の画像領域に区分する画像分割手段をさらに含み、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、付記1に記載の畳み込みニューラルネットワークの分類器。
前記畳み込みニューラルネットワークの分類器は、画像を分類するために用いられ、
前記畳み込みニューラルネットワークの分類器は、前記画像を複数の画像領域に区分する画像分割手段をさらに含み、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、付記1に記載の畳み込みニューラルネットワークの分類器。
(付記4)
前記複数の領域は、前記画像の画素の分布に基づいて区分されたものである、付記3に記載の畳み込みニューラルネットワークの分類器。
前記複数の領域は、前記画像の画素の分布に基づいて区分されたものである、付記3に記載の畳み込みニューラルネットワークの分類器。
(付記5)
前記複数の領域は、前記画像の二値画像の前景画素の数量分布又は前景画素の密度分布に基づいて区分されたものである、付記4に記載の畳み込みニューラルネットワークの分類器。
前記複数の領域は、前記画像の二値画像の前景画素の数量分布又は前景画素の密度分布に基づいて区分されたものである、付記4に記載の畳み込みニューラルネットワークの分類器。
(付記6)
前記複数の領域は、前記画像の構造に基づいて区分されたものである、付記3に記載の畳み込みニューラルネットワークの分類器。
前記複数の領域は、前記画像の構造に基づいて区分されたものである、付記3に記載の畳み込みニューラルネットワークの分類器。
(付記7)
同一の特徴図の層における異なる特徴図、又は異なる特徴図の層における特徴図は、異なる方式により前記複数の領域に区分される、付記1乃至6のいずれかに記載の畳み込みニューラルネットワークの分類器。
同一の特徴図の層における異なる特徴図、又は異なる特徴図の層における特徴図は、異なる方式により前記複数の領域に区分される、付記1乃至6のいずれかに記載の畳み込みニューラルネットワークの分類器。
(付記8)
前記応答値を算出する際に用いられる活性化関数は、正の応答値を取得するように設定されている、付記1乃至6のいずれかに記載の畳み込みニューラルネットワークの分類器。
前記応答値を算出する際に用いられる活性化関数は、正の応答値を取得するように設定されている、付記1乃至6のいずれかに記載の畳み込みニューラルネットワークの分類器。
(付記9)
前記活性化関数は、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されている、付記8に記載の畳み込みニューラルネットワークの分類器。
前記活性化関数は、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されている、付記8に記載の畳み込みニューラルネットワークの分類器。
(付記10)
畳み込みニューラルネットワークの分類器を用いる分類方法であって、
前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、
前記分類方法は、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、
分類対象を前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、
前記出力結果に基づいて前記分類対象を分類するステップと、を含む、分類方法。
畳み込みニューラルネットワークの分類器を用いる分類方法であって、
前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、
前記分類方法は、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、
分類対象を前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、
前記出力結果に基づいて前記分類対象を分類するステップと、を含む、分類方法。
(付記11)
前記分類対象は、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は、前記複数の領域にそれぞれ対応する、付記10に記載の分類方法。
前記分類対象は、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は、前記複数の領域にそれぞれ対応する、付記10に記載の分類方法。
(付記12)
前記分類対象は、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、固定的な方式により前記画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、付記11に記載の分類方法。
前記分類対象は、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、固定的な方式により前記画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、付記11に記載の分類方法。
(付記13)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の画素の分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記11に記載の分類方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の画素の分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記11に記載の分類方法。
(付記14)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の二値画像の前景画素の数量分布又は前景画素の密度分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記13に記載の分類方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の二値画像の前景画素の数量分布又は前景画素の密度分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記13に記載の分類方法。
(付記15)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の構造に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記11に記載の分類方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の構造に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記11に記載の分類方法。
(付記16)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、異なる方式により、同一の特徴図の層における異なる特徴図、又は異なる特徴図の層における特徴図を前記複数の領域に区分するステップを含む、付記10乃至15のいずれかに記載の分類方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、異なる方式により、同一の特徴図の層における異なる特徴図、又は異なる特徴図の層における特徴図を前記複数の領域に区分するステップを含む、付記10乃至15のいずれかに記載の分類方法。
(付記17)
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、正の応答値を取得するように設定されている活性化関数を用いて前記応答値を算出するステップを含む、付記10乃至15のいずれかに記載の分類方法。
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、正の応答値を取得するように設定されている活性化関数を用いて前記応答値を算出するステップを含む、付記10乃至15のいずれかに記載の分類方法。
(付記18)
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されている前記活性化関数を用いて前記応答値を算出するステップを含む、付記17に記載の分類方法。
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されている前記活性化関数を用いて前記応答値を算出するステップを含む、付記17に記載の分類方法。
(付記19)
畳み込みニューラルネットワークの分類器の訓練方法であって、
前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、
前記訓練方法は、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、
既知の標識を有する訓練サンプルを前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、
前記出力結果と前記既知の標識との差に基づいて逆方向伝播を行い、前記畳み込みテンプレートにおける加重値を含む前記畳み込みニューラルネットワークの分類器のパラメータを補正するステップと、
所定の条件が満たされるまで、上記のステップを繰り返すステップと、を含む、訓練方法。
畳み込みニューラルネットワークの分類器の訓練方法であって、
前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、
前記訓練方法は、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、
既知の標識を有する訓練サンプルを前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、
前記出力結果と前記既知の標識との差に基づいて逆方向伝播を行い、前記畳み込みテンプレートにおける加重値を含む前記畳み込みニューラルネットワークの分類器のパラメータを補正するステップと、
所定の条件が満たされるまで、上記のステップを繰り返すステップと、を含む、訓練方法。
(付記20)
前記訓練サンプルは、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、固定的な方式により前記画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は、前記複数の領域にそれぞれ対応し、
前記固定的な方式は、前記訓練サンプルの総体的な特徴に基づいて決定される、付記19に記載の訓練方法。
前記訓練サンプルは、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、固定的な方式により前記画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は、前記複数の領域にそれぞれ対応し、
前記固定的な方式は、前記訓練サンプルの総体的な特徴に基づいて決定される、付記19に記載の訓練方法。
(付記21)
前記訓練サンプルは、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像それぞれの個体特徴に基づいて各画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は、前記複数の領域にそれぞれ対応する、付記19に記載の訓練方法。
前記訓練サンプルは、画像であり、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像それぞれの個体特徴に基づいて各画像を複数の画像領域に区分するステップを含み、
前記複数の画像領域は、前記複数の領域にそれぞれ対応する、付記19に記載の訓練方法。
(付記22)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の画素の分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記21に記載の訓練方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の画素の分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記21に記載の訓練方法。
(付記23)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の二値画像の前景画素の数量分布又は前景画素の密度分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記22に記載の訓練方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の二値画像の前景画素の数量分布又は前景画素の密度分布に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記22に記載の訓練方法。
(付記24)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の構造に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記21に記載の訓練方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、前記画像の構造に基づいて前記少なくとも1つの特徴図を前記複数の領域に区分するステップを含む、付記21に記載の訓練方法。
(付記25)
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、異なる方式により、同一の特徴図の層における異なる特徴図、又は異なる特徴図の層における特徴図を前記複数の領域に区分するステップを含む、付記19乃至24のいずれかに記載の訓練方法。
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップは、異なる方式により、同一の特徴図の層における異なる特徴図、又は異なる特徴図の層における特徴図を前記複数の領域に区分するステップを含む、付記19乃至24のいずれかに記載の訓練方法。
(付記26)
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、正の応答値を取得するように設定されている活性化関数を用いて前記応答値を算出するステップを含む、付記19乃至25のいずれかに記載の訓練方法。
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、正の応答値を取得するように設定されている活性化関数を用いて前記応答値を算出するステップを含む、付記19乃至25のいずれかに記載の訓練方法。
(付記27)
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されている前記活性化関数を用いて前記応答値を算出するステップを含む、付記26に記載の訓練方法。
前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得するステップは、負の畳み込み結果の絶対値を求める、或いは負の畳み込み結果を正の小さな値に変換するように設定されている前記活性化関数を用いて前記応答値を算出するステップを含む、付記26に記載の訓練方法。
Claims (10)
- 少なくとも1つの特徴図の層の少なくとも1つの特徴図が複数の領域に区分された複数の特徴図の層と、
前記複数の領域にそれぞれ対応し、対応する領域におけるニューロンの応答値を取得する複数の畳み込みテンプレートと、を含む、畳み込みニューラルネットワークの分類器。 - 前記畳み込みニューラルネットワークの分類器は、画像を分類するために用いられ、
前記画像は、固定的な方式により複数の画像領域に区分され、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、請求項1に記載の畳み込みニューラルネットワークの分類器。 - 前記畳み込みニューラルネットワークの分類器は、画像を分類するために用いられ、
前記畳み込みニューラルネットワークの分類器は、前記画像を複数の画像領域に区分する画像分割手段をさらに含み、
前記複数の画像領域は前記複数の領域にそれぞれ対応する、請求項1に記載の畳み込みニューラルネットワークの分類器。 - 前記複数の領域は、前記画像の画素の分布に基づいて区分されたものである、請求項3に記載の畳み込みニューラルネットワークの分類器。
- 前記複数の領域は、前記画像の二値画像の前景画素の数量分布又は前景画素の密度分布に基づいて区分されたものである、請求項4に記載の畳み込みニューラルネットワークの分類器。
- 前記複数の領域は、前記画像の構造に基づいて区分されたものである、請求項3に記載の畳み込みニューラルネットワークの分類器。
- 同一の特徴図の層における異なる特徴図、又は異なる特徴図の層における特徴図は、異なる方式により前記複数の領域に区分される、請求項1乃至6のいずれかに記載の畳み込みニューラルネットワークの分類器。
- 前記応答値を算出する際に用いられる活性化関数は、正の応答値を取得するように設定されている、請求項1乃至6のいずれかに記載の畳み込みニューラルネットワークの分類器。
- 畳み込みニューラルネットワークの分類器を用いる分類方法であって、
前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、
前記分類方法は、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、
分類対象を前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、
前記出力結果に基づいて前記分類対象を分類するステップと、を含む、分類方法。 - 畳み込みニューラルネットワークの分類器の訓練方法であって、
前記畳み込みニューラルネットワークの分類器は、複数の特徴図の層を含み、
前記訓練方法は、
前記複数の特徴図の層の少なくとも1つの特徴図の層の少なくとも1つの特徴図を複数の領域に区分するステップと、
既知の標識を有する訓練サンプルを前記畳み込みニューラルネットワークの分類器に送り込んで前方伝播を行い、出力結果を取得するステップであって、前方伝播を行う際に、前記複数の領域にそれぞれ対応する複数の畳み込みテンプレートの各テンプレートを用いて対応する領域におけるニューロンの応答値を取得する、ステップと、
前記出力結果と前記既知の標識との差に基づいて逆方向伝播を行い、前記畳み込みテンプレートにおける加重値を含む前記畳み込みニューラルネットワークの分類器のパラメータを補正するステップと、
所定の条件が満たされるまで、上記のステップを繰り返すステップと、を含む、訓練方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310329465.7 | 2013-07-31 | ||
CN201310329465.7A CN104346622A (zh) | 2013-07-31 | 2013-07-31 | 卷积神经网络分类器及其分类方法和训练方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015032308A true JP2015032308A (ja) | 2015-02-16 |
Family
ID=51059297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014152783A Withdrawn JP2015032308A (ja) | 2013-07-31 | 2014-07-28 | 畳み込みニューラルネットワークの分類器、及びその分類方法、訓練方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9697444B2 (ja) |
EP (1) | EP2833295A3 (ja) |
JP (1) | JP2015032308A (ja) |
CN (1) | CN104346622A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017139646A (ja) * | 2016-02-04 | 2017-08-10 | リコーイメージング株式会社 | 撮影装置 |
JP2018514844A (ja) * | 2015-03-11 | 2018-06-07 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 細胞画像および映像の深層畳み込みネットワークベースの分類のためのシステムおよび方法 |
JP2018527660A (ja) * | 2015-07-29 | 2018-09-20 | ノキア テクノロジーズ オーユー | ニューラルネットワークによるオブジェクト検出 |
JP2018537766A (ja) * | 2015-11-04 | 2018-12-20 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | ユニバーサル対応ネットワーク |
JP2019508803A (ja) * | 2016-03-31 | 2019-03-28 | 富士通株式会社 | ニューラルネットワークモデルの訓練方法、装置及び電子機器 |
CN110573859A (zh) * | 2017-04-13 | 2019-12-13 | 美国西门子医学诊断股份有限公司 | 用于使用卷积神经网络的hiln表征的方法和装置 |
KR20200017583A (ko) | 2018-07-27 | 2020-02-19 | 박준혁 | 색상 라벨링을 이용한 영상 이미지의 물 포함 영역 상태 판별 장치 및 방법 |
JP2022520912A (ja) * | 2020-01-22 | 2022-04-04 | 深▲チェン▼市商▲湯▼科技有限公司 | データ処理方法、装置及びチップ、電子機器、記憶媒体 |
JP2022058521A (ja) * | 2015-08-03 | 2022-04-12 | エンゼルグループ株式会社 | 遊技場における不正検知システム |
US11978310B2 (en) | 2016-08-02 | 2024-05-07 | Angel Group Co., Ltd. | Inspection system and management system |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3234867A4 (en) * | 2014-12-17 | 2018-08-15 | Nokia Technologies Oy | Object detection with neural network |
US10127439B2 (en) * | 2015-01-15 | 2018-11-13 | Samsung Electronics Co., Ltd. | Object recognition method and apparatus |
WO2016141282A1 (en) * | 2015-03-04 | 2016-09-09 | The Regents Of The University Of California | Convolutional neural network with tree pooling and tree feature map selection |
CN105938558B (zh) * | 2015-03-06 | 2021-02-09 | 松下知识产权经营株式会社 | 学习方法 |
CN106033594B (zh) * | 2015-03-11 | 2018-11-13 | 日本电气株式会社 | 基于卷积神经网络所获得特征的空间信息恢复方法及装置 |
CN106156846B (zh) * | 2015-03-30 | 2018-12-25 | 日本电气株式会社 | 卷积神经网络特征的处理方法和装置 |
CN106156712A (zh) * | 2015-04-23 | 2016-11-23 | 信帧电子技术(北京)有限公司 | 一种基于自然场景下的身份证号码识别方法与装置 |
CN106295666B (zh) | 2015-05-14 | 2020-03-03 | 佳能株式会社 | 获取分类器、检测对象的方法和装置及图像处理设备 |
US10417555B2 (en) | 2015-05-29 | 2019-09-17 | Samsung Electronics Co., Ltd. | Data-optimized neural network traversal |
KR102107709B1 (ko) * | 2015-06-05 | 2020-05-07 | 구글 엘엘씨 | 공간 트랜스포머 모듈들 |
US10452971B2 (en) | 2015-06-29 | 2019-10-22 | Microsoft Technology Licensing, Llc | Deep neural network partitioning on servers |
US11244225B2 (en) * | 2015-07-10 | 2022-02-08 | Samsung Electronics Co., Ltd. | Neural network processor configurable using macro instructions |
CN104992191B (zh) * | 2015-07-23 | 2018-01-26 | 厦门大学 | 基于深度学习的特征和最大置信路径的图像分类方法 |
EP3792865B1 (en) | 2015-08-03 | 2023-11-08 | Angel Playing Cards Co., Ltd. | Management system of substitute currency for gaming |
US11074780B2 (en) | 2015-08-03 | 2021-07-27 | Angel Playing Cards Co., Ltd. | Management system of substitute currency for gaming |
US10970962B2 (en) | 2015-08-03 | 2021-04-06 | Angel Playing Cards Co., Ltd. | Management system of substitute currency for gaming |
CN106485192B (zh) * | 2015-09-02 | 2019-12-06 | 富士通株式会社 | 用于图像识别的神经网络的训练方法和装置 |
US20170076195A1 (en) * | 2015-09-10 | 2017-03-16 | Intel Corporation | Distributed neural networks for scalable real-time analytics |
CN105512676A (zh) * | 2015-11-30 | 2016-04-20 | 华南理工大学 | 一种智能终端上的食物识别方法 |
CN105550749A (zh) * | 2015-12-09 | 2016-05-04 | 四川长虹电器股份有限公司 | 一种新型网络拓扑结构的卷积神经网络的构造方法 |
US9971953B2 (en) | 2015-12-10 | 2018-05-15 | Intel Corporation | Visual recognition using deep learning attributes |
US9785855B2 (en) | 2015-12-17 | 2017-10-10 | Conduent Business Services, Llc | Coarse-to-fine cascade adaptations for license plate recognition with convolutional neural networks |
CN105575119B (zh) * | 2015-12-29 | 2018-06-19 | 大连楼兰科技股份有限公司 | 路况气候深度学习及识别方法和装置 |
US9858496B2 (en) | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
SG10201912870TA (en) | 2016-02-01 | 2020-02-27 | Angel Playing Cards Co Ltd | Game token management system |
US10957156B2 (en) | 2016-09-12 | 2021-03-23 | Angel Playing Cards Co., Ltd. | Chip measurement system |
US10733503B2 (en) | 2016-02-18 | 2020-08-04 | Intel Corporation | Technologies for shifted neural networks |
NL2016285B1 (en) | 2016-02-19 | 2017-09-20 | Scyfer B V | Device and method for generating a group equivariant convolutional neural network. |
US20170249547A1 (en) * | 2016-02-26 | 2017-08-31 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Holistic Extraction of Features from Neural Networks |
CN105787482A (zh) * | 2016-02-26 | 2016-07-20 | 华北电力大学 | 一种基于深度卷积神经网络的特定目标轮廓图像分割方法 |
US10810491B1 (en) | 2016-03-18 | 2020-10-20 | Amazon Technologies, Inc. | Real-time visualization of machine learning models |
CN107203775B (zh) * | 2016-03-18 | 2021-07-27 | 斑马智行网络(香港)有限公司 | 一种图像分类的方法、装置和设备 |
CN107239786B (zh) * | 2016-03-29 | 2022-01-11 | 阿里巴巴集团控股有限公司 | 一种字符识别方法和装置 |
CN105930902B (zh) * | 2016-04-18 | 2018-08-10 | 中国科学院计算技术研究所 | 一种神经网络的处理方法、系统 |
CN111860813B (zh) * | 2016-04-29 | 2024-01-16 | 中科寒武纪科技股份有限公司 | 一种用于执行卷积神经网络正向运算的装置和方法 |
WO2017201676A1 (en) * | 2016-05-24 | 2017-11-30 | Intel Corporation | Self-adaptive window mechanism |
EP3472760A4 (en) * | 2016-06-17 | 2020-03-04 | Nokia Technologies Oy | CONSTRUCTION OF A CONVOLUTIVE NEURON NETWORK |
CN106203327B (zh) * | 2016-07-08 | 2019-04-19 | 清华大学 | 基于卷积神经网络的肺部肿瘤识别系统及方法 |
CN107644251B (zh) * | 2016-07-22 | 2020-09-18 | 北京市商汤科技开发有限公司 | 对象分类方法、装置和系统 |
MY200580A (en) | 2016-08-02 | 2024-01-03 | Angel Playing Cards Co Ltd | Game management system |
WO2018034681A1 (en) | 2016-08-13 | 2018-02-22 | Intel Corporation | Apparatuses, methods, and systems for access synchronization in a shared memory |
KR20180027887A (ko) * | 2016-09-07 | 2018-03-15 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법 |
US9646243B1 (en) | 2016-09-12 | 2017-05-09 | International Business Machines Corporation | Convolutional neural networks using resistive processing unit array |
US9715656B1 (en) | 2016-09-12 | 2017-07-25 | International Business Machines Corporation | Killing asymmetric resistive processing units for neural network training |
WO2018052587A1 (en) * | 2016-09-14 | 2018-03-22 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for cell image segmentation using multi-stage convolutional neural networks |
CN107871314B (zh) * | 2016-09-23 | 2022-02-18 | 商汤集团有限公司 | 一种敏感图像鉴别方法和装置 |
US11004131B2 (en) | 2016-10-16 | 2021-05-11 | Ebay Inc. | Intelligent online personal assistant with multi-turn dialog based on visual search |
US10860898B2 (en) | 2016-10-16 | 2020-12-08 | Ebay Inc. | Image analysis and prediction based visual search |
US11748978B2 (en) | 2016-10-16 | 2023-09-05 | Ebay Inc. | Intelligent online personal assistant with offline visual search database |
US11200273B2 (en) | 2016-10-16 | 2021-12-14 | Ebay Inc. | Parallel prediction of multiple image aspects |
US10970768B2 (en) | 2016-11-11 | 2021-04-06 | Ebay Inc. | Method, medium, and system for image text localization and comparison |
KR101879207B1 (ko) * | 2016-11-22 | 2018-07-17 | 주식회사 루닛 | 약한 지도 학습 방식의 객체 인식 방법 및 장치 |
US10685285B2 (en) * | 2016-11-23 | 2020-06-16 | Microsoft Technology Licensing, Llc | Mirror deep neural networks that regularize to linear networks |
CN106680775A (zh) * | 2016-12-12 | 2017-05-17 | 清华大学 | 一种自动识别雷达信号调制方式的方法和系统 |
CN106778928B (zh) * | 2016-12-21 | 2020-08-04 | 广州华多网络科技有限公司 | 图像处理方法及装置 |
JPWO2018163005A1 (ja) | 2017-03-10 | 2020-01-23 | 株式会社半導体エネルギー研究所 | タッチパネルシステム、電子機器および半導体装置 |
US11269643B2 (en) * | 2017-04-09 | 2022-03-08 | Intel Corporation | Data operations and finite state machine for machine learning via bypass of computational tasks based on frequently-used data values |
US11875250B1 (en) | 2017-06-19 | 2024-01-16 | Amazon Technologies, Inc. | Deep neural networks with semantically weighted loss functions |
US10783393B2 (en) | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Semi-supervised learning for landmark localization |
US10275646B2 (en) | 2017-08-03 | 2019-04-30 | Gyrfalcon Technology Inc. | Motion recognition via a two-dimensional symbol having multiple ideograms contained therein |
CN107564580B (zh) * | 2017-09-11 | 2019-02-12 | 合肥工业大学 | 基于集成学习的胃镜图像辅助处理系统及方法 |
KR102442055B1 (ko) | 2017-09-26 | 2022-09-13 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN107895174B (zh) * | 2017-11-09 | 2020-01-07 | 京东方科技集团股份有限公司 | 图像分类和转换方法、装置以及图像处理系统 |
CN107944363B (zh) * | 2017-11-15 | 2019-04-26 | 北京达佳互联信息技术有限公司 | 人脸图像处理方法、系统及服务器 |
EP3489892B1 (en) * | 2017-11-24 | 2022-01-05 | Ficosa Adas, S.L.U. | Determining clean or dirty captured images |
CA3084751A1 (en) | 2017-12-05 | 2019-06-13 | Angel Playing Cards Co., Ltd. | Management system |
WO2019141896A1 (en) * | 2018-01-18 | 2019-07-25 | Nokia Technologies Oy | A method for neural networks |
US11119915B2 (en) | 2018-02-08 | 2021-09-14 | Samsung Electronics Co., Ltd. | Dynamic memory mapping for neural networks |
CN108460772B (zh) * | 2018-02-13 | 2022-05-17 | 国家计算机网络与信息安全管理中心 | 基于卷积神经网络的广告骚扰传真图像检测系统及方法 |
US10354122B1 (en) * | 2018-03-02 | 2019-07-16 | Hong Kong Applied Science and Technology Research Institute Company Limited | Using masks to improve classification performance of convolutional neural networks with applications to cancer-cell screening |
CN108875904A (zh) * | 2018-04-04 | 2018-11-23 | 北京迈格威科技有限公司 | 图像处理方法、图像处理装置和计算机可读存储介质 |
US11537871B2 (en) | 2018-04-25 | 2022-12-27 | Fujitsu Limited | Deep neural network training for application program generation |
US10225492B1 (en) | 2018-07-23 | 2019-03-05 | Mp High Tech Solutions Pty Ltd. | User interfaces to configure a thermal imaging system |
KR102631031B1 (ko) | 2018-07-27 | 2024-01-29 | 삼성전자주식회사 | 반도체 장치의 불량 검출 방법 |
CN109241880B (zh) * | 2018-08-22 | 2021-02-05 | 北京旷视科技有限公司 | 图像处理方法、图像处理装置、计算机可读存储介质 |
KR20200028168A (ko) * | 2018-09-06 | 2020-03-16 | 삼성전자주식회사 | 컨볼루셔널 뉴럴 네트워크를 이용하는 컴퓨팅 장치 및 그 동작 방법 |
US10732942B2 (en) * | 2018-09-10 | 2020-08-04 | Adobe Inc. | Automatically categorizing and validating user-interface-design components using a design-component-neural network |
TWI691930B (zh) | 2018-09-19 | 2020-04-21 | 財團法人工業技術研究院 | 基於神經網路的分類方法及其分類裝置 |
CN109740668B (zh) * | 2018-12-29 | 2021-03-30 | 北京市商汤科技开发有限公司 | 深度模型训练方法及装置、电子设备及存储介质 |
US11557107B2 (en) | 2019-01-02 | 2023-01-17 | Bank Of America Corporation | Intelligent recognition and extraction of numerical data from non-numerical graphical representations |
WO2020181817A1 (zh) * | 2019-03-12 | 2020-09-17 | 平安科技(深圳)有限公司 | 一种基于神经网络模型的植物图像的识别方法及装置 |
US11238295B2 (en) * | 2019-03-19 | 2022-02-01 | International Business Machines Corporation | Distributed processing of a digital image |
CN110009644B (zh) * | 2019-03-26 | 2021-02-23 | 深兰科技(上海)有限公司 | 一种特征图行像素分段的方法和装置 |
CN111832713A (zh) * | 2019-04-19 | 2020-10-27 | 北京灵汐科技有限公司 | 一种基于行缓冲Linebuffer的并行计算方法及计算设备 |
US11551447B2 (en) | 2019-06-06 | 2023-01-10 | Omnix Labs, Inc. | Real-time video stream analysis system using deep neural networks |
US11392800B2 (en) | 2019-07-02 | 2022-07-19 | Insurance Services Office, Inc. | Computer vision systems and methods for blind localization of image forgery |
US11551053B2 (en) * | 2019-08-15 | 2023-01-10 | Sap Se | Densely connected convolutional neural network for service ticket classification |
CN110717905B (zh) * | 2019-09-30 | 2022-07-05 | 上海联影智能医疗科技有限公司 | 脑部图像检测方法、计算机设备和存储介质 |
CN110852394B (zh) * | 2019-11-13 | 2022-03-25 | 联想(北京)有限公司 | 数据处理方法及装置、计算机系统以及可读存储介质 |
CN111079863B (zh) * | 2019-12-31 | 2023-05-19 | 重庆青信科技有限公司 | 利用能谱曲线统计指纹识别病灶组织的系统 |
CN111241969A (zh) * | 2020-01-06 | 2020-06-05 | 北京三快在线科技有限公司 | 目标检测方法、装置及相应模型训练方法、装置 |
JP7420607B2 (ja) * | 2020-03-19 | 2024-01-23 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、車両、情報処理サーバ、及びプログラム |
CN111553346A (zh) * | 2020-04-26 | 2020-08-18 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于字符区域感知的场景文本检测方法 |
US20210366269A1 (en) * | 2020-05-22 | 2021-11-25 | Wipro Limited | Method and apparatus for alerting threats to users |
KR20230117662A (ko) | 2022-02-01 | 2023-08-08 | 엔제루 구루푸 가부시키가이샤 | 관리 시스템 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2667472A1 (fr) * | 1990-10-02 | 1992-04-03 | Philips Electronique Lab | Dispositif de segmentation binaire en temps reel d'images numerisees. |
US7747070B2 (en) * | 2005-08-31 | 2010-06-29 | Microsoft Corporation | Training convolutional neural networks on graphics processing units |
-
2013
- 2013-07-31 CN CN201310329465.7A patent/CN104346622A/zh active Pending
-
2014
- 2014-06-26 EP EP20140174111 patent/EP2833295A3/en not_active Withdrawn
- 2014-07-28 JP JP2014152783A patent/JP2015032308A/ja not_active Withdrawn
- 2014-07-31 US US14/448,049 patent/US9697444B2/en not_active Expired - Fee Related
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018514844A (ja) * | 2015-03-11 | 2018-06-07 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 細胞画像および映像の深層畳み込みネットワークベースの分類のためのシステムおよび方法 |
US10614339B2 (en) | 2015-07-29 | 2020-04-07 | Nokia Technologies Oy | Object detection with neural network |
JP2018527660A (ja) * | 2015-07-29 | 2018-09-20 | ノキア テクノロジーズ オーユー | ニューラルネットワークによるオブジェクト検出 |
US11620872B2 (en) | 2015-08-03 | 2023-04-04 | Angel Group Co., Ltd. | Fraud detection system in a casino |
US11657674B2 (en) | 2015-08-03 | 2023-05-23 | Angel Group Go., Ltd. | Fraud detection system in casino |
JP7481389B2 (ja) | 2015-08-03 | 2024-05-10 | エンゼルグループ株式会社 | 遊技場における不正検知システム |
US11741780B2 (en) | 2015-08-03 | 2023-08-29 | Angel Group Co., Ltd. | Fraud detection system in a casino |
US11727750B2 (en) | 2015-08-03 | 2023-08-15 | Angel Group Co., Ltd. | Fraud detection system in a casino |
US11657673B2 (en) | 2015-08-03 | 2023-05-23 | Angel Group Co., Ltd. | Fraud detection system in a casino |
JP2022058521A (ja) * | 2015-08-03 | 2022-04-12 | エンゼルグループ株式会社 | 遊技場における不正検知システム |
JP2022088655A (ja) * | 2015-08-03 | 2022-06-14 | エンゼルグループ株式会社 | 遊技場における不正検知システム |
US11587398B2 (en) | 2015-08-03 | 2023-02-21 | Angel Group Co., Ltd. | Fraud detection system in a casino |
US11527131B2 (en) | 2015-08-03 | 2022-12-13 | Angel Group Co., Ltd. | Fraud detection system in a casino |
US11527130B2 (en) | 2015-08-03 | 2022-12-13 | Angel Group Co., Ltd. | Fraud detection system in a casino |
JP2018537766A (ja) * | 2015-11-04 | 2018-12-20 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | ユニバーサル対応ネットワーク |
JP2017139646A (ja) * | 2016-02-04 | 2017-08-10 | リコーイメージング株式会社 | 撮影装置 |
JP2019508803A (ja) * | 2016-03-31 | 2019-03-28 | 富士通株式会社 | ニューラルネットワークモデルの訓練方法、装置及び電子機器 |
US11978310B2 (en) | 2016-08-02 | 2024-05-07 | Angel Group Co., Ltd. | Inspection system and management system |
CN110573859B (zh) * | 2017-04-13 | 2022-07-26 | 美国西门子医学诊断股份有限公司 | 用于使用卷积神经网络的hiln表征的方法和装置 |
CN110573859A (zh) * | 2017-04-13 | 2019-12-13 | 美国西门子医学诊断股份有限公司 | 用于使用卷积神经网络的hiln表征的方法和装置 |
KR20200017583A (ko) | 2018-07-27 | 2020-02-19 | 박준혁 | 색상 라벨링을 이용한 영상 이미지의 물 포함 영역 상태 판별 장치 및 방법 |
JP2022520912A (ja) * | 2020-01-22 | 2022-04-04 | 深▲チェン▼市商▲湯▼科技有限公司 | データ処理方法、装置及びチップ、電子機器、記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20150036920A1 (en) | 2015-02-05 |
EP2833295A2 (en) | 2015-02-04 |
EP2833295A3 (en) | 2015-05-20 |
US9697444B2 (en) | 2017-07-04 |
CN104346622A (zh) | 2015-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015032308A (ja) | 畳み込みニューラルネットワークの分類器、及びその分類方法、訓練方法 | |
US11861829B2 (en) | Deep learning based medical image detection method and related device | |
CN111476284B (zh) | 图像识别模型训练及图像识别方法、装置、电子设备 | |
JP6843086B2 (ja) | 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体 | |
JP6188400B2 (ja) | 画像処理装置、プログラム及び画像処理方法 | |
US9355313B2 (en) | Detecting and extracting image document components to create flow document | |
US10867169B2 (en) | Character recognition using hierarchical classification | |
US10297029B2 (en) | Method and device for image segmentation | |
GB2565401A (en) | Form structure extraction network | |
WO2020253508A1 (zh) | 异常细胞检测方法、装置及计算机可读存储介质 | |
US11544495B2 (en) | Attributionally robust training for weakly supervised localization and segmentation | |
JP2013125322A (ja) | 学習装置、プログラム及び学習方法 | |
JP2010140478A (ja) | 文書画像分類のための方法及びシステム | |
US20220180624A1 (en) | Method and device for automatic identification of labels of an image | |
CN103745233B (zh) | 基于空间信息迁移的高光谱图像分类方法 | |
WO2016095068A1 (en) | Pedestrian detection apparatus and method | |
CN109034218B (zh) | 模型训练方法、装置、设备及存储介质 | |
KR101981284B1 (ko) | 이미지 처리 장치 및 방법 | |
CN110969641A (zh) | 图像处理方法和装置 | |
Lee et al. | Property-specific aesthetic assessment with unsupervised aesthetic property discovery | |
JP6623851B2 (ja) | 学習方法、情報処理装置および学習プログラム | |
JP2013016170A (ja) | 人体動作の認識の方法、装置、及びプログラム | |
JP2016099980A (ja) | 画像セグメンテーション方法、装置、及びプログラム | |
CN112836709A (zh) | 一种基于空间注意力增强机制的自动图像描述方法 | |
Razzaghi et al. | Image retargeting using nonparametric semantic segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170406 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20170606 |