JP6209879B2 - Convolutional neural network classifier system, training method, classification method and use thereof - Google Patents

Convolutional neural network classifier system, training method, classification method and use thereof Download PDF

Info

Publication number
JP6209879B2
JP6209879B2 JP2013139882A JP2013139882A JP6209879B2 JP 6209879 B2 JP6209879 B2 JP 6209879B2 JP 2013139882 A JP2013139882 A JP 2013139882A JP 2013139882 A JP2013139882 A JP 2013139882A JP 6209879 B2 JP6209879 B2 JP 6209879B2
Authority
JP
Japan
Prior art keywords
neural network
convolutional neural
network classifier
level
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013139882A
Other languages
Japanese (ja)
Other versions
JP2014049118A (en
Inventor
ウ・チュヌポン
ファヌ・ウエイ
源 何
源 何
俊 孫
俊 孫
直井 聡
聡 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2014049118A publication Critical patent/JP2014049118A/en
Application granted granted Critical
Publication of JP6209879B2 publication Critical patent/JP6209879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、分類器に関し、具体的には、畳み込みニューラルネットワーク(Convolutional Neural network、以下、CNNと略称する)分類器システム、その用途、畳み込みニューラルネットワーク分類器システムの訓練方法、及び畳み込みニューラルネットワーク分類器システムを利用して対象物を分類する方法およびその用途に関する。   The present invention relates to a classifier, specifically, a convolutional neural network (hereinafter abbreviated as CNN) classifier system, its use, a training method for a convolutional neural network classifier system, and a convolutional neural network classification. The present invention relates to a method of classifying an object using a container system and its use.

これまでのところ、オフライン手書き文字の認識は難しい課題である。近年、畳み込みニューラルネットワークに基づく識別方法は、現在の技術の発展を実現した。しかし、今の識別方法の認識率には限りがある。   So far, recognition of off-line handwritten characters is a difficult task. In recent years, identification methods based on convolutional neural networks have realized the development of current technology. However, the recognition rate of the current identification method is limited.

この技術課題を解決するには、認識率が高く、効率のよい識別方法または分類方法が必要とされている。   In order to solve this technical problem, an identification method or classification method with a high recognition rate and high efficiency is required.

本発明の主な目的の1つは、畳み込みニューラルネットワーク分類器システムとその用途、畳み込みニューラルネットワーク分類器システムの訓練方法、および畳み込みニューラルネットワーク分類器システムを利用して対象物を分類する方法とその用途を提供することにある。   One of the main objects of the present invention is a convolutional neural network classifier system and its use, a method for training a convolutional neural network classifier system, a method for classifying an object using a convolutional neural network classifier system, and its To provide a use.

以下に、本発明を簡単に説明して本発明の基本的な理解を提供する。この簡単な説明は、本発明に対する網羅的なものではない。また、本発明の肝心部分又は重要部分を決定する意図がなく、本発明の範囲を限定する意図もなく、簡単な形式で幾つかの概念を提供して後述のより詳しい説明の先行説明とすることに過ぎないことは、理解されるところである。   The following briefly describes the present invention and provides a basic understanding of the present invention. This brief description is not exhaustive for the invention. Further, there is no intention to determine the essential or important part of the present invention, and there is no intention to limit the scope of the present invention. It is understood that it is only that.

本発明の一観点によれば、畳み込みニューラルネットワーク分類器システムが提供される。当該システムは、互いに異種であるM種類の畳み込みニューラルネットワーク分類器を有し、Mは1より大きい整数である;このうち、各種類の畳み込みニューラルネットワーク分類器は、複数の互いに同種の畳み込みニューラルネットワーク分類器を含む。   According to one aspect of the invention, a convolutional neural network classifier system is provided. The system has M types of convolutional neural network classifiers that are dissimilar to each other, where M is an integer greater than 1, of which each type of convolutional neural network classifier includes a plurality of convolutional neural networks of the same type. Includes a classifier.

本発明の他の一観点によれば、前記畳み込みニューラルネットワーク分類器システムを訓練する方法が提供される。当該方法は、訓練サンプルを利用してカスケード構造中の全てのレベルの畳み込みニューラルネットワーク分類器を訓練し、また、各レベルの畳み込みニューラルネットワーク分類器の中の複数の畳み込みニューラルネットワーク分類器に対して、それぞれのオリジナル訓練サンプルをランダムに変形させることと;第一レベルの畳み込みニューラルネットワーク分類器を利用してオリジナル訓練サンプルを分類することと;第一レベルの畳み込みニューラルネットワーク分類器で分類しにくい訓練サンプルを、第二レベルの畳み込みニューラルネットワーク分類器全体の訓練サンプルとして、第二レベルの畳み込みニューラルネットワーク分類器を訓練することと;第二レベルの畳み込みニューラルネットワーク分類器から第Mレベルの畳み込みニューラルネットワーク分類器までの任意の隣接する2つのレベルについて順次に前記のステップを繰り返すことと、を含む。   According to another aspect of the invention, a method for training the convolutional neural network classifier system is provided. The method uses training samples to train all levels of convolutional neural network classifiers in the cascade structure, and for multiple convolutional neural network classifiers in each level of convolutional neural network classifiers. Randomly transforming each original training sample; classifying the original training sample using a first level convolutional neural network classifier; training difficult to classify with a first level convolutional neural network classifier Training the second-level convolutional neural network classifier as a training sample for the entire second-level convolutional neural network classifier; and the second-level convolutional neural network classifier to the M-th level convolution Repeating the above steps sequentially for any two adjacent levels up to the embedded neural network classifier.

本発明の他の一観点によれば、前記畳み込みニューラルネットワーク分類器システムを利用して対象物を分類する方法が提供される。この方法は、第一レベルの畳み込みニューラルネットワーク分類器を利用して対象物を分類することと;第二レベルの畳み込みニューラルネットワーク分類器を利用して第一レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい対象物を分類することと;第二レベルの畳み込みニューラルネットワーク分類器から第Mレベルの畳み込みニューラルネットワーク分類器までの全ての隣接する2つのレベルについて順次に前記のステップを繰り返すことと、を含む。   According to another aspect of the present invention, a method for classifying an object using the convolutional neural network classifier system is provided. This method classifies objects using a first level convolutional neural network classifier; and uses a second level convolutional neural network classifier to classify for the first level convolutional neural network classifier. Classifying difficult objects; and repeating the above steps sequentially for all two adjacent levels from the second level convolutional neural network classifier to the Mth level convolutional neural network classifier. .

また、本発明の他の一観点によれば、前記畳み込みニューラルネットワーク分類器システムを識別数字に用いる用途が提供される。   According to another aspect of the present invention, there is provided an application in which the convolutional neural network classifier system is used as an identification number.

本発明の他の一観点によれば、前記分類方法を識別数字に用いる用途が提供される。   According to another aspect of the present invention, an application using the classification method as an identification number is provided.

また、本発明の他の一観点によれば、前記方法を実現する的コンピュータプログラムが提供される。   According to another aspect of the present invention, a computer program for realizing the above method is provided.

本発明の他の一観点によれば、少なくともコンピュータ読み取り可能な媒体形式のコンピュータプログラム製品が提供され、その中に前記方法を実現させるコンピュータプログラムコードが格納されている。   According to another aspect of the invention, a computer program product in at least a computer readable medium format is provided, in which computer program code for implementing the method is stored.

図面による本発明に対する以下の説明を参照すると、本発明の上記及び他利点がより明らかになるであろう。   These and other advantages of the invention will become more apparent with reference to the following description of the invention with reference to the drawings.

図面による本発明に対する以下の説明を参照すると、本発明の上記及び他の目的、特徴、利点がより明らかになるであろう。図面における構成要素は単に本発明の原理を示すものである。図面において、同一又は対応する技術的特徴又は構成要素について同一又は対応する符号で示す。
本発明の一実施例の畳み込みニューラルネットワーク分類器システム100を示すブロック図である。 本発明のもう1つの実施例の畳み込みニューラルネットワーク分類器システム200を示すブロック図である。 空間線形サンプリング型畳み込みニューラルネットワーク分類器を示す概略図; 線形サンプリングの操作方法を示す図である。 ランダムに一部の層の間の連結を省略した空間線形サンプリング型畳み込みニューラルネットワーク分類器を示す概略図である。 空間非線形サンプリング型畳み込みニューラルネットワーク分類器を示す概略図である。 空間非線形サンプリングの操作過程を示す概略図である。 ランダムに一部の層の間の連結を省略した空間線形サンプリング型畳み込みニューラルネットワーク分類器を示す概略図である。 空間サンプリング層のない畳み込みニューラルネットワーク分類器を示す概略図である。 ランダムに一部の層の間の連結を省略し、空間サンプリング層のない畳み込みニューラルネットワーク分類器を示す概略図である。 畳み込みニューラルネットワーク分類器システムの訓練方法1100を示す的フローチャートである。 畳み込みニューラルネットワーク分類器システムを利用して対象物を分類する方法1200を示すフローチャートである。 本発明の実施に用いることのできる計算設備の例のブロック構成図である。
The above and other objects, features and advantages of the present invention will become more apparent with reference to the following description of the invention with reference to the drawings. The components in the drawings merely illustrate the principles of the invention. In the drawings, the same or corresponding technical features or components are denoted by the same or corresponding reference numerals.
1 is a block diagram illustrating a convolutional neural network classifier system 100 according to one embodiment of the present invention. FIG. 3 is a block diagram illustrating a convolutional neural network classifier system 200 according to another embodiment of the present invention. Schematic showing a spatial linear sampling convolutional neural network classifier; It is a figure which shows the operation method of linear sampling. It is the schematic which shows the spatial linear sampling type | mold convolution neural network classifier which abbreviate | omitted the connection between some layers at random. It is the schematic which shows a spatial nonlinear sampling type convolution neural network classifier. It is the schematic which shows the operation process of a spatial nonlinear sampling. It is the schematic which shows the spatial linear sampling type | mold convolution neural network classifier which abbreviate | omitted the connection between some layers at random. FIG. 3 is a schematic diagram illustrating a convolutional neural network classifier without a spatial sampling layer. It is the schematic which shows the convolution neural network classifier which abbreviate | omits the connection between some layers at random and does not have a spatial sampling layer. 5 is a flowchart illustrating a training method 1100 for a convolutional neural network classifier system. 2 is a flow chart illustrating a method 1200 for classifying objects utilizing a convolutional neural network classifier system. It is a block block diagram of the example of the calculation equipment which can be used for implementation of this invention.

以下、図面を参照しながら、本発明の実施例について説明を行う。本発明のある図面またはある実施形態に記載の要素と技術的特徴は、1つまたは複数の他の図面または実施形態における要素と技術的特徴と組み合せることができる。また、注意すべきなのは、明瞭に説明するために、図面および明細書には本発明に関係のない、当業者が既知の要素と処理の表示と記載が省略されている。   Embodiments of the present invention will be described below with reference to the drawings. Elements and technical features described in one drawing or embodiment of the invention may be combined with elements and technical features in one or more other drawings or embodiments. It should also be noted that for the sake of clarity, the drawings and description omit the display and description of elements and processes known to those skilled in the art that are not relevant to the present invention.

図1は、本発明の実施例の畳み込みニューラルネットワーク分類器システム100を示すブロック図である。   FIG. 1 is a block diagram illustrating a convolutional neural network classifier system 100 according to an embodiment of the present invention.

図1に示されたように、畳み込みニューラルネットワーク分類器システム100は、互いに異種であるM種類の畳み込みニューラルネットワーク分類器、即ち、第一種類の畳み込みニューラルネットワーク分類器T1から第M種類の畳み込みニューラルネットワーク分類器TMを有する。ここで、Mは1より大きい整数である。   As shown in FIG. 1, the convolutional neural network classifier system 100 includes M types of convolutional neural network classifiers that are different from each other, that is, from the first type of convolutional neural network classifier T1 to the Mth type of convolutional neural network. It has a network classifier TM. Here, M is an integer greater than 1.

各種類の畳み込みニューラルネットワーク分類器は、複数の互いに同種類の畳み込みニューラルネットワーク分類器を有する。図1に示されたように、第一種類の畳み込みニューラルネットワーク分類器T1は、3つの畳み込みニューラルネットワーク分類器CNN-1を、第二種類の畳み込みニューラルネットワーク分類器T2は、3つの畳み込みニューラルネットワーク分類器CNN-2を,第M種類の畳み込みニューラルネットワーク分類器TMは、3つの畳み込みニューラルネットワーク分類器CNN-Mをそれぞれ有する。   Each type of convolutional neural network classifier has a plurality of convolutional neural network classifiers of the same type. As shown in FIG. 1, the first type of convolutional neural network classifier T1 includes three convolutional neural network classifiers CNN-1, and the second type of convolutional neural network classifier T2 includes three convolutional neural networks. The classifier CNN-2 and the Mth type of convolutional neural network classifier TM each have three convolutional neural network classifiers CNN-M.

ここでは、例示的に各種類の畳み込みニューラルネットワーク分類器が3つの互いに同種類の畳み込みニューラルネットワーク分類器を有することを示しているが、実際に各種類の畳み込みニューラルネットワーク分類器が有する畳み込みニューラルネットワーク分類器の数は3つに限らず、任意の数であってもよい、且つそれぞれ異なる数を有することができる。   In this example, each type of convolutional neural network classifier is shown to have three convolutional neural network classifiers of the same type, but each type of convolutional neural network classifier actually has a convolutional neural network. The number of classifiers is not limited to three, and may be an arbitrary number and may have a different number.

図2は、本発明の実施例の畳み込みニューラルネットワーク分類器システム200を示すブロック図である。   FIG. 2 is a block diagram illustrating a convolutional neural network classifier system 200 according to an embodiment of the present invention.

図2に示されたように、畳み込みニューラルネットワーク分類器システム200は、三種類の畳み込みニューラルネットワーク分類器を有し、それぞれ第一種類の畳み込みニューラルネットワーク分類器T1、第二種類の畳み込みニューラルネットワーク分類器T2および第三種類の畳み込みニューラルネットワーク分類器T3である。この3種類の畳み込みニューラルネットワーク分類器は、互いに異種であり、且つ3つのレベルのカスケード構造を有する。   As shown in FIG. 2, the convolutional neural network classifier system 200 includes three types of convolutional neural network classifiers, each of which includes a first type of convolutional neural network classifier T1 and a second type of convolutional neural network classification. A classifier T2 and a third type of convolutional neural network classifier T3. The three types of convolutional neural network classifiers are different from each other and have a three-level cascade structure.

図2に示されたように、第一レベルの畳み込みニューラルネットワーク分類器T1は、分類対象の対象物を分類することができる。第二レベルの畳み込みニューラルネットワーク分類器T2は、第一レベルの畳み込みニューラルネットワーク分類器T1にとって分類しにくい対象物を分類することができる。第三レベルの畳み込みニューラルネットワーク分類器T3は、第二レベルの畳み込みニューラルネットワーク分類器T2にとって分類しにくい対象物を分類することができる。全てのレベルの畳み込みニューラルネットワーク分類器を利用して、全てのレベルの畳み込みニューラルネットワーク分類器にとって分類しにくい対象物(ここでは、第三レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい対象物)に投票を行い、対象物の類別を決定する。例えば、本明細書でいう「分類しにくい」とは、分類対象の対象物に対する誤分類又は誤識別を表し、或いは、分類対象の対象物に対する分類又は識別は正しいが、信頼度が低いことを表すことができる。   As shown in FIG. 2, the first level convolutional neural network classifier T1 can classify objects to be classified. The second level convolutional neural network classifier T2 can classify objects that are difficult to classify for the first level convolutional neural network classifier T1. The third level convolutional neural network classifier T3 can classify objects that are difficult to classify for the second level convolutional neural network classifier T2. Uses all levels of convolutional neural network classifiers to target objects that are difficult to classify for all levels of convolutional neural network classifiers (here, objects that are difficult to classify for third level convolutional neural network classifiers) Voting and categorizing objects. For example, “difficult to classify” as used in this specification represents misclassification or misidentification of an object to be classified, or means that classification or identification of an object to be classified is correct but reliability is low. Can be represented.

各レベルの畳み込みニューラルネットワーク分類器は、複数の互いに同種類の畳み込みニューラルネットワーク分類器を有することができる。例えば、各レベルの畳み込みニューラルネットワーク分類器内の複数の互いに同種類の畳み込みニューラルネットワーク分類器が投票を通じて、対象物を分類することができる。   Each level of the convolutional neural network classifier can have a plurality of convolutional neural network classifiers of the same type. For example, a plurality of the same type of convolutional neural network classifiers in each level of the convolutional neural network classifier can classify objects through voting.

また、図2には3つのレベルのカスケード構造を示しているが、これは単に例示的なものである。実際に、畳み込みニューラルネットワーク分類器システム200は、2つのレベル以上の任意のカスケード構造であってもよい。仮に、畳み込みニューラルネットワーク分類器システム200がMレベルのカスケード構造であれば、対象物を分類するときに、第一レベルの畳み込みニューラルネットワーク分類器から第Mレベルの畳み込みニューラルネットワーク分類器までの全ての隣接する2つのレベルに対して、順次に前記操作を行い、即ち、現在のレベルの畳み込みニューラルネットワーク分類器は、分類対象の対象物を分類し、次のレベルの畳み込みニューラルネットワーク分類器は、現在のレベルで分類しにくい対象物をさらに分類する。   Also, FIG. 2 shows a three level cascade structure, which is merely exemplary. Indeed, the convolutional neural network classifier system 200 may be any cascade structure of two or more levels. If the convolutional neural network classifier system 200 has an M level cascade structure, when classifying an object, all of the items from the first level convolutional neural network classifier to the Mth level convolutional neural network classifier are used. The above operations are sequentially performed on two adjacent levels, that is, the current level of the convolutional neural network classifier classifies the object to be classified, and the next level of the convolutional neural network classifier Further classify objects that are difficult to classify at the level of.

また、互いに異種である第一種類の畳み込みニューラルネットワーク分類器T1、第二種類の畳み込みニューラルネットワーク分類器T2および第三種類の畳み込みニューラルネットワーク分類器T3を十分に活用して対象物を効率よく正確に分類するために、種類の異なる畳み込みニューラルネットワーク分類器の属性に基づいてカスケード構造を構築することができる。例えば、以下の方式でカスケード構造の各レベルの畳み込みニューラルネットワーク分類器を構築することができる:各種類のサンプルに対する効果にばらつきのない畳み込みニューラルネットワーク分類器をカスケード構造中の前レベルに配置し、特定の種類のサンプルに突出した効果を有する畳み込みニューラルネットワーク分類器をカスケード構造中の中間レベルに配置する。また、スパース連続型の広義の畳み込みニューラルネットワーク分類器をカスケード構造中の後ろのレベルに配置することができる。   In addition, the first type of convolutional neural network classifier T1, the second type of convolutional neural network classifier T2, and the third type of convolutional neural network classifier T3, which are different from each other, are fully utilized to efficiently and accurately target objects. Can be constructed based on the attributes of different types of convolutional neural network classifiers. For example, a convolutional neural network classifier for each level of the cascade structure can be constructed in the following manner: a convolutional neural network classifier that has a uniform effect on each type of sample is placed at the previous level in the cascade structure; Place convolutional neural network classifiers with prominent effects on specific types of samples at intermediate levels in the cascade structure. Also, sparse continuous broad convolutional neural network classifiers can be placed at a later level in the cascade structure.

本発明のカスケード構造中の各レベルの畳み込みニューラルネットワーク分類器は、以下分類器から選ぶことができ、且つこれらの分類器には限定されない:a) 空間線形サンプリング型畳み込みニューラルネットワーク分類器;b) ランダムに一部の層の間の連結を省略した空間線形サンプリング型畳み込みニューラルネットワーク分類器;c) 空間非線形サンプリング型畳み込みニューラルネットワーク分類器;d) ランダムに一部の層の間の連結を省略した非空間線形サンプリング型畳み込みニューラルネットワーク分類器;e) 空間サンプリング層のない畳み込みニューラルネットワーク分類器;およびf) ランダムに一部の層の間の連結を省略した、空間サンプリング層のない畳み込みニューラルネットワーク分類器。   The convolutional neural network classifiers at each level in the cascade structure of the present invention can be selected from and are not limited to the following classifiers: a) Spatial linear sampling convolutional neural network classifiers; b) Spatial linear sampling convolutional neural network classifier that omits connections between some layers randomly; c) Spatial nonlinear sampling convolutional neural network classifier; d) Connections between some layers randomly omitted Non-spatial linear sampling convolutional neural network classifier; e) convolutional neural network classifier without spatial sampling layer; and f) convolutional neural network classification without spatial sampling layer, omitting connections between some layers randomly vessel.

以下、図3から図10を参照しながら、前記6種類の互いに異種である畳み込みニューラルネットワーク分類器について説明する。   Hereinafter, the six types of convolutional neural network classifiers that are different from each other will be described with reference to FIGS.

図3は、空間線形サンプリング型畳み込みニューラルネットワーク分類器を示す概略図である。図4は、線形サンプリングの操作方法を示す図である。   FIG. 3 is a schematic diagram showing a spatial linear sampling type convolutional neural network classifier. FIG. 4 is a diagram illustrating a linear sampling operation method.

図3に示されたように、空間線形サンプリング型畳み込みニューラルネットワーク分類器の典型的な構造(“FM”は特徴図である)は、入力層、交互に配置される畳み込み層と線形サンプリング層、最後に出力層を含む。ここで、畳み込み層と線形サンプリング層が交互に配置する回数は無制限である。   As shown in FIG. 3, a typical structure of a spatial linear sampling convolution neural network classifier ("FM" is a feature diagram) consists of an input layer, alternating convolution layers and linear sampling layers, Finally, the output layer is included. Here, the number of times the convolutional layer and the linear sampling layer are alternately arranged is unlimited.

線形サンプリングの操作方法とは、図4に示されたように、1つの2x2のブロックの各成分と、それと同じ大きさの1つの線形窓関数の各成分との積和を求める(実際に大きさは2x2に限らない)。図3には、連結線両端にある特徴図については、連結線の右側の特徴図は、連結線の左側の特徴図を畳み込み又は線形サンプリングして得られたものである。   As shown in FIG. 4, the operation method of linear sampling is to obtain the product sum of each component of one 2 × 2 block and each component of one linear window function having the same size (actually large size). Is not limited to 2x2.) In FIG. 3, regarding the feature diagrams at both ends of the connection line, the feature diagram on the right side of the connection line is obtained by convolution or linear sampling of the feature diagram on the left side of the connection line.

以下、畳み込み操作を説明する。例えば、図3において入力画像と特徴図FM11との間に連結線があり、且つこの連結線が畳み込み操作を表す場合、この連結線自身は1つのテンプレートとなり、FM11の計算式は、
FM11 = 入力画像 * 連結線上のテンプレートである。
Hereinafter, the convolution operation will be described. For example, in FIG. 3, when there is a connecting line between the input image and the feature diagram FM11 and this connecting line represents a convolution operation, this connecting line itself becomes one template, and the calculation formula of FM11 is
FM11 = Input image * A template on a connecting line.

ここで、「*」は畳み込み操作を表す。   Here, “*” represents a convolution operation.

また、例えば、図3において、FM31はFM21とFM22との間にそれぞれ連結線があり、且つ、この2本連結線が畳み込み操作を表す場合、この2本の連結線自身はそれぞれ1つのテンプレートに対応し、FM32の計算式は、
FM31 = FM21 * 連結線上のテンプレート + FM22 * 連結線上のテンプレートとなる。
Also, for example, in FIG. 3, when FM 31 has a connecting line between FM 21 and FM 22, and these two connecting lines represent a convolution operation, each of these two connecting lines itself becomes one template. Correspondingly, the calculation formula of FM32 is
FM31 = FM21 * Template on connecting line + FM22 * Template on connecting line.

ここで、「*」は畳み込み操作を表す。   Here, “*” represents a convolution operation.

以下、線形サンプリング操作について説明する。線形サンプリングの操作方法は、図4に示されたように、図4にあるFM31、FM41は、図3にあるFM31、FM41に対応する。特徴図FM31にある1つの2x2の画素ブロックの各成分と、同じ大きさの1つの線形窓関数の各成分との積和を求め、その結果を特徴図FM41の対応する画素に与える。計算式は、
Si=Pi・Wi ( i=1,2,3,4)となる。
Hereinafter, the linear sampling operation will be described. In the linear sampling operation method, as shown in FIG. 4, FM31 and FM41 in FIG. 4 correspond to FM31 and FM41 in FIG. The product sum of each component of one 2 × 2 pixel block in the feature diagram FM31 and one component of one linear window function having the same size is obtained, and the result is given to the corresponding pixel in the feature diagram FM41. The formula is
S i = P i · W i (i = 1, 2, 3, 4).

実際に使用するときに、画素ブロックの大きさと線形窓関数は2x2に限らず、線形窓関数は、任意に設定することができる。   When actually used, the size of the pixel block and the linear window function are not limited to 2 × 2, and the linear window function can be arbitrarily set.

図5は、ランダムに一部の層の間の連結を省略した空間線形サンプリング型畳み込みニューラルネットワーク分類器を示す概略図である。   FIG. 5 is a schematic diagram showing a spatial linear sampling type convolutional neural network classifier in which connection between some layers is omitted at random.

図3に示された空間線形サンプリング型畳み込みニューラルネットワーク分類器と比べると、図5に示された畳み込みニューラルネットワーク分類器の構造には一部の特徴図の間の連結(例えばFM21とFM31の間の連結)がランダムに取り除かれた。即ち、空間線形サンプリング型畳み込みニューラルネットワーク分類器 + スパースランダム連結。   Compared with the spatial linear sampling type convolutional neural network classifier shown in FIG. 3, the structure of the convolutional neural network classifier shown in FIG. 5 has a connection between some feature diagrams (for example, between FM21 and FM31). Was randomly removed. That is, spatial linear sampling type convolutional neural network classifier + sparse random connection.

図6は、空間非線形サンプリング型畳み込みニューラルネットワーク分類器を示す概略図である。   FIG. 6 is a schematic diagram showing a spatial nonlinear sampling type convolutional neural network classifier.

図3に示された空間線形サンプリング型畳み込みニューラルネットワーク分類器と比べ、図6に示された空間非線形サンプリング型畳み込みニューラルネットワーク分類器は、非線形サンプリングの操作方法を採用した。図7は、非線形サンプリングの操作過程を示す概略図である。   Compared with the spatial linear sampling type convolutional neural network classifier shown in FIG. 3, the spatial nonlinear sampling type convolutional neural network classifier shown in FIG. 6 employs a nonlinear sampling operation method. FIG. 7 is a schematic diagram showing an operation process of nonlinear sampling.

空間非線形サンプリングの操作方法は、図7に示されたように、図7のFM31、FM41は図6のFM31、FM41に対応する。特徴図FM31における1つの2x2の画素ブロックを1つの非線形窓関数に入れ、その結果を特徴図FM41の対応する画素に与える。実際に使用するときに、画素ブロックの大きさと線形窓関数は2x2に限らず、非線形窓関数の設定も任意である。比較的に良くみられる非線形窓関数として、最大値を取る、最小値を取る、或いは中間値を取るなどのものを含む。   In the spatial nonlinear sampling operation method, as shown in FIG. 7, FM31 and FM41 in FIG. 7 correspond to FM31 and FM41 in FIG. One 2 × 2 pixel block in the feature diagram FM31 is put into one nonlinear window function, and the result is given to the corresponding pixel in the feature diagram FM41. When actually used, the size of the pixel block and the linear window function are not limited to 2 × 2, and the setting of the nonlinear window function is also arbitrary. Nonlinear window functions that are relatively common include those that take a maximum value, a minimum value, or an intermediate value.

図8は、一部の層の間の連結をランダムに省略した空間非線形サンプリング型畳み込みニューラルネットワーク分類器(即ち、空間非線形サンプリング型畳み込みニューラルネットワーク分類器 + スパースランダム連結)を示す概略図である。   FIG. 8 is a schematic diagram showing a spatial nonlinear sampling convolutional neural network classifier (ie, spatial nonlinear sampling convolutional neural network classifier + sparse random connection) in which connections between some layers are randomly omitted.

図5の空間非線形サンプリング型畳み込みニューラルネットワーク分類器と比べ、図8に示された、一部の層の間の連結をランダムに省略した空間非線形サンプリング型畳み込みニューラルネットワーク分類器の一部の特徴図の間の連結、例えばFM21とFM31との間の連結がランダムに取り除かれた。   Compared to the spatial nonlinear sampling type convolutional neural network classifier shown in FIG. 5, a partial characteristic diagram of the spatial nonlinear sampling type convolutional neural network classifier shown in FIG. 8 in which connection between some layers is randomly omitted. The connection between, for example, the connection between FM21 and FM31 was randomly removed.

図9は、空間サンプリング層のない畳み込みニューラルネットワーク分類器を示す概略図である。   FIG. 9 is a schematic diagram illustrating a convolutional neural network classifier without a spatial sampling layer.

前の4種類の畳み込みニューラルネットワーク分類器と比べ、図9に示された空間サンプリング層のない畳み込みニューラルネットワーク分類器は、空間線形サンプリング層と非空間線形サンプリング層を有しない。   Compared to the previous four types of convolutional neural network classifiers, the convolutional neural network classifier without a spatial sampling layer shown in FIG. 9 does not have a spatial linear sampling layer and a non-spatial linear sampling layer.

図10は、一部の層の間の連結をランダムに省略した、空間サンプリング層のない畳み込みニューラルネットワーク分類器(即ち,空間サンプリング層のない畳み込みニューラルネットワーク分類器 + スパースランダム連結)を示す概略図である。   FIG. 10 is a schematic diagram illustrating a convolutional neural network classifier without a spatial sampling layer (ie, a convolutional neural network classifier without a spatial sampling layer + sparse random connection) in which connections between some layers are randomly omitted. It is.

図9に示された空間サンプリング層のない畳み込みニューラルネットワーク分類器と比べると、図10に示された空間サンプリング層のない畳み込みニューラルネットワーク分類器 + スパースランダム連結の典型的な構造は、一部の特徴図の間の連結、例えばFM31とFM51との間の連結がランダムに取り除かれた。   Compared to the convolutional neural network classifier without the spatial sampling layer shown in FIG. 9, the typical structure of the convolutional neural network classifier without the spatial sampling layer shown in FIG. Connections between feature diagrams, such as the connection between FM31 and FM51, were randomly removed.

本発明の一実施例においては、畳み込みニューラルネットワーク分類器システム100または200は、当該畳み込みニューラルネットワーク分類器が対象物を分類するときに信頼度を計算する信頼度計算分類器(図1と図2には図示せず)をさらに有することができる。   In one embodiment of the present invention, the convolutional neural network classifier system 100 or 200 includes a reliability calculation classifier (FIGS. 1 and 2) that calculates a reliability when the convolutional neural network classifier classifies an object. (Not shown).

実際に畳み込みニューラルネットワーク分類器を使用するときに、識別対象サンプルが与えられ、畳み込みニューラルネットワーク分類器は、予測した数字と対応する信頼度を出力する必要がある。カスケード構造中の各レベルの各畳み込みニューラルネットワーク分類器について、当該畳み込みニューラルネットワーク分類器を使ってその訓練サンプルを分類し、各訓練サンプルについて当該畳み込みニューラルネットワーク分類器から各層の少なくとも一部のノードの応答値を抽出し、応答値に基づいて信頼度計算分類器を訓練する。このようにして、特定のある層の情報だけではなく、畳み込みニューラルネットワーク分類器の各層の情報を十分に活用することができる。   When actually using a convolutional neural network classifier, a sample to be identified is given, and the convolutional neural network classifier needs to output a reliability corresponding to the predicted number. For each convolutional neural network classifier at each level in the cascade structure, classify the training sample using the convolutional neural network classifier, and for each training sample from at least some nodes in each layer from the convolutional neural network classifier Extract the response values and train a confidence calculation classifier based on the response values. In this way, not only information on a specific layer but also information on each layer of the convolutional neural network classifier can be fully utilized.

具体的に言うと、畳み込みニューラルネットワーク分類器について、信頼度計算分類器を訓練する過程は以下の通りである:訓練サンプルを与え、それを畳み込みニューラルネットワーク分類器に送り込み前方伝播を行い、各層の少なくとも一部のニューロンノードの応答値を抽出し、応答値を利用して信頼度計算分類器を訓練する。実際に識別する過程では、現在の識別対象物を畳み込みニューラルネットワーク分類器に送り込み、且つ前方伝播を行い、当該畳み込みニューラルネットワーク分類器の分類結果を獲得する。同時に、前記少なくとも一部のニューロンノードの応答値を抽出し、当該応答値に基づいて訓練済みの信頼度計算分類器を利用して信頼度を計算する。   Specifically, for a convolutional neural network classifier, the process of training a reliability calculation classifier is as follows: give a training sample, send it to the convolutional neural network classifier, perform forward propagation, and Response values of at least some neuron nodes are extracted, and a reliability calculation classifier is trained using the response values. In the actual identification process, the current identification object is sent to the convolutional neural network classifier and forward propagation is performed to obtain the classification result of the convolutional neural network classifier. At the same time, response values of the at least some neuron nodes are extracted, and reliability is calculated using a trained reliability calculation classifier based on the response values.

以下、信頼度計算分類器をサポートベクターマシンとする例について説明する。   Hereinafter, an example in which the reliability calculation classifier is a support vector machine will be described.

訓練サンプルを与え、それを畳み込みニューラルネットワーク分類器に送り込み、前方伝播を行い、各層の少なくとも一部のニューロンノードの応答値を抽出し固有ベクトル(且つサンプル類別を記録する)を構成する。即ち、各訓練サンプルが1つの固有ベクトルを構成する。全ての固有ベクトルをサポートベクターマシン(Support Vector Machine, SVM)に送り込んで訓練し、各類別のサポートベクターを獲得する。これらのサポートベクターを信頼度の計算に用いる。具体的には、実際の識別の過程において、現在の識別対象のサンプルを畳み込みニューラルネットワーク分類器に送り込んで前方伝播を行った後、当該畳み込みニューラルネットワーク分類器の分類結果を獲得する。同時に、選択したニューロンノード応答値を抽出し固有ベクトルを構成し、この固有ベクトルの予測した数字の類別サポートベクターへの距離を計算し、この距離の逆数を信頼度とする。   Given training samples, feed them into a convolutional neural network classifier, perform forward propagation, extract response values of at least some neuron nodes in each layer, and construct eigenvectors (and record sample categories). That is, each training sample constitutes one eigenvector. All eigenvectors are sent to a support vector machine (SVM) and trained to obtain support vectors for each category. These support vectors are used for the reliability calculation. Specifically, in the actual identification process, the current sample to be identified is sent to the convolutional neural network classifier to perform forward propagation, and then the classification result of the convolutional neural network classifier is acquired. At the same time, the selected neuron node response value is extracted to construct an eigenvector, the distance of the predicted number of the eigenvector to the category support vector is calculated, and the reciprocal of this distance is used as the reliability.

以上、当該信頼度計算分類器がサポートベクターマシンであるケースを説明してきたが、ここでの信頼度計算分類器は、適当な任意の種類の分類器であってもよく、サポートベクターマシンに限らないことは、理解されるところである。   The case where the reliability calculation classifier is a support vector machine has been described above. However, the reliability calculation classifier here may be any appropriate type of classifier and is not limited to a support vector machine. It is understood that there is no.

図11は、畳み込みニューラルネットワーク分類器システムの訓練方法1100のフローチャートである。   FIG. 11 is a flowchart of a training method 1100 for a convolutional neural network classifier system.

図11に示されたように、ステップS1102において、訓練サンプルを利用してカスケード構造中の全てのレベルの畳み込みニューラルネットワーク分類器を訓練する。ここで、各レベルの畳み込みニューラルネットワーク分類器の中の複数の畳み込みニューラルネットワーク分類器に対し、それぞれオリジナル訓練サンプルについてランダムに変形させる。ランダムに変形させることにより訓練サンプルを豊かにすることができる。このようにして、変形後のオリジナル訓練サンプルを利用して全ての畳み込みニューラルネットワーク分類器を訓練することにより、これらの畳み込みニューラルネットワーク分類器に一定の分類性能を持たせ、その後のレベル別の訓練に有利である。   As shown in FIG. 11, in step S1102, training samples are used to train all levels of convolutional neural network classifiers in the cascade structure. Here, each of the convolutional neural network classifiers in each level of the convolutional neural network classifier is randomly transformed with respect to the original training sample. The training sample can be enriched by deforming it randomly. In this way, by training all the convolutional neural network classifiers using the original training sample after deformation, these convolutional neural network classifiers have a certain classification performance, and then training by level. Is advantageous.

ステップS1104において、ループ制御変数Nの初期値を1とすることができる。   In step S1104, the initial value of the loop control variable N can be set to 1.

ステップS1106において、第Nレベルの畳み込みニューラルネットワーク分類器を利用してオリジナル訓練サンプルを分類することができる。   In step S1106, the original training samples can be classified using an Nth level convolutional neural network classifier.

ステップS1108において、第Nレベルの畳み込みニューラルネットワーク分類器が分類しにくい訓練サンプルを、第N+1レベルの畳み込みニューラルネットワーク分類器を訓練する全ての訓練サンプルとし、第N+1レベルの畳み込みニューラルネットワーク分類器を訓練する。ここで、信頼度および/または各訓練サンプル自身の既知のマークに基づいて各畳み込みニューラルネットワーク分類器が訓練サンプルを分類しにくいか否かを判断する。   In step S1108, the training samples that are difficult to classify by the Nth level convolutional neural network classifier are all training samples for training the N + 1th level convolutional neural network classifier, and the N + 1th level convolutional neural network is obtained. Train the classifier. Here, it is determined whether each convolutional neural network classifier is difficult to classify the training sample based on the reliability and / or the known mark of each training sample itself.

ステップS1110において、ループ制御変数Nの値を1増加させる。   In step S1110, the value of the loop control variable N is incremented by one.

ステップS1112において、ループ制御変数NがM以上であるか否かを判断する。Mはカスケード構造のレベルであり、M ≧ 2である。   In step S1112, it is determined whether or not the loop control variable N is greater than or equal to M. M is the level of the cascade structure, where M ≧ 2.

ステップS1112での判断結果、NがMより小さい場合には、ステップS1116に戻り、NがM以上である場合には、プロセスを終了する。   If N is smaller than M as a result of the determination in step S1112, the process returns to step S1116, and if N is M or more, the process ends.

また、カスケード構造を構築する前に、幾つかの畳み込みニューラルネットワーク分類器を訓練することができる。また、各畳み込みニューラルネットワーク分類器は前記6種類の異種構造の1つである。訓練方法は、直接典型的な確率的勾配降下法を採用する。各畳み込みニューラルネットワーク分類器について複数回の訓練を行い、各回に複数のサンプルを使用する。訓練過程において、各サンプルが畳み込みニューラルネットワーク分類器に送り込まれる過程は以下の通りである:1つのサンプルを与え、当該サンプルにランダムに変形させた(ランダムに回転又は移動させる)後に、変形後のサンプルを畳み込みニューラルネットワーク分類器に送り込み、前方伝播を行い、それから確率的勾配降下法により後方伝播を行い、後方伝播の中で畳み込みニューラルネットワーク分類器の各層のパラメーターを修正する。   Also, several convolutional neural network classifiers can be trained before building the cascade structure. Each convolutional neural network classifier is one of the six types of heterogeneous structures. The training method directly adopts a typical stochastic gradient descent method. Train multiple times for each convolutional neural network classifier and use multiple samples each time. In the training process, the process in which each sample is sent to the convolutional neural network classifier is as follows: after one sample is given, the sample is randomly transformed (randomly rotated or moved), and then the transformed The sample is sent to the convolutional neural network classifier, forward propagation is performed, then backward propagation is performed by the stochastic gradient descent method, and the parameters of each layer of the convolutional neural network classifier are corrected in the backward propagation.

続いて、一定のルールに基づいて訓練済みの一部の畳み込みニューラルネットワーク分類器を選択してカスケード分類器を形成する。   Subsequently, a trained partial convolutional neural network classifier is selected based on certain rules to form a cascade classifier.

また、各訓練済みの畳み込みニューラルネットワーク分類器について、全ての訓練サンプルを用いて、現在の畳み込みニューラルネットワーク分類器の各種類のサンプルにおける誤り率と、現在の畳み込みニューラルネットワーク分類器の全てのサンプルにおける平均誤り率を算出し、それから算出された数値に基づいて全ての訓練済みの畳み込みニューラルネットワーク分類器を以下の三種類に分類する:(1)、スパース連続型畳み込みニューラルネットワーク分類器;(2)、前記(1)を除き、平均誤り率の低い畳み込みニューラルネットワーク分類器;および(3)、ある種類のサンプルにおいて低い誤り率を有する畳み込みニューラルネットワーク分類器。それから、前記各種類の畳み込みニューラルネットワーク分類器からそれぞれ一部の畳み込みニューラルネットワーク分類器を選出して、カスケード構造に用いる。好ましくは、以下の方式でカスケード構造を構築する。即ち、第(2)類の畳み込みニューラルネットワーク分類器をカスケード構造の前寄りのレベルに配置し、第(3)類の畳み込みニューラルネットワーク分類器をカスケード構造の中間レベルに配置し、第(1)類をカスケード構造の後寄りのレベルに配置する。   Also, for each trained convolutional neural network classifier, using all training samples, the error rate in each type of sample in the current convolutional neural network classifier and in all samples in the current convolutional neural network classifier An average error rate is calculated, and all trained convolutional neural network classifiers are classified into the following three types based on the calculated numerical values: (1), sparse continuous convolutional neural network classifiers; (2) Except for (1) above, a convolutional neural network classifier having a low average error rate; and (3) a convolutional neural network classifier having a low error rate in a certain type of sample. Then, a part of the convolutional neural network classifiers are selected from the respective types of convolutional neural network classifiers and used for the cascade structure. Preferably, the cascade structure is constructed in the following manner. That is, the (2) class convolutional neural network classifier is arranged at the front level of the cascade structure, the (3) class convolutional neural network classifier is arranged at the intermediate level of the cascade structure, and the (1) Arrange the class on the back level of the cascade structure.

また、信頼度計算分類器を利用して信頼度を算出することができる。まず、信頼度計算分類器を訓練する。具体的に言うと、カスケード構造中の各レベルの各畳み込みニューラルネットワーク分類器について、当該畳み込みニューラルネットワーク分類器を用いてサンプル分類の訓練を行い、各訓練サンプルについて当該畳み込みニューラルネットワーク分類器から各層の少なくとも一部のノードの応答値を抽出し、且つ応答値を利用して信頼度計算分類器を訓練する。それから、当該畳み込みニューラルネットワーク分類器が対象物を分類するときに、信頼度を利用して分類器計算信頼度を算出する。好ましくは、前記各層の少なくとも一部のノードは、後ろから第二層の少なくとも一部のノードを含む。   In addition, the reliability can be calculated using a reliability calculation classifier. First, train the reliability calculation classifier. Specifically, for each convolutional neural network classifier at each level in the cascade structure, training of the sample classification is performed using the convolutional neural network classifier, and each training sample is subjected to each layer from the convolutional neural network classifier. Extract response values of at least some nodes, and train the reliability calculation classifier using the response values. Then, when the convolutional neural network classifier classifies the object, the reliability of the classifier is calculated using the reliability. Preferably, at least some of the nodes of each layer include at least some of the nodes of the second layer from the back.

図12は、畳み込みニューラルネットワーク分類器システムを利用して対象物を分類する方法1200のフローチャートである。   FIG. 12 is a flowchart of a method 1200 for classifying objects using a convolutional neural network classifier system.

図12に示されたように、ステップS1202では、ループ制御変数Nの初期値を1とする。   As shown in FIG. 12, in step S1202, the initial value of the loop control variable N is set to 1.

ステップS1204では、第Nレベルの畳み込みニューラルネットワーク分類器を利用して対象物を分類する。   In step S1204, an object is classified using an Nth level convolutional neural network classifier.

ステップS1206では、第N+1レベルの畳み込みニューラルネットワーク分類器を利用して第Nレベルの畳み込みニューラルネットワーク分類器が分類しにくい対象物を分類する。   In step S1206, the N + 1 level convolutional neural network classifier is used to classify objects that are difficult for the Nth level convolutional neural network classifier to classify.

ステップS1208では、ループ制御変数Nの値を1増加させる。   In step S1208, the value of the loop control variable N is incremented by one.

ステップS1210では、NがM以上であるか否かを判断する。ここで、Mはカスケード構造のレベル数であり、且つM ≧ 2である。   In step S1210, it is determined whether N is M or more. Here, M is the number of levels of the cascade structure, and M ≧ 2.

ステップS1210での判断結果、NがMより小さい場合には、ステップS1204に戻り、NがM以上である場合には、プロセスを終了する。   As a result of the determination in step S1210, if N is smaller than M, the process returns to step S1204. If N is M or more, the process is terminated.

また、信頼度計算分類器を利用して信頼度を算出することができる。各分類対象物についてカスケード構造中の各レベルの各畳み込みニューラルネットワーク分類器が各訓練サンプルを分類するときの相応ノードの応答値を抽出する;応答値に基づいて、信頼度計算分類器を利用して信頼度を計算する。前記所定のノードは後ろから第二層の少なくとも一部のノードを含む。   In addition, the reliability can be calculated using a reliability calculation classifier. For each classification target, each convolutional neural network classifier at each level in the cascade structure extracts the response value of the corresponding node when classifying each training sample; on the basis of the response value, a reliability calculation classifier is used. To calculate the reliability. The predetermined nodes include at least some nodes of the second layer from the back.

信頼度に基づいて各レベルの中の各畳み込みニューラルネットワーク分類器が対象物を分類しにくいか否かを判断する。   Based on the reliability, each convolutional neural network classifier in each level determines whether it is difficult to classify the object.

本発明の畳み込みニューラルネットワーク分類器システムは数字の識別に用いられることができる。畳み込みニューラルネットワーク分類器システムを利用する分類方法も数字の識別に用いられることができる。   The convolutional neural network classifier system of the present invention can be used to identify numbers. Classification methods utilizing a convolutional neural network classifier system can also be used for number identification.

以下、3つのレベルのカスケード構造の畳み込みニューラルネットワーク分類器システムを用いて手書き文字の識別を行う過程を説明する。ここでは信頼度も使用される。   Hereinafter, a process of identifying handwritten characters using a three-level cascaded convolutional neural network classifier system will be described. Here, reliability is also used.

まず、1つの識別対象物を与え、それを第一レベルの畳み込みニューラルネットワーク分類器に送り込む。当該レベルの畳み込みニューラルネットワーク分類器は、予測した数字と対応する信頼度という2つの値を出力する。信頼度が所定の閾値より大きい場合には、識別の結果が信頼でき、識別の結果を直接出力し、その後のステップを行わない。そうでなければ、当該識別対象物を第二レベルの畳み込みニューラルネットワーク分類器に送り込み、第一レベルの畳み込みニューラルネットワーク分類器のときのプロセスを繰り返す。信頼度が所定の閾値より小さい場合には、当該識別対象物を第三レベルの畳み込みニューラルネットワーク分類器に送り込み、第一レベルの畳み込みニューラルネットワーク分類器のときのプロセスを繰り返す。もし第三レベルの畳み込みニューラルネットワーク分類器を経た後にも信頼度がまだ所定の閾値より小さい場合には、全てのレベルの畳み込みニューラルネットワーク分類器の投票により当該識別対象物の識別結果を獲得する。   First, an identification object is given and it is sent to a first level convolutional neural network classifier. The level of the convolutional neural network classifier outputs two values, the predicted number and the corresponding reliability. If the reliability is greater than a predetermined threshold, the identification result is reliable, the identification result is output directly, and no subsequent steps are performed. Otherwise, the identification object is sent to the second level convolutional neural network classifier and the process for the first level convolutional neural network classifier is repeated. If the reliability is smaller than the predetermined threshold, the identification object is sent to the third level convolutional neural network classifier, and the process for the first level convolutional neural network classifier is repeated. If the reliability is still smaller than the predetermined threshold even after passing through the third level convolutional neural network classifier, the identification result of the identification object is obtained by voting of all levels of the convolutional neural network classifier.

ここで注意すべきなのは、ここの各レベルの畳み込みニューラルネットワーク分類器は複数の互いに同種類の畳み込みニューラルネットワーク分類器を含むことができる。このとき、各レベルの出力は、当該レベル内の全ての畳み込みニューラルネットワーク分類器の投票によって決定され、信頼度は、当該レベル内の全ての畳み込みニューラルネットワーク分類器の信頼度によるものである。例えば、当該レベル内の全ての畳み込みニューラルネットワーク分類器が出力する信頼度の平均値を取ることができる。   It should be noted here that each level of the convolutional neural network classifier can include a plurality of convolutional neural network classifiers of the same type. At this time, the output of each level is determined by voting of all the convolutional neural network classifiers in the level, and the reliability depends on the reliability of all the convolutional neural network classifiers in the level. For example, it is possible to take an average value of the reliability output from all the convolutional neural network classifiers in the level.

本発明の技術による、国際標準手書き数字データベースMNISTに対する識別正確度は、一部の国際的に有名な方法、特に単一種類の畳み込みニューラルネットワーク分類器による方法より高い。以下、本発明の技術がよい技術効果をもたらす理由について説明する。   According to the technique of the present invention, the identification accuracy for the international standard handwritten digit database MNIST is higher than that of some internationally famous methods, particularly the method using a single type of convolutional neural network classifier. Hereinafter, the reason why the technique of the present invention brings about a good technical effect will be described.

まず、本発明の技術は、多種類の異種畳み込みニューラルネットワーク分類器間の非関連性を利用したため、識別の正確度をあげるときの投票の役割を高めた。複数の分類器による投票は、より高い識別率を実現することができる。但し、より高い識別率を実現する前提条件として、これらの分類器が非関連的であり、例えば、異種である必要がある。大量の同一種類の分類器による投票は、必ずしも識別率を大幅に上げることができない。本発明の技術は、多種類の異種畳み込みニューラルネットワーク分類器によって投票を行うため、この前提要件を満たしている。   First, the technique of the present invention uses the irrelevance between various types of heterogeneous convolutional neural network classifiers, and thus has improved the role of voting when raising the accuracy of identification. Voting by multiple classifiers can achieve a higher identification rate. However, as a precondition for realizing a higher identification rate, these classifiers are unrelated, for example, different types. Voting by a large number of classifiers of the same type cannot necessarily increase the identification rate significantly. The technique of the present invention satisfies this prerequisite because voting is performed by various kinds of heterogeneous convolutional neural network classifiers.

次に、本発明の技術は、一部従来の方法より畳み込みニューラルネットワーク分類器が提供するパターン情報を十分に利用することができる。本発明の技術では、畳み込みニューラルネットワーク分類器の各層から抽出した一部の特徴図を利用して固有ベクトルを形成し、これにより畳み込みニューラルネットワーク分類器の識別結果の信頼度をはかるため、畳み込みニューラルネットワーク分類器の最後の一層の情報だけに頼ることなく、畳み込みニューラルネットワーク分類器の各層が提供する情報を充分に活用することができる。パターン認識理論から見ると、畳み込みニューラルネットワーク分類器の中の各層のニューロンノードが一定のパターン情報を提供しているので、もし最後の一層の情報だけを利用すると、中間各層が提供するパターン情報が失われてしまうことになる。   Next, the technology of the present invention can fully utilize the pattern information provided by the convolutional neural network classifier, partly by conventional methods. In the technique of the present invention, a characteristic vector extracted from each layer of the convolutional neural network classifier is used to form an eigenvector, and thereby the reliability of the identification result of the convolutional neural network classifier is measured. The information provided by each layer of the convolutional neural network classifier can be fully utilized without relying only on the last layer of information of the classifier. From the viewpoint of pattern recognition theory, the neuron nodes in each layer in the convolutional neural network classifier provide constant pattern information, so if only the last layer information is used, the pattern information provided by each intermediate layer is It will be lost.

また、畳み込みニューラルネットワーク分類器によらない既存の手書き数字識別方法と比較すると、本発明の技術に採用される畳み込みニューラルネットワーク分類器の構造は、大量の有用且つ事前に知られていない特徴を、入力されたサンプルから自動的に学習することができることに対し、既存の方法は、抽出すべき特徴を事前に手動で設定する必要がある。従って、既存の方法で抽出できる特徴の数が限られており、且つ特徴設定の段階では人手を要する。   Also, compared to existing handwritten digit identification methods that do not rely on a convolutional neural network classifier, the structure of the convolutional neural network classifier employed in the technology of the present invention has a large number of useful and previously unknown features, In contrast to being able to automatically learn from the input samples, existing methods require manually setting the features to be extracted in advance. Therefore, the number of features that can be extracted by existing methods is limited, and manpower is required at the feature setting stage.

以上、具体的な実施例を用いて本発明の基本原理について説明したが、強調すべきなのは、本発明の方法と装置の全て又はいずれのステップ又は構成要素が、任意の計算装置(プロセッサや記憶媒体等を含む)または計算装置のネットワークにおいて、ハードウェア、ファームウェア、ソフトウェアまたはそれらの組合せにより実現できることは、当業者にとって理解されるところである。また、これは当業者が本発明の明細書を読んだ上で彼らの基本的なプログラミングスキルを利用して実現できるものである。   While the basic principles of the present invention have been described using specific embodiments, it should be emphasized that all or any of the steps or components of the method and apparatus of the present invention can be any computing device (processor or memory). It will be understood by those skilled in the art that hardware, firmware, software, or combinations thereof can be implemented in a network of computing devices (including media etc.) or computing devices. This can also be realized by those skilled in the art using the basic programming skills after reading the specification of the present invention.

従って、本発明の目的は、任意の計算装置において1つ又は1組のプログラムを実行することにより実現することができる。前記計算装置は従来の汎用装置であってもよい。また、本発明の目的は、前記方法又は装置を実現するプログラムコードを含むプログラム製品を提供するだけで実現される。即ち、このようなプログラム製品も本発明を構成するものであり、且つこのようなプログラム製品を格納した記憶媒体も本発明を構成するものである。もとろん、前記記憶媒体は、任意の従来の記憶媒体又は将来開発される任意の記憶媒体であってもよい。   Therefore, the object of the present invention can be realized by executing one or a set of programs in an arbitrary computing device. The computing device may be a conventional general purpose device. The object of the present invention can be realized only by providing a program product including a program code for realizing the method or apparatus. That is, such a program product also constitutes the present invention, and a storage medium storing such a program product also constitutes the present invention. Of course, the storage medium may be any conventional storage medium or any storage medium developed in the future.

ソフトウェアおよび/またはファームウェアを通じて本発明の実施例を実現する場合、記憶媒体またはネットワークを通じて専用ハードウェア構造を有するコンピュータ、例えば、図13に示されたような汎用コンピュータ1300に当該ソフトウェアを構成するプログラムをインストールし、当該コンピュータは、各種類のプログラムがインストールされたときに、各種の機能等を実行することができる。   When the embodiment of the present invention is realized through software and / or firmware, a program that configures the software is stored in a computer having a dedicated hardware structure through a storage medium or a network, for example, a general-purpose computer 1300 as shown in FIG. When installed, the computer can execute various functions when each type of program is installed.

図13では、セントラル・プロセッシング・ユニット(CPU)1301は、読み取り専用メモリ(ROM)1302に格納されたプログラムまたは記憶部1308からランダム・アクセス・メモリ(RAM)1303にアップロードされたプログラムにより各種の処理を実行する。RAM1303には、必要に応じてCPU1301が各種の処理を実行するときに必要なデータを記憶する。CPU1301、ROM1302とRAM1303はバス1304を介して互いに連結する。入力/出力インターフェース1305もバス1304に接続される。   In FIG. 13, the central processing unit (CPU) 1301 performs various processes according to a program stored in a read-only memory (ROM) 1302 or a program uploaded from a storage unit 1308 to a random access memory (RAM) 1303. Execute. The RAM 1303 stores data necessary for the CPU 1301 to execute various processes as necessary. The CPU 1301, ROM 1302 and RAM 1303 are connected to each other via a bus 1304. An input / output interface 1305 is also connected to the bus 1304.

以下の要素も入力/出力インターフェース1305に接続される:キーボードやマウス等を含む入力部1306;例えばブラウン管(CRT)や液晶ディスプレイ(LCD)等のモニタやスピーカー等を含む出力部1307;ハードディスク等を含む記録部1308;例えばLANカード等のネットワークインタフェースカードやモデム等を含む通信部1309。また、通信部1309はネットワーク、例えばインターネットを介して通信処理を行う。必要に応じて、ドライブ1310も入力/出力インターフェース1305に接続される。取り外し可能な媒体1311、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体記憶装置等を、必要に応じてドライブ1310に挿入し、その中から読み出されたコンピュータプログラムは必要に応じて記録部1308にインストールされる。   The following elements are also connected to the input / output interface 1305: an input unit 1306 including a keyboard and a mouse; an output unit 1307 including a monitor and a speaker such as a cathode ray tube (CRT) and a liquid crystal display (LCD); A recording unit 1308 including a communication unit 1309 including a network interface card such as a LAN card and a modem. The communication unit 1309 performs communication processing via a network, for example, the Internet. A drive 1310 is also connected to the input / output interface 1305 as needed. A removable medium 1311 such as a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor storage device or the like is inserted into the drive 1310 as necessary, and the computer program read from the medium is read into the recording unit 1308 as necessary. Installed.

ソフトウェアを通じて前記一連の処理を実現する場合、ネットワーク、例えばインターネット、または記憶媒体、例えば取り外し可能な媒体1311からソフトウェアを構成するプログラムをインストールする。   When the series of processing is realized through software, a program constituting the software is installed from a network, for example, the Internet, or a storage medium, for example, a removable medium 1311.

当業者が理解されるように、ここでの記録媒体は、図13に示されたような、中にプログラムが記録され、設備と分離して配布しユーザにプログラムを提供する取り外し可能な媒体1311には限らない。取り外し可能な媒体711の例として、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(コンパクトディスク(CD)による読み出し専用メモリー(CD-ROM)とデジタル多用途ディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標)を含む)と半導体記憶装置などを含む。また、記録媒体は、ROM1302や記録部1308に含まれるハードディスクであっても良い。その中にプログラムが記録され、且つそれを記録する設備と一緒にユーザに配布される。   As will be understood by those skilled in the art, the recording medium here is a removable medium 1311 in which the program is recorded and distributed separately from the equipment and provided to the user as shown in FIG. Not limited to. Examples of the removable medium 711 include a magnetic disk (including a floppy disk (registered trademark)), an optical disk (including a read-only memory (CD-ROM) and a digital versatile disk (DVD) using a compact disk (CD)), This includes a magneto-optical disk (including a mini disk (MD) (registered trademark)) and a semiconductor memory device. The recording medium may be a hard disk included in the ROM 1302 or the recording unit 1308. The program is recorded in it and distributed to the user together with the equipment for recording it.

本発明は、機械読み取り可能な命令コードを格納したプログラム製品を提供する。命令コードが機械に読み取りされ且つ実行されるときに、前記本発明の実施例の方法を実行することができる。   The present invention provides a program product storing machine-readable instruction codes. The method of the embodiment of the present invention can be executed when the instruction code is read and executed by the machine.

また、前記機械読み取り可能な命令コードを格納したプログラム製品の記憶媒体も本発明の開示に含まれる。記憶媒体はフロッピーディスク、磁気ディスク、光ディスク、メモリカード、メモリスティック等を含む。   A storage medium of a program product storing the machine-readable instruction code is also included in the disclosure of the present invention. The storage medium includes a floppy disk, a magnetic disk, an optical disk, a memory card, a memory stick, and the like.

ここでの実施例は例示的なものであり、本発明はこれらの実施例に限定されないことは、当業者に理解されるところである。   It will be appreciated by those skilled in the art that the examples herein are illustrative and that the invention is not limited to these examples.

本明細書にある「第一」、「第二」及び「第N」等の記載は、関連特徴を文字上区別し、本発明をより明瞭に記載するためである。従って、限定的な意味合いは有しない。   The descriptions such as “first”, “second”, and “Nth” in the present specification are for distinguishing the related features in terms of letters and describing the present invention more clearly. Therefore, it has no limiting meaning.

例として、前記方法の各ステップおよび前記設備の各構成モジュールおよび/またはユニットは、ソフトウェア、ファームウェア、ハードウェアまたはその組合せによって実現でき、且つその設備の中の一部となる。前記設備の各構成モジュールやユニットがソフトウェア、ファームウェア、ハードウェアまたはその組合せにより結合されるときに使用可能な手段または方式は、当業者に熟知されているため、ここでは、その説明を省略した。   By way of example, each step of the method and each component module and / or unit of the facility can be implemented by software, firmware, hardware, or a combination thereof, and become part of the facility. Means or methods that can be used when each component module or unit of the facility is combined by software, firmware, hardware, or a combination thereof are well known to those skilled in the art, and thus the description thereof is omitted here.

例として、ソフトウェアまたはファームウェアを通じて本発明を実現する場合、記憶媒体またはネットワークから専用ハードウェア構造を有するコンピュータ(例えば、図13に示された汎用コンピュータ1300)に当該ソフトウェアを構成するプログラムをインストールすることができる。当該コンピュータは、各種のプログラムがインストールされたときに、各種の機能を実現できる。   For example, when the present invention is realized through software or firmware, a program constituting the software is installed from a storage medium or a network to a computer having a dedicated hardware structure (for example, the general-purpose computer 1300 shown in FIG. 13). Can do. The computer can realize various functions when various programs are installed.

1つの実施形態について記載および/または図示した特徴は同一または類似の方法で1つまたは複数の他の実施形態で使用することができ、また、その他の実施形態の中の特徴と組合せ、または他の実施形態の特徴を代替することもできる。   Features described and / or illustrated for one embodiment may be used in one or more other embodiments in the same or similar manner, and may be combined or otherwise combined with features in other embodiments. The features of this embodiment can be substituted.

強調すべきなのは、用語「含む/備える」は、本明細書において特徴、要素、ステップまたはモジュールの存在を表し、1つまたは複数の他の特徴、要素、ステップまたはモジュールの存在または付加を排除しない。   It should be emphasized that the term “comprising / comprising” herein refers to the presence of a feature, element, step or module and does not exclude the presence or addition of one or more other features, elements, steps or modules. .

また、本発明の方法は、明細書に説明された時間順で行なわれることに限らず、他の時間順で、又は並行して、又は単独で実行することもできる。従って、本発明の技術的範囲は、明細書に記載の方法の実行順番に限定されない。   Further, the method of the present invention is not limited to the time order described in the specification, and may be executed in another time order, in parallel, or independently. Therefore, the technical scope of the present invention is not limited to the execution order of the method described in the specification.

本発明は、添付の請求の範囲の要旨と範囲内に本発明に対する様々な変更、改善又は均等物を設計することができるものと認めるべきである。且つ、本発明の範囲は明細書に記載の過程、設備、手段、方法とステップの具体的な実施例に限定されない。当業者は、本発明に開示された内容から本発明の実施例に基本的に同じ機能を有し、基本的に同じ効果を奏する既存の、または将来開発される過程、設備、手段、方法またはステップを使用又は実行することができる。従って、添付の請求の範囲の要旨は、このような過程、設備、手段、方法またはステップを含む。   It should be appreciated that the present invention can be designed with various modifications, improvements or equivalents to the present invention within the spirit and scope of the appended claims. In addition, the scope of the present invention is not limited to the specific embodiments of the processes, equipment, means, methods and steps described in the specification. Those skilled in the art will understand that existing or future-developed processes, equipment, means, methods or methods having basically the same functions and basically the same effects as the embodiments of the present invention from the contents disclosed in the present invention. Steps can be used or executed. Accordingly, the spirit of the appended claims includes such processes, facilities, means, methods, or steps.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
畳み込みニューラルネットワーク分類器システムであって、
互いに異種であるM種類の畳み込みニューラルネットワーク分類器を備え、前記Mは1より大きい整数であり、
各種類の前記畳み込みニューラルネットワーク分類器は、複数の互いに同種類の畳み込みニューラルネットワーク分類器を備える、
ことを特徴とする畳み込みニューラルネットワーク分類器システム。
(付記2)
前記互いに異種であるM種類の畳み込みニューラルネットワーク分類器をMレベルのカスケード構造に配置する付記1に記載の畳み込みニューラルネットワーク分類器システム。
(付記3)
第一レベルの畳み込みニューラルネットワーク分類器は、対象物の分類に用いられ、
第二レベルの畳み込みニューラルネットワーク分類器は、前記第一レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい対象物の分類に用いられ、
前記第二レベルの畳み込みニューラルネットワーク分類器から第Mレベルの畳み込みニューラルネットワーク分類器までの全ての隣接する2つのレベルについて順次に前記操作を繰り返す、
付記2に記載の畳み込みニューラルネットワーク分類器システム。
(付記4)
各レベルの前記畳み込みニューラルネットワーク分類器内の前記複数の互いに同種類の畳み込みニューラルネットワーク分類器は、投票を通じて前記対象物を分類する、
付記2に記載の畳み込みニューラルネットワーク分類器システム。
(付記5)
各種類のサンプルに対する効果にばらつきのない畳み込みニューラルネットワーク分類器は、前記カスケード構造中の前寄りのレベルに配置され、
特定の種類のサンプルに突出した効果がある畳み込みニューラルネットワーク分類器布置は、前記カスケード構造中の中間レベルに配置されるように、
前記カスケード構造中の各レベルの畳み込みニューラルネットワーク分類器を配置する、
付記2乃至4の何れかに記載の畳み込みニューラルネットワーク分類器システム。
(付記6)
スパース連続型の広義の畳み込みニューラルネットワーク分類器を前記カスケード構造中の後ろ寄りのレベルに配置する、
付記5に記載の畳み込みニューラルネットワーク分類器システム。
(付記7)
前記カスケード構造中の各レベルの畳み込みニューラルネットワーク分類器は、
a)空間線形サンプリング型畳み込みニューラルネットワーク分類器と、
b)一部の層の間の連結がランダムに省略された空間線形サンプリング型畳み込みニューラルネットワーク分類器と、
c)空間非線形サンプリング型畳み込みニューラルネットワーク分類器と、
d)一部の層の間の連結がランダムに省略された空間非線形サンプリング型畳み込みニューラルネットワーク分類器と、
e)空間サンプリング層のない畳み込みニューラルネットワーク分類器と、
f)一部の層の間の連結がランダムに省略され空間サンプリング層のない畳み込みニューラルネットワーク分類器、
から選ばれる付記1乃至6の何れかに記載の畳み込みニューラルネットワーク分類器システム。
(付記8)
前記畳み込みニューラルネットワーク分類器が前記対象物を分類するときに、信頼度を算出する信頼度計算分類器をさらに備え、
前記カスケード構造中の各レベルの中の各畳み込みニューラルネットワーク分類器について、当該畳み込みニューラルネットワーク分類器を用いてそのサンプル分類の訓練を行い、各訓練サンプルに対して前記畳み込みニューラルネットワーク分類器の各層から少なくとも一部のノードの応答値を抽出し、
前記応答値に基づいて前記信頼度計算分類器を訓練する
付記1乃至7の何れかに記載の畳み込みニューラルネットワーク分類器システム。
(付記9)
全てのレベルの畳み込みニューラルネットワーク分類器を用いて全てのレベルの畳み込みニューラルネットワーク分類器が分類しにくい対象物に対して投票を行うことにより、前記対象物の類別を決定する
付記3乃至8の何れかに記載の畳み込みニューラルネットワーク分類器システム。
(付記10)
付記2乃至9の何れかに記載の畳み込みニューラルネットワーク分類器システムを用いて訓練を行う方法であって、
訓練サンプルを利用して前記カスケード構造中の全てのレベルの畳み込みニューラルネットワーク分類器を訓練し、各レベルの畳み込みニューラルネットワーク分類器の中の複数の畳み込みニューラルネットワーク分類器に対してそれぞれオリジナル訓練サンプルをランダムに変形させ、
前記第一レベルの畳み込みニューラルネットワーク分類器を利用して前記オリジナル訓練サンプルを分類し、
前記第一レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい訓練サンプルを、第二レベルの畳み込みニューラルネットワーク分類器を訓練するための全ての訓練サンプルとし、前記第二レベルの畳み込みニューラルネットワーク分類器を訓練し、
前記第二レベルの畳み込みニューラルネットワーク分類器から前記第Mレベルの畳み込みニューラルネットワーク分類器までの任意の隣接する2つのレベルについて順次に前記のステップを繰り返す、
ことを含む方法。
(付記11)
前記カスケード構造中の各レベルの中の各畳み込みニューラルネットワーク分類器について、当該畳み込みニューラルネットワーク分類器を用いてそのサンプル分類の訓練を行い、各訓練サンプルについて当該畳み込みニューラルネットワーク分類器から各層の少なくとも一部のノードの応答値を抽出し、
前記応答値を利用して信頼度計算分類器を訓練し、前記信頼度計算分類器は、当該畳み込みニューラルネットワーク分類器が前記対象物を分類するときの信頼度を計算する
付記10に記載の方法。
(付記12)
各層の少なくとも一部のノードは、後ろから第二層の少なくとも一部のノードを含む
付記11に前記の方法。
(付記13)
信頼度および/または各訓練サンプル自身の既知のマークに基づいて各畳み込みニューラルネットワーク分類器が前記訓練サンプルを分類しにくいか否か判断する
付記10乃至12の何れかに記載の方法。
(付記14)
付記1乃至9の何れかに記載の畳み込みニューラルネットワーク分類器システムを利用して対象物を分類する方法であって、
前記第一レベルの畳み込みニューラルネットワーク分類器を利用して前記対象物を分類し、
第二レベルの畳み込みニューラルネットワーク分類器を利用して前記第一レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい前記対象物を分類し、
前記第二レベルの畳み込みニューラルネットワーク分類器から第Mレベルの畳み込みニューラルネットワーク分類器までの全ての隣接する2つのレベルについて順次に前記のステップを繰り返す
ことを含む方法。
(付記15)
全てのレベルの畳み込みニューラルネットワーク分類器を利用して全てのレベルの畳み込みニューラルネットワーク分類器が分類しにくい対象物について投票を行うことにより前記対象物の類別を決定する、
付記14に記載の方法。
(付記16)
各分類対象物について、前記カスケード構造中の各レベルの各畳み込みニューラルネットワーク分類器が各訓練サンプルを分類するときの相応ノードの応答値を抽出し、
前記応答値に基づいて、前記信頼度計算分類器を利用して信頼度を計算する、
付記14に記載の方法。
(付記17)
前記所定のノードは、後ろから第二層の少なくとも一部のノードを含む
付記16に記載の方法。
(付記18)
信頼度に基づいて各レベルの中の各畳み込みニューラルネットワーク分類器が前記対象物を分類しにくいか否かを判断する
付記10乃至17の何れかに記載の方法。
(付記19)
付記1乃至9の何れかに記載の畳み込みニューラルネットワーク分類器システムを利用して数字を識別する用途。
(付記20)
付記14乃至18の何れかに記載の方法を利用して数字を識別する用途。
The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(Appendix 1)
A convolutional neural network classifier system,
M types of convolutional neural network classifiers that are heterogeneous to each other, where M is an integer greater than 1,
Each type of convolutional neural network classifier comprises a plurality of convolutional neural network classifiers of the same type,
A convolutional neural network classifier system characterized by that.
(Appendix 2)
The convolutional neural network classifier system according to appendix 1, wherein the M kinds of convolutional neural network classifiers different from each other are arranged in an M-level cascade structure.
(Appendix 3)
The first level convolutional neural network classifier is used to classify objects,
The second level convolutional neural network classifier is used to classify objects that are difficult to classify for the first level convolutional neural network classifier,
Repeating the operation sequentially for all two adjacent levels from the second level convolutional neural network classifier to the Mth level convolutional neural network classifier;
The convolutional neural network classifier system according to appendix 2.
(Appendix 4)
The plurality of the same type of convolutional neural network classifiers in each level of the convolutional neural network classifier classifies the object through voting.
The convolutional neural network classifier system according to appendix 2.
(Appendix 5)
A convolutional neural network classifier with a consistent effect on each type of sample is placed at the front level in the cascade structure,
A convolutional neural network classifier configuration that has a prominent effect on a particular type of sample is placed at an intermediate level in the cascade structure,
Placing a convolutional neural network classifier at each level in the cascade structure;
The convolutional neural network classifier system according to any one of appendices 2 to 4.
(Appendix 6)
A sparse continuous broad convolutional neural network classifier is placed at a back level in the cascade structure;
The convolutional neural network classifier system according to appendix 5.
(Appendix 7)
Each level of the convolutional neural network classifier in the cascade structure is:
a) a spatial linear sampling convolutional neural network classifier;
b) a spatial linear sampling convolutional neural network classifier in which the connections between some layers are omitted randomly;
c) a spatially nonlinear sampling convolutional neural network classifier;
d) a spatially nonlinear sampling convolutional neural network classifier in which connections between some layers are randomly omitted;
e) a convolutional neural network classifier without a spatial sampling layer;
f) Convolutional neural network classifiers with no spatial sampling layer, the connection between some layers is randomly omitted,
A convolutional neural network classifier system according to any one of supplementary notes 1 to 6 selected from:
(Appendix 8)
A reliability calculation classifier that calculates a reliability when the convolutional neural network classifier classifies the object;
For each convolutional neural network classifier in each level in the cascade structure, train the sample classification using the convolutional neural network classifier, and for each training sample from each layer of the convolutional neural network classifier Extract response values for at least some nodes,
The convolutional neural network classifier system according to any one of appendices 1 to 7, which trains the reliability calculation classifier based on the response value.
(Appendix 9)
Any one of appendices 3 to 8, wherein the convolutional neural network classifiers of all levels use voting for objects that are difficult to classify, so that the classification of the objects is determined. A convolutional neural network classifier system according to claim 1.
(Appendix 10)
A method of performing training using the convolutional neural network classifier system according to any one of appendices 2 to 9,
The training samples are used to train all levels of the convolutional neural network classifier in the cascade structure, and the original training samples are applied to each of the convolutional neural network classifiers in each level of the convolutional neural network classifier. Randomly deform,
Classifying the original training sample using the first level convolutional neural network classifier;
Training samples that are difficult to classify for the first level convolutional neural network classifier are all training samples for training the second level convolutional neural network classifier, and train the second level convolutional neural network classifier And
Repeating the above steps sequentially for any two adjacent levels from the second level convolutional neural network classifier to the Mth level convolutional neural network classifier;
A method involving that.
(Appendix 11)
For each convolutional neural network classifier in each level in the cascade structure, training the sample classification using the convolutional neural network classifier, and for each training sample, at least one of each layer from the convolutional neural network classifier The response values of the nodes
The method according to claim 10, wherein a reliability calculation classifier is trained using the response value, and the reliability calculation classifier calculates a reliability when the convolutional neural network classifier classifies the object. .
(Appendix 12)
The method of appendix 11, wherein at least some of the nodes in each layer include at least some of the nodes in the second layer from the back.
(Appendix 13)
13. The method of any of clauses 10-12, wherein each convolutional neural network classifier determines whether it is difficult to classify the training sample based on confidence and / or a known mark of each training sample itself.
(Appendix 14)
A method for classifying an object using the convolutional neural network classifier system according to any one of appendices 1 to 9,
Classifying the object using the first level convolutional neural network classifier;
Using a second level convolutional neural network classifier to classify the object that is difficult to classify for the first level convolutional neural network classifier;
A method comprising sequentially repeating the above steps for all two adjacent levels from the second level convolutional neural network classifier to the Mth level convolutional neural network classifier.
(Appendix 15)
Using a convolutional neural network classifier at all levels to determine a classification of the objects by voting on objects that are difficult to classify at all levels of the convolutional neural network classifier;
The method according to appendix 14.
(Appendix 16)
For each classification object, extract the response value of the corresponding node when each convolutional neural network classifier at each level in the cascade structure classifies each training sample,
Based on the response value, the reliability is calculated using the reliability calculation classifier.
The method according to appendix 14.
(Appendix 17)
The method according to claim 16, wherein the predetermined nodes include at least some nodes of the second layer from the back.
(Appendix 18)
18. The method according to any one of appendices 10 to 17, wherein each convolutional neural network classifier in each level determines whether it is difficult to classify the object based on the reliability.
(Appendix 19)
Use of identifying numbers by using the convolutional neural network classifier system according to any one of appendices 1 to 9.
(Appendix 20)
Use for identifying numbers using the method according to any one of appendices 14 to 18.

Claims (7)

畳み込みニューラルネットワーク分類器システムであって、
互いに異種であるM種類の畳み込みニューラルネットワーク分類器を備え、前記Mは1より大きい整数であり、
各種類の前記畳み込みニューラルネットワーク分類器は、複数の互いに同種類の畳み込みニューラルネットワーク分類器を備え
前記互いに異種であるM種類の畳み込みニューラルネットワーク分類器をMレベルのカスケード構造に配置し、
各種類のサンプルに対する効果にばらつきのない畳み込みニューラルネットワーク分類器は、前記カスケード構造中の前寄りのレベルに配置され、
特定の種類のサンプルに突出した効果がある畳み込みニューラルネットワーク分類器は、前記カスケード構造中の中間レベルに配置されるように、前記カスケード構造中の各レベルの畳み込みニューラルネットワーク分類器を配置する、畳み込みニューラルネットワーク分類器システム。
A convolutional neural network classifier system,
M types of convolutional neural network classifiers that are heterogeneous to each other, where M is an integer greater than 1,
Each type of convolutional neural network classifier comprises a plurality of convolutional neural network classifiers of the same type ,
The M types of convolutional neural network classifiers that are different from each other are arranged in an M-level cascade structure,
A convolutional neural network classifier with a consistent effect on each type of sample is placed at the front level in the cascade structure,
A convolutional neural network classifier that has a prominent effect on a particular type of sample is arranged in a convolutional neural network classifier at each level in the cascade structure such that a convolutional neural network classifier is arranged at an intermediate level in the cascade structure. Neural network classifier system.
第一レベルの畳み込みニューラルネットワーク分類器は、対象物の分類のための第一分類操作に用いられ、
第二レベルの畳み込みニューラルネットワーク分類器は、前記第一レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい対象物の分類のための第二分類操作に用いられ、
前記第二レベルの畳み込みニューラルネットワーク分類器から第Mレベルの畳み込みニューラルネットワーク分類器までの全ての隣接する2つのレベルについて順次に前記第一分類操作及び前記第二分類操作を繰り返す、請求項に記載の畳み込みニューラルネットワーク分類器システム。
The first level convolutional neural network classifier is used for the first classification operation for classifying objects,
A second level convolutional neural network classifier is used for a second classification operation for classification of objects that are difficult to classify for the first level convolutional neural network classifier,
Sequentially repeating the first classification operation and the second classification operation for all the adjacent two levels from the second level of the convolutional neural network classifier to the M level convolutional neural network classifier to claim 1 Described convolutional neural network classifier system.
前記畳み込みニューラルネットワーク分類器が前記対象物を分類するときに、信頼度を算出する信頼度計算分類器をさらに備え、
前記カスケード構造中の各レベルの中の各畳み込みニューラルネットワーク分類器について、当該畳み込みニューラルネットワーク分類器を用いてその訓練サンプルの分類を行い、各訓練サンプルについて前記畳み込みニューラルネットワーク分類器の各層から少なくとも一部のノードの応答値を抽出し、
前記応答値に基づいて前記信頼度計算分類器を訓練する、請求項に記載の畳み込みニューラルネットワーク分類器システム。
A reliability calculation classifier that calculates a reliability when the convolutional neural network classifier classifies the object;
For each convolutional neural network classifier in each level in the cascade structure, the training sample is classified using the convolutional neural network classifier, and at least one from each layer of the convolutional neural network classifier for each training sample. The response values of the nodes
The convolutional neural network classifier system according to claim 2 , wherein the confidence calculation classifier is trained based on the response value.
請求項2又は3に記載の畳み込みニューラルネットワーク分類器システムを用いて訓練を行う方法であって、
訓練サンプルを利用して前記カスケード構造中の全てのレベルの畳み込みニューラルネットワーク分類器を訓練し、そのうち、各レベルの畳み込みニューラルネットワーク分類器の中の複数の畳み込みニューラルネットワーク分類器についてそれぞれオリジナル訓練サンプルをランダムに変形させ、
前記第一レベルの畳み込みニューラルネットワーク分類器を利用して前記オリジナル訓練サンプルを分類し、
前記第一レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい訓練サンプルを、前記第二レベルの畳み込みニューラルネットワーク分類器を訓練するための全ての訓練サンプルとし、前記第二レベルの畳み込みニューラルネットワーク分類器を訓練し、
前記第二レベルの畳み込みニューラルネットワーク分類器から前記第Mレベルの畳み込みニューラルネットワーク分類器までの任意の隣接する2つのレベルについて順次に前記のステップを繰り返す、ことを含む方法。
A method of training using a convolutional neural network classifier system according to claim 2 or 3 ,
Training levels are used to train all levels of convolutional neural network classifiers in the cascade structure, with each of the convolutional neural network classifiers in each level having original training samples. Randomly deform,
Classifying the original training sample using the first level convolutional neural network classifier;
Classification hard training samples for a convolutional neural network classifier of the first level, and all the training samples to train the second level of the convolutional neural network classifier, the second level of the convolutional neural network classifier Train and
Repeating the steps in sequence for any two adjacent levels from the second level convolutional neural network classifier to the Mth level convolutional neural network classifier.
前記カスケード構造中の各レベルの中の各畳み込みニューラルネットワーク分類器について、当該畳み込みニューラルネットワーク分類器を用いてその訓練サンプルの分類を行い、各訓練サンプルについて当該畳み込みニューラルネットワーク分類器から各層の少なくとも一部のノードの応答値を抽出し、
前記応答値を利用して信頼度計算分類器を訓練し、前記信頼度計算分類器は、当該畳み込みニューラルネットワーク分類器が前記対象物を分類するときの信頼度を計算する、請求項に記載の方法。
For each convolutional neural network classifier in each level in the cascade structure, the training sample is classified using the convolutional neural network classifier, and at least one of each layer from the convolutional neural network classifier for each training sample. The response values of the nodes
By using the response value train reliability calculation classifier, the reliability calculation classifier calculates the reliability when the convolutional neural network classifier for classifying the object, according to claim 4 the method of.
請求項2又は3に記載の畳み込みニューラルネットワーク分類器システムを利用して対象物を分類する方法であって、
前記第一レベルの畳み込みニューラルネットワーク分類器を利用して前記対象物を分類し、
前記第二レベルの畳み込みニューラルネットワーク分類器を利用して前記第一レベルの畳み込みニューラルネットワーク分類器にとって分類しにくい前記対象物を分類し、
前記第二レベルの畳み込みニューラルネットワーク分類器から前記第Mレベルの畳み込みニューラルネットワーク分類器までの全ての隣接する2つのレベルについて順次に前記のステップを繰り返す、ことを含む方法。
A method for classifying an object using the convolutional neural network classifier system according to claim 2 , comprising:
Classifying the object using the first level convolutional neural network classifier;
Using the second level convolutional neural network classifier to classify the objects that are difficult to classify for the first level convolutional neural network classifier;
Method comprising sequentially repeating the above steps, it for all the adjacent two levels of the the second level of the convolutional neural network classifier to neural network classifier convolution of the first M level.
数字を識別する、請求項1乃至3の何れかに記載の畳み込みニューラルネットワーク分類器システム。4. A convolutional neural network classifier system according to any one of claims 1 to 3 for identifying numbers.
JP2013139882A 2012-08-31 2013-07-03 Convolutional neural network classifier system, training method, classification method and use thereof Active JP6209879B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210320318.9 2012-08-31
CN201210320318.9A CN103679185B (en) 2012-08-31 2012-08-31 Convolutional neural networks classifier system, its training method, sorting technique and purposes

Publications (2)

Publication Number Publication Date
JP2014049118A JP2014049118A (en) 2014-03-17
JP6209879B2 true JP6209879B2 (en) 2017-10-11

Family

ID=50316674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013139882A Active JP6209879B2 (en) 2012-08-31 2013-07-03 Convolutional neural network classifier system, training method, classification method and use thereof

Country Status (2)

Country Link
JP (1) JP6209879B2 (en)
CN (1) CN103679185B (en)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6767966B2 (en) * 2014-04-09 2020-10-14 エントルピー インコーポレーテッドEntrupy Inc. Authenticity of objects using machine learning from microscopic differences
CN105095833B (en) * 2014-05-08 2019-03-15 中国科学院声学研究所 For the network establishing method of recognition of face, recognition methods and system
US20150324689A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Customized classifier over common features
CN105447566B (en) * 2014-05-30 2018-07-20 富士通株式会社 Training device, training method and detection device
CN104036323B (en) * 2014-06-26 2016-11-09 叶茂 A kind of vehicle checking method based on convolutional neural networks
CN104063719B (en) * 2014-06-27 2018-01-26 深圳市赛为智能股份有限公司 Pedestrian detection method and device based on depth convolutional network
CN104182735A (en) * 2014-08-18 2014-12-03 厦门美图之家科技有限公司 Training optimization pornographic picture or video detection method based on convolutional neural network
CN104244113B (en) * 2014-10-08 2017-09-22 中国科学院自动化研究所 A kind of video abstraction generating method based on depth learning technology
US10650508B2 (en) * 2014-12-03 2020-05-12 Kla-Tencor Corporation Automatic defect classification without sampling and feature selection
WO2016095117A1 (en) * 2014-12-17 2016-06-23 Nokia Technologies Oy Object detection with neural network
CN105989375A (en) * 2015-01-30 2016-10-05 富士通株式会社 Classifier, classification device and classification method for classifying handwritten character images
CN105989368A (en) * 2015-02-13 2016-10-05 展讯通信(天津)有限公司 Target detection method and apparatus, and mobile terminal
JP6706788B2 (en) 2015-03-06 2020-06-10 パナソニックIpマネジメント株式会社 Image recognition method, image recognition device and program
CN104850890B (en) * 2015-04-14 2017-09-26 西安电子科技大学 Instance-based learning and the convolutional neural networks parameter regulation means of Sadowsky distributions
CN104850858B (en) * 2015-05-15 2016-09-07 华中科技大学 A kind of injection-molded item defects detection recognition methods
CN104899610A (en) * 2015-06-26 2015-09-09 小米科技有限责任公司 Picture classification method and device
WO2017004803A1 (en) * 2015-07-08 2017-01-12 Xiaoou Tang An apparatus and a method for semantic image labeling
US10157279B2 (en) * 2015-07-15 2018-12-18 Cylance Inc. Malware detection
CN105139033B (en) * 2015-08-24 2018-11-06 小米科技有限责任公司 Grader construction method and device and image processing method and device
KR101824600B1 (en) * 2015-09-08 2018-03-14 에스케이플래닛 주식회사 A system and method credit card number and expiration date recognition using a terminal device
CN105426860B (en) * 2015-12-01 2019-09-27 北京眼神智能科技有限公司 The method and apparatus of recognition of face
CN105550747A (en) * 2015-12-09 2016-05-04 四川长虹电器股份有限公司 Sample training method for novel convolutional neural network
CN105550748A (en) * 2015-12-09 2016-05-04 四川长虹电器股份有限公司 Method for constructing novel neural network based on hyperbolic tangent function
CN105868689B (en) * 2016-02-16 2019-03-29 杭州景联文科技有限公司 A kind of face occlusion detection method based on concatenated convolutional neural network
CN107220641B (en) * 2016-03-22 2020-06-26 华南理工大学 Multi-language text classification method based on deep learning
US10395356B2 (en) * 2016-05-25 2019-08-27 Kla-Tencor Corp. Generating simulated images from input images for semiconductor applications
US9589374B1 (en) * 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US10599977B2 (en) 2016-08-23 2020-03-24 International Business Machines Corporation Cascaded neural networks using test ouput from the first neural network to train the second neural network
CN107784315A (en) * 2016-08-26 2018-03-09 深圳光启合众科技有限公司 The recognition methods of destination object and device, and robot
US11580407B2 (en) 2016-09-06 2023-02-14 Mitsubishi Electric Corporation Learning device, signal processing device, and learning method
US10083171B1 (en) * 2017-08-03 2018-09-25 Gyrfalcon Technology Inc. Natural language processing using a CNN based integrated circuit
CN106488313A (en) * 2016-10-31 2017-03-08 Tcl集团股份有限公司 A kind of TV station symbol recognition method and system
CN106777011A (en) * 2016-12-07 2017-05-31 中山大学 A kind of file classification method based on depth multi-task learning
CN108171103A (en) * 2016-12-07 2018-06-15 北京三星通信技术研究有限公司 Object detection method and device
KR101944536B1 (en) * 2016-12-11 2019-02-01 주식회사 딥바이오 System and method for medical diagnosis using neural network
KR101893679B1 (en) * 2017-02-09 2018-08-30 한국기술교육대학교 산학협력단 Card number recognition method using deep learnig
KR101926392B1 (en) 2017-02-22 2018-12-10 하트미디어(주) Apparatus and method for collecting bottle
US11354577B2 (en) 2017-03-15 2022-06-07 Samsung Electronics Co., Ltd System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions
US10803378B2 (en) * 2017-03-15 2020-10-13 Samsung Electronics Co., Ltd System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions
WO2018216379A1 (en) 2017-05-26 2018-11-29 株式会社日立国際電気 Machine learning model illicitness sensing system and illicitness sensing method
US11138724B2 (en) 2017-06-01 2021-10-05 International Business Machines Corporation Neural network classification
US10713783B2 (en) 2017-06-01 2020-07-14 International Business Machines Corporation Neural network classification
CN107247703A (en) * 2017-06-08 2017-10-13 天津大学 Microblog emotional analysis method based on convolutional neural networks and integrated study
CN109389142A (en) * 2017-08-08 2019-02-26 上海为森车载传感技术有限公司 Classifier training method
AU2018352203B2 (en) 2017-10-16 2021-09-30 Illumina, Inc. Semi-supervised learning for training an ensemble of deep convolutional neural networks
US11861491B2 (en) 2017-10-16 2024-01-02 Illumina, Inc. Deep learning-based pathogenicity classifier for promoter single nucleotide variants (pSNVs)
CN107944367B (en) * 2017-11-16 2021-06-01 北京小米移动软件有限公司 Face key point detection method and device
CN109815971B (en) * 2017-11-20 2023-03-10 富士通株式会社 Information processing method and information processing apparatus
CN108875901B (en) * 2017-11-20 2021-03-23 北京旷视科技有限公司 Neural network training method and universal object detection method, device and system
CN108280516B (en) * 2018-03-05 2021-05-11 山东领能电子科技有限公司 Optimization method for mutual-pulsation intelligent evolution among multiple groups of convolutional neural networks
US10657425B2 (en) 2018-03-09 2020-05-19 Ricoh Company, Ltd. Deep learning architectures for the classification of objects captured with a light-field camera
CN108647310A (en) * 2018-05-09 2018-10-12 四川高原之宝牦牛网络技术有限公司 Identification model method for building up and device, character recognition method and device
CN108548976A (en) * 2018-05-25 2018-09-18 杭州拓深科技有限公司 Non-invasive household electrical equipment type detection method based on convolutional neural networks
CN108830182B (en) * 2018-05-28 2020-08-07 浙江工商大学 Lane line detection method based on cascade convolution neural network
CN109543140B (en) * 2018-09-20 2020-07-10 中国科学院计算技术研究所 Convolutional neural network accelerator
CN110956190A (en) * 2018-09-27 2020-04-03 深圳云天励飞技术有限公司 Image recognition method and device, computer device and computer readable storage medium
CN109583501B (en) * 2018-11-30 2021-05-07 广州市百果园信息技术有限公司 Method, device, equipment and medium for generating image classification and classification recognition model
CN111310516B (en) * 2018-12-11 2023-08-29 杭州海康威视数字技术股份有限公司 Behavior recognition method and device
CN109726761B (en) * 2018-12-29 2023-03-31 青岛海洋科学与技术国家实验室发展中心 CNN evolution method, CNN-based AUV cluster working method, CNN evolution device and CNN-based AUV cluster working device and storage medium
CN110472730A (en) * 2019-08-07 2019-11-19 交叉信息核心技术研究院(西安)有限公司 A kind of distillation training method and the scalable dynamic prediction method certainly of convolutional neural networks
JP7453767B2 (en) 2019-09-25 2024-03-21 キヤノン株式会社 Information processing device, information processing method
JP2021082154A (en) 2019-11-21 2021-05-27 オムロン株式会社 Model generating device, estimating device, model generating method, and model generating program
JP7434829B2 (en) 2019-11-21 2024-02-21 オムロン株式会社 Model generation device, estimation device, model generation method, and model generation program
US11790489B2 (en) 2020-04-07 2023-10-17 Samsung Electronics Co., Ltd. Systems and method of training networks for real-world super resolution with unknown degradations
CN116134535A (en) * 2020-07-23 2023-05-16 第一百欧有限公司 Method for annotating disease onset regions using semi-supervised learning and diagnostic system for performing same
CN112308058B (en) * 2020-10-25 2023-10-24 北京信息科技大学 Method for recognizing handwritten characters
US20230252262A1 (en) * 2020-12-30 2023-08-10 Ozyegin Universitesi System and method for management of neural network models
CN113109666B (en) * 2021-04-09 2024-03-15 河南省博海大数据科技有限公司 Rail circuit fault diagnosis method based on deep convolutional neural network

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100202425B1 (en) * 1992-08-27 1999-06-15 정호선 Voice recognition system for recognizing the remote controller command of electronic equipment
US5822741A (en) * 1996-02-05 1998-10-13 Lockheed Martin Corporation Neural network/conceptual clustering fraud detection architecture
US6805668B1 (en) * 2001-06-26 2004-10-19 Cadwell Industries, Inc. System and method for processing patient polysomnograph data utilizing multiple neural network processing
US7016885B1 (en) * 2001-08-28 2006-03-21 University Of Central Florida Research Foundation, Inc. Self-designing intelligent signal processing system capable of evolutional learning for classification/recognition of one and multidimensional signals
CN100426314C (en) * 2005-08-02 2008-10-15 中国科学院计算技术研究所 Feature classification based multiple classifiers combined people face recognition method
CN101630367A (en) * 2009-07-31 2010-01-20 北京科技大学 Rejection method for identifying handwritten character based on multiple classifiers
TWI415011B (en) * 2009-12-17 2013-11-11 Ind Tech Res Inst Facial identification method and system using thereof

Also Published As

Publication number Publication date
CN103679185B (en) 2017-06-16
CN103679185A (en) 2014-03-26
JP2014049118A (en) 2014-03-17

Similar Documents

Publication Publication Date Title
JP6209879B2 (en) Convolutional neural network classifier system, training method, classification method and use thereof
Gao et al. Deep label distribution learning with label ambiguity
US11093789B2 (en) Method and apparatus for object re-identification
US20180114071A1 (en) Method for analysing media content
US9002101B2 (en) Recognition device, recognition method, and computer program product
US11138441B2 (en) Video action segmentation by mixed temporal domain adaption
CN111582009B (en) Device and method for training classification model and device for classifying by using classification model
CN108537119B (en) Small sample video identification method
CN108399435B (en) Video classification method based on dynamic and static characteristics
US11514319B2 (en) Action prediction
JP2004054956A (en) Face detection method and system using pattern sorter learned by face/analogous face image
CN110188827B (en) Scene recognition method based on convolutional neural network and recursive automatic encoder model
JP2011198268A (en) Information processing apparatus, method, and program
CN110909868A (en) Node representation method and device based on graph neural network model
CN110781818B (en) Video classification method, model training method, device and equipment
CN113449801B (en) Image character behavior description generation method based on multi-level image context coding and decoding
CN111160225B (en) Human body analysis method and device based on deep learning
CN110245227B (en) Training method and device for text classification fusion classifier
CN114510939A (en) Entity relationship extraction method and device, electronic equipment and storage medium
CN114863091A (en) Target detection training method based on pseudo label
CN114037056A (en) Method and device for generating neural network, computer equipment and storage medium
JP7427011B2 (en) Responding to cognitive queries from sensor input signals
CN113312445B (en) Data processing method, model construction method, classification method and computing equipment
Zhang et al. Recognition of emotions in user-generated videos through frame-level adaptation and emotion intensity learning
CN111143544B (en) Method and device for extracting bar graph information based on neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170828

R150 Certificate of patent or registration of utility model

Ref document number: 6209879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150