JPWO2017029758A1 - 学習装置および学習識別システム - Google Patents
学習装置および学習識別システム Download PDFInfo
- Publication number
- JPWO2017029758A1 JPWO2017029758A1 JP2017535217A JP2017535217A JPWO2017029758A1 JP WO2017029758 A1 JPWO2017029758 A1 JP WO2017029758A1 JP 2017535217 A JP2017535217 A JP 2017535217A JP 2017535217 A JP2017535217 A JP 2017535217A JP WO2017029758 A1 JPWO2017029758 A1 JP WO2017029758A1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- class
- identification
- unit
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
学習サンプル取得部(2a)は、N(Nは3以上の自然数)クラス識別で各クラスに分類された学習サンプルを取得する。分類部(2b)は、学習サンプル取得部(2a)により取得された学習サンプルを、Nよりも少ないM(Mは2以上N未満の自然数)クラス識別の対象となるクラスに再分類する。学習部(2c)は、分類部(2b)により再分類された学習サンプルに基づいて、Mクラス識別を行うための識別器を学習する。
Description
この発明は、例えば、画像中の対象物体が属するクラスを識別するための識別器を学習する学習装置および学習識別システムに関する。
画像処理技術分野では、画像データに対して特徴抽出を行い、この画像データから抽出された特徴ベクトルにより特定されるパターンを学習して、画像中の対象物体を識別するパターン認識の技術がさかんに研究開発されている。
特徴抽出では、画像データの画素値をそのまま特徴ベクトルとして抽出してもよいし、画像を加工して得られたデータを特徴ベクトルとしてもよい。このような特徴抽出により得られる特徴量は、一般的に複数次元のデータになるので、この特徴量は特徴ベクトルと呼ばれている。ただし、特徴量は単一次元のデータであってもよい。
例えば、非特許文献1には、画像における濃淡レベルの頻度をヒストグラムとして求める技術が記載されている。このような処理も上記特徴抽出処理の一例である。
特徴抽出では、画像データの画素値をそのまま特徴ベクトルとして抽出してもよいし、画像を加工して得られたデータを特徴ベクトルとしてもよい。このような特徴抽出により得られる特徴量は、一般的に複数次元のデータになるので、この特徴量は特徴ベクトルと呼ばれている。ただし、特徴量は単一次元のデータであってもよい。
例えば、非特許文献1には、画像における濃淡レベルの頻度をヒストグラムとして求める技術が記載されている。このような処理も上記特徴抽出処理の一例である。
また、画像識別処理では、パターン認識における学習の1つである教師あり学習を使用した学習方法が数多く提案されている。教師あり学習とは、入力画像に対応するラベルが付与された学習サンプルを用意し、この学習サンプルに基づいて画像または特徴ベクトルから対応するラベルを推定する計算式を求める学習方法である。
非特許文献1には、この教師あり学習の1つである最短距離法を用いた画像識別処理が記載されている。最短距離法では、分類単位として各クラスとの特徴空間における距離を求め、この距離が最小となるクラスに属すると判定するものである。
このとき、画像データのクラスは複数個あればよく、一般的にクラスが多いほど識別が難しくなり、少ないほど簡単になる。
このとき、画像データのクラスは複数個あればよく、一般的にクラスが多いほど識別が難しくなり、少ないほど簡単になる。
非特許文献2には、Convolutional Neural Networks(以下、CNNと記載する)と呼ばれるニューラルネットワークを用いて、画像に写った顔の表情を学習する方法が記載されている。この方法では、分類対象となる画像に対して各クラスに属する確率が求められ、この確率が最大のクラスを当該画像が属するクラスであると判定する。
また、非特許文献3には、画像に写る人物の表情を認識する表情認識について記載されている。表情認識では、画像に写る人物の表情が、一般的に喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪という7つのクラスに分類され、例えば、ある画像に写る人物の表情は喜び度が80であるというような識別結果が得られる。この他、表情認識の出力形式は、7つのクラスのそれぞれについて確信度を求める形式もあり得る。いずれの場合にせよ、識別対象の画像がどのクラスに属するかを示す基準が設定される。
高木幹雄、下田陽久 監修、"新編 画像解析ハンドブック"、東京大学出版会、2004年、pp.1600−1603.
Wei Li, Min Li, Zhong Su, Zhigang Zhu, "A Deep-Learning Approach to Facial Expression Recognition with Candid Images", 14th IAPR Conference on Machine Vision Applications(MVA 2015),pp. 279-282, Tokyo.
Michael Lyons, Shigeru Akamatsu, Miyuki Kamachi, Jiro Gyoba, "Coding Facial Expressions with Gabor Wavelets", 3rd IEEE International Conference on Automatic Face and Gesture Recognition, pp. 200-205, 1998.
このような識別技術が適用される分野において、多クラス識別で各クラスに分類されている学習サンプルを用いて、より少ないクラスの識別結果を得たい場合がある。
例えば、広告を見た人物の画像の表情認識において7クラス(喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪)に分類された識別結果から、広告の効果を判断するために、広告を見た人物が肯定的な表情であるか否かを検出したいことがある。
例えば、広告を見た人物の画像の表情認識において7クラス(喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪)に分類された識別結果から、広告の効果を判断するために、広告を見た人物が肯定的な表情であるか否かを検出したいことがある。
しかしながら、N(Nは3以上の自然数)クラス識別問題では、各クラスの識別基準で識別結果が得られる。このため、Nクラス識別の結果が、Nよりも少ないM(Mは2以上N未満の自然数)クラス識別問題の各クラスの識別基準でどのような値になるのかを判別できない。また、Nクラス識別の結果が個々のクラスについて数値化されている場合は、異なるクラスの識別結果同士を、Mクラス識別の識別基準で比較することができない。
このように、従来では、Nクラス識別の結果をMクラス識別問題として比較することができなかった。
このように、従来では、Nクラス識別の結果をMクラス識別問題として比較することができなかった。
この発明は上記課題を解決するもので、Nクラス識別の結果をNよりも少ないMクラス識別問題の識別基準で比較することができる学習装置および学習識別システムを得ることを目的とする。
この発明に係る学習装置は、学習サンプル取得部、分類部および学習部を備える。学習サンプル取得部は、Nクラス識別で各クラスに分類された学習サンプルを取得する。分類部は、学習サンプル取得部により取得された学習サンプルを、Nよりも少ないMクラス識別の対象となるクラスに再分類する。学習部は、分類部により再分類された学習サンプルに基づいて、Mクラス識別を行うための識別器を学習する。
この発明によれば、Nクラス識別で各クラスに分類された学習サンプルを、Nよりも少ないMクラス識別のクラスに再分類してMクラス識別の識別基準を与える識別器を学習するので、Nクラス識別の結果をNよりも少ないMクラス識別問題の識別基準で比較することができる。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、表情認識における画像識別の概要を示す図である。前述したように、表情認識では、喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪という7つの分類ラベルが一般的であり、N=7である。この7クラス識別問題において、識別対象の画像は、各クラスの識別器に入力されたときに最も高い識別スコアを出力した識別器のクラスに分類され、個々のクラスの識別基準で識別結果が得られる。
実施の形態1.
図1は、表情認識における画像識別の概要を示す図である。前述したように、表情認識では、喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪という7つの分類ラベルが一般的であり、N=7である。この7クラス識別問題において、識別対象の画像は、各クラスの識別器に入力されたときに最も高い識別スコアを出力した識別器のクラスに分類され、個々のクラスの識別基準で識別結果が得られる。
なお、図1では、画像100aがラベル“喜び”のクラスに分類され、画像100bがラベル“悲しみ”のクラスに分類され、画像100cがラベル“怒り”のクラスに分類されている。また、識別結果として、例えば、画像100aについて“喜び度80”というような結果が出力される。喜び度は、識別対象の画像がラベル“喜び”のクラスに属する確信度に相当し、0から100までの値とする。
図2は、表情認識における7クラス識別の結果を、2クラス識別の識別基準で比較する場合の問題点を示す図である。図2において、表情認識の7クラス識別で画像100aについて“喜び度80”、画像100bについて“悲しみ度80”、画像100dについて“驚き度80”、画像100eについて“恐れ度80”という識別結果が得られたものとする。なお、悲しみ度は、識別対象の画像がラベル“悲しみ”のクラスに属する確信度に相当し、0から100までの値とする。驚き度は、識別対象の画像がラベル“驚き”のクラスに属する確信度に相当し、0から100までの値とする。恐れ度は、識別対象の画像がラベル“恐れ”のクラスに属する確信度に相当し、0から100までの値とする。
表情認識における喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪の7クラス識別問題の識別結果で“肯定的な表情をしているかどうか”という2クラス識別問題を考える。
この場合、7クラス識別問題の個々の識別結果を“肯定的な表情をしているかどうか”という識別基準でそれぞれ比較する必要がある。
しかしながら、7クラス識別問題の個々の識別結果は、7クラス識別問題で対象となるクラスの識別基準で判断された結果であるため、“肯定的な表情をしているかどうか”という識別基準で比較することができない。
この場合、7クラス識別問題の個々の識別結果を“肯定的な表情をしているかどうか”という識別基準でそれぞれ比較する必要がある。
しかしながら、7クラス識別問題の個々の識別結果は、7クラス識別問題で対象となるクラスの識別基準で判断された結果であるため、“肯定的な表情をしているかどうか”という識別基準で比較することができない。
例えば、喜び度80の識別結果と驚き度80の識別結果とでは、どちらがより肯定的であるか否かの優劣を付けられず、これらの識別結果を図2に示す肯定度の軸上で比較することができない。すなわち、“喜び度100の識別結果の肯定度が100であると、驚き度100の識別結果の肯定度は80である”というような対応関係が分からない。
図3は、6(N=6)個のクラスが規定された特徴空間を示す図である。学習サンプルの特徴ベクトルは、変量(x1,x2)で表される。図3において、クラスC1〜C6は点線の円で表され、各クラスに分類された学習サンプルの特徴ベクトルの平均ベクトルが円の中心点となる。また、円の半径は50とし、各クラスで同じ半径である。
ここで、クラスC1〜C3をポジティブクラスに分類し、クラスC4〜C6をネガティブクラスに分類した2(M=2)クラスの識別問題を想定する。
ここで、クラスC1〜C3をポジティブクラスに分類し、クラスC4〜C6をネガティブクラスに分類した2(M=2)クラスの識別問題を想定する。
ポジティブクラスは、検出対象のデータが分類されるクラスである。例えば、前述した“肯定的な表情をしているかどうか”の2クラス識別問題において、被写体の人物が肯定的な表情であると識別された画像が分類される。
また、ネガティブクラスは、検出対象ではないデータが分類されるクラスである。例えば、前述した“肯定的な表情をしているかどうか”の2クラス識別問題において、被写体の人物が肯定的な表情ではないと識別された画像が分類される。
また、ネガティブクラスは、検出対象ではないデータが分類されるクラスである。例えば、前述した“肯定的な表情をしているかどうか”の2クラス識別問題において、被写体の人物が肯定的な表情ではないと識別された画像が分類される。
図4は、図3の特徴空間に対してクラス間の識別境界を設定した様子を示す図である。
識別境界とは、特徴空間内のクラス間でデータが分類されるクラスが入れ替わる境界であり、クラスC1〜C6のそれぞれの境界となる識別境界E1〜E6が設定される。
また、ここでは最短距離法を適用して6クラス識別問題を解いており、学習サンプルの特徴ベクトルがクラスC1〜C6のいずれの平均ベクトルに近いかが判定され、最も近いクラスのラベルが、この学習サンプルの識別結果となる。
識別境界とは、特徴空間内のクラス間でデータが分類されるクラスが入れ替わる境界であり、クラスC1〜C6のそれぞれの境界となる識別境界E1〜E6が設定される。
また、ここでは最短距離法を適用して6クラス識別問題を解いており、学習サンプルの特徴ベクトルがクラスC1〜C6のいずれの平均ベクトルに近いかが判定され、最も近いクラスのラベルが、この学習サンプルの識別結果となる。
識別結果同士を比較するための確信度は、図4に示すように線分で規定された識別境界と学習サンプルの特徴ベクトルとの間の距離を用いている。例えば、点Aの特徴ベクトルは、クラスC2の平均ベクトルに一致し、クラスC2の円とクラスC1,C3の各円との接点からの距離が50であるので、クラスC2における確信度50のデータとなる。
一方、点Bは、クラスC2の円とクラスC3の円との接点であるため、この点Bの特徴ベクトルは、クラスC2またはクラスC3における確信度0のデータとなる。このように2つのクラスの確信度が等しいため、最短距離法では点BのデータがクラスC2かクラスC3であるかを判別できない。
クラスC1〜C3をポジティブクラスに分類し、クラスC4〜C6をネガティブクラスに分類した2クラス識別問題を想定した場合、ポジティブクラスの平均ベクトルの中心点は点Cであり、ネガティブクラスの平均ベクトルの中心点は点Dである。
従って、2クラス識別問題におけるポジティブクラスとネガティブクラスの識別境界は識別境界E4となる。
従って、2クラス識別問題におけるポジティブクラスとネガティブクラスの識別境界は識別境界E4となる。
また、識別境界E4からの距離を確信度とする場合、6クラス識別でクラスC2に分類された確信度50のデータである点Aの特徴ベクトルと、クラスC2またはクラスC3に分類された確信度0のデータである点Bの特徴ベクトルとが、2クラス識別問題としては同じ確信度50のデータとなる。
すなわち、識別境界E4に平行な線分F上の各点の特徴ベクトルは、2クラス識別問題を考えたときに同じ確信度となる。このため、6クラス識別の結果と2クラス識別の結果との間の対応関係を定義できない。
すなわち、識別境界E4に平行な線分F上の各点の特徴ベクトルは、2クラス識別問題を考えたときに同じ確信度となる。このため、6クラス識別の結果と2クラス識別の結果との間の対応関係を定義できない。
図4の例では2クラスで識別境界が1つだけの場合を示したが、実際には、Mが3以上N未満の場合もあり、複数の識別境界が設定され、クラス間の位置関係も複雑になる。
この場合においても、Mクラス識別問題の識別基準でNクラス識別問題の個々の識別結果同士を比較する必要が生じ、Nクラス識別の結果とMクラス識別の結果との対応関係を定義できないことが問題となる。
この場合においても、Mクラス識別問題の識別基準でNクラス識別問題の個々の識別結果同士を比較する必要が生じ、Nクラス識別の結果とMクラス識別の結果との対応関係を定義できないことが問題となる。
そこで、この発明に係る学習装置では、Nクラス識別で各クラスに分類された学習サンプルをMクラス識別のクラスに再分類し、再分類された学習サンプルに基づいてMクラス識別を行うための識別器を学習する。これにより、Nクラス識別で各クラスに分類された学習サンプルからMクラス識別の識別基準で識別を行う識別器を学習することができる。以下に詳細に説明する。
図5は、この発明の実施の形態1に係る学習識別システム1の機能構成を示すブロック図である。学習識別システム1は、例えば、表情認識、物体検出などのパターン認識による識別処理を行うシステムであり、学習装置2、記憶装置3および識別装置4を備える。
実施の形態1に係る学習装置2は、学習サンプル取得部2a、分類部2bおよび学習部2cを備える。記憶装置3は、学習装置2により学習された識別器を記憶する記憶装置である。識別装置4は、学習装置2により学習された識別器を用いて識別対象データを識別する装置であり、特徴抽出部4aおよび識別部4bを備える。
なお、図5では、学習装置2と識別装置4が別々の装置である場合を示したが、両者の機能を有した1つの装置であってもよい。
実施の形態1に係る学習装置2は、学習サンプル取得部2a、分類部2bおよび学習部2cを備える。記憶装置3は、学習装置2により学習された識別器を記憶する記憶装置である。識別装置4は、学習装置2により学習された識別器を用いて識別対象データを識別する装置であり、特徴抽出部4aおよび識別部4bを備える。
なお、図5では、学習装置2と識別装置4が別々の装置である場合を示したが、両者の機能を有した1つの装置であってもよい。
学習装置2において、学習サンプル取得部2aは、学習サンプルを取得する構成要素であり、例えば、ビデオカメラ、ハードディスクドライブなどの外部記憶装置から学習サンプルを取得する。
学習サンプルは、学習対象データから抽出された特徴ベクトルとこれに付随するラベルのペアから構成される。学習対象データとしては、例えば、画像データ、映像データ、音声データ、テキストデータなどのマルチメディアデータが挙げられる。
学習サンプルは、学習対象データから抽出された特徴ベクトルとこれに付随するラベルのペアから構成される。学習対象データとしては、例えば、画像データ、映像データ、音声データ、テキストデータなどのマルチメディアデータが挙げられる。
特徴ベクトルは、学習対象データの特徴量を示すデータである。学習対象データが画像データである場合、画像データを特徴ベクトルとして使用してもよい。
また、画像データに対して一次微分フィルタまたは平均値フィルタなどの特徴抽出処理を施した加工データを、特徴ベクトルとして使用してもよい。
また、画像データに対して一次微分フィルタまたは平均値フィルタなどの特徴抽出処理を施した加工データを、特徴ベクトルとして使用してもよい。
ラベルは、学習サンプルが属するクラスを識別するための情報であり、例えば、被写体が犬である画像データのクラスに対してラベル“犬”が付される。
学習サンプルは、Nクラス識別でN個のクラスにそれぞれ分類されているものとする。ただし、Nは、3以上の自然数である。
なお、学習サンプルは、識別装置4がNクラス識別を行って得られた識別結果であってもよい。
学習サンプルは、Nクラス識別でN個のクラスにそれぞれ分類されているものとする。ただし、Nは、3以上の自然数である。
なお、学習サンプルは、識別装置4がNクラス識別を行って得られた識別結果であってもよい。
分類部2bは、学習サンプル取得部2aによって取得された学習サンプルを、Nよりも少ないMクラス識別の対象となるクラスに再分類する。ただし、Mは、2以上N未満の自然数である。
例えば、分類部2bは、Nクラス識別の対象となるクラスのラベルと、Mクラス識別の対象となるクラスのラベルとの対応関係が規定された参照データに基づいて上記学習サンプルをMクラス識別の対応するラベルのクラスに再分類する。
すなわち、分類部2bは、このようにラベル同士の対応関係が規定された参照データに基づいて、学習サンプルが分類されたクラスのラベルを、Mクラス識別で対象となるクラスのラベルのうち、対応するラベルに振り分ける。学習サンプルは、このように振り分けられたラベルのクラスに分類される。
このようなラベルの再振り分けと分類を全ての学習サンプルに対して行うことにより、Nクラス識別で各クラスに分類された学習サンプルがMクラス識別で対象となるクラスに再分類される。
例えば、分類部2bは、Nクラス識別の対象となるクラスのラベルと、Mクラス識別の対象となるクラスのラベルとの対応関係が規定された参照データに基づいて上記学習サンプルをMクラス識別の対応するラベルのクラスに再分類する。
すなわち、分類部2bは、このようにラベル同士の対応関係が規定された参照データに基づいて、学習サンプルが分類されたクラスのラベルを、Mクラス識別で対象となるクラスのラベルのうち、対応するラベルに振り分ける。学習サンプルは、このように振り分けられたラベルのクラスに分類される。
このようなラベルの再振り分けと分類を全ての学習サンプルに対して行うことにより、Nクラス識別で各クラスに分類された学習サンプルがMクラス識別で対象となるクラスに再分類される。
学習部2cは、分類部2bにより再分類された学習サンプルに基づいて、Mクラス識別を行うための識別器を学習する。ここで、複数の学習サンプルの特徴ベクトルとラベルの関係が学習されて、Mクラス識別の識別基準が決定される。学習方法としては、例えば、最短距離法またはCNNを用いた学習方法が挙げられる。
識別器は、識別対象データの特徴ベクトルが入力されたとき、識別対象データが属するクラスをMクラス識別の各クラスの識別基準で識別して出力する。
識別器は、識別対象データの特徴ベクトルが入力されたとき、識別対象データが属するクラスをMクラス識別の各クラスの識別基準で識別して出力する。
記憶装置3は、前述したように、学習装置2によって学習された識別器を記憶する記憶装置である。例えば、ハードディスクドライブなどの外部記憶装置によって実現される。
また、記憶装置3は、学習装置2または識別装置4に内蔵されていてもよい。
なお、学習識別システム1は、記憶装置3を備えない構成であってもよい。すなわち、学習装置2の学習部2cが、識別装置4の識別部4bに対して識別器を直接設定することにより、記憶装置3を省略することができる。
また、記憶装置3は、学習装置2または識別装置4に内蔵されていてもよい。
なお、学習識別システム1は、記憶装置3を備えない構成であってもよい。すなわち、学習装置2の学習部2cが、識別装置4の識別部4bに対して識別器を直接設定することにより、記憶装置3を省略することができる。
識別装置4において、特徴抽出部4aは、識別対象データの特徴量である特徴ベクトルを抽出する。識別部4bは、学習装置2により学習された識別器および特徴抽出部4aにより取得された特徴ベクトルに基づいて識別対象データのMクラス識別を行う。
例えば、識別部4bは、識別器を用いて識別対象データがどのクラスに属するかを識別し、このクラスのラベルを識別結果として出力する。
例えば、識別部4bは、識別器を用いて識別対象データがどのクラスに属するかを識別し、このクラスのラベルを識別結果として出力する。
学習装置2における、学習サンプル取得部2a、分類部2b、学習部2cの各機能は、処理回路により実現される。すなわち、学習装置2は、後述する図7に示すステップST1からステップST3までの処理を行うための処理回路を備えている。
処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。
処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。
図6は、実施の形態1に係る学習装置2のハードウェア構成を示すブロック図である。図6(a)は学習装置2の機能を実現するハードウェアの処理回路を示し、図6(b)は学習装置2の機能を実現するソフトウェアを実行するハードウェア構成を示している。
図6(a)に示すように、上記処理回路が専用のハードウェアの処理回路100である場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
学習サンプル取得部2a、分類部2b、学習部2cの各部の機能をそれぞれ処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図6(a)に示すように、上記処理回路が専用のハードウェアの処理回路100である場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
学習サンプル取得部2a、分類部2b、学習部2cの各部の機能をそれぞれ処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図6(b)に示すように、上記処理回路がCPU101である場合、学習サンプル取得部2a、分類部2b、学習部2cの機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。
ソフトウェアとファームウェアはプログラムとして記述され、メモリ102に格納される。CPU101は、メモリ102に格納されたプログラムを読み出して実行することにより、各部の機能を実現する。
すなわち、学習装置2は、CPU101によって実行されるときに、図7に示すステップST1からステップST3までの処理が結果的に実行されるプログラムを格納するためのメモリ102を備える。また、これらのプログラムは、学習サンプル取得部2a、分類部2b、学習部2cの手順または方法をコンピュータに実行させるものである。
ソフトウェアとファームウェアはプログラムとして記述され、メモリ102に格納される。CPU101は、メモリ102に格納されたプログラムを読み出して実行することにより、各部の機能を実現する。
すなわち、学習装置2は、CPU101によって実行されるときに、図7に示すステップST1からステップST3までの処理が結果的に実行されるプログラムを格納するためのメモリ102を備える。また、これらのプログラムは、学習サンプル取得部2a、分類部2b、学習部2cの手順または方法をコンピュータに実行させるものである。
ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)などが該当する。
なお、学習サンプル取得部2a、分類部2b、学習部2cの各機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
例えば、学習サンプル取得部2aは、専用のハードウェアの処理回路100でその機能を実現し、分類部2bおよび学習部2cは、CPU101がメモリ102に格納されたプログラム実行することによりその機能を実現する。
このように、上記処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって前述の機能を実現することができる。
例えば、学習サンプル取得部2aは、専用のハードウェアの処理回路100でその機能を実現し、分類部2bおよび学習部2cは、CPU101がメモリ102に格納されたプログラム実行することによりその機能を実現する。
このように、上記処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって前述の機能を実現することができる。
また、識別装置4における特徴抽出部4aおよび識別部4bの各機能についても、学習装置2と同様に、専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
次に動作について説明する。
図7は、学習装置2の動作を示すフローチャートである。
まず、学習サンプル取得部2aは、Nクラス識別で各クラスに分類された学習サンプルを取得する(ステップST1)。
例えば、広告を見る人物の画像を識別対象データとして、7(N=7)クラス(喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪)に分類された識別結果が、学習サンプルとして取得される。
図7は、学習装置2の動作を示すフローチャートである。
まず、学習サンプル取得部2aは、Nクラス識別で各クラスに分類された学習サンプルを取得する(ステップST1)。
例えば、広告を見る人物の画像を識別対象データとして、7(N=7)クラス(喜び、悲しみ、怒り、真顔、驚き、恐れ、嫌悪)に分類された識別結果が、学習サンプルとして取得される。
次に、分類部2bは、学習サンプル取得部2aによって取得された学習サンプルを、Mクラス識別の対象となるクラスに再分類する(ステップST2)。
例えば、7クラスに分類された学習サンプルが2(M=2)クラス(肯定的、否定的)に再分類される。
例えば、7クラスに分類された学習サンプルが2(M=2)クラス(肯定的、否定的)に再分類される。
再分類は、ラベル同士の対応関係に基づいて実行される。
例えば、分類部2bには、7クラス識別の対象となるクラスのラベルと2クラス識別の対象となるクラスのラベルとの対応関係が規定された参照データが予め設定されている。
分類部2bは、上記参照データに基づいて、学習サンプルのクラスのラベルを、2クラス識別で対象となるクラスのラベルのうち、対応するラベルに振り分ける。学習サンプルは、分類部2bに振り分けられたラベルのクラスに分類される。
このようなラベルの再振り分けと分類を全ての学習サンプルに対して行うことにより、7クラス識別で各クラスに分類された学習サンプルが、2クラス識別で対象となるクラスに再分類される。
例えば、分類部2bには、7クラス識別の対象となるクラスのラベルと2クラス識別の対象となるクラスのラベルとの対応関係が規定された参照データが予め設定されている。
分類部2bは、上記参照データに基づいて、学習サンプルのクラスのラベルを、2クラス識別で対象となるクラスのラベルのうち、対応するラベルに振り分ける。学習サンプルは、分類部2bに振り分けられたラベルのクラスに分類される。
このようなラベルの再振り分けと分類を全ての学習サンプルに対して行うことにより、7クラス識別で各クラスに分類された学習サンプルが、2クラス識別で対象となるクラスに再分類される。
Nクラス識別の対象となるクラスのラベルとMクラス識別の対象となるクラスのラベルとの対応関係は、学習識別システム1を利用した情報処理を行うためのアプリケーションの目的によって異なる。
アプリケーションが広告を見る人物の画像から肯定的な表情を検出することを目的としている場合、例えば、表情認識における“喜び”、“驚き”、“真顔”のラベルが“肯定的”のラベルに対応付けられ、“悲しみ”、“怒り”、“恐れ”、“嫌悪”のラベルが“否定的”のラベルに対応付けられる。
アプリケーションが広告を見る人物の画像から肯定的な表情を検出することを目的としている場合、例えば、表情認識における“喜び”、“驚き”、“真顔”のラベルが“肯定的”のラベルに対応付けられ、“悲しみ”、“怒り”、“恐れ”、“嫌悪”のラベルが“否定的”のラベルに対応付けられる。
また、この他、アプリケーションがホラー映画を見る人物の画像から当該人物が恐怖を感じているかどうかを検出することを目的としている場合、表情認識における“恐れ”、“嫌悪”、“悲しみ”、“怒り”、“驚き”のラベルが“恐怖効果あり”のラベルに対応付けられ、“喜び”、“真顔”のラベルが“恐怖効果なし”のラベルに対応付けられる。
なお、ラベル同士の対応関係は、学習装置2が自動で決定してもよいが、ユーザが設定してもよい。例えば、分類部2bが、アプリケーションの処理アルゴリズムを解析して、このアプリケーションで実施されるMクラス識別を特定して、このMクラス識別で対象となるクラスのラベルとNクラス識別で対象となるクラスのラベルとの対応付けを行ってもよい。また、ユーザが、入力装置を用いてラベル同士の対応関係を設定してもよい。
この後、学習部2cが、分類部2bにより再分類された上記学習サンプルに基づいて、Mクラス識別を行うための識別器を学習する(ステップST3)。
例えば、識別対象データの特徴ベクトルが入力されたときに、2クラス識別のクラス(肯定的、否定的)のうち、この識別対象データが属するクラスを識別する識別器が生成される。このようにして得られた識別器は、記憶装置3に記憶される。
例えば、識別対象データの特徴ベクトルが入力されたときに、2クラス識別のクラス(肯定的、否定的)のうち、この識別対象データが属するクラスを識別する識別器が生成される。このようにして得られた識別器は、記憶装置3に記憶される。
広告を見る人物の画像から肯定的な表情を検出する場合、識別装置4の特徴抽出部4aが、広告を見る人物が写った画像を入力し、この画像から特徴ベクトルを抽出する。
次に、識別部4bは、記憶装置3から読み出した上記識別器と上記画像の特徴ベクトルに基づいて、この画像が肯定的のクラスまたは否定的のクラスのいずれに属するかを識別し、そのクラスのラベルを識別結果として出力する。
次に、識別部4bは、記憶装置3から読み出した上記識別器と上記画像の特徴ベクトルに基づいて、この画像が肯定的のクラスまたは否定的のクラスのいずれに属するかを識別し、そのクラスのラベルを識別結果として出力する。
図8は、表情認識における7クラス識別の結果を用いて2クラス識別を行う処理の概要を示す図である。図8(a)は、7クラス(喜び、驚き、真顔、悲しみ、怒り、恐れ、嫌悪)から2クラス(肯定的、否定的)に再分類された学習サンプルを示し、図8(b)は2クラス識別の結果を示している。
図8(b)に示す画像100aは、ラベル“喜び”のクラスに分類され、喜び度80という識別結果が得られた画像であり、画像100bは、ラベル“悲しみ”のクラスに分類され、悲しみ度80という識別結果が得られた画像である。また、画像100dは、ラベル“驚き”のクラスに分類され、驚き度80という識別結果が得られた画像であり、画像100eは、ラベル“恐れ”のクラスに分類され、恐れ度80という識別結果が得られた画像である。
実施の形態1に係る学習装置2では、ラベル同士の対応関係に応じて、7クラス識別で各クラスに分類されたデータが2クラス識別で対象となるクラスに再分類される。
例えば、画像100a,100dの特徴ベクトルとラベルのペアからなる各データは、喜び度80と驚き度80によらず、ラベル“喜び”とラベル“驚き”がラベル“肯定的”に振り分けられてラベル“肯定的”のクラスに再分類される。
同様に、画像100b,100eの特徴ベクトルとラベルのペアからなる各データは、悲しみ度80と恐れ度80によらず、ラベル“悲しみ”とラベル“恐れ”がラベル“否定的”に振り分けられてラベル“否定的”のクラスに再分類される。
例えば、画像100a,100dの特徴ベクトルとラベルのペアからなる各データは、喜び度80と驚き度80によらず、ラベル“喜び”とラベル“驚き”がラベル“肯定的”に振り分けられてラベル“肯定的”のクラスに再分類される。
同様に、画像100b,100eの特徴ベクトルとラベルのペアからなる各データは、悲しみ度80と恐れ度80によらず、ラベル“悲しみ”とラベル“恐れ”がラベル“否定的”に振り分けられてラベル“否定的”のクラスに再分類される。
学習装置2は、このように“肯定的”のクラスと“否定的”のクラスとに再分類された学習サンプルに基づいて、肯定的な表情であることを識別基準とした識別器を学習する。
この識別器を使用して2クラス識別を行うことで、図8(b)に示すように、7クラス識別で各クラスに分類されていた画像100a,100b,100d,100eのデータを、肯定度という2クラス識別の識別基準で比較することが可能となる。
例えば、喜び度80であった画像100aのデータは肯定度80、驚き度80であった画像100dのデータは肯定度70となる。悲しみ度80であった画像100bのデータは肯定度40となり、恐れ度80であった画像100eのデータは肯定度30となる。
この識別器を使用して2クラス識別を行うことで、図8(b)に示すように、7クラス識別で各クラスに分類されていた画像100a,100b,100d,100eのデータを、肯定度という2クラス識別の識別基準で比較することが可能となる。
例えば、喜び度80であった画像100aのデータは肯定度80、驚き度80であった画像100dのデータは肯定度70となる。悲しみ度80であった画像100bのデータは肯定度40となり、恐れ度80であった画像100eのデータは肯定度30となる。
以上のように、この実施の形態1に係る学習装置2は、学習サンプル取得部2a、分類部2bおよび学習部2cを備える。
学習サンプル取得部2aは、Nクラス識別で各クラスに分類された学習サンプルを取得する。分類部2bは、学習サンプル取得部2aにより取得された学習サンプルを、Nよりも少ないMクラス識別の対象となるクラスに再分類する。学習部2cは、分類部2bにより再分類された学習サンプルに基づいて、Mクラス識別を行うための識別器を学習する。
このようにNクラス識別で各クラスに分類された学習サンプルをMクラス識別のクラスに再分類してMクラス識別の識別器が学習されるので、Nクラス識別の結果を、Nよりも少ないMクラス識別問題の識別基準で比較することができる。
学習サンプル取得部2aは、Nクラス識別で各クラスに分類された学習サンプルを取得する。分類部2bは、学習サンプル取得部2aにより取得された学習サンプルを、Nよりも少ないMクラス識別の対象となるクラスに再分類する。学習部2cは、分類部2bにより再分類された学習サンプルに基づいて、Mクラス識別を行うための識別器を学習する。
このようにNクラス識別で各クラスに分類された学習サンプルをMクラス識別のクラスに再分類してMクラス識別の識別器が学習されるので、Nクラス識別の結果を、Nよりも少ないMクラス識別問題の識別基準で比較することができる。
また、実施の形態1に係る学習装置2において、分類部2bは、Nクラス識別の対象となるクラスのラベルとMクラス識別の対象となるクラスのラベルとの対応関係を示す参照データに基づいて、学習サンプル取得部2aにより取得された学習サンプルを、Mクラス識別の対応するラベルのクラスに再分類する。これにより、参照データに規定された対応関係でNクラス識別の対象となるクラスを、Mクラス識別の対象となるクラスにまとめることができる。
さらに、実施の形態1に係る学習識別システム1は、学習装置2および識別装置4を備える。識別装置4は、学習装置2により学習された識別器を用いて、Mクラス識別の対象となるクラスのうち、識別対象データが属するクラスを識別する。
このように構成することで、上記と同様の効果が得られる。また、Nクラス識別の結果で学習されたMクラス識別器を用いてMクラス識別を行うことができる。
このように構成することで、上記と同様の効果が得られる。また、Nクラス識別の結果で学習されたMクラス識別器を用いてMクラス識別を行うことができる。
実施の形態2.
図9は、この発明の実施の形態2に係る学習装置2Aの機能構成を示すブロック図である。図9において、図1と同一の構成要素には、同一の符号を付して説明を省略する。
学習装置2Aは、学習サンプル取得部2a、分類部2b、学習部2cおよび調整部2dを備える。調整部2dは、分類部2bにより再分類された学習サンプルのクラス間のサンプル数の割合をMクラス識別の誤識別が減少するように調整する。
図9は、この発明の実施の形態2に係る学習装置2Aの機能構成を示すブロック図である。図9において、図1と同一の構成要素には、同一の符号を付して説明を省略する。
学習装置2Aは、学習サンプル取得部2a、分類部2b、学習部2cおよび調整部2dを備える。調整部2dは、分類部2bにより再分類された学習サンプルのクラス間のサンプル数の割合をMクラス識別の誤識別が減少するように調整する。
また、学習装置2Aにおける学習サンプル取得部2a、分類部2b、学習部2cおよび調整部2dの各機能についても、実施の形態1と同様に、専用のハードウェアで実現してもよく、ソフトウェアまたはファームウェアで実現してもよい。
また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
また、これらの機能の一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
次に動作について説明する。
図10は、学習装置2Aの動作を示すフローチャートである。図10におけるステップST1aおよびステップST2aの処理は、図7のステップST1およびステップST2と同様の処理であるので説明を省略する。
調整部2dは、ステップST2aで再分類された学習サンプルのクラス間のサンプル数の割合をMクラス識別の誤識別が減少するように調整する(ステップST3a)。
次に、学習部2cは、調整部2dによりクラス間のサンプル数の割合が調整された学習サンプルに基づいて識別器を学習する(ステップST4a)。
図10は、学習装置2Aの動作を示すフローチャートである。図10におけるステップST1aおよびステップST2aの処理は、図7のステップST1およびステップST2と同様の処理であるので説明を省略する。
調整部2dは、ステップST2aで再分類された学習サンプルのクラス間のサンプル数の割合をMクラス識別の誤識別が減少するように調整する(ステップST3a)。
次に、学習部2cは、調整部2dによりクラス間のサンプル数の割合が調整された学習サンプルに基づいて識別器を学習する(ステップST4a)。
図11はクラス間の学習サンプルのサンプル数の割合を調整する処理を示す図であり、肯定的クラスと否定的クラスとの間に学習サンプルが分布している様子を示している。
肯定的クラスと否定的クラスの間の学習サンプルのサンプル数の割合を調整せずに学習すると、図11(a)に示す識別境界L1が得られる。
肯定的サンプルとは、肯定的クラスに識別されるべき学習サンプルであり、否定的サンプルとは、否定的クラスに識別されるべき学習サンプルである。
肯定的クラスと否定的クラスの間の学習サンプルのサンプル数の割合を調整せずに学習すると、図11(a)に示す識別境界L1が得られる。
肯定的サンプルとは、肯定的クラスに識別されるべき学習サンプルであり、否定的サンプルとは、否定的クラスに識別されるべき学習サンプルである。
学習サンプルのサンプル数の割合を調整せずに学習すると、識別境界L1を跨いで肯定的クラス側に誤って識別された否定的サンプル(Fale Positive;以下、FPと記載する)の数と、識別境界L1を跨いで否定的クラス側に誤って識別された肯定的サンプル(Fale Negative;以下、FNと記載する)の数とが決まる。
識別精度を向上するには、このようなFNとFPが減るように学習する必要がある。
識別精度を向上するには、このようなFNとFPが減るように学習する必要がある。
そこで、調整部2dは、例えば、図11(b)に矢印aで示すように、肯定的クラスと否定的クラスとの間の否定的サンプルを間引く。このように肯定的クラスと否定的クラスの間の学習サンプルのサンプル数の割合を調整して学習を行うことで、識別境界L1から識別境界L2に移動する。識別境界L2では、識別境界L1よりも多くの学習サンプルが肯定的クラスと判定され、Mクラス識別の識別基準が肯定的クラスに判定されやすい基準に調整されている。
なお、機械学習ではクラス間に識別境界を設定しない場合もあるが、この場合においても、クラス間の識別基準に基づいて学習サンプルのクラス識別の成功と失敗を判定するので、上記のような効果を得ることができる。
なお、機械学習ではクラス間に識別境界を設定しない場合もあるが、この場合においても、クラス間の識別基準に基づいて学習サンプルのクラス識別の成功と失敗を判定するので、上記のような効果を得ることができる。
サンプル数の割合の調整方法としては、例えば、あるクラス間に分類されている全ての学習サンプルを選択した状態から、ランダムに一方のサンプル選択を解除する操作を予め定めたサンプル数になるまで繰り返すことが挙げられる。また、クラス間に分類されている全てのサンプルから、学習サンプルとして残すサンプルが予め定めたサンプル数になるまでランダムに選択を繰り返してもよい。さらに、ブートストラップ法と呼ばれる方法を採用してもよい。
以上のように、実施の形態2に係る学習装置2Aは、分類部2bにより再分類された学習サンプルのクラス間のサンプル数の割合をMクラス識別の誤識別が減少するように調整する調整部2dを備える。学習部2cは、調整部2dによりクラス間のサンプル数の割合が調整された学習サンプルに基づいて識別器を学習する。
これにより、クラス間の一方に学習サンプルが識別されやすい識別基準に調整することができるので、クラス間での誤識別が減少し、Mクラス識別の識別精度を向上させることができる。
これにより、クラス間の一方に学習サンプルが識別されやすい識別基準に調整することができるので、クラス間での誤識別が減少し、Mクラス識別の識別精度を向上させることができる。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る学習装置は、Nクラス識別問題の個々の識別結果を学習サンプルとしてMクラス識別問題を解く識別器を学習することができるので、表情認識、物体検出などのパターン認識による様々な識別を行う情報処理システムに適用可能である。
1 学習識別システム、2,2A 学習装置、2a 学習サンプル取得部、2b 分類部、2c 学習部、2d 調整部、3 記憶装置、4 識別装置、4a 特徴抽出部、4b 識別部、30 肯定度、100 処理回路、100a〜100e 画像、101 CPU、102 メモリ。
Claims (5)
- N(Nは3以上の自然数)クラス識別で各クラスに分類された学習サンプルを取得する学習サンプル取得部と、
前記学習サンプル取得部により取得された学習サンプルを、Nよりも少ないM(Mは2以上N未満の自然数)クラス識別の対象となるクラスに再分類する分類部と、
前記分類部により再分類された学習サンプルに基づいて前記Mクラス識別を行うための識別器を学習する学習部と
を備えたことを特徴とする学習装置。 - 前記分類部により再分類された学習サンプルのクラス間のサンプル数の割合を、前記Mクラス識別の誤識別が減少するように調整する調整部を備え、
前記学習部は、前記クラス間のサンプル数の割合が調整された学習サンプルに基づいて前記識別器を学習することを特徴とする請求項1記載の学習装置。 - 前記分類部は、前記Nクラス識別の対象となるクラスのラベルと、前記Mクラス識別の対象となるクラスのラベルとの対応関係を示すデータに基づいて、前記学習サンプル取得部により取得された学習サンプルを前記Mクラス識別の対応するラベルのクラスに再分類することを特徴とする請求項1記載の学習装置。
- N(Nは3以上の自然数)クラス識別で各クラスに分類された学習サンプルを取得する学習サンプル取得部と、前記学習サンプル取得部により取得された学習サンプルを、Nよりも少ないM(Mは2以上N未満の自然数)クラス識別の対象となるクラスに再分類する分類部と、前記分類部により再分類された学習サンプルに基づいて、前記Mクラス識別を行うための識別器を学習する学習部とを有する学習装置と、
識別対象データの特徴量を抽出する特徴抽出部と、前記学習装置により学習された前記識別器および前記特徴抽出部により取得された特徴量に基づいて、前記識別対象データの前記Mクラス識別を行う識別部とを有する識別装置と
を備えたことを特徴とする学習識別システム。 - 前記学習装置は、前記分類部により再分類された学習サンプルのクラス間のサンプル数の割合を、前記Mクラス識別の誤識別が減少するように調整する調整部を有し、
前記学習部は、前記クラス間のサンプル数の割合が調整された学習サンプルに基づいて前記識別器を学習することを特徴とする請求項4記載の学習識別システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/073374 WO2017029758A1 (ja) | 2015-08-20 | 2015-08-20 | 学習装置および学習識別システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017029758A1 true JPWO2017029758A1 (ja) | 2017-11-09 |
JP6338781B2 JP6338781B2 (ja) | 2018-06-06 |
Family
ID=58051188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017535217A Expired - Fee Related JP6338781B2 (ja) | 2015-08-20 | 2015-08-20 | 学習装置および学習識別システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180039822A1 (ja) |
JP (1) | JP6338781B2 (ja) |
CN (1) | CN107924493A (ja) |
DE (1) | DE112015006815T5 (ja) |
WO (1) | WO2017029758A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417530B2 (en) | 2016-09-30 | 2019-09-17 | Cylance Inc. | Centroid for improving machine learning classification and info retrieval |
US10929478B2 (en) * | 2017-06-29 | 2021-02-23 | International Business Machines Corporation | Filtering document search results using contextual metadata |
CN118303019A (zh) * | 2021-12-01 | 2024-07-05 | 索尼集团公司 | 图像处理装置、图像处理方法和程序 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000244879A (ja) * | 1999-02-22 | 2000-09-08 | Sony Corp | 画像情報変換装置および方法 |
WO2014097670A1 (ja) * | 2012-12-21 | 2014-06-26 | 富士ゼロックス株式会社 | 文書分類装置及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853389A (zh) * | 2009-04-01 | 2010-10-06 | 索尼株式会社 | 多类目标的检测装置及检测方法 |
JP2011248636A (ja) * | 2010-05-27 | 2011-12-08 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
EP2630474A4 (en) * | 2010-10-19 | 2017-04-19 | 3M Innovative Properties Company | Computer-aided assignment of ratings to digital samples of a manufactured web product |
JP5765583B2 (ja) * | 2012-10-26 | 2015-08-19 | カシオ計算機株式会社 | 多クラス識別器、多クラス識別方法、及びプログラム |
-
2015
- 2015-08-20 CN CN201580082158.0A patent/CN107924493A/zh active Pending
- 2015-08-20 JP JP2017535217A patent/JP6338781B2/ja not_active Expired - Fee Related
- 2015-08-20 US US15/554,534 patent/US20180039822A1/en not_active Abandoned
- 2015-08-20 WO PCT/JP2015/073374 patent/WO2017029758A1/ja active Application Filing
- 2015-08-20 DE DE112015006815.5T patent/DE112015006815T5/de not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000244879A (ja) * | 1999-02-22 | 2000-09-08 | Sony Corp | 画像情報変換装置および方法 |
WO2014097670A1 (ja) * | 2012-12-21 | 2014-06-26 | 富士ゼロックス株式会社 | 文書分類装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
DE112015006815T5 (de) | 2018-05-24 |
CN107924493A (zh) | 2018-04-17 |
JP6338781B2 (ja) | 2018-06-06 |
WO2017029758A1 (ja) | 2017-02-23 |
US20180039822A1 (en) | 2018-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Singh et al. | Face detection and recognition system using digital image processing | |
US10628683B2 (en) | System and method for CNN layer sharing | |
US10726312B2 (en) | System and method for appearance search | |
US9563821B2 (en) | Method, apparatus and computer readable recording medium for detecting a location of a face feature point using an Adaboost learning algorithm | |
JP4724125B2 (ja) | 顔認識システム | |
US9292745B2 (en) | Object detection apparatus and method therefor | |
Chen et al. | Evaluation of gender classification methods on thermal and near-infrared face images | |
KR101410489B1 (ko) | 얼굴 식별 방법 및 그 장치 | |
TWI567660B (zh) | 多類別物件分類方法及系統 | |
Dawar et al. | Continuous detection and recognition of actions of interest among actions of non-interest using a depth camera | |
US11132577B2 (en) | System and a method for efficient image recognition | |
KR20170109304A (ko) | 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법 | |
KR20170108339A (ko) | 영상에서 다수의 객체를 인식하는 방법 | |
JP2018142189A (ja) | プログラム、測距方法、及び測距装置 | |
JP6338781B2 (ja) | 学習装置および学習識別システム | |
US20160239718A1 (en) | Image analysis systems and methods | |
KR101491832B1 (ko) | 영상 선택 장치 및 방법 | |
Hegde et al. | Facial Expression Classifier Using Better Technique: FisherFace Algorithm | |
Mccullagh | Face detection by using haar cascade classifier | |
Zarkasi et al. | Weightless Neural Networks Face Recognition Learning Process for Binary Facial Pattern | |
JP2018036870A (ja) | 画像処理装置及びプログラム | |
Asif et al. | Deep component based age invariant face recognition in an unconstrained environment | |
Ghahramani et al. | Unseen family member classification using mixture of experts | |
El Hadi et al. | Application of the deep learning approach for identification and face recognition in real-time video | |
Mishra et al. | Human face localization using normalized RGB color space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6338781 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |