JP2011100395A - Discrimination device, discrimination method, and program - Google Patents

Discrimination device, discrimination method, and program Download PDF

Info

Publication number
JP2011100395A
JP2011100395A JP2009256058A JP2009256058A JP2011100395A JP 2011100395 A JP2011100395 A JP 2011100395A JP 2009256058 A JP2009256058 A JP 2009256058A JP 2009256058 A JP2009256058 A JP 2009256058A JP 2011100395 A JP2011100395 A JP 2011100395A
Authority
JP
Japan
Prior art keywords
learning
unit
vector
hyperplane
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009256058A
Other languages
Japanese (ja)
Inventor
Yasunari Hashimoto
泰成 橋本
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009256058A priority Critical patent/JP2011100395A/en
Publication of JP2011100395A publication Critical patent/JP2011100395A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform learning and discrimination with a less amount of operations in a learning-discrimination system. <P>SOLUTION: In a learning phase, a learning pixel hypersphere mapping unit 110 obtains images imaging only skins and maps them in a color feature space, then maps on a hypersphere surface as unit skin vectors u. A hyperplane setting unit 130 establishes a hyperplane having an average vector m' or m of each of the unit skin vectors u as a normal vector. A learning pixel dimension compression unit 140 projects each of the unit skin vectors u on the hyperplane ϕ and further projects on a base vector of the hyperplane ϕ and designates as projection skin vectors y'. A discrimination boundary setting unit 160 establishes a threshold K of a discrimination boundary for discriminating between the "skins" and "things other than skins". The established hyperplane ϕ, base vector of the hyperplane ϕ, and threshold K of the discrimination boundary are also used in a discrimination phase. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、学習判別システムに関し、特に予め学習を行い、判別対象が集合に属するか否かを判別する判別装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。   The present invention relates to a learning discriminating system, and more particularly to a discriminating apparatus that performs learning in advance and discriminates whether or not a discrimination target belongs to a set, a processing method therefor, and a program that causes a computer to execute the method.

パターン認識技術においては、特徴空間内の学習データの捉え方によって様々な手法が提案されている。特に、テンプレートマッチング法では、クラス(カテゴリー)毎のまとまりを1つの代表ベクトル(テンプレート)により表現し、入力ベクトルと各クラスの代表ベクトルとの距離や類似度を評価することにより、最も近いクラスが識別される。代表ベクトルを求める学習フェーズにおいては、各クラスに属する学習データの分布から、クラス毎の平均ベクトルが求められる。また、入力をクラス分けする判別フェーズにおいては、クラス毎の平均ベクトルとの間のユークリッド空間が利用される(例えば、非特許文献1参照。)。   In pattern recognition technology, various methods have been proposed depending on how learning data is captured in a feature space. In particular, in the template matching method, a group for each class (category) is expressed by one representative vector (template), and the distance between the input vector and the representative vector of each class and the similarity are evaluated, so that the closest class is determined. Identified. In the learning phase for obtaining a representative vector, an average vector for each class is obtained from the distribution of learning data belonging to each class. Further, in the discrimination phase in which the input is classified, an Euclidean space between the average vector for each class is used (for example, see Non-Patent Document 1).

麻生英樹、津田宏治、村田昇著「パターン認識と学習の統計学」、岩波書店、2003年4月、p.12−16Hideki Aso, Koji Tsuda, Noboru Murata, “Statistics of Pattern Recognition and Learning”, Iwanami Shoten, April 2003, p. 12-16

しかしながら、上述の従来技術では、特徴空間におけるデータの分布によって、学習フェーズや判別フェーズにおいて多くの演算量を必要とし、そのために処理時間を要するおそれがある。   However, in the above-described conventional technology, a large amount of calculation is required in the learning phase and the discrimination phase due to the distribution of data in the feature space, and there is a risk that processing time may be required.

本発明はこのような状況に鑑みてなされたものであり、学習判別システムにおいて演算量の少ない学習および判別を行うことを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to perform learning and discrimination with a small amount of calculation in a learning discrimination system.

本発明は、上記課題を解決するためになされたものであり、その第1の側面は、学習情報の各々を特徴空間に写像した上で所定の長さを有する単位学習ベクトルに変換することにより上記学習情報の各々を超球面上へ写像する学習情報写像部と、上記単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定部と、上記単位学習ベクトルの各々を上記超平面に射影した上で上記超平面の基底ベクトルに射影した射影学習ベクトルとすることにより上記学習情報の次元を圧縮する学習情報次元圧縮部と、上記射影学習ベクトルの各々の分布から上記学習情報に関する判別境界を設定する判別境界設定部と、判別対象情報を上記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより上記判別対象情報を超球面上へ写像する判別対象情報写像部と、上記単位判別対象ベクトルを上記超平面に射影した上で上記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより上記判別対象情報の次元を圧縮する判別対象情報次元圧縮部と、上記射影判別対象ベクトルについて上記判別境界に含まれるか否かを判別する境界判別部とを具備する判別装置、その処理方法および処理手順を実行するためのプログラムである。これにより、学習情報を超球面上へ写像して、学習および判別における演算量を減少させるという作用をもたらす。   The present invention has been made to solve the above-mentioned problems, and a first aspect of the present invention is that each learning information is mapped to a feature space and then converted into a unit learning vector having a predetermined length. A learning information mapping unit that maps each of the learning information onto a hypersphere, a hyperplane setting unit that sets a hyperplane having an average vector of each unit learning vector as a normal vector, and each of the unit learning vectors And a learning information dimension compression unit that compresses the dimension of the learning information by projecting onto the hyperplane and then projecting onto the basis vector of the hyperplane, and from each distribution of the projection learning vector A discriminant boundary setting unit for setting a discriminant boundary relating to learning information and mapping the discriminant target information into the feature space and converting it into a unit discriminant vector having a predetermined length And a discrimination target information mapping unit that maps the discrimination target information onto a hypersphere, and a projection discrimination target vector that projects the unit discrimination target vector onto the hyperplane and then projects it onto the hyperplane basis vector. A discrimination apparatus comprising: a discrimination target information dimension compressing unit that compresses the dimension of the discrimination target information by using a boundary discrimination unit that discriminates whether or not the projection discrimination target vector is included in the discrimination boundary; It is a program for executing a processing procedure. As a result, the learning information is mapped onto the hypersphere, and the amount of computation in learning and discrimination is reduced.

また、この第1の側面において、上記超平面設定部は、上記特徴空間の原点を通るように上記超平面を設定してもよい。これにより、特定の項がゼロになり、さらに演算量を減少させるという作用をもたらす。   In the first aspect, the hyperplane setting unit may set the hyperplane so as to pass through the origin of the feature space. As a result, the specific term becomes zero, and the operation amount is further reduced.

また、この第1の側面において、上記学習情報次元圧縮部は、上記超平面に射影された上記単位学習ベクトルの各々に対する主成分分析により上記超平面の上記基底ベクトルを生成してもよい。これにより、主成分分析を通じて基底ベクトルを生成させるという作用をもたらす。   In the first aspect, the learning information dimension compression unit may generate the basis vector of the hyperplane by principal component analysis for each of the unit learning vectors projected onto the hyperplane. This brings about the effect | action that a base vector is produced | generated through principal component analysis.

また、この第1の側面において、上記判別境界設定部は、上記射影学習ベクトルの各々のマハラノビス距離に基づいて上記判別境界を設定するようにしてもよい。これにより、さらに演算量を減少させるという作用をもたらす。   In the first aspect, the discrimination boundary setting unit may set the discrimination boundary based on each Mahalanobis distance of the projection learning vector. As a result, the operation amount is further reduced.

また、この第1の側面において、上記学習情報および上記判別対象情報は物体に関する色情報であり、上記判別境界は上記物体を判別するための境界とすることができる。   In the first aspect, the learning information and the discrimination target information may be color information related to an object, and the discrimination boundary may be a boundary for discriminating the object.

また、本発明の第2の側面は、第1の学習情報の各々を特徴空間に写像した上で所定の長さを有する第1の単位学習ベクトルに変換することにより上記第1の学習情報の各々を超球面上へ写像する第1の学習情報写像部と、上記第1の学習情報と背反する第2の学習情報の各々を特徴空間に写像した上で所定の長さを有する第2の単位学習ベクトルに変換することにより上記第2の学習情報の各々を超球面上へ写像する第2の学習情報写像部と、上記第1の単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定部と、上記第1の単位学習ベクトルの各々を上記超平面に射影した上で上記超平面の基底ベクトルに射影した第1の射影学習ベクトルとすることにより上記第1の学習情報の次元を圧縮する第1の学習情報次元圧縮部と、上記第2の単位学習ベクトルの各々を上記超平面に射影した上で上記超平面の基底ベクトルに射影した第2の射影学習ベクトルとすることにより上記第2の学習情報の次元を圧縮する第2の学習情報次元圧縮部と、上記第1および第2の射影学習ベクトルの各々の分布から上記第1および第2の学習情報に関する判別境界を設定する判別境界設定部と、判別対象情報を上記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより上記判別対象情報を超球面上へ写像する判別対象情報写像部と、上記単位判別対象ベクトルを上記超平面に射影した上で上記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより上記判別対象情報の次元を圧縮する判別対象情報次元圧縮部と、上記射影判別対象ベクトルについて上記判別境界に含まれるか否かを判別する境界判別部とを具備する判別装置、その処理方法および処理手順を実行するためのプログラムである。これにより、互いに背反する2種類の学習情報を超球面上へ写像して、学習および判別における演算量を減少させるという作用をもたらす。   In addition, the second aspect of the present invention maps each of the first learning information into a feature space and then converts the first learning information into a first unit learning vector having a predetermined length, thereby converting the first learning information into the first learning information. A first learning information mapping unit that maps each onto a hypersphere, and a second length having a predetermined length after mapping each of the second learning information contrary to the first learning information to the feature space A second learning information mapping unit that maps each of the second learning information onto a hypersphere by converting to a unit learning vector, and an average vector of each of the first unit learning vectors as a normal vector A hyperplane setting unit that sets a hyperplane, and a first projection learning vector obtained by projecting each of the first unit learning vectors onto the hyperplane and then projecting onto the basis vector of the hyperplane. Compress the dimension of 1 learning information The first learning information dimension compression unit and the second unit learning vector are projected onto the hyperplane and then the second projection learning vector is projected onto the hyperplane basis vector. A second learning information dimension compressing unit that compresses the dimension of the learning information, and a determination boundary that sets a determination boundary relating to the first and second learning information from the respective distributions of the first and second projection learning vectors A setting unit; a discrimination target information mapping unit that maps the discrimination target information onto a hypersphere by mapping the discrimination target information to the feature space and then converting the discrimination target information into a unit discrimination target vector having a predetermined length; and Discrimination target information that compresses the dimension of the discrimination target information by projecting the unit discrimination target vector onto the hyperplane and then projecting it onto the basis vector of the hyperplane. The original compression unit, the projection determination target vector discrimination apparatus and a boundary determination unit for determining whether or not included in the determination boundary for a program for executing the processing methods and procedures. As a result, the two kinds of learning information that are opposite to each other are mapped onto the hypersphere, thereby bringing about an effect of reducing the amount of calculation in learning and discrimination.

本発明によれば、学習判別システムにおいて演算量の少ない学習および判別を行うことができるという優れた効果を奏し得る。   According to the present invention, it is possible to achieve an excellent effect that learning and discrimination with a small amount of calculation can be performed in a learning discrimination system.

本発明の実施の形態の適用イメージの例を示す図である。It is a figure which shows the example of the application image of embodiment of this invention. 本発明の第1の実施の形態における判別装置の学習機能構成の一例を示す図である。It is a figure which shows an example of the learning function structure of the discrimination | determination apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における肌ベクトル520(s)および肌集合530の一例を示す図である。It is a figure which shows an example of the skin vector 520 (s) and the skin set 530 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における単位肌ベクトル540(u)、超球面550および平均ベクトル560(m')の一例を示す図である。It is a figure which shows an example of the unit skin vector 540 (u), the hypersphere 550, and the average vector 560 (m ') in the 1st Embodiment of this invention. 本発明の第1の実施の形態における単位平均ベクトル561(m)および超平面570(φ)の一例を示す図である。It is a figure which shows an example of the unit average vector 561 (m) and the hyperplane 570 ((phi)) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における基底ベクトル580(ei)、射影肌ベクトル590(y')および判別境界600の一例を示す図である。Basis vector 580 in the first embodiment of the present invention (e i), is a diagram showing an example of a projection skin vector 590 (y ') and determine boundaries 600. 本発明の第1の実施の形態における判別装置の判別機能構成の一例を示す図である。It is a figure which shows an example of the discrimination | determination function structure of the discrimination | determination apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における入力ベクトル620(x)の一例を示す図である。It is a figure which shows an example of the input vector 620 (x) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における単位入力ベクトル640(ux)および超球面650の一例を示す図である。It is a figure which shows an example of the unit input vector 640 (ux) and the hypersphere 650 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における超平面670(φ)、基底ベクトル680(ei)および射影入力ベクトル690(z')の一例を示す図である。Hyperplane 670 in the first embodiment of the present invention (phi), is a diagram showing an example of a basis vector 680 (e i) and projection input vector 690 (z '). 本発明の第1の実施の形態における学習フェーズの処理手順の一例を示す図である。It is a figure which shows an example of the process sequence of the learning phase in the 1st Embodiment of this invention. 本発明の第1の実施の形態における判別フェーズの処理手順の一例を示す図である。It is a figure which shows an example of the process sequence of the discrimination | determination phase in the 1st Embodiment of this invention. 本発明の第2の実施の形態における判別装置の学習機能構成の一例を示す図である。It is a figure which shows an example of the learning function structure of the discrimination | determination apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における肌ベクトル520(s)、非肌ベクトル525(p)および肌集合530の一例を示す図である。It is a figure which shows an example of the skin vector 520 (s), the non-skin vector 525 (p), and the skin set 530 in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における単位肌ベクトル540(u)、単位非肌ベクトル545(q)、超球面550および平均ベクトル560(m')の一例を示す図である。It is a figure which shows an example of the unit skin vector 540 (u), the unit non-skin vector 545 (q), the hypersphere 550, and the average vector 560 (m ') in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における単位平均ベクトル561(m)および超平面570(φ)の一例を示す図である。It is a figure which shows an example of the unit average vector 561 (m) and the hyperplane 570 ((phi)) in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における基底ベクトル580(ei)、射影肌ベクトル590(y')、射影非肌ベクトル595(r')および判別境界600の一例を示す図である。Second embodiment of the basis vectors in the form 580 of the present invention (e i), the projection skin vector 590 (y ') is a diagram showing an example of the projection non-skin vector 595 (r') and determine boundaries 600. 本発明の第2の実施の形態における学習フェーズの処理手順の一例を示す図である。It is a figure which shows an example of the process sequence of the learning phase in the 2nd Embodiment of this invention.

以下、本発明を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(学習画素として肌色画素のみを用いた例)
2.第2の実施の形態(学習画素として肌色画素および非肌色画素を用いた例)
3.変形例
Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First embodiment (example using only skin color pixels as learning pixels)
2. Second Embodiment (example using skin color pixels and non-skin color pixels as learning pixels)
3. Modified example

図1は、本発明の実施の形態の適用イメージの例を示す図である。撮像装置20によって人11を含む被写体を撮像する場合、人11の肌部分を正確に判断できれば、撮像装置20や他の装置によるポスト処理において、肌色補正などを的確に施すことが可能となる。人11は、顔、手、腕、足などにおいて、少なくとも一部の肌が露出しているものとする。   FIG. 1 is a diagram showing an example of an application image of the embodiment of the present invention. When the subject including the person 11 is imaged by the imaging device 20, if the skin portion of the person 11 can be accurately determined, skin color correction or the like can be accurately performed in post processing by the imaging device 20 or another device. It is assumed that the person 11 has at least a part of skin exposed on the face, hands, arms, legs, and the like.

しかしながら、被写体には人11以外の物体が含まれることがある。同図の例では、人11以外の物体として、犬12およびポスター13が示されている。犬12は、肌の色に近い色あいをした動物の一例として示されている。ポスター13には、人の顔や顔以外の肌が印刷されているものとする。本発明の実施の形態では、人11の肌の露出している部分を「肌」と判別し、それ以外の犬12およびポスター13のような物体を「肌ではない」と判別する。   However, the subject may include objects other than the person 11. In the example of the figure, a dog 12 and a poster 13 are shown as objects other than the person 11. The dog 12 is shown as an example of an animal having a color close to the skin color. The poster 13 is printed with a human face and skin other than the face. In the embodiment of the present invention, the exposed portion of the skin of the person 11 is determined as “skin”, and other objects such as the dog 12 and the poster 13 are determined as “not skin”.

なお、判別結果は、表示画面においてユーザに明示的に提示されてもよく、また、他のソフトウェア処理のための付加情報として間接的に提示されてもよい。前者の場合には、肌と判別された部分を撮像画像上において強調表示することが考えられる。後者の場合には、肌と判別された撮像画像上の座標位置をメタデータとして画像ファイルに格納することが考えられる。   Note that the discrimination result may be explicitly presented to the user on the display screen, or may be indirectly presented as additional information for other software processing. In the former case, it is conceivable to highlight the portion determined to be skin on the captured image. In the latter case, it is conceivable to store the coordinate position on the captured image determined as skin in the image file as metadata.

ここで、撮像装置20における撮像素子の前面に配置されるカラーフィルタとして、赤(R)、緑(G)、青(B)、シアン(C)、マゼンダ(M)および黄(Y)の6色を想定する。撮像素子の1つの画素には何れか1色のカラーフィルタが配置されるが、デモザイク処理を経ることによって各画素について6色の色情報を揃えることができる。これにより、任意の画素xiは、色の特徴空間における座標(Ri、Gi、Bi、Ci、Mi、Yi)に写像される。   Here, as color filters arranged on the front surface of the image sensor in the image capturing apparatus 20, six colors of red (R), green (G), blue (B), cyan (C), magenta (M), and yellow (Y) are used. Assume color. Although any one color filter is arranged in one pixel of the image sensor, color information of six colors can be aligned for each pixel by performing demosaic processing. Thus, an arbitrary pixel xi is mapped to coordinates (Ri, Gi, Bi, Ci, Mi, Yi) in the color feature space.

<1.第1の実施の形態>
本発明の実施の形態は、肌ベクトルの判別境界を学習するための学習フェーズと、判別対象画素が肌であるか否かを判別境界に基づいて判別する判別フェーズの2段階からなる。
<1. First Embodiment>
The embodiment of the present invention comprises two stages, a learning phase for learning a discrimination boundary of a skin vector and a discrimination phase for discriminating whether or not a discrimination target pixel is skin based on the discrimination boundary.

なお、学習フェーズは、判別フェーズに先立って予め実行される。学習フェーズにおいて、超平面を定める法線ベクトルが決定される。さらに、この学習フェーズにおいて、超平面の基底および判別境界が決定される。これら法線ベクトル、超平面の基底および判別境界を利用することにより、判別フェーズにおいて判別対象画素が肌であるか否かが判別される。   Note that the learning phase is executed in advance prior to the discrimination phase. In the learning phase, a normal vector that defines the hyperplane is determined. Further, in this learning phase, the hyperplane base and discrimination boundary are determined. By using these normal vectors, hyperplane bases, and discrimination boundaries, it is discriminated whether or not the discrimination target pixel is skin in the discrimination phase.

[判別装置の学習機能構成例]
図2は、本発明の第1の実施の形態における判別装置の学習機能構成の一例を示す図である。この学習機能構成は、学習画素超球面写像部110と、超平面設定部130と、学習画素次元圧縮部140と、判別境界設定部160とを備えている。
[Example of learning function configuration of discrimination device]
FIG. 2 is a diagram illustrating an example of a learning function configuration of the determination device according to the first embodiment of the present invention. This learning function configuration includes a learning pixel hypersphere mapping unit 110, a hyperplane setting unit 130, a learning pixel dimension compression unit 140, and a discrimination boundary setting unit 160.

学習画素超球面写像部110は、肌のみを撮像した画像を取得して色の特徴空間に写像した上で超球面上へ写像するものである。この学習画素超球面写像部110は、特徴空間写像部111と、単位ベクトル変換部112とを備えている。なお、学習画素超球面写像部110は、特許請求の範囲に記載の学習情報写像部の一例である。   The learning pixel hyperspherical mapping unit 110 acquires an image obtained by capturing only the skin, maps the image onto the color feature space, and maps the image onto the hypersphere. The learning pixel hyperspherical mapping unit 110 includes a feature space mapping unit 111 and a unit vector conversion unit 112. The learning pixel hyperspherical mapping unit 110 is an example of a learning information mapping unit described in the claims.

特徴空間写像部111は、肌であるという事象を生起する画素を学習情報として入力して、図3に示すように、色の特徴空間510における座標(Ri、Gi、Bi、Ci、Mi、Yi)に写像するものである。学習情報としての画素は一般に複数入力される。特徴空間に写像された各学習情報を、ここでは具体的に肌ベクトル520(s)として表す。また、この肌ベクトル520(s)の集合を肌集合530として表す。なお、肌ベクトル520(s)は、6色に対応する要素s1乃至s6により、次式のように表される。
s=[s123456
The feature space mapping unit 111 inputs, as learning information, pixels that cause an event of being skin, and, as shown in FIG. 3, coordinates (Ri, Gi, Bi, Ci, Mi, Yi in the color feature space 510). ). In general, a plurality of pixels are input as learning information. Here, each learning information mapped to the feature space is specifically expressed as a skin vector 520 (s). The set of skin vectors 520 (s) is represented as a skin set 530. The skin vector 520 (s) is expressed by the following equation using elements s 1 to s 6 corresponding to six colors.
s = [s 1 s 2 s 3 s 4 s 5 s 6 ] T

単位ベクトル変換部112は、肌ベクトル520(s)の集合の各々を、大きさ「1」の単位ベクトルに変換するものである。この単位ベクトル変換部112によって変換された肌ベクトルは、図4に示すように、単位肌ベクトル540(u)として表される。この単位肌ベクトル540(u)は、次式により算出される。なお、||s||は肌ベクトル520(s)の大きさを表す。
u=s/||s||
The unit vector conversion unit 112 converts each set of skin vectors 520 (s) into a unit vector having a size “1”. The skin vector converted by the unit vector converter 112 is represented as a unit skin vector 540 (u) as shown in FIG. This unit skin vector 540 (u) is calculated by the following equation. || s || represents the size of the skin vector 520 (s).
u = s / || s ||

この単位肌ベクトル540(u)は単位ベクトルであるから、全て超球面550上に写像されることになる。なお、ここでは、単位ベクトルを便宜上、大きさ「1」として扱ったが、それぞれが等しい所定の長さであればよく、その場合にも超球面550上に写像される。   Since this unit skin vector 540 (u) is a unit vector, it is all mapped onto the hypersphere 550. Here, the unit vector is treated as a size “1” for the sake of convenience, but each of the unit vectors may have a predetermined length equal to each other, and is mapped onto the hypersphere 550 in that case as well.

超平面設定部130は、単位肌ベクトル540(u)の各々の平均ベクトルを法線ベクトルとして有する超平面を設定するものである。この超平面設定部130は、平均ベクトル生成部131と、単位ベクトル変換部132と、超平面生成部133とを備えている。   The hyperplane setting unit 130 sets a hyperplane having the average vector of each unit skin vector 540 (u) as a normal vector. The hyperplane setting unit 130 includes an average vector generation unit 131, a unit vector conversion unit 132, and a hyperplane generation unit 133.

平均ベクトル生成部131は、図4に示すように、単位肌ベクトル540(u)の各々の平均ベクトル560(m')を生成するものである。この平均ベクトル560(m')は、次式により算出される。ただし、kは肌集合530の要素数である。

Figure 2011100395
As shown in FIG. 4, the average vector generation unit 131 generates an average vector 560 (m ′) of each unit skin vector 540 (u). This average vector 560 (m ′) is calculated by the following equation. However, k is the number of elements of the skin set 530.
Figure 2011100395

単位ベクトル変換部132は、平均ベクトル560(m')を大きさ「1」の単位ベクトルに変換するものである。この単位ベクトル変換部132により変換される平均ベクトルmは次式により算出される。
m=m'/||m'||
The unit vector conversion unit 132 converts the average vector 560 (m ′) into a unit vector having a size “1”. The average vector m converted by the unit vector conversion unit 132 is calculated by the following equation.
m = m '/ || m' ||

超平面生成部133は、図5に示すように、単位平均ベクトル(m)を法線ベクトルとして有する超平面570(φ)を生成するものである。この超平面570(φ)は、特徴空間510の原点を通るように設定されると、特定の項がゼロになるため、演算を簡略化することができる。なお、単位平均ベクトル561(m)の代わりに、単位ベクトルに変換する前の平均ベクトル560(m')を用いることも可能である。この超平面生成部133によって設定された超平面φに関する情報は、信号線139によって判別機能に伝達される。   As shown in FIG. 5, the hyperplane generating unit 133 generates a hyperplane 570 (φ) having a unit average vector (m) as a normal vector. When this hyperplane 570 (φ) is set so as to pass through the origin of the feature space 510, a specific term becomes zero, so that the calculation can be simplified. Instead of the unit average vector 561 (m), an average vector 560 (m ′) before being converted into a unit vector can be used. Information regarding the hyperplane φ set by the hyperplane generation unit 133 is transmitted to the discrimination function through the signal line 139.

学習画素次元圧縮部140は、単位肌ベクトル540(u)の各々を超平面570(φ)に射影し、さらに超平面570(φ)の基底ベクトルに射影して射影学習ベクトルとするものである。この学習画素次元圧縮部140により、学習情報としての次元が圧縮される。この学習画素次元圧縮部140は、超平面射影部141と、主成分分析部142と、基底射影部143とを備えている。なお、学習画素次元圧縮部140は、特許請求の範囲に記載の学習情報次元圧縮部の一例である。   The learning pixel dimension compression unit 140 projects each of the unit skin vectors 540 (u) onto the hyperplane 570 (φ), and further projects them onto the basis vectors of the hyperplane 570 (φ) to form projection learning vectors. . The learning pixel dimension compression unit 140 compresses dimensions as learning information. The learning pixel dimension compression unit 140 includes a hyperplane projection unit 141, a principal component analysis unit 142, and a base projection unit 143. The learning pixel dimension compression unit 140 is an example of a learning information dimension compression unit described in the claims.

超平面射影部141は、図6に示すように、単位肌ベクトル540(u)の各々を超平面570(φ)に射影するものである。超平面上の任意の点としての単位肌ベクトル540(u)を、任意の点Xoを通る超平面570(φ)上の肌ベクトルyとして正射影する場合、肌ベクトルyは次式により算出される。
y=u−(m・(u−Xo)/||m||2)m
上述のように、超平面570(φ)は、特徴空間510の原点を通るように設定された場合、Xo=0である。また、超平面の半径が「1」のとき、||m||=1である。したがって、上式は、次式のように簡略化できる。
y=u−(m・u)m
As shown in FIG. 6, the hyperplane projection unit 141 projects each unit skin vector 540 (u) onto the hyperplane 570 (φ). When the unit skin vector 540 (u) as an arbitrary point on the hyperplane is orthogonally projected as the skin vector y on the hyperplane 570 (φ) passing through the arbitrary point Xo, the skin vector y is calculated by the following equation. The
y = u− (m · (u−Xo) / || m || 2 ) m
As described above, when hyperplane 570 (φ) is set to pass through the origin of feature space 510, Xo = 0. When the radius of the hyperplane is “1”, || m || = 1. Therefore, the above equation can be simplified as the following equation.
y = u− (m · u) m

また、超平面射影部141において、次のように正射影とは異なる射影を行うことも可能である。超平面が空間内の任意の点Xoを通る場合には、次式により肌ベクトルyを求めることができる。
y=(m・(Xo−u)/(m・u))u+u
一方、超球面が平均ベクトルmの示す点において超球面と接する場合には、次式により肌ベクトルyを求めることができる。
y=((||m||2−m・u)/(m・u))u+u
Further, the hyperplane projection unit 141 can perform projection different from the normal projection as follows. When the hyperplane passes through an arbitrary point Xo in the space, the skin vector y can be obtained by the following equation.
y = (m · (Xo−u) / (m · u)) u + u
On the other hand, when the hypersphere touches the hypersphere at the point indicated by the average vector m, the skin vector y can be obtained by the following equation.
y = ((|| m || 2 −m · u) / (m · u)) u + u

主成分分析部142は、肌ベクトルyの集合を主成分分析にかけることにより、図6のように、超平面の基底ベクトル580(ei(iは1から5の整数))を求めるものである。主成分分析(PCA:Principal Component Analysis)とは、変数間の関係から主成分を求め、変数の次元を圧縮する手法である。この主成分分析の結果、固有値と固有ベクトルが得られる。固有値を降順に並べた際の、固有値の最も大きなものに対応する固有ベクトルが、最も分散の多い方向のベクトルになる。そして、2番目以降の固有ベクトルはそれぞれ直交する性質を有するため、これらを基底ベクトル580(ei)として用いることができる。この基底ベクトル580(ei)は、信号線149によって判別機能に伝達される。 The principal component analysis unit 142 obtains a hyperplane basis vector 580 (e i (i is an integer from 1 to 5)) as shown in FIG. 6 by subjecting the set of skin vectors y to principal component analysis. is there. Principal component analysis (PCA) is a technique for obtaining principal components from the relationship between variables and compressing the dimensions of the variables. As a result of this principal component analysis, eigenvalues and eigenvectors are obtained. When the eigenvalues are arranged in descending order, the eigenvector corresponding to the one with the largest eigenvalue is the vector with the most variance. Since the second and subsequent eigenvectors have orthogonal characteristics, they can be used as the basis vector 580 (e i ). This basis vector 580 (e i ) is transmitted to the discrimination function through the signal line 149.

基底射影部143は、肌ベクトルyを各基底ベクトル580(ei)に射影して、図6に示すように、射影肌ベクトル590(y')とするものである。これにより、特徴空間座標系で表現されていた肌ベクトルyを、超平面φの座標系の射影肌ベクトル590(y')として表現できるようになる。これは次式により表される。
y'=ei・y
y'=[y'1 y'2 y'3 y'4 y'5
The base projection unit 143 projects the skin vector y onto each base vector 580 (e i ) to form a projected skin vector 590 (y ′) as shown in FIG. As a result, the skin vector y expressed in the feature space coordinate system can be expressed as a projected skin vector 590 (y ′) in the coordinate system of the hyperplane φ. This is expressed by the following equation.
y '= e i · y
y ′ = [y ′ 1 y ′ 2 y ′ 3 y ′ 4 y ′ 5 ] T

なお、超平面φ座標の原点は、特徴空間座標の原点と一致させてよい。   The origin of the hyperplane φ coordinate may coincide with the origin of the feature space coordinates.

判別境界設定部160は、図6に示すように、「肌」と「肌以外のもの」とを判別するための判別境界600を設定するものである。この判別境界設定部160は、マハラノビス距離生成部161と、閾値決定部163とを備えている。   As shown in FIG. 6, the discrimination boundary setting unit 160 sets a discrimination boundary 600 for discriminating between “skin” and “other than skin”. The discrimination boundary setting unit 160 includes a Mahalanobis distance generation unit 161 and a threshold value determination unit 163.

マハラノビス距離生成部161は、射影肌ベクトル590(y')の各々について原点からのマハラノビス距離L(y')を生成するものである。マハラノビス距離L(y')を採用するのは、射影肌ベクトル590(y')の集合の分布の偏りをなくし、分布を等方的にするためである。マハラノビス距離L(y')は、次式により生成される。ただし、σiは、射影肌ベクトル590(y')の集合における標準偏差である。

Figure 2011100395
The Mahalanobis distance generation unit 161 generates a Mahalanobis distance L (y ′) from the origin for each of the projected skin vectors 590 (y ′). The reason why the Mahalanobis distance L (y ′) is adopted is to eliminate the bias in the distribution of the set of projected skin vectors 590 (y ′) and to make the distribution isotropic. The Mahalanobis distance L (y ′) is generated by the following equation. Here, σ i is a standard deviation in the set of projected skin vectors 590 (y ′).
Figure 2011100395

閾値決定部163は、マハラノビス距離L(y')の集合の分布から、判別の際の閾値Kを決定するものである。ここでは、肌の分布をガウス分布と仮定して、射影肌ベクトル590(y')の集合の9割5分を含むよう、2σに相当するマハラノビス距離L(y')を閾値Kとして設定することを想定する。この閾値Kは、信号線169によって判別機能に伝達される。   The threshold value determination unit 163 determines a threshold value K at the time of discrimination from the distribution of the set of Mahalanobis distances L (y ′). Here, assuming that the skin distribution is a Gaussian distribution, the Mahalanobis distance L (y ′) corresponding to 2σ is set as the threshold value K so as to include 90% of the set of projected skin vectors 590 (y ′). Assume that. The threshold value K is transmitted to the discrimination function through the signal line 169.

[判別装置の判別機能構成例]
図7は、本発明の第1の実施の形態における判別装置の判別機能構成の一例を示す図である。この判別機能構成は、判別画素超球面写像部210と、判別画素次元圧縮部240と、境界判別部260とを備えている。
[Example of discrimination function configuration of discrimination device]
FIG. 7 is a diagram illustrating an example of a discrimination function configuration of the discrimination device according to the first embodiment of the present invention. This discrimination function configuration includes a discrimination pixel hypersphere mapping unit 210, a discrimination pixel dimension compression unit 240, and a boundary discrimination unit 260.

判別画素超球面写像部210は、判別対象となる画素を取得して色の特徴空間に写像した上で超球面上へ写像するものである。この判別画素超球面写像部210は、特徴空間写像部211と、単位ベクトル変換部212とを備えている。なお、判別画素超球面写像部210は、特許請求の範囲に記載の判別対象情報写像部の一例である。   The discrimination pixel hyperspherical mapping unit 210 acquires a pixel to be discriminated and maps it onto a color feature space, and then maps it onto the hypersphere. The discrimination pixel hyperspherical mapping unit 210 includes a feature space mapping unit 211 and a unit vector conversion unit 212. The discrimination pixel hyperspherical mapping unit 210 is an example of a discrimination target information mapping unit described in the claims.

特徴空間写像部211は、判別対象となる画素を入力して、図8に示すように、色の特徴空間610における座標(Ri、Gi、Bi、Ci、Mi、Yi)に写像するものである。ここでは、写像されたベクトルを入力ベクトル620(x)として表す。この特徴空間610は、学習機能における特徴空間510と同じ空間である。なお、入力ベクトル620(x)は、6色に対応する要素x1乃至x6により、次式のように表される。
x=[x123456
The feature space mapping unit 211 inputs a pixel to be discriminated and maps it to coordinates (Ri, Gi, Bi, Ci, Mi, Yi) in the color feature space 610 as shown in FIG. . Here, the mapped vector is represented as an input vector 620 (x). This feature space 610 is the same space as the feature space 510 in the learning function. Note that the input vector 620 (x) is represented by the following equation using elements x 1 to x 6 corresponding to six colors.
x = [x 1 x 2 x 3 x 4 x 5 x 6 ] T

単位ベクトル変換部212は、入力ベクトル620(x)を、大きさ「1」の単位ベクトルに変換するものである。この単位ベクトル変換部212によって変換された入力ベクトルは、図9に示すように、単位入力ベクトル640(ux)として表される。この単位入力ベクトル640(ux)は、次式により算出される。
ux=x/||x||
The unit vector conversion unit 212 converts the input vector 620 (x) into a unit vector having a size “1”. The input vector converted by the unit vector conversion unit 212 is represented as a unit input vector 640 (ux) as shown in FIG. This unit input vector 640 (ux) is calculated by the following equation.
ux = x / || x ||

この単位入力ベクトル640(ux)は単位ベクトルであるから、全て超球面650上に写像されることになる。なお、ここでは、単位ベクトルを便宜上、大きさ「1」として扱ったが、それぞれが等しい所定の長さであればよく、その場合にも超球面650上に写像される。   Since this unit input vector 640 (ux) is a unit vector, it is all mapped onto the hypersphere 650. Here, the unit vector is treated as a size “1” for the sake of convenience, but each of the unit vectors only needs to have an equal predetermined length. In this case, the unit vector is mapped onto the hypersphere 650.

判別画素次元圧縮部240は、単位入力ベクトル640(ux)を超平面670(φ)に射影し、さらに超平面670(φ)の基底ベクトルに射影して射影入力ベクトルとするものである。この判別画素次元圧縮部240により、判別対象の次元が圧縮される。この判別画素次元圧縮部240は、超平面射影部241と、基底射影部243とを備えている。なお、判別画素次元圧縮部240は、特許請求の範囲に記載の判別対象情報次元圧縮部の一例である。   The discriminating pixel dimension compression unit 240 projects the unit input vector 640 (ux) onto the hyperplane 670 (φ), and further projects it onto the base vector of the hyperplane 670 (φ) to obtain a projection input vector. The discrimination pixel dimension compressing unit 240 compresses the discrimination target dimension. The discrimination pixel dimension compression unit 240 includes a hyperplane projection unit 241 and a base projection unit 243. Note that the discrimination pixel dimension compression unit 240 is an example of a discrimination target information dimension compression unit described in the claims.

超平面射影部241は、図10に示すように、単位入力ベクトル640(ux)を超平面670(φ)に射影するものである。超平面670(φ)は学習機能における超平面570(φ)と同じものであり、超平面570(φ)に関する情報は信号線139によって供給される。この超平面射影部241により射影される入力ベクトルzは、次式により算出される。
z=ux−(m・ux)m
As shown in FIG. 10, the hyperplane projection unit 241 projects the unit input vector 640 (ux) onto the hyperplane 670 (φ). Hyperplane 670 (φ) is the same as hyperplane 570 (φ) in the learning function, and information about hyperplane 570 (φ) is supplied by signal line 139. An input vector z projected by the hyperplane projection unit 241 is calculated by the following equation.
z = ux− (m · ux) m

基底射影部243は、入力ベクトルzを各基底ベクトル680(ei)に射影して、図10に示すように、射影入力ベクトル690(z')とするものである。基底ベクトル680(ei)は、学習機能における基底ベクトル580(ei)と同じものであり、信号線149により供給される。この射影により、特徴空間座標系で表現されていた入力ベクトルzを、超平面φの座標系の射影入力ベクトル690(z')として表現できるようになる。これは次式により表される。
z'=ei・z
z'=[z'1 z'2 z'3 z'4 z'5
The base projection unit 243 projects the input vector z to each base vector 680 (e i ), and forms a projection input vector 690 (z ′) as shown in FIG. The basis vector 680 (e i ) is the same as the basis vector 580 (e i ) in the learning function, and is supplied by the signal line 149. By this projection, the input vector z expressed in the feature space coordinate system can be expressed as a projected input vector 690 (z ′) in the coordinate system of the hyperplane φ. This is expressed by the following equation.
z '= e i · z
z ′ = [z ′ 1 z ′ 2 z ′ 3 z ′ 4 z ′ 5 ] T

境界判別部260は、「肌」であるか「肌以外のもの」であるかを判別するものである。この境界判別部260は、マハラノビス距離生成部261と、閾値判別部263とを備えている。   The boundary determination unit 260 determines whether it is “skin” or “other than skin”. The boundary determination unit 260 includes a Mahalanobis distance generation unit 261 and a threshold determination unit 263.

マハラノビス距離生成部261は、射影入力ベクトル690(z')について原点からのマハラノビス距離L(z')を生成するものである。このマハラノビス距離L(z')は、学習機能における射影肌ベクトル590(y')と同様の式により算出される。   The Mahalanobis distance generation unit 261 generates the Mahalanobis distance L (z ′) from the origin for the projection input vector 690 (z ′). This Mahalanobis distance L (z ′) is calculated by the same formula as the projected skin vector 590 (y ′) in the learning function.

閾値判別部263は、マハラノビス距離L(z')と閾値Kとの関係から、「肌」であるか「肌以外のもの」であるかを判別するものである。ここで、閾値Kは、学習機能において決定されたものであり、信号線169により供給される。この閾値判別部263において、マハラノビス距離L(z')が閾値K未満であれば、入力xに対応する画素を「肌」であると判別する。一方、マハラノビス距離L(z')が閾値K以上の場合は、入力xに対応する画素を「肌以外のもの」であると判別する。   The threshold discriminating unit 263 discriminates whether it is “skin” or “other than skin” from the relationship between the Mahalanobis distance L (z ′) and the threshold K. Here, the threshold value K is determined by the learning function and is supplied by the signal line 169. If the Mahalanobis distance L (z ′) is less than the threshold value K, the threshold value determining unit 263 determines that the pixel corresponding to the input x is “skin”. On the other hand, when the Mahalanobis distance L (z ′) is greater than or equal to the threshold value K, it is determined that the pixel corresponding to the input x is “other than skin”.

[学習フェーズの処理手順例]
図11は、本発明の第1の実施の形態における学習フェーズの処理手順の一例を示す図である。
[Example of learning phase procedure]
FIG. 11 is a diagram illustrating an example of a learning phase processing procedure according to the first embodiment of this invention.

まず、肌のみを撮影した肌画像が取得されると(ステップS911)、特徴空間写像部111は肌画像を肌ベクトル520(s)として特徴空間510に写像する(ステップS912)。また、単位ベクトル変換部112は、肌ベクトル520(s)の集合の各々を、単位肌ベクトル540(u)に変換する(ステップS913)。   First, when a skin image obtained by photographing only the skin is acquired (step S911), the feature space mapping unit 111 maps the skin image to the feature space 510 as a skin vector 520 (s) (step S912). The unit vector conversion unit 112 converts each set of skin vectors 520 (s) into unit skin vectors 540 (u) (step S913).

そして、平均ベクトル生成部131は、単位肌ベクトル540(u)の各々の平均ベクトル560(m')を生成する(ステップS914)。単位ベクトル変換部132は、平均ベクトル560(m')を単位平均ベクトル561(m)に変換する(ステップS915)。これら平均ベクトル560(m')または単位平均ベクトル561(m)により超平面が設定される。この超平面570(φ)は、特徴空間510の原点を通るように設定される。   Then, the average vector generation unit 131 generates an average vector 560 (m ′) of each unit skin vector 540 (u) (step S914). The unit vector conversion unit 132 converts the average vector 560 (m ′) to the unit average vector 561 (m) (step S915). The hyperplane is set by the average vector 560 (m ′) or the unit average vector 561 (m). The hyperplane 570 (φ) is set so as to pass through the origin of the feature space 510.

超平面射影部141は、単位肌ベクトル540(u)の各々を超平面570(φ)に射影して肌ベクトルyとする(ステップS916)。また、主成分分析部142は、肌ベクトルyの集合を主成分分析にかけることにより、超平面の基底ベクトル580(ei)を生成する(ステップS917)。そして、基底射影部143は、肌ベクトルyを各基底ベクトル580(ei)に射影して、射影肌ベクトル590(y')とする(ステップS918)。 The hyperplane projecting unit 141 projects each of the unit skin vectors 540 (u) onto the hyperplane 570 (φ) to obtain a skin vector y (step S916). The principal component analysis unit 142 generates a hyperplane basis vector 580 (e i ) by subjecting the set of skin vectors y to principal component analysis (step S917). Then, the base projection unit 143 projects the skin vector y onto each base vector 580 (e i ) to obtain a projected skin vector 590 (y ′) (step S918).

そして、マハラノビス距離生成部161は、全教師データとして射影肌ベクトル590(y')の各々について原点からのマハラノビス距離L(y')を生成する(ステップS919)。そして、閾値決定部163は、マハラノビス距離L(y')の集合の分布から、判別の際の閾値Kを決定する(ステップS920)。   Then, the Mahalanobis distance generation unit 161 generates a Mahalanobis distance L (y ′) from the origin for each of the projected skin vectors 590 (y ′) as all teacher data (step S919). Then, the threshold determination unit 163 determines a threshold K for determination from the set distribution of the Mahalanobis distance L (y ′) (step S920).

なお、この実施の形態において、ステップS912、S913は、特許請求の範囲に記載の学習情報写像手順の一例である。また、ステップS914、S915は、特許請求の範囲に記載の超平面設定手順の一例である。また、ステップS916〜S918は、特許請求の範囲に記載の学習情報次元圧縮手順の一例である。また、ステップS919、S920は、特許請求の範囲に記載の判別境界設定手順の一例である。   In this embodiment, steps S912 and S913 are an example of a learning information mapping procedure described in the claims. Steps S914 and S915 are an example of a hyperplane setting procedure described in the claims. Steps S916 to S918 are an example of a learning information dimension compression procedure described in the claims. Steps S919 and S920 are an example of a discrimination boundary setting procedure described in the claims.

[判別フェーズの処理手順例]
図12は、本発明の第1の実施の形態における判別フェーズの処理手順の一例を示す図である。
[Example of processing procedure for discrimination phase]
FIG. 12 is a diagram illustrating an example of a determination phase processing procedure according to the first embodiment of this invention.

まず、判別画素超球面写像部210は、判別対象となる画素を入力ベクトル620(x)として、色の特徴空間610に写像する(ステップS931)。単位ベクトル変換部212は、入力ベクトル620(x)を、単位入力ベクトル640(ux)に変換する(ステップS932)。   First, the discrimination pixel hyperspherical mapping unit 210 maps the pixel to be discriminated as an input vector 620 (x) to the color feature space 610 (step S931). The unit vector conversion unit 212 converts the input vector 620 (x) into the unit input vector 640 (ux) (step S932).

そして、超平面射影部241は、単位入力ベクトル640(ux)を超平面670(φ)に射影する(ステップS933)。なお、超平面670(φ)は学習フェーズにおける超平面570(φ)と同じものである。基底射影部243は、入力ベクトルzを各基底ベクトル680(ei)に射影して、射影入力ベクトル690(z')とする(ステップS934)。なお、基底ベクトル680(ei)は、学習フェーズにおける基底ベクトル580(ei)と同じものである。 Then, the hyperplane projection unit 241 projects the unit input vector 640 (ux) onto the hyperplane 670 (φ) (step S933). The hyperplane 670 (φ) is the same as the hyperplane 570 (φ) in the learning phase. The base projection unit 243 projects the input vector z onto each base vector 680 (e i ) to obtain a projection input vector 690 (z ′) (step S934). The basis vector 680 (e i ) is the same as the basis vector 580 (e i ) in the learning phase.

そして、マハラノビス距離生成部261は、射影入力ベクトル690(z')について原点からのマハラノビス距離L(z')を生成する(ステップS935)。そして、閾値判別部263において、マハラノビス距離L(z')と閾値Kとの関係から、「肌」であるか「肌以外のもの」であるかが判別される。すなわち、マハラノビス距離L(z')が閾値K未満であれば(ステップS936)、入力xに対応する画素は「肌」であると判別される(ステップS937)。一方、マハラノビス距離L(z')が閾値K以上の場合は(ステップS936)、入力xに対応する画素は「肌以外のもの」であると判別される(ステップS938)。   Then, the Mahalanobis distance generation unit 261 generates a Mahalanobis distance L (z ′) from the origin for the projection input vector 690 (z ′) (step S935). Then, the threshold determination unit 263 determines whether it is “skin” or “other than skin” from the relationship between the Mahalanobis distance L (z ′) and the threshold K. That is, if the Mahalanobis distance L (z ′) is less than the threshold value K (step S936), it is determined that the pixel corresponding to the input x is “skin” (step S937). On the other hand, if the Mahalanobis distance L (z ′) is greater than or equal to the threshold value K (step S936), it is determined that the pixel corresponding to the input x is “other than skin” (step S938).

画像中から肌領域を見つける場合は、上述の1画素単位の肌判別の処理手順をラインスキャン順に順番に繰り返し実行することにより、画像中の肌領域を特定することが可能である。   When a skin region is found from an image, it is possible to identify the skin region in the image by repeatedly executing the above-described one-pixel unit skin determination processing procedure in order of line scan.

このように、本発明の第1の実施の形態によれば、肌画像を学習情報として超球面550に写像した後に超平面570を設定し、超平面570の基底ベクトル580が生成される。学習情報が基底ベクトル580に写像された後にマハラノビス距離の集合の分布から、判別の際の閾値Kが決定される。判別対象についても基底ベクトル680に写像された後にマハラノビス距離が生成され、閾値Kとの関係により「肌」であるか「肌以外のもの」であるかが判別される。   As described above, according to the first embodiment of the present invention, the hyperplane 570 is set after the skin image is mapped to the hypersphere 550 as learning information, and the base vector 580 of the hyperplane 570 is generated. After learning information is mapped to the basis vector 580, a threshold value K for determination is determined from the distribution of the set of Mahalanobis distances. The Mahalanobis distance is also generated for the discrimination target after being mapped to the basis vector 680, and it is discriminated whether it is “skin” or “other than skin” according to the relationship with the threshold value K.

なお、この実施の形態において、ステップS931、S932は、特許請求の範囲に記載の判別対象情報写像手順の一例である。また、ステップS933、S934は、特許請求の範囲に記載の判別対象情報次元圧縮手順の一例である。また、ステップS935〜S938は、特許請求の範囲に記載の境界判別手順の一例である。   In this embodiment, steps S931 and S932 are an example of the discrimination target information mapping procedure described in the claims. Steps S933 and S934 are an example of a discrimination target information dimension compression procedure described in the claims. Steps S935 to S938 are an example of a boundary determination procedure described in the claims.

この第1の実施の形態では一つの事象を学習情報として用いたが、以下の第2の実施の形態では背反する2つの事象を学習情報として用いる例について説明する。   In the first embodiment, one event is used as learning information. However, in the following second embodiment, an example in which two contradicting events are used as learning information will be described.

<2.第2の実施の形態>
[判別装置の学習機能構成例]
図13は、本発明の第2の実施の形態における判別装置の学習機能構成の一例を示す図である。この第2の実施の形態では、第1の実施の形態の学習画素超球面写像部110が事象生起学習画素超球面写像部110として機能し、第1の実施の形態の学習画素次元圧縮部140が事象生起学習画素次元圧縮部140として機能する。また、第1の実施の形態に加えて、事象非生起学習画素超球面写像部120と、事象非生起学習画素次元圧縮部150とを備えている。
<2. Second Embodiment>
[Example of learning function configuration of discrimination device]
FIG. 13 is a diagram illustrating an example of a learning function configuration of the determination device according to the second embodiment of the present invention. In the second embodiment, the learning pixel hyperspherical mapping unit 110 of the first embodiment functions as the event occurrence learning pixel hyperspherical mapping unit 110, and the learning pixel dimension compression unit 140 of the first embodiment. Functions as the event occurrence learning pixel dimension compression unit 140. In addition to the first embodiment, an event non-occurrence learning pixel hypersphere mapping unit 120 and an event non-occurrence learning pixel dimension compression unit 150 are provided.

事象生起学習画素超球面写像部110は、「肌」であるという事象が生起した画素を学習情報とするものであり、肌のみを撮像した画像を取得して色の特徴空間に写像した上で超球面上へ写像するものである。機能上は上述の第1の実施の形態の学習画素超球面写像部110と同様であるため、ここでは説明を省略する。なお、事象生起学習画素超球面写像部110は、特許請求の範囲に記載の第1の学習情報写像部の一例である。   The event occurrence learning pixel hyperspherical mapping unit 110 uses, as learning information, a pixel in which an event of “skin” has occurred, and after acquiring an image obtained by capturing only the skin and mapping it to a color feature space It maps onto the hypersphere. Since the function is the same as that of the learning pixel hyperspherical mapping unit 110 of the first embodiment described above, description thereof is omitted here. The event occurrence learning pixel hyperspherical mapping unit 110 is an example of a first learning information mapping unit described in the claims.

事象非生起学習画素超球面写像部120は、「肌」であるという事象が生起しない画素を学習情報とするものであり、肌以外を撮像した画像を取得して色の特徴空間に写像した上で超球面上へ写像するものである。この事象非生起学習画素超球面写像部120は、特徴空間写像部121と、単位ベクトル変換部122とを備えている。なお、事象非生起学習画素超球面写像部120は、特許請求の範囲に記載の第2の学習情報写像部の一例である。   The event non-occurrence learning pixel hyperspherical mapping unit 120 uses, as learning information, a pixel in which an event of “skin” does not occur, acquires an image obtained by capturing images other than the skin, and maps the image to a color feature space. This maps onto the hypersphere. The event non-occurrence learning pixel hyperspherical mapping unit 120 includes a feature space mapping unit 121 and a unit vector conversion unit 122. The event non-occurrence learning pixel hypersphere mapping unit 120 is an example of a second learning information mapping unit described in the claims.

特徴空間写像部121は、「肌」であるという事象を生起しない画素を学習情報として入力して、図14に示すように、色の特徴空間510における座標(Ri、Gi、Bi、Ci、Mi、Yi)に写像するものである。学習情報としての画素は一般に複数入力される。「肌」であるという事象を生起しない画素について特徴空間に写像された各学習情報を、ここでは具体的に非肌ベクトル525(p)として表す。   The feature space mapping unit 121 inputs pixels that do not cause the phenomenon of “skin” as learning information, and, as shown in FIG. 14, coordinates (Ri, Gi, Bi, Ci, Mi in the color feature space 510). , Yi). In general, a plurality of pixels are input as learning information. Each learning information mapped to the feature space for a pixel that does not cause the phenomenon of “skin” is specifically represented as a non-skin vector 525 (p) here.

単位ベクトル変換部122は、非肌ベクトル525(p)の集合の各々を、大きさ「1」の単位ベクトルに変換するものである。この単位ベクトル変換部122によって変換された非肌ベクトルは、図15に示すように、単位非肌ベクトル545(q)として表される。   The unit vector conversion unit 122 converts each set of non-skin vectors 525 (p) into a unit vector of size “1”. The non-skin vector converted by the unit vector converter 122 is represented as a unit non-skin vector 545 (q) as shown in FIG.

超平面設定部130は、図16のように、単位肌ベクトル540(u)の各々の平均ベクトルを法線ベクトルとして有する超平面570を設定するものである。機能上は上述の第1の実施の形態と同様であるため、ここでは説明を省略する。   As shown in FIG. 16, the hyperplane setting unit 130 sets a hyperplane 570 having the average vector of each unit skin vector 540 (u) as a normal vector. Since the function is the same as that of the first embodiment described above, description thereof is omitted here.

事象生起学習画素次元圧縮部140は、単位肌ベクトル540(u)の各々を超平面570(φ)に射影し、さらに超平面570(φ)の基底ベクトルに射影して射影学習ベクトルとするものである。機能上は上述の第1の実施の形態の学習画素次元圧縮部140と同様であるため、ここでは説明を省略する。なお、事象生起学習画素次元圧縮部140は、特許請求の範囲に記載の第1の学習情報次元圧縮部の一例である。   The event occurrence learning pixel dimension compressing unit 140 projects each unit skin vector 540 (u) onto the hyperplane 570 (φ), and further projects it onto the base vector of the hyperplane 570 (φ) to obtain a projection learning vector. It is. Since the function is the same as that of the learning pixel dimension compression unit 140 of the first embodiment described above, description thereof is omitted here. The event occurrence learning pixel dimension compression unit 140 is an example of a first learning information dimension compression unit described in the claims.

事象非生起学習画素次元圧縮部150は、単位非肌ベクトル545(q)の各々を超平面570(φ)に射影し、さらに超平面570(φ)の基底ベクトルに射影して射影学習ベクトルとするものである。この事象非生起学習画素次元圧縮部150は、超平面射影部151と、基底射影部153とを備えている。なお、事象非生起学習画素次元圧縮部150は、特許請求の範囲に記載の第2の学習情報次元圧縮部の一例である。   The event non-occurrence learning pixel dimension compression unit 150 projects each of the unit non-skin vectors 545 (q) onto the hyperplane 570 (φ), and further projects them onto the basis vectors of the hyperplane 570 (φ). To do. The event non-occurrence learning pixel dimension compression unit 150 includes a hyperplane projection unit 151 and a base projection unit 153. The event non-occurrence learning pixel dimension compression unit 150 is an example of a second learning information dimension compression unit described in the claims.

超平面射影部151は、図17に示すように、単位非肌ベクトル545(q)の各々を超平面570(φ)に射影するものである。この超平面射影部151により射影される非肌ベクトルrは、次式により算出される。
r=q−(m・q)m
As shown in FIG. 17, the hyperplane projecting unit 151 projects each unit non-skin vector 545 (q) onto the hyperplane 570 (φ). The non-skin vector r projected by the hyperplane projection unit 151 is calculated by the following equation.
r = q- (m · q) m

基底射影部153は、非肌ベクトルrを各基底ベクトル580(ei)に射影して、図17に示すように、射影非肌ベクトル595(r')とするものである。これにより、特徴空間座標系で表現されていた非肌ベクトルrを、超平面φの座標系の射影非肌ベクトル595(r')として表現できるようになる。これは次式により表される。
r'=ei・r
r'=[r'1 r'2 r'3 r'4 r'5
The base projection unit 153 projects the non-skin vector r onto each base vector 580 (e i ) to form a projected non-skin vector 595 (r ′) as shown in FIG. As a result, the non-skin vector r expressed in the feature space coordinate system can be expressed as a projected non-skin vector 595 (r ′) in the coordinate system of the hyperplane φ. This is expressed by the following equation.
r ′ = e i · r
r ′ = [r ′ 1 r ′ 2 r ′ 3 r ′ 4 r ′ 5 ] T

なお、第1の実施の形態と同様に、超平面φ座標の原点は特徴空間座標の原点と一致させてよい。   Note that, as in the first embodiment, the origin of the hyperplane φ coordinate may coincide with the origin of the feature space coordinate.

判別境界設定部160は、「肌」と「肌以外のもの」とを判別するための判別境界を設定するものである。この判別境界設定部160は、マハラノビス距離生成部161および162と、閾値決定部164とを備えている。   The discrimination boundary setting unit 160 sets a discrimination boundary for discriminating between “skin” and “other than skin”. The discrimination boundary setting unit 160 includes Mahalanobis distance generation units 161 and 162 and a threshold value determination unit 164.

マハラノビス距離生成部161は、射影肌ベクトル590(y')の各々について原点からのマハラノビス距離L(y')を生成するものである。マハラノビス距離生成部162は、射影非肌ベクトル595(r')の各々について原点からのマハラノビス距離L(r')を生成するものである。マハラノビス距離の生成式については上述の第1の実施の形態と同様である。   The Mahalanobis distance generation unit 161 generates a Mahalanobis distance L (y ′) from the origin for each of the projected skin vectors 590 (y ′). The Mahalanobis distance generator 162 generates a Mahalanobis distance L (r ′) from the origin for each of the projected non-skin vectors 595 (r ′). The formula for generating the Mahalanobis distance is the same as in the first embodiment.

閾値決定部164は、マハラノビス距離L(y')およびL(r')の集合の分布から、判別の際の閾値Kを決定するものである。以下、ベイズ決定則により閾値Kを決定する手法について説明する。   The threshold value determination unit 164 determines a threshold value K at the time of discrimination from the distribution of a set of Mahalanobis distances L (y ′) and L (r ′). Hereinafter, a method for determining the threshold value K according to the Bayes determination rule will be described.

距離Lの位置に写された入力が肌であるとき、その状態をωsとする。入力が肌以外であるとき、その状態をωnとする。判別器が入力を「肌」であると判別することをαs、「肌以外」であると判別することをαnと表現する。このとき、損失は次のように与えられる。
ωsであったとき;
判別器がαsと判別する時に生じる損失λss=λ(αs|ωs)
判別器がαnと判別する時に生じる損失λns=λ(αn|ωs)
ωnであったとき;
判別器がαsと判別する時に生じる損失λsn=λ(αs|ωn)
判別器がαnと判別する時に生じる損失λnn=λ(αn|ωn)
When the input imaged at the position of the distance L is skin, the state is ωs. When the input is other than skin, the state is ωn. Determining that the discriminator determines that the input is “skin” is expressed as αs, and determining that the input is “other than skin” is expressed as αn. At this time, the loss is given as follows.
when ωs;
Loss λss = λ (αs | ωs) generated when the discriminator discriminates from αs
Loss λns = λ (αn | ωs) that occurs when the discriminator discriminates from αn
when ωn;
Loss λsn = λ (αs | ωn) generated when the discriminator discriminates from αs
Loss λnn = λ (αn | ωn) that occurs when the discriminator discriminates from αn

したがって、距離Lの位置に写像された入力を、「肌」または「肌以外」と判別するとき、それぞれのベイズリスクR(αs|L)およびR(αn|L)は次式により与えられる。
R(αs|L)=λ(αs|ωs)P(ωs|L)
+λ(αs|ωn)P(ωn|L)
R(αn|L)=λ(αn|ωs)P(ωs|L)
+λ(αn|ωn)P(ωn|L)
Therefore, when the input mapped to the position of the distance L is determined as “skin” or “other than skin”, the respective Bayes risks R (αs | L) and R (αn | L) are given by the following equations.
R (αs | L) = λ (αs | ωs) P (ωs | L)
+ Λ (αs | ωn) P (ωn | L)
R (αn | L) = λ (αn | ωs) P (ωs | L)
+ Λ (αn | ωn) P (ωn | L)

決定境界である閾値Kは、R(αs|L)=R(αn|L)となるLに等しい。したがって、閾値Kは、以下の評価関数F(L)の評価値が0になるときの距離Lとして決定することができる。
F(L)=λ(αn|ωs)P(ωs|L)+λ(αn|ωn)P(ωn|L)
−λ(αs|ωs)P(ωs|L)−λ(αs|ωn)P(ωn|L)
The threshold value K, which is a decision boundary, is equal to L such that R (αs | L) = R (αn | L). Therefore, the threshold value K can be determined as the distance L when the evaluation value of the following evaluation function F (L) becomes zero.
F (L) = λ (αn | ωs) P (ωs | L) + λ (αn | ωn) P (ωn | L)
−λ (αs | ωs) P (ωs | L) −λ (αs | ωn) P (ωn | L)

上式は、ベイズの公式により、次式のように書き換えることによって解くことが可能になる。
F'(L)={λ(αn|ωs)−λ(αs|ωs)}P(L|ωs)P(ωs)
−{λ(αs|ωn)−λ(αn|ωn)}P(L|ωn)P(ωn)
ここで、F'(L)=F(L)/P(L)である。
The above equation can be solved by rewriting the following equation using the Bayes formula.
F ′ (L) = {λ (αn | ωs) −λ (αs | ωs)} P (L | ωs) P (ωs)
− {Λ (αs | ωn) −λ (αn | ωn)} P (L | ωn) P (ωn)
Here, F ′ (L) = F (L) / P (L).

また、P(ωs)およびP(ωn)は、それぞれ、入力が「肌」および「肌以外」のものである事前確率である。この値は、ユーザの利用傾向から定めるか、または、P(ωs)=P(ωn)とする。   P (ωs) and P (ωn) are prior probabilities that the inputs are “skin” and “other than skin”, respectively. This value is determined from the usage tendency of the user or P (ωs) = P (ωn).

また、P(L|ωs)およびP(L|ωn)は、次式により与えられる。
P(L|ωs)=#skin(L)/#skin_total
P(L|ωn)=#non_skin(L)/#non_skin_total
ここで、#skin(L)は、マハラノビス距離Lの位置に存在する肌集合の要素数である。#skin_totalは、肌集合の全要素数である。#non_skin(L)は、マハラノビス距離Lの位置に存在する肌以外の物体集合の要素数である。#non_skin_totalは、肌以外の物体集合の全要素数である。
P (L | ωs) and P (L | ωn) are given by the following equations.
P (L | ωs) = # skin (L) / # skin_total
P (L | ωn) = # non_skin (L) / # non_skin_total
Here, #skin (L) is the number of elements of the skin set existing at the position of Mahalanobis distance L. #Skin_total is the total number of elements in the skin set. #Non_skin (L) is the number of elements of the object set other than the skin existing at the position of the Mahalanobis distance L. #Non_skin_total is the total number of elements of the object set other than the skin.

肌と肌以外の物体の判別の場合、十分な数の教師データを用いることで、F'(L)の関数は滑らかになり、F'(L)=0となるLは1つに定まる。決定境界を示す閾値Kは、評価関数F'(L)の評価値が0になるときの距離Lである。   In the case of discrimination between skin and an object other than skin, by using a sufficient number of teacher data, the function of F ′ (L) becomes smooth, and L where F ′ (L) = 0 is determined to be one. The threshold value K indicating the decision boundary is the distance L when the evaluation value of the evaluation function F ′ (L) becomes zero.

なお、ここでは、決定境界を1つとしたため、F'(L)=0となるLは1つに定まるものとしたが、決定境界を複数用意することも可能である。例えば、区間ごとに、「肌」および「肌以外」に分けてもよい。また、このようにしてF'(L)=0となるLが複数求められた場合には、その中で最も大きなLを決定境界とすることができる。   Here, since there is one decision boundary, it is assumed that L at which F ′ (L) = 0 is set to one, but it is also possible to prepare a plurality of decision boundaries. For example, each section may be divided into “skin” and “other than skin”. In addition, when a plurality of Ls with F ′ (L) = 0 are obtained in this way, the largest L among them can be used as a decision boundary.

[判別装置の判別機能構成例]
本発明の第2の実施の形態における判別装置の判別機能構成は、図7により説明した第1の実施の形態と同様のものを利用することができる。すなわち、図13の閾値決定部164により決定された閾値Kを用いて、図7の判別機能構成により「肌」であるか「肌以外のもの」であるかを判別することができる。
[Example of discrimination function configuration of discrimination device]
The discriminating function configuration of the discriminating device in the second embodiment of the present invention can be the same as that of the first embodiment described with reference to FIG. That is, by using the threshold value K determined by the threshold value determination unit 164 in FIG. 13, it is possible to determine whether it is “skin” or “other than skin” by the determination function configuration in FIG.

[学習フェーズの処理手順例]
図18は、本発明の第2の実施の形態における学習フェーズの処理手順の一例を示す図である。
[Example of learning phase procedure]
FIG. 18 is a diagram illustrating an example of a learning phase processing procedure according to the second embodiment of the present invention.

まず、肌のみを撮影した肌画像が取得されると(ステップS951)、特徴空間写像部111は肌画像を肌ベクトル520(s)として特徴空間510に写像する(ステップS952)。また、肌以外を撮影した非肌画像が取得されると(ステップS953)、特徴空間写像部121は非肌画像を非肌ベクトル525(p)として特徴空間510に写像する(ステップS954)。そして、単位ベクトル変換部112は、肌ベクトル520(s)の集合の各々を、単位肌ベクトル540(u)に変換する(ステップS955)。また、単位ベクトル変換部122は、非肌ベクトル525(p)の集合の各々を、単位非肌ベクトル545(q)に変換する(ステップS956)。   First, when a skin image obtained by photographing only the skin is acquired (step S951), the feature space mapping unit 111 maps the skin image to the feature space 510 as a skin vector 520 (s) (step S952). When a non-skin image obtained by capturing images other than the skin is acquired (step S953), the feature space mapping unit 121 maps the non-skin image to the feature space 510 as a non-skin vector 525 (p) (step S954). Then, the unit vector conversion unit 112 converts each set of skin vectors 520 (s) into unit skin vectors 540 (u) (step S955). The unit vector conversion unit 122 converts each set of non-skin vectors 525 (p) into unit non-skin vectors 545 (q) (step S956).

そして、平均ベクトル生成部131は、単位肌ベクトル540(u)の各々の平均ベクトル560(m')を生成する(ステップS957)。単位ベクトル変換部132は、平均ベクトル560(m')を単位平均ベクトル561(m)に変換する(ステップS958)。これら平均ベクトル560(m')または単位平均ベクトル561(m)により超平面が設定される。この超平面570(φ)は、特徴空間510の原点を通るように設定される。   Then, the average vector generation unit 131 generates an average vector 560 (m ′) of each unit skin vector 540 (u) (step S957). The unit vector conversion unit 132 converts the average vector 560 (m ′) to the unit average vector 561 (m) (step S958). The hyperplane is set by the average vector 560 (m ′) or the unit average vector 561 (m). The hyperplane 570 (φ) is set so as to pass through the origin of the feature space 510.

超平面射影部141は、単位肌ベクトル540(u)の各々を超平面570(φ)に射影して肌ベクトルyとする(ステップS959)。また、超平面射影部151は、単位非肌ベクトル545(q)の各々を超平面570(φ)に射影して非肌ベクトルrとする(ステップS960)。   The hyperplane projecting unit 141 projects each of the unit skin vectors 540 (u) onto the hyperplane 570 (φ) to obtain a skin vector y (step S959). Further, the hyperplane projecting unit 151 projects each unit non-skin vector 545 (q) onto the hyperplane 570 (φ) to obtain a non-skin vector r (step S960).

そして、主成分分析部142は、肌ベクトルyの集合を主成分分析にかけることにより、超平面の基底ベクトル580(ei)を生成する(ステップS961)。基底射影部143は、肌ベクトルyを各基底ベクトル580(ei)に射影して、射影肌ベクトル590(y')とする(ステップS962)。また、基底射影部153は、非肌ベクトルrを各基底ベクトル580(ei)に射影して、射影非肌ベクトル595(r')とする(ステップS963)。 Then, the principal component analysis unit 142 generates a hyperplane basis vector 580 (e i ) by subjecting the set of skin vectors y to principal component analysis (step S961). The base projection unit 143 projects the skin vector y onto each base vector 580 (e i ) to obtain a projected skin vector 590 (y ′) (step S962). The base projection unit 153 projects the non-skin vector r onto each base vector 580 (e i ) to obtain a projected non-skin vector 595 (r ′) (step S963).

そして、マハラノビス距離生成部161は、射影肌ベクトル590(y')の各々について原点からのマハラノビス距離L(y')を生成する(ステップS964)。また、マハラノビス距離生成部162は、射影非肌ベクトル595(r')の各々について原点からのマハラノビス距離L(r')を生成する(ステップS964)。そして、閾値決定部164は、マハラノビス距離L(y')およびL(r')の集合の分布から、評価関数F'(L)により、判別の際の閾値Kを決定する(ステップS965)。   Then, the Mahalanobis distance generation unit 161 generates a Mahalanobis distance L (y ′) from the origin for each of the projected skin vectors 590 (y ′) (step S964). In addition, the Mahalanobis distance generation unit 162 generates a Mahalanobis distance L (r ′) from the origin for each of the projected non-skin vectors 595 (r ′) (step S964). Then, the threshold value determination unit 164 determines a threshold value K for discrimination from the set distribution of the Mahalanobis distances L (y ′) and L (r ′) using the evaluation function F ′ (L) (step S965).

なお、この実施の形態において、ステップS952、S955は、特許請求の範囲に記載の第1の学習情報写像手順の一例である。また、ステップS954、S956は、特許請求の範囲に記載の第2の学習情報写像手順の一例である。また、ステップS957、S958は、特許請求の範囲に記載の超平面設定手順の一例である。また、ステップS959、S961、S962は、特許請求の範囲に記載の第1の学習情報次元圧縮手順の一例である。また、ステップS960、S963は、特許請求の範囲に記載の第2の学習情報次元圧縮手順の一例である。また、ステップS964、S965は、特許請求の範囲に記載の判別境界設定手順の一例である。   In this embodiment, steps S952 and S955 are an example of a first learning information mapping procedure described in the claims. Steps S954 and S956 are an example of a second learning information mapping procedure described in the claims. Steps S957 and S958 are an example of a hyperplane setting procedure described in the claims. Steps S959, S961, and S962 are an example of a first learning information dimension compression procedure described in the claims. Steps S960 and S963 are an example of a second learning information dimension compression procedure described in the claims. Steps S964 and S965 are an example of a discrimination boundary setting procedure described in the claims.

[判別フェーズの処理手順例]
本発明の第2の実施の形態における判別フェーズの処理手順は、図12により説明した第1の実施の形態と同様のものを利用することができる。すなわち、図11のステップS920において決定された閾値Kを用いて、図12の処理手順例により「肌」であるか「肌以外のもの」であるかを判別することができる。
[Example of processing procedure for discrimination phase]
As the processing procedure of the discrimination phase in the second embodiment of the present invention, the same procedure as that in the first embodiment described with reference to FIG. 12 can be used. That is, by using the threshold value K determined in step S920 in FIG. 11, it is possible to determine whether it is “skin” or “other than skin” by the processing procedure example in FIG.

このように、本発明の第2の実施の形態によれば、肌画像および非肌画像を学習情報として超球面550に写像した後に超平面570を設定し、超平面570の基底ベクトル580が生成される。学習情報が基底ベクトル580に写像された後にマハラノビス距離の集合の分布から、ベイズ決定則により判別の際の閾値Kが決定される。判別対象についても基底ベクトル680に写像された後にマハラノビス距離が生成され、閾値Kとの関係により「肌」であるか「肌以外のもの」であるかが判別される。   As described above, according to the second embodiment of the present invention, after mapping the skin image and the non-skin image to the hypersphere 550 as learning information, the hyperplane 570 is set, and the basis vector 580 of the hyperplane 570 is generated. Is done. After the learning information is mapped to the basis vector 580, a threshold value K for determination is determined from the distribution of the set of Mahalanobis distances according to the Bayes determination rule. The Mahalanobis distance is also generated for the discrimination target after being mapped to the basis vector 680, and it is discriminated whether it is “skin” or “other than skin” according to the relationship with the threshold value K.

<3.変形例>
上述の実施の形態では、RGBCMYの6色のカラーフィルタに基づく色の特徴空間を想定したが、色の数は任意の自然数を採用することができる。また、このRGBCMYの特定色のカラーフィルタに限定されず、任意の物体分光反射率を有するカラーフィルタを利用することができる。
<3. Modification>
In the above-described embodiment, a color feature space based on six color filters of RGBCMY is assumed. However, any natural number can be adopted as the number of colors. The color filter is not limited to the RGBCMY specific color filter, and a color filter having an arbitrary object spectral reflectance can be used.

また、上述の実施の形態では、判別フェーズにおいて、マハラノビス距離が閾値K未満であれば「肌」であると判別し、閾値K以上であれば「肌以外のもの」であると判別したが、両者の関係はこれに限定されるものではない。マハラノビス距離が閾値K以下の場合に「肌」であると判別し、閾値Kを超える場合に「肌以外のもの」であると判別してもよい。   In the above-described embodiment, in the determination phase, if the Mahalanobis distance is less than the threshold value K, it is determined to be “skin”, and if it is equal to or greater than the threshold value K, it is determined to be “other than skin”. The relationship between the two is not limited to this. When the Mahalanobis distance is less than or equal to the threshold value K, it may be determined that the skin is “skin”, and when the Mahalanobis distance exceeds the threshold value K, it may be determined that the object is “other than skin”.

また、上述の実施の形態では、閾値Kを設定する基準として超平面座標のマハラノビス距離を用いた例について説明したが、超平面座標のユークリッド距離を用いることも可能である。   In the above-described embodiment, the example using the Mahalanobis distance of the hyperplane coordinate as the reference for setting the threshold value K has been described. However, the Euclidean distance of the hyperplane coordinate can also be used.

また、上述の実施の形態では、超平面を設定する際に学習画素の平均ベクトルを利用したが、これ以外にも、肌集合530の分散が小さくなるようなメタヒューリスティックな手法により、集合への分散が小さくなるように超平面を設定することも考えられる。例えば、遺伝的アルゴリズム(GA:Genetic Algorithm)やシミュレーテッドアニーリング等の手法が想定される。   Further, in the above-described embodiment, the average vector of learning pixels is used when setting the hyperplane. However, in addition to this, a metaheuristic technique that reduces the variance of the skin set 530 can be used. It is also conceivable to set the hyperplane so that the dispersion becomes small. For example, methods such as genetic algorithm (GA) and simulated annealing are assumed.

また、判別対象となる画素の大きさ(ノルム)が、ある値未満である場合もしくはある値以下である場合には、単位ベクトル変換部212において単位ベクトルに変換する代わりにゼロベクトルとして扱ってもよい。また、判別対象となる画素が写像された特徴空間610における座標は、全てゼロ以上の数であることを条件としてもよい。   If the size (norm) of the pixel to be discriminated is less than a certain value or less than a certain value, the unit vector conversion unit 212 may treat it as a zero vector instead of converting it to a unit vector. Good. The coordinates in the feature space 610 where the pixels to be discriminated are mapped may all be zero or more.

また、上述の実施の形態では、教師データとして肌の画像を与えたが、データの形式は画像でなくてもよく、データ配列であっても本質的に違いはない。   In the above-described embodiment, the skin image is given as the teacher data. However, the data format does not have to be an image, and there is essentially no difference between the data arrangement.

また、上述の実施の形態では、肌の判別の例を挙げたが、本発明は肌の判別に限定されるものではなく、より一般的な判別に利用することができる。例えば、空、土、芝生などの物体判別の要素からシーン判別を行うことも想定される。   In the above-described embodiment, an example of skin discrimination has been described. However, the present invention is not limited to skin discrimination, and can be used for more general discrimination. For example, it is assumed that scene discrimination is performed from an element discrimination element such as sky, soil, and lawn.

また、本発明は、画像処理装置に限定されるものではなく、計算機能を有する装置全般に適用可能である。例えば、音声データ処理などにも適用することができる。   The present invention is not limited to an image processing apparatus, and can be applied to any apparatus having a calculation function. For example, the present invention can be applied to audio data processing.

このように、本発明の実施の形態によれば、学習情報および判別対象をノーマライズして超球面上に乗せて取り扱うため、ロバストな判別を行うことができる。また、超球面から超平面に射影することにより、超平面座標系で表現することが可能となり、次元が圧縮され、判断を簡略化することができる。また、超平面が原点を通るようにすることにより、特定の項がゼロになり、演算を簡略化することができるようになる。また、判別の際にマハラノビス距離を基準とすることにより、超楕円を超円として扱うことが可能となり、1次元により表現することができ、判断を簡略化することができる。   As described above, according to the embodiment of the present invention, the learning information and the discrimination target are normalized and handled on the hypersphere, so that robust discrimination can be performed. In addition, by projecting from a hypersphere to a hyperplane, it is possible to express in a hyperplane coordinate system, the dimensions are compressed, and judgment can be simplified. In addition, by allowing the hyperplane to pass through the origin, the specific term becomes zero, and the calculation can be simplified. Further, by using the Mahalanobis distance as a reference in the determination, the super ellipse can be handled as a super circle, and can be expressed in one dimension, and the determination can be simplified.

なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、本発明の実施の形態において明示したように、本発明の実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本発明の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本発明は実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The embodiment of the present invention shows an example for embodying the present invention. As clearly shown in the embodiment of the present invention, the matters in the embodiment of the present invention and the claims Each invention-specific matter in the scope has a corresponding relationship. Similarly, the matters specifying the invention in the claims and the matters in the embodiment of the present invention having the same names as the claims have a corresponding relationship. However, the present invention is not limited to the embodiments, and can be embodied by making various modifications to the embodiments without departing from the gist of the present invention.

また、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。   The processing procedure described in the embodiment of the present invention may be regarded as a method having a series of these procedures, and a program for causing a computer to execute the series of procedures or a recording medium storing the program May be taken as As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disk), a memory card, a Blu-ray Disc (registered trademark), or the like can be used.

110 (事象生起)学習画素超球面写像部
120 (事象非生起)学習画素超球面写像部
111、121 特徴空間写像部
112、122 単位ベクトル変換部
130 超平面設定部
131 平均ベクトル生成部
132 単位ベクトル変換部
133 超平面生成部
140 (事象生起)学習画素次元圧縮部
150 (事象非生起)学習画素次元圧縮部
141、151 超平面射影部
142 主成分分析部
143、153 基底射影部
160 判別境界設定部
161、162 マハラノビス距離生成部
163、164 閾値決定部
210 判別画素超球面写像部
211 特徴空間写像部
212 単位ベクトル変換部
240 判別画素次元圧縮部
241 超平面射影部
243 基底射影部
260 境界判別部
261 マハラノビス距離生成部
263 閾値判別部
110 (event occurrence) learning pixel hyperspherical mapping unit 120 (event non-occurrence) learning pixel hyperspherical mapping unit 111, 121 feature space mapping unit 112, 122 unit vector conversion unit 130 hyperplane setting unit 131 average vector generation unit 132 unit vector Conversion unit 133 Hyperplane generation unit 140 (Event occurrence) Learning pixel dimension compression unit 150 (Event non-occurrence) Learning pixel dimension compression unit 141, 151 Hyperplane projection unit 142 Principal component analysis unit 143, 153 Base projection unit 160 Discrimination boundary setting Unit 161, 162 Mahalanobis distance generation unit 163, 164 threshold determination unit 210 discrimination pixel hypersphere mapping unit 211 feature space mapping unit 212 unit vector conversion unit 240 discrimination pixel dimension compression unit 241 hyperplane projection unit 243 base projection unit 260 boundary discrimination unit 261 Mahalanobis distance generation unit 263 Threshold discrimination unit

Claims (10)

学習情報の各々を特徴空間に写像した上で所定の長さを有する単位学習ベクトルに変換することにより前記学習情報の各々を超球面上へ写像する学習情報写像部と、
前記単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定部と、
前記単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影学習ベクトルとすることにより前記学習情報の次元を圧縮する学習情報次元圧縮部と、
前記射影学習ベクトルの各々の分布から前記学習情報に関する判別境界を設定する判別境界設定部と、
判別対象情報を前記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより前記判別対象情報を超球面上へ写像する判別対象情報写像部と、
前記単位判別対象ベクトルを前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより前記判別対象情報の次元を圧縮する判別対象情報次元圧縮部と、
前記射影判別対象ベクトルについて前記判別境界に含まれるか否かを判別する境界判別部と
を具備する判別装置。
A learning information mapping unit that maps each of the learning information onto a hypersphere by mapping each of the learning information to a feature space and then converting the learning information into a unit learning vector having a predetermined length;
A hyperplane setting unit that sets a hyperplane having the average vector of each of the unit learning vectors as a normal vector;
A learning information dimension compressing unit that compresses the dimension of the learning information by projecting each of the unit learning vectors onto the hyperplane and then projecting onto the basis vector of the hyperplane;
A discrimination boundary setting unit that sets a discrimination boundary regarding the learning information from each distribution of the projection learning vectors;
A discrimination target information mapping unit that maps the discrimination target information onto a hypersphere by mapping the discrimination target information to the feature space and then converting the discrimination target information into a unit discrimination target vector having a predetermined length;
A discrimination target information dimension compression unit that compresses the dimension of the discrimination target information by projecting the unit discrimination target vector onto the hyperplane and then projecting the unit discrimination target vector onto the basis vector of the hyperplane;
And a boundary determination unit that determines whether or not the projection determination target vector is included in the determination boundary.
前記超平面設定部は、前記特徴空間の原点を通るように前記超平面を設定する請求項1記載の判別装置。   The discrimination apparatus according to claim 1, wherein the hyperplane setting unit sets the hyperplane so as to pass through an origin of the feature space. 前記学習情報次元圧縮部は、前記超平面に射影された前記単位学習ベクトルの各々に対する主成分分析により前記超平面の前記基底ベクトルを生成する請求項1記載の判別装置。   The discrimination device according to claim 1, wherein the learning information dimension compression unit generates the basis vector of the hyperplane by principal component analysis for each of the unit learning vectors projected onto the hyperplane. 前記判別境界設定部は、前記射影学習ベクトルの各々のマハラノビス距離に基づいて前記判別境界を設定する請求項1記載の判別装置。   The discrimination apparatus according to claim 1, wherein the discrimination boundary setting unit sets the discrimination boundary based on each Mahalanobis distance of the projection learning vector. 前記学習情報および前記判別対象情報は物体に関する色情報であり、前記判別境界は前記物体を判別するための境界である請求項1記載の判別装置。   The determination apparatus according to claim 1, wherein the learning information and the determination target information are color information about an object, and the determination boundary is a boundary for determining the object. 第1の学習情報の各々を特徴空間に写像した上で所定の長さを有する第1の単位学習ベクトルに変換することにより前記第1の学習情報の各々を超球面上へ写像する第1の学習情報写像部と、
前記第1の学習情報と背反する第2の学習情報の各々を特徴空間に写像した上で所定の長さを有する第2の単位学習ベクトルに変換することにより前記第2の学習情報の各々を超球面上へ写像する第2の学習情報写像部と、
前記第1の単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定部と、
前記第1の単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した第1の射影学習ベクトルとすることにより前記第1の学習情報の次元を圧縮する第1の学習情報次元圧縮部と、
前記第2の単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した第2の射影学習ベクトルとすることにより前記第2の学習情報の次元を圧縮する第2の学習情報次元圧縮部と、
前記第1および第2の射影学習ベクトルの各々の分布から前記第1および第2の学習情報に関する判別境界を設定する判別境界設定部と、
判別対象情報を前記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより前記判別対象情報を超球面上へ写像する判別対象情報写像部と、
前記単位判別対象ベクトルを前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより前記判別対象情報の次元を圧縮する判別対象情報次元圧縮部と、
前記射影判別対象ベクトルについて前記判別境界に含まれるか否かを判別する境界判別部と
を具備する判別装置。
First each of the first learning information is mapped onto a hypersphere by mapping each of the first learning information to a feature space and converting the first learning information into a first unit learning vector having a predetermined length. A learning information mapping section;
Each of the second learning information is converted into a second unit learning vector having a predetermined length after mapping each of the second learning information contrary to the first learning information to a feature space. A second learning information mapping unit that maps onto the hypersphere;
A hyperplane setting unit that sets a hyperplane having an average vector of each of the first unit learning vectors as a normal vector;
The first learning information is compressed by projecting each of the first unit learning vectors onto the hyperplane and then projecting the first unit learning vector onto the basis vector of the hyperplane. Learning information dimension compression unit of
The second unit learning vector is projected onto the hyperplane and then the second projection learning vector is projected onto the hyperplane basis vector to compress the dimension of the second learning information. Learning information dimension compression unit of
A determination boundary setting unit that sets a determination boundary related to the first and second learning information from the distribution of each of the first and second projection learning vectors;
A discrimination target information mapping unit that maps the discrimination target information onto a hypersphere by mapping the discrimination target information to the feature space and then converting the discrimination target information into a unit discrimination target vector having a predetermined length;
A discrimination target information dimension compression unit that compresses the dimension of the discrimination target information by projecting the unit discrimination target vector onto the hyperplane and then projecting the unit discrimination target vector onto the basis vector of the hyperplane;
And a boundary determination unit that determines whether or not the projection determination target vector is included in the determination boundary.
学習情報の各々を特徴空間に写像した上で所定の長さを有する単位学習ベクトルに変換することにより前記学習情報の各々を超球面上へ写像する学習情報写像手順と、
前記単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定手順と、
前記単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影学習ベクトルとすることにより前記学習情報の次元を圧縮する学習情報次元圧縮手順と、
前記射影学習ベクトルの各々の分布から前記学習情報に関する判別境界を設定する判別境界設定手順と、
判別対象情報を前記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより前記判別対象情報を超球面上へ写像する判別対象情報写像手順と、
前記単位判別対象ベクトルを前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより前記判別対象情報の次元を圧縮する判別対象情報次元圧縮手順と、
前記射影判別対象ベクトルについて前記判別境界に含まれるか否かを判別する境界判別手順と
を具備する判別方法。
A learning information mapping procedure for mapping each of the learning information onto a hypersphere by mapping each of the learning information to a feature space and then converting it into a unit learning vector having a predetermined length;
A hyperplane setting procedure for setting a hyperplane having the average vector of each of the unit learning vectors as a normal vector;
A learning information dimension compression procedure for compressing the dimension of the learning information by projecting each of the unit learning vectors onto the hyperplane and then projecting onto the basis vector of the hyperplane;
A determination boundary setting procedure for setting a determination boundary for the learning information from each distribution of the projection learning vectors;
A discrimination target information mapping procedure for mapping the discrimination target information onto a hypersphere by mapping the discrimination target information into the feature space and then converting the discrimination target information into a unit discrimination target vector having a predetermined length;
A discrimination target information dimension compression procedure for compressing the dimension of the discrimination target information by projecting the unit discrimination target vector onto the hyperplane and then projecting it onto the basis vector of the hyperplane,
And a boundary determination procedure for determining whether or not the projection determination target vector is included in the determination boundary.
第1の学習情報の各々を特徴空間に写像した上で所定の長さを有する第1の単位学習ベクトルに変換することにより前記第1の学習情報の各々を超球面上へ写像する第1の学習情報写像手順と、
前記第1の学習情報と背反する第2の学習情報の各々を特徴空間に写像した上で所定の長さを有する第2の単位学習ベクトルに変換することにより前記第2の学習情報の各々を超球面上へ写像する第2の学習情報写像手順と、
前記第1の単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定手順と、
前記第1の単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した第1の射影学習ベクトルとすることにより前記第1の学習情報の次元を圧縮する第1の学習情報次元圧縮手順と、
前記第2の単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した第2の射影学習ベクトルとすることにより前記第2の学習情報の次元を圧縮する第2の学習情報次元圧縮手順と、
前記第1および第2の射影学習ベクトルの各々の分布から前記第1および第2の学習情報に関する判別境界を設定する判別境界設定手順と、
判別対象情報を前記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより前記判別対象情報を超球面上へ写像する判別対象情報写像手順と、
前記単位判別対象ベクトルを前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより前記判別対象情報の次元を圧縮する判別対象情報次元圧縮手順と、
前記射影判別対象ベクトルについて前記判別境界に含まれるか否かを判別する境界判別手順と
を具備する判別方法。
First each of the first learning information is mapped onto a hypersphere by mapping each of the first learning information to a feature space and converting the first learning information into a first unit learning vector having a predetermined length. Learning information mapping procedure;
Each of the second learning information is converted into a second unit learning vector having a predetermined length after mapping each of the second learning information contrary to the first learning information to a feature space. A second learning information mapping procedure for mapping onto the hypersphere;
A hyperplane setting procedure for setting a hyperplane having an average vector of each of the first unit learning vectors as a normal vector;
The first learning information is compressed by projecting each of the first unit learning vectors onto the hyperplane and then projecting the first unit learning vector onto the basis vector of the hyperplane. Learning information dimension compression procedure,
The second unit learning vector is projected onto the hyperplane and then the second projection learning vector is projected onto the hyperplane basis vector to compress the dimension of the second learning information. Learning information dimension compression procedure,
A determination boundary setting procedure for setting a determination boundary regarding the first and second learning information from the distribution of each of the first and second projection learning vectors;
A discrimination target information mapping procedure for mapping the discrimination target information onto a hypersphere by mapping the discrimination target information into the feature space and then converting the discrimination target information into a unit discrimination target vector having a predetermined length;
A discrimination target information dimension compression procedure for compressing the dimension of the discrimination target information by projecting the unit discrimination target vector onto the hyperplane and then projecting it onto the basis vector of the hyperplane,
And a boundary determination procedure for determining whether or not the projection determination target vector is included in the determination boundary.
学習情報の各々を特徴空間に写像した上で所定の長さを有する単位学習ベクトルに変換することにより前記学習情報の各々を超球面上へ写像する学習情報写像手順と、
前記単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定手順と、
前記単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影学習ベクトルとすることにより前記学習情報の次元を圧縮する学習情報次元圧縮手順と、
前記射影学習ベクトルの各々の分布から前記学習情報に関する判別境界を設定する判別境界設定手順と、
判別対象情報を前記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより前記判別対象情報を超球面上へ写像する判別対象情報写像手順と、
前記単位判別対象ベクトルを前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより前記判別対象情報の次元を圧縮する判別対象情報次元圧縮手順と、
前記射影判別対象ベクトルについて前記判別境界に含まれるか否かを判別する境界判別手順と
をコンピュータに実行させるプログラム。
A learning information mapping procedure for mapping each of the learning information onto a hypersphere by mapping each of the learning information to a feature space and then converting it into a unit learning vector having a predetermined length;
A hyperplane setting procedure for setting a hyperplane having the average vector of each of the unit learning vectors as a normal vector;
A learning information dimension compression procedure for compressing the dimension of the learning information by projecting each of the unit learning vectors onto the hyperplane and then projecting onto the basis vector of the hyperplane;
A determination boundary setting procedure for setting a determination boundary for the learning information from each distribution of the projection learning vectors;
A discrimination target information mapping procedure for mapping the discrimination target information onto a hypersphere by mapping the discrimination target information into the feature space and then converting the discrimination target information into a unit discrimination target vector having a predetermined length;
A discrimination target information dimension compression procedure for compressing the dimension of the discrimination target information by projecting the unit discrimination target vector onto the hyperplane and then projecting it onto the basis vector of the hyperplane,
A program for causing a computer to execute a boundary determination procedure for determining whether or not the projection determination target vector is included in the determination boundary.
第1の学習情報の各々を特徴空間に写像した上で所定の長さを有する第1の単位学習ベクトルに変換することにより前記第1の学習情報の各々を超球面上へ写像する第1の学習情報写像手順と、
前記第1の学習情報と背反する第2の学習情報の各々を特徴空間に写像した上で所定の長さを有する第2の単位学習ベクトルに変換することにより前記第2の学習情報の各々を超球面上へ写像する第2の学習情報写像手順と、
前記第1の単位学習ベクトルの各々の平均ベクトルを法線ベクトルとして有する超平面を設定する超平面設定手順と、
前記第1の単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した第1の射影学習ベクトルとすることにより前記第1の学習情報の次元を圧縮する第1の学習情報次元圧縮手順と、
前記第2の単位学習ベクトルの各々を前記超平面に射影した上で前記超平面の基底ベクトルに射影した第2の射影学習ベクトルとすることにより前記第2の学習情報の次元を圧縮する第2の学習情報次元圧縮手順と、
前記第1および第2の射影学習ベクトルの各々の分布から前記第1および第2の学習情報に関する判別境界を設定する判別境界設定手順と、
判別対象情報を前記特徴空間に写像した上で所定の長さを有する単位判別対象ベクトルに変換することにより前記判別対象情報を超球面上へ写像する判別対象情報写像手順と、
前記単位判別対象ベクトルを前記超平面に射影した上で前記超平面の基底ベクトルに射影した射影判別対象ベクトルとすることにより前記判別対象情報の次元を圧縮する判別対象情報次元圧縮手順と、
前記射影判別対象ベクトルについて前記判別境界に含まれるか否かを判別する境界判別手順と
をコンピュータに実行させるプログラム。
First each of the first learning information is mapped onto a hypersphere by mapping each of the first learning information to a feature space and converting the first learning information into a first unit learning vector having a predetermined length. Learning information mapping procedure;
Each of the second learning information is converted into a second unit learning vector having a predetermined length after mapping each of the second learning information contrary to the first learning information to a feature space. A second learning information mapping procedure for mapping onto the hypersphere;
A hyperplane setting procedure for setting a hyperplane having an average vector of each of the first unit learning vectors as a normal vector;
The first learning information is compressed by projecting each of the first unit learning vectors onto the hyperplane and then projecting the first unit learning vector onto the basis vector of the hyperplane. Learning information dimension compression procedure,
The second unit learning vector is projected onto the hyperplane and then the second projection learning vector is projected onto the hyperplane basis vector to compress the dimension of the second learning information. Learning information dimension compression procedure,
A determination boundary setting procedure for setting a determination boundary regarding the first and second learning information from the distribution of each of the first and second projection learning vectors;
A discrimination target information mapping procedure for mapping the discrimination target information onto a hypersphere by mapping the discrimination target information into the feature space and then converting the discrimination target information into a unit discrimination target vector having a predetermined length;
A discrimination target information dimension compression procedure for compressing the dimension of the discrimination target information by projecting the unit discrimination target vector onto the hyperplane and then projecting it onto the basis vector of the hyperplane,
A program for causing a computer to execute a boundary determination procedure for determining whether or not the projection determination target vector is included in the determination boundary.
JP2009256058A 2009-11-09 2009-11-09 Discrimination device, discrimination method, and program Pending JP2011100395A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009256058A JP2011100395A (en) 2009-11-09 2009-11-09 Discrimination device, discrimination method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009256058A JP2011100395A (en) 2009-11-09 2009-11-09 Discrimination device, discrimination method, and program

Publications (1)

Publication Number Publication Date
JP2011100395A true JP2011100395A (en) 2011-05-19

Family

ID=44191504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009256058A Pending JP2011100395A (en) 2009-11-09 2009-11-09 Discrimination device, discrimination method, and program

Country Status (1)

Country Link
JP (1) JP2011100395A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013105164A1 (en) * 2012-01-13 2013-07-18 日本電気株式会社 Abnormal signal determining apparatus, abnormal signal determining method, and abnormal signal determining program
KR20140040807A (en) * 2011-07-08 2014-04-03 오스트레일리안 뉴클리어 사이언스 앤드 테크놀로지 오가니제이션 Radionuclide detection and identification
JP2014074964A (en) * 2012-10-02 2014-04-24 Fujitsu Ltd Authentication program, authentication method and authentication device
KR20150070938A (en) 2013-12-17 2015-06-25 후지쯔 가부시끼가이샤 Space division method, space division device, and storage medium
KR20150072332A (en) 2013-12-19 2015-06-29 후지쯔 가부시끼가이샤 Search method, search program, and search device
KR20150073076A (en) 2013-12-20 2015-06-30 후지쯔 가부시끼가이샤 Space division method, space division device, and recording medium
JP2017015860A (en) * 2015-06-30 2017-01-19 日本電信電話株式会社 Determination device, determination method, and program
CN106886213A (en) * 2017-03-13 2017-06-23 北京化工大学 A kind of batch process fault detection method based on core similarity Support Vector data description

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140040807A (en) * 2011-07-08 2014-04-03 오스트레일리안 뉴클리어 사이언스 앤드 테크놀로지 오가니제이션 Radionuclide detection and identification
JP2014524018A (en) * 2011-07-08 2014-09-18 オーストラリアン ニュークリア サイエンス アンド テクノロジー オーガニゼーション Radionuclide detection and identification
US10539693B2 (en) 2011-07-08 2020-01-21 Australian Nuclear Science And Technology Organization Radionuclide detection and identification
KR101988902B1 (en) 2011-07-08 2019-09-30 오스트레일리안 뉴클리어 사이언스 앤드 테크놀로지 오가니제이션 Radionuclide detection and identification
WO2013105164A1 (en) * 2012-01-13 2013-07-18 日本電気株式会社 Abnormal signal determining apparatus, abnormal signal determining method, and abnormal signal determining program
JP2014074964A (en) * 2012-10-02 2014-04-24 Fujitsu Ltd Authentication program, authentication method and authentication device
KR20150070938A (en) 2013-12-17 2015-06-25 후지쯔 가부시끼가이샤 Space division method, space division device, and storage medium
EP2890041A1 (en) 2013-12-17 2015-07-01 Fujitsu Limited Space division method, space division device, and space division program
US9864926B2 (en) 2013-12-19 2018-01-09 Fujitsu Limited Search method, search program, and search device
KR20150072332A (en) 2013-12-19 2015-06-29 후지쯔 가부시끼가이샤 Search method, search program, and search device
EP2890042A1 (en) 2013-12-19 2015-07-01 Fujitsu Limited Search method, search program, and search device
KR101662904B1 (en) * 2013-12-19 2016-10-05 후지쯔 가부시끼가이샤 Search method, search program, and search device
EP2890043A1 (en) 2013-12-20 2015-07-01 Fujitsu Limited Space division method, space division device, and space division program
KR20150073076A (en) 2013-12-20 2015-06-30 후지쯔 가부시끼가이샤 Space division method, space division device, and recording medium
JP2017015860A (en) * 2015-06-30 2017-01-19 日本電信電話株式会社 Determination device, determination method, and program
CN106886213A (en) * 2017-03-13 2017-06-23 北京化工大学 A kind of batch process fault detection method based on core similarity Support Vector data description

Similar Documents

Publication Publication Date Title
JP2011100395A (en) Discrimination device, discrimination method, and program
US20230215197A1 (en) Systems and Methods for Detection and Localization of Image and Document Forgery
JP6562461B2 (en) Dynamic handwriting verification, user authentication based on handwriting, handwriting data generation, and handwriting data storage
KR102415509B1 (en) Face verifying method and apparatus
JP6403233B2 (en) User authentication method, apparatus for executing the same, and recording medium storing the same
CN108549836B (en) Photo copying detection method, device, equipment and readable storage medium
US11049256B2 (en) Image processing apparatus, image processing method, and storage medium
JP5997545B2 (en) Signal processing method and signal processing apparatus
JP2014131277A5 (en) Method and program for compressing binary image representing document
JP2005346654A (en) Image recognition device, image recognition method and program making computer execute the method
US8774519B2 (en) Landmark detection in digital images
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
JP6410450B2 (en) Object identification device, object identification method, and program
WO2021175040A1 (en) Video processing method and related device
Xue et al. Automatic 4D facial expression recognition using DCT features
JPWO2018147059A1 (en) Image processing apparatus, image processing method, and program
US10296539B2 (en) Image extraction system, image extraction method, image extraction program, and recording medium storing program
Altaei Detection of Deep Fake in Face Images Based Machine Learning
JP6354253B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
KR102121534B1 (en) Method and device for determining similarity of sequences
KR101521136B1 (en) Method of recognizing face and face recognition apparatus
JP2009134466A (en) Recognition processing device, method, and computer program
Karsh et al. Image authentication using image hashing based on ring partition with corner inclusion
JP2018194956A (en) Image recognition dive, method and program