JP2019096073A - Image processor, method for processing image, and program - Google Patents
Image processor, method for processing image, and program Download PDFInfo
- Publication number
- JP2019096073A JP2019096073A JP2017225113A JP2017225113A JP2019096073A JP 2019096073 A JP2019096073 A JP 2019096073A JP 2017225113 A JP2017225113 A JP 2017225113A JP 2017225113 A JP2017225113 A JP 2017225113A JP 2019096073 A JP2019096073 A JP 2019096073A
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- image
- image processing
- score
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
近年、顔の表情や個人を特定するだけでなく、人種、年代、性別、ヒゲ等の顔に関する属性、更には服装等の人体に関する属性を認識する技術開発が活発になっている。
例えば、非特許文献1では画像中から目、口、鼻の位置を検出して、これらの位置に基づいてRGBやHSVの色特徴、エッジやヒストグラム系の特徴等の多種多様な特徴量を抽出しておく。そして、これらの特徴量をSupport Vector Machine(以下、SVMという)と呼ばれる識別器に入力することで、メガネ、性別、年代、ヒゲ、髪の毛等65種類もの顔に関する属性を認識する技術がある。
また、非特許文献2のように、ロングパンツ、ジーンズ、Tシャツ等人体に関する属性を認識する技術がある。
Recently, in addition to identifying facial expressions and individuals, there has been active development of technology for recognizing attributes related to faces such as race, age, sex, and beard, and further attributes related to human bodies such as clothes.
For example, Non-Patent Document 1 detects positions of eyes, mouth, and nose from an image, and extracts various feature amounts such as color features of RGB and HSV, and features of an edge and a histogram system based on these positions. Keep it. Then, there is a technology for recognizing attributes related to as many as 65 types of faces such as glasses, gender, age, hair, hair and the like by inputting these feature quantities into a classifier called Support Vector Machine (hereinafter referred to as SVM).
Also, as in Non-Patent Document 2, there is a technology for recognizing attributes related to the human body such as long pants, jeans, T-shirts and the like.
しかしながら、様々な属性を認識する技術では2つの問題がある。
1つ目は、顔や人体に関わる属性の数は非常に多いため、属性の数を増やせば増やすほど属性毎にPositiveサンプルとNegativeサンプルとを用意して識別器を学習しなければならないことである。つまり、非常に多くの労力を要することである。
2つ目は、属性毎に識別の難易度が大きく異なるという点である。例えば、顔に関する属性であるメガネに対しては、メガネフレーム等をエッジとして容易に検出することができる。また、非特許文献3の顔検出技術や非特許文献4の顔特徴点検出技術を利用することで、メガネが存在しうる領域を正確に設定することができる。そのため、高精度に識別することができる。
一方で、顔に関する属性である髪の色に対しては、撮像装置のホワイトバランスや環境光の影響で色が大きく変わってしまうため、高精度に識別することは非常に難しい。
また、ロングパンツ、Tシャツ等、人体に関する属性に対しては、顔とは異なり上半身や下半身の領域を正確に特定できないので、高精度に識別することは非常に難しい。
However, there are two problems with the technology that recognizes various attributes.
First, since the number of attributes related to the face and the human body is very large, it is necessary to prepare a positive sample and a negative sample for each attribute and learn the classifier as the number of attributes is increased. is there. In other words, it takes a great deal of effort.
The second point is that the difficulty level of identification differs greatly for each attribute. For example, for eyeglasses that are attributes related to the face, an eyeglass frame or the like can be easily detected as an edge. Further, by using the face detection technology of Non-Patent Document 3 and the face feature point detection technology of Non-Patent Document 4, it is possible to accurately set an area where glasses may exist. Therefore, it can be identified with high accuracy.
On the other hand, with respect to the color of hair which is an attribute relating to the face, the color largely changes due to the influence of the white balance of the imaging device and the ambient light, so it is very difficult to identify with high accuracy.
Also, with regard to attributes related to the human body, such as long pants and T-shirts, unlike the face, upper and lower body regions can not be accurately identified, so it is very difficult to identify with high accuracy.
本発明の画像処理装置は、画像に含まれるオブジェクトの位置を検出する検出手段と前記オブジェクトの位置に基づいて前記画像から特徴量を抽出する抽出手段と、前記特徴量を用いて前記オブジェクトの複数の属性のそれぞれに対する属性スコアを出力する属性識別手段と、前記属性識別手段により出力された前記オブジェクトの複数の属性の少なくとも1つに対する属性スコアに基づいて、前記複数の属性の他の少なくとも1つに対する属性スコアを補正する補正手段と、を有する。 The image processing apparatus according to the present invention comprises a detection unit that detects the position of an object included in an image, an extraction unit that extracts a feature quantity from the image based on the position of the object, and a plurality of the objects using the feature quantity. Attribute identification means for outputting an attribute score for each of the at least one of the plurality of attributes based on the attribute score for at least one of the plurality of attributes of the object output by the attribute identification means; And correction means for correcting the attribute score for.
本発明によれば、より高精度にオブジェクトの属性を認識することができる。 According to the present invention, the attribute of an object can be recognized with higher precision.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described based on the drawings.
<実施形態1>
実施形態1では、属性間の相関関係、又は撮像装置等の他センサから取得可能な撮影状況(日時や場所)と属性との間の相関関係を利用することで属性識別結果を補正する処理について説明する。
図1は、画像処理装置10のハードウェア構成の一例を示す図である。画像処理装置10は、ハードウェア構成として、CPU(Central Processing Unit)11、メモリ12、通信I/F13を含む。CPU11は、画像処理装置10の全体を制御する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等である。メモリ12は、プログラムや画像、CPU11がプログラムに基づき処理を実行する際に利用するデータ、設定値等を記憶する。通信I/F13は、画像処理装置10をネットワークに接続するためのインタフェースである。CPU11がメモリ12に記憶されたプログラムに基づき処理を実行することによって後述する図2−図5、図17等のソフトウェア構成及び、図6、図12、図16等のフローチャートの処理が実現される。画像処理装置は、撮像装置であってもよいし、PC等であってもよい。撮像装置の場合、図1に示したハードウェア構成に加えて、撮像素子やAD変換器等がハードウェア構成として含まれる。画像処理装置が撮像装置の場合は、自信で撮像した画像に対して処理を実行し、画像処理装置がPC等の場合は、ネットワークを介して撮像装置で撮像された画像を取得し、取得した画像に対して処理を実行する。また、CPU11は、入力装置や表示装置等を介したユーザ操作に基づいてデータや設定値等をメモリ12に記憶してもよいし、通信I/F13を介した外部装置等から送信されたコマンド等に基づきデータや設定値等をメモリ12に記憶してもよい。
First Embodiment
In the first embodiment, the process of correcting the attribute identification result by using the correlation between the attributes or the correlation between the imaging condition (date and time and location) and the attribute that can be acquired from other sensors such as an imaging apparatus explain.
FIG. 1 is a diagram showing an example of the hardware configuration of the
図2は、画像処理装置10のソフトウェア構成の一例を示す図である。画像処理装置10は、ソフトウェア構成として、画像取得部100、位置検出部101、特徴抽出部102、属性識別部103、属性識別結果補正部104を含む。各部の処理は、後述するフローチャート等を用いて説明する。
図3は、位置検出部101の構成の一例を示す図である。位置検出部101は、顔位置検出部10100、顔特徴点検出部10101を含む。実施形態1では顔を対象にした例を用いて説明を行う、人体位置検出技術を導入することにより顔と人体とを対象としてもよい。各部の処理は、後述するフローチャート等を用いて説明する。顔や人体は画像に含まれるオブジェクトの一例である。
図4は、特徴抽出部102の構成の一例を示す図である。特徴抽出部102は、正規化部10200、領域設定部10201、特徴抽出部10202を含む。各部の処理は、後述するフローチャート等を用いて説明する。
図5は、属性識別結果補正部104の構成の一例を示す図である。属性識別結果補正部104は、属性選択部10400、部分空間選択部10401、属性スコア補正部10402を含む。各部の処理は、後述するフローチャート等を用いて説明する。
FIG. 2 is a view showing an example of the software configuration of the
FIG. 3 is a diagram showing an example of the configuration of the
FIG. 4 is a diagram showing an example of the configuration of the
FIG. 5 is a diagram showing an example of the configuration of the attribute identification
図6は、画像処理装置10における情報処理の一例を示すフローチャートである。
S10000では、画像取得部100は、レンズ等の集光素子、光を電気信号に変換するCMOSやCCD等の撮像素子、アナログ信号をデジタル信号に変換するAD変換器を通過することによって、得られたデジタル画像(以下、画像という)を取得する。また、画像取得部100は、間引き処理等を行うことによって、例えば、VGA(640×480[pixel])やQVGA(320×240[pixel])に変換した画像を取得するようにしてもよい。
S10100では、顔位置検出部10100は、S10000で取得された画像から顔が存在する位置を検出する。画像内に複数の顔が存在する場合は、それぞれの顔の位置を検出する。例えば、顔位置検出部10100は、非特許文献3のように積分画像とカスケード識別器とを利用することによって高精度、かつ、高速に画像内の顔を検出することができるが、これに限られるわけではない。
S10101では、顔位置検出部10100は、S10100で顔が検出されたかどうかを判定する。顔位置検出部10100は、顔が検出されたと判定した場合にはS10102へ進み、顔が検出されなかったと判定した場合にはS10000へ戻る。S10000では、画像取得部100は、次の画像を取得する。
S10102では、顔位置検出部10100は、S10100で検出された顔の中から1つの顔を選択する。
FIG. 6 is a flowchart showing an example of information processing in the
In S10000, the
In S10100, the face
In S10101, the face
In S10102, the face
S10103では、顔特徴点検出部10101は、S10102で選択された顔に対して顔特徴点位置を検出する。顔特徴点とは、図7の101030のように目尻や目頭、鼻の頂点、左右の口端等目や鼻や口のパーツのコーナーのことである。例えば、顔特徴点検出部10101は、非特許文献4のように予め平均的な顔特徴点位置を初期配置として設定した後、顔特徴点位置に基づいて特徴量を抽出する。そして、顔特徴点検出部10101は、予め用意しておいた特徴量と顔特徴点の移動・変形量との関係を表すテーブルに基づき、顔特徴点位置を移動・変形する手法がある。但し、顔特徴点の検出はこの手法に限定されるわけではない。
S10200では、正規化部10200は、S10103で検出された顔特徴点に基づいて、顔の大きさが設定された大きさ、顔の向きが正立するようにアフィン変換処理を行う。例えば、正規化部10200は、目尻、目頭、上瞼、下瞼の目に関する4つの特徴点の重心を求め、左右の目の重心を結ぶ距離が75[pixel]、水平方向との傾きが0[度]となるようにアフィン変換を行う。
次に、領域設定部10201は、図8のようにS10103で検出された顔特徴点に基づいて局所領域102010の設定を行う。そして、特徴抽出部10202は、カラーヒストグラム等の色特徴、エッジ、Histogram Oriented Gradient(以下、HOGという)等のヒストグラム特徴等、属性認識に必要な多種多様な特徴量を抽出する。
In S10103, the face feature
In S10200, based on the face feature points detected in S10103, the
Next, the
S10300では、属性識別部103は、図9のように、S10200で抽出された多種多様な特徴量から特徴ベクトルVnを生成し、特徴ベクトルVnを入力として、フレームメガネ、男性、女性、子供、成人、ニット帽子、口ヒゲ、顎ヒゲ、金髪、スキンヘッド、ウェーブヘア、化粧等の属性の識別を行う。属性識別器からは、属性に対するスコアが算出される。また、識別対象が人体である場合、属性識別部103は、上着やパンツ等の服装を識別するようにしてもよい。これら識別する属性の種類は予め人手によって決定される。
特徴ベクトルVnはn人目の顔に対する特徴ベクトルであり、特徴ベクトルVnを構成する要素anmは、ある領域mにおけるカラーヒストグラムの各ビンの要素、エッジ画像を構成する画素値、HOGの各ビンの要素を連結したものである。
属性識別器は、属性毎に学習する。例えば、男性のpositiveサンプルと女性のnegativeサンプルとをn人分用意する。属性識別器は、これらのサンプルに対応する特徴ベクトルVnを抽出する。男性のpositiveサンプルに対しては出力値が1、女性のnegativeサンプルに対しては出力値が−1となるように識別器に教師データを与えることで学習する。識別器には、Support Vector Machine(以下、SVMという)を利用するが、これに限られるわけではない。
In S10300, as shown in FIG. 9, the
The feature vector V n is a feature vector for the n- th face, and the elements a nm constituting the feature vector V n are elements of each bin of the color histogram in a certain area m, pixel values constituting the edge image, and HOG It is the concatenation of the elements of the bin.
The attribute classifier learns for each attribute. For example, n samples of male positive samples and female negative samples are prepared. The attribute discriminator extracts feature vectors V n corresponding to these samples. It is learned by giving teacher data to the classifier so that the output value is 1 for male positive samples and the output value is -1 for female negative samples. Although a Support Vector Machine (hereinafter referred to as SVM) is used as a classifier, it is not limited thereto.
S10400では、属性識別結果補正部104は、S10300で識別された各属性に対するスコアを補正する。図10は、ある人物に対する各属性識別器から出力されたスコアの一例を示す図である。各属性識別器はそれぞれ独立に学習しているため、図10のように女性スコアが0.9、つまり、女性である可能性が高いにも関わらず、口ひげスコアが0.7という矛盾するケースが生じる可能性がある。図10等に示されるように、画像処理装置10は、属性識別器を複数有する。
そこで、本実施形態では、図11のように女性の属性と矛盾する口ひげの属性スコアを補正する。つまり、属性スコア補正部10402は、1つ以上の属性識別結果を選択し、選択された属性識別結果が正しい結果であると信用して、その他の属性スコアを補正する。例えば、女性の属性識別スコアが1.0に近い0.9であることから、属性スコア補正部10402は、S10103で選択された顔は女性であると判断して、口ひげ等、女性とは矛盾するスコアを補正する。信用する属性は人間が予め各属性に対する評価を行うことで精度のよい属性を調べ、設定等しておき、属性スコア補正部10402は、この設定された精度のよい属性を優先的に選択するようにしてもよい。複数の属性識別器のそれぞれより出力された属性スコアから少なくとも1つの属性スコアを選択し、選択した属性スコアに基づいて、オブジェクトの複数の属性スコアのうち、選択した属性スコア以外の少なくとも1つの属性スコアを補正する処理の一例である。
In S10400, the attribute identification
So, in this embodiment, the attribute score of the mustache contradictory to the female attribute as shown in FIG. 11 is corrected. That is, the attribute
図12は、S10400の属性識別結果補正処理の一例を示すフローチャートである。
S10401では、属性識別結果補正部104は、S10300における属性識別器の中から1つ以上の属性を選択する。属性の選択方法は、上述の通り、人間が予め各属性に対する評価を行うことで精度のよい属性を調べ、設定しておき、属性識別結果補正部104は、この設定に基づき精度のよい属性を優先的に選択するようにしてもよい。
属性の選択方法は、各属性に対する評価結果を利用する方法以外に、識別器から出力されるスコアそのものを統計的に分析し、この統計分析結果を利用する方法でもよい。例えば、ある属性識別器が高精度である場合、positiveサンプルに対しては1.0に近い出力値、negativeサンプルに対しては−1.0に近い出力値を出力する。したがって、属性識別結果補正部104は、各属性器から出力されるスコアを2つのクラスに分類し、2クラス間の分離度(クラス間分散/クラス内分散)が最大となる属性を選択するようにしてもよい。このように識別器から出力されるスコアを統計的に分析し、選択する属性を決定する方法では各属性がどんな属性を識別しているか知る必要がない。
FIG. 12 is a flowchart showing an example of the attribute identification result correction process of S10400.
In S10401, the attribute identification
The method of selecting the attribute may be a method of statistically analyzing the score itself output from the classifier and using this statistical analysis result, in addition to the method of using the evaluation result for each attribute. For example, when a certain attribute discriminator has high precision, it outputs an output value close to 1.0 for positive samples and an output value close to -1.0 for negative samples. Therefore, the attribute identification
S10402では、属性識別結果補正部104は、S10401で選択された属性スコアが設定された閾値以上かどうか判定する。属性識別結果補正部104は、属性スコアが設定された閾値以上の場合にはS10403へ進み、属性スコアが設定された閾値未満の場合にはS10401へ戻り、別の属性を選択する。
S10403では、属性識別結果補正部104は、S10401で選択された1つ以上の属性識別結果に基づいて、予め用意されていた複数の属性部分空間Pから1つの属性部分空間Piを選択する。
ここで、属性部分空間Pについて説明する。
1名の人物に対する1番目からi番目までの各属性識別器から出力されるスコアをS1、S2、・・・、Sniとして各スコアを特徴ベクトルの1つの要素として考えると、図13のようにn番目の人物に対してはSn=[Sn1、Sn2、・・・、Sni]となる。ここで、Snを、各属性を規定ベクトルとする空間上(以下、全属性空間Vという)の1点として捉える。
この全属性空間Vを張る属性の一部を女性の属性と相関する属性と考えると、図14のように女性だけが存在しうる超平面を定義することができる。上述した女性スコアが0.9、口ひげスコアが0.7というサンプルをSnとすると、サンプルSnは図14のように女性だけが存在しうる真の範囲から外れているものと考えられる。そこで本実施形態では、属性識別結果補正部104が、図15のように女性だけが存在しうる真の範囲から外れているサンプルSnを、全属性空間V上で女性だけが存在しうる真の範囲に移動させることで属性スコアを補正する。全属性空間V上でサンプルSnを移動させる方法としては、属性識別結果補正部104は、属性部分空間Pを利用する。属性識別結果補正部104は、全属性空間V内に点在するサンプル分布から、全属性空間Vよりも低次元の部分属性空間Pを求め、入力サンプルSnをこの部分属性空間Pへ射影する。部分属性空間Pへ射影した入力サンプルをSn 'とすると、属性識別結果補正部104は、部分属性空間Pへ射影した入力サンプルSn 'を再び元の全属性空間Vに逆射影することで、全属性空間V上でサンプルSnを移動させる。ここで、部分属性空間Pの基底ベクトルを求める1つの手法として主成分分析(以下、PCAという)がある。例えば、女性だけの大量サンプルを用意しておき、この大量サンプルに対してPCAを行うことでサンプルのばらつきを指標とする固有ベクトルU=[u1,u2,・・・,uk]が求まる。属性識別結果補正部104は、固有値(ばらつき)の小さい固有ベクトルU=[u1,u2,・・・,ui]を女性サンプル特有の固有ベクトル、固有値(ばらつき)の大きい固有ベクトルは女性サンプル特有でない固有ベクトルと判断する。そして、属性識別結果補正部104は、固有値(ばらつき)の小さい固有ベクトルU=[u1,u2,・・・,ui]で部分属性空間Pを構成する。
部分属性空間P上での入力サンプルをSn ''とするとSn ''=[u1,u2,・・・,uk]Sn 'と表すことができる。また、全属性空間Vから部分属性空間Pへの変換は線形射影であるため、部分属性空間Pでの入力サンプルSn ''を元の全属性空間Vに逆射影可能である。部分空間Pを求める方法はPCAでなくともよい。属性識別結果補正部104は、全属性空間V上で近くに存在するサンプルをより近づける局所性保存射影(LPP)等、他の線形射影を利用してもよい。
S10403では、属性識別結果補正部104は、上述の通り、S10402で選択された部分属性空間Pへ入力サンプルSn 'を射影し、その後、全属性空間Vに逆射影する。
S10403では、属性識別結果補正部104は、上述の通り、S10402で選択された部分属性空間Pへ入力サンプルSn 'を射影し、その後、全属性空間Vに逆射影する。
In S10402, the attribute identification
In S10403, the attribute identification
Here, the attribute subspace P will be described.
When the scores output from the first to i-th attribute classifiers for one person are S 1 , S 2 ,..., S ni and each score is considered as one element of the feature vector, FIG. Thus, for the n-th person, S n = [S n1 , S n2 ,..., S ni ]. Here, the S n, the space to define vectors each attribute (hereinafter, referred to as total attribute space V) taken as one point.
If a part of the attribute extending the entire attribute space V is considered to be an attribute correlated with the attribute of a woman, it is possible to define a hyperplane in which only a woman can exist as shown in FIG. Women score 0.9 described above, the mustache score to the sample and S n of 0.7, the sample S n is considered to have deviated from the true scope of which only women can exist as shown in Figure 14. Therefore, in the present embodiment, as shown in FIG. 15, the attribute identification
Assuming that an input sample on the partial attribute space P is S n ′ ′ , it can be expressed as S n ′ ′ = [u 1, u 2,..., Uk] S n ′ . Further, since the transformation from the total attribute space V to the partial attribute space P is a linear projection, the input sample S n ′ ′ in the partial attribute space P can be backprojected onto the original total attribute space V. The method of obtaining the subspace P may not be PCA. The attribute identification
In S10403, the attribute identification
In S10403, the attribute identification
上述した例では、属性識別器のスコアに基づいて部分空間Pを選択する方法について説明したが、属性識別結果補正部104は、属性ではなくて画像が撮影された日時や場所等の他のセンサ情報として得られる撮影状況情報を利用するようにしてもよい。つまり、真夏の時期にニット帽を被っている人はいない、深夜の時間帯に子供はいない、小学校にヘルメットを被っている人はいない等、属性識別結果補正部104は、日時や場所と属性との相関関係を利用してもよい。図16は、画像処理装置10のソフトウェア構成の変形例を示す図である。図16のソフトウェア構成では、図2のソフトウェア構成に加えて情報取得部105が付加された構成となっている。図17は、S10400の属性識別結果補正処理の変形例を示すフローチャートである。
S10411では、情報取得部105は、ネットワーク等を介して通信可能な撮像装置から取得可能な日時情報や場所情報を取得する。日時情報は、画像に関する日時情報の一例である。場所情報は、画像に関する場所情報の一例である。
S10412では、属性識別結果補正部104は、S10411で取得された日時や場所の情報に基づいて部分空間選択をする。例えば、真夏や深夜等の時間帯に特有の部分空間、小学校等の場所に特有の部分空間が用意されており、属性識別結果補正部104は、これらの複数の部分空間からS10411で取得された日時や場所の情報に基づいて部分空間選択をする。
In the example described above, the method of selecting the partial space P based on the score of the attribute discriminator has been described, but the attribute discrimination
In S10411, the
In S10412, the attribute identification
このように、実施形態1では、画像処理装置10は、
1.属性識別器の中から少なくとも1つ以上の属性識別器を選択してスコアを参照する
2.選択した属性識別器のスコアに基づいて、予め用意しておいた部分空間Pを選択する
3.全属性空間Vから選択した部分空間Pへ射影した後、部分空間Pから全属性空間Vへ逆射影することで属性スコアを補正する
という処理を行う。このことにより、より高精度な属性識別器を実現することができる。
Thus, in the first embodiment, the
1. At least one or more attribute discriminators are selected from the attribute discriminators to refer to the score. 2. Select a partial space P prepared in advance based on the score of the selected attribute discriminator. After projecting from the entire attribute space V to the selected subspace P, the process of correcting the attribute score by back-projecting the subspace P to the entire attribute space V is performed. This makes it possible to realize a more accurate attribute discriminator.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. And, it is also possible to realize the processing in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、画像処理装置10のハードウェア構成として、CPUは複数存在してもよく、複数のCPUがメモリ等に記憶されているプログラムに基づき処理を実行するようにしてもよい。また、画像処理装置10のハードウェア構成として、CPUの替わりにGPU(Graphics Processing Unit)を用いてもよい。
また、画像処理装置10のソフトウェア構成の一部をハードウェア構成として画像処理装置10に実装してもよい。
また、画像処理装置10は、1つ以上の属性識別器の結果と日時情報及び/又は場所情報とに基づいて、部分空間を選択し、射影・逆射影することで属性識別結果群を補正するようにしてもよい。
As mentioned above, although an example of an embodiment of the present invention was explained in full detail, the present invention is not limited to such a specific embodiment.
For example, as a hardware configuration of the
Further, part of the software configuration of the
Further, the
以上上述した各実施形態によれば、より高精度に属性を認識することができる。 According to each embodiment described above, the attribute can be recognized with higher accuracy.
10 画像処理装置
11 CPU
12 メモリ
13 通信I/F
10
12
Claims (14)
前記オブジェクトの位置に基づいて前記画像から特徴量を抽出する抽出手段と、
前記特徴量を用いて前記オブジェクトの複数の属性のそれぞれに対する属性スコアを出力する属性識別手段と、
前記属性識別手段により出力された前記オブジェクトの複数の属性の少なくとも1つに対する属性スコアに基づいて、前記複数の属性の他の少なくとも1つに対する属性スコアを補正する補正手段と、
を有する画像処理装置。 A detection unit that detects a position of an object included in an image; and an extraction unit that extracts a feature amount from the image based on the position of the object.
Attribute identification means for outputting an attribute score for each of a plurality of attributes of the object using the feature amount;
Correction means for correcting an attribute score for at least one of the plurality of attributes based on the attribute score for at least one of the plurality of attributes of the object output by the attribute identification means;
An image processing apparatus having:
前記補正手段は、前記複数の属性識別手段のそれぞれより出力された属性スコアから少なくとも1つの属性スコアを選択し、選択した属性スコアに基づいて、前記オブジェクトの複数の属性スコアのうち、前記選択した属性スコア以外の少なくとも1つの属性スコアを補正する請求項1記載の画像処理装置。 Having a plurality of the attribute identification means,
The correction means selects at least one attribute score from the attribute scores output from each of the plurality of attribute identification means, and the selected one of the plurality of attribute scores of the object is selected based on the selected attribute score. The image processing apparatus according to claim 1, wherein at least one attribute score other than the attribute score is corrected.
画像に含まれるオブジェクトの位置を検出する検出手段と
前記オブジェクトの位置に基づいて前記画像から特徴量を抽出する抽出手段と、
前記特徴量を用いて前記オブジェクトの少なくとも1つの属性に対する属性スコアを出力する属性識別手段と、
前記取得手段により取得された撮影状況情報に基づいて、前記属性スコアを補正する補正手段と、
を有する画像処理装置。 Acquisition means for acquiring shooting status information regarding the image;
A detection unit that detects a position of an object included in an image; and an extraction unit that extracts a feature amount from the image based on the position of the object.
Attribute identification means for outputting an attribute score for at least one attribute of the object using the feature amount;
A correction unit that corrects the attribute score on the basis of the shooting status information acquired by the acquisition unit;
An image processing apparatus having:
前記オブジェクトの位置に基づいて前記画像から特徴量を抽出する抽出工程と、
前記特徴量を用いて前記オブジェクトの複数の属性のそれぞれに対する属性スコアを出力する属性識別工程と、
前記属性識別工程により出力された前記オブジェクトの複数の属性の少なくとも1つに対する属性スコアに基づいて、前記複数の属性の他の少なくとも1つに対する属性スコアを補正する補正工程と、
を含む画像処理方法。 A detection step of detecting a position of an object included in an image; and an extraction step of extracting a feature amount from the image based on the position of the object.
An attribute identification step of outputting an attribute score for each of a plurality of attributes of the object using the feature amount;
Correcting the attribute score for at least one of the plurality of attributes based on the attribute score for at least one of the plurality of attributes of the object output by the attribute identification step;
Image processing method including:
画像に含まれるオブジェクトの位置を検出する検出工程と
前記オブジェクトの位置に基づいて前記画像から特徴量を抽出する抽出工程と、
前記特徴量を用いて前記オブジェクトの少なくとも1つの属性に対する属性スコアを出力する属性識別工程と、
前記取得工程により取得された撮影状況情報に基づいて、前記属性スコアを補正する補正工程と、
を含む画像処理方法。 An acquisition step of acquiring shooting status information regarding an image;
A detection step of detecting a position of an object included in an image; and an extraction step of extracting a feature amount from the image based on the position of the object.
An attribute identification step of outputting an attribute score for at least one attribute of the object using the feature amount;
A correction step of correcting the attribute score based on the photographing situation information acquired by the acquisition step;
Image processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017225113A JP2019096073A (en) | 2017-11-22 | 2017-11-22 | Image processor, method for processing image, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017225113A JP2019096073A (en) | 2017-11-22 | 2017-11-22 | Image processor, method for processing image, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019096073A true JP2019096073A (en) | 2019-06-20 |
Family
ID=66973038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017225113A Pending JP2019096073A (en) | 2017-11-22 | 2017-11-22 | Image processor, method for processing image, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019096073A (en) |
-
2017
- 2017-11-22 JP JP2017225113A patent/JP2019096073A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10438059B2 (en) | Image recognition method, image recognition apparatus, and recording medium | |
Kumar et al. | Attribute and simile classifiers for face verification | |
Ding et al. | Features versus context: An approach for precise and detailed detection and delineation of faces and facial features | |
KR101760258B1 (en) | Face recognition apparatus and method thereof | |
KR100888554B1 (en) | Recognition system | |
US8819015B2 (en) | Object identification apparatus and method for identifying object | |
JP2021101384A (en) | Image processing apparatus, image processing method and program | |
Chauhan et al. | Study & analysis of different face detection techniques | |
JP6544900B2 (en) | Object identification device, object identification method and program | |
Gupta et al. | Face detection using modified Viola jones algorithm | |
JP2012038106A (en) | Information processor, information processing method and program | |
JP2007213378A (en) | Method for detecting face of specific expression, imaging control method, device and program | |
JP6351243B2 (en) | Image processing apparatus and image processing method | |
El Maghraby et al. | Detect and analyze face parts information using Viola-Jones and geometric approaches | |
KR101865253B1 (en) | Apparatus for age and gender estimation using region-sift and discriminant svm classifier and method thereof | |
JP6157165B2 (en) | Gaze detection device and imaging device | |
JP5241606B2 (en) | Object identification device and object identification method | |
JP2018041273A (en) | Image recognition device, method for controlling image recognition device, and program | |
Azzopardi et al. | Fast gender recognition in videos using a novel descriptor based on the gradient magnitudes of facial landmarks | |
Sharma | Designing of face recognition system | |
Tin | Robust Algorithm for face detection in color images | |
Sithara et al. | A survey on face recognition technique | |
Vaquero et al. | Attribute-based people search | |
KR100862526B1 (en) | Method and system constructing moving image database and face recognition method and system using the same | |
Boruah et al. | Different face regions detection based facial expression recognition |