JP2014067301A - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP2014067301A JP2014067301A JP2012213195A JP2012213195A JP2014067301A JP 2014067301 A JP2014067301 A JP 2014067301A JP 2012213195 A JP2012213195 A JP 2012213195A JP 2012213195 A JP2012213195 A JP 2012213195A JP 2014067301 A JP2014067301 A JP 2014067301A
- Authority
- JP
- Japan
- Prior art keywords
- data
- face
- face image
- image portion
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、人物の顔に関する画像処理を実行する画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program for executing image processing relating to a human face.
近年では、顔画像を認識し、当該顔画像に係る人物名を推定する画像処理装置が開発されている。こうした顔画像の認識は、例えば犯罪の抑止や、個人認識による機器のユーザビリティ改善等に供されているのが現状である。 In recent years, an image processing apparatus that recognizes a face image and estimates a person name related to the face image has been developed. At present, such facial image recognition is used for, for example, crime prevention and device usability improvement by personal recognition.
なお、特許文献1には、顔の向きに基づいて顔を分類し、顔の向き別に重み係数を演算して、認識処理に供する例が開示されている(0080段落)。
Note that
しかしながら、上記従来の顔認識処理においては、顔の向きの重要性にも関わらず、認識処理に不向きな方向を向いた顔画像までも認識処理のキーとして利用することとしており、その際の精度向上のために負荷の高い処理が要求されているのが現状である。 However, in the conventional face recognition process, the face image facing in a direction unsuitable for the recognition process is used as a key for the recognition process in spite of the importance of the face orientation. At present, high-load processing is required for improvement.
本発明は、上記実情に鑑みて為されたもので、比較的簡易な動作により人物認識を行いつつ、処理速度を高めつつ、その精度を向上させることのできる画像処理装置及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and provides an image processing apparatus and program capable of improving the accuracy while increasing the processing speed while performing human recognition by a relatively simple operation. Is one of its purposes.
上記従来例の問題点を解決するための本発明は、画像処理装置であって、処理の対象となる画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する手段と、前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、を含み、認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供することとしたものである。 The present invention for solving the problems of the above conventional example is an image processing apparatus, which detects a face image portion from each image data included in a set of image data to be processed, and detects the detected face Means for outputting an estimation result of the face orientation of the image portion, means for selecting data relating to the face image portion in which the estimated face orientation is in a predetermined range as a clustering target, and the selected Means for executing a predetermined clustering process on the data relating to the face image portion included in the clustering target, and means for receiving input of identification information for each of the clusters obtained as a result of the clustering process; Of the data related to the face image portion included in each of the clusters, the data related to the face image portion to be a key is determined based on a predetermined condition. Means for associating and storing the key data and the identification information about the corresponding cluster, data relating to the face image included in the image data to be subjected to recognition processing, and the data serving as the key Is used for recognition processing for setting identification information in the image data to be subjected to the recognition processing.
ここで前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとを比較する手段であって、前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとの一致度を、各データ間の所定の比較条件に基づいて演算される類似度と、キーとなったデータにおける顔画像部分の向きに関係して定められる重みとを用いて演算することとしてもよい。 The means for comparing the data related to the face image subjected to the recognition processing and the data used as the key for each cluster, the data relating to the face image subjected to the recognition processing, and the cluster The degree of coincidence with the data used as the key for each data, the similarity calculated based on a predetermined comparison condition between the data, and the weight determined in relation to the orientation of the face image portion in the data used as the key It is good also as calculating using.
また本発明の一態様に係るプログラムは、コンピュータを、処理の対象となる画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する手段と、前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、として機能させ、認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供することとしたものである。 According to another aspect of the present invention, a program detects a face image portion from each image data included in a set of image data to be processed, and estimates a face orientation of the detected face image portion. Means for outputting a result; means for selecting data relating to a face image portion in which the estimated face orientation is in a predetermined range; and a face image included in the selected clustering target. Means for executing a predetermined clustering process on the data relating to the part; means for accepting input of identification information for each of the clusters obtained as a result of the clustering process; and faces included in each of the clusters From the data relating to the image portion, data relating to the face image portion to be a key is determined based on a predetermined condition, and the key and Means for associating and storing identification data about the corresponding cluster, and using the data relating to the face image included in the image data to be recognized and the key data Thus, the image data to be subjected to the recognition process is subjected to a recognition process for setting identification information.
本発明では予め定められた範囲の向きを向いている人物の顔画像を選択的に用いてクラスタリングを行い、比較の対象(キー)となる顔画像を定めることで、比較的簡易な動作により人物認識を行いつつ、処理速度を高め、またその精度を向上させることができる。 In the present invention, a face image of a person facing a predetermined range is selectively used for clustering, and a face image to be compared (key) is determined, so that the person can be operated by a relatively simple operation. While performing recognition, the processing speed can be increased and the accuracy can be improved.
本発明の実施の形態について図面を参照しながら説明する。本実施の形態の画像処理装置1は、図1に例示するように、制御部11、記憶部12、操作部13、表示部14、通信部15、及び入出力インタフェース16を含んで構成されている。ここで制御部11は、CPUなどのプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。
Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the
具体的に本実施の形態では制御部11は、処理の対象となる画像データを、通信部15または入出力インタフェース16を介して受け入れて、記憶部12に蓄積して格納する。また、この制御部11は、この処理の対象となった画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する処理を実行する。
Specifically, in the present embodiment, the
制御部11はさらに、ここで推定された顔の向きが、予め定められた範囲にある顔画像部分を抽出し、顔画像データ集合を生成する。そして制御部11は、ここで生成した顔画像データ集合に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する。
The
制御部11は、このクラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れ、また、各クラスタに含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなるデータをそれぞれ決定する。制御部11は、当該キーとなるデータと、対応するクラスタについて入力された識別情報とを関連付けて、顔データベースとして記憶部12に格納する。制御部11は、こうして生成した顔データベースを利用し、キーとなった顔画像部分に係るデータと、認識処理の対象となる画像データに含まれる顔画像に係るデータとを比較して、認識処理の対象となった画像データに識別情報を設定する認識処理に供する。この制御部11の処理については後に詳しく述べる。
As a result of the clustering process, the
記憶部12は、制御部11によって実行されるプログラムを格納している。このプログラムは、DVD-ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また、このプログラムは、ネットワーク等を介して配信され、この記憶部12に格納されたものであってもよい。
The
本実施の形態ではこの記憶部12には、画像データが蓄積して格納される。また、この記憶部12には、図2に例示するように、キーとなった顔画像部分に係るデータ(例えば当該顔画像部分から演算される特徴量)Fkと識別情報(ID)とを関連付けたエントリーを含む顔データベースが格納される。
In the present embodiment, image data is accumulated and stored in the
操作部13は、例えばマウスやキーボード等であってもよいし、赤外線入力インタフェースであってもよい。本実施の形態のある例では、この操作部13は、赤外線入力インタフェースであり、利用者の指示操作を受けたリモートコントローラが発信する、利用者の指示操作の内容を表す情報を受信する。そしてこの操作部13は、当該受信した指示操作の内容を表す情報を制御部11に出力する。
The
表示部14は、制御部11から入力される指示に従い、外部のディスプレイや家庭用テレビジョン装置に画像を出力するインタフェースである。通信部15は、例えばネットワークインタフェースであり、有線または無線にてネットワークに接続され、ネットワークを介して受信される情報を制御部11に出力する。またこの通信部15は、ネットワークを介して送信するべき情報の入力を制御部11から受けて、当該情報を、ネットワークを介して送信する。
The
入出力インタフェース16は、例えばSDカードスロットやUSB(Universal Serial Bus)インタフェース等である。この入出力インタフェース16は、例えば制御部11から入力される指示に従い、ここへ接続されたSDカードや、USBメモリ、USBハードディスクドライブ等から画像データを読み出して制御部11に出力する。また制御部11は、通信部15が、有線または無線のネットワークを介して受信した画像データを、処理の対象として受け入れることとしてもよい。
The input /
次に制御部11の動作について説明する。本実施の形態の制御部11は、機能的には、図3に例示するように、予備処理部20と、認識処理部30とを含んで構成される。ここで予備処理部20は、顔画像処理部21と、データ抽出部22と、クラスタリング処理部23と、識別情報取得部24と、キー抽出部25とを含む。
Next, the operation of the
顔画像処理部21は、与えられた画像データに含まれる顔画像部分を特定する処理と、特定した顔画像部分に含まれる顔の向きを推定する処理とを行う。この顔画像処理部21の実行する処理は広く知られたものであるのでここでの詳しい説明を省略するが、ここでは顔画像処理部21は、処理の対象となった画像データから抽出した顔画像部分の部分画像データと、当該部分画像データに含まれる顔の特徴量(顔画像部分に係るデータに相当する)とを出力するものとする。本実施の形態の顔画像処理部21は、画像データから複数の顔画像部分が抽出される場合は、各顔画像部分について、この部分画像データと特徴量のデータとを出力する。なお、特徴量のデータは、目と目の間の距離等、予め定めた顔認識上の特徴を表す数値を列挙したベクトル情報である。
The face
この顔画像処理部21は、抽出した顔画像部分の部分画像データに含まれる顔の向きを推定する処理を行い、その推定の結果を出力する。この顔画像処理部21により推定される顔の向きは正中線(冠状面と矢状面との交線)を法線とする横断面内の角度であるものとする。具体的に顔画像処理部21は、上記横断面内で上記正中線が通る点を中心とし、画像データの正面方向を0°の方向としたときの顔の向きをθとする。なお、画像データに撮像された人物が(当該人物からみて)左に向く方向をθの負の方向の角度、(当該人物からみて)右に向く方向をθの正の方向の角度などと定めておく。この顔の向きの角度は、一例としては、特定された顔画像部分全体に対し、当該顔画像内で認識される鼻の位置に基づいて決定できる。
The face
顔画像処理部21は、与えられた画像データから特定された顔画像部分ごとに、当該特定した顔画像部分の部分画像データと、特徴量のデータと、顔の向きを表す角度のデータとを出力することとなる。
For each face image portion specified from the given image data, the face
データ抽出部22は、顔画像処理部21が画像データごとに出力する顔画像部分の部分画像データと、当該顔画像部分に係る特徴量のデータと、顔の向きを表す角度のデータとの入力を受けて、これらを互いに関連付けたエントリーを記憶部12に蓄積して格納する(図4)。データ抽出部22は、この蓄積したエントリーのうち、顔画像処理部21により推定された顔の向きが、予め定められた範囲(θlth<θ<θhth)にあるエントリーをクラスタリング対象エントリーとして選択し、当該クラスタリング対象エントリーのそれぞれを特定する情報を、クラスタリング処理部23に出力する。
The
クラスタリング処理部23は、記憶部12に格納されたエントリーのうち、データ抽出部22が出力する情報で特定されるクラスタリング対象エントリーに含まれる特徴量をクラスタリングする。このクラスタリングの方法はどのような方法であってもよいが、一例としてはk-mean法等の広く知られた方法を用いることができる。また、特徴量の次数(特徴量ベクトルの次元数)を主成分分析等の方法で小さくしたうえでk-mean法等のクラスタリング処理を行っても構わない。
The
クラスタリング処理部23は、クラスタリング処理によりクラスタへ分類した各特徴量について、分類結果であるクラスタを特定する情報(クラスタに割り当てたクラスタごとに固有の番号でよい)を、対応する特徴量を含んだクラスタリング対象エントリーに関連付けて記録する。
The
識別情報取得部24は、クラスタリング処理部23によるクラスタリング処理が終了すると、各クラスタを特定するクラスタ特定情報に関連付けられたクラスタリング対象エントリーに含まれる、部分画像データを表示部14に出力して表示させ、当該表示した部分画像データに係る識別情報の入力を求める。ここで識別情報は例えば当該表示した部分画像データに撮像されている人物の名前である。この際、識別情報取得部24は、名前の入力を受け入れるほか、「名前をつけない」(無視する)等の操作を受け入れることとしてもよい。
When the clustering processing by the
キー抽出部25は、識別情報取得部24にて名前(識別情報)が入力された(無視されていない)部分画像データと同じクラスタ特定情報に関連付けられた特徴量のデータを、キーとなるデータとして抽出する。このキー抽出部25は、例えば識別情報取得部24にて名前が入力された部分画像データと同じクラスタ特定情報に関連付けられたクラスタリング対象エントリーのうち、特徴量のデータがクラスタの重心に近いものから順に予め定めた個数だけの特徴量のデータをキーとなるデータとして、これらの特徴量のデータ(Fk)と、各特徴量に関連して記憶部12に格納されている顔の向きを表す角度のデータと、入力された識別情報(名前:ID)とを関連付けて、顔データベースとして、記憶部12に格納する。
The
なお、顔データベースに格納するキーとなるデータは、特徴量のデータがクラスタの重心に近いものから順に予め定めた個数だけの特徴量の各々に関連付けられた顔画像部分の画像データを含んでもよい。このようにキーとなるデータとしてどのようなデータを選択するかは、次に述べる認識処理部30によって決定すればよい。認識処理部30は、顔画像処理部31と、データ比較部32と、重み演算部33とを含んで構成される。
The key data stored in the face database may include image data of face image portions associated with each of a predetermined number of feature amounts in order from the feature amount data close to the center of gravity of the cluster. . What kind of data is selected as key data in this way may be determined by the
認識処理部30の顔画像処理部31は、処理の対象となった画像データの入力を受け入れる。そして当該画像データから顔画像部分を抽出する。顔画像処理部31は、顔画像部分が抽出された場合は、当該顔画像部分(複数ある場合はその各々)について、予め定められた特徴量を生成する。ここで特徴量のデータは、予備処理部20の顔画像処理部21と同じように、目と目の間の距離等、予め定めた顔認識上の特徴を表す数値を列挙したベクトル情報である。この顔画像処理部31は、実質的には、予備処理部20の顔画像処理部21と同じプログラムモジュールによって実現されてもよい。
The face
データ比較部32は、記憶部12に格納された顔データベースに格納された、識別情報を順次選択する。データ比較部32は選択した識別情報に関連する特徴量を読み出して、当該読み出した特徴量に関連付けて顔データベースに格納されている顔の向きを表す角度のデータを重み演算部33に出力する。データ比較部32は、重み演算部33から重みのデータを受け入れると、読み出した特徴量と、顔画像処理部31が出力する特徴量の類似度を表す情報を生成する。この類似度を表す情報の生成処理も、顔画像の特徴量の比較処理として広く知られたものを採用できるので、ここでの詳細な説明を省略する。
The
データ比較部32は、一つの識別情報に関連付けられた特徴量のデータがm個である場合は、各特徴量のデータについて類似度R1,R2,…Rmを演算する。また、データ比較部32は、これらm個の特徴量の各々に関連付けられた顔の向きを表す角度のデータを用いて、重み演算部33からm個の重みのデータを取得する。データ比較部32は、上記生成したm個の特徴量の各々との類似度と、m個の特徴量の各々について重み演算部33が出力する重みのデータW1,W2,…Wmとの積(Ri×Wi)を用いて、一致度M(%)を、M=(Σ(Ri×Wi))/ΣWi(Σは、iが1からmまでの合計を算出することを意味する)と演算する。
When there are m pieces of feature quantity data associated with one piece of identification information, the
例えばm=2であり、2つの特徴量があるとき、一方の特徴量との類似度が「95」であり、この特徴量に関連付けられた顔の向きを表す角度のデータに基づき演算された重みのデータが「0.9」であるとする。また、他方の特徴量との類似度が「70」であり、この特徴量に関連付けられた顔の向きを表す角度のデータに基づき演算された重みのデータが「0.3」であるとする。 For example, when m = 2 and there are two feature amounts, the similarity to one feature amount is “95”, and the calculation is based on angle data representing the face direction associated with the feature amount. It is assumed that the weight data is “0.9”. Also, it is assumed that the degree of similarity with the other feature amount is “70”, and the weight data calculated based on the angle data representing the orientation of the face associated with the feature amount is “0.3”. .
するとこれらから演算される一致度Mは、(85.5+21)/1.2=88.75となる。つまり、各類似度が最終的に演算される一致度に寄与する程度は、各類似度の演算のもととなった特徴量に関連する重みに依存して制御される。 Then, the degree of coincidence M calculated from these is (85.5 + 21) /1.2=88.75. In other words, the degree to which each degree of similarity contributes to the finally calculated degree of coincidence is controlled depending on the weight associated with the feature quantity that is the basis of the calculation of each degree of similarity.
データ比較部32は、顔データベースに格納されている各識別情報について、上記の処理を行って一致度Mを算出する。そして算出した一致度のうち、最大の一致度を見出し、当該最大の一致度についての識別情報を出力する。なお、このデータ比較部32は、見出した最大の一致度の値が予め定めたしきい値より小さい場合は、一致する識別情報がなかった旨の情報を表示部14に表示してもよい。
The
このようにデータ比較部32は、認識処理の対象となった顔画像の画像データから求められた特徴量と、予備処理部20において過去にクラスタごとのキーとして抽出されたデータ(ここでは特徴量Fk)との一致度を演算する。
In this way, the
重み演算部33は、顔の向きを表す角度のデータの入力を受けて、この顔の向きを表す角度のデータに応じて予め定めた重みを表すデータを出力する。一例としてこの重み演算部33は、顔の向きが正面であるときの角度をθ=0として、θ=0のとき「1」、0<|θ|≦30のとき「0.9」、30<|θ|≦45のとき「0.5」、45<|θ|≦60のとき「0.3」、60<|θ|<90のとき「0.1」、|θ|≧90のとき「0」の重みのデータを出力する。またこの重み演算部33は、θに関する予め定めた関数値によって重みを演算し、重みのデータとして出力することとしてもよい。
The
本実施の形態の画像処理装置1は、以上の構成を備えてなり、次のように動作する。画像処理装置1は、利用者から人物が撮像されている写真や風景の写真など、種々の写真の画像データの取り込み指示を受け入れる。そして画像処理装置1は、当該指示に従い、写真の画像データを取り込んで記憶部12に蓄積して格納していく。
The
画像処理装置1には、顔部分を識別するためのプログラムモジュールがインストールされて実行可能となっており、画像処理装置1は、当該プログラムモジュールを用いて、蓄積している画像データのうち、過去に処理していないものを選択して、顔部分を識別する処理を行う。
A program module for identifying a face portion is installed in the
画像処理装置1は、図5に示すように、選択した画像データを、与えられた画像データとして、この画像データのうちから顔画像部分を特定する処理を実行する(S1)。画像処理装置1はさらに特定した顔画像部分に含まれる顔の向きのデータθを推定する(S2)。このθは、既に述べたように、顔が正面向きであるときをθ=0とし、人体の横断面に平行な面内の顔の向きを表す。つまり、真横を向いたときの角度がθ=90度となる。さらに画像処理装置1は、特定した顔画像部分に含まれる顔の特徴量のデータを生成する(S3)。
As shown in FIG. 5, the
なお、画像処理装置1は、画像データから顔画像部分が特定できなければ、当該画像データについてはそれ以上の処理を行わない。
Note that if the face image portion cannot be identified from the image data, the
画像処理装置1は、顔画像部分が特定できた画像データごとに、顔画像部分の部分画像データと、当該顔画像部分に係る特徴量のデータと、顔の向きを表す角度のデータとを互いに関連付けたエントリーを記憶部12に蓄積して格納する(S4)。そして画像処理装置1はさらに、この蓄積したエントリーのうち、顔の向きを表す角度のデータθが、予め定められた範囲(θlth<θ<θhth)にあるエントリーをクラスタリング対象エントリーとして選択する(S5)。ここで定めた範囲は、正面向きを表す「0」を含む範囲とする。例えばθlth=−30度、θhth=30度などとする。
For each piece of image data for which a face image portion has been identified, the
画像処理装置1は、クラスタリング対象エントリーに含まれる特徴量をクラスタリングする(S6)。画像処理装置1は、クラスタリングの結果として得られたクラスタを順次選択し、選択したクラスタに分類した各特徴量に関連付けられた部分画像データ(顔画像部分)を表示部14に出力して表示させ、当該クラスタに分類された画像の識別情報の入力を求める(S7)。例えば、当該表示した顔画像部分に含まれた人物の名前の入力を求める。
The
ここで名前等の識別情報が入力されると、画像処理装置1は、当該選択したクラスタに分類された特徴量を含んだエントリーから、顔の認識処理を実行するプログラムモジュールが顔画像の比較のために使用するデータを、キーとなるデータとして抽出する(S8)。具体的にはこのキーとなるデータは特徴量のデータFkと、顔の向きを表す角度のデータとである。また別の例では、エントリーに含まれるデータのすべてがキーとなるデータとして抽出されてもよい。
When identification information such as a name is input here, the
このキーとなるデータ(Fk)に対して、入力された名前等の識別情報を関連付け、顔データベースとして記憶部12に格納する(S9)。この顔データベースは、後に、撮像されている人物の名前を特定する処理(認識処理)に供される。一例として、撮像されている人物の顔画像を抽出し、当該抽出した顔画像の特徴量と、顔データベースに格納されているキーとなるデータとを比較して予め定めた演算方法で演算される一致度を算出し、最も一致する特徴量に対応するキーとなるデータを見出し、当該見出したデータに関連付けられた識別情報を参照して、撮像されている人物が当該識別情報で識別される人物であると設定する。
Identification data such as the input name is associated with the key data (Fk) and stored in the
さらに予備処理部20のデータ抽出部22は次の処理を行ってもよい。すなわち、既に述べたように、顔画像処理部21が画像データごとに出力する顔画像部分の部分画像データと、当該顔画像部分に係る特徴量のデータと、顔の向きを表す角度のデータとの入力を受けて、これらを互いに関連付けたエントリーを記憶部12に蓄積して格納する。データ抽出部22は、この蓄積したエントリーのうち、顔画像処理部21により推定された顔の向きが、予め定められた範囲(θlth<θ<θhth)にあるエントリーをクラスタリング対象エントリーとして選択する。
Furthermore, the
そしてデータ抽出部22は、選択したクラスタリング対象エントリーに含まれる特徴量を認識処理部30のデータ比較部32に出力する。この場合データ比較部32は、データ抽出部22から入力される特徴量と、予備処理部20において過去にクラスタごとのキーとして抽出され、顔データベースに格納されている特徴量との一致度を演算する。具体的にはデータ比較部32は、顔データベースに格納されている識別情報を逐次的に選択する。そしてデータ比較部32は、選択した識別情報に関連付けられた各特徴量(m個とする)のデータについて類似度R1,R2,…Rmを演算する。また、データ比較部32は、これらm個の特徴量のデータに関連付けて顔データベースに格納されている顔の向きを表す角度のデータを重み演算部33に出力する。
Then, the
データ比較部32は、演算した各特徴量と入力された特徴量との間の類似度R1,R2,…Rmと、m個の特徴量の各々について重み演算部33が出力する重みのデータW1,W2,…Wmとの積(Ri×Wi)を用いて、一致度M(%)を、M=(Σ(Ri×Wi))/ΣWi(Σは、iが1からmまでの合計を算出することを意味する)と演算して出力する。
The
データ抽出部22は、データ比較部32から、顔データベースに格納されている識別情報ごとに出力される一致度Mを取得して、いずれかの識別情報に関する特徴量を用いて演算された一致度Mが予め定めたしきい値を超えたか否かを判断する。そして予め定めたしきい値を超える一致度Mが見出されると、選択しているエントリーをクラスタリング対象エントリーから取り除く。
The
この処理はつまり、既に識別情報が設定されている特徴量を持つ顔部分画像の画像データについては、クラスタリングと識別情報の入力処理とを行わないよう制御することに相当する。 In other words, this processing corresponds to controlling the image data of the face partial image having the feature quantity for which the identification information is already set not to perform the clustering and the identification information input process.
以上、ここに開示した本実施の形態では、顔の向きが予め定めた範囲にない顔画像部分については認識処理のキーの生成に寄与しないよう制御される。そのため認識処理に不向きな方向を向いた顔画像部分が認識処理のキーとしてされないこととなり、比較的簡易な動作により人物認識を行いつつ、認識の精度を向上させることができる。また処理が比較的簡易なものであるので、処理速度を高めることにも寄与する。 As described above, in the present embodiment disclosed herein, control is performed so that a face image portion whose face orientation is not within a predetermined range does not contribute to generation of a key for recognition processing. Therefore, the face image portion facing in a direction unsuitable for the recognition process is not used as a key for the recognition process, and the recognition accuracy can be improved while performing the person recognition by a relatively simple operation. Further, since the process is relatively simple, it contributes to increasing the processing speed.
さらに、ここまでの説明で、クラスタリング対象エントリーとして選択する条件である、顔の向きの範囲(θlth<θ<θhth)を複数の区間に分け、各区間について、その区間に、推定された顔の向きがあるエントリーを、それぞれクラスタリング対象エントリーとして選択することとしてもよい。 Furthermore, in the above description, the range of face orientation (θlth <θ <θhth), which is a condition for selecting as a clustering target entry, is divided into a plurality of sections, and for each section, the estimated face Entries with orientations may be selected as clustering target entries.
この場合も画像処理装置1は、選択したクラスタリング対象エントリーに含まれる特徴量をクラスタリングする。そしてクラスタリングの結果として得られたクラスタを順次選択し、選択したクラスタに分類した各特徴量に関連付けられた部分画像データ(顔画像部分)を表示部14に出力して表示させて、そのクラスタにされた画像の識別情報の入力を求める。
Also in this case, the
ここで識別情報(名前等)が入力されると、画像処理装置1は、当該選択したクラスタに分類された特徴量を含んだエントリーから、顔の認識処理を実行するプログラムモジュールが顔画像の比較のために使用するデータを、キーとなるデータとして抽出する。
When the identification information (name, etc.) is input here, the
この例では、共通の識別情報に関連付けられるべきクラスタが複数、傾きごとに存在することとなる。そして各クラスタから認識処理に使われる特徴量のデータ等が抽出されるが、この場合、当該キーとなる特徴量と、認識処理の対象となった画像から得た特徴量とを比較する際には、キーとなる特徴量の抽出元であるクラスタの傾きの区間に応じて比較の演算に重みをつけてもよい。例えば正面向きからの傾きがより大きい区間に対応するクラスタほど、比較結果が否定的となるように(一致度の値が小さくなるように)調整された重みとする。 In this example, a plurality of clusters to be associated with the common identification information exist for each inclination. Then, feature value data used for recognition processing is extracted from each cluster. In this case, when comparing the feature value used as the key with the feature value obtained from the image subjected to recognition processing, May weight the comparison operation in accordance with the slope of the cluster from which the key feature quantity is extracted. For example, the weight is adjusted so that the comparison result becomes negative (so that the coincidence value becomes smaller) in a cluster corresponding to a section with a larger inclination from the front.
またこの認識処理の演算で用いる重みは、認識の処理の対象となった画像に含まれる顔の角度と、キーとなる特徴量の抽出元であるクラスタの傾きの区間(における所定の代表値(例えば区間の中央値))との差が大きいほど、比較結果が否定的となるように(一致度の値が小さくなるように)調整された重みとしてもよい。例えば、認識の処理の対象となった画像に含まれる顔の角度が45度であるとき、キーとなる特徴量の抽出元であるクラスタの傾きの区間の中央値が45度であるクラスタほど、比較結果が肯定的となるような重みが設定され、キーとなる特徴量の抽出元であるクラスタの傾きの区間の中央値が0度(正面向き)であるクラスタと、90度(横向き)であるクラスタとについては、同程度の比較結果となるよう、同じ重みが設定されることとしてもよい。 Further, the weight used in the calculation of the recognition process is a predetermined representative value (in the interval of the angle of the face included in the image subjected to the recognition process and the inclination of the cluster from which the key feature quantity is extracted ( For example, the weight may be adjusted so that the comparison result becomes negative as the difference from the median value of the section)) becomes larger (so that the value of coincidence becomes smaller). For example, when the angle of the face included in the image subjected to recognition processing is 45 degrees, the cluster whose median value of the slope of the cluster that is the extraction source of the key feature amount is 45 degrees, A weight is set so that the comparison result is affirmative, and a cluster having a central value of 0 degree (front direction) of a cluster inclination section from which a key feature quantity is extracted is 90 degrees (horizontal direction). With respect to a certain cluster, the same weight may be set so as to obtain a comparable comparison result.
1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 通信部、16 入出力インタフェース、20 予備処理部、21,31 顔画像処理部、22 データ抽出部、23 クラスタリング処理部、24 識別情報取得部、25 キー抽出部、30 認識処理部、32 データ比較部、33 重み演算部。
DESCRIPTION OF
Claims (3)
前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、
前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、
前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、
前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、
を含み、
認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供する画像処理装置。 Means for detecting a face image portion from each image data included in a set of image data to be processed and outputting an estimation result of the face orientation of the detected face image portion;
Means for selecting, as a clustering target, data relating to a face image portion in which the estimated face orientation is in a predetermined range;
Means for performing a predetermined clustering process on data relating to a face image portion included in the selected clustering target;
Means for accepting input of identification information for each of the clusters obtained as a result of the clustering process;
From the data relating to the face image portion included in each of the clusters, data relating to the face image portion serving as a key is determined based on a predetermined condition, and the cluster corresponding to the data serving as the key is identified. Means for associating and storing information;
Including
Image processing to be used for recognition processing for setting identification information in image data to be subjected to recognition processing using data relating to a face image included in image data to be subjected to recognition processing and the data used as the key apparatus.
前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとを比較する手段であって、前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとの一致度を、各データ間の所定の比較条件に基づいて演算される類似度と、キーとなったデータにおける顔画像部分の向きに関係して定められる重みとを用いて演算する画像処理装置。 The image processing apparatus according to claim 1,
A means for comparing the data related to the face image subjected to the recognition processing and the data used as a key for each cluster, the data relating to the face image subjected to the recognition processing, and the data for each cluster The degree of coincidence with the data used as the key is determined using a similarity calculated based on a predetermined comparison condition between the data and a weight determined in relation to the orientation of the face image portion in the data used as the key. An image processing device that performs calculations.
処理の対象となる画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する手段と、
前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、
前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、
前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、
前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、
として機能させ、
認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供するプログラム。
Computer
Means for detecting a face image portion from each image data included in a set of image data to be processed and outputting an estimation result of the face orientation of the detected face image portion;
Means for selecting, as a clustering target, data relating to a face image portion in which the estimated face orientation is in a predetermined range;
Means for performing a predetermined clustering process on data relating to a face image portion included in the selected clustering target;
Means for accepting input of identification information for each of the clusters obtained as a result of the clustering process;
From the data relating to the face image portion included in each of the clusters, data relating to the face image portion serving as a key is determined based on a predetermined condition, and the cluster corresponding to the data serving as the key is identified. Means for associating and storing information;
Function as
A program for use in recognition processing for setting identification information in image data to be subjected to recognition processing using data relating to a face image included in image data to be subjected to recognition processing and data used as the key.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012213195A JP5942747B2 (en) | 2012-09-26 | 2012-09-26 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012213195A JP5942747B2 (en) | 2012-09-26 | 2012-09-26 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014067301A true JP2014067301A (en) | 2014-04-17 |
JP5942747B2 JP5942747B2 (en) | 2016-06-29 |
Family
ID=50743614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012213195A Active JP5942747B2 (en) | 2012-09-26 | 2012-09-26 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5942747B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004086625A (en) * | 2002-08-27 | 2004-03-18 | Hitoshi Hongo | Customer information managing device |
JP2008009914A (en) * | 2006-06-30 | 2008-01-17 | Canon Inc | Image processor, image processing method, program and storage medium |
JP2011221791A (en) * | 2010-04-09 | 2011-11-04 | Sony Corp | Face clustering device, face clustering method, and program |
-
2012
- 2012-09-26 JP JP2012213195A patent/JP5942747B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004086625A (en) * | 2002-08-27 | 2004-03-18 | Hitoshi Hongo | Customer information managing device |
JP2008009914A (en) * | 2006-06-30 | 2008-01-17 | Canon Inc | Image processor, image processing method, program and storage medium |
JP2011221791A (en) * | 2010-04-09 | 2011-11-04 | Sony Corp | Face clustering device, face clustering method, and program |
Non-Patent Citations (1)
Title |
---|
栗田多喜夫 他3名: "向きに依存しない顔画像認識のための向きに依存した複数の識別器の統合", 電子情報通信学会技術研究報告[パターン認識・メディア理解]PRMU99-170, vol. 99, no. 514, JPN6016015339, 16 December 1999 (1999-12-16), JP, pages 35 - 42, ISSN: 0003303638 * |
Also Published As
Publication number | Publication date |
---|---|
JP5942747B2 (en) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6013241B2 (en) | Person recognition apparatus and method | |
US9171012B2 (en) | Facial image search system and facial image search method | |
JP4273359B2 (en) | Age estimation system and age estimation method | |
US8861801B2 (en) | Facial image search system and facial image search method | |
US9477876B2 (en) | Person recognition apparatus and method thereof | |
JP6040640B2 (en) | Image processing apparatus and program | |
JP5801601B2 (en) | Image recognition apparatus, image recognition apparatus control method, and program | |
JP5899179B2 (en) | Person recognition device, person recognition method, person recognition program, and recording medium thereof | |
US9122912B1 (en) | Sharing photos in a social network system | |
GB2463378A (en) | Registering faces and identification features from images received via a network | |
US8842880B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
JP5787686B2 (en) | Face recognition device and face recognition method | |
JP6573311B2 (en) | Face recognition system, face recognition server, and face recognition method | |
US20150379254A1 (en) | Authentication system that utilizes biometric information | |
JP4375570B2 (en) | Face recognition method and system | |
CN106682591B (en) | Face recognition method and device | |
JP6287827B2 (en) | Information processing apparatus, information processing method, and program | |
JP2007013480A (en) | Monitoring system, monitoring method, and monitoring program | |
CN112199530A (en) | Multi-dimensional face library picture automatic updating method, system, equipment and medium | |
JPH11161791A (en) | Individual identification device | |
JP5942747B2 (en) | Image processing apparatus and program | |
JP2012221053A (en) | Image recognition apparatus, image recognition method and program | |
CN109241942B (en) | Image processing method and device, face recognition equipment and storage medium | |
JP2008217335A (en) | Image sorting device, method, and program | |
JP2006236217A (en) | Person recognition system, person recognition method, and person recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5942747 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |