JP2014067301A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2014067301A
JP2014067301A JP2012213195A JP2012213195A JP2014067301A JP 2014067301 A JP2014067301 A JP 2014067301A JP 2012213195 A JP2012213195 A JP 2012213195A JP 2012213195 A JP2012213195 A JP 2012213195A JP 2014067301 A JP2014067301 A JP 2014067301A
Authority
JP
Japan
Prior art keywords
data
face
face image
image portion
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012213195A
Other languages
Japanese (ja)
Other versions
JP5942747B2 (en
Inventor
賢治 ▲高▼橋
Kenji Takahashi
Isato Kato
勇人 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Buffalo Inc
Original Assignee
Buffalo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Buffalo Inc filed Critical Buffalo Inc
Priority to JP2012213195A priority Critical patent/JP5942747B2/en
Publication of JP2014067301A publication Critical patent/JP2014067301A/en
Application granted granted Critical
Publication of JP5942747B2 publication Critical patent/JP5942747B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of increasing a processing speed and improving accuracy thereof, while performing person recognition with relatively simple operation, and a program.SOLUTION: An image processing apparatus detects a face image portion included in a collection of image data to be a processing object from each of the collection of image data, estimates a direction of the face in the detected face image portion, selects data related to a face image portion in which the estimated direction of a face falls within a predetermined range as a clustering object, executes predetermined clustering processing to the data related to the face image portion included in the selected clustering object, and receives input of identification information from each of obtained clusters.

Description

本発明は、人物の顔に関する画像処理を実行する画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program for executing image processing relating to a human face.

近年では、顔画像を認識し、当該顔画像に係る人物名を推定する画像処理装置が開発されている。こうした顔画像の認識は、例えば犯罪の抑止や、個人認識による機器のユーザビリティ改善等に供されているのが現状である。   In recent years, an image processing apparatus that recognizes a face image and estimates a person name related to the face image has been developed. At present, such facial image recognition is used for, for example, crime prevention and device usability improvement by personal recognition.

なお、特許文献1には、顔の向きに基づいて顔を分類し、顔の向き別に重み係数を演算して、認識処理に供する例が開示されている(0080段落)。   Note that Patent Document 1 discloses an example in which faces are classified based on the face orientation, weight coefficients are calculated for each face orientation, and used for recognition processing (paragraph 0080).

特開2011-221791号公報JP 2011-221791 A

しかしながら、上記従来の顔認識処理においては、顔の向きの重要性にも関わらず、認識処理に不向きな方向を向いた顔画像までも認識処理のキーとして利用することとしており、その際の精度向上のために負荷の高い処理が要求されているのが現状である。   However, in the conventional face recognition process, the face image facing in a direction unsuitable for the recognition process is used as a key for the recognition process in spite of the importance of the face orientation. At present, high-load processing is required for improvement.

本発明は、上記実情に鑑みて為されたもので、比較的簡易な動作により人物認識を行いつつ、処理速度を高めつつ、その精度を向上させることのできる画像処理装置及びプログラムを提供することを、その目的の一つとする。   The present invention has been made in view of the above circumstances, and provides an image processing apparatus and program capable of improving the accuracy while increasing the processing speed while performing human recognition by a relatively simple operation. Is one of its purposes.

上記従来例の問題点を解決するための本発明は、画像処理装置であって、処理の対象となる画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する手段と、前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、を含み、認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供することとしたものである。   The present invention for solving the problems of the above conventional example is an image processing apparatus, which detects a face image portion from each image data included in a set of image data to be processed, and detects the detected face Means for outputting an estimation result of the face orientation of the image portion, means for selecting data relating to the face image portion in which the estimated face orientation is in a predetermined range as a clustering target, and the selected Means for executing a predetermined clustering process on the data relating to the face image portion included in the clustering target, and means for receiving input of identification information for each of the clusters obtained as a result of the clustering process; Of the data related to the face image portion included in each of the clusters, the data related to the face image portion to be a key is determined based on a predetermined condition. Means for associating and storing the key data and the identification information about the corresponding cluster, data relating to the face image included in the image data to be subjected to recognition processing, and the data serving as the key Is used for recognition processing for setting identification information in the image data to be subjected to the recognition processing.

ここで前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとを比較する手段であって、前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとの一致度を、各データ間の所定の比較条件に基づいて演算される類似度と、キーとなったデータにおける顔画像部分の向きに関係して定められる重みとを用いて演算することとしてもよい。   The means for comparing the data related to the face image subjected to the recognition processing and the data used as the key for each cluster, the data relating to the face image subjected to the recognition processing, and the cluster The degree of coincidence with the data used as the key for each data, the similarity calculated based on a predetermined comparison condition between the data, and the weight determined in relation to the orientation of the face image portion in the data used as the key It is good also as calculating using.

また本発明の一態様に係るプログラムは、コンピュータを、処理の対象となる画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する手段と、前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、として機能させ、認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供することとしたものである。   According to another aspect of the present invention, a program detects a face image portion from each image data included in a set of image data to be processed, and estimates a face orientation of the detected face image portion. Means for outputting a result; means for selecting data relating to a face image portion in which the estimated face orientation is in a predetermined range; and a face image included in the selected clustering target. Means for executing a predetermined clustering process on the data relating to the part; means for accepting input of identification information for each of the clusters obtained as a result of the clustering process; and faces included in each of the clusters From the data relating to the image portion, data relating to the face image portion to be a key is determined based on a predetermined condition, and the key and Means for associating and storing identification data about the corresponding cluster, and using the data relating to the face image included in the image data to be recognized and the key data Thus, the image data to be subjected to the recognition process is subjected to a recognition process for setting identification information.

本発明では予め定められた範囲の向きを向いている人物の顔画像を選択的に用いてクラスタリングを行い、比較の対象(キー)となる顔画像を定めることで、比較的簡易な動作により人物認識を行いつつ、処理速度を高め、またその精度を向上させることができる。   In the present invention, a face image of a person facing a predetermined range is selectively used for clustering, and a face image to be compared (key) is determined, so that the person can be operated by a relatively simple operation. While performing recognition, the processing speed can be increased and the accuracy can be improved.

本発明の実施の形態に係る画像処理装置の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置が生成する顔データベースの例を表す説明図である。It is explanatory drawing showing the example of the face database which the image processing apparatus which concerns on embodiment of this invention produces | generates. 本発明の実施の形態に係る画像処理装置の例を表す機能ブロック図である。It is a functional block diagram showing the example of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置が顔データベースの生成中に記録するデータの内容例を表す説明図である。It is explanatory drawing showing the example of the content of the data which the image processing apparatus which concerns on embodiment of this invention records during the production | generation of a face database. 本発明の実施の形態に係る画像処理装置の動作例を表すフローチャート図である。It is a flowchart figure showing the example of operation of the image processing device concerning an embodiment of the invention.

本発明の実施の形態について図面を参照しながら説明する。本実施の形態の画像処理装置1は、図1に例示するように、制御部11、記憶部12、操作部13、表示部14、通信部15、及び入出力インタフェース16を含んで構成されている。ここで制御部11は、CPUなどのプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。   Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the image processing apparatus 1 according to the present embodiment includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, a communication unit 15, and an input / output interface 16. Yes. Here, the control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12.

具体的に本実施の形態では制御部11は、処理の対象となる画像データを、通信部15または入出力インタフェース16を介して受け入れて、記憶部12に蓄積して格納する。また、この制御部11は、この処理の対象となった画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する処理を実行する。   Specifically, in the present embodiment, the control unit 11 accepts image data to be processed via the communication unit 15 or the input / output interface 16 and accumulates and stores the image data in the storage unit 12. Further, the control unit 11 detects a face image portion from each image data included in the set of image data to be processed, and outputs a face direction estimation result of the detected face image portion. Execute the process.

制御部11はさらに、ここで推定された顔の向きが、予め定められた範囲にある顔画像部分を抽出し、顔画像データ集合を生成する。そして制御部11は、ここで生成した顔画像データ集合に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する。   The control unit 11 further extracts a face image portion whose face direction estimated here is within a predetermined range, and generates a face image data set. And the control part 11 performs a predetermined | prescribed clustering process with respect to the data which concern on the face image part contained in the face image data set produced | generated here.

制御部11は、このクラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れ、また、各クラスタに含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなるデータをそれぞれ決定する。制御部11は、当該キーとなるデータと、対応するクラスタについて入力された識別情報とを関連付けて、顔データベースとして記憶部12に格納する。制御部11は、こうして生成した顔データベースを利用し、キーとなった顔画像部分に係るデータと、認識処理の対象となる画像データに含まれる顔画像に係るデータとを比較して、認識処理の対象となった画像データに識別情報を設定する認識処理に供する。この制御部11の処理については後に詳しく述べる。   As a result of the clustering process, the control unit 11 accepts input of identification information for each of the obtained clusters, and based on a predetermined condition from the data related to the face image portion included in each cluster. To determine the key data. The control unit 11 associates the data serving as the key with the identification information input for the corresponding cluster and stores it in the storage unit 12 as a face database. Using the face database generated in this way, the control unit 11 compares the data related to the face image part that is the key with the data related to the face image included in the image data that is the target of the recognition process, and performs the recognition process. It is subjected to a recognition process for setting identification information to the image data that is the target of the above. The processing of the control unit 11 will be described in detail later.

記憶部12は、制御部11によって実行されるプログラムを格納している。このプログラムは、DVD-ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また、このプログラムは、ネットワーク等を介して配信され、この記憶部12に格納されたものであってもよい。   The storage unit 12 stores a program executed by the control unit 11. The program may be provided by being stored in a computer-readable recording medium such as a DVD-ROM (Digital Versatile Disc Read Only Memory) and stored in the storage unit 12. The program may be distributed via a network or the like and stored in the storage unit 12.

本実施の形態ではこの記憶部12には、画像データが蓄積して格納される。また、この記憶部12には、図2に例示するように、キーとなった顔画像部分に係るデータ(例えば当該顔画像部分から演算される特徴量)Fkと識別情報(ID)とを関連付けたエントリーを含む顔データベースが格納される。   In the present embodiment, image data is accumulated and stored in the storage unit 12. Further, as illustrated in FIG. 2, the storage unit 12 associates data (for example, a feature amount calculated from the face image part) Fk and identification information (ID) related to the face image part as a key. The face database containing the entries is stored.

操作部13は、例えばマウスやキーボード等であってもよいし、赤外線入力インタフェースであってもよい。本実施の形態のある例では、この操作部13は、赤外線入力インタフェースであり、利用者の指示操作を受けたリモートコントローラが発信する、利用者の指示操作の内容を表す情報を受信する。そしてこの操作部13は、当該受信した指示操作の内容を表す情報を制御部11に出力する。   The operation unit 13 may be, for example, a mouse or a keyboard, or may be an infrared input interface. In an example of the present embodiment, the operation unit 13 is an infrared input interface, and receives information representing the content of the user's instruction operation transmitted from the remote controller that has received the user's instruction operation. The operation unit 13 outputs information representing the contents of the received instruction operation to the control unit 11.

表示部14は、制御部11から入力される指示に従い、外部のディスプレイや家庭用テレビジョン装置に画像を出力するインタフェースである。通信部15は、例えばネットワークインタフェースであり、有線または無線にてネットワークに接続され、ネットワークを介して受信される情報を制御部11に出力する。またこの通信部15は、ネットワークを介して送信するべき情報の入力を制御部11から受けて、当該情報を、ネットワークを介して送信する。   The display unit 14 is an interface that outputs an image to an external display or a home television device in accordance with an instruction input from the control unit 11. The communication unit 15 is a network interface, for example, and is connected to the network by wire or wirelessly and outputs information received via the network to the control unit 11. Further, the communication unit 15 receives an input of information to be transmitted via the network from the control unit 11 and transmits the information via the network.

入出力インタフェース16は、例えばSDカードスロットやUSB(Universal Serial Bus)インタフェース等である。この入出力インタフェース16は、例えば制御部11から入力される指示に従い、ここへ接続されたSDカードや、USBメモリ、USBハードディスクドライブ等から画像データを読み出して制御部11に出力する。また制御部11は、通信部15が、有線または無線のネットワークを介して受信した画像データを、処理の対象として受け入れることとしてもよい。   The input / output interface 16 is, for example, an SD card slot or a USB (Universal Serial Bus) interface. The input / output interface 16 reads out image data from an SD card, a USB memory, a USB hard disk drive, or the like connected thereto according to an instruction input from the control unit 11, for example, and outputs the image data to the control unit 11. The control unit 11 may accept image data received by the communication unit 15 via a wired or wireless network as a processing target.

次に制御部11の動作について説明する。本実施の形態の制御部11は、機能的には、図3に例示するように、予備処理部20と、認識処理部30とを含んで構成される。ここで予備処理部20は、顔画像処理部21と、データ抽出部22と、クラスタリング処理部23と、識別情報取得部24と、キー抽出部25とを含む。   Next, the operation of the control unit 11 will be described. The control unit 11 of the present embodiment is functionally configured to include a preliminary processing unit 20 and a recognition processing unit 30 as illustrated in FIG. Here, the preliminary processing unit 20 includes a face image processing unit 21, a data extraction unit 22, a clustering processing unit 23, an identification information acquisition unit 24, and a key extraction unit 25.

顔画像処理部21は、与えられた画像データに含まれる顔画像部分を特定する処理と、特定した顔画像部分に含まれる顔の向きを推定する処理とを行う。この顔画像処理部21の実行する処理は広く知られたものであるのでここでの詳しい説明を省略するが、ここでは顔画像処理部21は、処理の対象となった画像データから抽出した顔画像部分の部分画像データと、当該部分画像データに含まれる顔の特徴量(顔画像部分に係るデータに相当する)とを出力するものとする。本実施の形態の顔画像処理部21は、画像データから複数の顔画像部分が抽出される場合は、各顔画像部分について、この部分画像データと特徴量のデータとを出力する。なお、特徴量のデータは、目と目の間の距離等、予め定めた顔認識上の特徴を表す数値を列挙したベクトル情報である。   The face image processing unit 21 performs a process for specifying a face image part included in the given image data and a process for estimating the orientation of the face included in the specified face image part. Since the processing executed by the face image processing unit 21 is widely known, a detailed description thereof will be omitted here, but here the face image processing unit 21 is a face extracted from the image data to be processed. Assume that partial image data of an image portion and a facial feature amount (corresponding to data relating to the face image portion) included in the partial image data are output. When a plurality of face image portions are extracted from the image data, the face image processing unit 21 according to the present embodiment outputs the partial image data and feature amount data for each face image portion. Note that the feature amount data is vector information that enumerates numerical values representing predetermined facial recognition features such as the distance between eyes.

この顔画像処理部21は、抽出した顔画像部分の部分画像データに含まれる顔の向きを推定する処理を行い、その推定の結果を出力する。この顔画像処理部21により推定される顔の向きは正中線(冠状面と矢状面との交線)を法線とする横断面内の角度であるものとする。具体的に顔画像処理部21は、上記横断面内で上記正中線が通る点を中心とし、画像データの正面方向を0°の方向としたときの顔の向きをθとする。なお、画像データに撮像された人物が(当該人物からみて)左に向く方向をθの負の方向の角度、(当該人物からみて)右に向く方向をθの正の方向の角度などと定めておく。この顔の向きの角度は、一例としては、特定された顔画像部分全体に対し、当該顔画像内で認識される鼻の位置に基づいて決定できる。   The face image processing unit 21 performs processing for estimating the orientation of the face included in the extracted partial image data of the face image portion, and outputs the estimation result. It is assumed that the face orientation estimated by the face image processing unit 21 is an angle in a cross section having a normal line as a midline (intersection line between a coronal plane and a sagittal plane). Specifically, the face image processing unit 21 sets θ as the face orientation when the front direction of the image data is set to a direction of 0 °, centering on the point where the median line passes in the cross section. The direction in which the person imaged in the image data faces to the left (as viewed from the person) is defined as the angle in the negative direction of θ, and the direction in the right direction (as viewed from the person) is defined as the angle in the positive direction of θ. Keep it. As an example, the face orientation angle can be determined based on the position of the nose recognized in the face image for the entire specified face image portion.

顔画像処理部21は、与えられた画像データから特定された顔画像部分ごとに、当該特定した顔画像部分の部分画像データと、特徴量のデータと、顔の向きを表す角度のデータとを出力することとなる。   For each face image portion specified from the given image data, the face image processing unit 21 obtains partial image data of the specified face image portion, feature amount data, and angle data representing the face direction. Will be output.

データ抽出部22は、顔画像処理部21が画像データごとに出力する顔画像部分の部分画像データと、当該顔画像部分に係る特徴量のデータと、顔の向きを表す角度のデータとの入力を受けて、これらを互いに関連付けたエントリーを記憶部12に蓄積して格納する(図4)。データ抽出部22は、この蓄積したエントリーのうち、顔画像処理部21により推定された顔の向きが、予め定められた範囲(θlth<θ<θhth)にあるエントリーをクラスタリング対象エントリーとして選択し、当該クラスタリング対象エントリーのそれぞれを特定する情報を、クラスタリング処理部23に出力する。   The data extraction unit 22 inputs the partial image data of the face image portion output by the face image processing unit 21 for each image data, the feature amount data related to the face image portion, and the angle data representing the face direction. In response, the entries associated with each other are accumulated and stored in the storage unit 12 (FIG. 4). The data extraction unit 22 selects an entry having a face orientation estimated by the face image processing unit 21 within a predetermined range (θlth <θ <θhth) as the clustering target entry from the accumulated entries. Information specifying each clustering target entry is output to the clustering processing unit 23.

クラスタリング処理部23は、記憶部12に格納されたエントリーのうち、データ抽出部22が出力する情報で特定されるクラスタリング対象エントリーに含まれる特徴量をクラスタリングする。このクラスタリングの方法はどのような方法であってもよいが、一例としてはk-mean法等の広く知られた方法を用いることができる。また、特徴量の次数(特徴量ベクトルの次元数)を主成分分析等の方法で小さくしたうえでk-mean法等のクラスタリング処理を行っても構わない。   The clustering processing unit 23 clusters the feature amounts included in the clustering target entry specified by the information output from the data extraction unit 22 among the entries stored in the storage unit 12. This clustering method may be any method, but as an example, a widely known method such as a k-mean method can be used. Further, the order of the feature quantity (the dimension number of the feature quantity vector) may be reduced by a method such as principal component analysis and then clustering processing such as k-mean method may be performed.

クラスタリング処理部23は、クラスタリング処理によりクラスタへ分類した各特徴量について、分類結果であるクラスタを特定する情報(クラスタに割り当てたクラスタごとに固有の番号でよい)を、対応する特徴量を含んだクラスタリング対象エントリーに関連付けて記録する。   The clustering processing unit 23 includes, for each feature quantity classified into clusters by the clustering process, information for identifying a cluster as a classification result (which may be a unique number for each cluster assigned to the cluster) including the corresponding feature quantity. Record in association with the clustering target entry.

識別情報取得部24は、クラスタリング処理部23によるクラスタリング処理が終了すると、各クラスタを特定するクラスタ特定情報に関連付けられたクラスタリング対象エントリーに含まれる、部分画像データを表示部14に出力して表示させ、当該表示した部分画像データに係る識別情報の入力を求める。ここで識別情報は例えば当該表示した部分画像データに撮像されている人物の名前である。この際、識別情報取得部24は、名前の入力を受け入れるほか、「名前をつけない」(無視する)等の操作を受け入れることとしてもよい。   When the clustering processing by the clustering processing unit 23 ends, the identification information acquisition unit 24 outputs the partial image data included in the clustering target entry associated with the cluster specifying information for specifying each cluster to the display unit 14 for display. The input of identification information related to the displayed partial image data is requested. Here, the identification information is, for example, the name of the person imaged in the displayed partial image data. At this time, the identification information acquisition unit 24 may accept an operation such as “do not name” (ignore) in addition to accepting an input of a name.

キー抽出部25は、識別情報取得部24にて名前(識別情報)が入力された(無視されていない)部分画像データと同じクラスタ特定情報に関連付けられた特徴量のデータを、キーとなるデータとして抽出する。このキー抽出部25は、例えば識別情報取得部24にて名前が入力された部分画像データと同じクラスタ特定情報に関連付けられたクラスタリング対象エントリーのうち、特徴量のデータがクラスタの重心に近いものから順に予め定めた個数だけの特徴量のデータをキーとなるデータとして、これらの特徴量のデータ(Fk)と、各特徴量に関連して記憶部12に格納されている顔の向きを表す角度のデータと、入力された識別情報(名前:ID)とを関連付けて、顔データベースとして、記憶部12に格納する。   The key extraction unit 25 uses the feature amount data associated with the same cluster identification information as the partial image data whose name (identification information) is input (not ignored) by the identification information acquisition unit 24 as key data. Extract as The key extraction unit 25 is configured such that, for example, among the clustering target entries associated with the same cluster identification information as the partial image data whose name is input by the identification information acquisition unit 24, the feature amount data is close to the center of gravity of the cluster. Using the feature quantity data of a predetermined number in order as key data, these feature quantity data (Fk) and an angle representing the orientation of the face stored in the storage unit 12 in relation to each feature quantity And the input identification information (name: ID) are stored in the storage unit 12 as a face database.

なお、顔データベースに格納するキーとなるデータは、特徴量のデータがクラスタの重心に近いものから順に予め定めた個数だけの特徴量の各々に関連付けられた顔画像部分の画像データを含んでもよい。このようにキーとなるデータとしてどのようなデータを選択するかは、次に述べる認識処理部30によって決定すればよい。認識処理部30は、顔画像処理部31と、データ比較部32と、重み演算部33とを含んで構成される。   The key data stored in the face database may include image data of face image portions associated with each of a predetermined number of feature amounts in order from the feature amount data close to the center of gravity of the cluster. . What kind of data is selected as key data in this way may be determined by the recognition processing unit 30 described below. The recognition processing unit 30 includes a face image processing unit 31, a data comparison unit 32, and a weight calculation unit 33.

認識処理部30の顔画像処理部31は、処理の対象となった画像データの入力を受け入れる。そして当該画像データから顔画像部分を抽出する。顔画像処理部31は、顔画像部分が抽出された場合は、当該顔画像部分(複数ある場合はその各々)について、予め定められた特徴量を生成する。ここで特徴量のデータは、予備処理部20の顔画像処理部21と同じように、目と目の間の距離等、予め定めた顔認識上の特徴を表す数値を列挙したベクトル情報である。この顔画像処理部31は、実質的には、予備処理部20の顔画像処理部21と同じプログラムモジュールによって実現されてもよい。   The face image processing unit 31 of the recognition processing unit 30 accepts input of image data to be processed. Then, a face image portion is extracted from the image data. When the face image portion is extracted, the face image processing unit 31 generates a predetermined feature amount for the face image portion (if there are a plurality of face image portions). Here, the feature amount data is vector information that enumerates numerical values representing predetermined facial recognition features such as the distance between eyes, like the face image processing unit 21 of the preliminary processing unit 20. . The face image processing unit 31 may be substantially realized by the same program module as the face image processing unit 21 of the preliminary processing unit 20.

データ比較部32は、記憶部12に格納された顔データベースに格納された、識別情報を順次選択する。データ比較部32は選択した識別情報に関連する特徴量を読み出して、当該読み出した特徴量に関連付けて顔データベースに格納されている顔の向きを表す角度のデータを重み演算部33に出力する。データ比較部32は、重み演算部33から重みのデータを受け入れると、読み出した特徴量と、顔画像処理部31が出力する特徴量の類似度を表す情報を生成する。この類似度を表す情報の生成処理も、顔画像の特徴量の比較処理として広く知られたものを採用できるので、ここでの詳細な説明を省略する。   The data comparison unit 32 sequentially selects identification information stored in the face database stored in the storage unit 12. The data comparison unit 32 reads the feature amount related to the selected identification information, and outputs the angle data representing the face orientation stored in the face database in association with the read feature amount to the weight calculation unit 33. When the data comparison unit 32 accepts the weight data from the weight calculation unit 33, the data comparison unit 32 generates information indicating the similarity between the read feature amount and the feature amount output by the face image processing unit 31. The processing for generating the information indicating the similarity can be a well-known processing for comparing the feature amount of the face image, and a detailed description thereof is omitted here.

データ比較部32は、一つの識別情報に関連付けられた特徴量のデータがm個である場合は、各特徴量のデータについて類似度R1,R2,…Rmを演算する。また、データ比較部32は、これらm個の特徴量の各々に関連付けられた顔の向きを表す角度のデータを用いて、重み演算部33からm個の重みのデータを取得する。データ比較部32は、上記生成したm個の特徴量の各々との類似度と、m個の特徴量の各々について重み演算部33が出力する重みのデータW1,W2,…Wmとの積(Ri×Wi)を用いて、一致度M(%)を、M=(Σ(Ri×Wi))/ΣWi(Σは、iが1からmまでの合計を算出することを意味する)と演算する。   When there are m pieces of feature quantity data associated with one piece of identification information, the data comparison unit 32 calculates similarity R1, R2,... Rm for each piece of feature quantity data. Further, the data comparison unit 32 acquires m weight data from the weight calculation unit 33 using the angle data representing the orientation of the face associated with each of the m feature quantities. The data comparison unit 32 is a product of the similarity with each of the generated m feature values and the weight data W1, W2,... Wm output by the weight calculation unit 33 for each of the m feature values ( Using R i × W i, the degree of coincidence M (%) is calculated as M = (Σ (R i × W i)) / ΣW i (Σ means that i is the sum of 1 to m). To do.

例えばm=2であり、2つの特徴量があるとき、一方の特徴量との類似度が「95」であり、この特徴量に関連付けられた顔の向きを表す角度のデータに基づき演算された重みのデータが「0.9」であるとする。また、他方の特徴量との類似度が「70」であり、この特徴量に関連付けられた顔の向きを表す角度のデータに基づき演算された重みのデータが「0.3」であるとする。   For example, when m = 2 and there are two feature amounts, the similarity to one feature amount is “95”, and the calculation is based on angle data representing the face direction associated with the feature amount. It is assumed that the weight data is “0.9”. Also, it is assumed that the degree of similarity with the other feature amount is “70”, and the weight data calculated based on the angle data representing the orientation of the face associated with the feature amount is “0.3”. .

するとこれらから演算される一致度Mは、(85.5+21)/1.2=88.75となる。つまり、各類似度が最終的に演算される一致度に寄与する程度は、各類似度の演算のもととなった特徴量に関連する重みに依存して制御される。   Then, the degree of coincidence M calculated from these is (85.5 + 21) /1.2=88.75. In other words, the degree to which each degree of similarity contributes to the finally calculated degree of coincidence is controlled depending on the weight associated with the feature quantity that is the basis of the calculation of each degree of similarity.

データ比較部32は、顔データベースに格納されている各識別情報について、上記の処理を行って一致度Mを算出する。そして算出した一致度のうち、最大の一致度を見出し、当該最大の一致度についての識別情報を出力する。なお、このデータ比較部32は、見出した最大の一致度の値が予め定めたしきい値より小さい場合は、一致する識別情報がなかった旨の情報を表示部14に表示してもよい。   The data comparison unit 32 calculates the degree of coincidence M by performing the above processing for each piece of identification information stored in the face database. Of the calculated degrees of coincidence, the maximum degree of coincidence is found and identification information about the maximum degree of coincidence is output. The data comparison unit 32 may display information indicating that there is no matching identification information on the display unit 14 when the found maximum matching value is smaller than a predetermined threshold value.

このようにデータ比較部32は、認識処理の対象となった顔画像の画像データから求められた特徴量と、予備処理部20において過去にクラスタごとのキーとして抽出されたデータ(ここでは特徴量Fk)との一致度を演算する。   In this way, the data comparison unit 32 determines the feature amount obtained from the image data of the face image that is the object of recognition processing, and the data previously extracted as a key for each cluster in the preliminary processing unit 20 (here, the feature amount). The degree of coincidence with Fk) is calculated.

重み演算部33は、顔の向きを表す角度のデータの入力を受けて、この顔の向きを表す角度のデータに応じて予め定めた重みを表すデータを出力する。一例としてこの重み演算部33は、顔の向きが正面であるときの角度をθ=0として、θ=0のとき「1」、0<|θ|≦30のとき「0.9」、30<|θ|≦45のとき「0.5」、45<|θ|≦60のとき「0.3」、60<|θ|<90のとき「0.1」、|θ|≧90のとき「0」の重みのデータを出力する。またこの重み演算部33は、θに関する予め定めた関数値によって重みを演算し、重みのデータとして出力することとしてもよい。   The weight calculator 33 receives input of angle data representing the face direction, and outputs data representing a predetermined weight according to the angle data representing the face direction. As an example, the weight calculation unit 33 assumes that the angle when the face is in front is θ = 0, “1” when θ = 0, “0.9” when 0 <| θ | ≦ 30, 30 <| “0.5” when θ | ≦ 45, “0.3” when 45 <| θ | ≦ 60, “0.1” when 60 <| θ | <90, “0” when | θ | ≧ 90 Is output. The weight calculator 33 may calculate a weight using a predetermined function value related to θ and output the weight as data.

本実施の形態の画像処理装置1は、以上の構成を備えてなり、次のように動作する。画像処理装置1は、利用者から人物が撮像されている写真や風景の写真など、種々の写真の画像データの取り込み指示を受け入れる。そして画像処理装置1は、当該指示に従い、写真の画像データを取り込んで記憶部12に蓄積して格納していく。   The image processing apparatus 1 according to the present embodiment has the above-described configuration and operates as follows. The image processing apparatus 1 accepts an instruction to import image data of various photographs such as a photograph in which a person is captured or a landscape photograph. Then, in accordance with the instruction, the image processing apparatus 1 captures the image data of the photograph, accumulates it in the storage unit 12, and stores it.

画像処理装置1には、顔部分を識別するためのプログラムモジュールがインストールされて実行可能となっており、画像処理装置1は、当該プログラムモジュールを用いて、蓄積している画像データのうち、過去に処理していないものを選択して、顔部分を識別する処理を行う。   A program module for identifying a face portion is installed in the image processing apparatus 1 and can be executed. The image processing apparatus 1 uses the program module to store past image data among the accumulated image data. Then, processing that identifies a face portion is performed by selecting an unprocessed item.

画像処理装置1は、図5に示すように、選択した画像データを、与えられた画像データとして、この画像データのうちから顔画像部分を特定する処理を実行する(S1)。画像処理装置1はさらに特定した顔画像部分に含まれる顔の向きのデータθを推定する(S2)。このθは、既に述べたように、顔が正面向きであるときをθ=0とし、人体の横断面に平行な面内の顔の向きを表す。つまり、真横を向いたときの角度がθ=90度となる。さらに画像処理装置1は、特定した顔画像部分に含まれる顔の特徴量のデータを生成する(S3)。   As shown in FIG. 5, the image processing apparatus 1 uses the selected image data as given image data, and executes a process of specifying a face image portion from the image data (S1). The image processing apparatus 1 further estimates face orientation data θ included in the specified face image portion (S2). As described above, θ represents θ = 0 when the face is facing the front, and represents the orientation of the face in a plane parallel to the cross section of the human body. That is, the angle when facing sideways is θ = 90 degrees. Furthermore, the image processing apparatus 1 generates facial feature data included in the identified facial image portion (S3).

なお、画像処理装置1は、画像データから顔画像部分が特定できなければ、当該画像データについてはそれ以上の処理を行わない。   Note that if the face image portion cannot be identified from the image data, the image processing apparatus 1 does not perform any further processing on the image data.

画像処理装置1は、顔画像部分が特定できた画像データごとに、顔画像部分の部分画像データと、当該顔画像部分に係る特徴量のデータと、顔の向きを表す角度のデータとを互いに関連付けたエントリーを記憶部12に蓄積して格納する(S4)。そして画像処理装置1はさらに、この蓄積したエントリーのうち、顔の向きを表す角度のデータθが、予め定められた範囲(θlth<θ<θhth)にあるエントリーをクラスタリング対象エントリーとして選択する(S5)。ここで定めた範囲は、正面向きを表す「0」を含む範囲とする。例えばθlth=−30度、θhth=30度などとする。   For each piece of image data for which a face image portion has been identified, the image processing apparatus 1 performs a process of combining the partial image data of the face image portion, the feature amount data related to the face image portion, and the angle data representing the face direction. The associated entries are accumulated and stored in the storage unit 12 (S4). The image processing apparatus 1 further selects, from the accumulated entries, an entry whose angle data θ representing the face orientation is in a predetermined range (θlth <θ <θhth) as a clustering target entry (S5). ). The range determined here is a range including “0” indicating the front direction. For example, θlth = −30 degrees, θhth = 30 degrees, and the like.

画像処理装置1は、クラスタリング対象エントリーに含まれる特徴量をクラスタリングする(S6)。画像処理装置1は、クラスタリングの結果として得られたクラスタを順次選択し、選択したクラスタに分類した各特徴量に関連付けられた部分画像データ(顔画像部分)を表示部14に出力して表示させ、当該クラスタに分類された画像の識別情報の入力を求める(S7)。例えば、当該表示した顔画像部分に含まれた人物の名前の入力を求める。   The image processing apparatus 1 clusters the feature amounts included in the clustering target entry (S6). The image processing apparatus 1 sequentially selects clusters obtained as a result of clustering, and outputs and displays the partial image data (face image portion) associated with each feature quantity classified into the selected cluster on the display unit 14. Then, input of identification information of the image classified into the cluster is requested (S7). For example, the input of the name of a person included in the displayed face image portion is requested.

ここで名前等の識別情報が入力されると、画像処理装置1は、当該選択したクラスタに分類された特徴量を含んだエントリーから、顔の認識処理を実行するプログラムモジュールが顔画像の比較のために使用するデータを、キーとなるデータとして抽出する(S8)。具体的にはこのキーとなるデータは特徴量のデータFkと、顔の向きを表す角度のデータとである。また別の例では、エントリーに含まれるデータのすべてがキーとなるデータとして抽出されてもよい。   When identification information such as a name is input here, the image processing apparatus 1 uses a program module that executes face recognition processing to compare the face image from the entry including the feature quantity classified into the selected cluster. The data used for this purpose is extracted as key data (S8). Specifically, the key data is feature amount data Fk and angle data representing the face orientation. In another example, all of the data included in the entry may be extracted as key data.

このキーとなるデータ(Fk)に対して、入力された名前等の識別情報を関連付け、顔データベースとして記憶部12に格納する(S9)。この顔データベースは、後に、撮像されている人物の名前を特定する処理(認識処理)に供される。一例として、撮像されている人物の顔画像を抽出し、当該抽出した顔画像の特徴量と、顔データベースに格納されているキーとなるデータとを比較して予め定めた演算方法で演算される一致度を算出し、最も一致する特徴量に対応するキーとなるデータを見出し、当該見出したデータに関連付けられた識別情報を参照して、撮像されている人物が当該識別情報で識別される人物であると設定する。   Identification data such as the input name is associated with the key data (Fk) and stored in the storage unit 12 as a face database (S9). This face database is later used for processing (recognition processing) for identifying the name of the person being imaged. As an example, a face image of a person being imaged is extracted, and the feature amount of the extracted face image is compared with key data stored in the face database, and calculated by a predetermined calculation method. The person who is calculating the degree of coincidence, finds the key data corresponding to the most matching feature quantity, and refers to the identification information associated with the found data, and the person being imaged is identified by the identification information Set to be.

さらに予備処理部20のデータ抽出部22は次の処理を行ってもよい。すなわち、既に述べたように、顔画像処理部21が画像データごとに出力する顔画像部分の部分画像データと、当該顔画像部分に係る特徴量のデータと、顔の向きを表す角度のデータとの入力を受けて、これらを互いに関連付けたエントリーを記憶部12に蓄積して格納する。データ抽出部22は、この蓄積したエントリーのうち、顔画像処理部21により推定された顔の向きが、予め定められた範囲(θlth<θ<θhth)にあるエントリーをクラスタリング対象エントリーとして選択する。   Furthermore, the data extraction unit 22 of the preliminary processing unit 20 may perform the following processing. That is, as already described, the partial image data of the face image portion output by the face image processing unit 21 for each image data, the feature amount data related to the face image portion, and the angle data representing the face direction Are stored in the storage unit 12 in association with each other. The data extraction unit 22 selects, from the accumulated entries, an entry whose face direction estimated by the face image processing unit 21 is in a predetermined range (θlth <θ <θhth) as a clustering target entry.

そしてデータ抽出部22は、選択したクラスタリング対象エントリーに含まれる特徴量を認識処理部30のデータ比較部32に出力する。この場合データ比較部32は、データ抽出部22から入力される特徴量と、予備処理部20において過去にクラスタごとのキーとして抽出され、顔データベースに格納されている特徴量との一致度を演算する。具体的にはデータ比較部32は、顔データベースに格納されている識別情報を逐次的に選択する。そしてデータ比較部32は、選択した識別情報に関連付けられた各特徴量(m個とする)のデータについて類似度R1,R2,…Rmを演算する。また、データ比較部32は、これらm個の特徴量のデータに関連付けて顔データベースに格納されている顔の向きを表す角度のデータを重み演算部33に出力する。   Then, the data extraction unit 22 outputs the feature amount included in the selected clustering target entry to the data comparison unit 32 of the recognition processing unit 30. In this case, the data comparison unit 32 calculates the degree of coincidence between the feature amount input from the data extraction unit 22 and the feature amount that has been previously extracted as a key for each cluster in the preliminary processing unit 20 and stored in the face database. To do. Specifically, the data comparison unit 32 sequentially selects identification information stored in the face database. Then, the data comparison unit 32 calculates the similarities R1, R2,... Rm for the data of each feature quantity (m pieces) associated with the selected identification information. In addition, the data comparison unit 32 outputs angle data representing the orientation of the face stored in the face database in association with the m feature value data to the weight calculation unit 33.

データ比較部32は、演算した各特徴量と入力された特徴量との間の類似度R1,R2,…Rmと、m個の特徴量の各々について重み演算部33が出力する重みのデータW1,W2,…Wmとの積(Ri×Wi)を用いて、一致度M(%)を、M=(Σ(Ri×Wi))/ΣWi(Σは、iが1からmまでの合計を算出することを意味する)と演算して出力する。   The data comparison unit 32 calculates the similarity R1, R2,... Rm between each calculated feature value and the input feature value, and the weight data W1 output by the weight calculation unit 33 for each of the m feature values. , W2,... Wm, and using the product (R i × Wi), M = (Σ (R i × Wi)) / ΣWi (Σ is the sum of i from 1 to m). (Means to calculate) and output.

データ抽出部22は、データ比較部32から、顔データベースに格納されている識別情報ごとに出力される一致度Mを取得して、いずれかの識別情報に関する特徴量を用いて演算された一致度Mが予め定めたしきい値を超えたか否かを判断する。そして予め定めたしきい値を超える一致度Mが見出されると、選択しているエントリーをクラスタリング対象エントリーから取り除く。   The data extraction unit 22 obtains the degree of coincidence M output for each identification information stored in the face database from the data comparison unit 32, and the degree of coincidence calculated using the feature amount related to any identification information It is determined whether M exceeds a predetermined threshold value. When a matching degree M exceeding a predetermined threshold is found, the selected entry is removed from the clustering target entry.

この処理はつまり、既に識別情報が設定されている特徴量を持つ顔部分画像の画像データについては、クラスタリングと識別情報の入力処理とを行わないよう制御することに相当する。   In other words, this processing corresponds to controlling the image data of the face partial image having the feature quantity for which the identification information is already set not to perform the clustering and the identification information input process.

以上、ここに開示した本実施の形態では、顔の向きが予め定めた範囲にない顔画像部分については認識処理のキーの生成に寄与しないよう制御される。そのため認識処理に不向きな方向を向いた顔画像部分が認識処理のキーとしてされないこととなり、比較的簡易な動作により人物認識を行いつつ、認識の精度を向上させることができる。また処理が比較的簡易なものであるので、処理速度を高めることにも寄与する。   As described above, in the present embodiment disclosed herein, control is performed so that a face image portion whose face orientation is not within a predetermined range does not contribute to generation of a key for recognition processing. Therefore, the face image portion facing in a direction unsuitable for the recognition process is not used as a key for the recognition process, and the recognition accuracy can be improved while performing the person recognition by a relatively simple operation. Further, since the process is relatively simple, it contributes to increasing the processing speed.

さらに、ここまでの説明で、クラスタリング対象エントリーとして選択する条件である、顔の向きの範囲(θlth<θ<θhth)を複数の区間に分け、各区間について、その区間に、推定された顔の向きがあるエントリーを、それぞれクラスタリング対象エントリーとして選択することとしてもよい。   Furthermore, in the above description, the range of face orientation (θlth <θ <θhth), which is a condition for selecting as a clustering target entry, is divided into a plurality of sections, and for each section, the estimated face Entries with orientations may be selected as clustering target entries.

この場合も画像処理装置1は、選択したクラスタリング対象エントリーに含まれる特徴量をクラスタリングする。そしてクラスタリングの結果として得られたクラスタを順次選択し、選択したクラスタに分類した各特徴量に関連付けられた部分画像データ(顔画像部分)を表示部14に出力して表示させて、そのクラスタにされた画像の識別情報の入力を求める。   Also in this case, the image processing apparatus 1 clusters the feature amounts included in the selected clustering target entry. Then, the clusters obtained as a result of clustering are sequentially selected, and the partial image data (face image portion) associated with each feature amount classified into the selected cluster is output and displayed on the display unit 14, and the cluster is displayed on the cluster. Prompts for input of identification information of the recorded image.

ここで識別情報(名前等)が入力されると、画像処理装置1は、当該選択したクラスタに分類された特徴量を含んだエントリーから、顔の認識処理を実行するプログラムモジュールが顔画像の比較のために使用するデータを、キーとなるデータとして抽出する。   When the identification information (name, etc.) is input here, the image processing apparatus 1 compares the face image with a program module that executes face recognition processing from the entry including the feature quantity classified into the selected cluster. Data used for the purpose is extracted as key data.

この例では、共通の識別情報に関連付けられるべきクラスタが複数、傾きごとに存在することとなる。そして各クラスタから認識処理に使われる特徴量のデータ等が抽出されるが、この場合、当該キーとなる特徴量と、認識処理の対象となった画像から得た特徴量とを比較する際には、キーとなる特徴量の抽出元であるクラスタの傾きの区間に応じて比較の演算に重みをつけてもよい。例えば正面向きからの傾きがより大きい区間に対応するクラスタほど、比較結果が否定的となるように(一致度の値が小さくなるように)調整された重みとする。   In this example, a plurality of clusters to be associated with the common identification information exist for each inclination. Then, feature value data used for recognition processing is extracted from each cluster. In this case, when comparing the feature value used as the key with the feature value obtained from the image subjected to recognition processing, May weight the comparison operation in accordance with the slope of the cluster from which the key feature quantity is extracted. For example, the weight is adjusted so that the comparison result becomes negative (so that the coincidence value becomes smaller) in a cluster corresponding to a section with a larger inclination from the front.

またこの認識処理の演算で用いる重みは、認識の処理の対象となった画像に含まれる顔の角度と、キーとなる特徴量の抽出元であるクラスタの傾きの区間(における所定の代表値(例えば区間の中央値))との差が大きいほど、比較結果が否定的となるように(一致度の値が小さくなるように)調整された重みとしてもよい。例えば、認識の処理の対象となった画像に含まれる顔の角度が45度であるとき、キーとなる特徴量の抽出元であるクラスタの傾きの区間の中央値が45度であるクラスタほど、比較結果が肯定的となるような重みが設定され、キーとなる特徴量の抽出元であるクラスタの傾きの区間の中央値が0度(正面向き)であるクラスタと、90度(横向き)であるクラスタとについては、同程度の比較結果となるよう、同じ重みが設定されることとしてもよい。   Further, the weight used in the calculation of the recognition process is a predetermined representative value (in the interval of the angle of the face included in the image subjected to the recognition process and the inclination of the cluster from which the key feature quantity is extracted ( For example, the weight may be adjusted so that the comparison result becomes negative as the difference from the median value of the section)) becomes larger (so that the value of coincidence becomes smaller). For example, when the angle of the face included in the image subjected to recognition processing is 45 degrees, the cluster whose median value of the slope of the cluster that is the extraction source of the key feature amount is 45 degrees, A weight is set so that the comparison result is affirmative, and a cluster having a central value of 0 degree (front direction) of a cluster inclination section from which a key feature quantity is extracted is 90 degrees (horizontal direction). With respect to a certain cluster, the same weight may be set so as to obtain a comparable comparison result.

1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 通信部、16 入出力インタフェース、20 予備処理部、21,31 顔画像処理部、22 データ抽出部、23 クラスタリング処理部、24 識別情報取得部、25 キー抽出部、30 認識処理部、32 データ比較部、33 重み演算部。   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 11 Control part, 12 Storage part, 13 Operation part, 14 Display part, 15 Communication part, 16 Input / output interface, 20 Preliminary processing part, 21, 31 Face image processing part, 22 Data extraction part, 23 Clustering Processing unit, 24 identification information acquisition unit, 25 key extraction unit, 30 recognition processing unit, 32 data comparison unit, 33 weight calculation unit.

Claims (3)

処理の対象となる画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する手段と、
前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、
前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、
前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、
前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、
を含み、
認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供する画像処理装置。
Means for detecting a face image portion from each image data included in a set of image data to be processed and outputting an estimation result of the face orientation of the detected face image portion;
Means for selecting, as a clustering target, data relating to a face image portion in which the estimated face orientation is in a predetermined range;
Means for performing a predetermined clustering process on data relating to a face image portion included in the selected clustering target;
Means for accepting input of identification information for each of the clusters obtained as a result of the clustering process;
From the data relating to the face image portion included in each of the clusters, data relating to the face image portion serving as a key is determined based on a predetermined condition, and the cluster corresponding to the data serving as the key is identified. Means for associating and storing information;
Including
Image processing to be used for recognition processing for setting identification information in image data to be subjected to recognition processing using data relating to a face image included in image data to be subjected to recognition processing and the data used as the key apparatus.
請求項1記載の画像処理装置であって、
前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとを比較する手段であって、前記認識処理の対象となった顔画像に係るデータと、クラスタごとのキーとなったデータとの一致度を、各データ間の所定の比較条件に基づいて演算される類似度と、キーとなったデータにおける顔画像部分の向きに関係して定められる重みとを用いて演算する画像処理装置。
The image processing apparatus according to claim 1,
A means for comparing the data related to the face image subjected to the recognition processing and the data used as a key for each cluster, the data relating to the face image subjected to the recognition processing, and the data for each cluster The degree of coincidence with the data used as the key is determined using a similarity calculated based on a predetermined comparison condition between the data and a weight determined in relation to the orientation of the face image portion in the data used as the key. An image processing device that performs calculations.
コンピュータを、
処理の対象となる画像データの集合に含まれる、各画像データから顔画像部分を検出し、当該検出した顔画像部分の顔の向きの推定結果を出力する手段と、
前記推定された顔の向きが、予め定められた範囲にある顔画像部分に係るデータを、クラスタリング対象として選択する手段と、
前記選択されたクラスタリング対象に含まれる顔画像部分に係るデータに対して、所定のクラスタリング処理を実行する手段と、
前記クラスタリング処理の結果、得られたクラスタの各々に対し、識別情報の入力を受け入れる手段と、
前記クラスタの各々に含まれる顔画像部分に係るデータのうちから、予め定めた条件に基づいてキーとなる顔画像部分に係るデータをそれぞれ決定し、当該キーとなるデータと対応するクラスタについての識別情報とを関連付けて記憶する手段と、
として機能させ、
認識処理の対象となる画像データに含まれる顔画像に係るデータと、前記キーとなったデータとを用いて、前記認識処理の対象となる画像データに識別情報を設定する認識処理に供するプログラム。
Computer
Means for detecting a face image portion from each image data included in a set of image data to be processed and outputting an estimation result of the face orientation of the detected face image portion;
Means for selecting, as a clustering target, data relating to a face image portion in which the estimated face orientation is in a predetermined range;
Means for performing a predetermined clustering process on data relating to a face image portion included in the selected clustering target;
Means for accepting input of identification information for each of the clusters obtained as a result of the clustering process;
From the data relating to the face image portion included in each of the clusters, data relating to the face image portion serving as a key is determined based on a predetermined condition, and the cluster corresponding to the data serving as the key is identified. Means for associating and storing information;
Function as
A program for use in recognition processing for setting identification information in image data to be subjected to recognition processing using data relating to a face image included in image data to be subjected to recognition processing and data used as the key.
JP2012213195A 2012-09-26 2012-09-26 Image processing apparatus and program Active JP5942747B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012213195A JP5942747B2 (en) 2012-09-26 2012-09-26 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012213195A JP5942747B2 (en) 2012-09-26 2012-09-26 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2014067301A true JP2014067301A (en) 2014-04-17
JP5942747B2 JP5942747B2 (en) 2016-06-29

Family

ID=50743614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012213195A Active JP5942747B2 (en) 2012-09-26 2012-09-26 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5942747B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086625A (en) * 2002-08-27 2004-03-18 Hitoshi Hongo Customer information managing device
JP2008009914A (en) * 2006-06-30 2008-01-17 Canon Inc Image processor, image processing method, program and storage medium
JP2011221791A (en) * 2010-04-09 2011-11-04 Sony Corp Face clustering device, face clustering method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086625A (en) * 2002-08-27 2004-03-18 Hitoshi Hongo Customer information managing device
JP2008009914A (en) * 2006-06-30 2008-01-17 Canon Inc Image processor, image processing method, program and storage medium
JP2011221791A (en) * 2010-04-09 2011-11-04 Sony Corp Face clustering device, face clustering method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
栗田多喜夫 他3名: "向きに依存しない顔画像認識のための向きに依存した複数の識別器の統合", 電子情報通信学会技術研究報告[パターン認識・メディア理解]PRMU99-170, vol. 99, no. 514, JPN6016015339, 16 December 1999 (1999-12-16), JP, pages 35 - 42, ISSN: 0003303638 *

Also Published As

Publication number Publication date
JP5942747B2 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
JP6013241B2 (en) Person recognition apparatus and method
US9171012B2 (en) Facial image search system and facial image search method
JP4273359B2 (en) Age estimation system and age estimation method
US8861801B2 (en) Facial image search system and facial image search method
US9477876B2 (en) Person recognition apparatus and method thereof
JP6040640B2 (en) Image processing apparatus and program
JP5801601B2 (en) Image recognition apparatus, image recognition apparatus control method, and program
JP5899179B2 (en) Person recognition device, person recognition method, person recognition program, and recording medium thereof
US9122912B1 (en) Sharing photos in a social network system
GB2463378A (en) Registering faces and identification features from images received via a network
US8842880B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP5787686B2 (en) Face recognition device and face recognition method
JP6573311B2 (en) Face recognition system, face recognition server, and face recognition method
US20150379254A1 (en) Authentication system that utilizes biometric information
JP4375570B2 (en) Face recognition method and system
CN106682591B (en) Face recognition method and device
JP6287827B2 (en) Information processing apparatus, information processing method, and program
JP2007013480A (en) Monitoring system, monitoring method, and monitoring program
CN112199530A (en) Multi-dimensional face library picture automatic updating method, system, equipment and medium
JPH11161791A (en) Individual identification device
JP5942747B2 (en) Image processing apparatus and program
JP2012221053A (en) Image recognition apparatus, image recognition method and program
CN109241942B (en) Image processing method and device, face recognition equipment and storage medium
JP2008217335A (en) Image sorting device, method, and program
JP2006236217A (en) Person recognition system, person recognition method, and person recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R150 Certificate of patent or registration of utility model

Ref document number: 5942747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250