JP2014048722A - Image classification device and image classification method - Google Patents

Image classification device and image classification method Download PDF

Info

Publication number
JP2014048722A
JP2014048722A JP2012188866A JP2012188866A JP2014048722A JP 2014048722 A JP2014048722 A JP 2014048722A JP 2012188866 A JP2012188866 A JP 2012188866A JP 2012188866 A JP2012188866 A JP 2012188866A JP 2014048722 A JP2014048722 A JP 2014048722A
Authority
JP
Japan
Prior art keywords
image data
classification
face image
similarity
classified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012188866A
Other languages
Japanese (ja)
Other versions
JP5933396B2 (en
Inventor
Atsushi Ukai
篤史 鵜飼
Hitomi Ito
ひとみ 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012188866A priority Critical patent/JP5933396B2/en
Publication of JP2014048722A publication Critical patent/JP2014048722A/en
Application granted granted Critical
Publication of JP5933396B2 publication Critical patent/JP5933396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To classify a plurality of pieces of face image data in image data of a classification object to an appropriate classification destination.SOLUTION: An image classification device 1 is provided that comprises: a similarity input part 14 that inputs information showing similarity between a plurality of pieces of face image data and a face image data group; a classification part 16 that classifies the face image data on the information showing the similarity input by the similarity input part 14 to the face image data group; a classification determination data exclusion part 17 that excludes the classified face image data from a classification destination as classification determination face image data, and excludes the face image data group the classification destination of the classification determination face image data from the classification destination as the classification determination face image data group; and a repeat processing control part 18 that controls so as to repeat processing by the classification part 16 and the classification determination data exclusion part 17.

Description

本発明は、画像分類装置及び画像分類方法に関する。   The present invention relates to an image classification device and an image classification method.

従来、画像データを適切に整理する等の目的で、画像データに含まれる人物の顔画像データを、事前に登録されている人物の顔画像データに係る顔画像データグループのいずれかに分類する方法が知られている。当該分類方法は、分類対象である画像データに含まれる人物の顔画像データについて、事前に登録されている顔画像データグループとの類似している確率(類似度)を算出し、当該類似度が一定以上の顔画像データグループに、分類対象の顔画像データを分類するものである。   Conventionally, a method of classifying human face image data included in image data into one of face image data groups related to pre-registered person face image data for the purpose of appropriately organizing image data, etc. It has been known. The classification method calculates a probability (similarity) that a face image data of a person included in the image data to be classified is similar to a face image data group registered in advance, and the similarity is The face image data to be classified is classified into face image data groups of a certain level or more.

具体的に、分類対象である顔画像データの、顔画像データグループへの分類方法としては、画像データから顔画像データである範囲を特定した後に、顔画像データと登録済みの顔画像データグループとの類似度を算出し、類似度が一定の閾値を上回った場合に、顔画像データを、当該顔画像データグループに分類する方法が知られている(例えば特許文献1参照)。ここでの類似度の算出は、目や口などの形状を示す特徴量を決め、顔画像データと登録済みの顔画像データグループとの間の各特徴量の差分値の逆数を求めることにより行われる。   Specifically, as a method of classifying face image data to be classified into face image data groups, after specifying a range of face image data from image data, face image data and registered face image data groups Is known, and when the similarity exceeds a certain threshold, a method of classifying face image data into the face image data group is known (see, for example, Patent Document 1). Here, the similarity is calculated by determining the feature quantity indicating the shape of the eyes, mouth, etc., and calculating the reciprocal of the difference value of each feature quantity between the face image data and the registered face image data group. Is called.

特開2010−27034号公報JP 2010-27034 A

しかしながら、従来の方法は、単に、分類先候補である顔画像データグループとの類似度が一定以上の顔画像データ(分類対象)を当該顔画像データグループに分類する、というAPLロジックにより分類するものである。よって、例えば、分類対象の画像データが写真であり、該写真に複数の顔画像データ(複数の人物)が存在し、該複数の顔画像データが同一の顔画像データグループと一定以上の類似度となった場合には、これらの複数の顔画像データは同一の顔画像データグループに分類されることとなる。通常、同一の写真内の複数の顔画像データは異なる人物に係るものであるため、同一の顔画像データグループに分類されるべきではないが、従来の方法のように、単に、類似度が一定以上であるか否かで分類先を判定している場合には、このような、同一写真の複数の顔画像データが同一の顔画像データグループに分類されるという事態が発生しえてしまう。   However, the conventional method simply classifies the face image data (classification target) having a certain degree of similarity with the face image data group which is a candidate for classification into a corresponding face image data group, and classifies the image by the APL logic. It is. Thus, for example, the image data to be classified is a photograph, and there are a plurality of face image data (a plurality of persons) in the photograph, and the plurality of face image data have a certain degree of similarity with the same face image data group. In such a case, the plurality of face image data are classified into the same face image data group. Usually, a plurality of face image data in the same photo are related to different persons and should not be classified into the same face image data group, but the degree of similarity is simply constant as in the conventional method. When the classification destination is determined based on whether or not the above is true, such a situation may occur that a plurality of face image data of the same photograph is classified into the same face image data group.

本発明は上記実情に鑑みてなされたものであり、分類対象である画像データ内の複数の顔画像データを適切な分類先に分類することができる画像分類装置及び画像分類方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an image classification apparatus and an image classification method capable of classifying a plurality of face image data in image data to be classified into appropriate classification destinations. Objective.

本発明に係る画像分類装置は、画像データ内の複数の顔画像データを、類似度に基づいて分類する画像分類装置であって、分類対象である画像データ内の複数の顔画像データと分類先である分類済みの顔画像データグループとの類似度を示す情報を入力する類似度入力手段と、類似度入力手段によって入力された類似度を示す情報に基づいて、分類対象である顔画像データを、分類先である顔画像データグループに分類する分類手段と、分類手段によって分類された分類対象の顔画像データを分類確定顔画像データとして分類対象から除外するとともに、分類確定顔画像データの分類先の顔画像データグループを分類確定顔画像データグループとして分類先から除外する分類確定データ除外手段と、分類手段及び分類確定データ除外手段による処理を繰り返すように制御する繰り返し処理制御手段と、を備える。   An image classification device according to the present invention is an image classification device that classifies a plurality of face image data in image data based on similarity, and includes a plurality of face image data in image data to be classified and a classification destination. The similarity input means for inputting information indicating the similarity to the classified face image data group, and the face image data to be classified based on the information indicating the similarity input by the similarity input means. Classifying means for classifying the face image data group that is the classification destination, and the face image data to be classified classified by the classification means are excluded from the classification target as classification determined face image data, and the classification target of the classification determined face image data is classified A classification finalized data excluding unit that excludes the face image data group from the classification destination as a classification finalized face image data group, a classification unit, and a classification finalized data excluding unit Comprising a repetition processing control means for controlling so as to repeat the process, the.

この画像分類装置では、画像データ内の複数の顔画像データのうち、類似度に基づいて分類先に分類された顔画像データついては、分類確定顔画像データとして分類対象から除外され、当該分類確定顔画像データに係る分類先の顔画像データグル―プについては、分類確定顔画像データグループとして分類先から除外される。分類確定顔画像データグループが分類先から除外されることにより、未だ分類されていない分類対象顔画像データが、分類確定顔画像データに係る分類先である分類確定顔画像データグループに分類されることを防止できる。すなわち、画像データに含まれる複数の顔画像データが、同一の顔画像データグループに分類されるという事態を防止することができる。同一の画像データに含まれる複数の顔画像データは通常異なる人物に係るものであると考えられるため、画像データに含まれる複数の顔画像データを同一の顔画像データグループに分類しないように制御することで、顔画像データを適切な分類先に分類することに寄与できる。   In this image classification device, face image data classified as a classification destination based on similarity among a plurality of face image data in the image data is excluded from classification targets as classification-confirmed face image data, and the classification-confirmed face The face image data group of the classification destination related to the image data is excluded from the classification destination as a classification determined face image data group. By excluding the classification-confirmed face image data group from the classification destination, the classification target face image data that has not yet been classified is classified into the classification-confirmed face image data group that is the classification destination related to the classification-confirmed face image data. Can be prevented. That is, it is possible to prevent a plurality of face image data included in the image data from being classified into the same face image data group. Since the plurality of face image data included in the same image data is usually considered to be related to different persons, control is performed so that the plurality of face image data included in the image data is not classified into the same face image data group. This can contribute to classifying the face image data into an appropriate classification destination.

以上より、本発明によれば、分類対象である画像データ内の複数の顔画像データを適切な分類先に分類することができる。   As described above, according to the present invention, it is possible to classify a plurality of face image data in image data to be classified into appropriate classification destinations.

また、本発明に係る画像分類装置は、分類手段が、類似度を示す情報のうち、類似度のスコアが所定の閾値に満たない情報を除外することが好ましい。   In the image classification device according to the present invention, it is preferable that the classification unit excludes information whose similarity score is less than a predetermined threshold from information indicating similarity.

類似度が所定条件を満たさない情報を除外することで、不適切な分類を防止し、分類対象の適切な分類先への分類をより確実なものとすることができる。   By excluding information whose similarity does not satisfy a predetermined condition, inappropriate classification can be prevented, and classification into an appropriate classification destination of a classification target can be made more reliable.

また、本発明に係る画像分類装置は、繰り返し処理制御手段が、分類対象である複数の顔画像データ全てが、顔画像データグループに分類される、または、顔画像データグループのいずれにも分類することができない分類不可データと決定される、まで、分類手段及び分類確定データ除外手段による処理を繰りかえすように制御することが好ましい。   In the image classification device according to the present invention, the iterative processing control unit classifies all of the plurality of face image data to be classified into a face image data group, or classifies into any of the face image data groups. It is preferable to perform control so that the processing by the classifying unit and the classification finalized data excluding unit is repeated until it is determined that the data cannot be classified.

全ての顔画像データについて分類先の決定に関する処理を行うことで、分類対象の適切な分類先への分類をより確実なものとすることができる。   By performing the process relating to the determination of the classification destination for all the face image data, the classification of the classification target to the appropriate classification destination can be made more reliable.

また、本発明に係る画像分類装置は、分類不可データである分類対象の顔画像データを、新たに、分類先である顔画像データグループとして設定する顔画像データグループ設定手段をさらに備えることが好ましい。   The image classification apparatus according to the present invention preferably further includes a face image data group setting unit that newly sets the classification target face image data that is unclassifiable data as a face image data group that is a classification destination. .

分類先が存在しなかった分類不可データについては、新たな顔画像データグループとして設定することで、その後に異なる画像データの顔画像データについて分類を行う際に更なる分類先とすることができる。このように、適切な分類先が存在しなかった分類対象の顔画像データを、新たな顔画像データグループとすることで、分類対象の適切な分類先への分類をより確実なものとすることができる。   The non-classifiable data for which the classification destination does not exist can be set as a new face image data group so that it can be further classified when classifying the face image data of different image data. In this way, by classifying face image data of a classification target for which no suitable classification destination exists into a new face image data group, it is possible to further reliably classify the classification target to an appropriate classification destination. Can do.

また、本発明に係る画像分類装置は、分類先である顔画像データグループに日時情報が設定されており、分類対象である画像データの作成日と分類先である顔画像データグループに設定された日時情報とを比較し、作成日が、日時情報よりも前である場合には、日時情報に係る顔画像データグループを分類先から除外する不適分類先除外手段をさらに備えることが好ましい。   In the image classification device according to the present invention, date information is set in the face image data group that is the classification destination, and the creation date of the image data that is the classification target and the face image data group that is the classification destination are set. It is preferable to further include an inappropriate classification destination exclusion unit that compares the date information with the date and time information and excludes the face image data group related to the date information from the classification destination when the creation date is earlier than the date information.

ある顔画像データグループの特定の日時情報よりも前に作成された画像データについては、当該顔画像データグループに分類されえない、と判断可能な日時情報を顔画像データグループに設定しておくことで、不適切な分類を防止し、分類対象の適切な分類先への分類をより確実なものとすることができる。   For image data created before specific date and time information of a face image data group, set the date and time information that can be determined that the image data cannot be classified into the face image data group in the face image data group. Thus, inappropriate classification can be prevented, and classification to an appropriate classification destination of a classification target can be made more reliable.

また、本発明に係る画像分類装置は、分類対象である画像データを入力する画像データ入力手段と、画像データ入力手段により入力された画像データ内の複数の顔画像データの顔特徴量を導出し、該顔特徴量に基づき、複数の顔画像データと分類先である顔画像データグループとの類似度を算出する類似度算出手段と、をさらに備えることが好ましい。   The image classification apparatus according to the present invention derives image data input means for inputting image data to be classified, and facial feature amounts of a plurality of face image data in the image data input by the image data input means. It is preferable that the image processing apparatus further includes similarity calculation means for calculating the similarity between the plurality of face image data and the face image data group that is the classification destination based on the face feature amount.

分類対象である画像データの入力、及び、当該画像データ内の複数の顔画像データと顔画像データグループとの類似度の算出を行うことで、顔画像データについての類似度の算出から分類先への分類までを、一元的に行うことができる。   By inputting the image data to be classified and calculating the similarity between the plurality of face image data and the face image data group in the image data, the calculation of the similarity of the face image data to the classification destination Can be performed centrally.

また、本発明に係る画像分類方法は、画像データ内の複数の顔画像データを、類似度に基づいて分類する画像分類方法であって、分類対象である画像データ内の複数の顔画像データと分類先である分類済みの顔画像データグループとの類似度を示す情報を入力する類似度入力ステップと、類似度入力ステップにおいて入力された類似度を示す情報に基づいて、分類対象である顔画像データを、分類先である顔画像データグループに分類する分類ステップと、分類ステップにおいて分類された分類対象の顔画像データを分類確定顔画像データとして分類対象から除外するとともに、分類確定顔画像データの分類先の顔画像データグループを分類確定顔画像データグループとして分類先から除外する分類確定データ除外ステップと、分類ステップ及び分類確定データ除外ステップにおける処理を繰り返すように制御する繰り返し処理制御ステップと、を含む。この画像分類方法は、上述の画像分類装置と同様な効果を奏することができる。   An image classification method according to the present invention is an image classification method for classifying a plurality of face image data in image data based on similarity, and includes a plurality of face image data in image data to be classified Based on the similarity input step for inputting information indicating the similarity to the classified face image data group that is the classification destination, and the information indicating the similarity input in the similarity input step, the face image to be classified The classification step of classifying the data into the face image data group that is the classification destination, and the face image data of the classification target classified in the classification step are excluded from the classification target as the classification fixed face image data, and the classification fixed face image data A classification decision data exclusion step for excluding the classification target face image data group from the classification destination as a classification decision face image data group, and a classification step Including a repetitive processing control step of controlling so as to repeat the processing in the fine classification determined data eliminating step. This image classification method can achieve the same effect as the above-described image classification device.

本発明によれば、分類対象である画像データ内の複数の顔画像データを適切な分類先に分類することができる画像分類装置及び画像分類方法を提供することができる。   According to the present invention, it is possible to provide an image classification device and an image classification method capable of classifying a plurality of face image data in image data to be classified into appropriate classification destinations.

本発明の実施形態に係る画像分類装置の機能構成を示す図である。It is a figure which shows the function structure of the image classification device which concerns on embodiment of this invention. 本発明の実施形態に係る画像分類装置の分類処理等の概要を示す図である。It is a figure which shows the outline | summary of the classification | category process etc. of the image classification apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像分類装置の新規の顔画像データグループ設定イメージを示す図である。It is a figure which shows the new face image data group setting image of the image classification device which concerns on embodiment of this invention. 本発明の実施形態に係る画像分類装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the image classification device which concerns on embodiment of this invention. 本発明の実施形態に係る画像分類装置の処理フローを示す図である。It is a figure which shows the processing flow of the image classification device which concerns on embodiment of this invention. 本発明の実施形態に係る画像分類装置の分類処理内容を示す図である。It is a figure which shows the classification processing content of the image classification device which concerns on embodiment of this invention. 本発明の実施形態に係る画像分類装置の分類処理内容を示す図である。It is a figure which shows the classification processing content of the image classification device which concerns on embodiment of this invention. 本発明の実施形態に係る画像分類装置の分類処理内容を示す図である。It is a figure which shows the classification processing content of the image classification device which concerns on embodiment of this invention.

以下、図面と共に本発明に係る画像分類装置及び画像分類方法の好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of an image classification device and an image classification method according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

デジタルカメラ等で写真を撮影して画像データを取得したユーザは、通常、画像データを分類、整理する。例えば、複数人を被写体として撮影を行った場合には、被写体となっている人物毎にその人物が写っている写真をまとめることが考えられる。ユーザが、個々の写真に写っている人物を確認して、分類、整理を行うこととすると非常に手間がかかる。   A user who obtains image data by taking a picture with a digital camera or the like usually classifies and organizes the image data. For example, when a plurality of people are photographed as subjects, it is conceivable to collect photographs of the persons for each person who is the subject. It is very time consuming if the user confirms the person in each photo and classifies and organizes the person.

本発明の実施形態に係る画像分類装置は、画像データを自動で分類、整理することで、ユーザによる分類作業を軽減するとともに、画像データの閲覧時に容易に目的の画像を閲覧できるようにするものである。画像データ分類装置は、例えば事業者が運営するサーバである。画像分類装置は、移動体通信網等のネットワークを介して、ユーザに用いられる端末と接続されており、互いに情報を送受信することができる。当該画像分類装置は、ユーザが画像分類装置にアップロードした画像データ(例えば写真)を自動分類する。本発明に係る画像分類装置による画像データの自動分類方法は、画像データに含まれる顔画像データを、当該顔画像データに係る人物と同一人物の登録済みの顔画像データグループに分類するものである。   An image classification apparatus according to an embodiment of the present invention reduces the classification work by a user by automatically classifying and organizing image data, and enables easy browsing of a target image when browsing image data. It is. The image data classification device is, for example, a server operated by a business operator. The image classification device is connected to a terminal used by a user via a network such as a mobile communication network, and can transmit / receive information to / from each other. The image classification device automatically classifies image data (for example, photos) uploaded by the user to the image classification device. The image data automatic classification method by the image classification apparatus according to the present invention classifies face image data included in image data into a registered face image data group of the same person as the person related to the face image data. .

まず、図1及び図2を参照して、本実施形態に係る画像分類装置1の機能を説明する。図1は、本発明の実施形態に係る画像分類装置1の機能構成を示す図である。図2は、本発明の実施形態に係る画像分類装置の分類処理等の概要を示す図である。図1に示すように、本実施形態に係る画像分類装置1は、画像データ入力部11と、顔画像データグループ記憶部12と、類似度算出部13と、類似度入力部14と、不適分類先除外部15と、分類部16と、分類確定データ除外部17と、繰り返し処理制御部18と、顔画像データグループ設定部19と、分類結果出力部20と、分類状態記憶部21と、を備えて構成される。画像分類装置1は、例えば、事業者が運営するサーバである。画像分類装置1は、画像データに含まれる複数の顔画像データを、類似度に基づいて分類する。   First, the function of the image classification device 1 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a diagram showing a functional configuration of an image classification device 1 according to an embodiment of the present invention. FIG. 2 is a diagram showing an outline of classification processing and the like of the image classification device according to the embodiment of the present invention. As shown in FIG. 1, the image classification apparatus 1 according to the present embodiment includes an image data input unit 11, a face image data group storage unit 12, a similarity calculation unit 13, a similarity input unit 14, and an inappropriate classification. A destination exclusion unit 15, a classification unit 16, a classification determination data exclusion unit 17, a repetition processing control unit 18, a face image data group setting unit 19, a classification result output unit 20, and a classification state storage unit 21. It is prepared for. The image classification device 1 is, for example, a server operated by a business operator. The image classification device 1 classifies a plurality of face image data included in the image data based on the similarity.

画像データ入力部11は、分類対象である画像データを入力する画像データ入力手段である。ここで、画像データとは、例えば、ユーザによってデジタルカメラで撮影された写真データ等である。画像データは、作成日が自動で設定されるものとし、画像データがデジタルカメラで撮影された写真である場合には、撮影されたタイミングで、撮影日時等の付加情報(exif情報等)が設定される。画像データ入力部11は、ユーザ(画像データがデジタルカメラ等で撮影された写真である場合には、該デジタルカメラのユーザ)によって作成後、例えばインターネットを介してサーバ(画像分類装置1)にアップロードされた画像データを、分類対象として入力する。本実施形態においては、図2に示すように、画像データ入力部11は、複数の顔画像データが含まれる画像データ30を入力することとする。   The image data input unit 11 is an image data input unit that inputs image data to be classified. Here, the image data is, for example, photo data taken by a user with a digital camera. In the image data, the creation date is automatically set. When the image data is a photograph taken with a digital camera, additional information (exif information, etc.) such as the shooting date and time is set at the time of shooting. Is done. The image data input unit 11 is created by a user (if the image data is a photograph taken with a digital camera or the like, the user of the digital camera) and then uploaded to the server (image classification apparatus 1) via the Internet, for example. The obtained image data is input as a classification target. In the present embodiment, as shown in FIG. 2, the image data input unit 11 inputs image data 30 including a plurality of face image data.

顔画像データグループ記憶部12は、画像データ入力部11により入力された画像データに含まれる顔画像データ(分類対象)の分類先である、分類済みの顔画像データグループを記憶するものである。ここで、顔画像データとは、画像データに含まれる人物に係る顔画像のデータである。画像データに含まれる顔画像データの特定は、例えば、画像データに対して顔画像データ検出用に用意されたテンプレートを用いて顔画像データを探索し、画像データのうち該テンプレートと高い相関性を示した部分を顔画像データとして特定することにより行われる。顔画像データグループとは、1つ以上の顔画像データからなるグループであり、同一の顔画像データグループに含まれる複数の顔画像データは、同一人物に係るものと想定されるものである。よって、同一の顔画像データグループ内の顔画像データは、相互に一定以上の類似度を有する。なお、異なる顔画像データグループに係る人物は、必ずしも異なる人物ではなく、これらの顔画像データグループに含まれる顔画像データの顔の向き(詳細は後述)の相違によっては、同一人物となる場合もある。なお、顔画像データグループテーブルに含まれる顔画像データグループは、グループidで区別できる。グループidは、例えば、顔画像データグループテーブルが設定される際に自動で若番から設定されるものとすることができる。   The face image data group storage unit 12 stores a classified face image data group that is a classification destination of face image data (classification target) included in the image data input by the image data input unit 11. Here, the face image data is face image data relating to a person included in the image data. For example, the face image data included in the image data is identified by searching for the face image data using a template prepared for detecting the face image data with respect to the image data, and having high correlation with the template in the image data. This is done by specifying the indicated portion as face image data. The face image data group is a group composed of one or more face image data, and a plurality of face image data included in the same face image data group is assumed to be related to the same person. Therefore, the face image data in the same face image data group have a certain degree of similarity with each other. It should be noted that persons related to different face image data groups are not necessarily different persons, and may be the same person depending on the face orientation (details will be described later) of the face image data included in these face image data groups. is there. The face image data groups included in the face image data group table can be distinguished by group id. The group id can be automatically set from the youngest number when the face image data group table is set, for example.

顔画像データに関しての類似度は、顔特徴量に基づいて算出される。ここで、顔特徴量とは、例えば、目や口などの顔の各パーツの形状や輪郭等の顔の特徴を示す特徴量のことをいい、顔の特徴毎に数値化され、数値化された値を要素とするベクトルで表される。顔画像データに関しての類似度は、類似判定対象の顔画像データ間での顔特徴量のベクトルが近似しているほど、当該類似判定対象の顔画像データは類似していると判断される。このような顔特徴量に基づいた顔画像データの類似度の算出は、従来からある手法を利用することができる。   The similarity with respect to the face image data is calculated based on the face feature amount. Here, the face feature amount refers to a feature amount indicating a facial feature such as the shape and contour of each part of the face such as eyes and mouth, and is digitized and digitized for each facial feature. It is represented by a vector whose element is the value. Regarding the degree of similarity regarding the face image data, it is determined that the face image data of the similarity determination target is more similar as the face feature amount vector between the face image data of the similarity determination target is closer. A conventional method can be used to calculate the similarity of face image data based on such face feature amounts.

顔画像データグループ記憶部12は、顔画像データグループテーブルによって、顔画像データグループを記憶している。図2に示す例では、顔画像データグループテーブル201は、グループidが101〜105である、顔画像データグループ101〜顔画像データグループ105を有しており、各顔画像データグループは、平均特徴量(正面)、平均特徴量(左45度)、平均特徴量(右45度)、誕生日に関するデータ、を管理している。   The face image data group storage unit 12 stores face image data groups by a face image data group table. In the example illustrated in FIG. 2, the face image data group table 201 includes face image data groups 101 to 105 having group ids 101 to 105, and each face image data group has an average feature. Amount (front), average feature amount (45 degrees left), average feature amount (45 degrees right), and birthday data are managed.

平均特徴量とは、顔画像データグループに含まれる各顔画像データの、顔特徴量に関する値の平均値を示すものである。なお、1つの顔画像データのみからなる顔画像データグループの平均特徴量は、当該1つの顔画像データの顔特徴量となる。また、正面、左45度、右45度とは、顔画像データの顔の向き(顔向き)であり、後述する類似度算出部13は、顔向きが同一の顔画像データ間でのみ、顔画像データの類似度算出を行う。図2に示す、顔画像データグループテーブル201の顔画像データグループ101〜顔画像データグループ105は、平均特徴量(正面)の値が「あり」、となっていることから、顔向きが正面である顔画像データとのみ、類似度算出がされる。なお、図2では、単に、平均特徴量(正面)のデータが「あり」、ということのみ管理されているが、実際には、具体的な平均特徴量の値が管理されている必要がある。また、顔画像データグループに含まれる、各顔画像データの顔特徴量、及び、各顔画像データの顔画像データ自身についても、管理されていてもよい。また、誕生日に関するデータとは、顔画像データグループに係る人物の生年月日を示す情報である。なお、生年月日は、日だけでなく、時刻に関する情報も含めて管理してもよい。   The average feature amount indicates an average value of values related to the face feature amount of each face image data included in the face image data group. Note that the average feature amount of the face image data group composed of only one face image data is the face feature amount of the one face image data. Front, 45 degrees to the left, and 45 degrees to the right are the face orientations (face orientation) of the face image data, and the similarity calculation unit 13 described below is used only for face image data having the same face orientation. Calculate similarity of image data. The face image data group 101 to the face image data group 105 of the face image data group table 201 shown in FIG. 2 have an average feature value (front) value of “Yes”. The similarity is calculated only for certain face image data. In FIG. 2, only the fact that the average feature value (front) data is “Yes” is managed, but in practice, a specific value of the average feature value needs to be managed. . Further, the face feature amount of each face image data and the face image data itself of each face image data included in the face image data group may be managed. Further, the data relating to the birthday is information indicating the date of birth of the person related to the face image data group. Note that the date of birth may be managed including not only the date but also information related to the time.

顔画像データグループ記憶部12は、後述する分類結果出力部20が分類結果を出力することによって、既存の顔画像データグループに属する顔画像データが追加され、また、新たな顔画像データグループが設定される。   The face image data group storage unit 12 adds the face image data belonging to the existing face image data group when the classification result output unit 20 described later outputs the classification result, and sets a new face image data group. Is done.

類似度算出部13は、画像データ入力部11により入力された画像データ内の複数の顔画像データの顔特徴量を導出し、該顔特徴量に基づき、複数の顔画像データと分類先である顔画像データグループとの類似度を算出する類似度算出手段である。なお、顔画像データグループの顔特徴量とは、上述した平均特徴量のことであり、顔画像データグループに含まれる顔画像データの顔特量の平均の値となる。   The similarity calculation unit 13 derives face feature amounts of a plurality of face image data in the image data input by the image data input unit 11, and is based on the face feature amounts and a plurality of face image data and a classification destination. It is a similarity calculation means for calculating the similarity with the face image data group. The face feature amount of the face image data group is the above-described average feature amount, and is an average value of the face feature amounts of the face image data included in the face image data group.

類似度算出部13は、最初に、入力された画像データに含まれる顔画像データを特定する(顔抽出)。具体的には、画像データに対して顔画像データ検出用に用意されたテンプレートを用いて顔画像データを探索し、画像データのうち該テンプレートと高い相関性を示した部分を顔画像データとして特定する。なお、類似度算出部13は、顔画像データを特定する際には、顔向き(アウトプレーン)を特定する。顔向きとは、例えば、正面、右45度、左45度、のいずれかが特定され、類似度算出の際には、同一の顔向きの画像間でのみ類似度が算出される。   The similarity calculation unit 13 first specifies face image data included in the input image data (face extraction). Specifically, the face image data is searched for the image data using a template prepared for detecting the face image data, and the portion of the image data that shows a high correlation with the template is specified as the face image data. To do. The similarity calculation unit 13 specifies the face orientation (outplane) when specifying the face image data. For example, any one of front, 45 degrees to the right, and 45 degrees to the left is specified as the face orientation. When calculating the similarity, the similarity is calculated only between images having the same face orientation.

図2の例では、画像データ30(デジタルカメラにより2010年4月19に撮影)が画像データ入力部11から入力され、類似度算出部13は、入力された画像データ30に含まれる複数の顔画像データである、顔画像データA、顔画像データB、顔画像データC、顔画像データD、顔画像データE、を特定する。そして、類似度算出部13は、顔画像データA〜顔画像データEはいずれも、顔向きが正面であることを特定する。   In the example of FIG. 2, image data 30 (photographed on April 19, 2010 by a digital camera) is input from the image data input unit 11, and the similarity calculation unit 13 includes a plurality of faces included in the input image data 30. Face image data A, face image data B, face image data C, face image data D, and face image data E, which are image data, are specified. Then, the similarity calculation unit 13 specifies that the face direction of each of the face image data A to the face image data E is the front.

類似度算出部13は、検出した顔画像データA〜顔画像データEの顔特徴量を導出する。ここで、顔特徴量の導出は、従来からある顔認識の方法を利用することができる。顔画像データA〜顔画像データEの顔特徴量を導出した後に、それぞれの顔特徴量と、顔画像データグループ記憶部12に記憶された顔画像データグループ101〜105それぞれの顔特徴量との類似度を算出する(類似判定)。なお、類似度は、スコアとして数値で表すことができる。ここで、顔画像データグループの顔特徴量は平均特徴量(該顔画像データグループに含まれる顔画像データの顔特徴量の平均)とし、各顔画像データとの類似度は、当該平均特徴量から算出されるものとする。なお、本実施形態では、顔画像データA〜顔画像データEと、顔画像データグループ101〜顔画像データグループ105との類似度は、図2の類似度一覧40に示すようになったとする。   The similarity calculation unit 13 derives facial feature amounts of the detected face image data A to face image data E. Here, the conventional face recognition method can be used for the derivation of the face feature amount. After deriving the facial feature amounts of the facial image data A to facial image data E, the respective facial feature amounts and the facial feature amounts of the facial image data groups 101 to 105 stored in the facial image data group storage unit 12 are calculated. Similarity is calculated (similarity determination). Note that the degree of similarity can be represented by a numerical value as a score. Here, the face feature amount of the face image data group is an average feature amount (the average of the face feature amounts of the face image data included in the face image data group), and the similarity to each face image data is the average feature amount. It shall be calculated from In the present embodiment, it is assumed that the similarity between the face image data A to the face image data E and the face image data group 101 to the face image data group 105 is as shown in the similarity list 40 of FIG.

類似度入力部14は、分類対象である画像データ内の複数の顔画像データと分類先である分類済みの顔画像データグループとの類似度を示す情報を入力する類似度入力手段である。すなわち、類似度入力部14は、類似度算出部13が算出した、複数の顔画像データと顔画像データグループとの類似度を示す情報を入力する。なお、複数の画像データは、1つの画像データに含まれるものを処理単位とする。即ち、後述する顔画像データの分類は、画像データ毎に行う。   The similarity input unit 14 is a similarity input unit that inputs information indicating the similarity between a plurality of face image data in the image data to be classified and the classified face image data group to be classified. That is, the similarity input unit 14 inputs information indicating the similarity between the plurality of face image data and the face image data group calculated by the similarity calculation unit 13. Note that the plurality of image data includes processing included in one image data. That is, classification of face image data, which will be described later, is performed for each image data.

図2に示す例では、類似度算出部13が、類似度一覧40に示すように、顔画像データA〜顔画像データEと、顔画像データグループ101〜顔画像データグループ105との類似度を算出している。類似度入力部14は類似度一覧40に示された各類似度を、入力する。   In the example illustrated in FIG. 2, the similarity calculation unit 13 calculates the similarity between the face image data A to the face image data E and the face image data group 101 to the face image data group 105 as illustrated in the similarity list 40. Calculated. The similarity input unit 14 inputs each similarity shown in the similarity list 40.

不適分類先除外部15は、分類先である顔画像データグループに日時情報が設定されており、分類対象である画像データの作成日と分類先である顔画像データグループに設定された日時情報とを比較し、作成日が、日時情報よりも前である場合には、日時情報に係る顔画像データグループを分類先から除外する不適分類先除外手段である。   The inappropriate classification destination exclusion unit 15 sets date / time information for the face image data group that is the classification destination, the creation date of the image data that is the classification target, and the date / time information set for the face image data group that is the classification destination. If the creation date is earlier than the date / time information, it is an inappropriate classification destination exclusion means for excluding the face image data group related to the date / time information from the classification destination.

顔画像データグループに設定された日時情報とは、ユーザの入力を受けつけることにより設定された情報であり、具体的には、当該顔画像データグループに係る人物の誕生日などである。なお、ユーザの入力を受けつけるタイミングは、例えば、当該顔画像データグループが作成されたタイミングなどが考えられる。また、分類対象である画像データの作成日とは、画像データが作成された際に自動で設定されるものである。画像データがデジタルカメラで撮影された写真である場合には、撮影されたタイミングで設定される撮影日時等の情報(exif情報)から画像データの作成日が決定される。   The date / time information set for the face image data group is information set by accepting a user input, specifically, a birthday of a person related to the face image data group. Note that the timing at which the user input is received may be, for example, the timing at which the face image data group is created. The creation date of the image data to be classified is automatically set when the image data is created. When the image data is a photograph taken with a digital camera, the creation date of the image data is determined from information (exif information) such as the shooting date and time set at the shooting timing.

不適分類先除外部15は、各顔画像データグループに設定された日時情報、及び、画像データの作成日を、類似度算出部13から取得することで、分類対象である画像データの作成日と分類先である顔画像データグループに設定された日時情報との比較を行う。   The inappropriate classification destination exclusion unit 15 obtains the date and time information set for each face image data group and the creation date of the image data from the similarity calculation unit 13 to obtain the creation date of the image data to be classified. Comparison with date / time information set in the face image data group that is the classification destination is performed.

図2に示す例において、顔画像データA〜顔画像データEを含んでいる画像データ30は、2010年4月19日に撮影された写真である。すなわち、画像データ30は、2010年4月19日が作成日である。一方で、分類先である各顔画像データグループのうち、顔画像データグループ102は、顔画像データグループ102に係る人物の誕生日が2010年4月20日である。よって、画像データ30の作成日が、顔画像データグループ102に係る人物の誕生日よりも前であるため、顔画像データグループ102は、不適分類先除外部15により、分類先から除外される。   In the example shown in FIG. 2, image data 30 including face image data A to face image data E is a photograph taken on April 19, 2010. That is, the image data 30 is created on April 19, 2010. On the other hand, among the face image data groups that are the classification destinations, the face image data group 102 has a birthday of a person related to the face image data group 102 on April 20, 2010. Therefore, since the creation date of the image data 30 is before the birthday of the person related to the face image data group 102, the face image data group 102 is excluded from the classification destination by the inappropriate classification destination exclusion unit 15.

不適分類先除外部15による分類先である顔画像データグループの除外は、後述する分類部16による分類処理の前に行われる。不適分類先除外部15は、除外した顔画像データグループを分類部16に通知し、分類部16による分類処理に用いないようにさせる。なお、顔画像データグループには、日時情報が設定されていなくてもよい。顔画像データグループに日時情報が設定されていない場合には、不適分類先除外部15による分類先(顔画像データグループ)の除外は行われず、分類部16による処理が行われる。また、一部の顔画像データグループのみに日時情報が設定されていてもよい。その場合、不適分類先除外部15による処理は、日時情報が設定されている顔画像データグループに対してのみ行われる。   The exclusion of the face image data group that is the classification destination by the inappropriate classification destination exclusion unit 15 is performed before the classification process by the classification unit 16 described later. The inappropriate classification destination exclusion unit 15 notifies the excluded face image data group to the classification unit 16 so that it is not used for the classification process by the classification unit 16. Note that date information may not be set in the face image data group. When the date and time information is not set for the face image data group, the classification destination (face image data group) is not excluded by the inappropriate classification destination exclusion unit 15 and the processing by the classification unit 16 is performed. In addition, date information may be set only for a part of the face image data groups. In this case, the process by the inappropriate classification destination exclusion unit 15 is performed only for the face image data group for which date / time information is set.

分類部16は、同一の画像データに含まれる複数の顔画像データについて、同じ分類先に分類(同じ人物として分類)することがないように、顔画像データを分類するものである。   The classification unit 16 classifies face image data so that a plurality of face image data included in the same image data is not classified into the same classification destination (classified as the same person).

分類部16は、類似度入力部14によって入力された類似度を示す情報に基づいて、分類対象である顔画像データを、分類先である顔画像データグループに分類する分類手段である。ここで、類似度を示す情報に基づいて、とは、例えば、類似度のスコアの高さに基づくことをいう。類似度のスコアの高さに基づいて分類対象である顔画像データを分類する場合には、分類対象である全顔画像データのうち、顔画像データグループとの類似度のスコアが最も高い顔画像データを、当該顔画像データグループに分類する。   The classification unit 16 is a classification unit that classifies the face image data that is the classification target into the face image data group that is the classification destination based on the information indicating the similarity input by the similarity input unit 14. Here, based on the information indicating the similarity, for example, is based on the height of the similarity score. When classifying the face image data that is the classification target based on the high score of similarity, the face image having the highest similarity score with the face image data group among all the face image data that is the classification target The data is classified into the face image data group.

図2に示す例において、類似度一覧40に示された各類似度が類似度入力部14により入力されると、分類部16は、分類対象である各顔画像データと各顔画像データグループとの類似度のうち、不適分類先除外部15によって分類先から除外された顔画像データグループ102に係る各類似度を示す情報を除くと、顔画像データBと顔画像データグループ104との類似度0.97(97%)が、最も類似度のスコアが高いと判断し、顔画像データBを顔画像データグループ104に分類する。   In the example illustrated in FIG. 2, when the similarities shown in the similarity list 40 are input by the similarity input unit 14, the classification unit 16 includes each face image data to be classified, each face image data group, and If the information indicating each degree of similarity related to the face image data group 102 excluded from the classification destination by the inappropriate classification destination exclusion unit 15 is excluded, the similarity between the face image data B and the face image data group 104 0.97 (97%) is determined to have the highest similarity score, and the face image data B is classified into the face image data group 104.

なお、分類部16によって顔画像データの分類先への分類(1つの顔画像データの1つの顔画像データグループへの分類)が行われる毎に、後述する分類確定データ除外部17による分類確定顔画像データ及び分類確定顔画像データグループの除外が行われる。ここで、分類確定顔画像データ及び分類確定顔画像データグループの除外とは、分類確定顔画像データに係る各類似度(分類確定顔画像データと全ての顔画像データグループとの類似度)を示す情報と分類確定顔画像データグループに係る各類似度(分類確定顔画像データグループと全ての顔画像データとの類似度)を示す情報とが除外されることを意味する。そして、分類部16によって、ある顔画像データの分類が行われた場合、次に分類部16が同一の画像データに含まれる顔画像データを分類する際には、分類確定顔画像データに係る全類似度を示す情報と分類確定顔画像データグループに係る全類似度を示す情報とが除外された状態で、分類が行われる。   Each time the classification unit 16 classifies the face image data into the classification destination (classification of one face image data into one face image data group), the classification confirmed face by the classification confirmed data exclusion unit 17 described later. Exclusion of the image data and the classification determined face image data group is performed. Here, the exclusion of the classification-confirmed face image data and the classification-confirmed face image data group indicates each similarity degree related to the classification-confirmed face image data (similarity between the classification-confirmed face image data and all face image data groups). This means that information and information indicating each similarity degree related to the classification determined face image data group (similarity between the classification determination face image data group and all the face image data) are excluded. When the classification unit 16 classifies certain face image data, the next time the classification unit 16 classifies the face image data included in the same image data, Classification is performed in a state in which the information indicating the similarity and the information indicating the total similarity related to the classified face image data group are excluded.

また、分類部16は、分類対象である顔画像データが、分類先である顔画像データグループのいずれにも分類することができない場合に、当該顔画像データを分類不可データとする。ここで、顔画像データグループのいずれにも分類することができない顔画像データ(分類不可データ)とは、当該顔画像データとの類似度が所定の閾値以上であって分類確定顔画像データグループとなっていない顔画像データグループが存在しない、顔画像データをいう。   Further, when the face image data to be classified cannot be classified into any of the face image data groups to be classified, the classification unit 16 sets the face image data as unclassifiable data. Here, the face image data that cannot be classified into any of the face image data groups (non-classifiable data) is a classification-determined face image data group whose similarity to the face image data is not less than a predetermined threshold value. This refers to face image data in which no face image data group exists.

また、分類部16は、類似度を示す情報のうち、類似度のスコアが所定の閾値に満たない情報を除外する。所定の閾値としては、例えば0.90(類似度)、とすることが考えられる。   Further, the classification unit 16 excludes information whose similarity score is less than a predetermined threshold from information indicating similarity. For example, the predetermined threshold value may be 0.90 (similarity).

図2に示す例において、類似度のスコアの閾値が0.90であった場合に、類似度一覧40に示された各類似度が類似度入力部14により入力されると、分類部16は、顔画像データAの分類先としての顔画像データグループ105(類似度0.5)、顔画像データBの分類先としての顔画像データグループ103(類似度0.7)、顔画像データCの分類先としての顔画像データグループ101(類似度0.7)、顔画像データEの分類先としての顔画像データグループ101(類似度0.7)、顔画像データEの分類先としての顔画像データグループ104(類似度0.7)、顔画像データEの分類先としての顔画像データグループ105(類似度0.7)を、それぞれ分類先から除外する。   In the example shown in FIG. 2, when the similarity score threshold is 0.90 and each similarity shown in the similarity list 40 is input by the similarity input unit 14, the classification unit 16 The face image data group 105 (similarity 0.5) as the classification destination of the face image data A, the face image data group 103 (similarity 0.7) as the classification destination of the face image data B, and the face image data C Face image data group 101 (similarity 0.7) as a classification destination, face image data group 101 (similarity 0.7) as a classification destination of face image data E, and a face image as a classification destination of face image data E The data group 104 (similarity 0.7) and the face image data group 105 (similarity 0.7) as the classification destination of the face image data E are excluded from the classification destinations.

また、分類部16は、類似度入力部14によって入力された、分類対象である各顔画像データと分類先である各顔画像データグループとの類似度を示すデータ(以下、類似度を示すデータと記載)を分類状態記憶部21に入力する。類似度を示すデータのイメージを図6(a)に示す。そして、分類部16は、分類対象である顔画像データの分類先が決定すると、分類状態記憶部21に記憶された類似度を示すデータの、分類先が決定した顔画像データに対して、分類完了フラグをたてる。分類部16は、分類状態記憶部21に記憶された類似度を示すデータにおいて、分類完了フラグをたてた顔画像データと、該顔画像データに対応する分類先の顔画像データグループとを紐づけて管理する。また、分類部16は、分類不可データとなった顔画像データが存在する場合にも、分類状態記憶部21に記憶された類似度を示すデータの、分類不可データとなった顔画像データに対して、分類不可フラグをたてる。なお、各顔画像データは、顔画像データのインデックスで管理されていてもよく、この場合には、顔画像データに対応するインデックスに対して、分類不可フラグをたててもよい。なお、顔画像データのインデックスは、類似度算出部13が顔画像データを特定(顔抽出)した際に、自動で設定されるものとすることが考えられる。   The classification unit 16 also inputs data indicating similarity between each face image data that is a classification target and each face image data group that is a classification destination, which is input by the similarity input unit 14 (hereinafter, data indicating similarity). Is input to the classification state storage unit 21. An image of data indicating the similarity is shown in FIG. Then, when the classification destination of the face image data to be classified is determined, the classification unit 16 classifies the face image data determined by the classification destination of the data indicating the similarity stored in the classification state storage unit 21. Set completion flag. In the data indicating the similarity stored in the classification state storage unit 21, the classification unit 16 associates the face image data for which the classification completion flag is set and the classification target face image data group corresponding to the face image data. Manage. Further, the classification unit 16 also applies to the face image data that has become unclassifiable data of the data indicating the similarity stored in the classification state storage unit 21 even when there is face image data that has become unclassifiable data. And set the classification impossible flag. Each face image data may be managed by an index of the face image data. In this case, a classification impossible flag may be set for the index corresponding to the face image data. Note that the index of the face image data may be automatically set when the similarity calculation unit 13 specifies the face image data (face extraction).

また、分類部16は、分類先が決定した顔画像データの情報(当該顔画像データと分類先の顔画像データグループとを紐づけた情報、分類先が決定した顔画像データのインデックス等)、及び、分類不可データに関する情報(分類不可データとなった顔画像データのインデックス等)を、後述する分類確定データ除外部17、繰り返し処理制御部18に対して入力する。当該入力は、顔画像データの分類先が決定したタイミング(または分類不可データが存在することとなったタイミング)で行うことが考えられる。   The classification unit 16 also includes information on the face image data determined by the classification destination (information relating the face image data and the face image data group of the classification destination, an index of the face image data determined by the classification destination), Information relating to unclassifiable data (such as an index of face image data that has become unclassifiable data) is input to a classification finalized data exclusion unit 17 and a repetitive processing control unit 18, which will be described later. It is conceivable that the input is performed at the timing when the classification destination of the face image data is determined (or the timing at which unclassifiable data exists).

なお、分類部16は、後述する、分類確定データ除外部17によって、分類状態記憶部21に記憶された類似度を示すデータにたてられた除外完了フラグを参照することで、分類確定顔画像データに係る各類似度を示す情報と分類確定顔画像データグループに係る各類似度を示す情報とを除外し、分類を行う。この場合、分類部16は、分類を行うタイミングで、分類状態記憶部21に記憶された類似度を示すデータにたてられた除外完了フラグを参照することとする。   The classification unit 16 refers to the classification completion face image set by the classification confirmation data exclusion unit 17 described later, which is set in the data indicating the similarity stored in the classification state storage unit 21. Classification is performed by excluding information indicating each degree of similarity relating to the data and information indicating each degree of similarity relating to the classified face image data group. In this case, the classification unit 16 refers to the exclusion completion flag set in the data indicating the similarity stored in the classification state storage unit 21 at the timing of classification.

分類確定データ除外部17は、分類部16によって分類された分類対象の顔画像データを分類確定顔画像データとして分類対象から除外するとともに、分類確定顔画像データの分類先の顔画像データグループを分類確定顔画像データグループとして分類先から除外する分類確定データ除外手段である。   The classification confirmation data exclusion unit 17 excludes the classification target face image data classified by the classification unit 16 from the classification target as classification confirmation face image data, and classifies the face image data group that is the classification destination of the classification confirmation face image data. Classification final data excluding means for excluding from a classification destination as a definite face image data group.

ここで、分類部16によって分類された顔画像データを分類確定顔画像データとして分類対象から除外する、とは、分類先が確定している顔画像データについては確定した分類先に分類されることとし確定後は異なる分類先に分類されることのないようにする、との意味である。同様に、分類確定顔画像データの分類先の顔画像データグループを分類確定顔画像データグループとして分類先から除外する、とは、分類確定顔画像データの分類先として確定している分類確定顔画像データグループについては他の顔画像データ(分類対象であって、分類が確定していないもの)の分類先とされることのないようにする、との意味である。   Here, the face image data classified by the classification unit 16 is excluded from the classification target as the classification confirmed face image data. The face image data for which the classification destination is confirmed is classified into the confirmed classification destination. And after confirmation, it means that it will not be classified into different classification destinations. Similarly, excluding a classification-destination face image data classification target face image data group as a classification-confirmed face image data group from the classification destination means that the classification-confirmed face image determined as the classification-destination face image data classification destination This means that the data group should not be a classification destination of other face image data (classification target that has not been classified).

分類確定データ除外部17は、分類状態記憶部21に記憶された類似度を示すデータの分類完了フラグを参照することで、分類部16によって分類された分類対象の顔画像データ(分類確定顔画像データ)が存在するか、を判断する。あるいは、分類確定データ除外部17は、分類部16からの、分類先が決定した顔画像データの情報(当該顔画像データと分類先の顔画像データグループとを紐づけた情報、分類先が決定した顔画像データのインデックス等)の入力に基づいて、分類確定顔画像データが存在するか、を判断してもよい。そして、分類確定顔画像データが存在する場合には、分類状態記憶部21に記憶された類似度を示すデータ、または、分類部16からの分類先が決定した顔画像データの情報の入力に基づいて、分類確定顔画像データの分類先である分類確定顔画像データグループを特定する。   The classification confirmation data exclusion unit 17 refers to the classification completion flag of the data indicating the similarity stored in the classification state storage unit 21, thereby classifying face image data (classification confirmation face image) classified by the classification unit 16. Data) exists. Alternatively, the classification determination data excluding unit 17 determines the information of the face image data determined by the classification destination from the classification unit 16 (information that associates the face image data with the face image data group of the classification destination, and determines the classification destination. It is also possible to determine whether classification-confirmed face image data exists based on the input of the face image data index or the like. Then, when the classification confirmed face image data exists, based on the data indicating the similarity stored in the classification state storage unit 21 or the input of the face image data information determined by the classification unit 16 from the classification destination. Thus, the classification determined face image data group that is the classification destination of the classification determined face image data is specified.

そして、分類確定データ除外部17は、分類状態記憶部21に記憶された類似度を示すデータのうち、分類確定顔画像データに係る各類似度を示す情報、及び、分類確定顔画像データグループに係る各類似度を示す情報に対して、除外完了フラグをたてる。分類部16は、分類状態記憶部21に記憶された類似度を示すデータの除外完了フラグを参照することで、分類確定顔画像データに係る各類似度を示す情報と分類確定顔画像データグループに係る各類似度を示す情報とを除外し、分類を行うことができる。   Then, the classification confirmation data excluding unit 17 includes, in the data indicating the similarity stored in the classification state storage unit 21, information indicating each similarity related to the classification determination face image data, and the classification determination face image data group. An exclusion completion flag is set for the information indicating each similarity. The classification unit 16 refers to the exclusion completion flag of the data indicating the similarity stored in the classification state storage unit 21, so that information indicating each similarity related to the classification determined face image data and the classification determined face image data group are displayed. Classification can be performed by excluding the information indicating each degree of similarity.

なお、分類確定データ除外部17は、分類確定顔画像データを分類対象から除外し、分類確定顔画像データグループを分類先から除外した旨の情報を、分類部16及び、後述する繰り返し処理制御部18に対して入力することとしてもよい。当該入力は、除外したタイミングで行われることが考えられる。   The classification determination data excluding unit 17 excludes the classification determination face image data from the classification target, and information indicating that the classification determination face image data group is excluded from the classification destination, and a repetitive processing control unit described later. 18 may be input. The input may be performed at the excluded timing.

図2に示す例において、分類部16により顔画像データBが顔画像データグループ104に分類されると、分類確定データ除外部17は、分類部16によって分類された顔画像データBを分類確定顔画像データとして分類対象から除外するとともに、顔画像データBの分類先である顔画像データグループ104を分類確定顔画像データグループとして分類先から除外する。分類確定データ除外部17による当該処理後は、同一の画像データ30に係る顔画像データの分類において、分類確定顔画像データである顔画像データBが分類対象となることはなく、また、分類確定顔画像データグループである顔画像データグループ104が分類先となることはない。   In the example shown in FIG. 2, when the face image data B is classified into the face image data group 104 by the classification unit 16, the classification confirmation data exclusion unit 17 classifies the face image data B classified by the classification unit 16 into the classification confirmation face. The image data is excluded from the classification target, and the face image data group 104 that is the classification destination of the face image data B is excluded from the classification destination as the classification determined face image data group. After the processing by the classification determination data exclusion unit 17, in the classification of the face image data related to the same image data 30, the face image data B that is the classification determination face image data is not a classification target, and the classification determination is performed. The face image data group 104 that is a face image data group is never a classification destination.

繰り返し処理制御部18は、分類部16及び分類確定データ除外部17による処理を繰り返すように制御する繰り返し処理制御手段である。また、繰り返し処理制御部18は、分類対象である複数の顔画像データ全てが、顔画像データグループに分類される、または、顔画像データグループのいずれにも分類することができない分類不可データと決定される、まで、分類部16及び分類確定データ除外部17による処理を繰りかえすように制御する。   The repetitive process control unit 18 is a repetitive process control unit that performs control so that the processes by the classification unit 16 and the classification determination data exclusion unit 17 are repeated. In addition, the iterative processing control unit 18 determines that all of the plurality of face image data to be classified are classified into face image data groups or cannot be classified into any of the face image data groups. Control until the processing by the classification unit 16 and the classification determination data exclusion unit 17 is repeated.

繰り返し処理制御部18は、分類状態記憶部21に記憶された類似度を示すデータの分類完了フラグ、及び、分類不可フラグを参照することで、分類部16及び分類確定データ除外部17による処理を繰り返すか否かを判断する。すなわち、分類状態記憶部21に記憶された類似度を示すデータの顔画像データの全てに、分類完了フラグまたは分類不可フラグのいずれかがたっている場合には、繰り返し処理を行わないように制御し、分類完了フラグまたは分類不可フラグのいずれもたっていない顔画像データが存在する場合には、繰り返し処理を行うように制御する。なお、繰り返し処理制御部18は、分類部16からの、分類先が決定した顔画像データの情報(当該顔画像データと分類先の顔画像データグループとを紐づけた情報、分類先が決定した顔画像データのインデックス等)、及び、分類不可データに関する情報(分類不可データとなった顔画像データのインデックス等)の入力に基づいて、分類部16及び分類確定データ除外部17による処理を繰り返すか否かを判断してもよい。   The iterative processing control unit 18 refers to the classification completion flag and the classification impossibility flag of the data indicating the similarity stored in the classification state storage unit 21 to perform processing by the classification unit 16 and the classification determination data exclusion unit 17. Determine whether to repeat. That is, when all the face image data of the data indicating the similarity stored in the classification state storage unit 21 has either the classification completion flag or the classification impossible flag, control is performed so as not to repeat the process. When there is face image data that does not have either the classification completion flag or the classification impossibility flag, control is performed so as to perform repetitive processing. Note that the iterative processing control unit 18 receives information on the face image data determined by the classification destination from the classification unit 16 (information linking the face image data and the face image data group of the classification destination, and the classification destination is determined). Whether the processing by the classification unit 16 and the classification finalized data exclusion unit 17 is repeated based on input of information on the face image data) and information on the non-classifiable data (index of the face image data that has become non-classifiable data) It may be determined whether or not.

図2に示す例において、分類確定データ除外部17により、分顔画像データBを分類確定顔画像データとして分類対象から除外されるとともに、顔画像データBの分類先である顔画像データグループ104を分類確定顔画像データグループとして分類先から除外されると、繰り返し処理制御部18は、分類完了フラグ、及び、分類不可フラグを参照する。この時点では、顔画像データBのみ分類先が決定している状況であり、他の顔画像データは分類先が決定していないので、分類状態記憶部21に記憶された、顔画像データと顔画像データグループとの類似度を示すデータは、各顔画像データのうち、顔画像データBのみ、分類完了フラグがたっていることを確認できる。よって、繰り返し処理制御部18は、分類完了フラグから、分類先が決定していない顔画像データが存在すると判断し、分類部16及び分類確定データ除外部17による処理を繰り返すように制御する。   In the example illustrated in FIG. 2, the classified image data excluding unit 17 excludes the divided face image data B from the classification target as the classified image data, and sets the face image data group 104 that is the classification destination of the face image data B. When the classification-confirmed face image data group is excluded from the classification destination, the iterative processing control unit 18 refers to the classification completion flag and the classification impossible flag. At this time, the classification destination is determined only for the face image data B, and the classification destination is not determined for the other face image data. Therefore, the face image data and the face stored in the classification state storage unit 21 are determined. As for the data indicating the degree of similarity with the image data group, it can be confirmed that the classification completion flag is set only for the face image data B among the face image data. Therefore, the iterative processing control unit 18 determines from the classification completion flag that there is face image data for which the classification destination has not been determined, and performs control so that the processing by the classification unit 16 and the classification determination data exclusion unit 17 is repeated.

また、繰り返し処理制御部18は、分類状態記憶部21に記憶された類似度を示すデータの顔画像データの全てに、分類完了フラグまたは分類不可フラグのいずれかがたっており、繰り返し処理を行わないように判断した場合には、繰り返し処理の制御を行わず、分類部16から入力された、分類先が決定した顔画像データと分類先の顔画像データグループとを紐づけた情報を、後述する分類結果出力部20に入力する。また、繰り返し処理制御部18は、合わせて、顔画像データの顔特徴量、当該顔画像データ自身、顔画像データのインデックス等を取得して、分類結果出力部20に入力する。   In addition, the iterative processing control unit 18 does not perform the iterative processing because all of the face image data of the data indicating the similarity stored in the classification state storage unit 21 has either a classification completion flag or a classification impossible flag. If the determination is made as described above, information relating to the face image data determined by the classification destination and the face image data group of the classification destination input from the classification unit 16 without performing the control of the repetitive processing will be described later. The result is input to the classification result output unit 20. In addition, the repetitive processing control unit 18 also acquires the facial feature amount of the facial image data, the facial image data itself, the index of the facial image data, and the like, and inputs them to the classification result output unit 20.

また、繰り返し処理制御部18は、分類状態記憶部21に記憶された類似度を示すデータの顔画像データに分類不可フラグがたった顔画像データが存在する場合には、分類不可データが存在する旨、及び、当該分類不可データである顔画像データの情報(分類不可データとなた顔画像データのインデックス等)を、後述する顔画像データグループ設定部19に入力する。   The repetitive processing control unit 18 also indicates that there is non-classifiable data when face image data with a non-classifiable flag exists in the face image data of the data indicating the similarity stored in the classification state storage unit 21. And the information of the face image data which is the unclassifiable data (such as the index of the face image data that has become unclassifiable data) is input to the face image data group setting unit 19 described later.

顔画像データグループ設定部19は、分類不可データである分類対象の顔画像データを、新たに、分類先である顔画像データグループとして設定する顔画像データグループ設定手段である。顔画像データグル―プ設定部19は、繰り返し処理制御部18から、分類不可データが存在する旨、及び、当該分類不可データである顔画像データの情報(分類不可データとなった顔画像データのインデックス等)の入力があった場合に、当該分類不可データである顔画像データに係る顔画像データグループを新たに設定する。   The face image data group setting unit 19 is a face image data group setting unit that newly sets classification target face image data that is non-classifiable data as a face image data group that is a classification destination. The face image data group setting unit 19 notifies the repetitive processing control unit 18 that there is non-classifiable data and information on the face image data that is the non-classifiable data (the face image data that has become non-classifiable data). When an index or the like) is input, a face image data group related to the face image data that is the unclassifiable data is newly set.

顔画像データグループ設定部19は、類似度算出部13に、分類不可データである顔画像データの情報(分類不可データとなった顔画像データのインデックス等)を入力する。当該入力があった場合に、類似度算出部13は、分類不可データである顔画像データの顔特徴量、顔向きに関する情報、顔画像データ自体を、顔画像データグループ設定部19に入力する。そして、顔画像データグル―プ設定部19は、類似度算出部13から入力された顔特徴量を顔画像データグループの平均特徴量、類似度算出部13から入力された顔向きを顔画像データグループの顔向きとして、新たな顔画像データグループを設定する。   The face image data group setting unit 19 inputs information on face image data that is unclassifiable data (such as an index of face image data that has become unclassifiable data) to the similarity calculation unit 13. When the input is made, the similarity calculation unit 13 inputs the face feature amount of the face image data, which is non-classifiable data, information on the face direction, and the face image data itself to the face image data group setting unit 19. Then, the face image data group setting unit 19 uses the face feature amount input from the similarity calculation unit 13 as the average feature amount of the face image data group, and the face direction input from the similarity calculation unit 13 as the face image data. A new face image data group is set as the face orientation of the group.

また、顔画像データグループ設定部19は、新たな顔画像データグループを設定するタイミングで、当該顔画像データグループの顔画像データに係る人物の名前及び誕生日を設定するユーザ操作を受けつける。なお、当該ユーザ操作を受けつけるタイミングは、後述する、分類結果出力部20による出力時としてもよい。ここで、分類結果出力部20による出力時とは、分類結果出力部20が、新たな顔画像データグループ(画像データの新たな分類先)が設定されたことを、ユーザの端末等のディスプレイに表示するタイミング等をいう。顔画像データグループ設定部19は、平均特徴量(顔向き)、誕生日を設定した、新たな顔画像データグループに関する情報を、分類結果出力部20に入力する。   Further, the face image data group setting unit 19 receives a user operation for setting the name and birthday of a person related to the face image data of the face image data group at the timing of setting a new face image data group. Note that the timing for accepting the user operation may be output by the classification result output unit 20 described later. Here, when outputting by the classification result output unit 20, the classification result output unit 20 indicates that a new face image data group (new classification destination of image data) has been set on a display such as a user terminal. Refers to the display timing. The face image data group setting unit 19 inputs information related to the new face image data group in which the average feature amount (face orientation) and the birthday are set to the classification result output unit 20.

顔画像データグループ設定部19による顔画像データグループの設定イメージについて、図3により説明する。図3は、本発明の実施形態に係る画像分類装置1の新規の顔画像データグループ設定イメージを示す図である。画像データ入力部11に入力された画像データ50に、顔画像データFと顔画像データGが含まれていたとする。顔画像データFは顔向きが正面であり、顔画像データGは顔向きが右45度である。いま、顔画像データグループ記憶部12に記憶された顔画像データグループテーブル202に含まれる顔画像データグループとして、図3に示す顔画像データグループ106〜110があり、それぞれに含まれる顔画像データの顔向きは、顔画像データグループ106、顔画像データグループ108、顔画像データグループ110が正面、顔画像データグループ107、顔画像データグループ109が右45度である。   The setting image of the face image data group by the face image data group setting unit 19 will be described with reference to FIG. FIG. 3 is a diagram showing a new face image data group setting image of the image classification device 1 according to the embodiment of the present invention. Assume that the image data 50 input to the image data input unit 11 includes face image data F and face image data G. The face image data F has a face orientation of front, and the face image data G has a face orientation of 45 degrees to the right. Now, there are face image data groups 106 to 110 shown in FIG. 3 as face image data groups included in the face image data group table 202 stored in the face image data group storage unit 12. As for the face orientation, the face image data group 106, the face image data group 108, and the face image data group 110 are front, and the face image data group 107 and the face image data group 109 are 45 degrees to the right.

類似度算出部13による類似度の算出は、顔向きが同じ顔画像データ同士でのみ行われるため、顔画像データGは、顔画像データグループ107、顔画像データグル―プ109とのみ、類似度が算出される。図3に示すように、顔画像データGと顔画像データグループ107との類似度は0.50、顔画像データGと顔画像データグループ109との類似度は0.79であるため、分類先を決定するための所定の閾値が類似度0.90であった場合には、分類部16によって、顔画像データGは分類不可データとされる。この場合には、顔画像データグループ設定部19は、顔画像データGの情報をもとに、図3に示す新たな顔画像データグループ111を設定する。   Since the similarity calculation by the similarity calculation unit 13 is performed only between face image data having the same face orientation, the face image data G is obtained only from the face image data group 107 and the face image data group 109. Is calculated. As shown in FIG. 3, the similarity between the face image data G and the face image data group 107 is 0.50, and the similarity between the face image data G and the face image data group 109 is 0.79. When the predetermined threshold value for determining the similarity is 0.90, the classification unit 16 sets the face image data G as unclassifiable data. In this case, the face image data group setting unit 19 sets a new face image data group 111 shown in FIG. 3 based on the information of the face image data G.

分類結果出力部20は、繰り返し処理制御部18から入力された、分類先が決定した顔画像データの情報(当該顔画像データと分類先の顔画像データグループとを紐づけた情報、当該顔画像データの顔特徴量、当該顔画像データ自身、当該顔画像データのインデックス等)、及び、顔画像データグループ設定部19から入力された新たな顔画像データグループに関する情報(平均特徴量、顔向き、誕生日、顔画像データグループに属する顔画像データ)を出力する機能を有するものである。なお、分類の結果、既存の顔画像データグループに、新たな顔画像データが追加されることから、各既存の顔画像データグループの平均特徴量は変更となる。よって、分類結果出力部20は、分類結果を類似度算出部13に入力し、類似度算出部13から、分類した顔画像データの顔特徴量及び分類した顔画像データ自身の入力を受けつける。そして、類似度算出部13から入力された、分類した顔画像データの顔特徴量を考慮して、既存の顔画像データグループの平均特徴量を更新する。すなわち、今回分類した顔画像データを含めた、顔画像データグループの全顔画像データの顔特徴量の値の平均である平均特徴量を算出して、平均特徴量を更新する。分類結果出力部20による出力は、顔画像データグループ記憶部12に対して行われるものである。すなわち、分類結果出力部20は、顔画像データグループ記憶部12に、分類先が決定した顔画像データの情報(当該顔画像データと分類先の顔画像データグループとを紐づけた情報、当該顔画像データの顔特徴量、当該顔画像データ自身、当該顔画像データのインデックス等)、及び、顔画像データグループ設定部19から入力された新たな顔画像データグループに関する情報(平均特徴量、顔向き、誕生日、顔画像データグループに属する顔画像データ)出力する。そして、顔画像データグループ記憶部12は、分類結果出力部20から出力された情報に基づいて、既存の顔画像データグループの情報を更新(今回分類された顔画像データの追加、平均特徴量の更新)、及び、新たな顔画像データグループの追加(平均特徴量、顔向き、誕生日の設定)を行う。   The classification result output unit 20 receives information of face image data determined by the classification destination input from the iterative processing control unit 18 (information relating the face image data and the face image data group of the classification destination, the face image Data face feature amount, the face image data itself, the index of the face image data, and the like, and information about the new face image data group input from the face image data group setting unit 19 (average feature amount, face orientation, Birthday, face image data belonging to the face image data group). As a result of the classification, new face image data is added to the existing face image data group, so that the average feature amount of each existing face image data group is changed. Therefore, the classification result output unit 20 inputs the classification result to the similarity calculation unit 13, and receives from the similarity calculation unit 13 the input of the facial feature amount of the classified face image data and the classified face image data itself. Then, the average feature amount of the existing face image data group is updated in consideration of the face feature amount of the classified face image data input from the similarity calculation unit 13. That is, an average feature amount that is an average of face feature amount values of all face image data of the face image data group including the face image data classified this time is calculated, and the average feature amount is updated. The output by the classification result output unit 20 is performed on the face image data group storage unit 12. That is, the classification result output unit 20 stores in the face image data group storage unit 12 information on the face image data determined by the classification destination (information relating the face image data and the face image data group of the classification destination, the face Face feature amount of the image data, the face image data itself, the index of the face image data, and the like, and information on the new face image data group input from the face image data group setting unit 19 (average feature amount, face orientation) , Birthday, face image data belonging to the face image data group). Then, the face image data group storage unit 12 updates the information of the existing face image data group based on the information output from the classification result output unit 20 (addition of the face image data classified this time, the average feature amount Update) and addition of a new face image data group (setting of average feature amount, face orientation, birthday).

なお、分類結果出力部20は、画像データを取得したユーザ(例えば画像データがデジタルカメラで撮影した写真であれば、当該写真を撮影してアップロードしたユーザ)に対して、インターネット等を介して、パソコン端末等のディスプレイに分類結果を表示するようにしてもよい。分類結果の表示は、分類を行った顔画像データに係る顔画像データグループを、フォルダ形式で表示することにより行われ、それぞれのフォルダには、当該フォルダ(顔画像データグループ)に属する顔画像データが含まれる画像データが格納される。   The classification result output unit 20 provides the user who has acquired the image data (for example, if the image data is a photograph taken with a digital camera, a user who has captured and uploaded the photograph) via the Internet or the like, The classification result may be displayed on a display such as a personal computer terminal. The classification result is displayed by displaying the face image data group related to the classified face image data in a folder format, and each folder has face image data belonging to the folder (face image data group). Is stored.

なお、顔画像データグループ毎のフォルダはユーザ単位で管理されることとし、通常は、他のユーザのフォルダを閲覧することはできないが、例えば、ユーザ同士で認証を行うことにより、他のユーザのフォルダを閲覧できる(ユーザ間での共有ができる)こととしてもよい。   Note that the folder for each face image data group is managed in units of users. Normally, other users' folders cannot be browsed, but for example, by performing authentication between users, It is good also as being able to browse a folder (sharing between users is possible).

つぎに、図4により、画像分類装置1のハードウェア構成について説明する。図4は本発明の実施形態に係る画像分類装置1のハードウェア構成を示す図である。図4に示すように、画像分類装置1は、CPU131、主記憶装置であるRAM132及びROM133、通信を行うための通信モジュール134、並びにハードディスク等の補助記憶装置135等のハードウェアを備えるコンピュータを含むものとして構成される。これらの構成要素がプログラム等により動作することにより、上述した各機能が発揮される。   Next, the hardware configuration of the image classification device 1 will be described with reference to FIG. FIG. 4 is a diagram showing a hardware configuration of the image classification device 1 according to the embodiment of the present invention. As shown in FIG. 4, the image classification device 1 includes a computer including a CPU 131, a RAM 132 and a ROM 133 which are main storage devices, a communication module 134 for performing communication, and an auxiliary storage device 135 such as a hard disk. Configured as a thing. Each of the above-described functions is exhibited when these components are operated by a program or the like.

引き続いて、図2、図5、及び図6〜図8を用いて、画像分類装置1の処理フローを説明する。図5は、本発明の実施形態に係る画像分類装置1の処理フローを示す図である。図6〜図8は、本発明の実施形態に係る画像分類装置1の分類処理内容を示す図である。   Subsequently, a processing flow of the image classification apparatus 1 will be described with reference to FIGS. 2, 5, and 6 to 8. FIG. 5 is a diagram showing a processing flow of the image classification device 1 according to the embodiment of the present invention. 6-8 is a figure which shows the classification processing content of the image classification apparatus 1 which concerns on embodiment of this invention.

なお、画像データ入力部11から入力される画像は、図2に示した画像データ30であり、各顔画像データグループは図2に示した顔画像データグループ101〜105である。   The image input from the image data input unit 11 is the image data 30 shown in FIG. 2, and the face image data groups are the face image data groups 101 to 105 shown in FIG.

まず、図5のS101に示すように、画像データ入力部11により画像データ30が入力される(S101、画像データ入力ステップ)。そして、類似度算出部13により画像データ30に含まれる顔画像データA〜顔画像データEが特定され、顔画像データA〜顔画像データEの顔特徴量及び顔向きが特定された後に、顔画像データA〜顔画像データEと、顔画像データグループ記憶部12に記憶された顔画像データグループ101〜顔画像データグループ105との類似度が算出される(S102、類似度算出ステップ)。   First, as shown in S101 of FIG. 5, the image data 30 is input by the image data input unit 11 (S101, image data input step). Then, after the face image data A to face image data E included in the image data 30 are specified by the similarity calculation unit 13 and the face feature amounts and face orientations of the face image data A to face image data E are specified, Similarities between the image data A to the face image data E and the face image data group 101 to the face image data group 105 stored in the face image data group storage unit 12 are calculated (S102, similarity calculation step).

そして、類似度入力部14により、顔画像データA〜顔画像データEと、顔画像データグループ101〜顔画像データグループ105との類似度が入力される(S103、類似度入力ステップ)。分類先を決定するための、各類似度を整理した表は、図6(a)に示すようになる。なお、図6(a)に示した各類似度と、図2に示した類似度一覧40は同一の類似度を示している。   Then, the similarity input unit 14 inputs the similarity between the face image data A to the face image data E and the face image data group 101 to the face image data group 105 (S103, similarity input step). A table in which the similarities are arranged for determining the classification destination is as shown in FIG. Each similarity shown in FIG. 6A and the similarity list 40 shown in FIG. 2 show the same similarity.

つぎに、不適分類先除外部15により、顔画像データグループに係る人物の誕生日が、画像データ30の作成日より後である、顔画像データグループ102が分類先から除外される(S104、不適分類先除外ステップ)。よって、分類先を決定するための表は、図6(a)に示した表から顔画像データグループ102を除外した図6(b)に示す表となる。なお、顔画像データグループに日時情報が設定されていない場合には、不適分類先除外部15による分類先(顔画像データグループ)の除外(S104の処理)は行われない。また、分類先として決定されうる類似度のスコアの閾値を0.90とした場合には、類似度のスコアが0.90に満たないデータは分類部16により除外される。よって、図6(b)に示した表から、さらに類似度が0.90に満たないデータを除外した、図6(c)に示した表が、分類先を決定するための表となる。   Next, the unsuitable classification destination exclusion unit 15 excludes the face image data group 102 whose birthday related to the face image data group is later than the creation date of the image data 30 from the classification destination (S104, unsuitable). Classification destination exclusion step). Therefore, the table for determining the classification destination is the table shown in FIG. 6B in which the face image data group 102 is excluded from the table shown in FIG. If the date / time information is not set for the face image data group, the classification destination (face image data group) is not excluded (the process of S104) by the inappropriate classification destination exclusion unit 15. Further, when the threshold value of the similarity score that can be determined as the classification destination is set to 0.90, data whose similarity score is less than 0.90 is excluded by the classification unit 16. Therefore, the table shown in FIG. 6C obtained by excluding data whose similarity is less than 0.90 from the table shown in FIG. 6B is a table for determining the classification destination.

つぎに、分類部16により、顔画像データグループとの類似度のスコアが高い顔画像データが、当該類似度のスコアに係る顔画像データグループに分類される(S105、分類ステップ)。この場合、図6(c)に示した表は、図7に示すように、類似度の順でソートされた一覧表とされる(第1ソート:スコア、第2ソート:顔画像データ)。なお、類似度が同一であった場合には、顔画像データのインデックス(face_index)が小さいもの(例えば、顔画像データA〜顔画像データEがある場合には、顔画像データAを最もface_indexが小さいとする等)を優先的に類似してソートしてもよい。そして、図7に示す最も類似度のスコアの高い顔画像データBの分類先が、顔画像データグループ104と決定される。   Next, the classification unit 16 classifies the face image data having a high similarity score with the face image data group into the face image data group related to the similarity score (S105, classification step). In this case, as shown in FIG. 7, the table shown in FIG. 6C is a list sorted in the order of similarity (first sort: score, second sort: face image data). If the degree of similarity is the same, the face image data index (face_index) is small (for example, when there is face image data A to face image data E, face image data A has the largest face_index. You may sort preferentially in a similar manner. Then, the classification destination of the face image data B having the highest similarity score shown in FIG. 7 is determined as the face image data group 104.

つぎに、分類確定データ除外部17により、分類確定顔画像データである顔画像データBが分類対象から除外され、分類確定顔画像データグループである顔画像データグループ104が分類先から除外される(S106、分類確定データ除外ステップ)。顔画像データBが分類対象から除外され、顔画像データグループ104が分類先から除外された一覧表を図8(a)に示す。   Next, the classification confirmation data exclusion unit 17 excludes the face image data B, which is the classification confirmation face image data, from the classification target, and excludes the face image data group 104, which is the classification confirmation face image data group, from the classification destination ( S106, classification determination data exclusion step). FIG. 8A shows a list in which the face image data B is excluded from the classification target and the face image data group 104 is excluded from the classification destination.

つぎに、繰り返し処理制御部18が分類完了フラグ及び分類不可フラグにより、分類対象が全て、分類済みまたは分類不可データとなっているかを確認し、繰り返し処理を行うか否かを判断する。(S107、繰り返し処理制御ステップ)。この時点では顔画像データBのみ分類先が決定されており、分類不可データも発生していない状況であるため、繰り返し処理制御部18は、S105、S106の処理を繰り返すように制御する。   Next, the iterative processing control unit 18 confirms whether all classification targets are classified or non-classifiable data by using the classification completion flag and the classification impossible flag, and determines whether or not to perform the repetition processing. (S107, repetitive process control step). At this time, only the face image data B has been determined as the classification destination, and no non-classifiable data has been generated. Therefore, the repetitive process control unit 18 controls to repeat the processes of S105 and S106.

そして、S105に戻り、分類部16により、除外されていないデータのうち最も類似度のスコアの高い顔画像データAを顔画像データグループ103に分類すると決定される。そして、S106の処理として、分類確定データ除外部17により、分類確定顔画像データである顔画像データAが分類対象から除外され、分類確定顔画像データグループである顔画像データグループ103が分類先から除外される。顔画像データAが分類対象から除外され、顔画像データグループ103が分類先から除外された一覧表を図8(b)に示す。   Then, returning to S105, the classification unit 16 determines that the face image data A having the highest similarity score among the data not excluded is classified into the face image data group 103. In step S106, the classification determination data exclusion unit 17 excludes the face image data A that is the classification determination face image data from the classification target, and the face image data group 103 that is the classification determination face image data group from the classification destination. Excluded. FIG. 8B shows a list in which the face image data A is excluded from the classification target and the face image data group 103 is excluded from the classification destination.

このようなS105〜S107の処理が繰り返されることで、顔画像データDは顔画像データグループ101に分類(除外後の一覧表は図8(c))され、顔画像データCは顔画像データグループ105に分類(除外後の一覧表は図8(d))される。この場合、顔画像データEは、図8(d)に示すように、類似度のスコアが0.90を上回る顔画像データグループが存在しないため、分類不可データとなる。   By repeating the processes of S105 to S107, the face image data D is classified into the face image data group 101 (the list after exclusion is shown in FIG. 8C), and the face image data C is the face image data group. It is classified into 105 (the list after exclusion is shown in FIG. 8D). In this case, as shown in FIG. 8D, the face image data E is non-classifiable data because there is no face image data group having a similarity score exceeding 0.90.

顔画像データCが顔画像データグループ105に分類された後のS107の処理において、分類状態記憶部21に記憶された、類似度を示すデータの分類完了フラグ及び分類不可フラグを参照すると、分類部16により、顔画像データA〜顔画像データDは分類済みであり、顔画像データEは分類不可データであると判断される。よって、S107の処理において、全ての顔画像データが、分類済みまたは分類不可データのいずれか、という条件に合致し、S108の処理に移行する。   In the process of S107 after the face image data C is classified into the face image data group 105, referring to the classification completion flag and the classification impossible flag of the data indicating similarity stored in the classification state storage unit 21, the classification unit 16, it is determined that face image data A to face image data D have been classified, and face image data E is unclassifiable data. Therefore, in the process of S107, all the face image data matches the condition of either classified or unclassifiable data, and the process proceeds to S108.

つぎに、繰り返し処理制御部18により分類不可データがあるか否かが判断される(S108)。いま、顔画像データEが分類不可データであるため、S109の処理に移行される。   Next, it is determined by the repetitive processing control unit 18 whether there is unclassifiable data (S108). Now, since the face image data E is non-classifiable data, the process proceeds to S109.

そして、顔画像データグループ設定部19により、顔画像データEに係る顔画像データグル―プが新たに設定される(S109、顔画像データグループ設定ステップ)。   Then, the face image data group setting unit 19 newly sets a face image data group related to the face image data E (S109, face image data group setting step).

最後に、分類結果出力部20により、分類先が決定した顔画像データの情報(当該顔画像データと分類先の顔画像データグループとを紐づけた情報、当該顔画像データの顔特徴量、当該顔画像データ自身、当該顔画像データのインデックス等)、及び、顔画像データグループ設定部19から入力された新たな顔画像データグループに関する情報(平均特徴量、顔向き、誕生日、顔画像データグループに属する顔画像データ)が、顔画像データグループ記憶部12に出力される(S110、分類結果出力ステップ)。以上が、本発明の実施形態に係る画像分類装置1の処理フローの説明である。   Finally, by the classification result output unit 20, information of the face image data determined by the classification destination (information that associates the face image data with the face image data group of the classification destination, the facial feature amount of the face image data, the Information on the face image data itself, the index of the face image data, and the new face image data group input from the face image data group setting unit 19 (average feature, face orientation, date of birth, face image data group) Face image data) is output to the face image data group storage unit 12 (S110, classification result output step). The above is the description of the processing flow of the image classification device 1 according to the embodiment of the present invention.

つぎに、本実施形態に係る画像分類装置1の作用・効果について説明する。   Next, operations and effects of the image classification device 1 according to the present embodiment will be described.

本実施形態に係る画像分類装置1では、画像データ内の複数の顔画像データのうち、類似度に基づいて分類部16により分類先に分類された顔画像データついては、分類確定データ除外部17により、分類確定顔画像データとして分類対象から除外され、当該分類確定顔画像データに係る分類先の顔画像データグル―プについては、分類確定顔画像データグループとして分類先から除外される。分類確定顔画像データグループが分類先から除外されることにより、未だ分類されていない分類対象顔画像データが、分類確定顔画像データに係る分類先である分類確定顔画像データグループに分類されることを防止できる。すなわち、画像データに含まれる複数の顔画像データが、同一の顔画像データグループに分類されるという事態を防止することができる。同一の画像データに含まれる複数の顔画像データは通常異なる人物に係るものであると考えられるため、画像データに含まれる複数の顔画像データを同一の顔画像データグループに分類しないように制御することで、顔画像データを適切な分類先に分類することに寄与できる。以上より、本実施形態に係る画像分類装置1によれば、分類対象である画像データ内の複数の顔画像データを適切な分類先に分類することができる。   In the image classification device 1 according to the present embodiment, among the plurality of face image data in the image data, the face image data classified as the classification destination by the classification unit 16 based on the similarity is classified by the classification determination data exclusion unit 17. The classification-confirmed face image data is excluded from the classification target, and the face image data group of the classification destination related to the classification-confirmed face image data is excluded from the classification destination as the classification-confirmed face image data group. By excluding the classification-confirmed face image data group from the classification destination, the classification target face image data that has not yet been classified is classified into the classification-confirmed face image data group that is the classification destination related to the classification-confirmed face image data. Can be prevented. That is, it is possible to prevent a plurality of face image data included in the image data from being classified into the same face image data group. Since the plurality of face image data included in the same image data is usually considered to be related to different persons, control is performed so that the plurality of face image data included in the image data is not classified into the same face image data group. This can contribute to classifying the face image data into an appropriate classification destination. As described above, according to the image classification device 1 according to the present embodiment, a plurality of face image data in the image data to be classified can be classified into appropriate classification destinations.

また、本実施形態に係る画像分類装置1は、分類部16が、類似度を示す情報のうち、類似度のスコアが所定の閾値に満たない情報を除外することで、類似しない顔画像データグループに分類対象が分類されるといった不適切な分類を防止し、分類対象の適切な分類先への分類をより確実なものとすることができる。   Further, in the image classification device 1 according to the present embodiment, the classification unit 16 excludes information whose similarity score is less than a predetermined threshold from information indicating similarity, thereby dissimilar face image data groups Therefore, it is possible to prevent inappropriate classification such that the classification target is classified into the classification target, and to further reliably classify the classification target to an appropriate classification destination.

また、本実施形態に係る画像分類装置1は、繰り返し処理制御部18が、分類対象である複数の顔画像データ全てが、顔画像データグループに分類される、または、顔画像データグループのいずれにも分類することができない分類不可データと決定される、まで、分類部16及び分類確定データ除外部17による処理を繰りかえすように制御することで、全ての顔画像データについて分類先の決定に関する処理を行うことができ、分類対象の適切な分類先への分類をより確実なものとすることができる。   Further, in the image classification device 1 according to the present embodiment, the iterative processing control unit 18 classifies all of the plurality of face image data to be classified into a face image data group or any of the face image data groups. The processing related to the determination of the classification destination for all the face image data is performed by controlling so that the processing by the classification unit 16 and the classification determination data exclusion unit 17 is repeated until it is determined that the data cannot be classified. This can be performed, and the classification of the classification target into an appropriate classification destination can be made more reliable.

また、本実施形態に係る画像分類装置1は、分類不可データである分類対象の顔画像データを、新たに、分類先である顔画像データグループとして設定する顔画像データグループ設定部19をさらに備えることで、分類先が存在しなかった分類不可データについては、新たな顔画像データグループとして設定することができ、その後に異なる画像データの顔画像データについて分類を行う際に更なる分類先とすることができる。このように、適切な分類先が存在しなかった分類対象の顔画像データを、新たな顔画像データグループとすることで、分類対象の適切な分類先への分類をより確実なものとすることができる。   The image classification apparatus 1 according to the present embodiment further includes a face image data group setting unit 19 that newly sets the classification target face image data that is non-classifiable data as a face image data group that is a classification destination. As a result, the non-classifiable data for which no classification destination exists can be set as a new face image data group, which is then used as a further classification destination when classifying the face image data of different image data. be able to. In this way, by classifying face image data of a classification target for which no suitable classification destination exists into a new face image data group, it is possible to further reliably classify the classification target to an appropriate classification destination. Can do.

また本実施形態に係る画像分類装置1は、分類先である顔画像データグループに日時情報が設定されており、分類対象である画像データの作成日と分類先である顔画像データグループに設定された日時情報とを比較し、作成日が、日時情報よりも前である場合には、日時情報に係る顔画像データグループを分類先から除外する不適分類先除外部15をさらに備えることで、ある顔画像データグループの特定の日時情報(例えば誕生日)よりも前に作成された画像データについては、当該顔画像データグループに分類されえない(産まれていないのに、画像データに写り得ない)、と判断可能な日時情報を顔画像データグループに設定しておくことで、不適切な分類を防止し、分類対象の適切な分類先への分類をより確実なものとすることができる。   Also, in the image classification device 1 according to the present embodiment, date information is set in the face image data group that is the classification destination, and the creation date of the image data that is the classification target and the face image data group that is the classification destination are set. If the creation date is earlier than the date and time information, an inappropriate classification destination exclusion unit 15 that excludes the face image data group related to the date and time information from the classification destination is provided. Image data created before a specific date and time information (for example, birthday) of a face image data group cannot be classified into the face image data group (not yet born but cannot be reflected in the image data). By setting the date and time information that can be determined to be in the face image data group, inappropriate classification can be prevented, and classification to an appropriate classification destination for classification can be made more reliable. That.

一般的に、兄弟や親子は同類の遺伝子を持っているので、分類対象と分類先の画像データが兄弟や親子に係るものである場合には、異なる人物であるにも関わらず同一人物と判定しがちである。誕生日等の日時情報により顔画像データグループに係る人物が写り得ない顔画像データを特定することによって、たとえ類似判定の結果同一人物であると判定した場合であっても、当該類似判定に係る顔画像データを顔画像データグループに分類することを防止できる。すなわち、類似判定が難しいデータについて、類似判定以外の要素でも分類先を決定することで、分類対象の適切な分類先への分類をより確実なものとしている。   In general, siblings and parents / children have similar genes, so if the image data to be classified and the classification target are related to siblings / parents / children, they are determined to be the same person even though they are different persons. It tends to be. By specifying face image data in which a person related to the face image data group cannot be captured by date and time information such as a birthday, even if it is determined that the person is the same person as a result of the similarity determination, It is possible to prevent the face image data from being classified into face image data groups. That is, for data that is difficult to determine similarity, the classification destination is determined even for elements other than the similarity determination, so that the classification of the classification target to an appropriate classification destination is made more reliable.

また、本実施形態に係る画像分類装置1は、分類対象である画像データを入力する画像データ入力部11と、画像データ入力部11により入力された画像データ内の複数の顔画像データの顔特徴量を導出し、該顔特徴量に基づき、複数の顔画像データと分類先である顔画像データグループとの類似度を算出する類似度算出部13と、をさらに備えることで、顔画像データについての類似度の算出から分類先への分類までを、一元的に行うことができる。   The image classification device 1 according to the present embodiment includes an image data input unit 11 that inputs image data to be classified, and facial features of a plurality of face image data in the image data input by the image data input unit 11. And a similarity calculation unit 13 that calculates a similarity between a plurality of face image data and a face image data group that is a classification destination based on the face feature value. From the calculation of the similarity to the classification to the classification destination can be performed centrally.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限られたものではなく、各請求項に記載した要旨を変更しない範囲で変形し、または他のものに適用したものであってもよい。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments. The present invention is modified without departing from the gist described in each claim or applied to other embodiments. It may be a thing.

例えば、本実施形態においては、画像データを入力して顔画像データと顔画像データグループとの類似度を算出する機能構成(画像データ入力部11、顔画像データグループ記憶部12、類似度算出部13)については、分類に関する機能構成(類似度入力部14、分類部16等)と同一のサーバ(画像分類装置1)に含まれることとしたが、これに限定されるものではなく、類似度を算出する機能構成は、別のサーバに含まれる機能構成として、該別のサーバが算出した類似度を受信することにより、分類部16による分類を可能とするものであってもよい。この場合の類似度の算出は、既存の画像認識エンジンにより行うものであってもよい。   For example, in the present embodiment, a functional configuration (image data input unit 11, face image data group storage unit 12, similarity calculation unit) that calculates the similarity between face image data and a face image data group by inputting image data. 13) is included in the same server (image classification apparatus 1) as the functional configuration related to classification (similarity input unit 14, classification unit 16, etc.), but is not limited to this. The functional configuration for calculating the function may be a function configuration included in another server, and may be classified by the classification unit 16 by receiving the similarity calculated by the other server. In this case, the similarity may be calculated by an existing image recognition engine.

また、本実施形態において、画像分類装置1は、画像データに含まれる顔画像データを、当該顔画像データに係る人物と同一人物の登録済みの顔画像データグループに分類する方法で画像データを分類したが、当該機能に加えて、画像データにイベント情報(時刻に関する情報、場所に関する情報、人に関する情報、行動内容に関する情報等)を設定(タグ設定)し、該タグ設定された内容に基づいて、画像データを分類する機能を有していてもよい。   In this embodiment, the image classification device 1 classifies image data by a method of classifying face image data included in the image data into a registered face image data group of the same person as the person related to the face image data. However, in addition to the function, event information (information about time, information about place, information about people, information about action contents, etc.) is set (tag setting) in the image data, and based on the contents set by the tag The image data may be classified.

また、本実施形態において、分類対象である顔画像データと、顔画像データグループとの類似度の算出においては、顔画像データグループに含まれる顔画像データの平均特徴量を用いる、としたが、これに限定されるものではなく、例えば、顔画像データグループに含まれる全顔画像データについて、それぞれの顔特徴量を用いて分類対象である顔画像データとの類似度を算出し、最も高い類似度を、分類対象である顔画像データと顔画像データグループとの類似度としてもよい。また、平均特徴量を用いた類似度を用いる方法と、最も高い類似度を用いる方法とを併用してもよい。   In the present embodiment, the average feature amount of the face image data included in the face image data group is used in calculating the similarity between the face image data to be classified and the face image data group. However, the present invention is not limited to this. For example, for all face image data included in the face image data group, the degree of similarity with the face image data to be classified is calculated using each face feature amount, and the highest similarity is obtained. The degree may be the similarity between the face image data to be classified and the face image data group. Further, a method using the similarity using the average feature amount and a method using the highest similarity may be used in combination.

1…画像分類装置、2…画像データ入力部、12…顔画像データグループ記憶部、13…類似度算出部、14…類似度入力部、15…不適分類先除外部、16…分類部、17…分類確定データ除外部、18…繰り返し処理制御部、19…顔画像データグループ設定部、20…分類結果出力部、21…分類状態記憶部、30、50…画像データ、40…類似度一覧、201、202…顔画像データグループテーブル、101、102、103、104、105、106、107、108、109、110、111…顔画像データグループ、A、B、C、D、E、F、G…顔画像データ。
DESCRIPTION OF SYMBOLS 1 ... Image classification device, 2 ... Image data input part, 12 ... Face image data group memory | storage part, 13 ... Similarity calculation part, 14 ... Similarity input part, 15 ... Unsuitable classification destination exclusion part, 16 ... Classification part, 17 DESCRIPTION OF CLASSIFICATION DATA EXCLUSION UNIT 18 REPEAT PROCESSING CONTROL UNIT 19 FACE IMAGE DATA GROUP SETTING UNIT 20 CLASSIFICATION RESULT OUTPUT UNIT 21 CLASSIFICATION STATE STORAGE UNIT 30, 50. 201, 202 ... face image data group table, 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111 ... face image data group, A, B, C, D, E, F, G ... Face image data.

Claims (7)

画像データ内の複数の顔画像データを、類似度に基づいて分類する画像分類装置であって、
分類対象である画像データ内の複数の顔画像データと分類先である分類済みの顔画像データグループとの類似度を示す情報を入力する類似度入力手段と、
前記類似度入力手段によって入力された類似度を示す情報に基づいて、前記分類対象である顔画像データを、前記分類先である顔画像データグループに分類する分類手段と、
前記分類手段によって分類された分類対象の顔画像データを分類確定顔画像データとして前記分類対象から除外するとともに、前記分類確定顔画像データの分類先の顔画像データグループを分類確定顔画像データグループとして前記分類先から除外する分類確定データ除外手段と
前記分類手段及び前記分類確定データ除外手段による処理を繰り返すように制御する繰り返し処理制御手段と、を備える画像分類装置。
An image classification device that classifies a plurality of face image data in image data based on similarity,
Similarity input means for inputting information indicating the similarity between the plurality of face image data in the image data to be classified and the classified face image data group to be classified;
Classification means for classifying the face image data that is the classification target into the face image data group that is the classification destination based on the information indicating the similarity input by the similarity input means;
The classification target face image data classified by the classification means is excluded from the classification target as classification fixed face image data, and the face image data group into which the classification fixed face image data is classified is classified as a classification fixed face image data group. An image classification apparatus comprising: classification determination data exclusion means to be excluded from the classification destination; and repetitive processing control means for controlling to repeat processing by the classification means and the classification confirmation data exclusion means.
前記分類手段が、前記類似度を示す情報のうち、前記類似度のスコアが所定の閾値に満たない情報を除外する、請求項1に記載の画像分類装置。   The image classification device according to claim 1, wherein the classification unit excludes information indicating that the similarity score is less than a predetermined threshold from information indicating the similarity. 前記繰り返し処理制御手段が、前記分類対象である複数の顔画像データ全てが、前記顔画像データグループに分類される、または、前記顔画像データグループのいずれにも分類することができない分類不可データと決定される、まで、前記分類手段及び前記分類確定データ除外手段による処理を繰りかえすように制御する、請求項1または2に記載の画像分類装置。   The repetitive processing control means is configured such that all of the plurality of face image data to be classified are classified into the face image data group or cannot be classified into any of the face image data groups. The image classification device according to claim 1 or 2, wherein control is performed so that the processing by the classification unit and the classification determination data exclusion unit is repeated until it is determined. 前記分類不可データである前記分類対象の顔画像データを、新たに、前記分類先である顔画像データグループとして設定する顔画像データグループ設定手段をさらに備える、請求項3に記載の画像分類装置。   The image classification device according to claim 3, further comprising a face image data group setting unit that newly sets the face image data to be classified as the classification impossible data as a face image data group to be classified. 前記分類先である顔画像データグループに日時情報が設定されており、前記分類対象である前記画像データの作成日と前記分類先である顔画像データグループに設定された日時情報とを比較し、前記作成日が、前記日時情報よりも前である場合には、前記日時情報に係る前記顔画像データグループを前記分類先から除外する不適分類先除外手段をさらに備える、請求項1〜4のいずれか一項に記載の画像分類装置。   Date and time information is set in the face image data group that is the classification destination, and the creation date of the image data that is the classification target is compared with the date and time information set in the face image data group that is the classification destination, 5. The apparatus according to claim 1, further comprising: an inappropriate classification destination exclusion unit that excludes the face image data group related to the date information from the classification destination when the creation date is earlier than the date information. The image classification device according to claim 1. 前記分類対象である画像データを入力する画像データ入力手段と、
前記画像データ入力手段により入力された前記画像データ内の前記複数の顔画像データの顔特徴量を導出し、該顔特徴量に基づき、前記複数の顔画像データと前記分類先である顔画像データグループとの類似度を算出する類似度算出手段と、をさらに備える、請求項1〜5のいずれか一項に記載の画像分類装置。
Image data input means for inputting the image data to be classified;
Deriving face feature amounts of the plurality of face image data in the image data input by the image data input means, and based on the face feature amounts, the plurality of face image data and the face image data that is the classification destination The image classification apparatus according to claim 1, further comprising a similarity calculation unit that calculates a similarity with a group.
画像データ内の複数の顔画像データを、類似度に基づいて分類する画像分類方法であって、
分類対象である画像データ内の複数の顔画像データと分類先である分類済みの顔画像データグループとの類似度を示す情報を入力する類似度入力ステップと、
前記類似度入力ステップにおいて入力された類似度を示す情報に基づいて、前記分類対象である顔画像データを、前記分類先である顔画像データグループに分類する分類ステップと、
前記分類ステップにおいて分類された分類対象の顔画像データを分類確定顔画像データとして前記分類対象から除外するとともに、前記分類確定顔画像データの分類先の顔画像データグループを分類確定顔画像データグループとして前記分類先から除外する分類確定データ除外ステップと
前記分類ステップ及び前記分類確定データ除外ステップにおける処理を繰り返すように制御する繰り返し処理制御ステップと、を含む画像分類方法。
An image classification method for classifying a plurality of face image data in image data based on similarity,
A similarity input step of inputting information indicating the similarity between the plurality of face image data in the image data to be classified and the classified face image data group to be classified;
A classification step of classifying the face image data that is the classification target into the face image data group that is the classification destination based on the information indicating the similarity input in the similarity input step;
The classification target face image data classified in the classification step is excluded from the classification target as classification fixed face image data, and the classification target face image data group of the classification fixed face image data is defined as a classification fixed face image data group. An image classification method comprising: a classification determination data exclusion step that is excluded from the classification destination; and a repetition processing control step that controls to repeat the processing in the classification step and the classification determination data exclusion step.
JP2012188866A 2012-08-29 2012-08-29 Image classification device and image classification method Active JP5933396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012188866A JP5933396B2 (en) 2012-08-29 2012-08-29 Image classification device and image classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012188866A JP5933396B2 (en) 2012-08-29 2012-08-29 Image classification device and image classification method

Publications (2)

Publication Number Publication Date
JP2014048722A true JP2014048722A (en) 2014-03-17
JP5933396B2 JP5933396B2 (en) 2016-06-08

Family

ID=50608388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012188866A Active JP5933396B2 (en) 2012-08-29 2012-08-29 Image classification device and image classification method

Country Status (1)

Country Link
JP (1) JP5933396B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017046838A1 (en) * 2015-09-14 2017-03-23 株式会社日立国際電気 Specific person detection system and specific person detection method
WO2021177073A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device and information processing method
CN116246009A (en) * 2022-09-06 2023-06-09 支付宝(杭州)信息技术有限公司 Virtual image processing method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087451A1 (en) * 2009-01-29 2010-08-05 株式会社東芝 Image display device, image display method, and image display program
JP2010231744A (en) * 2009-03-30 2010-10-14 Nec Personal Products Co Ltd Information processing apparatus, program and image data management method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087451A1 (en) * 2009-01-29 2010-08-05 株式会社東芝 Image display device, image display method, and image display program
JP2010231744A (en) * 2009-03-30 2010-10-14 Nec Personal Products Co Ltd Information processing apparatus, program and image data management method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017046838A1 (en) * 2015-09-14 2017-03-23 株式会社日立国際電気 Specific person detection system and specific person detection method
JPWO2017046838A1 (en) * 2015-09-14 2018-06-28 株式会社日立国際電気 Specific person detection system, specific person detection method and detection apparatus
US10657365B2 (en) 2015-09-14 2020-05-19 Hitachi Kokusai Electric Inc. Specific person detection system and specific person detection method
WO2021177073A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device and information processing method
CN116246009A (en) * 2022-09-06 2023-06-09 支付宝(杭州)信息技术有限公司 Virtual image processing method and device
CN116246009B (en) * 2022-09-06 2024-04-16 支付宝(杭州)信息技术有限公司 Virtual image processing method and device

Also Published As

Publication number Publication date
JP5933396B2 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
US9477685B1 (en) Finding untagged images of a social network member
US10565472B2 (en) Event image curation
US8416997B2 (en) Method of person identification using social connections
JP5869054B2 (en) Method and apparatus for incorporating automatic face recognition in a digital image collection
US9135500B2 (en) Facial recognition
US10121060B2 (en) Automatic group formation and group detection through media recognition
JP4444633B2 (en) Image classification device, image classification method, and program
US9030502B2 (en) System and method for organizing documents
US8781235B2 (en) Object recognition apparatus, recognition method thereof, and non-transitory computer-readable storage medium
JP2009533725A (en) Form connections between image collections
US20200279424A1 (en) Image processing apparatus, control method, and storage medium
US20200279425A1 (en) Image processing apparatus, control method, and storage medium
CN111488477A (en) Album processing method, apparatus, electronic device and storage medium
JP5933396B2 (en) Image classification device and image classification method
JP2020140555A (en) Image processing device, control method, and program
CN104598932B (en) A kind of photo classification method and system based on event information
JP4556739B2 (en) Image management apparatus, image management method, and image management program
JP6729678B2 (en) Information processing apparatus, suspect information generation method and program
KR100827845B1 (en) Apparatus and method for providing person tag
JP6582469B2 (en) Character conversion support device, diary creation support device, character conversion support method, and program
KR101749603B1 (en) Integrated photo management system using photo information and member information, method of photo management and method of social network service using the same
CA2827639A1 (en) Facial recognition
JP5440197B2 (en) Apparatus for constructing imaging target spot database, construction system, and construction method
KR20210101736A (en) Albums simple cleanup application
KR100840020B1 (en) Apparatus and method for providing person tag

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160502

R150 Certificate of patent or registration of utility model

Ref document number: 5933396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250