JP2016200969A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2016200969A
JP2016200969A JP2015080449A JP2015080449A JP2016200969A JP 2016200969 A JP2016200969 A JP 2016200969A JP 2015080449 A JP2015080449 A JP 2015080449A JP 2015080449 A JP2015080449 A JP 2015080449A JP 2016200969 A JP2016200969 A JP 2016200969A
Authority
JP
Japan
Prior art keywords
image
user
database
quality
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015080449A
Other languages
Japanese (ja)
Other versions
JP6529314B2 (en
Inventor
要 冨手
Kaname Tomite
要 冨手
優和 真継
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015080449A priority Critical patent/JP6529314B2/en
Publication of JP2016200969A publication Critical patent/JP2016200969A/en
Application granted granted Critical
Publication of JP6529314B2 publication Critical patent/JP6529314B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to easily reflect his/her own preference to a database when an image is automatically selected by an image processing apparatus.SOLUTION: The present invention determines the quality of an input image on the basis of the feature amount extracted from the input image, when the determination result is different from a determination result of a user, extracts candidate images from a database and displays the images on a display part, and reflects the user's personal preference to the database on the basis of a candidate image selected by the user from the displayed candidate images.SELECTED DRAWING: Figure 3

Description

本発明は、ユーザに個人嗜好性を尋ねる画像を提示し、個人嗜好性を学習する技術に関する。   The present invention relates to a technique for presenting an image asking a user about personal preference and learning personal preference.

近年のデジタルカメラ等の撮像装置は連写性能が向上し、またメモリーなどの記憶媒体の大容量化に伴い、個人であっても収集する画像枚数が飛躍的に増加している。その結果、大量の画像から好みの画像を選択する作業は、ユーザに負担を強いる作業になってきている。   Imaging devices such as digital cameras in recent years have improved continuous shooting performance, and with the increase in capacity of storage media such as memories, the number of images collected even by individuals has increased dramatically. As a result, the task of selecting a favorite image from a large number of images has become a burden on the user.

このような点に対して、特許文献1のように、ユーザによる大量の画像から所望の画像を選択する作業を簡略化するための方法が提案されている。特許文献1の方法では、ユーザが登場人物の優先順位とその登場人物の好みの表情とを予めデータベースに登録し、それらの情報から画像の推薦度を計算して、ユーザが所望するであろう画像を選別し表示するようにしている。   For such a point, a method for simplifying the operation of selecting a desired image from a large number of images by a user has been proposed as disclosed in Patent Document 1. In the method of Patent Document 1, the user will register the priority order of the characters and the favorite facial expression of the characters in the database in advance, calculate the recommendation degree of the image from those information, and the user will desire. Images are selected and displayed.

特開2013−196417号公報JP 2013-196417 A

P.Viola and M.Jones(2001).“Rapid Object Detection using a Boosted Cascade of Simple Features”,IEEE Conference on Computer Vision and Pattern Recognition.P. Viola and M.M. Jones (2001). “Rapid Object Detection using a Boosted Cascade of Simple Features”, IEEE Conference on Computer Vision and Pattern Recognition. M.Turk and A.Pentland,“Eigenfaces for recognition”,Journal of Cognitive Neuroscience 3,pp.71−86M.M. Turk and A.M. Pentland, “Eigenfaces for recognition”, Journal of Cognitive Neuroscience 3, pp. 71-86 M.Eckhardt et al.(2009),“Towards Practical Facial Feature Detection”,International Journal of Pattern Recognition and Artificial Intelligence Vol.23,No.3(2009)379−400.M.M. Eckhardt et al. (2009), “Towards Practical Facial Feature Detection”, International Journal of Pattern Recognition and Artificial Intelligence Vol. 23, no. 3 (2009) 379-400. Gwen Littlewort et al.,“The Computer Expression Recognition Toolbox(CERT)”,IEEE Conference on Automatic Face and Gesture Recognition,2011.Gwen Littlewater et al. , “The Computer Expression Recognition Toolbox (CERT)”, IEEE Conference on Automatic Face and Gesture Recognition, 2011. P.Ekman and W.Friesen,“Facial Action Coding System: A Technique for the Measurement of Facial Movement”,Consulting Psychologists Press,Palo Alto,1978.P. Ekman and W.H. Friesen, “Facial Action Coding System: A Technology for the Measurement of Facial Movement”, Consulting Psychologists Press, Palo Alto, 1978. 高野博幸,出口光一郎,“輪郭によるフェイスアライメントにおける姿勢変化への対応のための顔輪郭の利用について”,情報処理学会研究報告.CVIM,2012−CVIM−183(11),1−8,2012−08−26Hiroyuki Takano, Koichiro Deguchi, “About the use of face contours to cope with posture changes in face alignment by contours”, Information Processing Society of Japan. CVIM, 2012-CVIM-183 (11), 1-8, 2012-08-26 J.Saragih,S.Lucey,and J.Cohn,“Face Alignment through Subspace Constrained Mean−Shifts”,IEEE International Conference on Computer Vision(ICCV),2009.J. et al. Saragih, S .; Lucey, and J.L. Cohn, “Face Alignment through Subspace Constrained Mean-Shifts”, IEEE International Conference on Computer Vision (ICCV), 2009. Wei Luoら,“Content−based photo quality assessment”,IEEE Conference on Computer Vision,(Poster,ICCV 2011).Wei Luo et al., “Content-based photo quality assessment”, IEEE Conference on Computer Vision, (Poster, ICCV 2011). 猪俣 拓利,山本 俊太,稲葉 善典,赤松 茂,“3次元モーフィングモデルによる顔表情生成:主成分パラメータによる表情生成への指針”,電子情報通信学会技術研究報告.MVE,マルチメディア・仮想環境基礎 110(457),95−100,2011−02−28Takumi Tsuji, Shunta Yamamoto, Yoshinori Inaba, Shigeru Akamatsu, “Facial expression generation using a three-dimensional morphing model: Guidelines for facial expression generation using principal component parameters”, IEICE technical report. MVE, Multimedia and Virtual Environment Foundation 110 (457), 95-100, 2011-02-28

しかしながら、特許文献1の方法では、ユーザが登場人物の好みの表情を点数等を用いてデータベースに登録する必要があった。しかしながら、微妙な表情の変化等に対して、ユーザの好み、嗜好性を正確に反映させるのは難しいという問題があった。   However, in the method of Patent Document 1, it is necessary for the user to register a favorite facial expression of a character in a database using a score or the like. However, there is a problem that it is difficult to accurately reflect the user's preferences and preferences for subtle changes in facial expressions.

本発明は、画像から抽出された特徴量と当該画像に対する良否との良否関係を対応付けて記憶するデータベースを参照し、入力画像から抽出した特徴量に基づいて前記入力画像の良否を判定する判定手段と、前記判定手段による前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出手段と、前記抽出された候補画像を表示部に表示させる表示制御手段と、前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定手段と、を有することを特徴とする。   The present invention refers to a database that associates and stores a quality relationship between a feature quantity extracted from an image and the quality of the image, and determines whether the input image is acceptable based on the feature quantity extracted from the input image Means for extracting a candidate image from the database when the determination result of the quality of the input image by the determination unit is different from the result of determination of the quality of the input image by the user, and the extracted Display control means for displaying a candidate image on a display unit; and setting means for setting a pass / fail relationship based on the determination of the user in the database based on a candidate image selected by the user from the displayed candidate images. It is characterized by having.

以上の構成によれば、本発明では、ユーザは自身の好み、嗜好性を容易に設定できるようになる。   According to the above configuration, in the present invention, the user can easily set his / her preference and palatability.

第1の実施形態に関わる画像処理装置の機能構成を示すブロック図。1 is a block diagram showing a functional configuration of an image processing apparatus according to a first embodiment. 第1の実施形態において画像が特徴空間に分類された様子を示す概念図。The conceptual diagram which shows a mode that the image was classified into the feature space in 1st Embodiment. 第1の実施形態に関わる表示制御部が表示する選択肢表示画面を説明する図。The figure explaining the choice display screen which the display control part in connection with 1st Embodiment displays. 第1の実施形態に関わる良否登録部の処理手順を示すフローチャート。The flowchart which shows the process sequence of the quality registration part in connection with 1st Embodiment. 第1の実施形態に関わる個別嗜好学習部の処理手順を示すフローチャート。The flowchart which shows the process sequence of the separate preference learning part in connection with 1st Embodiment. 第1の実施形態において選択肢候補画像を抽出する処理の概念図。The conceptual diagram of the process which extracts a choice candidate image in 1st Embodiment. 第2の実施形態に関わる画像処理装置の機能構成を示すブロック図。The block diagram which shows the function structure of the image processing apparatus in connection with 2nd Embodiment. 第2の実施形態に関わる表示制御部が表示する選択肢表示画面を説明する図。The figure explaining the option display screen which the display control part in connection with 2nd Embodiment displays.

[第1の実施形態]
第1の実施形態として、撮影者ないし被写体の個人が万人とは違う基準で「好ましくない」と判断した画像に基づいて、撮影者ないし被写体の個人の嗜好性を学習方法について説明する。以下、図面を参照して本実施形態を詳細に説明する。
[First Embodiment]
As a first embodiment, a method for learning the preference of an individual photographer or subject will be described based on an image that the photographer or subject individual has determined to be “preferable” based on a different standard from everyone. Hereinafter, this embodiment will be described in detail with reference to the drawings.

図1は、本実施形態に関わる画像処理装置10のソフトウェア構成(機能構成)を示すブロック図である。図1に示す画像処理装置10の各機能部は、画像処理装置が備えるCPUがROM、RAM、HDD等の格納手段に格納されている制御プログラムを実行することにより実現される。本実施形態では、画像処理装置がデジタルカメラ等の撮像装置である場合を例に説明する。   FIG. 1 is a block diagram showing a software configuration (functional configuration) of an image processing apparatus 10 according to the present embodiment. Each functional unit of the image processing apparatus 10 illustrated in FIG. 1 is realized by a CPU included in the image processing apparatus executing a control program stored in a storage unit such as a ROM, a RAM, or an HDD. In the present embodiment, a case where the image processing apparatus is an imaging apparatus such as a digital camera will be described as an example.

図1において、良否登録部100は、画像を見たときに万人が感じる良否(「好ましい」または「好ましくない」)の判定基準を画像特徴毎に予め登録しておくためのものである。良否登録部100は、画像取得部101、画像特徴抽出部102、および画像特徴分類部103により構成される。   In FIG. 1, the pass / fail registration unit 100 is for registering in advance, for each image feature, a pass / fail (“preferred” or “preferred”) determination criterion that everyone feels when viewing an image. The pass / fail registration unit 100 includes an image acquisition unit 101, an image feature extraction unit 102, and an image feature classification unit 103.

画像取得部101は、良否判定の基準を学習するための学習用画像を取得する。学習用画像は、カメラ等の撮像装置により撮影され、PC、スキャナ、記憶装置(ハードディスクドライブ等)、記憶媒体(不揮発性フラッシュメモリーやCD−ROM、DVD−ROM等)から予め学習装置に入力され、不図示のHDD等に格納されている。学習用画像は、「好ましい」、「好ましくない」とタグ付けされるか、または「タグ無し」の3つの状態に分けられているものとする。学習用画像に対するタグ付けは、例えばプロのカメラマンがそれぞれの画像を見て、「好ましい」と「好ましくない」とを判断することで行われる。   The image acquisition unit 101 acquires a learning image for learning a criterion for pass / fail determination. The learning image is taken by an imaging device such as a camera, and is input to the learning device in advance from a PC, a scanner, a storage device (hard disk drive, etc.), or a storage medium (nonvolatile flash memory, CD-ROM, DVD-ROM, etc.). Are stored in an HDD (not shown). It is assumed that the learning image is tagged as “preferred”, “not preferable”, or divided into three states of “no tag”. The tagging of the learning image is performed, for example, by a professional photographer looking at each image and determining “preferable” or “not preferable”.

画像特徴抽出部102は、画像取得部101が取得した学習用画像の画像データから画像特徴を抽出する。画像特徴分類部103は、画像特徴抽出部102で抽出した画像特徴、および学習用画像のタグ情報に基づいて画像を分類する。画像を分類する手法としては、機械学習のクラスタリングの代表的な手法である、k−means法やNearest Neighbor法などを利用することができる。画像特徴分類部103が分類する各クラスタは、画像の良否を判定する要因(良否判定要因)に対応している。   The image feature extraction unit 102 extracts image features from the image data of the learning image acquired by the image acquisition unit 101. The image feature classifying unit 103 classifies images based on the image features extracted by the image feature extracting unit 102 and tag information of the learning image. As a method for classifying the images, a k-means method, a Nearest Neighbor method, or the like, which is a typical method of clustering for machine learning, can be used. Each cluster classified by the image feature classifying unit 103 corresponds to a factor for determining the quality of an image (good / bad determination factor).

図2は、画像特徴分類部103によって学習用画像が特徴空間に分類され、マッピングされている様子を模式的に図示した概念図である。特徴空間200は、画像特徴抽出部102で抽出した特徴量の次元数に基づき、各学習用画像の画像特徴を写像するための空間である。同図においては、「好ましくない」学習用画像の画像特徴が、「目線」、「目瞑り」等の要否判定要因毎にクラスタリングされた様子を示す。   FIG. 2 is a conceptual diagram schematically illustrating how the learning image is classified into the feature space and mapped by the image feature classifying unit 103. The feature space 200 is a space for mapping the image feature of each learning image based on the number of dimensions of the feature amount extracted by the image feature extraction unit 102. In the figure, image features of “unfavorable” learning images are clustered for each necessity determination factor such as “eye line” and “eye meditation”.

本実施形態では、撮影環境(背景、照明など)および撮影条件(同一人物、顔向き、見切れの発生など)を所望の状態に設定し、万人が好ましくないと判定するような学習用画像を用意している。そして、本実施形態に係る良否登録部100では、これら「好ましくない画像」が、意味的なまとまりを持って、図2のように特徴空間200にマッピングされる。例えば、クラスタ201は、画像202のように顔向きのみの変動が生じているクラスタである。他にも、「表情」、「目瞑り」、「目線」、「見切れ」などの良否判定要因に応じたクラスタに、「好ましくない」とタグ付けされた画像が分類され、データベース104に登録されている。このように、データベース104には、画像特徴抽出部102により抽出された特徴量と、その画像の良否との良否関係とが対応付けられて記憶されている。   In the present embodiment, the learning environment is set such that the shooting environment (background, lighting, etc.) and shooting conditions (same person, face orientation, occurrence of cut-out, etc.) are set to a desired state and it is determined that everyone is not preferable. I have prepared it. In the pass / fail registration unit 100 according to the present embodiment, these “unfavorable images” are mapped to the feature space 200 as shown in FIG. 2 in a meaningful manner. For example, the cluster 201 is a cluster in which only the face direction changes as in the image 202. In addition, images tagged as “unfavorable” are classified into clusters according to pass / fail judgment factors such as “facial expression”, “eye meditation”, “line of sight”, “out of eye”, and registered in the database 104. ing. As described above, the database 104 stores the feature quantity extracted by the image feature extraction unit 102 and the quality relationship between the quality of the image in association with each other.

なお、データベース104に登録される学習用画像は、予め同一人物を様々な撮影条件で撮影した画像群を利用してもよいし、複数の人物を様々な条件で撮影した後、個体差に依らない特徴量のみを抽出し、画像特徴分類部103でクラスタに分類してもよい。また、実際の人物でなくても、コンピュータグラフィックスを利用して、架空の人物を様々な撮影条件で画像生成し、それらの画像特徴から良否判定要因を解析して、データベース104に登録するなどしてもよい。   The learning image registered in the database 104 may use a group of images obtained by photographing the same person in advance under various shooting conditions. Depending on individual differences after shooting a plurality of persons under various conditions. Only feature quantities that are not present may be extracted and classified into clusters by the image feature classification unit 103. Moreover, even if it is not an actual person, computer graphics are used to generate an image of a fictitious person under various shooting conditions, analyze pass / fail judgment factors from those image features, and register them in the database 104. May be.

個別嗜好学習部110は、システムとユーザが良否判定した結果が異なる場合に、データベース104に登録されている画像を数枚利用し、ユーザ固有の嗜好性を特定する。また、特定したユーザの嗜好性に基づきデータベース104を更新する。個別嗜好学習部110は、良否判定部111、嗜好選択肢抽出部112、表示制御部113、および個別嗜好設定部114により構成される。   The individual preference learning unit 110 uses a plurality of images registered in the database 104 and identifies user-specific preference when the system and the user have different pass / fail results. Further, the database 104 is updated based on the specified user preference. The individual preference learning unit 110 includes a quality determination unit 111, a preference option extraction unit 112, a display control unit 113, and an individual preference setting unit 114.

本実施形態の画像処理装置10はデジタルカメラ等の撮像装置であり、良否判定部111は、撮像部で撮像された画像を入力信号として受信する。そして、データベース104を参照し、取得した撮像画像の良否を判定する。なお、良否判定部111は、取得した画像の良否判定を行うにあたり、画像特徴抽出部102および画像特徴分類部103と同様に画像の特徴抽出および分類を行う。   The image processing apparatus 10 of the present embodiment is an imaging apparatus such as a digital camera, and the quality determination unit 111 receives an image captured by the imaging unit as an input signal. Then, the quality of the acquired captured image is determined with reference to the database 104. The quality determination unit 111 performs image feature extraction and classification in the same manner as the image feature extraction unit 102 and the image feature classification unit 103 in determining quality of the acquired image.

ここで、例えば、良否判定部111が「好ましい画像」であると判定したにも関わらず、ユーザは「好ましくない画像」と判定する場合がある。この場合、明らかにその画像は、ユーザ固有の嗜好性によって「好ましくない」と判定されている。したがって、ユーザがなぜ当該画像を「好ましくない」と判定したかの理由を特定することができれば、ユーザ固有の嗜好を良否判定要因画像データベースに組込むことが可能になる。そこで、本実施形態では、「好ましくない画像」と判定した理由(良否判定要因)を特定するための画像を撮像装置の表示部に表示し、ユーザに選択をさせるものである。   Here, for example, even though the pass / fail determination unit 111 determines that the image is a “preferable image”, the user may determine that the image is an “unfavorable image”. In this case, the image is clearly determined as “not preferable” due to the user-specific preference. Therefore, if the reason why the user determines that the image is “not preferable” can be specified, it becomes possible to incorporate user-specific preferences into the pass / fail determination factor image database. Therefore, in the present embodiment, an image for specifying the reason (good / bad determination factor) for determining “unfavorable image” is displayed on the display unit of the imaging apparatus, and the user is allowed to select.

嗜好選択肢抽出部112は、ユーザ固有の嗜好性を特定するために、データベース104から、ユーザに選択させる画像の候補を抽出する。本実施形態は、選択肢となる画像の候補としてデータベース104に登録済みの画像を、ユーザ個人の嗜好性を確認する選択肢の画像として利用する。一般的に、ユーザの嗜好性を言語で表現すると、例えば「もう少し右からのアングルで撮影される方が好ましい」や「もう少し柔らかい表情が好ましい」等、曖昧な表現になってしまう場合が多い。また、これを点数として表現することも難しい。また、ユーザ自身は常に個人嗜好性を意識して画像の良否判定を行っているわけでは無いため、ユーザによっては個人嗜好性を言語や点数で的確に答えられない場合も多い。本実施形態では、予め用意する画像群を視覚的なヒントとして利用することで、ユーザが「好ましくない」と判定した画像に対して、その根拠となる要因を、ユーザは言語で嗜好性を示さなくとも、直感的に嗜好性を登録することが可能になる。   The preference option extraction unit 112 extracts image candidates to be selected by the user from the database 104 in order to specify user-specific preference. In the present embodiment, an image registered in the database 104 as a candidate image to be used as an option is used as an option image for confirming the personal preference of the user. In general, when the user's preference is expressed in language, for example, it is often an ambiguous expression such as “It is preferable to shoot at a slightly more right angle” or “A slightly softer expression is preferable”. It is also difficult to express this as a score. In addition, since the user himself / herself does not always judge the quality of the image while being conscious of the personal preference, there are many cases where the user cannot accurately answer the personal preference with the language or the score. In the present embodiment, by using a group of images prepared in advance as a visual hint, the user indicates the preference factor in the language for the factors that the user determines to be “not preferable”. Even if it is not, it becomes possible to register palatability intuitively.

表示制御部113は、嗜好選択肢抽出部112でデータベース104より抽出した画像群を撮像装置の表示部に表示させる。図3には、ユーザが良否判定した結果と良否判定部111が良否判定した結果とが異なった場合に、表示制御部113によって撮像装置の表示部に表示される選択肢表示画面300を示す。選択肢表示画面300は、ユーザが「好ましくない画像」を選択する領域(上部)と、好ましくないと感じる要因を特定するための選択肢となる画像群を表示する領域(下部)と、から構成されるユーザインタフェースである。   The display control unit 113 displays the image group extracted from the database 104 by the preference option extraction unit 112 on the display unit of the imaging apparatus. FIG. 3 shows an option display screen 300 that is displayed on the display unit of the imaging apparatus by the display control unit 113 when the result of the quality determination by the user is different from the result of the quality determination by the quality determination unit 111. The option display screen 300 includes an area (upper part) where the user selects an “unfavorable image” and an area (lower part) that displays an image group serving as an option for specifying a factor that is unfavorable. It is a user interface.

本実施形態では、まず、上部の領域に、撮像部で撮像された画像がプレビュー画像一覧301として撮影順に並べられて表示される。なお、表示する順番は、被写体毎、イベント単位、時間的に降順あるいは昇順のように、他の規則に従って表示することもできる。ユーザは、プレビュー画像一覧301の画像群の中から、「好ましくない画像」を選択し、装置に備えられたボタンもしくはタッチユーザインタフェースを利用して、指示することができる。図3では、ユーザが画像302を「好ましくない」と判断し選択している様子を示しており、画像302が「好ましくない画像」として削除対象に指定されているため太枠で表示されている。   In the present embodiment, first, images captured by the imaging unit are displayed in the upper region as a preview image list 301 arranged in the order of shooting. Note that the display order can be displayed according to other rules such as descending order or ascending order for each subject, event unit, and time. The user can select “unfavorable image” from the image group of the preview image list 301 and give an instruction using a button or a touch user interface provided in the apparatus. FIG. 3 shows a state in which the user judges and selects the image 302 as “unfavorable”, and the image 302 is displayed as a thick frame because it is designated as a “desirable image” for deletion. .

次に、良否判定部111は、プレビュー画像一覧301から「好ましくない画像」が選択されたことに応じて、データベース104を参照し、ユーザが削除対象として「好ましくない」と判断した画像302の良否を判定する。そして、良否判定の結果が異なっていた場合、ユーザ固有の嗜好を特定するために、画像302の良否判定の根拠になり得る領域を推定し、良否判定候補領域303として図のように表示させる。良否判定候補領域303は、例えば、顔検出処理によって算出された顔領域や、連続した画像を対象にする場合は、オプティカルフローなどを用いて画像間の変動量を算出し、変動量が1番大きい領域を良否判定候補領域に設定すればよい。また、複雑な計算はせずにユーザが直接その領域を指定するなどしてもよい。   Next, the pass / fail determination unit 111 refers to the database 104 in response to the selection of “unfavorable image” from the preview image list 301, and the pass / fail of the image 302 that the user has determined as “not preferable” as a deletion target. Determine. If the pass / fail judgment results are different, an area that can be a basis for pass / fail judgment of the image 302 is estimated and displayed as pass / fail judgment candidate areas 303 as shown in FIG. For the pass / fail judgment candidate area 303, for example, when a face area calculated by face detection processing or continuous images are targeted, the fluctuation amount between images is calculated using an optical flow or the like. A large area may be set as a pass / fail judgment candidate area. In addition, the user may directly specify the area without performing complicated calculations.

続いて、嗜好選択肢抽出部112は、設定された良否判定候補領域303に基づいて、データベース104から、ユーザに選択させる画像の候補を抽出する。そして、表示制御部113は、嗜好選択肢抽出部112が抽出した画像群を、選択肢表示画面300の下部の領域に良否判定要因を特定する画像304を含む画像群として表示する。なお、嗜好選択肢抽出部112による画像群の抽出方法の詳細については、後述する。   Subsequently, the preference option extraction unit 112 extracts image candidates to be selected by the user from the database 104 based on the set pass / fail judgment candidate region 303. Then, the display control unit 113 displays the image group extracted by the preference option extraction unit 112 as an image group including an image 304 that specifies a pass / fail determination factor in a lower area of the option display screen 300. Details of the image group extraction method by the preference option extraction unit 112 will be described later.

選択肢表示画面300は、画像群のいずれか、もしくは複数枚をユーザが選択することを可能にするユーザインタフェースとして機能する。ユーザは、画像302を「好ましくない画像」と判定した理由に近い画像を、選択肢候補の画像群の中から選択し、ボタン305を押下する。図3では、目線、表情、顔向きの3つの良否判定要因に関して画像302に近いものが選択肢画像として表示されている。また、各画像がどの良否判定要因に対応する画像であるかを分かりやすくするために、各良否判定要因を図示化し、表示される画像群のそれぞれに付加して表示させている。例えば、3枚の画像のうち一番右の画像では、良否判定要因が顔向きの画像であるため、顔に3次元の座標軸を注釈情報として表示している。なお、ユーザが「好ましくない」と判定した理由に近い画像が選択肢候補として表示されなかった場合は、ボタン306を押下し、選択肢候補が無かったことを通知する。   The option display screen 300 functions as a user interface that allows the user to select one or a plurality of images. The user selects an image close to the reason for determining that the image 302 is “unfavorable image” from the option candidate image group, and presses the button 305. In FIG. 3, an image close to the image 302 with respect to the three pass / fail judgment factors of the line of sight, the expression, and the face orientation is displayed as an option image. Further, in order to make it easy to understand which pass / fail judgment factor each image corresponds to, each pass / fail judgment factor is illustrated and added to each of the displayed image groups. For example, in the rightmost image of the three images, the pass / fail determination factor is the face-oriented image, and therefore, a three-dimensional coordinate axis is displayed as annotation information on the face. If an image close to the reason that the user has determined “not preferable” is not displayed as an option candidate, the button 306 is pressed to notify that there is no option candidate.

図1に戻り、個別嗜好設定部114は、ユーザの否判定要因を特定する画像群に対する操作指示の情報を受け付ける。そして、データベース104の更新内容を決定し、ユーザ固有の嗜好を設定する。   Returning to FIG. 1, the individual preference setting unit 114 accepts operation instruction information for an image group that identifies a user's failure determination factor. Then, the update contents of the database 104 are determined, and user-specific preferences are set.

次に、良否登録部100において、良否判定基準を登録する処理の詳細について説明する。図4は、本実施形態に係る良否登録部100の処理手順を示すフローチャートである。   Next, details of the process of registering the pass / fail criterion in the pass / fail registration unit 100 will be described. FIG. 4 is a flowchart showing a processing procedure of the pass / fail registration unit 100 according to the present embodiment.

まず、ステップS401において、画像取得部101は、データベース104に登録するための学習用画像を読み込む処理を行う。ここで、良否登録部100では、良否判定の根拠となる要因毎にある程度まとまった画像の組として、データベース104に登録した方が、良否判定要因毎に画像群をクラスタに分離しやすくなる。なお、ステップS401で読み込む画像は、予めプロの写真家などが一定の基準で良否判定した画像群や、意図的に表情や顔向きを変えて撮影した画像群などを想定している。   First, in step S <b> 401, the image acquisition unit 101 performs a process of reading a learning image for registration in the database 104. Here, in the pass / fail registration unit 100, it is easier to separate an image group into clusters for each pass / fail determination factor when it is registered in the database 104 as a set of images grouped to some extent for each factor that is the basis for pass / fail determination. Note that the image read in step S401 is assumed to be an image group that has been determined in advance by a professional photographer or the like based on a certain standard, or an image group that has been intentionally changed in facial expression or face orientation.

ステップS402からS406までの処理は、画像特徴抽出部102によって画像特徴を抽出するための処理である。本実施形態は、個人嗜好性が顕著に現れる、人物が被写体の画像の良否判定を行うことを想定しているため、ステップS402からS406で抽出する特徴は主に人物の顔から抽出可能な特徴量を利用する。ステップS402からS406で計算する画像特徴の一例は、個人識別した情報、表情に関する情報、顔向きの姿勢情報、および画質(ボケや色味)に関する情報などである。ここでは、被写体の顔から判別できる特徴を多く挙げたが、それ以外に画像の審美性を左右する構図情報など他の特徴量を導入しても構わない。また、被写体の年齢や性別の属性情報などを追加するなどしてもよい。   The processing from step S402 to S406 is processing for extracting image features by the image feature extraction unit 102. Since the present embodiment assumes that personal preference appears and the person performs the pass / fail determination of the image of the subject, the features extracted in steps S402 to S406 can be extracted mainly from the person's face. Use quantity. Examples of the image features calculated in steps S402 to S406 include personally identified information, facial expression information, face orientation information, and image quality (blur and color) information. Although many features that can be discriminated from the face of the subject are listed here, other feature amounts such as composition information that affects the aesthetics of the image may be introduced. In addition, attribute information such as age and sex of the subject may be added.

以下、ステップS402からS406の個々の処理について詳しく説明する。ステップS402では、ステップS401で読み込んだ画像に写る被写体の顔に関する様々な情報を抽出するために、まず画像から被写体の顔を検出する。画像から顔を検出する方法としては、非特許文献1に記載の方法が幅広く利用されている。例えば、非特許文献1で開示される手法を利用することで、画像内の各人の顔の位置および大きさを算出することができる。   Hereinafter, each process of steps S402 to S406 will be described in detail. In step S402, in order to extract various information related to the face of the subject in the image read in step S401, first, the face of the subject is detected from the image. As a method for detecting a face from an image, the method described in Non-Patent Document 1 is widely used. For example, by using the method disclosed in Non-Patent Document 1, the position and size of each person's face in the image can be calculated.

非特許文献1の原理は、学習用画像の顔からHaar−Likeと呼ばれる特徴量を収集し、AdaBoostにより統計的に顔らしい特徴を識別できるようにしている。ステップS402の処理により、画像に顔が含まれていれば、検出した顔の個数、(顔を包含する)顔検出枠の左上と右下の座標値と重心位置などの情報が出力される。
ステップS403では、ステップS402で1つ以上の顔を検出したことを受け、個人識別処理を行う。個人識別処理は、1980年代より様々な手法が提案されており、その一例として、非特許文献2が挙げられる。非特許文献2に記載の方法は、顔画像から固有顔を算出し、固有顔の主成分分析を行い、固有顔が予め登録されている画像データベースと比較することで個人を識別する。本実施形態では、ステップS403で被写体の個人識別が行われ、被写体毎に個人嗜好性がデータベース104に設定される。
The principle of Non-Patent Document 1 is to collect feature quantities called Haar-Like from the face of the learning image, and to make it possible to identify features that are statistically facial by AdaBoost. If a face is included in the image in the process of step S402, information such as the number of detected faces, the upper left and lower right coordinate values of the face detection frame (including the face), and the barycentric position are output.
In step S403, personal identification processing is performed in response to the detection of one or more faces in step S402. Various methods have been proposed for personal identification processing since the 1980s, and Non-Patent Document 2 is an example. The method described in Non-Patent Document 2 calculates an eigenface from a face image, performs a principal component analysis of the eigenface, and identifies an individual by comparing it with an image database in which the eigenface is registered in advance. In the present embodiment, the individual identification of the subject is performed in step S403, and the personal preference is set in the database 104 for each subject.

ステップS404では、例えば、非特許文献3で開示される技術を利用することで表情識別及び表出強度推定を行う。   In step S404, for example, facial expression identification and expression intensity estimation are performed by using the technique disclosed in Non-Patent Document 3.

ステップS404では、まず、ステップS402で検出した顔検出枠内の顔特徴点(例えば目尻、瞳、目頭、鼻の先端、口角、口の中心の位置)を算出する。これらの顔特徴点の算出方法は、非特許文献2で開示される方法で検出することが可能である。非特許文献3に記載の方法では、ステップS402で検出した顔検出枠内の顔特徴点をGentleBoostの手法を利用して算出している。GentleBoostの手法を利用した顔特徴点の算出方法に関しては、非特許文献2にも記載されているが、非特許文献1の手法と同じように、予め目尻や口角と言った特徴的な顔パーツを弱識別器によって学習しておくことで、検出が可能になる。この他にも、AAM(Active Appearance Model)やCLM(Constrained Local Model)と呼ばれる手法などを利用し、顔の特徴点を算出することも可能である。   In step S404, first, facial feature points (for example, the position of the corner of the eye, the pupil, the head of the eye, the tip of the nose, the mouth corner, and the center of the mouth) within the face detection frame detected in step S402 are calculated. The calculation method of these face feature points can be detected by the method disclosed in Non-Patent Document 2. In the method described in Non-Patent Document 3, the face feature points in the face detection frame detected in step S402 are calculated using the GentleBoost method. The facial feature point calculation method using the GentleBoost method is also described in Non-Patent Document 2, but in the same way as Non-Patent Document 1, the characteristic facial parts such as the corners of the eyes and the corners of the mouth are preliminarily described. Can be detected by learning with a weak classifier. In addition, it is also possible to calculate facial feature points using a technique called AAM (Active Appearance Model) or CLM (Constrained Local Model).

そして、ステップS402で算出した顔特徴点周辺の輝度情報から特徴量を算出する。特徴量の算出方法は、例えば、非特許文献4で開示される手法を利用して求めることができる。非特許文献4で開示される手法では、ステップS402で算出した顔特徴点の位置を中心に周囲96×96ピクセルを顔パッチとして切り取り、切り取った顔パッチを高速フーリエ変換した後、Gaborフィルターにかけ、特徴ベクトルを算出している。なお、非特許文献4では特徴量の算出にGaborフィルターを用いて算出しているが、その代わりに、LBP(Local Binary Pattern)やLPQ(Local Phase Quantization)などを利用する方法もある。   Then, a feature amount is calculated from the luminance information around the face feature point calculated in step S402. The feature amount calculation method can be obtained using, for example, the method disclosed in Non-Patent Document 4. In the method disclosed in Non-Patent Document 4, a 96 × 96 pixel surrounding the face feature point calculated in step S402 is cut out as a face patch, the cut face patch is fast Fourier transformed, and then subjected to a Gabor filter. A feature vector is calculated. In Non-Patent Document 4, calculation is performed using a Gabor filter for calculation of the feature amount. Instead, there is a method using LBP (Local Binary Pattern), LPQ (Local Phase Quantization), or the like.

ここで、データベース104に登録する表情に関する特徴量を算出することができるが、更にこの特徴量を識別器にかけ、予め決めた表情分類に従って分類することも可能である。非特許文献4の手法では、顔の表情動作を客観的に記述する方法として知られているFACS(Facial Action Coding System)のAU(Action Unit)に対応する変化を検出する。そして、全46個のAUの組合せとその強弱で、表情を識別している。なお、FACSとAUの詳細に関しては、下記の非特許文献5を参照することができる。   Here, the feature quantity related to the facial expression registered in the database 104 can be calculated, but it is also possible to apply this feature quantity to a classifier and classify it according to a predetermined facial expression classification. In the method of Non-Patent Document 4, a change corresponding to an AU (Action Unit) of FACS (Facial Action Coding System), which is known as a method for objectively describing facial expression behavior, is detected. The expression is identified by the combination of all 46 AUs and their strengths. The following Non-Patent Document 5 can be referred to for details of FACS and AU.

ステップS404では、非特許文献4の手法を用いて、計算される特徴ベクトルを入力として線形SVM(サポートベクターマシン)で、どのAUが変化したか否かの2値判別を行い、表情によって変化したAUを特定することができる。ここで特定したAUの組合せによって、被写体の表情が、どの表情カテゴリ(喜び、悲しみ、恐怖、不安、怒り、驚き、無表情)に属するかを識別することができる。例えば、AU4(Brow Lower)とAU10(Upper Lip Raiser)が変化していたら、「怒り」の表情カテゴリに属する、と言った具合である。   In step S404, a binary SVM (support vector machine) is used to determine which AU has changed, using the method of Non-Patent Document 4, using the calculated feature vector as an input, and changes according to facial expression. AU can be specified. It is possible to identify which facial expression category (joy, sadness, fear, anxiety, anger, surprise, no expression) belongs to the facial expression of the subject by the AU combination specified here. For example, if AU4 (Brow Lower) and AU10 (Upper Lip Raiser) have changed, it is said that they belong to the facial expression category of “anger”.

さらに、特定したAUの変化強度より被写体の表情表出強度を特徴量として、算出することもできる。具体的には、特定されたAUを識別する線形SVMの超平面と、特徴ベクトルとの距離を算出し、AUの変化強度とすることが可能である。つまり、表情変化が大きければ大きい程、特徴ベクトルとAUを識別する線形SVMの超平面との距離が遠くなり、表情変化が小さければその距離は0に近くなる。   Furthermore, the expression intensity of the subject's expression can be calculated as a feature amount from the specified change intensity of AU. Specifically, the distance between the hyperplane of the linear SVM that identifies the specified AU and the feature vector can be calculated and used as the change intensity of the AU. In other words, the greater the facial expression change, the longer the distance between the feature vector and the hyperplane of the linear SVM that identifies the AU, and the smaller the facial expression change, the closer the distance is to zero.

非特許文献4の手法では、変化が生じたAUの組合せとAUの変化強度を、予め用意しておいた表情データベースより抽出した表情カテゴリと表出強度の参照テーブルと比較することで、現在の撮影者の表情表出強度を推定している。または、AUの組合せとAUの変化強度を線形の重み付き足し算で表出強度を推定するなどしてもよい。ただし、表情の表出に関しては個人差があり、被写体によっては、そもそも表情が出難い人物もいる。そのため、被写体毎に表出強度計算に利用する重みを変更することが望ましい。また、ステップS404の計算過程で既に顔特徴点を算出しているため、表情の識別に加えて、目の開閉度合いと言った特徴を特徴量として計算することも可能である。   In the technique of Non-Patent Document 4, the current AU combination and the change intensity of the AU are compared with the expression table extracted from the expression database prepared in advance and the reference table of the expression intensity. Estimates the facial expression intensity of the photographer. Alternatively, the expression intensity may be estimated by adding the combination of AUs and the change intensity of AUs by linear weighted addition. However, there are individual differences in the expression of facial expressions, and depending on the subject, there are some people who have difficulty expressing facial expressions. Therefore, it is desirable to change the weight used for the calculation of the expression intensity for each subject. In addition, since facial feature points have already been calculated in the calculation process of step S404, in addition to facial expression identification, it is also possible to calculate a feature such as the degree of opening and closing of eyes as a feature amount.

ステップS405では、ステップS402で検出した顔領域に対して、その顔の向き(姿勢)を計算する。顔向きの計算方法も個人識別同様、従来より数々の手法が提案されており、それらの中から好適な手段を適宜選択すればよい。その一例として、非特許文献6や非特許文献7に記載の方法などが挙げられる。どちらの方法も、顔特徴点で表現される顔モデルと顔画像の濃淡パターンから作られるアピアランス情報を使って、予め特徴検出器を作成しておき、入力画像とのマッチングを計算するものである。   In step S405, the face orientation (posture) is calculated for the face area detected in step S402. Similar to personal identification, a number of methods have been proposed for calculating the face orientation, and a suitable means may be selected as appropriate from among them. Examples thereof include the methods described in Non-Patent Document 6 and Non-Patent Document 7. In both methods, a feature detector is created in advance using the appearance information created from the facial model represented by facial feature points and the shade pattern of the facial image, and the matching with the input image is calculated. .

ステップS405は、これらの手法を利用して、3次元的な顔の位置および向きを推定する。本実施形態に係るデータベース104には、入力画像から得られる被写体の顔の位置、並びに向きの情報も特徴量として記録される。顔向きに関する特徴は、例えばカメラ写りを気にする人物の場合、右側から撮影された写真と左側から撮影された写真とで好みが大きく分かれることが多く、そのような個人嗜好性をシステムに登録するために必要になる。   In step S405, the three-dimensional face position and orientation are estimated using these methods. In the database 104 according to the present embodiment, information on the position and orientation of the face of the subject obtained from the input image is also recorded as a feature amount. For example, in the case of a person who cares about taking a picture of the face, the preference is often largely divided between a photograph taken from the right side and a photograph taken from the left side, and such personal preferences are registered in the system. Is needed to do.

次に、ステップS406では、画質(被写体の写り具合)に関する特徴量を抽出する。これは、例えば、被写体にピントが合っているか、ブラーが生じていないか、画像内の被写体の位置やサイズは適切か、といった審美的な要因を評価するための特徴量である。審美的な要因を評価するための特徴量を計算する方法は、例えば、非特許文献8に記載の方法が挙げられる。非特許文献8は、既存の顔検出技術に加え、画像内を物体毎にいくつかの領域に分割し、その領域内の画素のクリアさ(ブラーが生じているか否か)を特徴量として抽出して良否判定を行っている。また、非特許文献8では、画素のクリアさに加え、様々な他の特徴量も抽出し、総合的に画像全体の審美性を評価するスコアを算出している。   Next, in step S406, a feature amount relating to image quality (the state of the subject image) is extracted. This is a feature amount for evaluating aesthetic factors, for example, whether the subject is in focus, blur is not generated, and whether the position and size of the subject in the image are appropriate. Examples of a method for calculating a feature amount for evaluating an aesthetic factor include a method described in Non-Patent Document 8. Non-Patent Document 8 divides the image into several regions for each object in addition to the existing face detection technology, and extracts the clearness of pixels in the region (whether blurring occurs) as a feature quantity And pass / fail judgment is performed. In Non-Patent Document 8, in addition to pixel clearness, various other feature amounts are extracted, and a score for comprehensively evaluating the aesthetics of the entire image is calculated.

以上、本実施形態では、ステップS403〜S406において、画像特徴抽出部102は、種々の特徴量として、個人識別情報、表情に関する情報、顔向き(姿勢)に関する情報、画質に関する情報の4つの特徴量を計算する。また、これらの特徴量に加え、被写体の年齢や性別といった属性情報や、顔以外の身体の姿勢(ジェスチャーを含む)に関する情報も同時に抽出して良否判定要因に利用するなどしてもよい。   As described above, in the present embodiment, in steps S403 to S406, the image feature extraction unit 102 includes four feature amounts of personal identification information, information on facial expressions, information on face orientation (posture), and information on image quality as various feature amounts. Calculate In addition to these feature amounts, attribute information such as the age and sex of the subject and information on the posture of the body other than the face (including gestures) may be extracted at the same time and used as a pass / fail judgment factor.

次に、ステップS407では、画像特徴分類部103が、ステップS402〜S406の各処理で画像から抽出された特徴量と画像をデータベース104に登録する。そして、ステップS408では、データベース104に登録する全ての画像の特徴量抽出および画像の登録作業が完了したか否かが判定される。全ての画像を登録し終えていない場合は、ステップS401に戻る。全ての画像を登録し終えたら、画像特徴を良否判定の根拠となる要因毎にまとめるために、次のステップに進む。   Next, in step S407, the image feature classification unit 103 registers the feature amount and the image extracted from the image in each process of steps S402 to S406 in the database 104. In step S408, it is determined whether the feature amount extraction and image registration operations for all images registered in the database 104 have been completed. If all the images have not been registered, the process returns to step S401. When all the images have been registered, the process proceeds to the next step in order to collect the image features for each factor that is the basis for the pass / fail judgment.

ステップS409では、画像特徴分類部103が、ステップS407でデータベース104に登録した全ての画像に対して抽出した特徴空間上でクラスタリングを行う。クラスタリングは、例えば、前述のk−means法などを利用して画像特徴毎にまとまったクラスタを算出する。前述したように、このステップで生成されたクラスタは、例えば図2に示すように、目線、顔向き、表情、というように意味のある特徴毎にまとめられる。また、特徴空間上に分布する各画像特徴に主成分分析をかけ、次元圧縮し各画像特徴の主成分を割り出すことも可能である。算出した主成分は、良否判定の根拠となる要因の変化を顕著に示すパラメータ軸になっているため、前述のクラスタの代わりに算出した主成分軸を利用して画像特徴を分類してもよい。   In step S409, the image feature classification unit 103 performs clustering on the extracted feature space for all images registered in the database 104 in step S407. For clustering, for example, a cluster clustered for each image feature is calculated using the k-means method described above. As described above, the clusters generated in this step are collected for each meaningful feature such as a line of sight, a face orientation, and an expression as shown in FIG. It is also possible to perform principal component analysis on each image feature distributed in the feature space and to dimensionally compress the image feature to determine the principal component of each image feature. Since the calculated principal component is a parameter axis that remarkably indicates a change in the factor that is a basis for the pass / fail judgment, image features may be classified using the calculated principal component axis instead of the above-described cluster. .

なお、本実施形態は予め撮影した実写画像を学習用画像として用いデータベース104に登録するようにしているが、例えば非特許文献9のように、実写画像以外にもコンピュータグラフィックスで生成した顔画像を利用してもよい。コンピュータグラフィックスによる目線、顔向き、表情の変更は、3次元の顔モデルさえ用意できれば、パラメータを変えるだけで容易に行うが可能である。   In the present embodiment, a photographed photographed image is used as a learning image and registered in the database 104. For example, as in Non-Patent Document 9, a face image generated by computer graphics in addition to a photographed image. May be used. Changing the line of sight, face orientation, and facial expression by computer graphics can be easily performed only by changing parameters as long as a three-dimensional face model can be prepared.

また、データベース104で良否判定の根拠となる要因毎にクラスタリングできた場合、特徴選択を行い、そのクラスタを分類するために最も寄与する特徴量のみを利用し、各クラスタへの分類を行うなどしてもよい。以上で、良否登録部100における良否判定基準を登録する処理が終了する。   In addition, when clustering can be performed for each factor that is a basis for pass / fail judgment in the database 104, feature selection is performed, and only the feature amount that contributes most to classify the cluster is used, and classification into each cluster is performed. May be. This completes the process of registering the pass / fail criterion in the pass / fail registration unit 100.

次に、個別嗜好学習部110において、ユーザ固有の嗜好性を学習する処理の詳細について説明する。図5は、本実施形態に係る個別嗜好学習部110の処理手順を示すフローチャートである。まず、ステップS501では、良否判定部111が、撮像部で撮像された画像を入力信号として受信する。ここでは、デジタルカメラ等の撮像装置で撮像した画像に対して処理を行う例について説明するが、撮像装置の記憶装置等に格納される画像を読み込んでもよい。   Next, details of the process of learning the user-specific preference in the individual preference learning unit 110 will be described. FIG. 5 is a flowchart showing a processing procedure of the individual preference learning unit 110 according to the present embodiment. First, in step S501, the quality determination unit 111 receives an image captured by the imaging unit as an input signal. Here, an example in which processing is performed on an image captured by an imaging device such as a digital camera will be described, but an image stored in a storage device or the like of the imaging device may be read.

ステップS502では、良否判定部111が、データベース104を参照し、ステップS501で取得した画像の良否判定を行う。具体的には、良否判定部111は、まず画像特徴抽出部102と同様の画像処理を行い、画像特徴を抽出する。そして、抽出した特徴量を特徴ベクトルとして、良否判定要因画像データベースに登録済みの「好ましくない画像」のクラスタに分類されるか否かを判定する。撮像画像の特徴ベクトルが、あるクラスタに分類されるか否かは、良否登録部100で利用したクラスタリングの方法と同一の方法で判別可能である。具体的には、特徴ベクトルと各クラスタの中心ないし重心との距離を算出し、距離が閾値以下となるクラスタを見つけることで、分類することができる。もしくは、最も距離が近い特徴ベクトルが属するクラスタを撮像画像の特徴ベクトルが属する候補となるクラスタに設定するなどしてもよい。なお、ステップS502の処理は、撮像直後、もしくは撮像した画像をユーザに見せる前には完了していることが望ましい。   In step S502, the quality determination unit 111 refers to the database 104 and determines quality of the image acquired in step S501. Specifically, the quality determination unit 111 first performs image processing similar to that of the image feature extraction unit 102 to extract image features. Then, using the extracted feature amount as a feature vector, it is determined whether or not it is classified into a “desirable image” cluster registered in the pass / fail determination factor image database. Whether or not the feature vector of the captured image is classified into a certain cluster can be determined by the same method as the clustering method used by the pass / fail registration unit 100. Specifically, classification can be performed by calculating the distance between the feature vector and the center or centroid of each cluster, and finding a cluster whose distance is equal to or less than a threshold. Alternatively, the cluster to which the feature vector with the shortest distance belongs may be set as a candidate cluster to which the feature vector of the captured image belongs. Note that the processing in step S502 is preferably completed immediately after imaging or before showing the captured image to the user.

ステップS503では、表示制御部113が、ステップS501で取得した撮像画像を撮像装置の画像表示部(液晶ディスプレイ等)に表示する。そして、ステップS504では、良否判定部111が、ユーザが指示した良否判定の結果を受付ける。具体的には、撮像装置の液晶ディスプレイにプレビュー表示されている状態で、例えばその撮像画像を削除するか否かの指定を受付ける処理になる。   In step S503, the display control unit 113 displays the captured image acquired in step S501 on the image display unit (liquid crystal display or the like) of the imaging device. In step S504, the pass / fail determination unit 111 receives the pass / fail determination result instructed by the user. Specifically, in the state in which the preview is displayed on the liquid crystal display of the imaging device, for example, a process of accepting designation as to whether or not to delete the captured image is performed.

ステップS505では、良否判定部111が、ステップS502で判定した良否結果と、ステップS504で受付けたユーザによる良否判定結果が一致するか否かを比較する。比較した結果、両者の良否結果が一致した場合は、ユーザの個人嗜好性を学習する必要が無いので、ステップS501に処理を戻し、新しい画像の入力を待つ。一方、良否結果が一致しない場合、例えば良否判定部111で好ましいと判断した画像であるにも関わらず、ユーザが削除を選択した場合などは、ユーザの個人嗜好性を学べる機会と判断し、ステップS506〜S509までの処理を実行する。   In step S505, the pass / fail determination unit 111 compares the pass / fail result determined in step S502 with the pass / fail determination result received by the user in step S504. As a result of the comparison, if both pass / fail results match, there is no need to learn the user's personal preference, so the process returns to step S501 to wait for the input of a new image. On the other hand, if the pass / fail result does not match, for example, if the user selects deletion even though the image is determined to be preferable by the pass / fail determination unit 111, it is determined that it is an opportunity to learn the user's personal preference, The processing from S506 to S509 is executed.

ステップS506において、嗜好選択肢抽出部112は、ユーザの個人嗜好性を把握するために、データベース104に登録済みの「好ましくない画像群」から、それらの画像のどれに近いかをユーザに問合せるための画像候補を抽出する。図6は、ステップS506の処理で、データベース104に登録されたクラスタから、選択肢候補画像を抽出する場合の一例を図示した概念図である。   In step S506, the preference option extraction unit 112 inquires of the user which one of those images is closest to the “unfavorable image group” registered in the database 104 in order to grasp the personal preference of the user. Extract image candidates. FIG. 6 is a conceptual diagram illustrating an example in which option candidate images are extracted from the clusters registered in the database 104 in the process of step S506.

以下、選択肢候補画像の抽出例を、図3および図6を参照しつつ、具体的に説明する。なお、前提として、本実施形態の画像処理装置は、ユーザの個人嗜好性を学習する前であり、図3の画像302を「好ましい画像」と判定しているものとする。そして、装置が「好ましい画像」と判定した図3の画像302に対して、ユーザは「目線が前(ゴール)を向いていなかった」という理由で削除指定を行ったとする。なお、この画像302について、ステップS502の良否判定処理の過程で、その画像特徴量は抽出済みである。抽出した画像特徴量を特徴ベクトルとして良否判定要因画像データベースに登録されている特徴空間に写像した点は、図6において特徴点601として示している。   Hereinafter, an example of extraction of option candidate images will be specifically described with reference to FIGS. 3 and 6. As a premise, it is assumed that the image processing apparatus of the present embodiment has determined the image 302 in FIG. 3 as a “preferred image” before learning the user's personal preference. Then, it is assumed that the user designates deletion for the reason that “the line of sight was not facing forward (goal)” with respect to the image 302 in FIG. Note that the image feature amount of this image 302 has already been extracted in the course of the pass / fail judgment process in step S502. A point obtained by mapping the extracted image feature amount as a feature vector into a feature space registered in the pass / fail determination factor image database is shown as a feature point 601 in FIG.

ステップS506では、嗜好選択肢抽出部112が、特徴点601に距離(類似度)が近い画像を選択肢候補として抽出する。図6の特徴空間内の距離は、特徴ベクトル間のユークリッド距離などを計算することで求めることができる。図6の例では、算出した距離が近い順に上位3つの特徴点を選択肢候補として抽出している。データベース104には、登録済みの各画像と特徴ベクトルがセットで登録されているため、特徴ベクトルに対応する元画像を検索することが可能である。図6では、例として3枚の選択肢候補画像を表示しているが、表示枚数には制限は無く、データベース104に登録されている画像から必要な枚数を抽出して表示すればよい。   In step S506, the preference option extraction unit 112 extracts an image whose distance (similarity) is close to the feature point 601 as an option candidate. The distance in the feature space of FIG. 6 can be obtained by calculating the Euclidean distance between feature vectors. In the example of FIG. 6, the top three feature points are extracted as option candidates in order of the calculated distance. Since each registered image and feature vector are registered in the database 104 as a set, an original image corresponding to the feature vector can be searched. In FIG. 6, three option candidate images are displayed as an example. However, the number of displayed images is not limited, and a necessary number of images may be extracted and displayed from images registered in the database 104.

ステップS507では、表示制御部113が、ステップS506で抽出された選択肢候補画像を装置の表示部に表示する。図3の画像304は、選択肢候補画像を表示した一例である。図3では、ステップS506で算出した特徴ベクトル間の距離の近い順に並べて表示しているが、距離が遠い順や、距離の算出方法を変えて並び順を操作するなどしてもよい。また、ユーザによってはそれぞれの特徴量に優先順位を付けた方が適切に個人嗜好性を反映できる場合も考えられるため、特徴ベクトルに優先順位の重みを付けて距離を算出するなどしてもよい。   In step S507, the display control unit 113 displays the option candidate image extracted in step S506 on the display unit of the apparatus. An image 304 in FIG. 3 is an example in which option candidate images are displayed. In FIG. 3, the feature vectors calculated in step S <b> 506 are displayed in order from the shortest distance between the feature vectors. However, the order of the distances may be increased or the order of the distances may be changed. In addition, depending on the user, it may be possible to appropriately reflect individual preference by assigning priorities to each feature amount. Therefore, a distance may be calculated by assigning priority weights to feature vectors. .

ステップS508において、個別嗜好設定部114は、ステップS507で表示した画像からユーザが選択した選択肢候補画像の情報を受付ける。ここでは、ユーザは目線の向きが好ましくないと感じて、画像302を選択している場合であるので、ユーザは、図3の選択肢候補の表示領域に表示される画像304の目線の向きが上方を向いている画像を選択する。その際、表示画面には、図3の画像304に示すように画像特徴が一目でわかるように、特徴を可視化して表示するなどしてもよい。これは例えば、無表情の時の顔画像からの変分量を抽出し、変分量が閾値以上となる領域の方向を矢印で示してもよいし、矩形領域などで表示するようにしてもよい。また、顔向きに特徴がある場合は、顔に3次元の座標軸を注釈情報として表示するなどしてもよい。   In step S508, the individual preference setting unit 114 receives information on option candidate images selected by the user from the images displayed in step S507. Here, since the user feels that the direction of the line of sight is unfavorable and the user selects the image 302, the user is directed to the upward direction of the line of sight of the image 304 displayed in the option candidate display area of FIG. Select the image facing. At that time, as shown in the image 304 in FIG. 3, the features may be visualized and displayed on the display screen so that the image features can be seen at a glance. For example, the amount of variation from the facial image when there is no expression may be extracted, and the direction of the region where the amount of variation is equal to or greater than the threshold may be indicated by an arrow, or may be displayed as a rectangular region. If there is a feature in the face orientation, a three-dimensional coordinate axis may be displayed as annotation information on the face.

ステップS509では、個別嗜好設定部114が、ユーザの選択した画像を元に、データベース104に登録する個別嗜好に関する情報をパラメータとして追加する。ここで、個別嗜好に関する情報とは、データベース104に登録済みの各良否判定クラスタに対し、新規にクラスタを生成した場合に変更される各種数値情報(パラメータ)を指している。あるいは、既存クラスタに新たに個別嗜好情報を持つ画像を追加し、クラスタの範囲を再学習した場合に変更される各種数値情報(パラメータ)を指している。   In step S509, the individual preference setting unit 114 adds, as a parameter, information related to the individual preference registered in the database 104 based on the image selected by the user. Here, the information related to individual preferences refers to various numerical information (parameters) that are changed when a new cluster is generated for each pass / fail judgment cluster registered in the database 104. Alternatively, it indicates various numerical information (parameters) that are changed when an image having individual preference information is newly added to an existing cluster and the range of the cluster is relearned.

選択肢表示画面300においてユーザが1以上の選択肢候補画像を選択した場合、ステップS509では、個別嗜好設定部114が、データベース104に登録済みのクラスタに対して個別嗜好情報を追加し、特徴空間上のクラスタの範囲が再度計算する。具体的には、図2ないし図6の顔向きの特徴を示すクラスタ201の範囲を特徴点601まで広げる。このクラスタの再計算処理により、再度特徴点601に似た画像が入力された場合に、良否判定部111は、このユーザ個人の嗜好性を反映したクラスタに分類することができるようになる。このようにクラスタの再計算処理を行うことで、データベース104は、個人嗜好性を持つ情報を逐次追加しながら、良否判定の根拠となるクラスタを個人の嗜好性に合わせて設定し直すことが可能になる。   When the user selects one or more option candidate images on the option display screen 300, in step S509, the individual preference setting unit 114 adds individual preference information to the cluster registered in the database 104, The cluster range is calculated again. Specifically, the range of the cluster 201 indicating the face-oriented features in FIGS. 2 to 6 is expanded to the feature point 601. When an image similar to the feature point 601 is input again by this cluster recalculation process, the pass / fail judgment unit 111 can be classified into clusters that reflect the user's personal preference. By performing the cluster recalculation process in this way, the database 104 can re-set the cluster that is the basis for the pass / fail judgment according to the personal preference while sequentially adding information with personal preference. become.

一方、選択肢表示画面300において、ユーザが「選択肢無し」のボタン306を押下した場合は、データベース104に選択肢となるクラスタが存在しないことを意味する。そのため、個別嗜好設定部114は、ユーザが削除対象に指定した画像302の特徴点601を中心としたクラスタを新たに生成する。このとき、特徴点601を中心としたクラスタの範囲は、隣り合うクラスタに重ならないように範囲を設定することが望ましい。また、設定する時の範囲は、初期値として予め設定していてもよいし、新規クラスタ生成時にユーザが直接設定するなどしてもよい。   On the other hand, when the user presses the “no option” button 306 on the option display screen 300, this means that there is no cluster as an option in the database 104. For this reason, the individual preference setting unit 114 newly generates a cluster centered on the feature point 601 of the image 302 designated as a deletion target by the user. At this time, it is desirable to set the range of the cluster centering on the feature point 601 so as not to overlap the adjacent cluster. In addition, the setting range may be set in advance as an initial value, or may be directly set by the user when a new cluster is generated.

ステップS510では、本処理の終了判定を行い、処理を続ける場合には、ステップS501の画像取得工程に処理を戻す。   In step S510, it is determined whether or not to end this process. When the process is continued, the process returns to the image acquisition process in step S501.

なお、本実施形態の説明では、被写体である人物の表情についてユーザ固有の嗜好性を学習する形態について説明してきたが、本実施形態の適用範囲は、人物の表情に限られるものではない。例えば、画面内の顔の位置と大きさ(構図)、顔向き(姿勢)、視線の向き、目つき、瞬き、性別や年齢による影響などによって、良否判定の基準が被写体によって異なる場合に同様に適用可能である。   In the description of the present embodiment, the form of learning the user-specific preference for the facial expression of the person who is the subject has been described, but the application range of the present embodiment is not limited to the facial expression of the person. For example, if the criteria for pass / fail judgment varies depending on the subject due to the position and size of the face (composition), face orientation (posture), gaze direction, eyes, blink, gender, age, etc. Applicable.

以上、本実施形態によれば、ユーザが「好ましくない」と判定した画像の画像特徴に近い画像をデータベースより抽出し、ユーザに選ばせることで、個人嗜好性を学習することが可能になる。特に、本実施形態では、ユーザが「好ましくない」と判定した画像に対して、その根拠となる要因を、ユーザは点数や言語で示さなくとも、直感的に嗜好性を登録することが可能になる。   As described above, according to the present embodiment, it is possible to learn personal preference by extracting an image close to the image feature of an image that the user has determined to be “not preferable” from the database and allowing the user to select it. In particular, in the present embodiment, it is possible for the user to intuitively register the palatability even if the user has not indicated the factor that is the basis for the image determined as “not preferable” in the score or language. Become.

[第1の実施形態の変形例]
第1の実施形態では、装置が「好ましい画像」と判定した画像に対して、ユーザが「好ましくない」と判定した場合について説明した。これとは逆に、装置が「好ましくない画像」と判定した画像に対して、ユーザが「好ましい」と判定するような場合についても、本発明は適用可能である。
[Modification of First Embodiment]
In the first embodiment, a case has been described in which the user determines “not preferable” with respect to an image determined as “preferable image” by the apparatus. On the other hand, the present invention can also be applied to a case where the user determines “preferred” to an image determined by the apparatus as “unfavorable image”.

本変形例では、学習用画像として「好ましい画像」が要否判定要因毎にクラスタリングされ、データベース104に登録される。そして、ある画像に対して、良否判定部111が「好ましくない」と判定し、ユーザが「好ましい」と判定した場合に、嗜好選択肢抽出部112は、データベース104の「好ましい」画像群の中から候補画像を抽出する。ユーザの個人嗜好性をデータベース104に反映する設定方法については前述の第1の実施形態と同様である。   In this modification, “preferred images” are clustered for each necessity determination factor as learning images and registered in the database 104. When the quality determination unit 111 determines “not preferable” for a certain image and the user determines “preferred”, the preference option extraction unit 112 selects the “preferred” image group from the database 104. Extract candidate images. The setting method for reflecting the user's personal preference in the database 104 is the same as in the first embodiment.

本変形例において、データベース104に登録されている画像は、予め用意される画像群やユーザが撮影した画像以外に、例えば雑誌などに写っているモデルの画像などでも構わない。これは、モデルなどのお手本となり得る写り方から、好ましい画像の特徴を抽出し、データベース104に登録することができるためである。一方で、「好ましくない」とユーザが判定する画像は、ユーザが暗黙的に抱えるコンプレックスなども反映される必要がある。そのため、前述の第1の実施形態のように、ユーザ本人や主に被写体となる人物が写っている画像に対して、パラメータを設定する方がよいと考えられる。   In this modification, the image registered in the database 104 may be, for example, an image of a model shown in a magazine or the like in addition to an image group prepared in advance or an image taken by a user. This is because desirable image features can be extracted from the way the image can be used as a model and registered in the database 104. On the other hand, an image determined by the user as “not preferable” needs to reflect a complex implicitly held by the user. For this reason, it is considered that it is better to set parameters for an image in which the user himself or a person who is mainly the subject is shown, as in the first embodiment described above.

[第2の実施形態]
次に、本発明の第2の実施形態について説明を行う。本実施形態では、ユーザに複数枚の候補画像を同時に選択させることで、複数の良否判定要因に係る個別嗜好性を学習する構成について説明する。以下の説明では、パーソナルコンピュータ(PC)が本発明の画像処理装置として機能し、アルバム作成や印刷をする際に、装置が大量の画像群より撮影者および被写体が好まないと思われる画像を選別する場合を例にして説明する。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, a configuration will be described in which the user is allowed to select a plurality of candidate images at the same time, thereby learning individual preference related to a plurality of pass / fail judgment factors. In the following description, when a personal computer (PC) functions as the image processing apparatus of the present invention and creates or prints an album, the apparatus selects images that the photographer and subject do not like from a large number of image groups. This will be described as an example. In addition, about the structure already demonstrated in 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

図7は、本実施形態に関わる画像処理装置10のソフトウェア構成(機能構成)を示すブロック図である。同図において、第1実施形態の構成と異なるのは、個別嗜好設定部114に代えて、個別嗜好パラメータ設定部701を有する点である。また、第1の実施形態では、撮像部で撮像された画像を取得するようにしていたが、本実施形態では、画像取得部101が学習用画像に加えて、処理対象の画像を取得する。画像取得部101は、本画像処理装置内の記憶装置、または本装置に接続された記憶媒体、記憶装置等に格納された画像を読み込む。   FIG. 7 is a block diagram illustrating a software configuration (functional configuration) of the image processing apparatus 10 according to the present embodiment. In the figure, what is different from the configuration of the first embodiment is that an individual preference parameter setting unit 701 is provided instead of the individual preference setting unit 114. In the first embodiment, an image captured by the imaging unit is acquired. In the present embodiment, the image acquisition unit 101 acquires an image to be processed in addition to the learning image. The image acquisition unit 101 reads an image stored in a storage device in the image processing apparatus, a storage medium connected to the apparatus, a storage device, or the like.

なお、学習用画像を取得する機能部と、処理対象の画像を取得する機能部が別々となった構成であってもよい。なお、本実施形態では、大量の画像群を処理する場合を想定しており、学習用画像および処理対象画像を読み込むための入力部(インターフェイス)は別に構成されていることが望ましい。例えば、学習用画像を装置に接続された記憶媒体または記憶装置から読込み、インターネット上のクラウドと呼ばれるディスクストレージサービスから大量の画像データをダウンロードして読込むなどの構成が想定される。   In addition, the structure by which the function part which acquires the image for learning and the function part which acquires the image of a process target became separate may be sufficient. In the present embodiment, it is assumed that a large number of image groups are processed, and it is desirable that the input unit (interface) for reading the learning image and the processing target image is configured separately. For example, a configuration in which a learning image is read from a storage medium or a storage device connected to the apparatus and a large amount of image data is downloaded and read from a disk storage service called a cloud on the Internet is assumed.

図7に戻り、個別嗜好パラメータ設定部701は、第1の実施形態と同様に、ユーザにより選択された候補画像に基づいて、ユーザの個別嗜好性を学習する。そして、データベース104に登録済みのクラスタに対して個別嗜好情報を追加し、特徴空間上のクラスタの範囲が再度計算する。これに加えて、選択肢表示画面300においてユーザが選択した候補画像に基づいて、データベース104に登録するパラメータを設定する。   Returning to FIG. 7, the individual preference parameter setting unit 701 learns the user's individual preference based on the candidate image selected by the user, as in the first embodiment. Then, individual preference information is added to the clusters already registered in the database 104, and the range of the clusters on the feature space is calculated again. In addition, parameters to be registered in the database 104 are set based on the candidate image selected by the user on the option display screen 300.

次に、本実施形態におけるユーザ固有の嗜好性を学習する処理について説明する。図8は、本実施形態において、表示制御部により表示される選択肢表示画面300の一例を示したものである。同図において、プレビュー画像一覧301には、例えば運動会で撮影した様々なシーンから、装置の良否判定部111が「好ましい」と判定した画像が選択され、表示されている。   Next, a process for learning user-specific preferences in the present embodiment will be described. FIG. 8 shows an example of the option display screen 300 displayed by the display control unit in the present embodiment. In the figure, in the preview image list 301, for example, images determined as “preferred” by the quality determination unit 111 of the apparatus are selected and displayed from various scenes taken at an athletic meet.

ここで、例えばユーザが画像302に示す主被写体となる子供の顔向きが好ましくないと判定し、削除もしくは非表示にすることを選択したとする。本実施形態に係る画像処理装置10の嗜好選択肢抽出部112は、ユーザの指定操作を受け、個人嗜好性を示すパラメータを再設定するための画像をデータベース104より抽出する。そして、抽出した画像は、表示制御部113によって、図8の選択肢画像表示領域801に表示される。   Here, for example, it is assumed that the user determines that the face orientation of the child, which is the main subject shown in the image 302, is not preferable, and selects deletion or non-display. The preference option extraction unit 112 of the image processing apparatus 10 according to the present embodiment receives a user's designation operation and extracts an image for resetting a parameter indicating personal preference from the database 104. The extracted image is displayed by the display control unit 113 in the option image display area 801 of FIG.

選択肢画像表示領域801のうち、画像802は、ユーザによって既に「好ましくない」と判定されたことがあり、データベース104で「好ましくない画像」として登録されている画像である。「好ましくない画像」として登録された画像は、図8に示すように、フレームが太線もしくは斜線でユーザが視認しやすいように表示される。   In the option image display area 801, the image 802 is an image that has already been determined as “unfavorable” by the user and is registered as an “unfavorable image” in the database 104. As shown in FIG. 8, an image registered as an “unfavorable image” is displayed so that the user can easily recognize it with a thick or slanted frame.

一方、画像803は、ユーザによって既に「好ましい」と判定されたことがあり、データベース104で「好ましい画像」として登録されている画像である。また、画像804は、ユーザが新たに「好ましくない」と判定した理由(この場合は顔向き)に近い画像として、指定した画像である。画像804は、画像802および画像803と容易に区別できるよう、破線等で枠線および斜線を表示している。   On the other hand, the image 803 has been determined as “preferred” by the user and is registered as a “preferred image” in the database 104. The image 804 is an image designated as an image close to the reason why the user newly determines that it is not “preferable” (in this case, the face direction). The image 804 displays a frame line and a hatched line with a broken line or the like so that it can be easily distinguished from the image 802 and the image 803.

カテゴリ表示欄805は、各行で示される画像群がどの良否判定要因に基づくものかをユーザに提示するものである。図8の場合、単に「カテゴリ1」、「カテゴリ2」と表示しているが、「カテゴリ1」には「目線」に基づく画像群を表示しているため、「カテゴリ1」と表示する代わりに、「目線」というタグを表示するなどしてもよい。ただし、良否判定要因は、前述のように「目線」と言った分かりやすい単語で表現されるものばかりではなく、言語化が困難な表情や写り方も多く存在する。そのため、カテゴリ表示欄805には必ずしも画像群の意味がわかる単語がカテゴリ名として表示できるわけではない。また、言語化が困難な画像群の場合は、例えば第1の実施形態で示したクラスタの識別IDをカテゴリ表示欄に表示するなどしてもよい。   The category display field 805 presents to the user which pass / fail judgment factor is based on the image group shown in each row. In the case of FIG. 8, “category 1” and “category 2” are simply displayed. However, since “category 1” displays a group of images based on “eyes”, instead of displaying “category 1”. In addition, a tag “line of sight” may be displayed. However, the pass / fail judgment factors are not only those expressed by easy-to-understand words such as “line of sight” as described above, but there are many facial expressions and ways of being photographed that are difficult to verbalize. For this reason, the category display field 805 does not necessarily display a word indicating the meaning of the image group as the category name. Further, in the case of an image group that is difficult to verbalize, for example, the cluster identification ID shown in the first embodiment may be displayed in the category display field.

パラメータ806およびパラメータ807は、ユーザの個人嗜好性を示すパラメータを図示したものである。パラメータ806およびパラメータ807は、ユーザが選択した候補画像に基づき個別嗜好パラメータ設定部701により設定され、表示制御部113により表示される。例えばカテゴリ1は、目線の向きに関する画像群で、そのうち目線が左下から右下までの顔画像と、上を向いた顔画像が好ましくないと指定されているため、その大凡の範囲がパラメータ806の灰色で指定した領域に表示されている。ここで、パラメータ806は目線に関する角度をパラメータとしてユーザにわかりやすく表示するために円の図形で表示している。一般的には、このようにカテゴリの内容をわかりやすく図示することは困難であるため、その場合はパラメータの最大値と最小値を表示するようにする。   The parameter 806 and the parameter 807 illustrate parameters indicating the user's personal preference. The parameter 806 and the parameter 807 are set by the individual preference parameter setting unit 701 based on the candidate image selected by the user, and are displayed by the display control unit 113. For example, category 1 is an image group related to the direction of the line of sight, and it is specified that a face image with the line of sight from the lower left to the lower right and a face image facing upward are not preferable. It is displayed in the area specified in gray. Here, the parameter 806 is displayed as a circle in order to display the angle regarding the line of sight as a parameter in an easy-to-understand manner for the user. In general, it is difficult to illustrate the contents of the category in an easy-to-understand manner as described above. In this case, the maximum value and the minimum value of the parameter are displayed.

また、カテゴリ2には、顔向きに関連する画像群が列挙されている。パラメータ807は中心が顔向きの0度(正面)を示しており、右向き−180度〜左向き180度までを示している。ここで、新たに画像804(若干右向きの顔画像)を、ユーザが好ましくない画像として指定したため、パラメータ807の表示が更新され、好ましくないと判断する顔向きの角度が増加している。   Category 2 lists images related to face orientation. The parameter 807 indicates 0 degrees (front) with the face facing the center, and indicates from -180 degrees rightward to 180 degrees leftward. Here, since the user newly designates an image 804 (a slightly rightward face image) as an unfavorable image, the display of the parameter 807 is updated, and the angle of the face orientation determined to be unfavorable is increasing.

このように、本実施形態に係る選択肢表示画面300には、個人嗜好性のパラメータを変更するための画像群が良否判定要因別に1行ずつ表示され、そのパラメータも同時に表示される。ユーザは、選択肢画像表示領域801の画像を選択しながら変化するパラメータを確認しつつ、ユーザの個人嗜好性を登録することができる。   As described above, on the option display screen 300 according to the present embodiment, an image group for changing parameters of personal preference is displayed line by line for each pass / fail judgment factor, and the parameters are also displayed at the same time. The user can register the user's personal preference while confirming parameters that change while selecting an image in the option image display area 801.

一方、画像804の指定により、データベース104に登録されるパラメータが変更になるため、本実施形態では、プレビュー画像一覧のうち点線の枠で示される画像808も新たに「好ましくない」画像と判断されるようになる。これは、画像808の被写体の顔の向きも画像302と同様に右を向いているためである。そこで、本実施形態では、カテゴリ表示欄805に表示されるカテゴリのそれぞれの優先度を指定できるようにしている。例えば、画像808に対してユーザが「好ましい」と判断する場合は、ユーザは、カテゴリ表示欄805に表示されるカテゴリのうち、被写体の顔向きに係る優先度を下げて、他のカテゴリの優先度を上げるように設定することができる。これにより、顔向きが「好ましくない」ような画像であっても、その他の要因(表情等)が良ければ「好ましい画像」と判定されるようになる。   On the other hand, since the parameter registered in the database 104 is changed by specifying the image 804, in the present embodiment, the image 808 indicated by the dotted frame in the preview image list is also newly determined as an “unfavorable” image. Become so. This is because the orientation of the face of the subject of the image 808 is also facing right like the image 302. Therefore, in this embodiment, the priority of each category displayed in the category display field 805 can be designated. For example, when the user determines that the image 808 is “preferred”, the user lowers the priority related to the face direction of the subject among the categories displayed in the category display field 805 and prioritizes other categories. Can be set to increase the degree. As a result, even if the image has an unfavorable face orientation, it is determined as a “preferred image” if other factors (such as facial expressions) are good.

以上、本実施形態によれば、ユーザに良否判定要因(カテゴリ)ごとに候補画像を選択させることで、複数の良否判定要因に係る個別嗜好性を学習することが可能となる。また、本実施形態では、個別嗜好パラメータ設定部701により、データベース104に反映させる数値情報(パラメータ)を選択肢表示画面300に表示させることにより、自身が設定している個別嗜好性をユーザに直感的に示すことができる。   As described above, according to the present embodiment, it is possible to learn individual preference related to a plurality of pass / fail determination factors by causing the user to select candidate images for each pass / fail determination factor (category). In the present embodiment, the individual preference parameter setting unit 701 displays numerical information (parameters) to be reflected in the database 104 on the option display screen 300, so that the individual preference set by the user is intuitive to the user. Can be shown.

[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、前述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
[Other Embodiments]
In addition, the present invention supplies software (program) for realizing the functions of the above-described embodiments to a system or apparatus via a network or various storage media, and the computer of the system or apparatus (or CPU, MPU, etc.) programs Is read and executed. Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not. That is, the present invention includes all the combinations of the above-described embodiments and modifications thereof.

10 画像処理装置
101 画像取得部
102 画像特徴抽出部
103 画像特徴分類部
104 データベース
111 良否判定部
112 嗜好選択肢抽出部
113 表示制御部
114 個別嗜好設定部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 101 Image acquisition part 102 Image feature extraction part 103 Image feature classification part 104 Database 111 Pass / fail judgment part 112 Preference choice extraction part 113 Display control part 114 Individual preference setting part

Claims (10)

画像から抽出された特徴量と当該画像に対する良否との良否関係を対応付けて記憶するデータベースを参照し、入力画像から抽出した特徴量に基づいて前記入力画像の良否を判定する判定手段と、
前記判定手段による前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出手段と、
前記抽出された候補画像を表示部に表示させる表示制御手段と、
前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定手段と、
を有することを特徴とする画像処理装置。
A determination unit that determines whether or not the input image is good based on a feature value extracted from the input image with reference to a database that stores the quality value extracted from the image and the quality relationship between the image and the image in association with each other;
An extraction unit that extracts a candidate image from the database when a determination result on the input image by the determination unit is different from a determination result on the input image by the user;
Display control means for displaying the extracted candidate images on a display unit;
Based on a candidate image selected by the user from the displayed candidate images, setting means for setting a pass / fail relationship based on the determination of the user in the database;
An image processing apparatus comprising:
前記データベースは、前記良否関係を画像の良否に関係する要因ごとに分類して記憶していることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the database stores the quality relationship classified by factor related to image quality. 前記設定手段は、前記要因に関するパラメータを設定することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the setting unit sets a parameter related to the factor. 前記抽出手段は、複数の前記要因ごとに候補画像を抽出し、
前記設定手段は、前記複数の要因それぞれに関するパラメータを設定することを特徴とする請求項3に記載の画像処理装置。
The extraction means extracts candidate images for each of the plurality of factors,
The image processing apparatus according to claim 3, wherein the setting unit sets a parameter relating to each of the plurality of factors.
前記表示制御手段は、前記設定手段が設定するパラメータの情報を表示部に表示させることを特徴とする請求項3または4に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the display control unit displays information on parameters set by the setting unit on a display unit. 前記制御手段は、前記候補画像に前記良否に関係する要因の情報を付加して表示することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the control unit displays the candidate image with information on a factor related to the quality. 前記抽出手段は、前記入力画像と距離の近い複数の画像を前記データベースより抽出することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction unit extracts a plurality of images that are close to the input image from the database. 前記特徴量は、顔の向き、目線の角度、表情が表出強度、目が開いている度合い、口が開いている度合い、画質のうちの少なくとも1つであることを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。   2. The feature amount according to claim 1, wherein the feature amount is at least one of a face direction, an eye angle, a facial expression intensity, an eye opening degree, a mouth opening degree, and an image quality. 8. The image processing apparatus according to any one of items 1 to 7. 画像から抽出された特徴量と当該画像に対する良否との良否関係を対応付けて記憶するデータベースを参照し、入力画像から抽出した特徴量に基づいて前記入力画像の良否を判定する判定ステップと、
前記判定ステップにおいて前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出ステップと、
前記抽出された候補画像を表示部に表示させる表示制御ステップと、
前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定ステップと、
を有することを特徴とする画像処理方法。
A determination step of determining the quality of the input image based on the feature value extracted from the input image with reference to a database that stores the quality value extracted from the image and the quality relationship with the image in association with each other;
An extraction step of extracting candidate images from the database when the determination result of the quality of the input image in the determination step is different from the result of determination of the quality of the input image by the user;
A display control step of displaying the extracted candidate image on a display unit;
A setting step for setting a pass / fail relationship based on the determination of the user in the database based on a candidate image selected by the user from the displayed candidate images;
An image processing method comprising:
コンピュータを、請求項1から8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 8.
JP2015080449A 2015-04-09 2015-04-09 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM Active JP6529314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015080449A JP6529314B2 (en) 2015-04-09 2015-04-09 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015080449A JP6529314B2 (en) 2015-04-09 2015-04-09 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016200969A true JP2016200969A (en) 2016-12-01
JP6529314B2 JP6529314B2 (en) 2019-06-12

Family

ID=57424361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015080449A Active JP6529314B2 (en) 2015-04-09 2015-04-09 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6529314B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190326A (en) * 2017-05-11 2018-11-29 日本電信電話株式会社 Reference image selecting apparatus, method and program
KR101981634B1 (en) * 2018-07-31 2019-05-23 주식회사 스토리안트 Intelligent Face Photo Locator By learning face images by age group
JP2019087008A (en) * 2017-11-07 2019-06-06 東芝テック株式会社 Image processing system and image processing method
JP2020102739A (en) * 2018-12-20 2020-07-02 東芝映像ソリューション株式会社 Transmission apparatus and transmission method
JP2020102740A (en) * 2018-12-20 2020-07-02 東芝映像ソリューション株式会社 Transmission and reception system, and transmission and reception method
CN112040115A (en) * 2019-06-03 2020-12-04 佳能株式会社 Image processing apparatus, control method thereof, and storage medium
US20210312181A1 (en) * 2018-09-27 2021-10-07 Fujifilm Corporation Image processing device, image processing method, program, and recording medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190326A (en) * 2017-05-11 2018-11-29 日本電信電話株式会社 Reference image selecting apparatus, method and program
JP2019087008A (en) * 2017-11-07 2019-06-06 東芝テック株式会社 Image processing system and image processing method
KR101981634B1 (en) * 2018-07-31 2019-05-23 주식회사 스토리안트 Intelligent Face Photo Locator By learning face images by age group
US20210312181A1 (en) * 2018-09-27 2021-10-07 Fujifilm Corporation Image processing device, image processing method, program, and recording medium
US11594027B2 (en) * 2018-09-27 2023-02-28 Fujifilm Corporation Image processing device, image processing method, program, and recording medium
JP7099947B2 (en) 2018-12-20 2022-07-12 Tvs Regza株式会社 Transmission / reception system and transmission / reception method
JP7038650B2 (en) 2018-12-20 2022-03-18 Tvs Regza株式会社 Transmission device and transmission method
JP2020102740A (en) * 2018-12-20 2020-07-02 東芝映像ソリューション株式会社 Transmission and reception system, and transmission and reception method
JP2020102739A (en) * 2018-12-20 2020-07-02 東芝映像ソリューション株式会社 Transmission apparatus and transmission method
JP2020198556A (en) * 2019-06-03 2020-12-10 キヤノン株式会社 Image processing device, control method of the same, program, and storage medium
CN112040115A (en) * 2019-06-03 2020-12-04 佳能株式会社 Image processing apparatus, control method thereof, and storage medium
JP7348754B2 (en) 2019-06-03 2023-09-21 キヤノン株式会社 Image processing device and its control method, program, storage medium
CN112040115B (en) * 2019-06-03 2024-02-20 佳能株式会社 Image processing apparatus, control method thereof, and storage medium

Also Published As

Publication number Publication date
JP6529314B2 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
JP6529314B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP5649425B2 (en) Video search device
TWI742300B (en) Method and system for interfacing with a user to facilitate an image search for a person-of-interest
US9542419B1 (en) Computer-implemented method for performing similarity searches
US8819015B2 (en) Object identification apparatus and method for identifying object
US10614289B2 (en) Facial tracking with classifiers
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US8416997B2 (en) Method of person identification using social connections
JP6328761B2 (en) Image-based search
US9367756B2 (en) Selection of representative images
JP4168940B2 (en) Video display system
JP6369470B2 (en) Information processing system
CN110869938A (en) Personnel identification system and method
JP4797761B2 (en) Movie display device
CN110569918B (en) Sample classification method and related device
JP5971712B2 (en) Monitoring device and method
Shanmugavadivu et al. Rapid face detection and annotation with loosely face geometry
CN107231519B (en) Video processing apparatus and control method
US20230131717A1 (en) Search processing device, search processing method, and computer program product
KR102213865B1 (en) Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor
JP7465487B2 (en) Emoticon Generator
KR20120128094A (en) Face recognition apparatus, control method thereof, face recognition method
JP2008148262A (en) Imaging apparatus, its control method, program, and storage medium
Ptucha et al. Automatic image assessment from facial attributes
Batsukh et al. Effective computer model for recognizing nationality from frontal image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190514

R151 Written notification of patent or utility model registration

Ref document number: 6529314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151