JP2016200969A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2016200969A JP2016200969A JP2015080449A JP2015080449A JP2016200969A JP 2016200969 A JP2016200969 A JP 2016200969A JP 2015080449 A JP2015080449 A JP 2015080449A JP 2015080449 A JP2015080449 A JP 2015080449A JP 2016200969 A JP2016200969 A JP 2016200969A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- database
- quality
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、ユーザに個人嗜好性を尋ねる画像を提示し、個人嗜好性を学習する技術に関する。 The present invention relates to a technique for presenting an image asking a user about personal preference and learning personal preference.
近年のデジタルカメラ等の撮像装置は連写性能が向上し、またメモリーなどの記憶媒体の大容量化に伴い、個人であっても収集する画像枚数が飛躍的に増加している。その結果、大量の画像から好みの画像を選択する作業は、ユーザに負担を強いる作業になってきている。 Imaging devices such as digital cameras in recent years have improved continuous shooting performance, and with the increase in capacity of storage media such as memories, the number of images collected even by individuals has increased dramatically. As a result, the task of selecting a favorite image from a large number of images has become a burden on the user.
このような点に対して、特許文献1のように、ユーザによる大量の画像から所望の画像を選択する作業を簡略化するための方法が提案されている。特許文献1の方法では、ユーザが登場人物の優先順位とその登場人物の好みの表情とを予めデータベースに登録し、それらの情報から画像の推薦度を計算して、ユーザが所望するであろう画像を選別し表示するようにしている。 For such a point, a method for simplifying the operation of selecting a desired image from a large number of images by a user has been proposed as disclosed in Patent Document 1. In the method of Patent Document 1, the user will register the priority order of the characters and the favorite facial expression of the characters in the database in advance, calculate the recommendation degree of the image from those information, and the user will desire. Images are selected and displayed.
しかしながら、特許文献1の方法では、ユーザが登場人物の好みの表情を点数等を用いてデータベースに登録する必要があった。しかしながら、微妙な表情の変化等に対して、ユーザの好み、嗜好性を正確に反映させるのは難しいという問題があった。 However, in the method of Patent Document 1, it is necessary for the user to register a favorite facial expression of a character in a database using a score or the like. However, there is a problem that it is difficult to accurately reflect the user's preferences and preferences for subtle changes in facial expressions.
本発明は、画像から抽出された特徴量と当該画像に対する良否との良否関係を対応付けて記憶するデータベースを参照し、入力画像から抽出した特徴量に基づいて前記入力画像の良否を判定する判定手段と、前記判定手段による前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出手段と、前記抽出された候補画像を表示部に表示させる表示制御手段と、前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定手段と、を有することを特徴とする。 The present invention refers to a database that associates and stores a quality relationship between a feature quantity extracted from an image and the quality of the image, and determines whether the input image is acceptable based on the feature quantity extracted from the input image Means for extracting a candidate image from the database when the determination result of the quality of the input image by the determination unit is different from the result of determination of the quality of the input image by the user, and the extracted Display control means for displaying a candidate image on a display unit; and setting means for setting a pass / fail relationship based on the determination of the user in the database based on a candidate image selected by the user from the displayed candidate images. It is characterized by having.
以上の構成によれば、本発明では、ユーザは自身の好み、嗜好性を容易に設定できるようになる。 According to the above configuration, in the present invention, the user can easily set his / her preference and palatability.
[第1の実施形態]
第1の実施形態として、撮影者ないし被写体の個人が万人とは違う基準で「好ましくない」と判断した画像に基づいて、撮影者ないし被写体の個人の嗜好性を学習方法について説明する。以下、図面を参照して本実施形態を詳細に説明する。
[First Embodiment]
As a first embodiment, a method for learning the preference of an individual photographer or subject will be described based on an image that the photographer or subject individual has determined to be “preferable” based on a different standard from everyone. Hereinafter, this embodiment will be described in detail with reference to the drawings.
図1は、本実施形態に関わる画像処理装置10のソフトウェア構成(機能構成)を示すブロック図である。図1に示す画像処理装置10の各機能部は、画像処理装置が備えるCPUがROM、RAM、HDD等の格納手段に格納されている制御プログラムを実行することにより実現される。本実施形態では、画像処理装置がデジタルカメラ等の撮像装置である場合を例に説明する。 FIG. 1 is a block diagram showing a software configuration (functional configuration) of an image processing apparatus 10 according to the present embodiment. Each functional unit of the image processing apparatus 10 illustrated in FIG. 1 is realized by a CPU included in the image processing apparatus executing a control program stored in a storage unit such as a ROM, a RAM, or an HDD. In the present embodiment, a case where the image processing apparatus is an imaging apparatus such as a digital camera will be described as an example.
図1において、良否登録部100は、画像を見たときに万人が感じる良否(「好ましい」または「好ましくない」)の判定基準を画像特徴毎に予め登録しておくためのものである。良否登録部100は、画像取得部101、画像特徴抽出部102、および画像特徴分類部103により構成される。
In FIG. 1, the pass / fail registration unit 100 is for registering in advance, for each image feature, a pass / fail (“preferred” or “preferred”) determination criterion that everyone feels when viewing an image. The pass / fail registration unit 100 includes an
画像取得部101は、良否判定の基準を学習するための学習用画像を取得する。学習用画像は、カメラ等の撮像装置により撮影され、PC、スキャナ、記憶装置(ハードディスクドライブ等)、記憶媒体(不揮発性フラッシュメモリーやCD−ROM、DVD−ROM等)から予め学習装置に入力され、不図示のHDD等に格納されている。学習用画像は、「好ましい」、「好ましくない」とタグ付けされるか、または「タグ無し」の3つの状態に分けられているものとする。学習用画像に対するタグ付けは、例えばプロのカメラマンがそれぞれの画像を見て、「好ましい」と「好ましくない」とを判断することで行われる。
The
画像特徴抽出部102は、画像取得部101が取得した学習用画像の画像データから画像特徴を抽出する。画像特徴分類部103は、画像特徴抽出部102で抽出した画像特徴、および学習用画像のタグ情報に基づいて画像を分類する。画像を分類する手法としては、機械学習のクラスタリングの代表的な手法である、k−means法やNearest Neighbor法などを利用することができる。画像特徴分類部103が分類する各クラスタは、画像の良否を判定する要因(良否判定要因)に対応している。
The image
図2は、画像特徴分類部103によって学習用画像が特徴空間に分類され、マッピングされている様子を模式的に図示した概念図である。特徴空間200は、画像特徴抽出部102で抽出した特徴量の次元数に基づき、各学習用画像の画像特徴を写像するための空間である。同図においては、「好ましくない」学習用画像の画像特徴が、「目線」、「目瞑り」等の要否判定要因毎にクラスタリングされた様子を示す。
FIG. 2 is a conceptual diagram schematically illustrating how the learning image is classified into the feature space and mapped by the image
本実施形態では、撮影環境(背景、照明など)および撮影条件(同一人物、顔向き、見切れの発生など)を所望の状態に設定し、万人が好ましくないと判定するような学習用画像を用意している。そして、本実施形態に係る良否登録部100では、これら「好ましくない画像」が、意味的なまとまりを持って、図2のように特徴空間200にマッピングされる。例えば、クラスタ201は、画像202のように顔向きのみの変動が生じているクラスタである。他にも、「表情」、「目瞑り」、「目線」、「見切れ」などの良否判定要因に応じたクラスタに、「好ましくない」とタグ付けされた画像が分類され、データベース104に登録されている。このように、データベース104には、画像特徴抽出部102により抽出された特徴量と、その画像の良否との良否関係とが対応付けられて記憶されている。
In the present embodiment, the learning environment is set such that the shooting environment (background, lighting, etc.) and shooting conditions (same person, face orientation, occurrence of cut-out, etc.) are set to a desired state and it is determined that everyone is not preferable. I have prepared it. In the pass / fail registration unit 100 according to the present embodiment, these “unfavorable images” are mapped to the
なお、データベース104に登録される学習用画像は、予め同一人物を様々な撮影条件で撮影した画像群を利用してもよいし、複数の人物を様々な条件で撮影した後、個体差に依らない特徴量のみを抽出し、画像特徴分類部103でクラスタに分類してもよい。また、実際の人物でなくても、コンピュータグラフィックスを利用して、架空の人物を様々な撮影条件で画像生成し、それらの画像特徴から良否判定要因を解析して、データベース104に登録するなどしてもよい。
The learning image registered in the
個別嗜好学習部110は、システムとユーザが良否判定した結果が異なる場合に、データベース104に登録されている画像を数枚利用し、ユーザ固有の嗜好性を特定する。また、特定したユーザの嗜好性に基づきデータベース104を更新する。個別嗜好学習部110は、良否判定部111、嗜好選択肢抽出部112、表示制御部113、および個別嗜好設定部114により構成される。
The individual preference learning unit 110 uses a plurality of images registered in the
本実施形態の画像処理装置10はデジタルカメラ等の撮像装置であり、良否判定部111は、撮像部で撮像された画像を入力信号として受信する。そして、データベース104を参照し、取得した撮像画像の良否を判定する。なお、良否判定部111は、取得した画像の良否判定を行うにあたり、画像特徴抽出部102および画像特徴分類部103と同様に画像の特徴抽出および分類を行う。
The image processing apparatus 10 of the present embodiment is an imaging apparatus such as a digital camera, and the
ここで、例えば、良否判定部111が「好ましい画像」であると判定したにも関わらず、ユーザは「好ましくない画像」と判定する場合がある。この場合、明らかにその画像は、ユーザ固有の嗜好性によって「好ましくない」と判定されている。したがって、ユーザがなぜ当該画像を「好ましくない」と判定したかの理由を特定することができれば、ユーザ固有の嗜好を良否判定要因画像データベースに組込むことが可能になる。そこで、本実施形態では、「好ましくない画像」と判定した理由(良否判定要因)を特定するための画像を撮像装置の表示部に表示し、ユーザに選択をさせるものである。
Here, for example, even though the pass /
嗜好選択肢抽出部112は、ユーザ固有の嗜好性を特定するために、データベース104から、ユーザに選択させる画像の候補を抽出する。本実施形態は、選択肢となる画像の候補としてデータベース104に登録済みの画像を、ユーザ個人の嗜好性を確認する選択肢の画像として利用する。一般的に、ユーザの嗜好性を言語で表現すると、例えば「もう少し右からのアングルで撮影される方が好ましい」や「もう少し柔らかい表情が好ましい」等、曖昧な表現になってしまう場合が多い。また、これを点数として表現することも難しい。また、ユーザ自身は常に個人嗜好性を意識して画像の良否判定を行っているわけでは無いため、ユーザによっては個人嗜好性を言語や点数で的確に答えられない場合も多い。本実施形態では、予め用意する画像群を視覚的なヒントとして利用することで、ユーザが「好ましくない」と判定した画像に対して、その根拠となる要因を、ユーザは言語で嗜好性を示さなくとも、直感的に嗜好性を登録することが可能になる。
The preference
表示制御部113は、嗜好選択肢抽出部112でデータベース104より抽出した画像群を撮像装置の表示部に表示させる。図3には、ユーザが良否判定した結果と良否判定部111が良否判定した結果とが異なった場合に、表示制御部113によって撮像装置の表示部に表示される選択肢表示画面300を示す。選択肢表示画面300は、ユーザが「好ましくない画像」を選択する領域(上部)と、好ましくないと感じる要因を特定するための選択肢となる画像群を表示する領域(下部)と、から構成されるユーザインタフェースである。
The
本実施形態では、まず、上部の領域に、撮像部で撮像された画像がプレビュー画像一覧301として撮影順に並べられて表示される。なお、表示する順番は、被写体毎、イベント単位、時間的に降順あるいは昇順のように、他の規則に従って表示することもできる。ユーザは、プレビュー画像一覧301の画像群の中から、「好ましくない画像」を選択し、装置に備えられたボタンもしくはタッチユーザインタフェースを利用して、指示することができる。図3では、ユーザが画像302を「好ましくない」と判断し選択している様子を示しており、画像302が「好ましくない画像」として削除対象に指定されているため太枠で表示されている。
In the present embodiment, first, images captured by the imaging unit are displayed in the upper region as a
次に、良否判定部111は、プレビュー画像一覧301から「好ましくない画像」が選択されたことに応じて、データベース104を参照し、ユーザが削除対象として「好ましくない」と判断した画像302の良否を判定する。そして、良否判定の結果が異なっていた場合、ユーザ固有の嗜好を特定するために、画像302の良否判定の根拠になり得る領域を推定し、良否判定候補領域303として図のように表示させる。良否判定候補領域303は、例えば、顔検出処理によって算出された顔領域や、連続した画像を対象にする場合は、オプティカルフローなどを用いて画像間の変動量を算出し、変動量が1番大きい領域を良否判定候補領域に設定すればよい。また、複雑な計算はせずにユーザが直接その領域を指定するなどしてもよい。
Next, the pass /
続いて、嗜好選択肢抽出部112は、設定された良否判定候補領域303に基づいて、データベース104から、ユーザに選択させる画像の候補を抽出する。そして、表示制御部113は、嗜好選択肢抽出部112が抽出した画像群を、選択肢表示画面300の下部の領域に良否判定要因を特定する画像304を含む画像群として表示する。なお、嗜好選択肢抽出部112による画像群の抽出方法の詳細については、後述する。
Subsequently, the preference
選択肢表示画面300は、画像群のいずれか、もしくは複数枚をユーザが選択することを可能にするユーザインタフェースとして機能する。ユーザは、画像302を「好ましくない画像」と判定した理由に近い画像を、選択肢候補の画像群の中から選択し、ボタン305を押下する。図3では、目線、表情、顔向きの3つの良否判定要因に関して画像302に近いものが選択肢画像として表示されている。また、各画像がどの良否判定要因に対応する画像であるかを分かりやすくするために、各良否判定要因を図示化し、表示される画像群のそれぞれに付加して表示させている。例えば、3枚の画像のうち一番右の画像では、良否判定要因が顔向きの画像であるため、顔に3次元の座標軸を注釈情報として表示している。なお、ユーザが「好ましくない」と判定した理由に近い画像が選択肢候補として表示されなかった場合は、ボタン306を押下し、選択肢候補が無かったことを通知する。
The
図1に戻り、個別嗜好設定部114は、ユーザの否判定要因を特定する画像群に対する操作指示の情報を受け付ける。そして、データベース104の更新内容を決定し、ユーザ固有の嗜好を設定する。
Returning to FIG. 1, the individual
次に、良否登録部100において、良否判定基準を登録する処理の詳細について説明する。図4は、本実施形態に係る良否登録部100の処理手順を示すフローチャートである。 Next, details of the process of registering the pass / fail criterion in the pass / fail registration unit 100 will be described. FIG. 4 is a flowchart showing a processing procedure of the pass / fail registration unit 100 according to the present embodiment.
まず、ステップS401において、画像取得部101は、データベース104に登録するための学習用画像を読み込む処理を行う。ここで、良否登録部100では、良否判定の根拠となる要因毎にある程度まとまった画像の組として、データベース104に登録した方が、良否判定要因毎に画像群をクラスタに分離しやすくなる。なお、ステップS401で読み込む画像は、予めプロの写真家などが一定の基準で良否判定した画像群や、意図的に表情や顔向きを変えて撮影した画像群などを想定している。
First, in step S <b> 401, the
ステップS402からS406までの処理は、画像特徴抽出部102によって画像特徴を抽出するための処理である。本実施形態は、個人嗜好性が顕著に現れる、人物が被写体の画像の良否判定を行うことを想定しているため、ステップS402からS406で抽出する特徴は主に人物の顔から抽出可能な特徴量を利用する。ステップS402からS406で計算する画像特徴の一例は、個人識別した情報、表情に関する情報、顔向きの姿勢情報、および画質(ボケや色味)に関する情報などである。ここでは、被写体の顔から判別できる特徴を多く挙げたが、それ以外に画像の審美性を左右する構図情報など他の特徴量を導入しても構わない。また、被写体の年齢や性別の属性情報などを追加するなどしてもよい。
The processing from step S402 to S406 is processing for extracting image features by the image
以下、ステップS402からS406の個々の処理について詳しく説明する。ステップS402では、ステップS401で読み込んだ画像に写る被写体の顔に関する様々な情報を抽出するために、まず画像から被写体の顔を検出する。画像から顔を検出する方法としては、非特許文献1に記載の方法が幅広く利用されている。例えば、非特許文献1で開示される手法を利用することで、画像内の各人の顔の位置および大きさを算出することができる。 Hereinafter, each process of steps S402 to S406 will be described in detail. In step S402, in order to extract various information related to the face of the subject in the image read in step S401, first, the face of the subject is detected from the image. As a method for detecting a face from an image, the method described in Non-Patent Document 1 is widely used. For example, by using the method disclosed in Non-Patent Document 1, the position and size of each person's face in the image can be calculated.
非特許文献1の原理は、学習用画像の顔からHaar−Likeと呼ばれる特徴量を収集し、AdaBoostにより統計的に顔らしい特徴を識別できるようにしている。ステップS402の処理により、画像に顔が含まれていれば、検出した顔の個数、(顔を包含する)顔検出枠の左上と右下の座標値と重心位置などの情報が出力される。
ステップS403では、ステップS402で1つ以上の顔を検出したことを受け、個人識別処理を行う。個人識別処理は、1980年代より様々な手法が提案されており、その一例として、非特許文献2が挙げられる。非特許文献2に記載の方法は、顔画像から固有顔を算出し、固有顔の主成分分析を行い、固有顔が予め登録されている画像データベースと比較することで個人を識別する。本実施形態では、ステップS403で被写体の個人識別が行われ、被写体毎に個人嗜好性がデータベース104に設定される。
The principle of Non-Patent Document 1 is to collect feature quantities called Haar-Like from the face of the learning image, and to make it possible to identify features that are statistically facial by AdaBoost. If a face is included in the image in the process of step S402, information such as the number of detected faces, the upper left and lower right coordinate values of the face detection frame (including the face), and the barycentric position are output.
In step S403, personal identification processing is performed in response to the detection of one or more faces in step S402. Various methods have been proposed for personal identification processing since the 1980s, and Non-Patent Document 2 is an example. The method described in Non-Patent Document 2 calculates an eigenface from a face image, performs a principal component analysis of the eigenface, and identifies an individual by comparing it with an image database in which the eigenface is registered in advance. In the present embodiment, the individual identification of the subject is performed in step S403, and the personal preference is set in the
ステップS404では、例えば、非特許文献3で開示される技術を利用することで表情識別及び表出強度推定を行う。 In step S404, for example, facial expression identification and expression intensity estimation are performed by using the technique disclosed in Non-Patent Document 3.
ステップS404では、まず、ステップS402で検出した顔検出枠内の顔特徴点(例えば目尻、瞳、目頭、鼻の先端、口角、口の中心の位置)を算出する。これらの顔特徴点の算出方法は、非特許文献2で開示される方法で検出することが可能である。非特許文献3に記載の方法では、ステップS402で検出した顔検出枠内の顔特徴点をGentleBoostの手法を利用して算出している。GentleBoostの手法を利用した顔特徴点の算出方法に関しては、非特許文献2にも記載されているが、非特許文献1の手法と同じように、予め目尻や口角と言った特徴的な顔パーツを弱識別器によって学習しておくことで、検出が可能になる。この他にも、AAM(Active Appearance Model)やCLM(Constrained Local Model)と呼ばれる手法などを利用し、顔の特徴点を算出することも可能である。 In step S404, first, facial feature points (for example, the position of the corner of the eye, the pupil, the head of the eye, the tip of the nose, the mouth corner, and the center of the mouth) within the face detection frame detected in step S402 are calculated. The calculation method of these face feature points can be detected by the method disclosed in Non-Patent Document 2. In the method described in Non-Patent Document 3, the face feature points in the face detection frame detected in step S402 are calculated using the GentleBoost method. The facial feature point calculation method using the GentleBoost method is also described in Non-Patent Document 2, but in the same way as Non-Patent Document 1, the characteristic facial parts such as the corners of the eyes and the corners of the mouth are preliminarily described. Can be detected by learning with a weak classifier. In addition, it is also possible to calculate facial feature points using a technique called AAM (Active Appearance Model) or CLM (Constrained Local Model).
そして、ステップS402で算出した顔特徴点周辺の輝度情報から特徴量を算出する。特徴量の算出方法は、例えば、非特許文献4で開示される手法を利用して求めることができる。非特許文献4で開示される手法では、ステップS402で算出した顔特徴点の位置を中心に周囲96×96ピクセルを顔パッチとして切り取り、切り取った顔パッチを高速フーリエ変換した後、Gaborフィルターにかけ、特徴ベクトルを算出している。なお、非特許文献4では特徴量の算出にGaborフィルターを用いて算出しているが、その代わりに、LBP(Local Binary Pattern)やLPQ(Local Phase Quantization)などを利用する方法もある。 Then, a feature amount is calculated from the luminance information around the face feature point calculated in step S402. The feature amount calculation method can be obtained using, for example, the method disclosed in Non-Patent Document 4. In the method disclosed in Non-Patent Document 4, a 96 × 96 pixel surrounding the face feature point calculated in step S402 is cut out as a face patch, the cut face patch is fast Fourier transformed, and then subjected to a Gabor filter. A feature vector is calculated. In Non-Patent Document 4, calculation is performed using a Gabor filter for calculation of the feature amount. Instead, there is a method using LBP (Local Binary Pattern), LPQ (Local Phase Quantization), or the like.
ここで、データベース104に登録する表情に関する特徴量を算出することができるが、更にこの特徴量を識別器にかけ、予め決めた表情分類に従って分類することも可能である。非特許文献4の手法では、顔の表情動作を客観的に記述する方法として知られているFACS(Facial Action Coding System)のAU(Action Unit)に対応する変化を検出する。そして、全46個のAUの組合せとその強弱で、表情を識別している。なお、FACSとAUの詳細に関しては、下記の非特許文献5を参照することができる。
Here, the feature quantity related to the facial expression registered in the
ステップS404では、非特許文献4の手法を用いて、計算される特徴ベクトルを入力として線形SVM(サポートベクターマシン)で、どのAUが変化したか否かの2値判別を行い、表情によって変化したAUを特定することができる。ここで特定したAUの組合せによって、被写体の表情が、どの表情カテゴリ(喜び、悲しみ、恐怖、不安、怒り、驚き、無表情)に属するかを識別することができる。例えば、AU4(Brow Lower)とAU10(Upper Lip Raiser)が変化していたら、「怒り」の表情カテゴリに属する、と言った具合である。 In step S404, a binary SVM (support vector machine) is used to determine which AU has changed, using the method of Non-Patent Document 4, using the calculated feature vector as an input, and changes according to facial expression. AU can be specified. It is possible to identify which facial expression category (joy, sadness, fear, anxiety, anger, surprise, no expression) belongs to the facial expression of the subject by the AU combination specified here. For example, if AU4 (Brow Lower) and AU10 (Upper Lip Raiser) have changed, it is said that they belong to the facial expression category of “anger”.
さらに、特定したAUの変化強度より被写体の表情表出強度を特徴量として、算出することもできる。具体的には、特定されたAUを識別する線形SVMの超平面と、特徴ベクトルとの距離を算出し、AUの変化強度とすることが可能である。つまり、表情変化が大きければ大きい程、特徴ベクトルとAUを識別する線形SVMの超平面との距離が遠くなり、表情変化が小さければその距離は0に近くなる。 Furthermore, the expression intensity of the subject's expression can be calculated as a feature amount from the specified change intensity of AU. Specifically, the distance between the hyperplane of the linear SVM that identifies the specified AU and the feature vector can be calculated and used as the change intensity of the AU. In other words, the greater the facial expression change, the longer the distance between the feature vector and the hyperplane of the linear SVM that identifies the AU, and the smaller the facial expression change, the closer the distance is to zero.
非特許文献4の手法では、変化が生じたAUの組合せとAUの変化強度を、予め用意しておいた表情データベースより抽出した表情カテゴリと表出強度の参照テーブルと比較することで、現在の撮影者の表情表出強度を推定している。または、AUの組合せとAUの変化強度を線形の重み付き足し算で表出強度を推定するなどしてもよい。ただし、表情の表出に関しては個人差があり、被写体によっては、そもそも表情が出難い人物もいる。そのため、被写体毎に表出強度計算に利用する重みを変更することが望ましい。また、ステップS404の計算過程で既に顔特徴点を算出しているため、表情の識別に加えて、目の開閉度合いと言った特徴を特徴量として計算することも可能である。 In the technique of Non-Patent Document 4, the current AU combination and the change intensity of the AU are compared with the expression table extracted from the expression database prepared in advance and the reference table of the expression intensity. Estimates the facial expression intensity of the photographer. Alternatively, the expression intensity may be estimated by adding the combination of AUs and the change intensity of AUs by linear weighted addition. However, there are individual differences in the expression of facial expressions, and depending on the subject, there are some people who have difficulty expressing facial expressions. Therefore, it is desirable to change the weight used for the calculation of the expression intensity for each subject. In addition, since facial feature points have already been calculated in the calculation process of step S404, in addition to facial expression identification, it is also possible to calculate a feature such as the degree of opening and closing of eyes as a feature amount.
ステップS405では、ステップS402で検出した顔領域に対して、その顔の向き(姿勢)を計算する。顔向きの計算方法も個人識別同様、従来より数々の手法が提案されており、それらの中から好適な手段を適宜選択すればよい。その一例として、非特許文献6や非特許文献7に記載の方法などが挙げられる。どちらの方法も、顔特徴点で表現される顔モデルと顔画像の濃淡パターンから作られるアピアランス情報を使って、予め特徴検出器を作成しておき、入力画像とのマッチングを計算するものである。 In step S405, the face orientation (posture) is calculated for the face area detected in step S402. Similar to personal identification, a number of methods have been proposed for calculating the face orientation, and a suitable means may be selected as appropriate from among them. Examples thereof include the methods described in Non-Patent Document 6 and Non-Patent Document 7. In both methods, a feature detector is created in advance using the appearance information created from the facial model represented by facial feature points and the shade pattern of the facial image, and the matching with the input image is calculated. .
ステップS405は、これらの手法を利用して、3次元的な顔の位置および向きを推定する。本実施形態に係るデータベース104には、入力画像から得られる被写体の顔の位置、並びに向きの情報も特徴量として記録される。顔向きに関する特徴は、例えばカメラ写りを気にする人物の場合、右側から撮影された写真と左側から撮影された写真とで好みが大きく分かれることが多く、そのような個人嗜好性をシステムに登録するために必要になる。
In step S405, the three-dimensional face position and orientation are estimated using these methods. In the
次に、ステップS406では、画質(被写体の写り具合)に関する特徴量を抽出する。これは、例えば、被写体にピントが合っているか、ブラーが生じていないか、画像内の被写体の位置やサイズは適切か、といった審美的な要因を評価するための特徴量である。審美的な要因を評価するための特徴量を計算する方法は、例えば、非特許文献8に記載の方法が挙げられる。非特許文献8は、既存の顔検出技術に加え、画像内を物体毎にいくつかの領域に分割し、その領域内の画素のクリアさ(ブラーが生じているか否か)を特徴量として抽出して良否判定を行っている。また、非特許文献8では、画素のクリアさに加え、様々な他の特徴量も抽出し、総合的に画像全体の審美性を評価するスコアを算出している。 Next, in step S406, a feature amount relating to image quality (the state of the subject image) is extracted. This is a feature amount for evaluating aesthetic factors, for example, whether the subject is in focus, blur is not generated, and whether the position and size of the subject in the image are appropriate. Examples of a method for calculating a feature amount for evaluating an aesthetic factor include a method described in Non-Patent Document 8. Non-Patent Document 8 divides the image into several regions for each object in addition to the existing face detection technology, and extracts the clearness of pixels in the region (whether blurring occurs) as a feature quantity And pass / fail judgment is performed. In Non-Patent Document 8, in addition to pixel clearness, various other feature amounts are extracted, and a score for comprehensively evaluating the aesthetics of the entire image is calculated.
以上、本実施形態では、ステップS403〜S406において、画像特徴抽出部102は、種々の特徴量として、個人識別情報、表情に関する情報、顔向き(姿勢)に関する情報、画質に関する情報の4つの特徴量を計算する。また、これらの特徴量に加え、被写体の年齢や性別といった属性情報や、顔以外の身体の姿勢(ジェスチャーを含む)に関する情報も同時に抽出して良否判定要因に利用するなどしてもよい。
As described above, in the present embodiment, in steps S403 to S406, the image
次に、ステップS407では、画像特徴分類部103が、ステップS402〜S406の各処理で画像から抽出された特徴量と画像をデータベース104に登録する。そして、ステップS408では、データベース104に登録する全ての画像の特徴量抽出および画像の登録作業が完了したか否かが判定される。全ての画像を登録し終えていない場合は、ステップS401に戻る。全ての画像を登録し終えたら、画像特徴を良否判定の根拠となる要因毎にまとめるために、次のステップに進む。
Next, in step S407, the image
ステップS409では、画像特徴分類部103が、ステップS407でデータベース104に登録した全ての画像に対して抽出した特徴空間上でクラスタリングを行う。クラスタリングは、例えば、前述のk−means法などを利用して画像特徴毎にまとまったクラスタを算出する。前述したように、このステップで生成されたクラスタは、例えば図2に示すように、目線、顔向き、表情、というように意味のある特徴毎にまとめられる。また、特徴空間上に分布する各画像特徴に主成分分析をかけ、次元圧縮し各画像特徴の主成分を割り出すことも可能である。算出した主成分は、良否判定の根拠となる要因の変化を顕著に示すパラメータ軸になっているため、前述のクラスタの代わりに算出した主成分軸を利用して画像特徴を分類してもよい。
In step S409, the image
なお、本実施形態は予め撮影した実写画像を学習用画像として用いデータベース104に登録するようにしているが、例えば非特許文献9のように、実写画像以外にもコンピュータグラフィックスで生成した顔画像を利用してもよい。コンピュータグラフィックスによる目線、顔向き、表情の変更は、3次元の顔モデルさえ用意できれば、パラメータを変えるだけで容易に行うが可能である。
In the present embodiment, a photographed photographed image is used as a learning image and registered in the
また、データベース104で良否判定の根拠となる要因毎にクラスタリングできた場合、特徴選択を行い、そのクラスタを分類するために最も寄与する特徴量のみを利用し、各クラスタへの分類を行うなどしてもよい。以上で、良否登録部100における良否判定基準を登録する処理が終了する。
In addition, when clustering can be performed for each factor that is a basis for pass / fail judgment in the
次に、個別嗜好学習部110において、ユーザ固有の嗜好性を学習する処理の詳細について説明する。図5は、本実施形態に係る個別嗜好学習部110の処理手順を示すフローチャートである。まず、ステップS501では、良否判定部111が、撮像部で撮像された画像を入力信号として受信する。ここでは、デジタルカメラ等の撮像装置で撮像した画像に対して処理を行う例について説明するが、撮像装置の記憶装置等に格納される画像を読み込んでもよい。
Next, details of the process of learning the user-specific preference in the individual preference learning unit 110 will be described. FIG. 5 is a flowchart showing a processing procedure of the individual preference learning unit 110 according to the present embodiment. First, in step S501, the
ステップS502では、良否判定部111が、データベース104を参照し、ステップS501で取得した画像の良否判定を行う。具体的には、良否判定部111は、まず画像特徴抽出部102と同様の画像処理を行い、画像特徴を抽出する。そして、抽出した特徴量を特徴ベクトルとして、良否判定要因画像データベースに登録済みの「好ましくない画像」のクラスタに分類されるか否かを判定する。撮像画像の特徴ベクトルが、あるクラスタに分類されるか否かは、良否登録部100で利用したクラスタリングの方法と同一の方法で判別可能である。具体的には、特徴ベクトルと各クラスタの中心ないし重心との距離を算出し、距離が閾値以下となるクラスタを見つけることで、分類することができる。もしくは、最も距離が近い特徴ベクトルが属するクラスタを撮像画像の特徴ベクトルが属する候補となるクラスタに設定するなどしてもよい。なお、ステップS502の処理は、撮像直後、もしくは撮像した画像をユーザに見せる前には完了していることが望ましい。
In step S502, the
ステップS503では、表示制御部113が、ステップS501で取得した撮像画像を撮像装置の画像表示部(液晶ディスプレイ等)に表示する。そして、ステップS504では、良否判定部111が、ユーザが指示した良否判定の結果を受付ける。具体的には、撮像装置の液晶ディスプレイにプレビュー表示されている状態で、例えばその撮像画像を削除するか否かの指定を受付ける処理になる。
In step S503, the
ステップS505では、良否判定部111が、ステップS502で判定した良否結果と、ステップS504で受付けたユーザによる良否判定結果が一致するか否かを比較する。比較した結果、両者の良否結果が一致した場合は、ユーザの個人嗜好性を学習する必要が無いので、ステップS501に処理を戻し、新しい画像の入力を待つ。一方、良否結果が一致しない場合、例えば良否判定部111で好ましいと判断した画像であるにも関わらず、ユーザが削除を選択した場合などは、ユーザの個人嗜好性を学べる機会と判断し、ステップS506〜S509までの処理を実行する。
In step S505, the pass /
ステップS506において、嗜好選択肢抽出部112は、ユーザの個人嗜好性を把握するために、データベース104に登録済みの「好ましくない画像群」から、それらの画像のどれに近いかをユーザに問合せるための画像候補を抽出する。図6は、ステップS506の処理で、データベース104に登録されたクラスタから、選択肢候補画像を抽出する場合の一例を図示した概念図である。
In step S506, the preference
以下、選択肢候補画像の抽出例を、図3および図6を参照しつつ、具体的に説明する。なお、前提として、本実施形態の画像処理装置は、ユーザの個人嗜好性を学習する前であり、図3の画像302を「好ましい画像」と判定しているものとする。そして、装置が「好ましい画像」と判定した図3の画像302に対して、ユーザは「目線が前(ゴール)を向いていなかった」という理由で削除指定を行ったとする。なお、この画像302について、ステップS502の良否判定処理の過程で、その画像特徴量は抽出済みである。抽出した画像特徴量を特徴ベクトルとして良否判定要因画像データベースに登録されている特徴空間に写像した点は、図6において特徴点601として示している。
Hereinafter, an example of extraction of option candidate images will be specifically described with reference to FIGS. 3 and 6. As a premise, it is assumed that the image processing apparatus of the present embodiment has determined the
ステップS506では、嗜好選択肢抽出部112が、特徴点601に距離(類似度)が近い画像を選択肢候補として抽出する。図6の特徴空間内の距離は、特徴ベクトル間のユークリッド距離などを計算することで求めることができる。図6の例では、算出した距離が近い順に上位3つの特徴点を選択肢候補として抽出している。データベース104には、登録済みの各画像と特徴ベクトルがセットで登録されているため、特徴ベクトルに対応する元画像を検索することが可能である。図6では、例として3枚の選択肢候補画像を表示しているが、表示枚数には制限は無く、データベース104に登録されている画像から必要な枚数を抽出して表示すればよい。
In step S506, the preference
ステップS507では、表示制御部113が、ステップS506で抽出された選択肢候補画像を装置の表示部に表示する。図3の画像304は、選択肢候補画像を表示した一例である。図3では、ステップS506で算出した特徴ベクトル間の距離の近い順に並べて表示しているが、距離が遠い順や、距離の算出方法を変えて並び順を操作するなどしてもよい。また、ユーザによってはそれぞれの特徴量に優先順位を付けた方が適切に個人嗜好性を反映できる場合も考えられるため、特徴ベクトルに優先順位の重みを付けて距離を算出するなどしてもよい。
In step S507, the
ステップS508において、個別嗜好設定部114は、ステップS507で表示した画像からユーザが選択した選択肢候補画像の情報を受付ける。ここでは、ユーザは目線の向きが好ましくないと感じて、画像302を選択している場合であるので、ユーザは、図3の選択肢候補の表示領域に表示される画像304の目線の向きが上方を向いている画像を選択する。その際、表示画面には、図3の画像304に示すように画像特徴が一目でわかるように、特徴を可視化して表示するなどしてもよい。これは例えば、無表情の時の顔画像からの変分量を抽出し、変分量が閾値以上となる領域の方向を矢印で示してもよいし、矩形領域などで表示するようにしてもよい。また、顔向きに特徴がある場合は、顔に3次元の座標軸を注釈情報として表示するなどしてもよい。
In step S508, the individual
ステップS509では、個別嗜好設定部114が、ユーザの選択した画像を元に、データベース104に登録する個別嗜好に関する情報をパラメータとして追加する。ここで、個別嗜好に関する情報とは、データベース104に登録済みの各良否判定クラスタに対し、新規にクラスタを生成した場合に変更される各種数値情報(パラメータ)を指している。あるいは、既存クラスタに新たに個別嗜好情報を持つ画像を追加し、クラスタの範囲を再学習した場合に変更される各種数値情報(パラメータ)を指している。
In step S509, the individual
選択肢表示画面300においてユーザが1以上の選択肢候補画像を選択した場合、ステップS509では、個別嗜好設定部114が、データベース104に登録済みのクラスタに対して個別嗜好情報を追加し、特徴空間上のクラスタの範囲が再度計算する。具体的には、図2ないし図6の顔向きの特徴を示すクラスタ201の範囲を特徴点601まで広げる。このクラスタの再計算処理により、再度特徴点601に似た画像が入力された場合に、良否判定部111は、このユーザ個人の嗜好性を反映したクラスタに分類することができるようになる。このようにクラスタの再計算処理を行うことで、データベース104は、個人嗜好性を持つ情報を逐次追加しながら、良否判定の根拠となるクラスタを個人の嗜好性に合わせて設定し直すことが可能になる。
When the user selects one or more option candidate images on the
一方、選択肢表示画面300において、ユーザが「選択肢無し」のボタン306を押下した場合は、データベース104に選択肢となるクラスタが存在しないことを意味する。そのため、個別嗜好設定部114は、ユーザが削除対象に指定した画像302の特徴点601を中心としたクラスタを新たに生成する。このとき、特徴点601を中心としたクラスタの範囲は、隣り合うクラスタに重ならないように範囲を設定することが望ましい。また、設定する時の範囲は、初期値として予め設定していてもよいし、新規クラスタ生成時にユーザが直接設定するなどしてもよい。
On the other hand, when the user presses the “no option”
ステップS510では、本処理の終了判定を行い、処理を続ける場合には、ステップS501の画像取得工程に処理を戻す。 In step S510, it is determined whether or not to end this process. When the process is continued, the process returns to the image acquisition process in step S501.
なお、本実施形態の説明では、被写体である人物の表情についてユーザ固有の嗜好性を学習する形態について説明してきたが、本実施形態の適用範囲は、人物の表情に限られるものではない。例えば、画面内の顔の位置と大きさ(構図)、顔向き(姿勢)、視線の向き、目つき、瞬き、性別や年齢による影響などによって、良否判定の基準が被写体によって異なる場合に同様に適用可能である。 In the description of the present embodiment, the form of learning the user-specific preference for the facial expression of the person who is the subject has been described, but the application range of the present embodiment is not limited to the facial expression of the person. For example, if the criteria for pass / fail judgment varies depending on the subject due to the position and size of the face (composition), face orientation (posture), gaze direction, eyes, blink, gender, age, etc. Applicable.
以上、本実施形態によれば、ユーザが「好ましくない」と判定した画像の画像特徴に近い画像をデータベースより抽出し、ユーザに選ばせることで、個人嗜好性を学習することが可能になる。特に、本実施形態では、ユーザが「好ましくない」と判定した画像に対して、その根拠となる要因を、ユーザは点数や言語で示さなくとも、直感的に嗜好性を登録することが可能になる。 As described above, according to the present embodiment, it is possible to learn personal preference by extracting an image close to the image feature of an image that the user has determined to be “not preferable” from the database and allowing the user to select it. In particular, in the present embodiment, it is possible for the user to intuitively register the palatability even if the user has not indicated the factor that is the basis for the image determined as “not preferable” in the score or language. Become.
[第1の実施形態の変形例]
第1の実施形態では、装置が「好ましい画像」と判定した画像に対して、ユーザが「好ましくない」と判定した場合について説明した。これとは逆に、装置が「好ましくない画像」と判定した画像に対して、ユーザが「好ましい」と判定するような場合についても、本発明は適用可能である。
[Modification of First Embodiment]
In the first embodiment, a case has been described in which the user determines “not preferable” with respect to an image determined as “preferable image” by the apparatus. On the other hand, the present invention can also be applied to a case where the user determines “preferred” to an image determined by the apparatus as “unfavorable image”.
本変形例では、学習用画像として「好ましい画像」が要否判定要因毎にクラスタリングされ、データベース104に登録される。そして、ある画像に対して、良否判定部111が「好ましくない」と判定し、ユーザが「好ましい」と判定した場合に、嗜好選択肢抽出部112は、データベース104の「好ましい」画像群の中から候補画像を抽出する。ユーザの個人嗜好性をデータベース104に反映する設定方法については前述の第1の実施形態と同様である。
In this modification, “preferred images” are clustered for each necessity determination factor as learning images and registered in the
本変形例において、データベース104に登録されている画像は、予め用意される画像群やユーザが撮影した画像以外に、例えば雑誌などに写っているモデルの画像などでも構わない。これは、モデルなどのお手本となり得る写り方から、好ましい画像の特徴を抽出し、データベース104に登録することができるためである。一方で、「好ましくない」とユーザが判定する画像は、ユーザが暗黙的に抱えるコンプレックスなども反映される必要がある。そのため、前述の第1の実施形態のように、ユーザ本人や主に被写体となる人物が写っている画像に対して、パラメータを設定する方がよいと考えられる。
In this modification, the image registered in the
[第2の実施形態]
次に、本発明の第2の実施形態について説明を行う。本実施形態では、ユーザに複数枚の候補画像を同時に選択させることで、複数の良否判定要因に係る個別嗜好性を学習する構成について説明する。以下の説明では、パーソナルコンピュータ(PC)が本発明の画像処理装置として機能し、アルバム作成や印刷をする際に、装置が大量の画像群より撮影者および被写体が好まないと思われる画像を選別する場合を例にして説明する。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, a configuration will be described in which the user is allowed to select a plurality of candidate images at the same time, thereby learning individual preference related to a plurality of pass / fail judgment factors. In the following description, when a personal computer (PC) functions as the image processing apparatus of the present invention and creates or prints an album, the apparatus selects images that the photographer and subject do not like from a large number of image groups. This will be described as an example. In addition, about the structure already demonstrated in 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.
図7は、本実施形態に関わる画像処理装置10のソフトウェア構成(機能構成)を示すブロック図である。同図において、第1実施形態の構成と異なるのは、個別嗜好設定部114に代えて、個別嗜好パラメータ設定部701を有する点である。また、第1の実施形態では、撮像部で撮像された画像を取得するようにしていたが、本実施形態では、画像取得部101が学習用画像に加えて、処理対象の画像を取得する。画像取得部101は、本画像処理装置内の記憶装置、または本装置に接続された記憶媒体、記憶装置等に格納された画像を読み込む。
FIG. 7 is a block diagram illustrating a software configuration (functional configuration) of the image processing apparatus 10 according to the present embodiment. In the figure, what is different from the configuration of the first embodiment is that an individual preference
なお、学習用画像を取得する機能部と、処理対象の画像を取得する機能部が別々となった構成であってもよい。なお、本実施形態では、大量の画像群を処理する場合を想定しており、学習用画像および処理対象画像を読み込むための入力部(インターフェイス)は別に構成されていることが望ましい。例えば、学習用画像を装置に接続された記憶媒体または記憶装置から読込み、インターネット上のクラウドと呼ばれるディスクストレージサービスから大量の画像データをダウンロードして読込むなどの構成が想定される。 In addition, the structure by which the function part which acquires the image for learning and the function part which acquires the image of a process target became separate may be sufficient. In the present embodiment, it is assumed that a large number of image groups are processed, and it is desirable that the input unit (interface) for reading the learning image and the processing target image is configured separately. For example, a configuration in which a learning image is read from a storage medium or a storage device connected to the apparatus and a large amount of image data is downloaded and read from a disk storage service called a cloud on the Internet is assumed.
図7に戻り、個別嗜好パラメータ設定部701は、第1の実施形態と同様に、ユーザにより選択された候補画像に基づいて、ユーザの個別嗜好性を学習する。そして、データベース104に登録済みのクラスタに対して個別嗜好情報を追加し、特徴空間上のクラスタの範囲が再度計算する。これに加えて、選択肢表示画面300においてユーザが選択した候補画像に基づいて、データベース104に登録するパラメータを設定する。
Returning to FIG. 7, the individual preference
次に、本実施形態におけるユーザ固有の嗜好性を学習する処理について説明する。図8は、本実施形態において、表示制御部により表示される選択肢表示画面300の一例を示したものである。同図において、プレビュー画像一覧301には、例えば運動会で撮影した様々なシーンから、装置の良否判定部111が「好ましい」と判定した画像が選択され、表示されている。
Next, a process for learning user-specific preferences in the present embodiment will be described. FIG. 8 shows an example of the
ここで、例えばユーザが画像302に示す主被写体となる子供の顔向きが好ましくないと判定し、削除もしくは非表示にすることを選択したとする。本実施形態に係る画像処理装置10の嗜好選択肢抽出部112は、ユーザの指定操作を受け、個人嗜好性を示すパラメータを再設定するための画像をデータベース104より抽出する。そして、抽出した画像は、表示制御部113によって、図8の選択肢画像表示領域801に表示される。
Here, for example, it is assumed that the user determines that the face orientation of the child, which is the main subject shown in the
選択肢画像表示領域801のうち、画像802は、ユーザによって既に「好ましくない」と判定されたことがあり、データベース104で「好ましくない画像」として登録されている画像である。「好ましくない画像」として登録された画像は、図8に示すように、フレームが太線もしくは斜線でユーザが視認しやすいように表示される。
In the option
一方、画像803は、ユーザによって既に「好ましい」と判定されたことがあり、データベース104で「好ましい画像」として登録されている画像である。また、画像804は、ユーザが新たに「好ましくない」と判定した理由(この場合は顔向き)に近い画像として、指定した画像である。画像804は、画像802および画像803と容易に区別できるよう、破線等で枠線および斜線を表示している。
On the other hand, the
カテゴリ表示欄805は、各行で示される画像群がどの良否判定要因に基づくものかをユーザに提示するものである。図8の場合、単に「カテゴリ1」、「カテゴリ2」と表示しているが、「カテゴリ1」には「目線」に基づく画像群を表示しているため、「カテゴリ1」と表示する代わりに、「目線」というタグを表示するなどしてもよい。ただし、良否判定要因は、前述のように「目線」と言った分かりやすい単語で表現されるものばかりではなく、言語化が困難な表情や写り方も多く存在する。そのため、カテゴリ表示欄805には必ずしも画像群の意味がわかる単語がカテゴリ名として表示できるわけではない。また、言語化が困難な画像群の場合は、例えば第1の実施形態で示したクラスタの識別IDをカテゴリ表示欄に表示するなどしてもよい。
The
パラメータ806およびパラメータ807は、ユーザの個人嗜好性を示すパラメータを図示したものである。パラメータ806およびパラメータ807は、ユーザが選択した候補画像に基づき個別嗜好パラメータ設定部701により設定され、表示制御部113により表示される。例えばカテゴリ1は、目線の向きに関する画像群で、そのうち目線が左下から右下までの顔画像と、上を向いた顔画像が好ましくないと指定されているため、その大凡の範囲がパラメータ806の灰色で指定した領域に表示されている。ここで、パラメータ806は目線に関する角度をパラメータとしてユーザにわかりやすく表示するために円の図形で表示している。一般的には、このようにカテゴリの内容をわかりやすく図示することは困難であるため、その場合はパラメータの最大値と最小値を表示するようにする。
The
また、カテゴリ2には、顔向きに関連する画像群が列挙されている。パラメータ807は中心が顔向きの0度(正面)を示しており、右向き−180度〜左向き180度までを示している。ここで、新たに画像804(若干右向きの顔画像)を、ユーザが好ましくない画像として指定したため、パラメータ807の表示が更新され、好ましくないと判断する顔向きの角度が増加している。
Category 2 lists images related to face orientation. The
このように、本実施形態に係る選択肢表示画面300には、個人嗜好性のパラメータを変更するための画像群が良否判定要因別に1行ずつ表示され、そのパラメータも同時に表示される。ユーザは、選択肢画像表示領域801の画像を選択しながら変化するパラメータを確認しつつ、ユーザの個人嗜好性を登録することができる。
As described above, on the
一方、画像804の指定により、データベース104に登録されるパラメータが変更になるため、本実施形態では、プレビュー画像一覧のうち点線の枠で示される画像808も新たに「好ましくない」画像と判断されるようになる。これは、画像808の被写体の顔の向きも画像302と同様に右を向いているためである。そこで、本実施形態では、カテゴリ表示欄805に表示されるカテゴリのそれぞれの優先度を指定できるようにしている。例えば、画像808に対してユーザが「好ましい」と判断する場合は、ユーザは、カテゴリ表示欄805に表示されるカテゴリのうち、被写体の顔向きに係る優先度を下げて、他のカテゴリの優先度を上げるように設定することができる。これにより、顔向きが「好ましくない」ような画像であっても、その他の要因(表情等)が良ければ「好ましい画像」と判定されるようになる。
On the other hand, since the parameter registered in the
以上、本実施形態によれば、ユーザに良否判定要因(カテゴリ)ごとに候補画像を選択させることで、複数の良否判定要因に係る個別嗜好性を学習することが可能となる。また、本実施形態では、個別嗜好パラメータ設定部701により、データベース104に反映させる数値情報(パラメータ)を選択肢表示画面300に表示させることにより、自身が設定している個別嗜好性をユーザに直感的に示すことができる。
As described above, according to the present embodiment, it is possible to learn individual preference related to a plurality of pass / fail determination factors by causing the user to select candidate images for each pass / fail determination factor (category). In the present embodiment, the individual preference
[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、前述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
[Other Embodiments]
In addition, the present invention supplies software (program) for realizing the functions of the above-described embodiments to a system or apparatus via a network or various storage media, and the computer of the system or apparatus (or CPU, MPU, etc.) programs Is read and executed. Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not. That is, the present invention includes all the combinations of the above-described embodiments and modifications thereof.
10 画像処理装置
101 画像取得部
102 画像特徴抽出部
103 画像特徴分類部
104 データベース
111 良否判定部
112 嗜好選択肢抽出部
113 表示制御部
114 個別嗜好設定部
DESCRIPTION OF SYMBOLS 10
Claims (10)
前記判定手段による前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出手段と、
前記抽出された候補画像を表示部に表示させる表示制御手段と、
前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定手段と、
を有することを特徴とする画像処理装置。 A determination unit that determines whether or not the input image is good based on a feature value extracted from the input image with reference to a database that stores the quality value extracted from the image and the quality relationship between the image and the image in association with each other;
An extraction unit that extracts a candidate image from the database when a determination result on the input image by the determination unit is different from a determination result on the input image by the user;
Display control means for displaying the extracted candidate images on a display unit;
Based on a candidate image selected by the user from the displayed candidate images, setting means for setting a pass / fail relationship based on the determination of the user in the database;
An image processing apparatus comprising:
前記設定手段は、前記複数の要因それぞれに関するパラメータを設定することを特徴とする請求項3に記載の画像処理装置。 The extraction means extracts candidate images for each of the plurality of factors,
The image processing apparatus according to claim 3, wherein the setting unit sets a parameter relating to each of the plurality of factors.
前記判定ステップにおいて前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出ステップと、
前記抽出された候補画像を表示部に表示させる表示制御ステップと、
前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定ステップと、
を有することを特徴とする画像処理方法。 A determination step of determining the quality of the input image based on the feature value extracted from the input image with reference to a database that stores the quality value extracted from the image and the quality relationship with the image in association with each other;
An extraction step of extracting candidate images from the database when the determination result of the quality of the input image in the determination step is different from the result of determination of the quality of the input image by the user;
A display control step of displaying the extracted candidate image on a display unit;
A setting step for setting a pass / fail relationship based on the determination of the user in the database based on a candidate image selected by the user from the displayed candidate images;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015080449A JP6529314B2 (en) | 2015-04-09 | 2015-04-09 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015080449A JP6529314B2 (en) | 2015-04-09 | 2015-04-09 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016200969A true JP2016200969A (en) | 2016-12-01 |
JP6529314B2 JP6529314B2 (en) | 2019-06-12 |
Family
ID=57424361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015080449A Active JP6529314B2 (en) | 2015-04-09 | 2015-04-09 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6529314B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190326A (en) * | 2017-05-11 | 2018-11-29 | 日本電信電話株式会社 | Reference image selecting apparatus, method and program |
KR101981634B1 (en) * | 2018-07-31 | 2019-05-23 | 주식회사 스토리안트 | Intelligent Face Photo Locator By learning face images by age group |
JP2019087008A (en) * | 2017-11-07 | 2019-06-06 | 東芝テック株式会社 | Image processing system and image processing method |
JP2020102739A (en) * | 2018-12-20 | 2020-07-02 | 東芝映像ソリューション株式会社 | Transmission apparatus and transmission method |
JP2020102740A (en) * | 2018-12-20 | 2020-07-02 | 東芝映像ソリューション株式会社 | Transmission and reception system, and transmission and reception method |
CN112040115A (en) * | 2019-06-03 | 2020-12-04 | 佳能株式会社 | Image processing apparatus, control method thereof, and storage medium |
US20210312181A1 (en) * | 2018-09-27 | 2021-10-07 | Fujifilm Corporation | Image processing device, image processing method, program, and recording medium |
-
2015
- 2015-04-09 JP JP2015080449A patent/JP6529314B2/en active Active
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190326A (en) * | 2017-05-11 | 2018-11-29 | 日本電信電話株式会社 | Reference image selecting apparatus, method and program |
JP2019087008A (en) * | 2017-11-07 | 2019-06-06 | 東芝テック株式会社 | Image processing system and image processing method |
KR101981634B1 (en) * | 2018-07-31 | 2019-05-23 | 주식회사 스토리안트 | Intelligent Face Photo Locator By learning face images by age group |
US20210312181A1 (en) * | 2018-09-27 | 2021-10-07 | Fujifilm Corporation | Image processing device, image processing method, program, and recording medium |
US11594027B2 (en) * | 2018-09-27 | 2023-02-28 | Fujifilm Corporation | Image processing device, image processing method, program, and recording medium |
JP7099947B2 (en) | 2018-12-20 | 2022-07-12 | Tvs Regza株式会社 | Transmission / reception system and transmission / reception method |
JP7038650B2 (en) | 2018-12-20 | 2022-03-18 | Tvs Regza株式会社 | Transmission device and transmission method |
JP2020102740A (en) * | 2018-12-20 | 2020-07-02 | 東芝映像ソリューション株式会社 | Transmission and reception system, and transmission and reception method |
JP2020102739A (en) * | 2018-12-20 | 2020-07-02 | 東芝映像ソリューション株式会社 | Transmission apparatus and transmission method |
JP2020198556A (en) * | 2019-06-03 | 2020-12-10 | キヤノン株式会社 | Image processing device, control method of the same, program, and storage medium |
CN112040115A (en) * | 2019-06-03 | 2020-12-04 | 佳能株式会社 | Image processing apparatus, control method thereof, and storage medium |
JP7348754B2 (en) | 2019-06-03 | 2023-09-21 | キヤノン株式会社 | Image processing device and its control method, program, storage medium |
CN112040115B (en) * | 2019-06-03 | 2024-02-20 | 佳能株式会社 | Image processing apparatus, control method thereof, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6529314B2 (en) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6529314B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP5649425B2 (en) | Video search device | |
TWI742300B (en) | Method and system for interfacing with a user to facilitate an image search for a person-of-interest | |
US9542419B1 (en) | Computer-implemented method for performing similarity searches | |
US8819015B2 (en) | Object identification apparatus and method for identifying object | |
US10614289B2 (en) | Facial tracking with classifiers | |
US9626551B2 (en) | Collation apparatus and method for the same, and image searching apparatus and method for the same | |
US8416997B2 (en) | Method of person identification using social connections | |
JP6328761B2 (en) | Image-based search | |
US9367756B2 (en) | Selection of representative images | |
JP4168940B2 (en) | Video display system | |
JP6369470B2 (en) | Information processing system | |
CN110869938A (en) | Personnel identification system and method | |
JP4797761B2 (en) | Movie display device | |
CN110569918B (en) | Sample classification method and related device | |
JP5971712B2 (en) | Monitoring device and method | |
Shanmugavadivu et al. | Rapid face detection and annotation with loosely face geometry | |
CN107231519B (en) | Video processing apparatus and control method | |
US20230131717A1 (en) | Search processing device, search processing method, and computer program product | |
KR102213865B1 (en) | Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor | |
JP7465487B2 (en) | Emoticon Generator | |
KR20120128094A (en) | Face recognition apparatus, control method thereof, face recognition method | |
JP2008148262A (en) | Imaging apparatus, its control method, program, and storage medium | |
Ptucha et al. | Automatic image assessment from facial attributes | |
Batsukh et al. | Effective computer model for recognizing nationality from frontal image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190514 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6529314 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |