JP2010224677A - Image evaluation method, image evaluation program and printing device - Google Patents

Image evaluation method, image evaluation program and printing device Download PDF

Info

Publication number
JP2010224677A
JP2010224677A JP2009068911A JP2009068911A JP2010224677A JP 2010224677 A JP2010224677 A JP 2010224677A JP 2009068911 A JP2009068911 A JP 2009068911A JP 2009068911 A JP2009068911 A JP 2009068911A JP 2010224677 A JP2010224677 A JP 2010224677A
Authority
JP
Japan
Prior art keywords
evaluation
face
image
determined
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009068911A
Other languages
Japanese (ja)
Inventor
Takashige Tanaka
敬重 田中
Michihiro Nagaishi
道博 長石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009068911A priority Critical patent/JP2010224677A/en
Publication of JP2010224677A publication Critical patent/JP2010224677A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for comprehensively evaluating the quality of an image specially for an image obtained by photographing a small number of persons. <P>SOLUTION: The image evaluation method includes a face detection step of detecting a face image from an image represented by input image data; a face number determination step of determining whether the number of detected face images is a specific number or less; and an evaluation execution step of performing, for each face image, evaluation of a position within the image data, photogenic evaluation of face (S170), evaluation of face direction (S180), and evaluation of a predetermined defect condition (S190), calculating a comprehensive evaluation result based on each evaluation result (S200), and outputting the comprehensive evaluation result to the outside. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像を評価するための画像評価方法、画像評価プログラムおよび印刷装置に関する。   The present invention relates to an image evaluation method, an image evaluation program, and a printing apparatus for evaluating an image.

ユーザーは、デジタルスチルカメラ(DSC)等の撮像装置を用いて自由に撮影行為をし、撮影結果(画像データ)を所定のメモリーに多数保存する。   A user freely performs photographing using an imaging device such as a digital still camera (DSC), and stores a large number of photographing results (image data) in a predetermined memory.

ここで、撮像画像に人物が含まれている場合には、人物の顔の位置情報をポートレート構図あるいは記念撮影構図と比較することにより画像を評価し、撮像画像が人物を含まない場合には、画像中の線分要素や被写体を検出し、線分要素や被写体を三分割構図データと比較することにより画像を評価し、評価結果を画面に出力する撮像装置が知られている(特許文献1参照。)。   Here, when a person is included in the captured image, the image is evaluated by comparing the position information of the person's face with the portrait composition or the commemorative photographing composition, and when the captured image does not include the person. An imaging device is known that detects line segment elements and subjects in an image, evaluates an image by comparing the line segment elements and the subject with three-division composition data, and outputs the evaluation result to a screen (Patent Literature). 1).

特開2001‐167253号公報Japanese Patent Laid-Open No. 2001-167253

DSCの大多数のユーザーにとって、例えば、街のDPEショップ等でプリントする画像を選択したり、自宅のプリンターでプリントする画像を選択するとき等に、メモリーに大量に撮り貯めた画像のそれぞれについて良し悪しを客観的に判断することは難しい。また、上記DPEショップの従業員等も写真評価の専門家でないことが殆どであるため、ユーザーによって持ち込まれた画像データについて良し悪しの評価(提案)を行なうことは難しい。ここで、ユーザーによる撮影対象は、家族や友人や恋人など人物である場合が非常に多い。また、このように人物を撮影する場合、一枚の写真に収める人数は少人数(例えば1〜3人程度)であることが殆どである。   For the majority of DSC users, for example, when selecting an image to be printed at a DPE shop in the city or selecting an image to be printed with a home printer, each of the images taken in and stored in memory is good. It is difficult to objectively judge what is wrong. In addition, since the employees of the DPE shop are mostly not experts in photo evaluation, it is difficult to evaluate (suggest) good or bad image data brought in by the user. Here, there are very many cases where a subject to be photographed by a user is a person such as a family member, a friend or a lover. In addition, when photographing a person in this way, the number of people included in one photograph is almost a small number (for example, about 1 to 3 people).

つまり、少人数の人物を撮影した画像に特化して画像の良し悪しを評価する技術の構築が望まれている。しかし上記文献は、人物画像である場合には顔の位置を評価するにとどまっているため、人物画像を多くの観点から総合的に評価することはできず、また人物画像であっても人物を含まない風景画像などであってもそれぞれ評価するため、少人数を写した人物画像についての総合的な評価を欲するユーザーのニーズを満足させるものではなかった。   In other words, it is desired to establish a technique for evaluating the quality of an image by specializing in an image obtained by photographing a small number of people. However, since the above document only evaluates the position of the face in the case of a human image, the human image cannot be evaluated comprehensively from many viewpoints. Since even landscape images that are not included are evaluated individually, they do not satisfy the needs of users who want a comprehensive evaluation of a human image of a small number of people.

本発明は上記課題にかんがみてなされたもので、少人数の人物を撮影した画像について正確かつ総合的に評価を行なうことが可能な画像評価方法、画像評価プログラムおよび印刷装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image evaluation method, an image evaluation program, and a printing apparatus capable of accurately and comprehensively evaluating an image obtained by photographing a small number of persons. And

上記目的を達成するため、本発明の画像評価方法は、入力された画像データが表す画像内から顔画像を検出する顔検出工程と、上記検出された顔画像の数が特定数以下であるか否か判定する顔数判定工程と、上記顔画像の数が特定数以下であると判定された場合に、上記顔画像について、上記画像データ内における位置の評価と、顔映りの評価と、顔向きの評価と、所定の不良条件の評価とを行なうとともに、各評価結果に基づいた総合評価結果を算出し、総合評価結果を外部に出力する評価実行工程とを備える。本発明によれば、特定数以下の顔画像を含む画像データに限定して、その画像データが含む顔画像についての総合的な評価を行い、総合評価結果をユーザーに対して提示することができる。ここで言う特定数とは、ある程度少ない数、例えば1〜3程度の数である。   In order to achieve the above object, an image evaluation method according to the present invention includes a face detection step of detecting a face image from an image represented by input image data, and whether the number of detected face images is a specific number or less. A face number determination step for determining whether or not the number of the face images is equal to or less than a specific number, the position evaluation in the image data, the evaluation of the appearance of the face image, and the face An evaluation execution step of performing an evaluation of a direction and an evaluation of a predetermined defect condition, calculating a comprehensive evaluation result based on each evaluation result, and outputting the comprehensive evaluation result to the outside. According to the present invention, it is possible to limit the image data including a specific number of face images or less to perform comprehensive evaluation on the face image included in the image data and present the comprehensive evaluation result to the user. . The specific number mentioned here is a number that is small to some extent, for example, about 1 to 3.

上記評価実行工程では、上記顔画像の数が特定数以下であってかつ画像データが表す画像内における顔画像の面積が占める割合が所定値以下である場合に、画像データが表す画像の構図を評価するとともに、当該構図の評価結果と当該構図の評価結果以外の上記各評価結果とに基づいて上記総合評価結果を算出するとしてもよい。当該構成によれば、画像内において顔画像以外の画像(背景画像)の面積がある程度大きい場合に、背景の構図についても評価し、背景の構図に対する評価結果と上記顔画像についての各評価結果とに基づいて総合的な評価結果を得ることができる。なお上記評価実行工程では、上記構図の評価として、線遠近法に該当する構図であるか否かの評価、空気遠近法に該当する構図であるか否かの評価および水平線を含む構図であるか否かの評価のうち少なくとも一つの評価を行なうとしてもよい。   In the evaluation execution step, the composition of the image represented by the image data is determined when the number of the face images is equal to or less than a specific number and the ratio of the area of the face image in the image represented by the image data is equal to or less than a predetermined value. While evaluating, the said comprehensive evaluation result may be calculated based on the evaluation result of the said composition and said each evaluation result other than the evaluation result of the said composition. According to this configuration, when the area of an image (background image) other than the face image is large to some extent in the image, the background composition is also evaluated, and the evaluation result for the background composition and each evaluation result for the face image Based on this, a comprehensive evaluation result can be obtained. In the evaluation execution step, as an evaluation of the composition, whether or not the composition corresponds to the line perspective method, whether or not the composition corresponds to the air perspective method, and whether the composition includes a horizontal line. At least one of the negative evaluations may be evaluated.

また、上記評価実行工程では、上記顔映りの評価として、顔の明暗、表情および顔のシャープさのうち少なくとも一つの要素について評価を行なうとしてもよい。
また、上記評価実行工程では、上記顔向きの評価として、上記画像データが表す画像内において顔が向く方向に所定大きさの空間が存在するか否かの評価を行なうとしてもよい。
また、上記評価実行工程では、上記不良条件の評価として、露出およびぼやけのうち少なくとも一つの要素について評価を行なうとしてもよい。
Further, in the evaluation execution step, as the evaluation of the facial reflection, an evaluation may be performed on at least one element among the brightness of the face, the expression, and the sharpness of the face.
Further, in the evaluation execution step, as the evaluation of the face orientation, it may be evaluated whether or not a space of a predetermined size exists in the direction in which the face faces in the image represented by the image data.
In the evaluation execution step, evaluation of at least one element of exposure and blur may be performed as the evaluation of the defect condition.

本発明の技術的思想は、画像評価方法以外によっても実現可能である。例えば、画像評価方法を実行する装置(印刷装置や、コンピューターや、撮像装置等)の発明や、画像評価方法において実行される処理を装置(印刷装置や、コンピューターや、撮像装置等)に実行させる画像評価プログラムの発明をも把握可能である。   The technical idea of the present invention can be realized by methods other than the image evaluation method. For example, the apparatus (printing device, computer, imaging device, or the like) executes an invention of a device (printing device, computer, imaging device, or the like) that executes the image evaluation method, or processing executed in the image evaluation method The invention of the image evaluation program can also be grasped.

コンピューターの構成を概略的に示したブロック図である。It is the block diagram which showed the structure of the computer roughly. 画像評価処理を示したフローチャートである。It is the flowchart which showed the image evaluation process. 顔画像検出結果の一例を示した図である。It is the figure which showed an example of the face image detection result. 背景構図評価処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the background composition evaluation process. 顔位置評価処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the face position evaluation process. 分割線の格子点に顔領域が重なった様子を示した図である。It is the figure which showed a mode that the face area overlapped on the lattice point of the dividing line. 対角関係にある各格子点に顔領域が重なった様子を示した図である。It is the figure which showed a mode that the face area | region overlapped on each lattice point in diagonal relationship. 親子配置の適切な一例を示した図である。It is the figure which showed a suitable example of parent-child arrangement | positioning. 友達配置の適切な一例を示した図である。It is the figure which showed a suitable example of friend arrangement | positioning. 顔映り評価処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the facial appearance evaluation process. 顔向き評価処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the face direction evaluation process. 顔向きを判定する様子を示した図である。It is the figure which showed a mode that face direction was determined. 顔が向いた先に所定の空間がある場合および無い場合を示した図である。It is the figure which showed the case where there is a predetermined space in the point where the face turned, and the case where there is no. 不良条件評価処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the defect condition evaluation process.

1.画像評価装置の概略構成
図1は、本実施形態にかかる画像評価装置の一例としてのコンピューター10の構成を概略的に示している。画像評価装置は、画像評価方法を実行するための具体的装置である。コンピューター10は、CPU11と、ROMやRAMからなる内部メモリー12と、ハードディスクドライブ(HDD)13と、汎用インターフェース(GIF)14と、ビデオインターフェース(VIF)15と、入力インターフェース(IIF)16とを備える。これら各要素11〜16は、バス17によって通信を実現している。HDD13には、オペレーティングシステム(OS)を含む各種プログラム(画像評価プログラムや各種ドライバーなど)を実行するためのプログラムデータPが記憶されており、CPU11は、プログラムデータPをRAMに展開しながらプログラムデータPに従った演算処理を行なう。
1. FIG. 1 schematically shows a configuration of a computer 10 as an example of an image evaluation apparatus according to the present embodiment. The image evaluation device is a specific device for executing the image evaluation method. The computer 10 includes a CPU 11, an internal memory 12 including a ROM and a RAM, a hard disk drive (HDD) 13, a general-purpose interface (GIF) 14, a video interface (VIF) 15, and an input interface (IIF) 16. . Each of these elements 11 to 16 realizes communication by a bus 17. The HDD 13 stores program data P for executing various programs (such as an image evaluation program and various drivers) including an operating system (OS), and the CPU 11 develops the program data P while expanding the program data P into the RAM. Arithmetic processing according to P is performed.

またHDD13には、DSC20等の画像入力装置から入力された画像データDが記憶される。本実施形態では、画像データDとは、写真画像を表現したイメージデータである。GIF14は、例えばUSB規格に準じたインターフェースを提供するものであり、DSC20やプリンター30をコンピューター10に接続させている。さらにGIF14は、図示しないカードスロットと接続したカードインターフェースの機能も備えており、カードスロットに挿入されたメモリーカード40から当該メモリーカード40に記憶されている画像データDを入力することができる。VIF15はコンピューター10を外部のディスプレー50に接続し、ディスプレー50に画像を表示するためのインターフェースを提供する。IIF16はコンピューター10を外部の入力操作部(キーボードやマウス)60に接続し、入力操作部60からの入力信号をコンピューター10が取得するためのインターフェースを提供する。   The HDD 13 stores image data D input from an image input device such as the DSC 20. In the present embodiment, the image data D is image data representing a photographic image. The GIF 14 provides an interface conforming to the USB standard, for example, and connects the DSC 20 and the printer 30 to the computer 10. The GIF 14 also has a function of a card interface connected to a card slot (not shown), and can input image data D stored in the memory card 40 from the memory card 40 inserted in the card slot. The VIF 15 connects the computer 10 to an external display 50 and provides an interface for displaying an image on the display 50. The IIF 16 connects the computer 10 to an external input operation unit (keyboard or mouse) 60 and provides an interface for the computer 10 to acquire an input signal from the input operation unit 60.

図1では、内部メモリー12内に、プログラムデータPによって実現される機能ブロックとしての、画像評価処理部121と、表示処理部122と、印刷処理部123とを示している。画像評価処理部121は、プログラムモジュールとして、顔画像検出部121aと、顔数判定部121bと、顔位置評価部121cと、顔映り評価部121dと、顔向き評価部121eと、不良条件評価部121fと、背景構図評価部121gと、総合評価部121hとを有している。これら各部の機能については後述する。   In FIG. 1, an image evaluation processing unit 121, a display processing unit 122, and a print processing unit 123 are shown as functional blocks realized by the program data P in the internal memory 12. The image evaluation processing unit 121 includes a face image detection unit 121a, a face number determination unit 121b, a face position evaluation unit 121c, a facial appearance evaluation unit 121d, a face orientation evaluation unit 121e, and a defect condition evaluation unit as program modules. 121f, a background composition evaluation unit 121g, and a comprehensive evaluation unit 121h. The functions of these units will be described later.

表示処理部122は、ディスプレー50を制御して、ディスプレー50の画面に所定のユーザーインターフェース(UI)や、評価結果などを表示させるディスプレードライバーである。印刷処理部123は、印刷対象として選択された画像データDに対して所定の画像処理を施すことにより印刷データを生成し、プリンター30を制御して印刷データに基づいて画像の印刷を実行させるためのプリンタードライバーである。   The display processing unit 122 is a display driver that controls the display 50 to display a predetermined user interface (UI), an evaluation result, and the like on the screen of the display 50. The print processing unit 123 generates print data by performing predetermined image processing on the image data D selected as a print target, and controls the printer 30 to execute image printing based on the print data. This is a printer driver.

2.画像評価処理
図2は、コンピューター10が実行する画像評価処理をフローチャートにより示している。当該処理は、主に画像評価処理部121の機能によって実現される。
ステップS(以下、ステップの表記を省略。)100では、画像評価処理部121は、画像データDを取得するとともに、当該取得した画像データDの中から一枚の画像にかかる画像データDを評価対象の画像データDとして設定する。つまり画像評価処理部121は、ユーザーがUIを介して画像評価処理の開始を指示した場合に、HDD13や、DSC20内のメモリーや、メモリーカード40といった所定の記憶媒体から画像データDを読み込む(取得する)。いずれの記憶媒体から画像データDを取得するかはユーザーによって指示される。また取得する画像は、そのとき記憶媒体に保存されている画像全枚数であったり、記憶媒体内のフォルダ単位であったり、予め決められた所定枚数単位であったり、ユーザーに指示された画像であったりする。取得した画像数が一枚であれば、当該取得した画像を評価対象として設定する。
2. Image Evaluation Process FIG. 2 shows an image evaluation process executed by the computer 10 in a flowchart. This process is mainly realized by the function of the image evaluation processing unit 121.
In step S (hereinafter, step notation is omitted) 100, the image evaluation processing unit 121 acquires the image data D and evaluates the image data D related to one image from the acquired image data D. Set as target image data D. That is, the image evaluation processing unit 121 reads (acquires) image data D from a predetermined storage medium such as the HDD 13, the memory in the DSC 20, or the memory card 40 when the user instructs the start of the image evaluation processing via the UI. To do). The user designates from which storage medium the image data D is acquired. Further, the acquired image is the total number of images stored in the storage medium at that time, the folder unit in the storage medium, the predetermined number unit of the predetermined number, or the image instructed by the user. There is. If the number of acquired images is one, the acquired image is set as an evaluation target.

S110では、顔画像検出部121aは、S100で設定された画像データDが表す画像(対象画像)から顔画像の検出を行なう。顔画像の検出とは、対象画像における領域であって少なくとも所定の顔器官(目や鼻や口)の各矩形を含むと想定される矩形の顔領域を検出する処理である。顔領域の検出は、例えば、目や口の各テンプレートを利用したパターンマッチング方法といった公知の検出方法を用いて実行される。顔画像検出部121aは、パターンマッチング以外にも、顔領域を検出可能な手法であればあらゆる手法を採用できる。例えば、対象画像内に設定した矩形領域(検出対象領域)単位で、画像の各種情報(例えば、輝度情報やエッジ量やコントラスト等)を入力し検出対象領域が顔領域に該当するか否かを示す情報を出力する、予め学習されたニューラルネットワークを用いることにより、顔領域の検出を行なっても良いし、サポートベクタマシンを利用して検出対象領域毎に顔領域であるか否かを判断してもよい。   In S110, the face image detection unit 121a detects a face image from the image (target image) represented by the image data D set in S100. The detection of a face image is a process of detecting a rectangular face region that is assumed to include at least each rectangle of a predetermined facial organ (eyes, nose, or mouth) in the target image. The detection of the face area is performed using a known detection method such as a pattern matching method using each template of eyes and mouth. The face image detection unit 121a can employ any technique other than pattern matching as long as it can detect a face area. For example, in a rectangular area (detection target area) set in the target image, various information of the image (for example, luminance information, edge amount, contrast, etc.) is input, and whether or not the detection target area corresponds to a face area is determined. It is possible to detect a face area by using a pre-learned neural network that outputs information indicating whether or not the face area is detected for each detection target area using a support vector machine. May be.

図3は、S110における検出結果の一例を示す図である。図3の例では、対象画像(画像データD)内に人物P1及び人物P2が含まれているため、人物P1の顔画像に対応する顔領域Fd1と人物P2の顔画像に対応する顔領域Fd2とが検出されている。顔領域Fd1,Fd2は、それぞれ両目と鼻と口の各画像をすべて含む矩形領域である。検出される顔領域Fd1,Fd2の大きさは人物P1,P2の顔毎に異なる。顔画像検出部121aは、これら顔領域Fd1,Fd2をそれぞれ顔領域の4つの頂点の座標により特定する。   FIG. 3 is a diagram illustrating an example of the detection result in S110. In the example of FIG. 3, since the person P1 and the person P2 are included in the target image (image data D), the face area Fd1 corresponding to the face image of the person P1 and the face area Fd2 corresponding to the face image of the person P2 And have been detected. The face areas Fd1 and Fd2 are rectangular areas each including all images of both eyes, nose and mouth. The sizes of the detected face areas Fd1 and Fd2 are different for the faces of the persons P1 and P2. The face image detection unit 121a identifies the face areas Fd1 and Fd2 by the coordinates of the four vertices of the face area.

S120では、顔数判定部121bが、S110の処理によって顔領域が一つ以上検出されたか否か判定し、顔領域が一つも検出されていない場合には当該フローチャートを終える。なお、上記所定の記憶媒体から複数枚分の画像データDを取得していた場合には、その取得した画像データDの中から新たに評価対象の画像データDを設定して(S100)当該フローチャートを繰り返す。   In S120, the face number determination unit 121b determines whether one or more face areas have been detected by the process in S110. If no face area has been detected, the flowchart ends. If a plurality of pieces of image data D have been acquired from the predetermined storage medium, image data D to be evaluated is newly set from the acquired image data D (S100). repeat.

一方、対象画像から顔領域が一つ以上検出されている場合には、顔数判定部121bは、S130において、対象画像から検出されている顔領域の数が特定数以下であるか否か判定する。特定数とはプログラム内で予め設定された数値であり「1」以上の比較的小さな整数である。特定数は例えば「3」である。顔領域の数が特定数以下である場合には、処理はS140に進み、顔領域の数が特定数を超えている場合には、S120において“No”の判定を行った場合と同様に、当該フローチャートを終了する。このようなS110〜S130の処理は、顔検出工程および顔数判定工程に相当する。   On the other hand, when one or more face areas are detected from the target image, the face number determination unit 121b determines whether or not the number of face areas detected from the target image is equal to or less than a specific number in S130. To do. The specific number is a numerical value set in advance in the program and is a relatively small integer of “1” or more. The specific number is “3”, for example. If the number of face areas is less than or equal to the specific number, the process proceeds to S140, and if the number of face areas exceeds the specific number, as in the case of “No” determination in S120, The flowchart is terminated. Such processing of S110 to S130 corresponds to a face detection step and a face number determination step.

S140以降では、対象画像の特に顔領域に関して複数項目に亘る評価を行なう。S140以降の処理は、評価実行工程に相当する。つまり本実施形態では、1〜3人程度といった少ない人数が写っている画像のみを対象として画像評価を行なう。
S140では、画像評価処理部121は、対象画像において顔領域が占める割合(面積の割合)が所定のしきい値以下であるか否か判定し、顔領域が占める割合がしきい値以下であればS150(背景構図評価処理)に進み、顔領域が占める割合がしきい値を超える場合にはS150をスキップしてS160(顔位置評価処理)に進む。顔領域が複数ある場合には、各顔領域の面積の合計の、対象画像の大きさに対する割合を算出して判断する。顔領域の大きさは、対象画像内における顔領域の頂点の座標位置に基づいて算出することができる。
After S140, evaluation over a plurality of items is performed with respect to the target image, particularly the face area. The processing after S140 corresponds to an evaluation execution step. In other words, in the present embodiment, image evaluation is performed only for images in which a small number of people such as about 1 to 3 are shown.
In S140, the image evaluation processing unit 121 determines whether or not the ratio (area ratio) of the face area in the target image is equal to or less than a predetermined threshold value. For example, the process proceeds to S150 (background composition evaluation process). If the ratio of the face area exceeds the threshold value, S150 is skipped and the process proceeds to S160 (face position evaluation process). When there are a plurality of face areas, the ratio of the total area of each face area to the size of the target image is calculated and determined. The size of the face area can be calculated based on the coordinate position of the vertex of the face area in the target image.

S150では、背景構図評価部121gが対象画像の構図を評価する。つまり、少ない人数が写っている画像のみを対象として各種画像評価を行なう際に、画像内に占める顔の大きさがある程度小さい場合には、背景の構図も評価するようにしている。背景構図評価部121gは、対象画像について、水平線を含む構図であるか否かの評価、線遠近法に該当する構図であるか否かの評価、空気遠近法に該当する構図であるか否かの評価、をそれぞれ行なう。   In S150, the background composition evaluation unit 121g evaluates the composition of the target image. That is, when various image evaluations are performed only on an image showing a small number of people, if the size of the face in the image is small to some extent, the background composition is also evaluated. The background composition evaluation unit 121g evaluates whether or not the target image is a composition including a horizontal line, evaluates whether or not it is a composition corresponding to the line perspective method, and determines whether or not it is a composition corresponding to the air perspective method. Are evaluated.

図4は、S150における背景構図評価処理の詳細をフローチャートにより示している。S151では、背景構図評価部121gは、対象画像におけるエッジを検出する。このときエッジ検出の対象とする領域は、対象画像全体であってもよいし、対象画像から顔領域を除いた領域であってもよい。エッジ検出は、例えば、2次微分フィルタ(ラプラシアンフィルタ)を用いたフィルタ処理を対象画像の画素毎に適用してエッジ量を算出し、そのエッジ量と所定のしきい値とを比較することにより、画素毎にエッジであるか否かを検出する。エッジ検出には、2次微分フィルタの代わりに、1次微分フィルタ(Prewittフィルタ、Sobelフィルタ、Robertsフィルタ、Kirshフィルタ等)を用いてもよい。   FIG. 4 is a flowchart showing details of the background composition evaluation process in S150. In S151, the background composition evaluation unit 121g detects an edge in the target image. At this time, the region to be subjected to edge detection may be the entire target image or a region obtained by removing the face region from the target image. For example, the edge detection is performed by applying a filtering process using a second-order differential filter (Laplacian filter) to each pixel of the target image to calculate an edge amount, and comparing the edge amount with a predetermined threshold value. Whether or not each pixel is an edge is detected. For edge detection, a primary differential filter (Prewitt filter, Sobel filter, Roberts filter, Kirsh filter, etc.) may be used instead of the secondary differential filter.

S152では、背景構図評価部121gは、対象画像が水平線を含む構図であるか否かを判定する。背景構図評価部121gは、S151で検出された各エッジに基づいて対象画像内における線分を抽出し、抽出した線分の中から水平線に相当するものがあるか否か判定する。例えば、背景構図評価部121gは、対象画像内においてある基準以上の長さを持った線分であって、対象画像の上下方向に対して略垂直である線分が存在すれば、水平線を含む構図と判定する。本実施形態では、対象画像が横長(ランドスケープ)の画像である場合には画像の短辺方向が上下方向となり、対象画像が縦長(ポートレート)の画像である場合には画像の長辺方向が上下方向となる。また略垂直とは、90°を中心とした所定角度範囲内の角度を言う。   In S152, the background composition evaluation unit 121g determines whether or not the target image is a composition including a horizontal line. The background composition evaluation unit 121g extracts a line segment in the target image based on each edge detected in S151, and determines whether or not any of the extracted line segments corresponds to a horizontal line. For example, the background composition evaluation unit 121g includes a horizontal line if there is a line segment having a length equal to or greater than a certain reference in the target image and substantially perpendicular to the vertical direction of the target image. Judge as composition. In the present embodiment, when the target image is a landscape (landscape) image, the short side direction of the image is the vertical direction, and when the target image is a portrait (portrait) image, the long side direction of the image is The vertical direction. The term “substantially perpendicular” refers to an angle within a predetermined angle range centered on 90 °.

S153では、背景構図評価部121gは、対象画像が線遠近法に該当する構図であるか、空気遠近法に該当する構図であるか、あるいはいずれの遠近法の構図にも該当しないかを判定する。この場合、背景構図評価部121gは対象画像内における線分の消失点を検出する。例えば背景構図評価部121gは、対象画像内の上記線分のうち所定割合以上の本数の線分の端が画像内におけるある一点(或いはある一つの小領域)に収束しているか否か分析し、このような収束がある場合に消失点が検出できたものとし、その結果、対象画像における背景は線遠近法に該当する構図であると判定する。また、背景構図評価部121gは、上記エッジ検出の対象とした領域全体でのエッジ量を合計する。そして、エッジ量の合計が所定のしきい値(エッジ量比較用第一しきい値)以下である場合には、対象画像はぼやけ画像に近い画像、つまり空気遠近法に該当する構図の画像であると判定する。   In S153, the background composition evaluation unit 121g determines whether the target image is a composition corresponding to the line perspective method, a composition corresponding to the air perspective method, or a composition of any perspective method. . In this case, the background composition evaluation unit 121g detects a vanishing point of the line segment in the target image. For example, the background composition evaluation unit 121g analyzes whether or not the end of a predetermined number or more of the line segments in the target image has converged to a certain point (or one small region) in the image. It is assumed that the vanishing point can be detected when there is such convergence, and as a result, it is determined that the background in the target image has a composition corresponding to the linear perspective method. In addition, the background composition evaluation unit 121g adds up the edge amounts in the entire area targeted for edge detection. When the total amount of edges is equal to or less than a predetermined threshold value (first threshold value for edge amount comparison), the target image is an image close to a blurred image, that is, an image having a composition corresponding to the air perspective method. Judge that there is.

S154では、背景構図評価部121gは、S152およびS153における判定結果に基づいて、対象画像について第一評価点を与える。まず、S152において水平線を含む構図であると判定した場合には、対象画像に対して所定の高得点を第一評価点として認定する。ここで言う得点とは、評価処理(背景構図評価処理、顔位置評価処理、顔映り評価処理、顔向き評価処理、不良条件評価処理)毎における満点(例えば10点満点)内での相対的な得点を意味し、具体的な点数は各評価処理における各判定結果に対して予め決められている。また、S153において線遠近法に該当する構図あるいは空気遠近法に該当する構図と判定した場合にも、背景構図評価部121gは所定の高得点を第一評価点として認定する。さらに、水平線を含みかつ線遠近法にも該当する構図に対しては、さらなる高得点を第一評価点として認定する。   In S154, the background composition evaluation unit 121g gives a first evaluation score for the target image based on the determination results in S152 and S153. First, when it is determined in S152 that the composition includes a horizontal line, a predetermined high score is recognized as the first evaluation score for the target image. The score mentioned here is a relative score within a full score (for example, a maximum of 10 points) for each evaluation process (background composition evaluation process, face position evaluation process, facial image evaluation process, face orientation evaluation process, defect condition evaluation process). This means a score, and a specific score is determined in advance for each determination result in each evaluation process. Even when it is determined in S153 that the composition corresponds to the line perspective method or the composition corresponding to the air perspective method, the background composition evaluation unit 121g recognizes a predetermined high score as the first evaluation score. Furthermore, for a composition that includes a horizontal line and falls within the line perspective method, a higher score is recognized as the first evaluation point.

一方、水平線を含まず、上記いずれの遠近法にも該当しない対象画像に対しては、所定の低得点(あるいは得点なし)を第一評価点として認定する。背景構図評価部121gは、このように認定した第一評価点を内部メモリー12の所定領域に記録する。なお背景構図評価部121gは、対象画像について、必ずしも水平線を含む構図であるか否か、線遠近法に該当する構図であるか否か、空気遠近法に該当する構図であるか否かの全ての判定を行なう必要はなく、少なくとも一部の判定を行うようにしてもよい。   On the other hand, a predetermined low score (or no score) is recognized as a first evaluation score for a target image that does not include a horizontal line and does not correspond to any of the above perspective methods. The background composition evaluation unit 121g records the first evaluation point thus identified in a predetermined area of the internal memory 12. The background composition evaluation unit 121g determines whether the target image necessarily includes a horizontal line, whether the composition corresponds to the line perspective method, and whether the composition corresponds to the air perspective method. It is not necessary to make this determination, and at least a part of the determination may be made.

S140の次、或いはS150の次に、顔位置評価部121cはS160にて、対象画像内の顔画像の位置を評価する。
図5は、S160における顔位置評価処理の詳細をフローチャートにより示している。S161では、顔位置評価部121cは、対象画像から検出されている顔領域の数が1か複数かで処理を分岐する。顔領域の数が1である場合(つまり人物が1人写った対象画像である場合)はS162に進み、人物の撮影範囲を判定する。人物の撮影範囲の判定とは、対象画像内での人物の撮影されている範囲が「体全体」、「バストアップ」、「顔全体のみ(首を含む)」、「顔の一部」のいずれに該当するかを判定する作業である。つまり、人間の顔と顔以外の体との大きさのバランスはおよそ決まっているため、顔位置評価部121cは、対象画像内における顔領域の位置および大きさに応じて人物の撮影範囲が「体全体」、「バストアップ」、「顔全体のみ(首を含む)」、「顔の一部」のいずれに該当するかを判定(推測)する。
Following S140 or following S150, the face position evaluation unit 121c evaluates the position of the face image in the target image in S160.
FIG. 5 is a flowchart showing details of the face position evaluation process in S160. In S161, the face position evaluation unit 121c branches the process depending on whether the number of face areas detected from the target image is one or more. When the number of face areas is 1 (that is, when the person is a target image in which one person is photographed), the process proceeds to S162, and the photographing range of the person is determined. The determination of the shooting range of a person means that the shooting range of the person in the target image is “whole body”, “bust up”, “whole face only (including neck)”, “part of face” It is an operation for determining which one corresponds. In other words, since the balance of the size of the human face and the body other than the face is roughly determined, the face position evaluation unit 121c determines that the shooting range of the person is “in accordance with the position and size of the face area in the target image. It is determined (guessed) whether it corresponds to “whole body”, “bust up”, “whole face only (including neck)”, or “part of face”.

S163では、顔位置評価部121cは、対象画像における人物の撮影範囲に応じて、その人物の顔領域が適切な位置に配置されているか否かを判定する。例えば、人物の撮影範囲が「体全体」、「バストアップ」または「顔全体のみ(首を含む)」のいずれかである場合には、顔領域が対象画像の中央領域内に位置するか否か判定する。中央領域とは、対象画像の中心を含む所定大きさの円領域である。また、人物の撮影範囲が「体全体」、「バストアップ」または「顔全体のみ(首を含む)」のいずれかである場合、対象画像の縦横をそれぞれ3分割した際の分割線の格子点上に、顔領域が重なっているか否か判定する。   In S163, the face position evaluation unit 121c determines whether or not the face area of the person is placed at an appropriate position according to the shooting range of the person in the target image. For example, when the shooting range of a person is one of “whole body”, “bust up”, or “whole face only (including neck)”, whether or not the face area is located in the central area of the target image To determine. The central region is a circular region having a predetermined size including the center of the target image. In addition, when the shooting range of a person is one of “entire body”, “bust up”, or “whole face only (including neck)”, the grid points of the dividing lines when the target image is divided into three parts vertically and horizontally It is determined whether or not the face areas overlap.

図6では、上記分割線の各格子点のうち一つの格子点上に、顔領域Fdが重なっている状態を示している。図6では、便宜的に分割線dL(鎖線)および格子点dP(黒丸)を示しているが、このような分割線dLおよび格子点dPは実際に対象画像(画像データD)に表れる訳ではない(図7も同様)。顔位置評価部121cは、このような格子点上に顔領域Fdが重なっている場合には、さらに顔領域Fd内の目(右目または左目)領域が格子点上に重なっているか否かを判定する。   FIG. 6 shows a state in which the face region Fd overlaps one grid point among the grid points of the dividing line. In FIG. 6, for the sake of convenience, dividing lines dL (chain lines) and lattice points dP (black circles) are shown. However, such dividing lines dL and lattice points dP do not actually appear in the target image (image data D). No (same for FIG. 7). When the face region Fd overlaps such a grid point, the face position evaluation unit 121c determines whether or not the eye (right eye or left eye) region in the face region Fd further overlaps the grid point. To do.

S163後のS166では、顔位置評価部121cは、S163における判定結果に基づいて、対象画像の顔画像について第二評価点を与える。まず、顔領域が対象画像の中央領域内に位置すると判定した場合、または格子点上に顔領域が重なっていると判定した場合には、所定の高得点を第二評価点として認定する。また、格子点上に顔領域内の目(右目または左目)領域が重なっていると判定した場合には、さらなる高得点を第二評価点として認定する。一方、S163で中央領域内にも格子点上にも存在していないと判定された顔領域や、S163の判定対象とならなかった顔領域に対しては、所定の低得点(あるいは得点なし)を第二評価点として認定する。   In S166 after S163, the face position evaluation unit 121c gives a second evaluation score for the face image of the target image based on the determination result in S163. First, when it is determined that the face area is located in the central area of the target image, or when it is determined that the face area overlaps the lattice points, a predetermined high score is recognized as the second evaluation score. If it is determined that the eye (right eye or left eye) region in the face region overlaps the grid point, a higher score is recognized as the second evaluation score. On the other hand, a predetermined low score (or no score) is given to the face area determined not to exist in the central area or on the grid point in S163, or to the face area not determined in S163. Is certified as the second evaluation point.

一方、顔領域の数が複数(2又は3)である場合は、顔位置評価部121cはS161からS164に進み、人物の配置パターンを特定する。ここで言う特定とは、人物の数の特定、および特定した人数における人物の配置関係の特定を意味する。より具体的には、「2人」であるか「3人」であるかを特定し、さらに「3人」であればその「3人」が「親子配置」か「友達配置」のいずれに該当するかを特定する。「親子配置」とは、3人の人物のうち1人だけが他の2人と比較して上下方向において顔領域の位置(高さ位置)が所定程度低い配置を言う。「3人」であって「親子配置」でなければ、顔位置評価部121cは「友達配置」であると特定する。   On the other hand, when the number of face areas is plural (2 or 3), the face position evaluation unit 121c proceeds from S161 to S164, and specifies a person arrangement pattern. The specification mentioned here means specification of the number of persons and specification of the arrangement relationship of the persons in the specified number of persons. More specifically, it is specified whether it is “2 people” or “3 people”, and if it is “3 people”, that “3 people” is either “parent-child arrangement” or “friend arrangement”. Identify whether it applies. “Parent-child arrangement” refers to an arrangement in which only one of three persons has a face area position (height position) that is lower by a predetermined amount in the vertical direction than the other two persons. If it is “three people” and not “parent-child arrangement”, the face position evaluation unit 121c identifies “friend arrangement”.

S165では、顔位置評価部121cは、S164で特定した配置パターンに応じて、各人物の顔領域が適切な位置に配置されているか否かを判定する。例えば、配置パターンが「2人」である場合は、対象画像の縦横をそれぞれ3分割した際の分割線の格子点であって、中央の格子ブロック上の対角の関係にある2つの格子点上に、それぞれの顔領域が重なっているか否か判定する。   In S165, the face position evaluation unit 121c determines whether or not each person's face area is arranged at an appropriate position according to the arrangement pattern specified in S164. For example, when the arrangement pattern is “two people”, the grid points of the dividing line when the vertical and horizontal directions of the target image are each divided into three, and two grid points in a diagonal relation on the central grid block It is determined whether or not each face area overlaps.

図7では、上記対角の関係にある2つの格子点上に、それぞれの顔領域Fd,Fdが重なっている状態を示している。また顔位置評価部121cは、配置パターンが「2人」であって当該対角の関係にある2つの格子点上にそれぞれの顔領域が重なっていない場合には、2つの顔領域の重心同士を結ぶ線分の中心がいずれかの格子点上に重なっているか(いずれかの格子点付近にあるか)否かを判定する。また顔位置評価部121cは、配置パターンが「3人」かつ「親子配置」である場合には、上下方向に直交する方向(左右方向)における顔領域の位置関係で真ん中に位置する顔領域の高さ位置が、3つの顔領域のなかで最も低いか否かを判定する。   FIG. 7 shows a state in which the face areas Fd and Fd overlap each other on the two lattice points having the above diagonal relationship. Further, the face position evaluation unit 121c determines that the center of gravity of the two face areas is equal to each other when the arrangement pattern is “two people” and the face areas do not overlap on the two lattice points having the diagonal relationship. It is determined whether or not the center of the line segment connecting is overlapped on any grid point (is near any grid point). Further, when the arrangement pattern is “three people” and “parent-child arrangement”, the face position evaluation unit 121c determines the face area located in the middle in the positional relationship of the face areas in the direction perpendicular to the vertical direction (left and right direction). It is determined whether the height position is the lowest of the three face regions.

図8では、配置パターンが「3人」かつ「親子配置」である場合に、上記真ん中に位置する顔領域Fdの高さ位置が最も低い場合を例示している。つまり図8のような配置は、両親の間に子供が居る配置であると推測され、かかる配置は好ましいと言える。また顔位置評価部121cは、配置パターンが「3人」かつ「友達配置」である場合には、3つの顔領域の高さ位置が略同一であるかを判定する。また配置パターンが「3人」かつ「友達配置」である場合には、3つの顔領域の大きさに大中小の関係があり、かつ大中小の順番で各顔領域が一つの方向に並んでいる(遠近法的配置)か否かを判定する。   FIG. 8 illustrates a case where the height position of the face region Fd located in the middle is the lowest when the arrangement pattern is “three people” and “parent-child arrangement”. That is, the arrangement as shown in FIG. 8 is presumed to be an arrangement in which there are children between parents, and such an arrangement can be said to be preferable. In addition, when the arrangement pattern is “three people” and “friend arrangement”, the face position evaluation unit 121c determines whether the height positions of the three face areas are substantially the same. When the arrangement pattern is “three people” and “friend arrangement”, the sizes of the three face areas are large, medium, and small, and the face areas are arranged in one direction in the order of large, medium, and small. It is determined whether or not (perspective arrangement).

図9では、配置パターンが「3人」かつ「友達配置」である場合に、各顔領域Fd,Fd,Fdが遠近法的配置となっている例を示している。S165後のS166では、顔位置評価部121cは、S165における判定結果に基づいて、対象画像の顔画像について第二評価点を与える。つまり、配置パターンが「2人」であって上記対角の関係にある2つの格子点上にそれぞれの顔領域が重なっていると判定した場合、配置パターンが「2人」であって2つの顔領域の重心同士を結ぶ線分の中心がいずれかの格子点上に重なっている(いずれかの格子点付近にある)と判定した場合、配置パターンが「3人」かつ「親子配置」であって真ん中に位置する顔領域の高さ位置が最も低いと判定した場合、配置パターンが「3人」かつ「友達配置」であって3つの顔領域の高さ位置が略同一であると判定した場合、配置パターンが「3人」かつ「友達配置」であって各顔領域が遠近法的配置であると判定した場合、のいずれかに該当するとき、それぞれの判定結果に応じた所定の高得点を第二評価点として認定し、これら以外の場合には所定の低得点(あるいは得点なし)を第二評価点として認定する。顔位置評価部121cは、このように認定した第二評価点を内部メモリー12の所定領域に記録する。   FIG. 9 shows an example in which each face area Fd, Fd, Fd is a perspective arrangement when the arrangement pattern is “three people” and “friend arrangement”. In S166 after S165, the face position evaluation unit 121c gives a second evaluation score for the face image of the target image based on the determination result in S165. That is, when it is determined that the arrangement pattern is “two people” and the face areas overlap each other on the two lattice points having the above diagonal relationship, the arrangement pattern is “two people” and two If it is determined that the center of the line segment connecting the centroids of the face area overlaps on any grid point (near any grid point), the placement pattern is “3 people” and “parent-child placement” If it is determined that the height position of the face area located in the middle is the lowest, it is determined that the arrangement pattern is “three people” and “friend arrangement”, and the height positions of the three face areas are substantially the same. If the arrangement pattern is “3 people” and “friend arrangement”, and each face area is determined to be a perspective arrangement, if any one of them is determined, a predetermined value corresponding to each determination result is obtained. The high score is recognized as the second evaluation score, otherwise It is certified predetermined low score (or no score) as the second evaluation points. The face position evaluation unit 121 c records the second evaluation point thus identified in a predetermined area of the internal memory 12.

S170では、顔映り評価部121dが、対象画像内の顔画像の顔映りを評価する。顔映り評価部121dは、顔映りの評価として、顔の明暗の評価、表情の評価、顔のシャープさの評価をそれぞれ行う。   In S170, the facial appearance evaluation unit 121d evaluates the facial appearance of the facial image in the target image. The facial image evaluation unit 121d performs facial brightness evaluation, facial expression evaluation, and facial sharpness evaluation as facial evaluation.

図10は、S170における顔映り評価処理の詳細をフローチャートにより示している。S171では、顔映り評価部121dは、対象画像内の顔領域について明暗(コントラスト)を評価する。具体的には、顔映り評価部121dは、一つの顔領域について領域内の各画素の輝度をヒストグラム(例えば、輝度範囲0〜255における輝度分布)化し、ヒストグラムの幅(最大輝度と最小輝度との差)を求める。そして、当該幅が所定のしきい値以上である場合には、明暗評価の対象とした顔領域は高コントラストであると判定する。このようなヒストグラムの生成および幅の判定は、顔領域が複数ある場合には顔領域単位で行う。   FIG. 10 is a flowchart showing details of the facial image evaluation process in S170. In S171, the facial appearance evaluation unit 121d evaluates the contrast (contrast) of the face region in the target image. Specifically, the facial appearance evaluation unit 121d generates a histogram (for example, a luminance distribution in the luminance range 0 to 255) of the luminance of each pixel in the region for one facial region, and the histogram width (maximum luminance and minimum luminance). Difference). If the width is equal to or greater than a predetermined threshold value, the face area subjected to the brightness evaluation is determined to have high contrast. Such generation of the histogram and determination of the width are performed for each face area when there are a plurality of face areas.

S172では、顔映り評価部121dは、対象画像内の顔領域について表情を評価する。具体的には、顔映り評価部121dは、一つの顔領域における表情が笑顔か否かを判定する。顔映り評価部121dは公知の表情判定機能を有するものとし、顔領域内の画像(例えば、口の形状)に基づいて顔が笑顔か否かを判定することができる。このような表情の判定は、顔領域が複数ある場合には顔領域単位で行う。なお、顔が笑顔か否かの判定は、顔画像検出部121aがS110において顔領域の検出とともに実行する構成としてもよい。顔画像検出部121aが顔領域が笑顔か否かの判定を実行済みである場合には、S172では、顔領域について笑顔と判定されているか否かを評価することになる。   In S172, the facial appearance evaluation unit 121d evaluates the facial expression of the face area in the target image. Specifically, the facial appearance evaluation unit 121d determines whether the facial expression in one face area is a smile. The facial appearance evaluation unit 121d has a known facial expression determination function, and can determine whether the face is a smile based on an image (for example, mouth shape) in the face area. Such facial expression determination is performed for each face area when there are a plurality of face areas. The determination of whether or not the face is a smile may be performed by the face image detection unit 121a together with the detection of the face area in S110. If the face image detection unit 121a has already determined whether or not the face area is a smile, in S172, it is evaluated whether or not the face area is determined to be a smile.

S173では、顔映り評価部121dは、対象画像内の顔領域についてシャープさ(鮮鋭度)を評価する。シャープさの指標は様々であるが、ここでは顔映り評価部121dは、一つの顔領域を対象としてエッジ量を算出する。エッジ量算出は既に述べたように、対象となる領域内の各画素に対して所定のフィルタを適用することにより行う。顔映り評価部121dは、エッジ量算出の対象とした顔領域でのエッジ量を合計する。そして、エッジ量の合計が所定のしきい値(エッジ量比較用第二しきい値)以上である場合には、エッジ量算出の対象とした顔領域の顔はシャープな顔であると判定する。このようなシャープさの判定は、顔領域が複数ある場合には顔領域単位で行う。   In S173, the facial appearance evaluation unit 121d evaluates the sharpness (sharpness) of the face area in the target image. The sharpness index varies, but here the facial appearance evaluation unit 121d calculates the edge amount for one face area. As described above, the edge amount calculation is performed by applying a predetermined filter to each pixel in the target region. The face appearance evaluation unit 121d sums the edge amounts in the face area that is the target of the edge amount calculation. When the total amount of edges is equal to or greater than a predetermined threshold value (second threshold value for edge amount comparison), it is determined that the face in the face area subject to edge amount calculation is a sharp face. . Such sharpness determination is performed for each face area when there are a plurality of face areas.

S174では、顔映り評価部121dは、S171〜S173における判定結果に基づいて、対象画像の顔領域について第三評価点を与える。具体的には、顔映り評価部121dは、顔領域についてS171〜S173の3種類の判定において全て肯定的な判定(高コントラストという判定結果、笑顔という判定結果、シャープな顔という判定結果)がなされている場合には、その顔領域について所定の最も高い得点を第三評価点として認定する。また、当該3種類の判定における肯定的な判定結果の数が減るほどに、第三評価点として低い点数を認定する。対象画像内に複数の顔領域がある場合、顔映り評価部121dは、まず顔領域単位で第三評価点を付与するとともに、各顔領域の第三評価点の平均点を、対象画像内の複数の顔領域に対する一つの第三評価点として認定する。   In S174, the facial appearance evaluation unit 121d gives a third evaluation score for the face area of the target image based on the determination results in S171 to S173. Specifically, the facial appearance evaluation unit 121d makes positive determinations (a determination result of high contrast, a determination result of smile, and a determination result of sharp face) in the three types of determinations of S171 to S173 for the face area. If so, the predetermined highest score for the face area is recognized as the third evaluation score. Moreover, a low score is recognized as the third evaluation score as the number of positive determination results in the three types of determinations decreases. When there are a plurality of face areas in the target image, the facial appearance evaluation unit 121d first assigns a third evaluation point for each face area, and calculates an average score of the third evaluation points of each face area in the target image. One third evaluation point for a plurality of face regions is recognized.

顔映り評価部121dは、このように認定した第三評価点を内部メモリー12の所定領域に記録する。なお顔映り評価部121dは、対象画像内の顔領域について、必ずしも顔の明暗、表情および顔のシャープさの全てについて判定を行なう必要はなく、少なくとも一部の判定を行うようにしてもよい。   The facial appearance evaluation unit 121 d records the third evaluation point thus identified in a predetermined area of the internal memory 12. Note that the facial appearance evaluation unit 121d does not necessarily have to determine all of the brightness of the face, the expression, and the sharpness of the face for the face area in the target image, and may make at least a partial determination.

S180では、顔向き評価部121eが、顔向き評価として、対象画像内において顔領域の顔が向く方向に所定大きさの空間が存在するか否かの評価を行なう。これは、対象画像内において顔が向く方向に所定大きさの空間が存在する場合には、写真を見る者に対して好印象を与える構図と言えるからである。
図11は、S180における顔向き評価処理の詳細をフローチャートにより示している。S181では、顔向き評価部121eは、対象画像内の顔領域について顔の向きを判定する。
In S180, the face direction evaluation unit 121e evaluates whether or not a space of a predetermined size exists in the direction in which the face of the face area faces in the target image as the face direction evaluation. This is because it can be said that when a space of a predetermined size exists in the direction in which the face faces in the target image, the composition gives a good impression to the person who sees the photograph.
FIG. 11 is a flowchart showing details of the face orientation evaluation process in S180. In S181, the face orientation evaluation unit 121e determines the face orientation of the face area in the target image.

図12A,12Bは、顔向き評価部121eが顔の向きを判定する様子を示している。顔向き評価部121eは、上記顔検出の際に検出された顔領域Fd内の右目の矩形領域(右目領域Ar)、左目の矩形領域(左目領域Al)および口の矩形領域(口領域Am)の位置関係を解析することによって顔向きを判定する。顔向き評価部121eは、右目領域Arの重心および左目領域Alの重心を結んだ線分Mに直交し、かつ、口領域Amの重心を通過する直線を顔の中央軸Lと定義する。顔向き評価部121eは、中央軸Lによって線分Mを分断したときの右目側の線分の長さm1と左目側の線分の長さm2との大小に基づき、顔向きを判定する。つまり、右目側の線分m1=左目側の線分m2であれば顔が画像平面に対して垂直な方向に向いている(正面向き)と判定することができる(図12A参照)。また、右目側の線分m1>左目側の線分m2であれば、顔は「右向き」と判定することができ(図12B参照)、右目側の線分m1<左目側の線分m2であれば、顔は「左向き」と判定することができる。   12A and 12B show how the face direction evaluation unit 121e determines the face direction. The face direction evaluation unit 121e has a right eye rectangular area (right eye area Ar), a left eye rectangular area (left eye area Al), and a mouth rectangular area (mouth area Am) in the face area Fd detected during the face detection. The orientation of the face is determined by analyzing the positional relationship. The face direction evaluation unit 121e defines a straight line that is orthogonal to the line segment M connecting the center of gravity of the right eye region Ar and the center of gravity of the left eye region Al and passes through the center of gravity of the mouth region Am as the center axis L of the face. The face orientation evaluation unit 121e determines the face orientation based on the size of the length m1 of the right eye segment and the length m2 of the left eye segment when the segment M is divided by the central axis L. That is, if the line segment m1 on the right eye side = line segment m2 on the left eye side, it can be determined that the face is oriented in a direction perpendicular to the image plane (front-facing) (see FIG. 12A). Further, if the line segment m1 on the right eye side> the line segment m2 on the left eye side, the face can be determined to be “rightward” (see FIG. 12B), and the line segment m1 on the right eye side <the line segment m2 on the left eye side. If so, the face can be determined to be “leftward”.

なお顔が「右向き」と判定した場合、対象画像内の人物は当該人物にとって左側を向いていることになり、「左向き」と判定した場合、その人物は当該人物にとって右側を向いていることになる。顔向き評価部121eは、このような右向き、左向きの判定を右目領域Arの幅Wrと左目領域Alの幅Wlとの比較によって行なってもよい(図12参照)。つまり、顔に振りがある場合には、その振りの程度に応じて、検出される右目領域Arや左目領域Alの大きさが変るため、幅Wr=幅Wlであれば顔が正面向きと判定し、幅Wr>幅Wlであれば顔は右向きと判定し、幅Wr<幅Wlであれば顔は左向きと判定することができる。   If the face is determined to be “rightward”, the person in the target image is facing the left side of the person, and if the face is determined to be “leftward”, the person is facing the right side of the person. Become. The face direction evaluation unit 121e may perform such rightward / leftward determination by comparing the width Wr of the right eye region Ar and the width Wl of the left eye region Al (see FIG. 12). In other words, if the face has a swing, the size of the detected right eye area Ar or left eye area Al changes depending on the degree of the swing, so if width Wr = width Wl, the face is determined to face front. If width Wr> width Wl, the face can be determined to face right, and if width Wr <width Wl, the face can be determined to face left.

S182では、顔向き評価部121eは、上記顔向きの判定結果に応じて、対象画像内において顔が向く方向に所定大きさの空間が存在するか否か判定する。例えば、顔向き評価部121eは、顔向きを「右向き」と判定した場合には、対象画像内における顔領域よりも右側の領域に、上記線分Mの延長線を含む所定大きさの空間が在るか否か判定する。ここで言う所定大きさの空間とは、対象画像内における人物画像を含まない領域であって対象画像の面積に対して所定比率以上の大きさを持った領域の塊を意味する。   In S182, the face direction evaluation unit 121e determines whether there is a space of a predetermined size in the direction in which the face faces in the target image according to the determination result of the face direction. For example, when the face orientation evaluation unit 121e determines that the face orientation is “right”, a space having a predetermined size including an extension line of the line segment M is present in a region on the right side of the face region in the target image. It is determined whether or not it exists. The space of a predetermined size mentioned here means a block of a region that does not include a person image in the target image and has a size that is equal to or larger than a predetermined ratio with respect to the area of the target image.

図13Aは、対象画像における顔領域Fdの顔の向きが右向き(右斜め上向き)であって、この顔領域Fdの右側に線分Mの延長線を含む所定大きさの空間Eが在る場合を例示している。図13Aの例では、顔領域の顔(特に目線)が向いた先に所定の空間があるため、顔向き評価部121eは、対象画像内において顔が向く方向に所定大きさの空間が存在すると判定する。一方、対象画像が、図13Bに示したような、顔が向いている先に線分Mの延長線を含む所定大きさの空間Eが無い画像である場合には、顔向き評価部121eは、対象画像内において顔が向く方向に所定大きさの空間が存在しないと判定する。なお、所定大きさの空間が在るか否かを判定するための顔の向きは、単なる右向き左向きの違いに加え、顔の傾き(対象画像の上下方向に対する中央軸Lの傾き)を含めて判断する。   FIG. 13A shows a case where the face direction of the face area Fd in the target image is rightward (upward diagonally right), and a space E of a predetermined size including an extension line of the line segment M exists on the right side of the face area Fd. Is illustrated. In the example of FIG. 13A, since there is a predetermined space ahead of the face of the face area (particularly the line of sight), the face direction evaluation unit 121e determines that a space of a predetermined size exists in the direction in which the face faces in the target image. judge. On the other hand, when the target image is an image having no space E having a predetermined size including an extension line of the line segment M as shown in FIG. Then, it is determined that there is no space of a predetermined size in the direction in which the face faces in the target image. Note that the orientation of the face for determining whether or not there is a space of a predetermined size includes not only the difference between the right direction and the left direction but also the inclination of the face (the inclination of the central axis L with respect to the vertical direction of the target image). to decide.

S183では、顔向き評価部121eは、S182における判定結果に基づいて、対象画像の顔領域について第四評価点を与える。つまり顔向き評価部121eは、対象画像内において顔が向く方向に所定大きさの空間が存在すると判定した場合には、顔領域について所定の高得点を第四評価点として認定する。一方、顔領域の顔は正面向きであると評価した場合や、対象画像内において顔が向く方向に所定大きさの空間が存在すると判定しなかった場合には、当該高得点よりも低い所定得点を第四評価点として認定する。顔向き評価部121eは、対象画像内に顔領域が複数在る場合には、S181において顔領域単位で顔の向きを判定する。そしてS182では、全ての顔領域の顔の向きが同じである場合に限って、各顔領域における顔の各線分Mの延長線を含む所定大きさの空間が在るか否か判定することにより、対象画像内において顔が向く方向に所定大きさの空間が存在するか否かを判定するものとする。   In S183, the face orientation evaluation unit 121e gives a fourth evaluation score for the face area of the target image based on the determination result in S182. That is, when the face direction evaluation unit 121e determines that there is a space of a predetermined size in the direction in which the face faces in the target image, the face direction evaluation unit 121e recognizes a predetermined high score for the face area as the fourth evaluation point. On the other hand, when it is evaluated that the face of the face area is facing forward, or when it is not determined that a space of a predetermined size exists in the direction in which the face faces in the target image, a predetermined score lower than the high score Is certified as the fourth evaluation point. When there are a plurality of face areas in the target image, the face direction evaluation unit 121e determines the face direction in units of face areas in S181. In S182, only when the face orientations of all the face areas are the same, it is determined whether there is a space of a predetermined size including an extension line of each line segment M of each face area. It is determined whether or not there is a space of a predetermined size in the direction in which the face faces in the target image.

顔向き評価部121eは、このように認定した第四評価点を内部メモリー12の所定領域に記録する。なお顔向きの判定は、顔画像検出部121aがS110において顔領域の検出とともに実行する構成としてもよい。顔画像検出部121aが顔向きの判定を実行済みである場合には、顔向き評価部121eは、顔画像検出部121aによる顔向きの判定結果を利用してS182の処理を行う。   The face direction evaluation unit 121e records the fourth evaluation point thus identified in a predetermined area of the internal memory 12. The face orientation determination may be performed by the face image detection unit 121a together with the detection of the face area in S110. When the face image detection unit 121a has already determined the face orientation, the face orientation evaluation unit 121e performs the process of S182 using the face orientation determination result by the face image detection unit 121a.

S190では、不良条件評価部121fは、不良条件評価として、対象画像内の顔領域について露出の程度およびぼやけの程度を評価する。
図14は、S190における不良条件評価処理の詳細をフローチャートにより示している。S191では、不良条件評価部121fは、顔領域における露出の程度を判定する。露出の程度を判定する手法は様々であるが、例えば、顔映り評価部121dは、一つの顔領域にかかる輝度のヒストグラムを生成するとともに、ヒストグラムにおける最大輝度から、サンプル数(当該ヒストグラムの生成に用いられた画素数)のうち所定数パーセント(例えば5%)の画素数分だけ低輝度側にある輝度を基準輝度とする。そして、基準輝度が所定のしきい値(露出判定用第一しきい値)より大きい場合には、顔領域の顔は露出過多であると判定する。一方、基準輝度が露出判定用第二しきい値(ただし、露出判定用第一しきい値>露出判定用第二しきい値)以下である場合には、顔領域の顔は露出不足であると判定する。このような露出の程度の判定は、顔領域が複数ある場合には顔領域単位で行う。
In S190, the defect condition evaluation unit 121f evaluates the degree of exposure and the degree of blur for the face area in the target image as the defect condition evaluation.
FIG. 14 is a flowchart showing details of the failure condition evaluation process in S190. In S191, the defect condition evaluation unit 121f determines the degree of exposure in the face area. Although there are various methods for determining the degree of exposure, for example, the facial appearance evaluation unit 121d generates a histogram of luminance relating to one face area and calculates the number of samples (for generating the histogram from the maximum luminance in the histogram). The luminance on the low luminance side by a predetermined number percent (for example, 5%) of the number of used pixels) is set as the reference luminance. If the reference luminance is greater than a predetermined threshold value (first threshold value for exposure determination), it is determined that the face in the face area is overexposed. On the other hand, when the reference luminance is equal to or lower than the second threshold value for exposure determination (however, the first threshold value for exposure determination> second threshold value for exposure determination), the face in the face area is underexposed. Is determined. Such determination of the degree of exposure is performed for each face area when there are a plurality of face areas.

S192では、不良条件評価部121fは、顔領域がぼやけているか否かを判定する。ぼやけの判定は、上述したシャープさの判定と基本的に同じである。つまり不良条件評価部121fは、顔領域でのエッジ量を合計するとともに、エッジ量の合計が所定のしきい値(エッジ量比較用第三しきい値。ただし、エッジ量比較用第二しきい値>エッジ量比較用第三しきい値とする。)より少ない場合に、顔領域の顔はぼやけていると判定する。このようなぼやけの判定は、顔領域が複数ある場合には顔領域単位で行う。   In S192, the failure condition evaluation unit 121f determines whether or not the face area is blurred. The blur determination is basically the same as the sharpness determination described above. In other words, the defect condition evaluation unit 121f sums the edge amounts in the face area, and the sum of the edge amounts is a predetermined threshold value (a third threshold value for edge amount comparison. However, the second threshold value for edge amount comparison). Value> the third threshold value for edge amount comparison.) If it is smaller, it is determined that the face in the face area is blurred. Such blur determination is performed for each face area when there are a plurality of face areas.

S193では、不良条件評価部121fは、S191,S192における判定結果に基づいて、対象画像の顔領域について第五評価点を与える。具体的には、不良条件評価部121fは、一つの顔領域についてS191およびS192の二種類の判定においていずれも不良条件であるとの判定(露出過多または露出不足であり且つぼやけている、という判定)がなされている場合には、その顔領域について所定の最も低い得点を第五評価点として認定する。また、当該二種類の判定における不良条件であるとの判定結果の数が減るほどに、第五評価点として高い点数を認定する。対象画像内に複数の顔領域がある場合、不良条件評価部121fは、まず顔領域単位で第五評価点を付与するとともに、各顔領域の第五評価点の平均点を、対象画像内の複数の顔領域に対する一つの第五評価点として認定する。   In S193, the failure condition evaluation unit 121f gives a fifth evaluation score for the face area of the target image based on the determination results in S191 and S192. Specifically, the failure condition evaluation unit 121f determines that both of the two types of determinations of S191 and S192 are defective conditions for one face area (determination that the image is overexposed or underexposed and is blurred. ), The predetermined lowest score for the face region is recognized as the fifth evaluation score. Further, a higher score is recognized as the fifth evaluation score as the number of determination results indicating that the condition is a failure condition in the two types of determinations decreases. When there are a plurality of face areas in the target image, the failure condition evaluation unit 121f first assigns a fifth evaluation point for each face area, and calculates the average score of the fifth evaluation points of each face area in the target image. It is recognized as a fifth evaluation point for a plurality of face regions.

不良条件評価部121fは、このように認定した第五評価点を内部メモリー12の所定領域に記録する。なお不良条件評価部121fは、対象画像内の顔領域について、必ずしも露出およびぼやけの両方について判定を行なう必要はなく、少なくとも一部の判定を行うようにしてもよい。   The defect condition evaluation unit 121f records the fifth evaluation point thus recognized in a predetermined area of the internal memory 12. The defect condition evaluation unit 121f does not necessarily have to determine both exposure and blur for the face area in the target image, and may perform at least a part of the determination.

S200では、総合評価部121hは、S150〜S190の各評価処理によって認定された第一〜第五評価点(S150が実行されなかった場合には、S160〜S190の各評価処理によって認定された第二〜第五評価点)に基づいて総合評価点を算出する。総合評価部121hは、例えば、各評価処理における満点の合計値に対する各評価点の合計値の比率(得点率)を総合評価点として算出する。あるいは、総合評価部121fは、各評価点に対して所定の重み付けをした上で合計し、この合計(合計の得点率)を総合評価点としてもよい。   In S200, the comprehensive evaluation unit 121h determines the first to fifth evaluation points certified by the evaluation processes of S150 to S190 (if S150 has not been executed, the first evaluation is authorized by the evaluation processes of S160 to S190. A comprehensive evaluation score is calculated based on the second to fifth evaluation scores. The comprehensive evaluation unit 121h calculates, for example, the ratio (score rate) of the total value of each evaluation point to the total value of the full marks in each evaluation process as the comprehensive evaluation point. Alternatively, the comprehensive evaluation unit 121f may add the weights after giving a predetermined weight to each evaluation score, and may use this total (total score rate) as a comprehensive evaluation score.

S210では、画像評価処理部121は、総合評価点を外部に対して出力する。具体的には、画像評価処理部121は、総合評価点を表示処理部122に通知し、表示処理部122に、総合評価点をディスプレー50の画面に表示させる。この場合、表示処理部122は、対象画像のサムネイル画像とともにその画像にかかる総合評価点を表示するとしてもよい。また、画像評価処理部121は、複数の対象画像について繰り返し図2のフローチャートを実行した場合には、ディスプレー50の画面に複数の対象画像のサムネイルと複数の対象画像の総合評価点とを対応付けて表示させてもよい。また、画像評価処理部121は、総合評価点だけでなく上記第一〜第五評価点をディスプレー50の画面に表示させるとしてもよい。   In S210, the image evaluation processing unit 121 outputs a comprehensive evaluation score to the outside. Specifically, the image evaluation processing unit 121 notifies the comprehensive evaluation score to the display processing unit 122 and causes the display processing unit 122 to display the comprehensive evaluation score on the screen of the display 50. In this case, the display processing unit 122 may display the overall evaluation score concerning the image together with the thumbnail image of the target image. When the image evaluation processing unit 121 repeatedly executes the flowchart of FIG. 2 for a plurality of target images, the image evaluation processing unit 121 associates the thumbnails of the plurality of target images with the overall evaluation points of the plurality of target images on the screen of the display 50. May be displayed. Further, the image evaluation processing unit 121 may display not only the comprehensive evaluation score but also the first to fifth evaluation points on the screen of the display 50.

3.まとめ
このように本実施形態の画像評価処理によれば、1〜3人程度の少人数の人物を写した画像のみを対象として、少なくとも、顔画像についての位置評価と、明暗や表情やシャープさといった顔映り評価と、顔の向きに関連した空間の有無の評価と、顔の露出過多・不足やぼやけ等の不良条件の評価とを実行し、これら各評価結果に基づいて総合評価点を算出し、総合評価点をユーザーに対して提示するとした。つまり、DSCの大多数のユーザーが通常頻繁に撮影する少人数の人物写真に対する客観的かつ総合的な評価を提示することができる。また、少人数の人物を写した対象画像内において顔領域以外の背景領域の面積がある程度大きい場合には、背景の構図についても評価し、かかる構図の評価結果も含めて上記総合評価点を算出するとした。そのため、様々な少人数の人物写真について的確かつ総合的な評価をユーザーに対して提示することができる。
3. Summary As described above, according to the image evaluation process of the present embodiment, at least a position evaluation of a face image, brightness, darkness, facial expression, and sharpness is targeted only for an image in which a small number of persons of about 1 to 3 are copied. Evaluation of the presence of space related to face orientation, evaluation of bad conditions such as overexposure / underexposure of face and blurring, etc., and calculating overall evaluation score based on each evaluation result And the overall evaluation score is presented to the user. That is, it is possible to present an objective and comprehensive evaluation of a small number of person photographs that are usually taken frequently by the majority of DSC users. In addition, if the area of the background area other than the face area is large to some extent in the target image showing a small number of people, the background composition is also evaluated, and the overall evaluation score including the evaluation result of such composition is calculated. Then. Therefore, an accurate and comprehensive evaluation can be presented to the user for various small-sized person photographs.

画像評価処理を実行するコンピューター10は、例えば、ユーザーが使用するパーソナルコンピューターであってもよいし、DPEショップに置かれた業務用プリントミニラボ機(いわゆるミニラボ機)を制御するコンピューターであってもよい。また、画像評価処理はプリンター30によって実現されてもよい。この場合、プリンター30が内臓するコントローラーが、上記プログラムデータPに従った処理(図2に示した処理)を実行し、プリンター30が備える表示部(液晶パネル)に総合評価点などを表示する構成とする。なお、図2のS150〜S190に示した各評価処理の順番は、上述した処理順序に限定されるものではない。   The computer 10 that executes the image evaluation process may be, for example, a personal computer used by a user, or a computer that controls a commercial print minilab machine (so-called minilab machine) placed in a DPE shop. . The image evaluation process may be realized by the printer 30. In this case, a configuration in which the controller incorporated in the printer 30 executes the process according to the program data P (the process shown in FIG. 2) and displays the overall evaluation score on the display unit (liquid crystal panel) provided in the printer 30. And In addition, the order of each evaluation process shown to S150-S190 of FIG. 2 is not limited to the process order mentioned above.

10…コンピューター、11…CPU、12…内部メモリー、13…HDD、20…DSC、30…プリンター、40…メモリーカード、50…ディスプレー、60…入力操作部、121…画像評価処理部、121a…顔画像検出部、121b…顔数判定部、121c…顔位置評価部、121d…顔映り評価部、121e…顔向き評価部、121f…不良条件評価部、121g…背景構図評価部、121h…総合評価部、122…表示処理部、123…印刷処理部 DESCRIPTION OF SYMBOLS 10 ... Computer, 11 ... CPU, 12 ... Internal memory, 13 ... HDD, 20 ... DSC, 30 ... Printer, 40 ... Memory card, 50 ... Display, 60 ... Input operation part, 121 ... Image evaluation processing part, 121a ... Face Image detection unit, 121b ... Face number determination unit, 121c ... Face position evaluation unit, 121d ... Face reflection evaluation unit, 121e ... Face orientation evaluation unit, 121f ... Defective condition evaluation unit, 121g ... Background composition evaluation unit, 121h ... Comprehensive evaluation 122, display processing unit, 123 ... print processing unit

Claims (8)

入力された画像データが表す画像内から顔画像を検出する顔検出工程と、
上記検出された顔画像の数が特定数以下であるか否か判定する顔数判定工程と、
上記顔画像の数が特定数以下であると判定された場合に、上記顔画像について、上記画像データ内における位置の評価と、顔映りの評価と、顔向きの評価と、所定の不良条件の評価とを行なうとともに、各評価結果に基づいた総合評価結果を算出し、総合評価結果を外部に出力する評価実行工程とを備えることを特徴とする画像評価方法。
A face detection step of detecting a face image from the image represented by the input image data;
A face number determination step of determining whether or not the number of detected face images is equal to or less than a specific number;
When it is determined that the number of face images is equal to or less than a specific number, the position of the face image in the image data, the evaluation of the appearance of the face, the evaluation of the face direction, and predetermined defect conditions are determined. An image evaluation method comprising: an evaluation execution step of performing an evaluation, calculating a comprehensive evaluation result based on each evaluation result, and outputting the comprehensive evaluation result to the outside.
上記評価実行工程では、上記顔画像の数が特定数以下であってかつ画像データが表す画像内における顔画像の面積が占める割合が所定値以下である場合に、画像データが表す画像の構図を評価するとともに、当該構図の評価結果と当該構図の評価結果以外の上記各評価結果とに基づいて上記総合評価結果を算出することを特徴とする請求項1に記載の画像評価方法。   In the evaluation execution step, the composition of the image represented by the image data is determined when the number of the face images is equal to or less than a specific number and the ratio of the area of the face image in the image represented by the image data is equal to or less than a predetermined value. The image evaluation method according to claim 1, wherein the comprehensive evaluation result is calculated based on the evaluation result of the composition and the evaluation results other than the evaluation result of the composition. 上記評価実行工程では、上記構図の評価として、線遠近法に該当する構図であるか否かの評価、空気遠近法に該当する構図であるか否かの評価および水平線を含む構図であるか否かの評価のうち少なくとも一つの評価を行なうことを特徴とする請求項2に記載の画像評価方法。   In the evaluation execution step, as an evaluation of the composition, an evaluation whether or not the composition corresponds to the line perspective, an evaluation whether or not the composition corresponds to the air perspective, and whether or not the composition includes a horizontal line. The image evaluation method according to claim 2, wherein at least one of the evaluations is performed. 上記評価実行工程では、上記顔映りの評価として、顔の明暗、表情および顔のシャープさのうち少なくとも一つの要素について評価を行なうことを特徴とする請求項1〜請求項3のいずれかに記載の画像評価方法。   4. The evaluation according to claim 1, wherein, in the evaluation execution step, as the evaluation of the facial appearance, an evaluation is performed on at least one element among facial contrast, facial expression, and facial sharpness. Image evaluation method. 上記評価実行工程では、上記顔向きの評価として、上記画像データが表す画像内において顔が向く方向に所定大きさの空間が存在するか否かの評価を行なうことを特徴とする請求項1〜請求項4のいずれかに記載の画像評価方法。   In the evaluation execution step, as the evaluation of the face orientation, it is evaluated whether or not a space of a predetermined size exists in a direction in which the face faces in the image represented by the image data. The image evaluation method according to claim 4. 上記評価実行工程では、上記不良条件の評価として、露出およびぼやけのうち少なくとも一つの要素について評価を行なうことを特徴とする請求項1〜請求項5のいずれかに記載の画像評価方法。   6. The image evaluation method according to claim 1, wherein, in the evaluation execution step, at least one element of exposure and blur is evaluated as the evaluation of the defect condition. コンピューターに画像評価を実行させる画像評価プログラムであって、
入力した画像データが表す画像内から顔画像を検出する顔検出機能と、
上記検出された顔画像の数が特定数以下であるか否か判定する顔数判定機能と、
上記顔画像の数が特定数以下であると判定された場合に、上記顔画像について、上記画像データ内における位置の評価と、顔映りの評価と、顔向きの評価と、所定の不良条件の評価とを行なうとともに、各評価結果に基づいた総合評価結果を算出し、総合評価結果を外部に出力する評価実行機能とを実行させることを特徴とする画像評価プログラム。
An image evaluation program for causing a computer to perform image evaluation,
A face detection function for detecting a face image from an image represented by input image data;
A face number determination function for determining whether the number of detected face images is equal to or less than a specific number;
When it is determined that the number of face images is equal to or less than a specific number, the position of the face image in the image data, the evaluation of the appearance of the face, the evaluation of the face direction, and predetermined defect conditions are determined. An image evaluation program characterized by performing an evaluation, calculating a comprehensive evaluation result based on each evaluation result, and executing an evaluation execution function for outputting the comprehensive evaluation result to the outside.
入力された画像データが表す画像内から顔画像を検出する顔検出部と、
上記検出された顔画像の数が特定数以下であるか否か判定する顔数判定部と、
上記顔画像の数が特定数以下であると判定された場合に、上記顔画像について、上記画像データ内における位置の評価と、顔映りの評価と、顔向きの評価と、所定の不良条件の評価とを行なうとともに、各評価結果に基づいた総合評価結果を算出し、総合評価結果を外部に出力する評価実行部とを備えることを特徴とする印刷装置。
A face detection unit that detects a face image from the image represented by the input image data;
A face number determination unit for determining whether or not the number of detected face images is equal to or less than a specific number;
When it is determined that the number of face images is equal to or less than a specific number, the position of the face image in the image data, the evaluation of the appearance of the face, the evaluation of the face direction, and predetermined defect conditions are determined. A printing apparatus comprising: an evaluation execution unit that performs evaluation and calculates a comprehensive evaluation result based on each evaluation result and outputs the comprehensive evaluation result to the outside.
JP2009068911A 2009-03-19 2009-03-19 Image evaluation method, image evaluation program and printing device Withdrawn JP2010224677A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009068911A JP2010224677A (en) 2009-03-19 2009-03-19 Image evaluation method, image evaluation program and printing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009068911A JP2010224677A (en) 2009-03-19 2009-03-19 Image evaluation method, image evaluation program and printing device

Publications (1)

Publication Number Publication Date
JP2010224677A true JP2010224677A (en) 2010-10-07

Family

ID=43041825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009068911A Withdrawn JP2010224677A (en) 2009-03-19 2009-03-19 Image evaluation method, image evaluation program and printing device

Country Status (1)

Country Link
JP (1) JP2010224677A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2639674A1 (en) * 2012-03-12 2013-09-18 Alcatel-Lucent Method for control of a video interface, method for operation of a video interace, face orientation detector, and video conferencing server
JP2014535108A (en) * 2011-10-28 2014-12-25 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Image reconstruction using face detection
JP2015215871A (en) * 2014-04-24 2015-12-03 本田技研工業株式会社 Object recognition device
JP7435052B2 (en) 2020-03-10 2024-02-21 大日本印刷株式会社 Photographed image evaluation system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259833A (en) * 1999-03-08 2000-09-22 Toshiba Corp Face image processor and processing method therefor
JP2001167253A (en) * 1999-12-10 2001-06-22 Fuji Photo Film Co Ltd Image pickup device for evaluating picked-up image and recording medium
JP2008083893A (en) * 2006-09-27 2008-04-10 Fujifilm Corp Image evaluation device and method, and program
JP2008141437A (en) * 2006-11-30 2008-06-19 Sony Corp Imaging apparatus, image processor, image processing method for them, and program to make computer execute its method
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation device, method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259833A (en) * 1999-03-08 2000-09-22 Toshiba Corp Face image processor and processing method therefor
JP2001167253A (en) * 1999-12-10 2001-06-22 Fuji Photo Film Co Ltd Image pickup device for evaluating picked-up image and recording medium
JP2008083893A (en) * 2006-09-27 2008-04-10 Fujifilm Corp Image evaluation device and method, and program
JP2008141437A (en) * 2006-11-30 2008-06-19 Sony Corp Imaging apparatus, image processor, image processing method for them, and program to make computer execute its method
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation device, method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014535108A (en) * 2011-10-28 2014-12-25 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Image reconstruction using face detection
EP2639674A1 (en) * 2012-03-12 2013-09-18 Alcatel-Lucent Method for control of a video interface, method for operation of a video interace, face orientation detector, and video conferencing server
JP2015215871A (en) * 2014-04-24 2015-12-03 本田技研工業株式会社 Object recognition device
JP7435052B2 (en) 2020-03-10 2024-02-21 大日本印刷株式会社 Photographed image evaluation system

Similar Documents

Publication Publication Date Title
US7599568B2 (en) Image processing method, apparatus, and program
JP6587421B2 (en) Information processing apparatus, information processing method, and program
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US7356254B2 (en) Image processing method, apparatus, and program
KR101688753B1 (en) Grouping related photographs
WO2005093660A2 (en) Correction of redeye in images of humans
CN108965742A (en) Abnormity screen display method, apparatus, electronic equipment and computer readable storage medium
JP2007096405A (en) Method, device and program for judging direction of camera shake
US20150003681A1 (en) Image processing apparatus and image processing method
EP2642446A2 (en) System and method of estimating page position
JP2005122721A (en) Image processing method, device, and program
US8170299B2 (en) Image output method, image output device, and image output program
JP2010224677A (en) Image evaluation method, image evaluation program and printing device
JP2006139369A (en) Image processing method and apparatus, and program
US10685490B2 (en) Information processing apparatus, information processing method, and storage medium
EP3309750A1 (en) Image processing apparatus and image processing method
WO2020151078A1 (en) Three-dimensional reconstruction method and apparatus
JP5650845B2 (en) Method and arrangement for identifying virtual visual information in an image
JP2012060468A (en) Imaging apparatus, image generating apparatus, image generating program and image generating method
JP2004252627A (en) Image processing method, image processor, storage medium, and program
Li et al. Guided selfies using models of portrait aesthetics
US10497103B2 (en) Information processing apparatus, information processing system, information processing method, and recording medium
JP2019032742A (en) Image processing device, image processing method, and program
JP2015156189A (en) image evaluation device, and image evaluation program
JP4683236B2 (en) Eye position detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20121128