JP2005141523A - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP2005141523A
JP2005141523A JP2003377776A JP2003377776A JP2005141523A JP 2005141523 A JP2005141523 A JP 2005141523A JP 2003377776 A JP2003377776 A JP 2003377776A JP 2003377776 A JP2003377776 A JP 2003377776A JP 2005141523 A JP2005141523 A JP 2005141523A
Authority
JP
Japan
Prior art keywords
image processing
face
image
processing method
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003377776A
Other languages
Japanese (ja)
Inventor
Toru Kawabe
徹 川邊
Shoichi Nomura
庄一 野村
Chizuko Ikeda
千鶴子 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2003377776A priority Critical patent/JP2005141523A/en
Publication of JP2005141523A publication Critical patent/JP2005141523A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To estimate the scene attributes of an image to process the image in a way that suits the scene attributes. <P>SOLUTION: This image processing method which records or displays images according to image data includes detecting face areas using a face detection means, creating image processing condition parameters according to the number of face areas detected, and processing images according to the image processing condition parameters. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、写真原画やデジタルカメラ等からの画像データに基づき画像を記録または表示する画像処理方法に関する。   The present invention relates to an image processing method for recording or displaying an image based on image data from a photographic original or a digital camera.

従来、写真フィルムを撮像して得られた画像データに基づき記録材料に画像を記録する場合に、記録する画像の品質を上げるために種々の画像処理が行われている。例えば、写真撮影された画像に対して撮影の際に入力された撮影情報により画質補正を行っている(例えば、特許文献1)。撮影情報としては、撮影距離情報、連続撮影情報、フラッシュの発光情報、シャッタスピード情報、被写体輝度情報などがあり、画質補正として、エッジ(輪郭)強調やコントラスト強調を行っている。   Conventionally, when an image is recorded on a recording material based on image data obtained by imaging a photographic film, various image processes have been performed to improve the quality of the recorded image. For example, the image quality correction is performed on the photographed image based on the photographing information input at the time of photographing (for example, Patent Document 1). The shooting information includes shooting distance information, continuous shooting information, flash emission information, shutter speed information, subject luminance information, and the like, and edge (contour) enhancement and contrast enhancement are performed as image quality correction.

また、画像データの顔画像エリアの大きさ、エリアの有無によって画像処理方法を変更するものがあり、顔サイズに応じて背景領域と対比させて顔領域の画像処理を調整する(例えば特許文献2)。
特開平7−159904号公報 特開平9−233423号公報
In addition, there is a method that changes the image processing method depending on the size of the face image area of the image data and the presence or absence of the area, and adjusts the image processing of the face area in comparison with the background area according to the face size (for example, Patent Document 2). ).
Japanese Unexamined Patent Publication No. 7-159904 JP-A-9-233423

このように、記録する画像の品質を上げるために種々の画像処理が行われ、また顔サイズに応じて背景領域と対比させて顔領域の画像処理を調整するが、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などに応じた画像処理はできなかった。   In this way, various image processing is performed to improve the quality of the image to be recorded, and the image processing of the face area is adjusted in comparison with the background area according to the face size. Image processing according to portraits, snapshots, group photos, etc. was not possible.

この発明は、かかる点に鑑みてなされたもので、画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能な画像処理方法を提供することを目的としている。   The present invention has been made in view of the above points, and an object thereof is to provide an image processing method capable of estimating a scene attribute of an image itself and performing image processing suitable for the scene attribute.

前記課題を解決し、かつ目的を達成するために、この発明は、以下のように構成した。   In order to solve the above-described problems and achieve the object, the present invention is configured as follows.

請求項1に記載の発明は、画像データに基づき画像を記録または表示する画像処理方法において、
顔検出手段によって顔領域を検出し、
前記検出された顔領域の数に応じて画像処理条件パラメータを生成し、
前記画像処理条件パラメータに基づいて画像処理することを特徴とする画像処理方法である。
The invention according to claim 1 is an image processing method for recording or displaying an image based on image data.
The face area is detected by the face detection means,
Generating image processing condition parameters according to the number of detected face regions;
An image processing method characterized in that image processing is performed based on the image processing condition parameter.

請求項2に記載の発明は、前記顔領域の数が多いほどエッジ強調の基準周波数より高い周波数成分の強調度合いを相対的に大きくすることを特徴とする請求項1に記載の画像処理方法である。   According to a second aspect of the present invention, in the image processing method according to the first aspect, the degree of enhancement of a frequency component higher than a reference frequency for edge enhancement is relatively increased as the number of the face regions is larger. is there.

請求項3に記載の発明は、前記顔領域の数が少ないほどエッジ強調の基準周波数より低い周波数成分の強調度合いを相対的に大きくすることを特徴とする請求項1に記載の画像処理方法である。   According to a third aspect of the present invention, in the image processing method according to the first aspect, the degree of enhancement of frequency components lower than the reference frequency of edge enhancement is relatively increased as the number of face regions is smaller. is there.

請求項4に記載の発明は、前記顔領域の数が多いほど平滑化処理の処理半径を小さくするか、平滑化処理を不適用とすることを特徴とする請求項1に記載の画像処理方法である。   4. The image processing method according to claim 1, wherein the larger the number of face regions, the smaller the radius of the smoothing process or the non-application of the smoothing process. It is.

請求項5に記載の発明は、前記顔領域の数が少ないほど平滑化処理の処理半径を大きくするか、平滑化の制限を緩くすることを特徴とする請求項1に記載の画像処理方法である。   The invention according to claim 5 is the image processing method according to claim 1, wherein as the number of the face regions is smaller, the processing radius of the smoothing process is increased or the restriction on the smoothing is loosened. is there.

請求項6に記載の発明は、前記顔領域の数が多いほど画像全体に階調コントラストを硬調側にシフトしたものを適用することを特徴とする請求項1に記載の画像処理方法である。   A sixth aspect of the present invention is the image processing method according to the first aspect, wherein the larger the number of the face regions, the more the image whose gradation contrast is shifted to the high contrast side is applied.

請求項7に記載の発明は、前記顔領域の数が少ないほど画像全体に階調コントラストを軟調側にシフトしたものを適用することを特徴とする請求項1に記載の画像処理方法である。   The invention according to claim 7 is the image processing method according to claim 1, wherein the smaller the number of the face regions, the more the image is applied with the gradation contrast shifted to the soft side.

請求項8に記載の発明は、前記顔領域の数が多いほど欠陥除去処理を弱めるか、欠陥除去処理を不適用とすることを特徴とする請求項1に記載の画像処理方法である。   The invention according to claim 8 is the image processing method according to claim 1, wherein the defect removal processing is weakened or the defect removal processing is not applied as the number of the face regions increases.

請求項9に記載の発明は、前記顔領域の数が少ないほど欠陥除去処理を大きくすることを特徴とする請求項1に記載の画像処理方法である。   The invention according to claim 9 is the image processing method according to claim 1, wherein the defect removal processing is increased as the number of the face regions is smaller.

請求項10に記載の発明は、前記顔領域の所定以下の小さいサイズの顔領域については、画像処理条件判断のための顔領域の数から除外することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理方法である。   According to a tenth aspect of the present invention, a face area having a smaller size than a predetermined one of the face areas is excluded from the number of face areas for determining image processing conditions. The image processing method according to any one of the above.

請求項11に記載の発明は、高周波数成分の乏しい顔領域については、画像処理条件判断のための前記顔領域の数からは除外することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理方法である。   The invention according to claim 11 is characterized in that a face area having a low high-frequency component is excluded from the number of face areas for image processing condition determination. The image processing method according to item 1.

請求項12に記載の発明は、前記顔領域の数と、1個あたり顔領域のサイズ情報の組み合わせにより、画像処理条件を変更することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理方法である。   According to a twelfth aspect of the present invention, an image processing condition is changed according to a combination of the number of the face areas and the size information of the face areas per one. The image processing method according to the item.

請求項13に記載の発明は、画像データに基づき画像を記録または表示する画像処理方法において、
顔検出手段によって顔領域を検出し、
前記検出された顔領域のうち、最大サイズの顔領域を選択し、
前記選択された顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、
前記画像処理条件パラメータに基づいて画像処理することを特徴とする画像処理方法である。
The invention according to claim 13 is an image processing method for recording or displaying an image based on image data.
The face area is detected by the face detection means,
Among the detected face areas, select the maximum size face area,
Generating an image processing condition parameter based on the size information of the selected face area;
An image processing method characterized in that image processing is performed based on the image processing condition parameter.

請求項14に記載の発明は、画像データに基づき画像を記録または表示する画像処理方法において、
顔検出手段によって顔領域を検出し、
前記検出した個々の顔領域のシャープネスを判定し、
前記シャープネスが所定レベル以上のものの中から最大サイズの顔領域を選択し、
前記選択した顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、
前記画像処理条件パラメータに基づいて画像処理することを特徴とする画像処理方法である。
The invention according to claim 14 is an image processing method for recording or displaying an image based on image data.
The face area is detected by the face detection means,
Determine the sharpness of each detected face area;
Select the face area of the maximum size from those whose sharpness is a predetermined level or higher,
Generating an image processing condition parameter based on the size information of the selected face area;
An image processing method characterized in that image processing is performed based on the image processing condition parameter.

前記構成により、この発明は、以下のような効果を有する。   With the above configuration, the present invention has the following effects.

請求項1に記載の発明では、検出された顔領域の数に応じて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理する。このように、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   According to the first aspect of the present invention, image processing condition parameters are generated according to the number of detected face regions, and image processing is performed based on the image processing condition parameters. In this way, it is possible to estimate scene attributes of images such as non-person photographs, ID photographs, portraits, snapshots, group photographs, etc., and perform image processing suitable for the scene attributes.

請求項2に記載の発明では、顔領域の数が多いほどエッジ強調の基準周波数より高い周波数成分の強調度合いを相対的に大きくし、集合写真などの画像自体のシーン属性を推定し、シーン属性に適したエッジ強調を行なうことが可能である。   In the invention according to claim 2, as the number of face regions increases, the degree of enhancement of a frequency component higher than the reference frequency for edge enhancement is relatively increased, the scene attribute of the image itself such as a group photo is estimated, and the scene attribute It is possible to perform edge enhancement suitable for.

請求項3に記載の発明では、顔領域の数が少ないほどエッジ強調の基準周波数より低い周波数成分の強調度合いを相対的に大きくし、非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適したエッジ強調を行なうことが可能である。   According to the third aspect of the present invention, the degree of emphasis of frequency components lower than the reference frequency for edge emphasis is relatively increased as the number of face regions is smaller, and images such as non-person photographs, ID photographs, portraits, snapshots, etc. It is possible to estimate the scene attribute of itself and perform edge enhancement suitable for the scene attribute.

請求項4に記載の発明では、顔領域の数が多いほど平滑化処理の処理半径を小さくするか、平滑化処理を不適用とし、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した平滑化処理を行なうことが可能である。   In the invention according to claim 4, as the number of face regions increases, the processing radius of the smoothing process is reduced or the smoothing process is not applied, the scene attribute of the image itself such as a group photo is estimated, and the scene attribute It is possible to perform a smoothing process suitable for the above.

請求項5に記載の発明では、顔領域の数が少ないほど平滑化処理の処理半径を大きくするか、平滑化の制限を緩くし、非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適した平滑化処理を行なうことが可能である。   In the invention described in claim 5, as the number of face regions is smaller, the processing radius of the smoothing process is increased or the restriction of smoothing is relaxed, and images such as non-person photos, ID photos, portraits, snapshots, etc. It is possible to estimate its own scene attribute and perform smoothing processing suitable for the scene attribute.

請求項6に記載の発明では、顔領域の数が多いほど画像全体に階調コントラストを硬調側にシフトしたものを適用し、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した階調コントラストの硬調を行なうことが可能である。   In the invention described in claim 6, as the number of face regions increases, the whole image is applied with the gradation contrast shifted to the high contrast side, and the scene attribute of the image itself such as a group photo is estimated, which is suitable for the scene attribute. It is possible to perform a high gradation contrast.

請求項7に記載の発明では、顔領域の数が少ないほど画像全体に階調コントラストを軟調側にシフトしたものを適用し、非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適した階調コントラストの軟調を行なうことが可能である。   In the invention described in claim 7, as the number of face regions is smaller, the whole image is applied with the gradation contrast shifted to the soft side, and the image itself such as a non-person photograph, ID photograph, portrait, snapshot, etc. is applied. It is possible to estimate the scene attribute and soften the gradation contrast suitable for the scene attribute.

請求項8に記載の発明では、顔領域の数が多いほど欠陥除去処理を弱めるか、欠陥除去処理を不適用とし、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した欠陥除去処理を行なうことが可能である。   In the invention described in claim 8, the defect removal processing is weakened as the number of face regions increases, or the defect removal processing is not applied, the scene attribute of the image itself such as a group photo is estimated, and the defect suitable for the scene attribute is obtained. A removal process can be performed.

請求項9に記載の発明では、顔領域の数が少ないほど欠陥除去処理を大きくし、非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適した欠陥除去処理を行なうことが可能である。   In the invention described in claim 9, the smaller the number of face regions, the larger the defect removal processing is, and the scene attributes of images such as non-person photos, ID photos, portraits, snapshots, etc. are estimated and suitable for the scene attributes. It is possible to perform defect removal processing.

請求項10に記載の発明では、顔領域の所定以下の小さいサイズの顔領域については、画像処理条件判断のための顔領域の数から除外し、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In the invention described in claim 10, a face area having a size smaller than a predetermined size of the face area is excluded from the number of face areas for determining the image processing condition, and the scene attribute of the image such as a group photo is estimated. It is possible to perform image processing suitable for the scene attribute.

請求項11に記載の発明では、高周波数成分の乏しい顔領域については、画像処理条件判断のための顔領域の数からは除外し、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In the invention described in claim 11, face regions with low high-frequency components are excluded from the number of face regions for determining image processing conditions, and non-person photos, ID photos, portraits, snapshots, group photos It is possible to estimate the scene attribute of the image itself and to perform image processing suitable for the scene attribute.

請求項12に記載の発明では、顔領域の数と、1個あたり顔領域のサイズ情報の組み合わせにより、画像処理条件を変更し、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In the invention described in claim 12, the image processing conditions are changed by combining the number of face areas and the size information of the face area per one, and non-person photograph, ID photograph, portrait, snapshot, group photograph, etc. It is possible to estimate the scene attribute of the image itself and perform image processing suitable for the scene attribute.

請求項13に記載の発明では、選択された顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理し、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In the invention described in claim 13, the image processing condition parameter is generated based on the size information of the selected face area, the image processing is performed based on the image processing condition parameter, and the non-person photograph, ID photograph, portrait, snap It is possible to estimate scene attributes of images such as photographs and group photographs, and perform image processing suitable for the scene attributes.

請求項14に記載の発明では、検出した個々の顔領域のシャープネスを判定し、シャープネスが所定レベル以上のものの中から最大サイズの顔領域を選択し、選択した顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理し、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In the invention described in claim 14, the sharpness of each detected face area is determined, the face area of the maximum size is selected from those having a sharpness of a predetermined level or higher, and the image is based on the size information of the selected face area. Generate processing condition parameters, perform image processing based on the image processing condition parameters, estimate scene attributes of images such as non-person photos, ID photos, portraits, snapshots, group photos, etc., and images suitable for the scene attributes Processing can be performed.

以下、この発明の画像処理方法の実施の形態について説明するが、この発明は、この実施の形態に限定されない。また、この発明の実施の形態は、発明の最も好ましい形態を示すものであり、この発明の用語はこれに限定されない。   Hereinafter, although an embodiment of an image processing method of the present invention will be described, the present invention is not limited to this embodiment. The embodiment of the present invention shows the most preferable mode of the present invention, and the terminology of the present invention is not limited to this.

図1は画像データに基づき記録材料に画像を記録する画像記録システムの概略構成図、図2は原画像を示す図、図3は画像処理を示すフローチャートである。 この実施の形態の画像記録システム1は、原画像2から画像データを得るスキャナ3、画像処理を行なう画像処理装置4、画像記録を行なうプリンタ5を備える。この実施の形態では、プリンタ5を備え、画像データに基づき記録材料に画像記録するものであるが、記憶媒体・装置などに画像を記録するものでも、または表示デバイスに表示するものでもよい。   FIG. 1 is a schematic configuration diagram of an image recording system for recording an image on a recording material based on image data, FIG. 2 is a diagram showing an original image, and FIG. 3 is a flowchart showing image processing. The image recording system 1 of this embodiment includes a scanner 3 that obtains image data from an original image 2, an image processing device 4 that performs image processing, and a printer 5 that performs image recording. In this embodiment, the printer 5 is provided, and an image is recorded on a recording material based on the image data. However, the image may be recorded on a storage medium / device or displayed on a display device.

画像データを得る手段はスキャナ3に限定されず、CCDカメラ、デジタルカメラ等からの画像データでもよい。画像処理装置4は、パーソナルコンピュータ等で構成され、例えば、図2に示すようなスナップ写真の原画像2の画像データに基づき記録材料に画像を記録する画像処理を行なう。   The means for obtaining the image data is not limited to the scanner 3 and may be image data from a CCD camera, a digital camera or the like. The image processing apparatus 4 is configured by a personal computer or the like, and performs image processing for recording an image on a recording material based on, for example, image data of an original image 2 of a snapshot as shown in FIG.

原画像2としては、図2に限定されず、非人物写真、証明写真、ポートレート、集合写真などがある。図2(a〜d)は4枚のスナップ写真の原画像2であり、それぞれ人物の人数が異なっている例を示している。   The original image 2 is not limited to FIG. 2, but includes a non-person photograph, an ID photograph, a portrait, a group photograph, and the like. FIGS. 2A to 2D show original images 2 of four snap photographs, and show examples in which the number of persons is different.

この画像処理装置4は、図3に示すような処理を行なう。ステップs1において、原画像2から画像データを得て、この画像データから顔検出手段によって顔領域を検出する(ステップs2)。   The image processing apparatus 4 performs processing as shown in FIG. In step s1, image data is obtained from the original image 2, and a face area is detected from the image data by face detection means (step s2).

顔領域がない場合は、カラーマネージメントの処理を行ない(ステップs3)、さらに鮮鋭性強調、ノイズ除去、欠陥除去などの画像処理を行ない(ステップs4)、出力画像を得る(ステップs5)。   If there is no face area, color management processing is performed (step s3), image processing such as sharpness enhancement, noise removal, and defect removal is performed (step s4), and an output image is obtained (step s5).

顔領域がある場合は、検出された顔領域の数に応じ(ステップs6)、画像処理条件パラメータを生成する(ステップs7)。この画像処理条件パラメータに基づいて、カラーマネージメントの処理を行ない(ステップs3)、さらに鮮鋭性強調、コントラスト調整、ノイズ除去、欠陥除去、エッジ強調、平滑化処理などの画像処理を行ない(ステップs4)、出力画像を得る(ステップs5)。   If there is a face area, an image processing condition parameter is generated (step s7) according to the number of detected face areas (step s6). Based on the image processing condition parameters, color management processing is performed (step s3), and image processing such as sharpness enhancement, contrast adjustment, noise removal, defect removal, edge enhancement, and smoothing processing is performed (step s4). An output image is obtained (step s5).

この顔領域を検出としては、彩度や色相値、明度といった色値を、単独あるいは組み合わせて利用し、特定色がおおよそ連続する領域を顔領域とする手法や、画像からハフ変換等の手法を用いエッジを抽出するなどして特定の形状パターンを抽出する方法、テンプレートマッチングによる構造物抽出法、またはこれらを組み合わせた手法など、当業界で知られる公知公用の手法を採用することができる。   For detecting this face area, color values such as saturation, hue value, and lightness are used alone or in combination, and a method in which an area in which a specific color is approximately continuous is used as a face area, or a technique such as Hough transform from an image is used. Known publicly known methods known in the art such as a method of extracting a specific shape pattern by extracting an edge to be used, a structure extraction method by template matching, or a combination of these can be employed.

具体的には、特開昭52−156624号公報に2次元または3次元の色座標上に、予め定めた色領域に含まれる測定点を肌色と定義し、肌色と判断した測定点の数が13個以上ある場合に、画像中に肌色があると判定する手法、特開平4−346332号公報に元画像を画像を多数画素に分割し、各画素のBGR値から色相値と彩度値のヒストグラムを作成し、その形状からヒストグラムを分割、分割した各部位に相当する各画素で構成される領域に画像を分割し、左記複数の領域から顔に相当する領域を推定する手法、特開平6−309433号公報、特開平6−67320号公報、特開平5−158164号公報及び特開平5−165120号公報に色相値、彩度値、輝度値などのヒストグラムに基づい
て肌色領域を決定し、この肌色領域を顔領域とする方法、特開平9−138471号公報に探索範囲内のエッジ強度を比較し輪郭抽出を行う手法、画像中の複数点の濃度または輝度を測定してその変化量を求め、変化量が所定値以上の点を基準点として設定した後に、基準点から所定範囲内で濃度等の変化量等を用いて検索範囲および検索方向パターンを設定し、検索範囲内で検索方向パターンが示す方向における濃度等の変化量が所定値以上の箇所を検索して、次いでこの箇所を基準として検索を行うことを繰り返し、検索・設定した基準点を結んで特定箇所を抽出する方法が例示される。
Specifically, Japanese Patent Application Laid-Open No. 52-156624 discloses that a measurement point included in a predetermined color region is defined as a skin color on two-dimensional or three-dimensional color coordinates, and the number of measurement points determined to be a skin color. A method for determining that there is a flesh color in an image when there are 13 or more, Japanese Patent Application Laid-Open No. 4-346332 divides the original image into a number of pixels, and calculates the hue value and saturation value from the BGR value of each pixel. A method of creating a histogram, dividing the histogram from its shape, dividing an image into regions composed of pixels corresponding to the divided parts, and estimating a region corresponding to a face from the plurality of regions on the left, -309433, JP-A-6-67320, JP-A-5-158164, and JP-A-5-165120 determine skin color regions based on histograms such as hue value, saturation value, and luminance value, This skin color A method of making a region a face region, Japanese Patent Application Laid-Open No. 9-138471, a method of extracting contours by comparing edge strengths within a search range, measuring the density or luminance of a plurality of points in an image, and determining the amount of change, After setting a point where the amount of change is equal to or greater than a predetermined value as a reference point, a search range and a search direction pattern are set using a change amount such as density within a predetermined range from the reference point, and the search direction pattern is set within the search range. A method is illustrated in which a location where the amount of change in concentration or the like in the indicated direction is greater than or equal to a predetermined value is searched, and then the search is repeated using this location as a reference, and a specific location is extracted by connecting the searched and set reference points. The

また、特開平9−101579号公報に肌色領域を抽出し、非エッジ部分の領域を抽出し顔領域とする手法、特開平11−316845号公報に部分パーツを抽出し、合成して主要被写体候補とし判定する手法、特開平9−138470号公報に個々に重み係数を設定した複数の抽出方法の結果を、前記重み係数により重み付けした結果に基づいて顔に相当する領域である確率の高い領域を顔領域として抽出する手法、特開平8−63597号公報に複数の顔テンプレートを用意し、この顔テンプレートと画像とのテンプレートマッチングを行って顔領域候補を抽出した後に、顔領域候補内における肌色の分布に基づいて顔領域を抽出する方法、特開平8−184925に画像に2値化等の処理を施して複数の領域に分割、該複数の領域から顔に相当する領域である確率が最も高い領域を抽出する手法、特開平5−210739号公報、特開平5−274438号公報、特開平5−274439号公報、特開平5−307537号公報、特開平5−307605号公報、特開平5−282457号公報、特開平6−214970号公報、特開平6−309457号公報、特開平7−234856号公報、特開平8−87589号公報にニューラルネットワークにより顔領域を抽出する方法、特開平8−221567号公報、特開2000−20694号公報、特開2000−32272号公報、特開2000−201358号公報、特開2000−207569号公報にラインプロセス法を用いた手法等々の手法があるが、これは一例であり、これに限定するものではない。   In addition, a method for extracting a skin color area and extracting a non-edge part area as a face area in JP-A-9-101579, and extracting a partial part in JP-A-11-316845 and combining them into main subject candidates A region having a high probability of being a region corresponding to a face based on a result obtained by weighting the results of a plurality of extraction methods in which weighting factors are individually set in Japanese Patent Application Laid-Open No. 9-138470. A method for extracting as a face area, Japanese Patent Laid-Open No. 8-63597, prepares a plurality of face templates, performs template matching between the face template and an image, extracts face area candidates, and then determines the skin color in the face area candidates. A method of extracting a face region based on a distribution, and dividing the image into a plurality of regions by subjecting an image to binarization or the like in JP-A-8-184925, and dividing from the plurality of regions , A method for extracting a region having the highest probability, a method disclosed in Japanese Patent Laid-Open Nos. 5-210739, 5-274438, 5-274439, 5-307537, and Japanese Laid-Open Patent Publication Nos. 5-307605, 5-282457, 6-214970, 6-309457, 7-234856, and 8-87589 are arranged by a neural network. The line process method is disclosed in Japanese Patent Application Laid-Open Nos. 8-221567, 2000-20694, 2000-32272, 2000-201358, and 2000-20769. Although there are methods such as the method used, this is an example and the present invention is not limited to this.

また、上記手法の他にも、モニタ上で、マウスやライトペンなどを用いて、オペレータが手動で顔領域を指定することで顔領域を抽出してもよく、これを補助手段として、上記に挙げた抽出方法と併用してもよい。   In addition to the above method, the face area may be extracted by manually specifying the face area on the monitor by using a mouse, a light pen, or the like. You may use together with the extraction method mentioned.

また、カラーマネージメントの処理は、複数のデバイスにおいて共通の色空間を用いてカラー画像を表現することにより、デバイス毎に画像の色が異なって見えるのを回避するものである。即ち、ある色空間において同じ座標値で表される2色は、人間の目で同じ色に見えるという基本概念に基づいて、画像内の全ての色を一つの色空間で表現することにより、デバイス毎における画像の色の見え方を一致させようとしている。カラーマネジメントは、その色空間としてXYZ三しきい値を用いることによって、デバイス毎の色の見え方の違いを補正する方法等が、特開2003−250055号公報等に提案されている。   Also, the color management process is to avoid color images appearing differently for each device by expressing a color image using a common color space in a plurality of devices. That is, based on the basic concept that two colors represented by the same coordinate value in a certain color space look the same color to the human eye, all colors in the image are expressed in one color space, thereby It tries to match the appearance of the color of the image. For color management, a method of correcting differences in color appearance for each device by using XYZ three threshold values as the color space is proposed in Japanese Patent Laid-Open No. 2003-250055.

また、画像処理条件パラメータに基づく画像処理として、鮮鋭性強調、コントラスト調整、ノイズ除去、欠陥除去、エッジ強調、平滑化処理などである。   The image processing based on the image processing condition parameters includes sharpness enhancement, contrast adjustment, noise removal, defect removal, edge enhancement, smoothing processing, and the like.

鮮鋭性強調処理は、画質低下の一つの原因である”ぼけ”を除去し、画像を鮮明にするための方法として画像の鮮鋭化を行なう処理である。画像のぼけは、低い空間周波数成分に比べ高い空間周波数成分が弱められることによって生じる。その影響は濃度の一様な領域の境界部分(エッジ)に現れる。したがってぼけを取り除くには、高い空間周波数成分を強調する処理が行なわれ、画像空間における高域強調フィルタが用いられる。   The sharpness enhancement process is a process of sharpening an image as a method for removing “blur” which is one cause of image quality deterioration and making the image clear. The image blur is caused by the high spatial frequency component being weakened compared to the low spatial frequency component. The effect appears at the boundary portion (edge) of the uniform density region. Therefore, in order to remove the blur, processing for enhancing high spatial frequency components is performed, and a high frequency enhancement filter in the image space is used.

この鮮鋭性強調処理として、例えば、図4に示すように、3×3または5×5サイズの空間フィルタによる畳み込み演算を行なうことができる。   As the sharpness enhancement processing, for example, as shown in FIG. 4, a convolution operation using a 3 × 3 or 5 × 5 size spatial filter can be performed.

図4(a)に3×3サイズの特に高周波数成分を強調するマスクの例を示し、強調度合いはkの値にて調整している。また、図4(b)に特に低周波数成分を強調するマスクの例を示し、強調度合いはkの値にて調整している。   FIG. 4A shows an example of a mask for emphasizing particularly high frequency components of 3 × 3 size, and the degree of emphasis is adjusted by the value of k. FIG. 4B shows an example of a mask that particularly emphasizes low frequency components, and the degree of enhancement is adjusted by the value of k.

コントラスト調整処理は、例えば濃度階調変換によりコントラストを増加させることができる。また、コントラストの強調の方法には、画像の濃度値を色に対応させる方法があり、例えば低い値は赤色に、これより高い値は橙色に、さらに高い値は黄色に対応させることで、画像の細部の視認性を向上させることができる等株式会社近代科学社発行の「ディジタル画像処理」に記載の手法がある。また、プレーンの2色間のコントラスト差が一番大きいかを判定し、そのプレーンで2色整形を行なうように制御する特開平8−96141号公報等の手法があるが、これは一例であり、これに限定するものではない。   In contrast adjustment processing, for example, contrast can be increased by density gradation conversion. Further, as a contrast enhancement method, there is a method in which the density value of an image corresponds to a color. For example, a lower value corresponds to red, a higher value corresponds to orange, and a higher value corresponds to yellow. There is a technique described in “Digital Image Processing” published by Modern Science Co., Ltd., and the like. Further, there is a method such as Japanese Patent Laid-Open No. 8-96141 that determines whether the contrast difference between two colors of a plane is the largest and controls to perform two-color shaping on the plane, but this is an example. However, the present invention is not limited to this.

ノイズ除去処理は、ε−フィルタを用い、隣接画素データとの差分情報などにより、その画素がエッジ部分かどうか判定する。エッジ部分と判定した場合、もとの画像データをそのまま採用する。非エッジ部分と判定した場合、隣接画素との平均値を改めて画像データとして採用する。判定上条件の調整や、平均対象領域の半径の調整によりノイズ除去強度が調整できる。   The noise removal process uses an ε-filter and determines whether or not the pixel is an edge part based on difference information from adjacent pixel data. If it is determined to be an edge portion, the original image data is used as it is. When it is determined as a non-edge portion, an average value with adjacent pixels is newly adopted as image data. The noise removal intensity can be adjusted by adjusting the conditions for determination and adjusting the radius of the average target area.

欠陥除去処理は、赤外線照射時の応答情報により、その画素が何らかの欠陥(傷、埃、指紋などの付着による画像障害)かどうかを判定し、その欠陥度合いに応じて画像情報を修正する。   In the defect removal processing, it is determined whether or not the pixel is any defect (image failure due to adhesion of scratches, dust, fingerprints, etc.) based on the response information at the time of infrared irradiation, and the image information is corrected according to the degree of the defect.

エッジ強調処理は、エッジ領域と判定された画素には画像データのエッジ部を画像の外側に若干、膨張させたり、鮮明にさせたりする特開平5−307603号公報等の手法があるが、これは一例であり、これに限定するものではない。   For the edge enhancement processing, there is a technique such as Japanese Patent Laid-Open No. 5-307603 which slightly expands or sharpens the edge portion of the image data to the outside of the image for the pixel determined as the edge region. Is an example and the present invention is not limited to this.

平滑化処理は、ぼけを生じさせることなく平滑化する方法を用いることが好ましい。また、画像におけるノイズの存在する位置がわかっているときや、画像中のノイズとその他の部分とを区別できるときには、ノイズの部分の濃度値を近傍の平均濃度で置き換えることによってノイズを除去する。また、画像中のノイズとその他の部分とを区別しないで平均化操作によってノイズを弱める方法等もある。また、弱強調並びに特定周波数領域においてフラットな特性を有するフィルタ−を用いて平滑化処理を行う特開平8−18777号公報等の手法があるが、これは一例であり、これに限定するものではない。   The smoothing process preferably uses a method of smoothing without causing blur. Further, when the position where the noise exists in the image is known, or when the noise in the image can be distinguished from other portions, the noise is removed by replacing the density value of the noise portion with the average density in the vicinity. In addition, there is a method of weakening noise by an averaging operation without distinguishing between noise and other parts in an image. Further, there is a technique such as Japanese Patent Laid-Open No. 8-18777 which performs smoothing processing using a filter having a weak enhancement and a flat characteristic in a specific frequency region, but this is an example, and the present invention is not limited to this. Absent.

この実施の形態では、顔検出手段によって顔領域を検出し、検出された顔領域の数に応じて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理することで、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In this embodiment, a face area is detected by a face detection unit, an image processing condition parameter is generated according to the number of detected face areas, and image processing is performed based on the image processing condition parameter. It is possible to estimate scene attributes of images such as ID photos, portraits, snapshots, and group photos, and perform image processing suitable for the scene attributes.

この画像処理条件パラメータに基づく画像処理は、以下のように行なう。   Image processing based on this image processing condition parameter is performed as follows.

エッジ強調については、例えば図2(c)、(d)のように、顔領域の数が多いほど、エッジ強調の基準周波数より高い周波数成分の強調度合いを相対的に大きくする。顔領域の数から集合写真などの画像自体のシーン属性を推定し、シーン属性に適したエッジ強調を行なうことが可能である。   As for edge enhancement, for example, as shown in FIGS. 2C and 2D, the degree of enhancement of frequency components higher than the reference frequency for edge enhancement is relatively increased as the number of face regions increases. It is possible to estimate a scene attribute of an image itself such as a group photo from the number of face areas and perform edge enhancement suitable for the scene attribute.

また、例えば図2(a)、(b)のように、顔領域の数が少ないほど、エッジ強調の基準周波数より低い周波数成分の強調度合いを相対的に大きくする。顔領域の数から非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適したエッジ強調を行なうことが可能である。   For example, as shown in FIGS. 2A and 2B, the degree of enhancement of frequency components lower than the reference frequency for edge enhancement is relatively increased as the number of face regions is smaller. It is possible to estimate the scene attribute of the image itself such as a non-person photograph, ID photo, portrait, snapshot, etc. from the number of face areas, and perform edge enhancement suitable for the scene attribute.

平滑化処理については、例えば図2(c)、(d)のように、顔領域の数が多いほど、平滑化処理の処理半径を小さくするか、平滑化処理を不適用とする。顔領域の数から集合写真などの画像自体のシーン属性を推定し、シーン属性に適した平滑化処理を行なうことが可能である。   As for the smoothing process, as shown in FIGS. 2C and 2D, for example, the larger the number of face regions, the smaller the process radius of the smoothing process or the non-application of the smoothing process. It is possible to estimate a scene attribute of an image itself such as a group photo from the number of face areas and perform smoothing processing suitable for the scene attribute.

また、例えば図2(a)、(b)のように、顔領域の数が少ないほど平滑化処理の処理半径を大きくするか、平滑化の制限を緩くする。顔領域の数から非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適した平滑化処理を行なうことが可能である。   Further, for example, as shown in FIGS. 2A and 2B, the smaller the number of face regions, the larger the radius of the smoothing process, or the smoothing restriction is relaxed. It is possible to estimate a scene attribute of an image itself such as a non-person photograph, an identification photograph, a portrait, a snapshot, etc. from the number of face areas, and perform a smoothing process suitable for the scene attribute.

階調コントラストについては、例えば図2(c)、(d)のように、顔領域の数が多いほど画像全体に階調コントラストを硬調側にシフトしたものを適用する。顔領域の数から集合写真などの顔領域の数が多いほど画像全体に階調コントラストを硬調側にシフトしたものを適用し、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した階調コントラストの硬調を行なうことが可能である。   As for the gradation contrast, for example, as shown in FIGS. 2C and 2D, the gradation contrast is shifted toward the high contrast side as the number of face regions increases. The larger the number of face areas, such as a group photo, from the number of face areas, the more the gradation contrast is shifted to the whole image is applied to the entire image, the scene attribute of the group photo or other image itself is estimated, and the more suitable for the scene attribute It is possible to perform a high gradation contrast.

また、例えば図2(a)、(b)のように、顔領域の数が少ないほど画像全体に階調コントラストを軟調側にシフトしたものを適用する。顔領域の数から非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適した階調コントラストの軟調を行なうことが可能である。   For example, as shown in FIGS. 2A and 2B, the smaller the number of face regions, the more the gradation contrast is shifted toward the soft side for the entire image. It is possible to estimate a scene attribute of an image itself such as a non-person photograph, an identification photograph, a portrait, a snap photograph, and the like from the number of face areas, and to perform gradation contrast softness suitable for the scene attribute.

欠陥除去処理については、例えば図2(c)、(d)のように、顔領域の数が多いほど欠陥除去処理を弱めるか、欠陥除去処理を不適用とする。顔領域の数から集合写真などの画像自体のシーン属性を推定し、シーン属性に適した欠陥除去処理を行なうことが可能である。   As for the defect removal processing, for example, as shown in FIGS. 2C and 2D, the defect removal processing is weakened or the defect removal processing is not applied as the number of face regions increases. It is possible to estimate a scene attribute of an image itself such as a group photo from the number of face areas and perform defect removal processing suitable for the scene attribute.

また、例えば図2(a)、(b)のように、顔領域の数が少ないほど欠陥除去処理を大きくする。顔領域の数から非人物写真、証明写真、ポートレート、スナップ写真などの画像自体のシーン属性を推定し、シーン属性に適した欠陥除去処理を行なうことが可能である。   For example, as shown in FIGS. 2A and 2B, the smaller the number of face regions, the larger the defect removal processing. It is possible to estimate a scene attribute of an image itself such as a non-person photograph, an identification photograph, a portrait, a snapshot, etc. from the number of face areas, and perform defect removal processing suitable for the scene attribute.

このような画像処理の実施例を図5に示す。   An example of such image processing is shown in FIG.

この実施例で、検出された顔領域の数が0の場合の画像処理は、鮮鋭性強調度を強(高周波数強調)、コントラスト調整を硬調、ノイズ除去と欠陥除去は適用しなかった。この画像処理を条件No.6とした。非人物写真、例えば風景写真等の場合、鮮鋭性があり、かつコントラストの強い画像が得られた。   In this example, the image processing in the case where the number of detected face regions is 0, the sharpness enhancement degree is strong (high frequency enhancement), the contrast adjustment is high, and noise removal and defect removal are not applied. This image processing is performed under condition no. It was set to 6. In the case of a non-person photograph, such as a landscape photograph, an image having sharpness and high contrast was obtained.

検出された顔領域の数が1の場合の画像処理は、鮮鋭性強調度を弱(低周波数強調)、コントラスト調整を軟調、ノイズ除去を強、欠陥除去を強とした。この画像処理を条件No.1とした。1人の証明写真、ポートレートの場合、鮮鋭性が弱く、顔の部分でコントラストが強く、しかも傷やゴミ等のない画像が得られた。   In the image processing when the number of detected face regions is 1, the sharpness enhancement degree is weak (low frequency enhancement), the contrast adjustment is soft, the noise removal is strong, and the defect removal is strong. This image processing is performed under condition no. It was set to 1. In the case of one person's ID photo and portrait, an image with low sharpness, high contrast at the face, and no scratches or dust was obtained.

検出された顔領域の数が2〜3の場合の画像処理は、鮮鋭性強調度を弱〜中(低周波数強調)、コントラスト調整を適用しない、ノイズ除去を中、欠陥除去を標準とした。この画像処理を条件No.2とした。2〜3人のスナップ写真などの場合、鮮鋭性がやや弱く、しかも特に目につく傷やゴミ等をなくした画像が得られた。   In the image processing when the number of detected face regions is 2 to 3, the sharpness enhancement degree is weak to medium (low frequency enhancement), contrast adjustment is not applied, noise removal is middle, and defect removal is standard. This image processing is performed under condition no. 2. In the case of a snapshot of 2 to 3 people, the sharpness was slightly weak, and an image with no noticeable scratches or dust was obtained.

検出された顔領域の数が4〜7の場合の画像処理は、鮮鋭性強調度を中(低周波数強調)、コントラスト調整を適用しない、ノイズ除去を中、欠陥除去を標準とした。この画像処理を条件No.3とした。4〜7人の集合写真などの場合、鮮鋭性が弱く、しかも特に目につく傷やゴミ等をなくした画像が得られた。   In the image processing when the number of detected face regions is 4 to 7, the sharpness enhancement degree is medium (low frequency enhancement), contrast adjustment is not applied, noise removal is middle, and defect removal is standard. This image processing is performed under condition no. It was set to 3. In the case of a group photo of 4 to 7 people, the sharpness was weak and an image with no noticeable scratches or dust was obtained.

検出された顔領域の数が8〜15の場合の画像処理は、鮮鋭性強調度を中〜強(高周波数強調)、コントラスト調整を適用しない、ノイズ除去を弱、欠陥除去を弱とした。この画像処理を条件No.4とした。8〜15人の集合写真などの場合、人数が多くなる分鮮鋭性が強くし、しかも特に目につく傷やゴミ等をなくした画像が得られた。   In the image processing when the number of detected face regions is 8 to 15, the sharpness enhancement degree is medium to strong (high frequency enhancement), contrast adjustment is not applied, noise removal is weak, and defect removal is weak. This image processing is performed under condition no. It was set to 4. In the case of a group photo of 8 to 15 people, the sharpness increased as the number of people increased, and an image without particularly noticeable scratches or dust was obtained.

検出された顔領域の数が16〜の場合の画像処理は、鮮鋭性強調度を強(高周波数強調)、コントラスト調整を硬調、ノイズ除去を弱、欠陥除去を弱とした。この画像処理を条件No.5とした。16人〜の集合写真などの場合、人数がさらに多くなる分鮮鋭性が強くし、しかも特に目につく傷やゴミ等をなくした画像が得られた。   In the image processing when the number of detected face regions is 16 to 16, the sharpness enhancement degree is strong (high frequency enhancement), the contrast adjustment is hard, the noise removal is weak, and the defect removal is weak. This image processing is performed under condition no. It was set to 5. In the case of a group photo of 16 people or more, an image with enhanced sharpness as the number of people increased, and particularly without noticeable scratches or dust was obtained.

また、画像処理条件パラメータに基づく画像処理において、顔領域の所定以下の小さいサイズの顔領域については、画像処理条件判断のための顔領域の数から除外する。例えば、大人と子供の集合写真の場合等では、子供の顔領域の所定以下の小さいサイズであり、この顔領域については、画像処理条件判断のための顔領域の数から除外することで、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In the image processing based on the image processing condition parameter, a face area having a smaller size than a predetermined face area is excluded from the number of face areas for image processing condition determination. For example, in the case of a group photo of an adult and a child, the size of the child's face area is smaller than a predetermined size, and this face area is excluded from the number of face areas for image processing condition determination. It is possible to estimate a scene attribute of an image such as a photograph and perform image processing suitable for the scene attribute.

また、高周波数成分の乏しい顔領域については、画像処理条件判断のための前記顔領域の数からは除外する。この高周波数成分の乏しい顔領域は、ぼけた領域であり、このようにぼけた部分については、画像処理条件判断のための顔領域の数からは除外することで、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In addition, face areas with low high-frequency components are excluded from the number of face areas for image processing condition determination. This face area with a low high-frequency component is a blurred area, and by excluding such a blurred part from the number of face areas for image processing condition determination, non-person photos, ID photos, It is possible to estimate scene attributes of images such as portraits, snapshots, and group photos, and to perform image processing suitable for the scene attributes.

また、顔領域の数と、1個あたり顔領域のサイズ情報の組み合わせにより、画像処理条件を変更することで、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   Also, by changing the image processing conditions depending on the number of face areas and the size information of each face area, scenes of images such as non-person photos, ID photos, portraits, snapshots, group photos, etc. It is possible to estimate the attribute and perform image processing suitable for the scene attribute.

このような画像処理の実施例を図6に示す。   An example of such image processing is shown in FIG.

この実施例で、検出された顔領域の数が0の場合の画像処理は、顔の大きさ基準×1/4以下、顔の大きさ基準×1/4〜1/2、顔の大きさ基準×1/2〜1、顔の大きさ基準×1〜2、顔の大きさ基準×2〜4、顔の大きさ基準×4以上とも図5に示す条件No.6によって処理した。非人物写真、例えば風景写真等の場合、顔の大きさの大きさに関係なく画像処理を行ない、鮮鋭性があり、かつコントラストの強い画像が得られた。   In this embodiment, when the number of detected face areas is 0, the image processing is as follows: face size reference × 1/4 or less, face size reference × 1/4 to 1/2, face size Reference Nos. 1/2 to 1, face size standards x 1 to 2, face size standards x 2 to 4, and face size standards x 4 or more are shown in condition No. 1 shown in FIG. 6 was processed. In the case of a non-person photograph, such as a landscape photograph, image processing was performed regardless of the size of the face, and an image having sharpness and high contrast was obtained.

検出された顔領域の数が1の場合の画像処理は、顔の大きさ基準×1/4以下の場合は図5に示す条件No.3によって処理し、顔の大きさ基準×1/4〜1/2と顔の大きさ基準×1/2〜1の場合は図5に示す条件No.2によって処理し、顔の大きさ基準×1〜2、顔の大きさ基準×2〜4、顔の大きさ基準×4以上の場合は図5に示す条件No.1によって処理した。   The image processing when the number of detected face areas is 1 is the condition No. shown in FIG. 3 in the case of the face size reference × 1/4 to 1/2 and the face size reference × 1/2 to 1, the condition No. 3 shown in FIG. 2, if the face size criterion is 1 to 2, the face size criterion is 2 to 4, and the face size criterion is 4 or more, the condition No. 2 shown in FIG. Processed by 1.

検出された顔領域の数が2〜3の場合の画像処理は、顔の大きさ基準×1/4以下、顔の大きさ基準×1/4〜1/2、顔の大きさ基準×1/2〜1の場合は図5に示す条件No.3によって処理し、顔の大きさ基準×1〜2、顔の大きさ基準×2〜4の場合は図5に示す条件No.3によって処理し、顔の大きさ基準×4以上の場合は図5に示す条件No.1によって処理した。   Image processing when the number of detected face regions is 2 to 3 is as follows: face size reference × 1/4 or less, face size reference × 1/4 to 1/2, face size reference × 1 / 2 to 1, the condition No. shown in FIG. 3 in the case of face size standards x 1 to 2 and face size standards x 2 to 4, condition No. 3 shown in FIG. 3 is processed, and if the face size standard x 4 or more, the condition No. 3 shown in FIG. Processed by 1.

検出された顔領域の数が4〜7の場合の画像処理は、顔の大きさ基準×1/4以下、顔の大きさ基準×1/4〜1/2の場合は図5に示す条件No.4によって処理し、顔の大きさ基準×1/2〜1、顔の大きさ基準×1〜2、顔の大きさ基準×2〜4の場合は図5に示す条件No.3によって処理し、顔の大きさ基準×4以上の場合は図5に示す条件No.2によって処理した。   The image processing when the number of detected face areas is 4 to 7 is the condition shown in FIG. 5 when the face size reference is ¼ or less, and when the face size reference is ¼ to 1/2. No. 4 in the case of the face size reference × 1 / 2˜1, the face size reference × 1-2, and the face size reference × 2-4, the condition No. 4 shown in FIG. 3 is processed, and if the face size standard x 4 or more, the condition No. 3 shown in FIG. Processed by 2.

検出された顔領域の数が8〜15の場合の画像処理は、顔の大きさ基準×1/4以下、顔の大きさ基準×1/4〜1/2、顔の大きさ基準×1/2〜1の場合は図5に示す条件No.4によって処理し、顔の大きさ基準×1〜2、顔の大きさ基準×2〜4の場合は図5に示す条件No.3によって処理し、顔の大きさ基準×4以上の場合は図5に示す条件No.2によって処理した。   Image processing when the number of detected face areas is 8 to 15 is as follows: face size reference × 1/4 or less, face size reference × 1/4 to 1/2, face size reference × 1 / 2 to 1, the condition No. shown in FIG. 4 in the case of face size standards x 1 to 2 and face size standards x 2 to 4, condition no. 3 is processed, and if the face size standard x 4 or more, the condition No. 3 shown in FIG. Processed by 2.

検出された顔領域の数が16〜の場合の画像処理は、顔の大きさ基準×1/4以下、顔の大きさ基準×1/4〜1/2の場合は図5に示す条件No.5によって処理し、顔の大きさ基準×1/2〜1、顔の大きさ基準×1〜2の場合は図5に示す条件No.4によって処理し、顔の大きさ基準×2〜4、顔の大きさ基準×4以上の場合は図5に示す条件No.3によって処理した。   The image processing when the number of detected face areas is 16 to is the condition number shown in FIG. 5 when the face size reference is ¼ or less, and when the face size reference is ¼ to 1/2. . 5, and in the case of the face size reference × 1/2 to 1 and the face size reference × 1 to 2, the condition No. 5 shown in FIG. 4, when the face size standard x 2 to 4 and the face size standard x 4 or more, the condition No. 4 shown in FIG. Processed by 3.

この実施の形態では、顔検出手段によって顔領域を検出し、検出された顔領域のうち、最大サイズの顔領域を選択し、選択された顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理する。この画像処理は、鮮鋭性強調、コントラスト調整、ノイズ除去、欠陥除去、エッジ強調、平滑化処理などである。   In this embodiment, a face area is detected by the face detection means, a face area of the maximum size is selected from the detected face areas, and an image processing condition parameter is generated based on the size information of the selected face area. Then, image processing is performed based on the image processing condition parameter. This image processing includes sharpness enhancement, contrast adjustment, noise removal, defect removal, edge enhancement, smoothing processing, and the like.

このように、選択された顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理することで、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In this way, the image processing condition parameter is generated based on the size information of the selected face area, and the image processing is performed based on the image processing condition parameter, so that the non-person photograph, the ID photograph, the portrait, the snap photograph, the set It is possible to estimate a scene attribute of an image such as a photograph and perform image processing suitable for the scene attribute.

この実施の形態では、顔検出手段によって顔領域を検出し、検出した個々の顔領域のシャープネスを判定する。シャープネスが所定レベル以上のものの中から最大サイズの顔領域を選択し、選択した顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理する。   In this embodiment, the face area is detected by the face detection means, and the sharpness of each detected face area is determined. A face area having the maximum size is selected from those having a sharpness of a predetermined level or more, an image processing condition parameter is generated based on the size information of the selected face area, and image processing is performed based on the image processing condition parameter.

この画像処理は、鮮鋭性強調、コントラスト調整、ノイズ除去、欠陥除去、エッジ強調、平滑化処理などである。   This image processing includes sharpness enhancement, contrast adjustment, noise removal, defect removal, edge enhancement, smoothing processing, and the like.

このように、検出した個々の顔領域のシャープネスが所定レベル以上のものの中から最大サイズの顔領域を選択し、選択した顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、画像処理条件パラメータに基づいて画像処理することで、非人物写真、証明写真、ポートレート、スナップ写真、集合写真などの画像自体のシーン属性を推定し、シーン属性に適した画像処理を行なうことが可能である。   In this way, the face area having the maximum size is selected from those in which the sharpness of each detected face area is equal to or higher than a predetermined level, and image processing condition parameters are generated based on the size information of the selected face area. By performing image processing based on parameters, it is possible to estimate scene attributes of images such as non-person photos, ID photos, portraits, snapshots, group photos, etc., and perform image processing suitable for the scene attributes .

この画像処理方法は、写真原画やデジタルカメラ等からの画像データに基づき記録材料、記憶媒体・装置などに画像を記録または表示デバイスに表示する画像処理等に適用できる。   This image processing method can be applied to image processing for recording an image on a recording material, a storage medium, an apparatus, or the like based on image data from a photographic original image or a digital camera, or displaying the image on a display device.

画像データに基づき記録材料に画像を記録する画像記録システムの概略構成図である。1 is a schematic configuration diagram of an image recording system that records an image on a recording material based on image data. 原画像を示す図である。It is a figure which shows an original image. 画像処理を示すフローチャートである。It is a flowchart which shows an image process. 鮮鋭性強調を示す図である。It is a figure which shows sharpness emphasis. 画像処理の実施例を示す図である。It is a figure which shows the Example of an image process. 画像処理の実施例を示す図である。It is a figure which shows the Example of an image process.

符号の説明Explanation of symbols

1 画像記録システム
2 原画像
3 スキャナ
4 画像処理装置
5 プリンタ
DESCRIPTION OF SYMBOLS 1 Image recording system 2 Original image 3 Scanner 4 Image processing apparatus 5 Printer

Claims (14)

画像データに基づき画像を記録または表示する画像処理方法において、
顔検出手段によって顔領域を検出し、
前記検出された顔領域の数に応じて画像処理条件パラメータを生成し、
前記画像処理条件パラメータに基づいて画像処理することを特徴とする画像処理方法。
In an image processing method for recording or displaying an image based on image data,
The face area is detected by the face detection means,
Generating image processing condition parameters according to the number of detected face regions;
An image processing method, wherein image processing is performed based on the image processing condition parameter.
前記顔領域の数が多いほどエッジ強調の基準周波数より高い周波数成分の強調度合いを相対的に大きくすることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the degree of enhancement of a frequency component higher than a reference frequency for edge enhancement is relatively increased as the number of the face regions increases. 前記顔領域の数が少ないほどエッジ強調の基準周波数より低い周波数成分の強調度合いを相対的に大きくすることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the degree of enhancement of frequency components lower than a reference frequency for edge enhancement is relatively increased as the number of face regions is smaller. 前記顔領域の数が多いほど平滑化処理の処理半径を小さくするか、平滑化処理を不適用とすることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the larger the number of face regions, the smaller the radius of the smoothing process, or the non-application of the smoothing process. 前記顔領域の数が少ないほど平滑化処理の処理半径を大きくするか、平滑化の制限を緩くすることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein as the number of face regions is smaller, a processing radius of the smoothing process is increased or a restriction on smoothing is loosened. 前記顔領域の数が多いほど画像全体に階調コントラストを硬調側にシフトしたものを適用することを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the larger the number of face regions, the more the image is applied with a gradation contrast shifted to the high contrast side. 前記顔領域の数が少ないほど画像全体に階調コントラストを軟調側にシフトしたものを適用することを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the smaller the number of face regions, the more the image is applied with a gradation contrast shifted toward the soft side. 前記顔領域の数が多いほど欠陥除去処理を弱めるか、欠陥除去処理を不適用とすることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the defect removal processing is weakened or the defect removal processing is not applied as the number of the face regions increases. 前記顔領域の数が少ないほど欠陥除去処理を大きくすることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the defect removal processing is increased as the number of the face regions is smaller. 前記顔領域の所定以下の小さいサイズの顔領域については、画像処理条件判断のための顔領域の数から除外することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理方法。 11. The image according to claim 1, wherein a face area having a smaller size than the predetermined face area is excluded from the number of face areas for image processing condition determination. Processing method. 高周波数成分の乏しい顔領域については、画像処理条件判断のための前記顔領域の数からは除外することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理方法。 11. The image processing method according to claim 1, wherein a face area having a low high-frequency component is excluded from the number of face areas for image processing condition determination. 前記顔領域の数と、1個あたり顔領域のサイズ情報の組み合わせにより、画像処理条件を変更することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理方法。 11. The image processing method according to claim 1, wherein the image processing condition is changed according to a combination of the number of the face areas and the size information of the face areas per one. 11. 画像データに基づき画像を記録または表示する画像処理方法において、
顔検出手段によって顔領域を検出し、
前記検出された顔領域のうち、最大サイズの顔領域を選択し、
前記選択された顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、
前記画像処理条件パラメータに基づいて画像処理することを特徴とする画像処理方法。
In an image processing method for recording or displaying an image based on image data,
The face area is detected by the face detection means,
Among the detected face areas, select the maximum size face area,
Generating an image processing condition parameter based on the size information of the selected face area;
An image processing method, wherein image processing is performed based on the image processing condition parameter.
画像データに基づき画像を記録または表示する画像処理方法において、
顔検出手段によって顔領域を検出し、
前記検出した個々の顔領域のシャープネスを判定し、
前記シャープネスが所定レベル以上のものの中から最大サイズの顔領域を選択し、
前記選択した顔領域のサイズ情報に基づいて画像処理条件パラメータを生成し、
前記画像処理条件パラメータに基づいて画像処理することを特徴とする画像処理方法。
In an image processing method for recording or displaying an image based on image data,
The face area is detected by the face detection means,
Determine the sharpness of each detected face area;
Select the face area of the maximum size from those whose sharpness is a predetermined level or higher,
Generating an image processing condition parameter based on the size information of the selected face area;
An image processing method, wherein image processing is performed based on the image processing condition parameter.
JP2003377776A 2003-11-07 2003-11-07 Image processing method Pending JP2005141523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003377776A JP2005141523A (en) 2003-11-07 2003-11-07 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003377776A JP2005141523A (en) 2003-11-07 2003-11-07 Image processing method

Publications (1)

Publication Number Publication Date
JP2005141523A true JP2005141523A (en) 2005-06-02

Family

ID=34688365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003377776A Pending JP2005141523A (en) 2003-11-07 2003-11-07 Image processing method

Country Status (1)

Country Link
JP (1) JP2005141523A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034804A (en) * 2005-07-28 2007-02-08 Noritsu Koki Co Ltd Image distinction method for identification photograph and image processor
JP2007148537A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processing method, image processing program and image processor
JP2009223524A (en) * 2008-03-14 2009-10-01 Seiko Epson Corp Image processor, image processing method, and computer program for image processing
KR101040461B1 (en) 2003-12-10 2011-06-09 소니 주식회사 Image discriminating method and image processing apparatus
US8031915B2 (en) 2007-03-29 2011-10-04 Seiko Epson Corporation Image processing device and image processing method
JP2013162173A (en) * 2012-02-01 2013-08-19 Nikon Corp Imaging apparatus and program
JP2014535108A (en) * 2011-10-28 2014-12-25 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Image reconstruction using face detection

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101040461B1 (en) 2003-12-10 2011-06-09 소니 주식회사 Image discriminating method and image processing apparatus
US8498450B2 (en) 2003-12-10 2013-07-30 Sony Corporation Image discriminating method and image processing apparatus
JP2007034804A (en) * 2005-07-28 2007-02-08 Noritsu Koki Co Ltd Image distinction method for identification photograph and image processor
JP4645952B2 (en) * 2005-07-28 2011-03-09 ノーリツ鋼機株式会社 Image identification method for ID photo and image processing apparatus
JP2007148537A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processing method, image processing program and image processor
US8031915B2 (en) 2007-03-29 2011-10-04 Seiko Epson Corporation Image processing device and image processing method
JP2009223524A (en) * 2008-03-14 2009-10-01 Seiko Epson Corp Image processor, image processing method, and computer program for image processing
JP2014535108A (en) * 2011-10-28 2014-12-25 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Image reconstruction using face detection
JP2013162173A (en) * 2012-02-01 2013-08-19 Nikon Corp Imaging apparatus and program

Similar Documents

Publication Publication Date Title
KR101446975B1 (en) Automatic face and skin beautification using face detection
US10304166B2 (en) Eye beautification under inaccurate localization
US8488896B2 (en) Image processing apparatus and image processing method
US10783617B2 (en) Device for and method of enhancing quality of an image
US6667815B1 (en) Method and apparatus for processing images
Li et al. Single image dehazing using the change of detail prior
US20150071530A1 (en) Image processing apparatus and method, and program
WO2012000800A1 (en) Eye beautification
JP2008234342A (en) Image processor and image processing method
JP2001126075A (en) Method and device for picture processing, and recording medium
JP2006011685A (en) Photographic image processing method and its device
JP3490910B2 (en) Face area detection device
CN111105368B (en) Image processing method and apparatus, electronic device, and computer-readable storage medium
JP2004240622A (en) Image processing method, image processor and image processing program
JP2005141523A (en) Image processing method
RU2329535C2 (en) Method of automatic photograph framing
RU2338252C1 (en) Method that prevents printing of out of focus pictures
JP2004242068A (en) Method, apparatus, and program for image processing
JP2004005383A (en) Image processing method, image processing device, program, recording medium, automatic trimming device and picture-taking arrangement
JP4831344B2 (en) Eye position detection method
Cao et al. Saliency models as gamut-mapping artifact detectors
Shen et al. Towards intelligent photo composition-automatic detection of unintentional dissection lines in environmental portrait photos
JP2008079196A (en) Image correcting method, image correcting program and image correcting module
Safonov et al. Changing the Aspect Ratio for Borderless Printing
JP2011138558A (en) Method and system for detecting eye position