JP4431949B2 - Red-eye correction method and apparatus for carrying out this method - Google Patents

Red-eye correction method and apparatus for carrying out this method Download PDF

Info

Publication number
JP4431949B2
JP4431949B2 JP2003366132A JP2003366132A JP4431949B2 JP 4431949 B2 JP4431949 B2 JP 4431949B2 JP 2003366132 A JP2003366132 A JP 2003366132A JP 2003366132 A JP2003366132 A JP 2003366132A JP 4431949 B2 JP4431949 B2 JP 4431949B2
Authority
JP
Japan
Prior art keywords
red
pixel
eye
white
skin color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003366132A
Other languages
Japanese (ja)
Other versions
JP2005128942A (en
Inventor
耕一 久後
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2003366132A priority Critical patent/JP4431949B2/en
Priority to EP04025018A priority patent/EP1528509A3/en
Priority to CNB2004100879871A priority patent/CN1267855C/en
Priority to US10/974,661 priority patent/US7486317B2/en
Publication of JP2005128942A publication Critical patent/JP2005128942A/en
Application granted granted Critical
Publication of JP4431949B2 publication Critical patent/JP4431949B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/624Red-eye correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30216Redeye defect

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Color Image Communication Systems (AREA)
  • Control Of Exposure In Printing And Copying (AREA)
  • Processing Of Color Television Signals (AREA)

Description

本発明は、撮影画像データに生じている赤目を補正する赤目補正方法、赤目補正プログラム、及びこの方法を実施する画像処理装置に関する。   The present invention relates to a red-eye correction method that corrects red-eye generated in captured image data, a red-eye correction program, and an image processing apparatus that implements this method.

人物や動物などを被写体としてストロボ撮影した場合、ストロボ光の一部が眼球内の血管等で反射してカメラ側に戻ってくることで、撮影画像において瞳の中央が赤色ないしは実際とは異なる色となる、いわゆる赤目現象を生じることがある。デジタルカメラの普及や写真フィルムの撮影画像をデジタル化するフィルムスキャナの普及により、この赤目問題を画像処理技術で解決することが数多く提案されている。もちろん、赤目部分の画素をモニタを通じて目で確認しながらその画素の色合いを実際の色合いに修正していくという職人的技術によってもこの補正作業が可能であるが、その補正作業に頻雑さや熟練さが要求される等を考慮すると一般的ではない。このため、パターン認識技術等を利用して瞳孔位置を抽出し、あるいは画像内の赤色部分を抽出して、この部分を色変換するといった自動化技術も考えられているが、赤目エリアを正確に検出しようとすれば、画像処理技術が極めて複雑となり、装置自体も高価なものとなってしまう。   When taking a stroboscopic shot of a person or animal as a subject, a part of the stroboscopic light is reflected by the blood vessels in the eyeball and returned to the camera side, so the center of the pupil in the shot image is red or a different color from the actual The so-called red-eye phenomenon may occur. With the spread of digital cameras and the spread of film scanners that digitize photographic film images, many proposals have been made to solve this red-eye problem with image processing techniques. Of course, this correction work can also be done by craftsmanship technology that corrects the color tone of the pixel to the actual color while visually checking the pixel of the red eye part through the monitor, but the correction work is complicated and skilled However, it is not common considering the need for For this reason, automated techniques such as extracting the pupil position using pattern recognition technology, etc., or extracting the red part in the image and color-converting this part are also considered, but the red-eye area is accurately detected If it tries to do so, the image processing technique becomes extremely complicated, and the apparatus itself becomes expensive.

例えば、色調不良となった目領域を含む領域をまず指定し、その領域において、明度や赤味を組み合わせた特徴量を用いて、赤目部とその隣接する白目及び肌部との間に谷間ができることを利用し、前記特徴量の山毎に領域分割することで赤目部を白目及び肌部と分離する技術がある(例えば、特許文献1参照。)。この技術は、赤目部分は瞳孔部の中心程網膜からの反射が強いため、明度は中央から周辺部に向けて低下する傾向を持つことからキャッチライトも含めて明度が山状に分布すること、及び虹彩部が青目系瞳では赤みの値の大きさについて赤目となった瞳孔部との谷間となることを利用している。つまり、赤味という色に関する目領域の強度分布から赤目、白目及び肌部を区分けしようとしており、赤色画素や白色画素や肌色画素を検出して赤目画素を識別しようとしている技術ではない。また、この技術では、予め目領域を指定する必要があるので、完全に自動化するには実現が困難である目領域を画像認識する技術が要求される。   For example, a region including an eye region that has a poor color tone is first specified, and in that region, using a feature amount that combines lightness and redness, a valley is formed between the red eye portion and the adjacent white eye and skin portion. There is a technique for separating the red-eye part from the white-eye part and the skin part by dividing the area for each mountain of the feature amount by using what can be done (for example, see Patent Document 1). In this technology, since the red eye part has a strong reflection from the retina at the center of the pupil part, the brightness tends to decrease from the center toward the peripheral part, so that the brightness including the catch light is distributed in a mountain shape, In addition, it is utilized that the iris part is a valley with the pupil part that has red eyes with respect to the magnitude of the redness value in the blue-eye pupil. That is, it is not a technique for distinguishing red-eye pixels by detecting red pixels, white pixels, or skin-colored pixels, trying to distinguish red-eye, white-eye, and skin from the intensity distribution of the eye region relating to the color of redness. In addition, since this technique requires that the eye area be specified in advance, a technique for recognizing an image of the eye area that is difficult to realize in order to be fully automated is required.

また、顔面特有の複数の色成分画像を抽出して被写体人物の赤目位置を検出する技術、つまり撮像画像内から低彩度領域及び低照度領域の少なくとも一方の領域と肌色領域とが抽出され、これらの抽出信号を用いて、例えば論理積をとることで、人物の眼を含む領域が抽出され、更に、抽出された赤色部信号を用いて、目を含む領域から、赤目が発生しているときは、当該赤目位置が検出され、このようにして得られた赤目位置データに基づいて赤目位置の赤色が別の色に、例えば一般的な黒目に補正する技術もある(例えば、特許文献2参照。)。この技術では予め目領域を指定することは要求されないが、肌色と赤色で赤目位置を認識しようとしているので誤認識が生じやすい。   Further, a technique for extracting a plurality of color component images peculiar to the face to detect the position of the subject's red eye, that is, extracting at least one of a low saturation region and a low illuminance region and a skin color region from the captured image, Using these extracted signals, for example, a logical product is used to extract a region including the eyes of the person, and further, red eyes are generated from the region including the eyes using the extracted red portion signal. In some cases, the red-eye position is detected, and the red at the red-eye position is corrected to another color based on the red-eye position data thus obtained, for example, a general black eye (for example, Patent Document 2). reference.). In this technique, it is not required to specify the eye area in advance, but erroneous recognition is likely to occur because the red eye position is to be recognized with the skin color and red color.

特開2000−76427号公報(段落番号0009−0011、0058−0071、第10図)JP 2000-76427 A (paragraph numbers 0009-0011, 0058-0071, FIG. 10) 特開平6−258732号公報(段落番号0006−0009、0019−0023、第6図)JP-A-6-258732 (paragraph numbers 0006-0009, 0019-0023, FIG. 6)

上記実状に鑑み、本発明の課題は、パターン認識といったような複雑な画像処理技術を用いずに、かつ予め目領域の指定といった前作業を行うことなしに、満足できる信頼度をもつ赤目補正技術を提供することである。   In view of the above situation, an object of the present invention is to provide a red-eye correction technique with satisfactory reliability without using a complicated image processing technique such as pattern recognition and without performing a prior work such as specifying an eye area in advance. Is to provide.

上記目的を達成するため、本発明による、撮影画像データに生じている赤目を補正する赤目補正方法は、前記撮影画像データの各画素から所定の肌色検出条件を満たす画素を肌色画素として検出するステップと、前記撮影画像データの各画素から所定の白色検出条件を満たす画素を白色画素として検出するステップと、前記撮影画像データの各画素から所定の赤色検出条件を満たす画素を赤色画素として検出するステップと、前記赤色画素を赤目画素候補とし、この赤目画素候補の周辺領域内における前記肌色画素と前記白色画素の各存在個数を用いた判別条件に基づいて前記赤目画像候補を赤目画素と認定するステップと、前記認定された赤目画素の画素値を変更することで赤目補正を行うステップとから構成されている。 To achieve the above object, according to the present invention, red-eye correction method for correcting red eyes caused in the captured image data detects a pixel that satisfies a predetermined skin color detection condition from each pixel of the photographed image data as a skin color pixel step When the step of detecting the step of detecting a pixel that satisfies a predetermined white detection condition from each pixel of the captured image data as a white pixel, a pixel that satisfies a predetermined red detection condition from each pixel of the captured image data as a red pixel And determining the red-eye image candidate as a red-eye pixel based on a determination condition using the red color pixel as a red-eye pixel candidate and using the number of the skin color pixels and the white pixels existing in the peripheral region of the red-eye pixel candidate. And a step of correcting the red eye by changing the pixel value of the recognized red eye pixel.

この赤目補正方法では、撮影画像全体から、個別に設定された検出条件に基づいて肌色画素と白色画素と赤色画素を検出し、各赤色画素を赤目画素候補として、この赤目画素候補の周辺領域に位置する肌色画素と白色画素の個数によってその赤目画素候補の周辺が目領域であってその赤色画素が赤目を構成するものであるかと判別を行っている。赤目領域の色合いを特徴付ける肌色と白色と赤色の分布具合により赤目画素を認定するので、従来の赤目検出方法に比べて、予め目領域の指定といった前作業を行うことなしに、しかも簡単なアルゴリズムにもかかわらず満足すべき信頼度をもって赤目画素の検出が可能となる。   In this red-eye correction method, skin color pixels, white pixels, and red pixels are detected from the entire photographed image based on individually set detection conditions, and each red pixel is used as a red-eye pixel candidate in the peripheral region of the red-eye pixel candidate. Based on the number of skin color pixels and white pixels located, it is determined whether the periphery of the red eye pixel candidate is an eye region and the red pixel constitutes a red eye. Compared with the conventional red-eye detection method, the red-eye pixels are identified based on the skin color that characterizes the hue of the red-eye area, and the distribution of white and red. Nevertheless, it is possible to detect red-eye pixels with satisfactory reliability.

肌色画素と白色画素はその色成分(例えばR・G・B成分)が非常に似通っており、撮影条件が変わるとその区別が難しくなる。例えばタングステン光の環境下で白色を撮影すると黄色っぽくなるため肌色との区別が難しい。そのため、本発明の好適な実施形態の1つでは、前記肌色検出条件は各画素の画素値であるR・G・B成分値に基づいてR成分値とG成分値との差分値,G成分値とB成分値との差分値,B成分値とR成分値との差分値およびその画素の輝度値を用いて定義されており、前記白色検出条件は白色画素候補の肌色彩度とその白色画素候補の周辺に位置する前記肌色画素の平均肌色彩度を用いて定義されており、前記赤色検出条件は赤色彩度を用いて定義されている。つまり、白色画素の検出条件は周辺の肌色画素の平均肌色彩度に依存する値を採用している。具体的には、肌色画素の平均のR・G・B成分値から一定程度肌色の補色側に変位した色を白色と判定することで、ある程度の撮影条件の変動にもかかわらず、白色と肌色を区別できるようにしている。 The skin color pixel and the white pixel have very similar color components (for example, R, G, B components), and it becomes difficult to distinguish them when the shooting conditions change. For example, when white is photographed in an environment of tungsten light, it becomes yellowish, so it is difficult to distinguish it from skin color. Therefore, in one preferred embodiment of the present invention, the skin color detection condition is based on the R , G, and B component values that are the pixel values of each pixel, the difference value between the R component value and the G component value, and the G component difference between the value and the B component value, B component value and a difference value between the R component values and is defined using the luminance value of the pixel, the white detection condition is a skin color of the white pixel candidates that white The skin color pixel located around the pixel candidate is defined using an average skin color saturation, and the red detection condition is defined using a red saturation. That is, the white pixel detection condition employs a value that depends on the average skin color saturation of surrounding skin color pixels. Specifically, by determining that the color displaced from the average R, G, B component values of the skin color pixels to a certain degree to the complementary color side of the skin color is white, the white color Can be distinguished.

ここで認定された赤目画素の画素値を変更することで赤目補正がなされるが、そのような変更の最も簡単で効果的な方法として、前記認定された赤目画素の彩度を下げることが提案される。彩度を下げることにより、その赤目画素はグレーっぽくなり、違和感のない写真プリントが得られる。もちろん、赤目画素の色は実際の瞳色の色バランスを持つことが理想的であるので、その瞳色が予め設定されている場合には、前記認定された赤目画素の画素値を瞳色に対応する画素値に近づけるような赤目補正を行うことが好適である。   The red-eye correction is made by changing the pixel value of the certified red-eye pixel here, but as the simplest and most effective method of such a change, it is proposed to lower the saturation of the certified red-eye pixel Is done. By reducing the saturation, the red-eye pixel becomes grayish, and a photographic print with no sense of incongruity is obtained. Of course, it is ideal that the color of the red-eye pixel has a color balance of the actual pupil color. Therefore, when the pupil color is preset, the pixel value of the certified red-eye pixel is used as the pupil color. It is preferable to perform red-eye correction so as to approach the corresponding pixel value.

いずれにしても、被写体によっては、目領域以外においても白色と肌色と赤色があたかも赤目となった目領域のように分布した領域も生じ得る。その結果、赤目画素の誤認識が生じ、このような赤目画素を強く補正すると、返って違和感のある写真プリントとなるので、予め、撮影条件等から、赤目判別の困難度が予測できるならば、そのような赤目判別困難度に応じて赤目補正の補正度合いを調整することは有意義である。例えば、特殊な照明下の撮影である場合、各色の区別は難しくなるので、赤目補正の度合いを半分以下にし、もし誤認識があってもそれが全体的な色の調和を壊さないように配慮するとよい。   In any case, depending on the subject, there may be a region in which white, flesh color, and red are distributed as if they were red eyes, in addition to the eye region. As a result, misrecognition of red-eye pixels occurs, and if such red-eye pixels are strongly corrected, a photo print with a sense of incongruity is returned, so if the difficulty of red-eye discrimination can be predicted in advance from shooting conditions, etc. It is meaningful to adjust the correction degree of red-eye correction according to such a degree of red-eye discrimination difficulty. For example, when shooting under special lighting, it is difficult to distinguish between colors, so the degree of red-eye correction is reduced to half or less so that even if there is a misrecognition, it does not break the overall color harmony. Good.

また、本発明は、上述した赤目補正方法をコンピュータに実行させるプログラムやそのプログラムを記録した媒体も権利の対象とするものである。   The present invention also covers a program that causes a computer to execute the above-described red-eye correction method and a medium that records the program.

本発明では、さらに、上述した赤目補正方法を実施する画像処理装置も権利の対象としており、そのような画像処理装置は、前記撮影画像データの各画素から所定の肌色検出条件を満たす画素を肌色画素として検出する肌色画素検出部と、前記撮影画像データの各画素から所定の白色検出条件を満たす画素を白色画素として検出する白色画素検出部と、前記撮影画像データの各画素から所定の赤色検出条件を満たす画素を赤色画素として検出する赤色画素検出部と、前記赤色画素を赤目画素候補とし、この赤目画素候補の周辺領域内における前記肌色画素と前記白色画素の各存在個数を用いた判別条件に基づいて前記赤目画像候補を赤目画素と認定する赤目画素決定部と、前記認定された赤目画素の画素値を変更することで赤目補正を行う赤目補正部とを備えている。当然ながら、このような画像処理装置も上述した赤目補正方法におけるすべての作用効果を得ることができる。
本発明によるその他の特徴及び利点は、以下図面を用いた実施形態の説明により明らかになるだろう。
In the present invention, further, an image processing apparatus for implementing the red eye correction method described above are also the subject of rights, such an image processing apparatus, a skin color pixel satisfying a predetermined skin color detection condition from each pixel of the photographed image data a skin color pixel detector for detecting a pixel, the white pixel detector for detecting a pixel that satisfies a predetermined white detection condition from each pixel of the photographed image data as a white pixel, the captured image given red detection from each pixel data a red pixel detector for detecting a pixel that satisfies a condition as a red pixel, the red pixel and red pixel candidate, determination conditions using each occurrence number of the white pixels and the skin color pixels in the peripheral region of the red eye candidate pixel And a red-eye pixel determining unit that recognizes the red-eye image candidate as a red-eye pixel, and a red that performs red-eye correction by changing a pixel value of the certified red-eye pixel. And a correction unit. Naturally, such an image processing apparatus can also obtain all the effects of the red-eye correction method described above.
Other features and advantages of the present invention will become apparent from the following description of embodiments using the drawings.

本発明の実施の形態について、図面に基づいて説明する。
図1は本発明による赤目補正技術を採用した写真プリント装置を示す外観図であり、この写真プリント装置は、印画紙Pに対して露光処理と現像処理とを行う写真プリンタとしてのプリントステーション1Bと、現像済み写真フィルム2aやデジタルカメラ用メモリカード2bなどの画像入力メディアから取り込んだ撮影画像を処理してプリントステーション1Bで使用されるプリントデータの生成・転送などを行う操作ステーション1Aとから構成されている。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an external view showing a photographic printing apparatus employing a red-eye correction technique according to the present invention. This photographic printing apparatus includes a printing station 1B as a photographic printer that performs exposure processing and development processing on photographic paper P. And an operation station 1A for processing a photographed image taken from an image input medium such as a developed photographic film 2a or a digital camera memory card 2b and generating / transferring print data used in the print station 1B. ing.

この写真プリント装置はデジタルミニラボとも称せられるものであり、図2からよく理解できるように、プリントステーション1Bは2つの印画紙マガジン11に納めたロール状の印画紙Pを引き出してシートカッター12でプリントサイズに切断すると共に、このように切断された印画紙Pに対し、バックプリント部13で色補正情報やコマ番号などのプリント処理情報を印画紙Pの裏面に印字するとともに、プリント露光部14で印画紙Pの表面に撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理槽を有した処理槽ユニット15に送り込んで現像処理する。乾燥の後に装置上部の横送りコンベア16からソータ17に送られた印画紙P、つまり写真プリントPは、このソータ17の複数のトレイにオーダ単位で仕分けられた状態で集積される(図1参照)。   This photo printing apparatus is also called a digital minilab. As can be understood from FIG. 2, the printing station 1B pulls out the roll-shaped printing paper P stored in the two printing paper magazines 11 and prints it with the sheet cutter 12. The back print unit 13 prints print processing information such as color correction information and frame number on the back side of the photographic paper P, and the print exposure unit 14 cuts the print paper P into the size. A photographed image is exposed on the surface of the photographic paper P, and the exposed photographic paper P is sent to a processing tank unit 15 having a plurality of development processing tanks for development processing. After drying, the photographic paper P, that is, the photographic prints P, sent to the sorter 17 from the transverse feed conveyor 16 at the upper part of the apparatus is collected in a plurality of trays of the sorter 17 in a state of being sorted in order units (see FIG. 1). ).

上述した印画紙Pに対する各種処理に合わせた搬送速度で印画紙Pを搬送するために印画紙搬送機構18が敷設されている。印画紙搬送機構18は、印画紙搬送方向に関してプリント露光部14の前後に配置されたチャッカー式印画紙搬送ユニット18aを含む複数の挟持搬送ローラ対から構成されている。   A photographic paper transport mechanism 18 is laid to transport the photographic paper P at a transport speed in accordance with various processes for the photographic paper P described above. The photographic paper transport mechanism 18 is composed of a plurality of nipping and transporting roller pairs including a chucker type photographic paper transport unit 18a disposed before and after the print exposure unit 14 in the photographic paper transport direction.

プリント露光部14には、副走査方向に搬送される印画紙Pに対して、主走査方向に沿って操作ステーション1Aからのプリントデータに基づいてR(赤)、G(緑)、B(青)の3原色のレーザ光線の照射を行うライン露光ヘッドが設けられている。処理槽ユニット15は、発色現像処理液を貯留する発色現像槽15aと、漂白定着処理液を貯留する漂白定着槽15bと、安定処理液を貯留する安定槽15cを備えている。   The print exposure unit 14 applies R (red), G (green), and B (blue) to the printing paper P conveyed in the sub-scanning direction based on print data from the operation station 1A along the main scanning direction. A line exposure head for irradiating laser beams of the three primary colors (1) is provided. The processing tank unit 15 includes a color developing tank 15a for storing a color developing processing liquid, a bleach-fixing tank 15b for storing a bleach-fixing processing liquid, and a stabilizing tank 15c for storing a stable processing liquid.

前記操作ステーション1Aのデスク状コンソールの上部位置には、写真フィルム2aの撮影画像コマから撮影画像データ(以下単に画像データと略称する)を取得するフィルムスキャナ20が配置されており、デジタルカメラ等に装着される撮影画像記録媒体2bとして用いられている各種半導体メモリやCD−Rなどから画像データを取得するメディアリーダ21は、この写真プリント装置のコントローラ3として機能する汎用パソコンに組み込まれている。この汎用パソコンには、さらに各種情報を表示するモニタ23、各種設定や調整を行う際に用いる操作入力部として利用される操作入力デバイスとしてのキーボード24やマウス25も接続されている。   A film scanner 20 for obtaining photographed image data (hereinafter simply referred to as image data) from a photographed image frame of the photographic film 2a is disposed at the upper position of the desk-like console of the operation station 1A. A media reader 21 that acquires image data from various semiconductor memories, CD-Rs, and the like used as the photographed image recording medium 2b to be mounted is incorporated in a general-purpose personal computer that functions as the controller 3 of the photographic printing apparatus. The general-purpose personal computer is also connected with a monitor 23 for displaying various information, and a keyboard 24 and a mouse 25 as operation input devices used as an operation input unit used for various settings and adjustments.

この写真プリント装置のコントローラ3は、CPUを中核部材として、写真プリント装置の種々の動作を行うための機能部をハードウエア又はソフトウエアあるいはその両方で構築しているが、図3に示されているように、本発明に特に関係する機能部としては、スキャナ20やメディアリーダ21によって読み取られた画像データを取り込んで次の処理のために必要な前処理を行う画像入力部31と、各種ウインドウや各種操作ボタンなどを含むグラフィック操作画面の作成やそのようなグラフィック操作画面を通じてのユーザ操作入力(キーボード24やマウス25などによる)から制御コマンドを生成するグラフィックユーザインターフェース(以下GUIと略称する)を構築するGUI部33と、GUI部33から送られてきた制御コマンドや直接キーボード24等から入力された操作命令に基づいて所望のプリントデータを生成するために画像入力部31からメモリ30に転送された画像データに対する画像処理等を行うプリント管理部32と、色補正等のプレジャッジプリント作業時にプリントソース画像や予想仕上がりプリント画像としてのシミュレート画像さらにはGUI部33から送られてきたグラフィックデータをモニタ23に表示させるためのビデオ信号を生成するビデオ制御部35と、画像処理が完了した処理済み画像データに基づいてプリントステーション1Bに装備されているプリント露光部14に適したプリントデータを生成するプリントデータ生成部36と、顧客の要望に応じて生の画像データや画像処理が完了した処理済み画像データなどをCD−Rに書き込むための形式にフォーマットするフォーマッタ部37などが挙げられる。   The controller 3 of this photographic printing apparatus uses a CPU as a core member and constructs a functional unit for performing various operations of the photographic printing apparatus by hardware and / or software, as shown in FIG. As described above, the functional unit particularly related to the present invention includes an image input unit 31 that takes in image data read by the scanner 20 and the media reader 21 and performs preprocessing necessary for the next processing, and various windows. And a graphic user interface (hereinafter abbreviated as GUI) for generating a control command from a user operation input (via the keyboard 24, mouse 25, etc.) through the graphic operation screen. The GUI unit 33 to be constructed and the control sent from the GUI unit 33 A print management unit 32 that performs image processing on the image data transferred from the image input unit 31 to the memory 30 in order to generate desired print data based on an operation command input from a command or a direct keyboard 24; A video control unit 35 that generates a video signal for causing the monitor 23 to display graphic data sent from the GUI unit 33, or a simulated image as a print source image, an expected finished print image, or the like during pre-judge printing work such as correction. A print data generation unit 36 that generates print data suitable for the print exposure unit 14 installed in the print station 1B based on the processed image data for which image processing has been completed, and a raw image according to customer requirements. Data or processed image data that has undergone image processing Etc. formatter 37 for formatting into a form for writing to -R and the like.

画像入力部31は、撮影画像記録媒体がフィルム2aの場合プレスキャンモードと本スキャンモードとのスキャンデータを別々にメモリ30に送り込み、それぞれの目的に合わせた前処理を行う。また、撮影画像記録媒体がメモリカード2bの場合取り込んだ画像データにサムネイル画像データ(低解像度データ)が含まれている場合はモニタ23での一覧表示などの目的で使用するため撮影画像の本データ(高解像度データ)とは別にメモリ30に送り込むが、もしサムネイル画像データが含まれていない場合は本データから縮小画像を作り出してサムネイル画像データとしてメモリ30に送り込む。また、この画像入力部31には、写真プリント受付装置と呼ばれているセルフサービスで写真プリントを受け付ける装置も接続されており、この写真プリント受付装置から、プリントサイズやプリント枚数を記録しているプリント注文データと撮影条件などを記録している画像属性データと画像データとを受け取ると、画像データをメモリ30に転送し、プリント注文データや画像属性データをプリント管理部32に転送する。通常の写真プリント注文の場合には、プリントサイズやプリント枚数などのプリント注文データ及び必要の場合ストロボ撮影の有無や被写体情報やカメラ機種などの属性データは、キーボード24を通じてオペレータの操作入力によってプリント管理部32に与えられる。   When the photographic image recording medium is the film 2a, the image input unit 31 separately sends the scan data for the pre-scan mode and the main scan mode to the memory 30, and performs preprocessing according to each purpose. Further, when the captured image recording medium is the memory card 2b, when the captured image data includes thumbnail image data (low resolution data), the actual data of the captured image is used for the purpose of displaying a list on the monitor 23. Separately from (high resolution data), it is sent to the memory 30, but if thumbnail image data is not included, a reduced image is created from this data and sent to the memory 30 as thumbnail image data. The image input unit 31 is also connected with a self-service device called a photo print accepting device that accepts photo prints, and the print size and the number of prints are recorded from the photo print accepting device. When image attribute data and image data in which print order data and shooting conditions are recorded are received, the image data is transferred to the memory 30, and the print order data and image attribute data are transferred to the print management unit 32. In the case of a normal photo print order, print order data such as print size and number of prints, and if necessary, attribute data such as presence / absence of strobe shooting, subject information, camera type, etc. are managed by operator input through the keyboard 24. Given to part 32.

プリント管理部32は、プリントサイズやプリント枚数などを管理するプリント注文処理ユニット60、メモリ30に展開された画像データに対して色補正やフィルタリング(ぼかしやシャープネスなど)などのフォトレタッチ処理を施す画像処理ユニット70を備えている。この実施の形態では、特に、入力されたストロボ撮影の有無やカメラ機種などの属性データから赤目の発生可能性や赤目補正の困難性を予測する赤目判別困難度予測部80がプリント管理部32に構築されているが、これは省略可能である。赤目判別困難度予測部70は入力された属性データに基づいて赤目の発生可能性(ストロボが非使用の場合赤目は発生しない)や赤目補正の困難性(撮影条件に応じて赤目の判別困難性が変化する)を予測するアルゴリズムにより機能するのが好ましいが、実際には、この予測をオペレータに任せて、マニュアル入力するようにしてもよい。   The print management unit 32 performs an image retouching process such as color correction and filtering (such as blurring and sharpness) on the image data developed in the print order processing unit 60 and the memory 30 for managing the print size and the number of prints. A processing unit 70 is provided. In this embodiment, in particular, the print management unit 32 includes a red-eye discrimination difficulty prediction unit 80 that predicts the possibility of occurrence of red-eye and the difficulty of red-eye correction from the attribute data such as the presence / absence of strobe shooting and the input camera model. Although built, this is optional. Based on the input attribute data, the red-eye discrimination difficulty predicting unit 70 may generate red eyes (no red eye will be generated when the strobe is not used) or red-eye correction difficulty (difficulty in red-eye discrimination according to shooting conditions). However, in practice, this prediction may be left to the operator and manually input.

前述した画像処理ユニット70には本発明による技術を採用した赤目補正処理手段90が含まれている。この赤目補正処理手段90は、図4に示すように、肌色検出条件と白色検出条件と赤色検出条件を設定管理している判定条件設定部91と、前記肌色検出条件に基づいて画像データから肌色画素を検出する肌色画素検出部92aと前記白色検出条件基づいて画像データから白色画素を検出する白色画素検出部92bと前記赤色検出条件に基づいて画像データから赤色画素を検出する赤色画素検出部92cとからなる特定色画素検出部92と、検出された肌色画素の位置を記憶する肌色画素マップ93aと検出された白色画素の位置を記憶する白色画素マップ93bと検出された赤色画素の位置を記憶する赤色画素マップ93cとからなる特定色画素マップ93と、検出された赤色画素から赤目画素を判別する赤目判別条件を設定管理している判別条件設定部94と、検出された赤色画素を赤目画素候補とするとともに前記赤目判別条件に基づいて前記赤目画像候補を赤目画素と認定する赤目画素決定部95と、認定された赤目画素の位置を記憶する赤目画素マップ96と、この赤目画素マップ96を参照しながら赤目画素の画素値を変更することで赤目補正を行う赤目補正部97とから構成されている。   The image processing unit 70 described above includes red-eye correction processing means 90 that employs the technique according to the present invention. As shown in FIG. 4, the red-eye correction processing unit 90 includes a determination condition setting unit 91 for setting and managing the skin color detection condition, the white detection condition, and the red detection condition, and the skin color from the image data based on the skin color detection condition. A skin color pixel detection unit 92a that detects pixels, a white pixel detection unit 92b that detects white pixels from image data based on the white detection condition, and a red pixel detection unit 92c that detects red pixels from image data based on the red detection condition A specific color pixel detection unit 92 including: a skin color pixel map 93a for storing the position of the detected skin color pixel; a white pixel map 93b for storing the position of the detected white pixel; and a position of the detected red pixel. A specific color pixel map 93 composed of a red pixel map 93c and a red-eye discrimination condition for discriminating a red-eye pixel from the detected red pixel. Another condition setting unit 94, a red-eye pixel determination unit 95 that recognizes the detected red-eye pixel as a red-eye pixel based on the red-eye determination condition, and a position of the recognized red-eye pixel , And a red-eye correction unit 97 that performs red-eye correction by changing the pixel value of the red-eye pixel while referring to the red-eye pixel map 96.

赤目画素決定部95は、赤色画素マップ93cを参照しながら赤色画素を赤目画素候補とするとともにこの赤目画素候補の周辺領域内における肌色画素と白色画素の各存在個数を肌色画素マップと白色画素マップから計数してその各計数値を赤目判別条件で規定されている判別値と比較することで前記赤目画像候補を赤目画素と認定するかどうかを決定する。   The red-eye pixel determination unit 95 makes the red pixel a red-eye pixel candidate while referring to the red-pixel map 93c, and determines the number of skin-color pixels and white pixels in the peripheral region of the red-eye pixel candidate. And determining whether to recognize the red-eye image candidate as a red-eye pixel by comparing each count value with a discrimination value defined by the red-eye discrimination condition.

赤目画素の画素値を変更することで赤目補正を行う赤目補正部97は、一般には赤目画素の彩度を下げることにより、その赤目画素はグレーっぽくなり、瞳らしくなるので、彩度を下げる処理を行う。しかしながら、特別な瞳色を持った人物の場合、単に彩度を下げるだけでは実際の瞳らしくならない場合がある。そのようなケースに備えて、この実施の形態では、瞳色設定部98が備えられており、赤目補正処理において赤目画素の画素値を瞳色に対応する画素値に近づけるような画素値変更を行うことも可能としている。   The red-eye correction unit 97 that performs red-eye correction by changing the pixel value of the red-eye pixel generally lowers the saturation because the red-eye pixel becomes grayish and looks like a pupil by lowering the saturation of the red-eye pixel. Process. However, in the case of a person having a special pupil color, it may not be like an actual pupil simply by reducing the saturation. In preparation for such a case, in this embodiment, the pupil color setting unit 98 is provided, and in the red-eye correction process, the pixel value change is performed so that the pixel value of the red-eye pixel approaches the pixel value corresponding to the pupil color. It is also possible to do it.

このように構成された赤目補正処理手段90による赤目補正の手順を以下に説明する。まず、全体的な流れは図5に示されたフローチャートに示されているが、まずメモリ30に展開されている画像データから肌色画素検出(#10)、白色画素検出(#30)、赤色画素検出(#50)を行う。検出された赤色画素は赤目画素の候補となるので、各赤色画素に対してその周辺における肌色画素と白色画素の分布状態から赤目画素として認定できるかどうかをチェックし、判別条件を満たしている場合この赤色画素を赤目画素とする(#70)。赤目画素が決定されると、その画素に対して彩度減少処理や瞳色への移行処理などの赤目補正処理を施す(#90)。その際、補正をかける度合いは予め設定された値もしくは赤目判別の困難性から決定された値が用いられる。   The procedure of red-eye correction by the red-eye correction processing unit 90 configured as described above will be described below. First, the overall flow is shown in the flowchart shown in FIG. 5, but first, skin color pixel detection (# 10), white pixel detection (# 30), red pixel from the image data developed in the memory 30. Detection (# 50) is performed. Since the detected red pixel is a candidate for red eye pixel, it is checked whether each red pixel can be recognized as a red eye pixel based on the distribution state of skin color pixels and white pixels around it, and the determination condition is satisfied This red pixel is set as a red-eye pixel (# 70). When a red-eye pixel is determined, red-eye correction processing such as saturation reduction processing and pupil color transition processing is performed on the pixel (# 90). At this time, a predetermined value or a value determined from the difficulty of red-eye discrimination is used as the degree of correction.

次に上述した各処理の詳細を説明する。肌色画素の検出は、肌色画素検出部92aにおいて図6に示されたサブルーチンに基づいて実行される。まず、判定条件設定部91から肌色検出条件が取り込まれる(#11)。この肌色検出条件は、注目画素のR・G・B輝度値をそれぞれR、G、Bとし、かつ(R+G+B)/3=Iとすると、
[fs_gb_lo<G-B<fs_gb_hi]、かつ
[fs_rg_lo<R-G<fs_rg_hi]、かつ
[fs_br_lo<B-R<fs_br_hi]、かつ
[I>fs_I]、
で表されている。この4つの条件からなる肌色判定条件を満たしている注目画素が肌色とみなされる。ここで、R・G・B輝度値が8ビットカラーデータ(0〜255)である場合、上記各定数は以下の通りに設定することができる(以下R・G・B輝度値は8ビットカラーデータとする);
fs_gb_lo=-24、fs_gb_hi=16、fs_rg_lo=-16、fs_rg_hi=64、
fs_br_lo=-88、fs_br_hi=8、fs_I=104。
注目画素の画素値であるR・G・B輝度値を取り込み(#12)、上記肌色判定条件を満たすかどうかをチェックし(#13)、この肌色判定条件を満たした注目画素の画素位置を肌色画素の画素位置として記憶しておく(#14)。この肌色検出を画像データを構成する全ての画素に対して行い、全画素に対する肌色チェックが完了すると(#15)、記憶されている肌色画素の画素位置に基づいて肌色画素マップ93aを作成しておく(#16)。なお、この肌色画素マップ93aの作成は肌色画素の検出毎に、ステップ#14の段階で行うようにしてもよい。
Next, details of each process described above will be described. The skin color pixel detection is executed in the skin color pixel detection unit 92a based on the subroutine shown in FIG. First, a skin color detection condition is fetched from the determination condition setting unit 91 (# 11). The skin color detection conditions are as follows: R, G, B luminance values of the target pixel are R, G, B, and (R + G + B) / 3 = I.
[Fs_gb_lo <GB <fs_gb_hi], [fs_rg_lo <RG <fs_rg_hi], [fs_br_lo <BR <fs_br_hi], and [I> fs_I],
It is represented by A pixel of interest that satisfies the skin color determination condition consisting of these four conditions is regarded as the skin color. Here, when the R, G, B luminance values are 8-bit color data (0 to 255), the above constants can be set as follows (hereinafter, the R, G, B luminance values are 8-bit color data). Data)
fs_gb_lo = -24, fs_gb_hi = 16, fs_rg_lo = -16, fs_rg_hi = 64,
fs_br_lo = -88, fs_br_hi = 8, fs_I = 104.
R, G, and B luminance values that are pixel values of the target pixel are taken in (# 12), whether or not the skin color determination condition is satisfied is checked (# 13), and the pixel position of the target pixel that satisfies the skin color determination condition is determined. This is stored as the pixel position of the skin color pixel (# 14). When this skin color detection is performed for all the pixels constituting the image data and the skin color check for all the pixels is completed (# 15), a skin color pixel map 93a is created based on the pixel positions of the stored skin color pixels. (# 16). The skin color pixel map 93a may be created at the step # 14 every time a skin color pixel is detected.

次に、白色画素の検出が、白色画素検出部92bにおいて図7に示されたサブルーチンに基づいて実行される。まず、肌色画素検出サブルーチンで作成された肌色画素マップ93aが取り込まれ(#31)、肌色画素のR・G・B輝度値から肌色彩度係数SFを演算して、肌色彩度マップが作成される(#32)。この肌色彩度係数SFは以下の式で求められる;
SF=SF_rg×(R-G)+SF_br×(B-R)
ここで、SF_rg=0.7、SF_br=-1.2のような値に設定することで、肌色画素の彩度が高いほど肌色彩度係数SFの値が大きくなり、肌色の補色側であるほど肌色彩度係数SFの値が小さくなる。
Next, white pixel detection is performed based on the subroutine shown in FIG. 7 in the white pixel detection unit 92b. First, the flesh color pixel map 93a created in the flesh color pixel detection subroutine is fetched (# 31), and the flesh color saturation coefficient SF is calculated from the R, G, B luminance values of the flesh color pixels to create a flesh color saturation map. (# 32). This skin color saturation coefficient SF is obtained by the following formula;
SF = SF_rg × (RG) + SF_br × (BR)
Here, by setting values such as SF_rg = 0.7 and SF_br = −1.2, the higher the saturation of the skin color pixel, the larger the value of the skin color saturation coefficient SF. The value of the coefficient SF becomes small.

次に、判定条件設定部91から白色検出条件が取り込まれる(#33)。さらに、画像データから順次注目画素のR・G・B輝度値が取り込まれる(#34)。白色検出条件は2段階に分かれており、まず第1段階の検出条件が満たされているかどうかがチェックされる(#35)。この第1段階の検出条件は、
[abs(G-B)<ws_gb]、かつ
[abs(R-G)<ws_rg]、かつ
[abs(B-R)<ws_br]、かつ
[I<ws_I]、
で表されている。abs()は()内の数値の絶対値を求める関数表現である。この4つの条件からなる第1段階の判定条件を満たしている注目画素が白色画素の候補とみなされる。ここで、上記各定数は以下の通りに設定することができる;
ws_gb=ws_rg=ws_br=45、ws_I=112。
Next, the white detection condition is fetched from the determination condition setting unit 91 (# 33). Further, the R, G, B luminance values of the target pixel are sequentially taken from the image data (# 34). The white detection condition is divided into two stages. First, it is checked whether or not the first stage detection condition is satisfied (# 35). This first stage detection condition is:
[Abs (GB) <ws_gb] and [abs (RG) <ws_rg] and [abs (BR) <ws_br] and [I <ws_I],
It is represented by abs () is a function expression for obtaining the absolute value of the value in (). A target pixel that satisfies the first-stage determination condition including these four conditions is regarded as a white pixel candidate. Where each of the above constants can be set as follows:
ws_gb = ws_rg = ws_br = 45, ws_I = 112.

注目要素が白色画素の候補となった場合(#35でYes分岐)、第2段階の検出条件にかけられるが、この検出条件には白色画素検出のための注目画素の近傍における肌色画素の平均彩度係数と白色画素候補の彩度係数が条件要素の1つとして含まれているので、まず、ステップ#32で作成された肌色彩度マップを参照して、注目画素を中心とした40×40画素程度の近傍領域に位置している肌色画素の彩度係数の平均値Ave_SFを計算しておく(#36)。この近傍領域のサイズは出力階調度に依存し、ここでは、出力階調度が400dpi程度とする。さらにこの注目画素(白色画素候補)の彩度係数SFwも肌色彩度係数SFを求めた式と同じ式を用いて演算しておく(#37)。このような前処理を経て、注目画素(白色画素候補)が第2段階の検出条件を満足するかどうかをチェックする(#38)。この第2段階の検出条件は、
[SFw-Ave_SF<sh_SF]
で表されており、定数sh_SFの値は-12と設定されている。この第2段階の検出条件を満たしている(#38でYes分岐)注目画素(白色画素候補)が白色画素とみなされ、その画素位置を白色画素の画素位置として記憶しておく(#39)。この2段階にわたる白色検出を画像データを構成する全ての画素に対して行い、全画素に対する白色チェックが完了すると(#40)、記憶されている白色画素の画素位置に基づいて白色画素マップ93bを作成しておく(#41)。なお、この白色画素マップ93bの作成は白色画素の検出毎に、ステップ#39の段階で行うようにしてもよい。
If the target element is a candidate for a white pixel (Yes branch at # 35), the second detection condition is applied. This detection condition includes the average color of the skin color pixels in the vicinity of the target pixel for white pixel detection. Since the degree coefficient and the saturation coefficient of the white pixel candidate are included as one of the condition elements, first, the skin color saturation map created in step # 32 is referred to and 40 × 40 centered on the target pixel. An average value Ave_SF of the saturation coefficient of the skin color pixels located in the vicinity region of about the pixels is calculated (# 36). The size of this neighborhood region depends on the output gradation, and here, the output gradation is about 400 dpi. Further, the saturation coefficient SFw of the target pixel (white pixel candidate) is also calculated using the same expression as that for obtaining the skin color saturation coefficient SF (# 37). Through such pre-processing, it is checked whether the pixel of interest (white pixel candidate) satisfies the detection condition of the second stage (# 38). This second stage detection condition is:
[SFw-Ave_SF <sh_SF]
The value of the constant sh_SF is set to -12. The target pixel (white pixel candidate) that satisfies this second-stage detection condition (Yes branch at # 38) is regarded as a white pixel, and the pixel position is stored as the pixel position of the white pixel (# 39). . This white detection in two steps is performed for all the pixels constituting the image data, and when the white check for all the pixels is completed (# 40), the white pixel map 93b is obtained based on the stored pixel positions of the white pixels. Create (# 41). The white pixel map 93b may be created at the step # 39 every time a white pixel is detected.

赤色画素の検出は、赤色画素検出部92cにおいて図8に示されたサブルーチンに基づいて実行される。まず、判定条件設定部91から赤色検出条件が取り込まれる(#51)。この赤色検出条件は、赤色彩度係数SatRを用いていることから、まず注目画素のR・G・B輝度値を取り込み(#52)、このR・G・B輝度値から以下の要領で赤色彩度係数SatRが求められる(#53)。
min()を「、」で区切られた()内の数値の最小値をとる関数表現とし、max()を「、」で区切られた()内の数値の最大値をとる関数表現とすると、
mn=min(G,B)とmx=max(G,B)とで係数mnと係数mxを求めておき、R>mxかつR>Rshの時、SatR=100×(R-mn)/(R+1)の式を用い、R<=mx又はR<=Rshの時、SatR=0とすることでSatRの値を求める。ここで、定数Rshは、R・G・B輝度値が8ビットカラーデータの場合50程度が好適である。
The red pixel detection is executed in the red pixel detection unit 92c based on the subroutine shown in FIG. First, a red detection condition is fetched from the determination condition setting unit 91 (# 51). Since this red detection condition uses the red saturation coefficient SatR, first, the R, G, B luminance values of the pixel of interest are taken in (# 52), and the red, red, and red luminance values are obtained from the R, G, B luminance values as follows. A color saturation coefficient SatR is obtained (# 53).
Let min () be a function expression that takes the minimum value in () delimited by "," and max () be a function expression that takes the maximum value in () delimited by ",". ,
The coefficient mn and the coefficient mx are obtained from mn = min (G, B) and mx = max (G, B). When R> mx and R> Rsh, SatR = 100 × (R-mn) / ( R + 1) is used, and when R <= mx or R <= Rsh, the value of SatR is obtained by setting SatR = 0. Here, the constant Rsh is preferably about 50 when the R, G, and B luminance values are 8-bit color data.

このようにして求められた赤色彩度係数が判定定数:Sh_SatRより大きいことが赤色検出条件であり、ここでは判定定数はSh_SatR=50と設定されているので、赤色検出条件である[SatR>50]が満たされているかどうかチェックし(#54)、この赤色判定条件を満たした注目画素の画素位置を赤色画素の画素位置として記憶しておく(#55)。この肌色検出を画像データを構成する全ての画素に対して行い、全画素に対する肌色チェックが完了すると(#56)、記憶されている赤色画素の画素位置に基づいて赤色画素マップ93cを作成しておく(#16)。なお、この赤色画素マップ93cの作成は赤色画素の検出毎に、ステップ#55の段階で行うようにしてもよい。   It is the red detection condition that the red saturation coefficient obtained in this way is larger than the determination constant: Sh_SatR. Here, the determination constant is set to Sh_SatR = 50, so the red detection condition is [SatR> 50. ] Is satisfied (# 54), and the pixel position of the target pixel that satisfies this red determination condition is stored as the pixel position of the red pixel (# 55). When this skin color detection is performed for all the pixels constituting the image data and the skin color check for all the pixels is completed (# 56), a red pixel map 93c is created based on the stored pixel positions of the red pixels. (# 16). The red pixel map 93c may be created at the step # 55 every time a red pixel is detected.

赤目画素の決定は、赤色画素検出部92cにおいて図9に示されたサブルーチンに基づいて実行される。まず、赤目判別条件設定部94から赤目判別条件が取り込まれる(#71)。さらに赤目画素の判別には肌色画素、白色画素、赤色画素の情報が用いられるので、肌色画素マップ93a、白色画素マップ93b、赤色画素マップ93cも取り込まれる(#72)。赤目画素の候補となる画素は赤色画素であるので、赤目画素判定の注目画素として順次赤目画素が設定される(#73)。次いで、注目画素の中心とする周囲に40×40画素程度の処理対象周辺領域が設定される(#74)。周辺領域が設定されると、肌色画素マップ93aと白色画素マップ93bを参照しながら、この周辺領域に存在する肌色画素の個数と白色画素の個数が求められる(#75)。   The red-eye pixel is determined based on the subroutine shown in FIG. 9 in the red pixel detector 92c. First, the red-eye discrimination condition is fetched from the red-eye discrimination condition setting unit 94 (# 71). Further, since the skin color pixel information, the white color pixel information, and the red color pixel information are used for discrimination of the red eye pixel, the skin color pixel map 93a, the white pixel map 93b, and the red pixel map 93c are also captured (# 72). Since the red-eye pixel candidate pixel is a red pixel, the red-eye pixel is sequentially set as a target pixel for red-eye pixel determination (# 73). Next, a processing target peripheral area of about 40 × 40 pixels is set around the center of the target pixel (# 74). When the peripheral region is set, the number of skin color pixels and the number of white pixels existing in the peripheral region are obtained with reference to the skin color pixel map 93a and the white pixel map 93b (# 75).

40×40画素からなる周辺領域内の肌色画素の個数と白色画素の個数を求める際、計算をコンパクトにするため、図10に模式的に示されているように、8×8画素のブロックに区分けし、5×5=25ブロックの各ブロック毎に肌色画素の個数と白色画素の個数を求めるようにすると好都合である。そして同じブロック内に位置している赤色画素(図ではAとBで示している)について一方の赤色画素に関して求められた肌色画素の個数と白色画素の個数を他方赤色画素に対しても流用することで、計算負荷を減らすことも可能である。   In order to make the calculation compact when calculating the number of skin color pixels and the number of white pixels in the peripheral area composed of 40 × 40 pixels, as shown schematically in FIG. It is convenient to determine the number of flesh color pixels and the number of white pixels for each block of 5 × 5 = 25 blocks. For the red pixels (indicated by A and B in the figure) located in the same block, the number of skin color pixels and the number of white pixels obtained for one red pixel are also used for the other red pixel. Therefore, it is possible to reduce the calculation load.

赤目判別条件は、周辺領域に存在する肌色画素の個数と白色画素の個数がそれぞれの判別値以上としており、この判別値は実験的に求めることができる。また、この判別値は特に前述した周辺領域のサイズに依存しており、ステップ#74で設定される周辺領域サイズにより、自動的に適合する判別値がセットされる。例えば、一般的な人物写真において、40×40画素からなる周辺領域の場合、肌色画素個数の判別値は250〜300画素数であり、白色画素個数の判別値は15〜30画素数である。   The red-eye discrimination condition is that the number of skin color pixels and the number of white pixels existing in the peripheral region are equal to or greater than the respective discrimination values, and this discrimination value can be obtained experimentally. This discriminant value depends in particular on the size of the peripheral region described above, and a discriminant value that is automatically adapted is set according to the peripheral region size set in step # 74. For example, in a general human photograph, in a peripheral region composed of 40 × 40 pixels, the discriminant value for the number of flesh color pixels is 250 to 300 pixels, and the discriminant value for the number of white pixels is 15 to 30 pixels.

そのような判別値を用いた赤目判別条件が満たされているかどうかチェックし(#76)、この赤目判別条件を満たした注目画素(赤色画素)の画素位置を赤目画素の画素位置として記憶しておく(#77)。この赤目画素の決定処理を赤色画素マップ93cで規定されている全ての赤色画素に対して行い、全画素に対する赤目判別が完了すると(#78)、記憶されている赤目画素の画素位置に基づいて赤目画素マップ96を作成する(#79)。なお、この赤目画素マップ96の作成は赤目画素の決定毎に、ステップ#77の段階で行うようにしてもよい。   It is checked whether the red-eye discrimination condition using such a discrimination value is satisfied (# 76), and the pixel position of the target pixel (red pixel) that satisfies the red-eye discrimination condition is stored as the pixel position of the red-eye pixel. (# 77). This red-eye pixel determination process is performed for all red pixels defined in the red pixel map 93c, and when red-eye discrimination for all the pixels is completed (# 78), based on the stored pixel positions of the red-eye pixels. A red-eye pixel map 96 is created (# 79). The red-eye pixel map 96 may be created at step # 77 every time a red-eye pixel is determined.

このようにして、画像データにおける赤目画素の位置を規定している赤目画素マップ96が作成されると、後は、適切な赤目補正処理を通じて赤目画素が補正される。この実施の形態では、赤目画素の彩度を下げることで赤目補正されるが、その彩度減少の計算式は以下に示されている;
d=(R+G+B)/3、
R'=(1−t)×d+t×R、
G'=(1−t)×d+t×G、
B'=(1−t)×d+t×B。
つまり、赤目画素の輝度値(R,G,B)が(R',G',B')に変更されることで、赤目が違和感のない瞳色となる。なお、ここで係数tは、赤目補正の補正の度合いを表しており、この値が1の時補正がなしとなり、この値が0の時、補正の度合いが最大、つまりその色はグレーとなる。この補正の度合い:tは場合によっては赤目判別困難性予測部70によって予想される赤目補正の困難度に応じて設定されてもよいし、そのような困難性が予測できない場合は前設定された値、好ましくは0.45〜0.55を採用するとよい。これにより、正しい赤目検出による赤目の防止の利点と赤目の誤検出による撮影画像の乱れとがバランス良く釣り合って、違和感のない写真プリントを得ることができる。
When the red-eye pixel map 96 defining the position of the red-eye pixel in the image data is created in this manner, the red-eye pixel is corrected through an appropriate red-eye correction process. In this embodiment, the red-eye correction is performed by reducing the saturation of the red-eye pixel, and the calculation formula for the saturation reduction is shown below:
d = (R + G + B) / 3,
R ′ = (1−t) × d + t × R,
G ′ = (1−t) × d + t × G,
B ′ = (1−t) × d + t × B.
That is, by changing the luminance value (R, G, B) of the red-eye pixel to (R ′, G ′, B ′), the red-eye becomes a pupil color with no sense of incongruity. Here, the coefficient t represents the degree of correction of red-eye correction. When this value is 1, no correction is made. When this value is 0, the degree of correction is maximum, that is, the color is gray. . The degree of correction: t may be set according to the degree of difficulty of red-eye correction predicted by the red-eye discrimination difficulty prediction unit 70 in some cases, and is set in advance when such difficulty cannot be predicted. A value, preferably 0.45 to 0.55, may be employed. As a result, the advantage of preventing red-eye by correct red-eye detection and the disturbance of the captured image due to erroneous detection of red-eye are balanced with each other, and a photographic print with no sense of incongruity can be obtained.

赤目画素の彩度を下げることで赤目補正することは、実際の瞳色が明るいブルーやグリーンの場合では必ずしも良い結果を生み出さない。このようなケースにおいては、オプションで備えられる瞳色設定部98によって設定入力された瞳色がもつ輝度値に赤目画素の輝度値を近づけるような処理を赤目補正処理として採用すると良い。その際、係数tは赤目画素の輝度値から瞳色の輝度値に到るグラデーション直線における任意の位置として表し、係数tが0で無補正、係数tが1で瞳色の輝度値への完全移行、その間の数値で任意のグラデーション値への移行とするとよい。   Red-eye correction by reducing the saturation of red-eye pixels does not necessarily produce good results when the actual pupil color is light blue or green. In such a case, a process for bringing the luminance value of the red-eye pixel closer to the luminance value of the pupil color set and input by the optional pupil color setting unit 98 may be adopted as the red-eye correction process. In this case, the coefficient t is expressed as an arbitrary position on the gradation line from the luminance value of the red-eye pixel to the luminance value of the pupil color. The coefficient t is 0, no correction is performed, and the coefficient t is 1 to complete the luminance value of the pupil color. It is better to set the transition to any gradation value with the numerical value in between.

いずれにしても、適当な度合いで赤目補正処理を施された画像データは、必要な画像処理を施された後、プリントデータに変換されて、プリント露光部14に転送される。プリント露光部14はプリントデータに基づいて最終的に写真プリントとなる印画紙Pを露光する。   In any case, image data that has been subjected to red-eye correction processing at an appropriate level is subjected to necessary image processing, converted to print data, and transferred to the print exposure unit 14. The print exposure unit 14 exposes the photographic paper P that finally becomes a photographic print based on the print data.

上述した実施の形態では、プリントステーション1Bは、印画紙Pに対し、露光エンジンを備えたプリント露光部14で撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理する、いわゆる銀塩写真プリント方式を採用していたが、もちろん、本発明におけるプリントステーション1Bは、このような方式に限定されるわけではなく、例えば、フィルムや紙にインクを吐出して画像を形成するインクジェットプリント方式や感熱転写シートを用いた熱転写方式など、種々の写真プリント方式を採用することができる。   In the above-described embodiment, the print station 1B exposes a photographed image to the photographic paper P by the print exposure unit 14 having an exposure engine, and performs a plurality of development processes on the photographic paper P after the exposure. Although the silver salt photographic printing method was adopted, of course, the printing station 1B according to the present invention is not limited to such a method. For example, an ink jet that ejects ink onto a film or paper to form an image. Various photographic printing methods such as a printing method and a thermal transfer method using a thermal transfer sheet can be employed.

本発明は、赤目を生じている撮影画像データから赤目画素を検出することが必要な画像処理装置への組み込み技術として広く利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be widely used as a technique for incorporating into an image processing apparatus that needs to detect red-eye pixels from captured image data in which red eyes are generated.

本発明による赤目補正技術を採用した写真プリント装置の外観図External view of photographic printing apparatus employing red-eye correction technology according to the present invention 写真プリント装置のプリントステーションの構成を模式的に示す模式図Schematic diagram schematically showing the configuration of the print station of the photo printing device 写真プリント装置のコントローラ内に構築される機能要素を説明する機能ブロック図Functional block diagram explaining the functional elements built in the controller of the photo printing device 赤目補正処理手段の機能構成を示す機能ブロック図Functional block diagram showing the functional configuration of red-eye correction processing means 赤目補正処理全体のフローチャートFlowchart of the entire red-eye correction process 肌色検出のサブルーチンSkin color detection subroutine 白色検出のサブルーチンWhite detection subroutine 赤色検出のサブルーチンRed detection subroutine 赤目判別のサブルーチンRed eye discrimination subroutine 赤目判別処理時における周辺領域の区分けを説明する説明図Explanatory drawing explaining the division of the surrounding area during the red-eye discrimination process

符号の説明Explanation of symbols

60:プリント注文処理ユニット
70:画像処理ユニット
80:赤目判別困難度予測部
90:赤目補正処理手段
91:判定条件設定部
92:特定色画素検出部
92a:肌色画素検出部
92b:白色画素検出部
92c:赤色画素検出部
93:特定色画素マップ
93a:肌色画素マップ
93b:白色画素マップ
93c:赤色画素マップ
94:判別条件設定部
95:赤目画素決定部
96:赤目画素マップ
97:赤目補正部
98:瞳色設定部
60: Print order processing unit 70: Image processing unit 80: Red-eye discrimination difficulty prediction unit 90: Red-eye correction processing unit 91: Determination condition setting unit 92: Specific color pixel detection unit 92a: Skin color pixel detection unit 92b: White pixel detection unit 92c: Red pixel detection unit 93: Specific color pixel map 93a: Skin color pixel map 93b: White pixel map 93c: Red pixel map 94: Discrimination condition setting unit 95: Red eye pixel determination unit 96: Red eye pixel map 97: Red eye correction unit 98 : Eye color setting section

Claims (8)

撮影画像データに生じている赤目を補正する赤目補正方法において、
前記撮影画像データの各画素から所定の肌色検出条件を満たす画素を肌色画素として検出するステップと、
前記撮影画像データの各画素から所定の白色検出条件を満たす画素を白色画素として検出するステップと、
前記撮影画像データの各画素から所定の赤色検出条件を満たす画素を赤色画素として検出するステップと、
前記赤色画素を赤目画素候補とし、この赤目画素候補の周辺領域内における前記肌色画素と前記白色画素の各存在個数を用いた判別条件に基づいて前記赤目画像候補を赤目画素と認定するステップと、
前記認定された赤目画素の画素値を変更することで赤目補正を行うステップとから構成されていることを特徴とする赤目補正方法。
In the red-eye correction method for correcting red-eye generated in captured image data,
Detecting a pixel satisfying a predetermined skin color detection condition from each pixel of the photographed image data as a skin color pixel,
Detecting a pixel that satisfies a predetermined white detection condition from each pixel of the captured image data as a white pixel,
Detecting a pixel satisfying a predetermined red detection condition from each pixel of the captured image data as a red pixel,
Recognizing the red-eye image candidate as a red-eye pixel based on a determination condition using the red-color pixel as a red-eye pixel candidate, and a discrimination condition using each number of the skin-color pixels and the white pixels in a peripheral region of the red-eye pixel candidate;
A red-eye correction method comprising: performing red-eye correction by changing a pixel value of the certified red-eye pixel.
前記肌色検出条件は各画素の画素値であるR・G・B成分値に基づいてR成分値とG成分値との差分値,G成分値とB成分値との差分値,B成分値とR成分値との差分値およびその画素の輝度値を用いて定義されており、前記白色検出条件は白色画素候補の肌色彩度とその白色画素候補の周辺に位置する前記肌色画素の平均肌色彩度を用いて定義されており、前記赤色検出条件は赤色彩度を用いて定義されていることを特徴とする請求項1に記載の赤目補正方法。 The skin color detection condition is based on the R, G, and B component values that are the pixel values of each pixel, the difference value between the R component value and the G component value, the difference value between the G component value and the B component value, the B component value, difference value between the R component values and is defined using the luminance value of the pixel, an average skin color of the skin color pixel the white detection condition is located around the white pixel candidate with the skin color of the white pixel candidate The red-eye correction method according to claim 1, wherein the red detection condition is defined using red saturation. 前記認定された赤目画素の彩度を下げることによって前記赤目補正を行うことを特徴とする請求項1又は2に記載の赤目補正方法。   The red-eye correction method according to claim 1, wherein the red-eye correction is performed by lowering a saturation of the certified red-eye pixel. 前記認定された赤目画素の画素値を瞳色に対応する画素値に近づけることで赤目補正を行うことを特徴とする請求項1又は2に記載の赤目補正方法。   The red-eye correction method according to claim 1, wherein red-eye correction is performed by bringing a pixel value of the certified red-eye pixel closer to a pixel value corresponding to a pupil color. 赤目補正のために前記認定された赤目画素の画素値を変更する際予め予測された赤目判別困難度に応じてその変更度を調整することを特徴とする請求項1〜4のいずれかに記載の赤目補正方法。   The degree of change is adjusted according to a red-eye discrimination difficulty level predicted in advance when the pixel value of the certified red-eye pixel is changed for red-eye correction. Red-eye correction method. 撮影画像データに生じている赤目を補正するために、
前記撮影画像データの各画素から所定の肌色検出条件を満たす画素を肌色画素として検出する機能と、
前記撮影画像データの各画素から所定の白色検出条件を満たす画素を白色画素として検出する機能と、
前記撮影画像データの各画素から所定の赤色検出条件を満たす画素を赤色画素として検出する機能と、
前記赤色画素を赤目画素候補とし、この赤目画素候補の周辺領域内における前記肌色画素と前記白色画素の各存在個数を用いた判別条件に基づいて前記赤目画像候補を赤目画素と認定する機能と、
前記認定された赤目画素の画素値を変更することで赤目補正を行う機能をコンピュータに実行させる赤目補正プログラム。
In order to correct the red eye that occurs in the captured image data,
A function of detecting a pixel that satisfies a predetermined skin color detection condition from each pixel of the photographed image data as a skin color pixel,
A function of detecting a pixel that satisfies a predetermined white detection condition from each pixel of the captured image data as a white pixel,
A function of detecting a pixel that satisfies a predetermined red detection condition from each pixel of the captured image data as a red pixel,
A function of recognizing the red-eye image candidate as a red-eye pixel based on a determination condition using each red pixel as a red-eye pixel candidate, and using the number of the skin-colored pixels and the white pixels existing in a peripheral region of the red-eye pixel candidate;
A red-eye correction program for causing a computer to execute a function of performing red-eye correction by changing a pixel value of the certified red-eye pixel.
入力された撮影画像データに生じている赤目を補正する画像処理装置において、
前記撮影画像データの各画素から所定の肌色検出条件を満たす画素を肌色画素として検出する肌色画素検出部と、
前記撮影画像データの各画素から所定の白色検出条件を満たす画素を白色画素として検出する白色画素検出部と、
前記撮影画像データの各画素から所定の赤色検出条件を満たす画素を赤色画素として検出する赤色画素検出部と、
前記赤色画素を赤目画素候補とし、この赤目画素候補の周辺領域内における前記肌色画素と前記白色画素の各存在個数を用いた判別条件に基づいて前記赤目画像候補を赤目画素と認定する赤目画素決定部と、
前記認定された赤目画素の画素値を変更することで赤目補正を行う赤目補正部とから構成されていることを特徴とする画像処理装置。
In an image processing apparatus that corrects red-eye generated in input captured image data,
A skin color pixel detection unit that detects a pixel that satisfies a predetermined skin color detection condition from each pixel of the photographed image data as a skin color pixel,
White pixel detection unit that detects a pixel that satisfies a predetermined white detection condition from each pixel of the captured image data as a white pixel,
A red pixel detector for detecting a pixel that satisfies a predetermined red detection condition from each pixel of the captured image data as a red pixel,
A red-eye pixel is determined that recognizes the red-eye image candidate as a red-eye pixel based on a determination condition using the red pixel as a red-eye pixel candidate and the number of the skin-colored pixels and the white pixels existing in the peripheral region of the red-eye pixel candidate. And
An image processing apparatus comprising: a red-eye correction unit that performs red-eye correction by changing a pixel value of the certified red-eye pixel.
赤目判別の困難度を予測する赤目判別困難度予測部が備えられ、この赤目判別困難度に応じて前記赤目補正部は前記認定された赤目画素の画素値を変更する度合いを調整することを特徴とする請求項7に記載の画像処理装置。   A red-eye discrimination difficulty prediction unit that predicts a red-eye discrimination difficulty is provided, and the red-eye correction unit adjusts a degree of changing a pixel value of the certified red-eye pixel according to the red-eye discrimination difficulty. The image processing apparatus according to claim 7.
JP2003366132A 2003-10-27 2003-10-27 Red-eye correction method and apparatus for carrying out this method Expired - Fee Related JP4431949B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003366132A JP4431949B2 (en) 2003-10-27 2003-10-27 Red-eye correction method and apparatus for carrying out this method
EP04025018A EP1528509A3 (en) 2003-10-27 2004-10-21 Image processing method and apparatus for red eye correction
CNB2004100879871A CN1267855C (en) 2003-10-27 2004-10-26 Red eye correction method and apparatus for implementing said method
US10/974,661 US7486317B2 (en) 2003-10-27 2004-10-26 Image processing method and apparatus for red eye correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003366132A JP4431949B2 (en) 2003-10-27 2003-10-27 Red-eye correction method and apparatus for carrying out this method

Publications (2)

Publication Number Publication Date
JP2005128942A JP2005128942A (en) 2005-05-19
JP4431949B2 true JP4431949B2 (en) 2010-03-17

Family

ID=34420101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003366132A Expired - Fee Related JP4431949B2 (en) 2003-10-27 2003-10-27 Red-eye correction method and apparatus for carrying out this method

Country Status (4)

Country Link
US (1) US7486317B2 (en)
EP (1) EP1528509A3 (en)
JP (1) JP4431949B2 (en)
CN (1) CN1267855C (en)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7336821B2 (en) 2006-02-14 2008-02-26 Fotonation Vision Limited Automatic detection and correction of non-red eye flash defects
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
JP2005310068A (en) * 2004-04-26 2005-11-04 Noritsu Koki Co Ltd Method for correcting white of eye, and device for executing the method
JP4522323B2 (en) * 2005-06-02 2010-08-11 キヤノン株式会社 Image processing apparatus and control method thereof
US7907786B2 (en) * 2005-06-06 2011-03-15 Xerox Corporation Red-eye detection and correction
CN100354875C (en) * 2005-09-29 2007-12-12 上海交通大学 Red eye moving method based on human face detection
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
US7567707B2 (en) * 2005-12-20 2009-07-28 Xerox Corporation Red eye detection and correction
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
KR100862341B1 (en) * 2006-11-13 2008-10-13 삼성전기주식회사 Device for detecting skin of people and Method thereof
US8315463B2 (en) * 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition
US7764846B2 (en) * 2006-12-12 2010-07-27 Xerox Corporation Adaptive red eye correction
ITVA20060079A1 (en) * 2006-12-19 2008-06-20 St Microelectronics Srl PIXEL CHROMATIC CLASSIFICATION METHOD AND ADAPTIVE IMPROVEMENT METHOD OF A COLOR IMAGE
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP2010520567A (en) 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド Red-eye false detection filtering using face position and orientation
JP2008234342A (en) * 2007-03-20 2008-10-02 Fujifilm Corp Image processor and image processing method
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
JP5089405B2 (en) 2008-01-17 2012-12-05 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
CN101447026B (en) * 2008-12-26 2013-02-13 北京中星微电子有限公司 Pinkeye detecting device and detection method
US8559668B2 (en) * 2009-06-01 2013-10-15 Apple Inc. Red-eye reduction using facial detection
US8300929B2 (en) * 2009-10-07 2012-10-30 Seiko Epson Corporation Automatic red-eye object classification in digital photographic images
CN102004907A (en) * 2010-11-23 2011-04-06 无锡港湾网络科技有限公司 Red-eye effect-based human face detection method
JP6155785B2 (en) * 2013-04-15 2017-07-05 オムロン株式会社 Image processing apparatus, image processing apparatus control method, image processing program, and recording medium therefor
WO2014203082A2 (en) * 2013-05-28 2014-12-24 Marvell World Trade Ltd. Systems and methods for red-eye correction
US9355315B2 (en) 2014-07-24 2016-05-31 Microsoft Technology Licensing, Llc Pupil detection
US11403788B2 (en) * 2019-11-22 2022-08-02 Beijing Sensetime Technology Development Co., Ltd. Image processing method and apparatus, electronic device, and storage medium

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036285B2 (en) 1993-03-05 2000-04-24 ミノルタ株式会社 Red eye position detector
US6631208B1 (en) * 1998-05-29 2003-10-07 Fuji Photo Film Co., Ltd. Image processing method
JP4050842B2 (en) 1998-06-15 2008-02-20 富士フイルム株式会社 Image processing method
US6718051B1 (en) * 2000-10-16 2004-04-06 Xerox Corporation Red-eye detection method
US6873743B2 (en) * 2001-03-29 2005-03-29 Fotonation Holdings, Llc Method and apparatus for the automatic real-time detection and correction of red-eye defects in batches of digital images or in handheld appliances
EP1288858A1 (en) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Method for automatically detecting red-eye defects in photographic image data
EP1288860A1 (en) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Method for processing digital photographic image data including a method for the automatic detection of red-eye defects
EP1288859A1 (en) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Method for automatic detection of red-eye defecs in photographic images
EP1293933A1 (en) * 2001-09-03 2003-03-19 Agfa-Gevaert AG Method for automatically detecting red-eye defects in photographic image data
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
AU2003207336A1 (en) * 2002-02-22 2003-09-09 Pixology Software Limited Detection and correction of red-eye features in digital images
GB2385736B (en) * 2002-02-22 2005-08-24 Pixology Ltd Detection and correction of red-eye features in digital images
US7116820B2 (en) * 2003-04-28 2006-10-03 Hewlett-Packard Development Company, Lp. Detecting and correcting red-eye in a digital image
US7310443B1 (en) * 2003-09-17 2007-12-18 Sonic Solutions, Inc. Automatic red eye detection and correction in digital images
US7295686B2 (en) * 2003-09-29 2007-11-13 Primax Electronics Ltd. Method of processing red eye in digital images

Also Published As

Publication number Publication date
US20050117173A1 (en) 2005-06-02
EP1528509A3 (en) 2009-10-21
JP2005128942A (en) 2005-05-19
US7486317B2 (en) 2009-02-03
CN1612164A (en) 2005-05-04
EP1528509A2 (en) 2005-05-04
CN1267855C (en) 2006-08-02

Similar Documents

Publication Publication Date Title
JP4431949B2 (en) Red-eye correction method and apparatus for carrying out this method
US7298380B2 (en) Image processing method and apparatus for white eye correction
US7460707B2 (en) Image processing method and apparatus for red eye correction
US7062086B2 (en) Red-eye detection based on red region detection with eye confirmation
US20050286793A1 (en) Photographic image processing method and equipment
JP2006303899A (en) Image processor, image processing system, and image processing program
US20090324069A1 (en) Image processing device, image processing method, and computer readable medium
JP2007094840A (en) Image processing device and image processing method
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
JP4441876B2 (en) Photographed image processing method, photographed image processing program, and photographed image processing apparatus
JP2005148915A (en) Proper face discrimination method and apparatus for implementing the method
JP2005286830A (en) Image processing method, image processing apparatus, and program
JP4708250B2 (en) Red-eye correction processing system, red-eye correction processing method, and red-eye correction processing program
JP4441853B2 (en) Face selection method for density correction and apparatus for carrying out this method
US20050094894A1 (en) Image processing device, image processing method, and program therefor
JP2006074742A (en) Photographing scene correcting method, program, and photographing scene correction processing system implementing the method
JP4831413B2 (en) Red-eye correction device and red-eye correction program
JP2006059162A (en) Tooth image correction method and device
JP2008079196A (en) Image correcting method, image correcting program and image correcting module
JP4513006B2 (en) Emulsion scratch determination method and emulsion scratch determination system
JP2008079022A (en) Image correction unit and image correction program
JP2006072742A (en) Catch light composition method and device
JP2008153756A (en) Method and module for generating density correction curve

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees