JPH1091761A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH1091761A
JPH1091761A JP8245165A JP24516596A JPH1091761A JP H1091761 A JPH1091761 A JP H1091761A JP 8245165 A JP8245165 A JP 8245165A JP 24516596 A JP24516596 A JP 24516596A JP H1091761 A JPH1091761 A JP H1091761A
Authority
JP
Japan
Prior art keywords
red
image
eye
processing
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8245165A
Other languages
Japanese (ja)
Inventor
Atsushi Ito
淳志 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP8245165A priority Critical patent/JPH1091761A/en
Publication of JPH1091761A publication Critical patent/JPH1091761A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a picture processor in which red-eye effect can be corrected to a natural state by a simple operation. SOLUTION: A red eye part 228 of a photographic picture 214 is designated by a manual operation, and the position of a catch light is also designated. A main processor 18 expresses the photographic picture, and corrects the red eyes of original picture data stored in a picture memory 16. At first, the photographic picture is displayed on a display device 22, and the area 228 in which the red eye should be corrected, an objective color, and the position of the catch light are designated by an operating device 24. The main processor 18 radially forms a gradation pattern from the center of the area 228 toward the peripheral edge part, corrects it in the designated color, and forms a high luminance area at the position of the catch light for the original picture data in the picture memory 16. Thus, eyes which look natural and lively can be reproduced in a reproduced picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置に関
する。とくに、写真画像の赤目を修正する画像処理装置
に関するものである。
[0001] The present invention relates to an image processing apparatus. More particularly, the present invention relates to an image processing apparatus for correcting red eyes of a photographic image.

【0002】[0002]

【従来の技術】周知のように、閃光光源によって人物な
どをカラー撮影すると、その目が赤く撮影される赤目現
象がある。これを避けるため、撮影光の光軸を撮像系の
光軸からずらすなどの積極対策がある。また、撮影され
てしまった画像については、撮影された目の赤い部分を
修正して自然な瞳の色を再現する修正処理を行なうこと
がある。ディジタル画像データの場合、従来、1コマの
画像を表示装置に表示して、赤目の部分を1画素ずつ、
マウス操作などの手操作(レタッチ)で本来の色に修正
していた。また、指定した範囲を指定した色で塗りつぶ
す方式もあった。さらに、赤目の部分の色を指定して、
クロマキーにより自動的に修正する装置も提案されてい
た。
2. Description of the Related Art As is well known, when a person or the like is photographed in color by a flash light source, there is a red-eye phenomenon in which the eyes are photographed in red. In order to avoid this, there are positive measures such as shifting the optical axis of the photographing light from the optical axis of the imaging system. In some cases, for a captured image, a correction process for correcting a red portion of the captured eye to reproduce a natural pupil color may be performed. Conventionally, in the case of digital image data, one frame of image is displayed on a display device, and a red-eye portion is displayed one pixel at a time.
The original color was corrected by manual operation (retouch) such as mouse operation. There is also a method of filling a specified range with a specified color. In addition, specify the color of the red eye part,
A device for automatically correcting by chroma key has also been proposed.

【0003】[0003]

【発明が解決しようとする課題】上述のレタッチ修正
は、目標とする目の色や濃度の選択に熟練を要し、面倒
な作業であった。また、指定した範囲を指定した色で塗
りつぶす方式は、修正画像が自然さに欠ける欠点があっ
た。これを避けるため、修正部分と元の画像に残ってい
た部分との境界をぼかすなどして、違和感を少なくする
ことが考えられる。しかし、いずれにせよ、基本的に
は、別な色に置き換えるだけの処理であり、修正結果に
不自然さが残っていた。さらに、クロマキーによる修正
は、画面内の赤目と同じ色の他の部分も同時に修正して
しまうことがあり、正確さに欠け、誤動作する可能性が
あった。
The retouch correction described above requires skill in selecting the target eye color and density, and is a cumbersome operation. Further, the method of filling a specified range with a specified color has a disadvantage that the corrected image lacks naturalness. In order to avoid this, it is conceivable to blur the boundary between the corrected portion and the portion remaining in the original image to reduce the sense of discomfort. However, in any case, it is basically a process of merely replacing the color with another color, and the correction result has unnaturalness. Further, the correction by the chroma key sometimes corrects other portions of the same color as the red eye in the screen at the same time, resulting in a lack of accuracy and a possibility of malfunction.

【0004】本発明はこのような従来技術の欠点を解消
し、簡略な操作で自然に見える状態に赤目を修正するこ
とのできる画像処理装置を提供することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus which solves the above-mentioned drawbacks of the prior art, and which can correct red-eye in a state where it looks natural by a simple operation.

【0005】[0005]

【課題を解決するための手段】本発明は上述の課題を解
決するために、写真画像の赤目の部分を手操作で指定
し、その際、キャッチライトを指示する。これにより、
再生画像において、自然な、生き生きとした表情の目を
再現することができる。
According to the present invention, in order to solve the above-mentioned problem, a red-eye portion of a photographic image is manually designated, and at that time, a catch light is designated. This allows
In the reproduced image, eyes with a natural and lively expression can be reproduced.

【0006】より具体的には、本発明によれば、写真画
像を表わす原画像データを蓄積する蓄積手段と、原画像
データを補正する処理手段と、原画像データの表わす写
真画像を可視表示する表示手段と、処理手段に対する指
示を入力する手操作手段とを含み、写真画像の赤目を修
正する画像処理装置において、手操作手段は、表示手段
に表示された写真画像の所望の部分を指定する第1の指
定手段と、この指定された部分に施すべき色を指定する
第2の指定手段とを含み、処理手段は、第1および第2
の指定手段に応動して、蓄積手段に蓄積されている原画
像データの前記指定された部分に赤目処理を行なう赤目
処理手段を含み、赤目処理手段は、前記指定された部分
の中心からその周縁部に向かってこの部分の原画像デー
タに階調を与え、前記指定された部分を前記指定された
色で補正する。
More specifically, according to the present invention, storage means for storing original image data representing a photographic image, processing means for correcting the original image data, and a photographic image represented by the original image data are displayed in a visible manner. In an image processing apparatus that includes a display unit and a manual operation unit that inputs an instruction to the processing unit, and corrects a red-eye of the photographic image, the manual operation unit specifies a desired portion of the photographic image displayed on the display unit. A first designation unit; and a second designation unit for designating a color to be applied to the designated portion, wherein the processing unit comprises a first and a second designation unit.
Red-eye processing means for performing red-eye processing on the specified portion of the original image data stored in the storage means in response to the specifying means, wherein the red-eye processing means extends from the center of the specified portion to its periphery. The gradation is given to the original image data of this part toward the part, and the specified part is corrected with the specified color.

【0007】本発明によれば有利には、画像処理装置
は、前記指定された部分におけるキャッチライトの位置
を指定する第3の指定手段を含み、赤目処理手段は、第
3の指定手段に応動して、この指定されたキャッチライ
トの位置に高輝度領域を形成する。
According to the present invention, advantageously, the image processing apparatus includes third specifying means for specifying the position of the catchlight in the specified portion, and the red-eye processing means is responsive to the third specifying means. Then, a high brightness area is formed at the position of the designated catch light.

【0008】[0008]

【発明の実施の形態】次に添付図面を参照して本発明に
よる画像処理装置の実施例を詳細に説明する。図1を参
照すると、本発明の実施例の画像処理装置10は、たとえ
ばイメージスキャナ12によってカラーネガまたは写真プ
リント13から読み込んだ画像に所望の画像処理を施し、
画像処理された画像を、たとえばプリンタ14に写真プリ
ント15として出力する装置である。画像処理としては、
たとえば色補正や濃度補正などの一般に行なわれる画像
の修正のほかに、本発明が関係する赤目補正がある。こ
れらの画像処理のために本装置10は、画像データを蓄積
し操作する一時記憶装置としての画像メモリ16、および
画像処理を含む様々な処理を行なう主処理装置18を有す
る。両者は、図示のようにシステムバス20によって相互
に接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment of an image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings. Referring to FIG. 1, an image processing apparatus 10 according to an embodiment of the present invention performs desired image processing on an image read from a color negative or a photographic print 13 by an image scanner 12, for example.
This is a device that outputs an image that has undergone image processing to a printer 14 as a photographic print 15, for example. As image processing,
In addition to commonly performed image corrections such as, for example, color correction and density correction, there is red eye correction to which the present invention pertains. For these image processing, the present apparatus 10 has an image memory 16 as a temporary storage device for storing and operating image data, and a main processing device 18 for performing various processes including image processing. Both are interconnected by a system bus 20 as shown.

【0009】画像メモリ16は、本実施例では4コマの画
像領域に相当する画像データを蓄積可能な一時記憶装置
であり、後述の赤目処理もこの記憶領域を利用して行な
われる。4コマ分の記憶領域のうち2コマ分は、原画像
のデータを保存してアンドゥに備えておくためであり、
必ずしも本質的に必要ではない。主処理装置18は、本装
置10全体を統括し制御する制御装置であり、コンピュー
タによって実現される。赤目処理を含む様々な画像処理
も主処理装置18によって行なわれる。
The image memory 16 is a temporary storage device capable of storing image data corresponding to an image area of four frames in this embodiment, and red-eye processing to be described later is also performed using this storage area. Two of the four frames are used to store the original image data and prepare for undoing.
Not necessarily essential. The main processing device 18 is a control device that controls and controls the entire device 10 and is realized by a computer. Various image processing including red-eye processing is also performed by the main processing device 18.

【0010】システムバス20にはまた、図示のように表
示装置22、操作装置24、外部磁気記憶26、RAM (ランダ
ムアクセスメモリ)28および変倍部30も接続されてい
る。表示装置22は、本装置10の状態や処理画像をその表
示スクリーン(図示せず)にカラー表示する、たとえば
CRT やLCD などの可視表示装置である。もちろん、音声
出力装置(図示せず)を備えていてもよい。操作装置24
は、操作者の本装置10に対する指示を入力する操作装置
であり、マウスまたはトラックボールなどのポインティ
ングデバイスを含み、またキーボード(いずれも図示せ
ず)を有していてもよい。なお、このような操作装置24
に代わって、またはこれに加えて、表示装置22の表示画
面にタッチパネルを設けてもよい。
As shown, a display device 22, an operation device 24, an external magnetic storage 26, a RAM (random access memory) 28, and a scaling unit 30 are also connected to the system bus 20. The display device 22 displays the state of the device 10 and the processed image on a display screen (not shown) in color.
Visible display devices such as CRT and LCD. Of course, an audio output device (not shown) may be provided. Operating device 24
Is an operation device for inputting an instruction from the operator to the device 10, includes a pointing device such as a mouse or a trackball, and may have a keyboard (neither is shown). Note that such an operating device 24
Alternatively or additionally, a touch panel may be provided on the display screen of the display device 22.

【0011】外部磁気記憶26は、フロッピーディスクお
よび(または)固定ディスクなどの大容量磁気記憶装置
もしくはその駆動装置である。外部磁気記憶26は、たと
えば画像データの蓄積に利用される。RAM 28は、演算デ
ータや処理データの一時記憶領域として利用される。ま
た、変倍部30は、画像メモリ16に蓄積された1コマの画
像データを拡大したり、縮小したりする変倍操作を行う
処理部である。
The external magnetic storage 26 is a high-capacity magnetic storage device such as a floppy disk and / or a fixed disk or a driving device thereof. The external magnetic storage 26 is used for storing image data, for example. The RAM 28 is used as a temporary storage area for calculation data and processing data. The scaling unit 30 is a processing unit that performs a scaling operation of enlarging or reducing one frame of image data stored in the image memory 16.

【0012】システムバス20にはまたSCSI(小型コンピ
ュータシステムインタフェース)インタフェース32が接
続され、これを通して本実施例では、図示のようにプリ
ンタ14、MOドライブ34およびメモリカードリーダ36がSC
SIバス38によって接続されている。プリンタ14は、前述
のように画像処理された画像を、たとえば写真プリント
15として出力したり、本装置10内の状態や様々なデータ
をハードコピーとして印刷する出力装置である。またMO
ドライブ34は、たとえば画像データを含む様々なデータ
を光磁気ディスクに書き込んだり、これから読み出した
りする入出力装置である。メモリカードリーダ36は、た
とえばディジタル電子スチルカメラ画像の記録されたメ
モリカードから本装置10に画像データを読み込んだり、
またこれに画像データを書き込んだりする入出力装置で
ある。もちろんこのほかに、たとえば通信回線を介して
画像データを送受信するポートを含んでいてもよい。
A SCSI (small computer system interface) interface 32 is also connected to the system bus 20, through which the printer 14, the MO drive 34, and the memory card reader 36 are connected as shown in this embodiment.
Connected by SI bus 38. The printer 14 converts the image processed as described above into a photo print, for example.
This is an output device that outputs as 15 or prints the state and various data in the device 10 as a hard copy. Also MO
The drive 34 is an input / output device for writing and reading various data including, for example, image data to and from a magneto-optical disk. The memory card reader 36 reads image data into the device 10 from a memory card on which a digital electronic still camera image is recorded, for example,
Also, it is an input / output device for writing image data into the input / output device. Of course, in addition to this, for example, a port for transmitting and receiving image data via a communication line may be included.

【0013】動作状態において、操作装置24を操作し
て、画像データの読込みを指示する(図2のステップ 1
02)。これに応動して主処理装置18は、たとえば、ネガ
またはプリント写真13の場合はイメージスキャナ12によ
り、磁気ディスクの場合は外部磁気記憶26から、また光
ディスクやメモリカードの場合はそれぞれMOドライブ34
やメモリカードリーダ36により、所望の画像データを読
み込む。読み込まれた1コマの画像データは、主処理装
置18の制御の下に画像メモリ16に蓄積される。こうし
て、所望の画像データを順次読み込み、画像メモリ16に
蓄積する。
In the operating state, the operating device 24 is operated to instruct reading of image data (step 1 in FIG. 2).
02). In response, the main processing unit 18 may, for example, use the image scanner 12 for a negative or printed photograph 13, the external magnetic storage 26 for a magnetic disk, and the MO drive 34 for an optical disk or memory card.
And the desired image data is read by the memory card reader 36. The read image data of one frame is stored in the image memory 16 under the control of the main processing unit 18. Thus, the desired image data is sequentially read and stored in the image memory 16.

【0014】読み込んだ画像を、主処理装置18は、変倍
部30を制御してサムネール画像 202に縮小し、これを表
示装置22の表示スクリーンにおける処理選択画面 204
(図4)に順次、可視表示する。処理選択画面 204に
は、操作者に対するガイダンス表示 205も表示される。
そこで操作者は、ガイダンス表示 205に従って操作装置
24を操作して、補正をしたい画像 202を選択する(ステ
ップ 103)。この選択は、操作装置24のポインティング
デバイスを操作して、処理選択画面 204上で所望の画像
202をカーソルにより指示してクリックすることによっ
て行なわれる。選択した画像は、たとえば参照符号202a
で示すように、周囲に枠が表示される。または、全体が
反転表示されるように構成してもよい。これとともに、
「赤目補正」ボタン 206を同様にして指示する(ステッ
プ 105)。赤目補正が指定されると、主処理装置18は後
述の赤目処理 300を実行する。
The read image is reduced by the main processing unit 18 to a thumbnail image 202 by controlling the scaling unit 30, and the thumbnail image 202 is reduced to a processing selection screen 204 on the display screen of the display device 22.
(See FIG. 4). The process selection screen 204 also displays a guidance display 205 for the operator.
Then, the operator operates the operating device according to the guidance display 205.
By operating 24, the image 202 to be corrected is selected (step 103). This selection is performed by operating the pointing device of the operation device 24 to select a desired image on the processing selection screen 204.
This is performed by pointing and clicking 202 with the cursor. The selected image is referred to, for example, by reference numeral 202a.
As shown by, a frame is displayed around it. Alternatively, a configuration in which the whole is displayed in reverse video may be adopted. With this,
The "red-eye correction" button 206 is similarly designated (step 105). When the red-eye correction is designated, the main processing unit 18 executes a red-eye processing 300 described later.

【0015】ステップ 105において、赤目処理を指定し
ない場合、たとえば「色・濃度補正」ボタン 208を指示
すると(ステップ 107)、色補正および濃度補正などの
他の処理 108を行なう。他の処理 108が完了すると、本
装置10は、処理を施した画像をプリンタ14により印刷出
力(ステップ 109)して処理を終了する。また、補正処
理をしない場合、処理選択画面 204の「決定」ボタン 2
10を指示すると、本実施例では、そのときステップ 103
で指定されている原画像 202をプリンタ14により印刷出
力(ステップ 109)し、処理を終了する。
In step 105, when red-eye processing is not specified, for example, when a "color / density correction" button 208 is designated (step 107), other processing 108 such as color correction and density correction is performed. When the other processing 108 is completed, the apparatus 10 prints out the processed image by the printer 14 (step 109), and ends the processing. When the correction process is not performed, the “OK” button 2
In the present embodiment, when step 10 is designated, then step 103
The printout of the original image 202 designated by (1) is performed by the printer 14 (step 109), and the process is terminated.

【0016】ところで、ステップ 105において赤目補正
206を指示すると、主処理装置18はこれに応動して赤目
処理ルーチン 200を実行する。主処理装置18は、ステッ
プ 103で指定された縮小画像 202に相当する原画像を元
の大きさ(画素数)で表示装置22のスクリーンにおける
赤目処理領域選択画面 212(図5)の画像表示領域 214
へ表示する。これとともに主処理装置18は、この画像表
示領域 214に、赤目処理の範囲を指定するための矩形の
処理枠 216を表示する。以降の説明において、表示装置
22のスクリーンにおける処理画面、たとえば赤目処理領
域選択画面 212に対応する主処理装置18の処理ルーチン
は、その画面の参照符号、この例では 212で示すものと
する。
In step 105, red-eye correction is performed.
Instructing 206 causes the main processor 18 to execute the red-eye processing routine 200 in response. The main processing unit 18 converts the original image corresponding to the reduced image 202 specified in step 103 to the original size (the number of pixels) of the image display area of the red-eye processing area selection screen 212 (FIG. 5) on the screen of the display unit 22. 214
Display to At the same time, the main processing unit 18 displays a rectangular processing frame 216 for specifying the range of the red-eye processing in the image display area 214. In the following description, the display device
The processing routine of the main processing unit 18 corresponding to the processing screen on the screen 22, for example, the red-eye processing area selection screen 212, is indicated by the reference numeral of the screen, in this example, 212.

【0017】操作者は、操作装置24を操作して「位置合
わせ」ボタン 218のいずれかを選択し、処理枠 216を画
像表示領域 214に表示されている絵柄の所望の位置へ移
動させる。また、「選択範囲」ボタン 220を指示するこ
とによって、処理枠 216の大きさを変倍することができ
る。これによって操作者は、画像領域 214に表示されて
いる絵柄の赤目の部分を処理枠 216の内側に含めること
によって、これを指定することができる。処理枠 216内
の画像の領域は、後に画像表示領域 214に拡大表示され
る。このため、処理枠 216の形状は、画像表示領域 214
と実質的に相似である。そこで操作者は、同様にして、
たとえば「グラデーション」ボタン 222を指示すると、
主処理装置18は制御を赤目マスク領域指定処理 224(図
6)に移行する。
The operator operates the operating device 24 to select one of the "positioning" buttons 218, and moves the processing frame 216 to a desired position of the picture displayed in the image display area 214. By designating the “selection range” button 220, the size of the processing frame 216 can be changed. This allows the operator to specify the red-eye portion of the picture displayed in the image area 214 by including the red-eye portion inside the processing frame 216. The area of the image in the processing frame 216 is later enlarged and displayed in the image display area 214. Therefore, the shape of the processing frame 216 is
Is substantially similar to Therefore, the operator similarly performs
For example, if you specify the “Gradient” button 222,
The main processing unit 18 shifts the control to the red-eye mask area designation processing 224 (FIG. 6).

【0018】赤目マスク領域指定処理 224では、主処理
装置18は、表示装置22のスクリーンに赤目マスク領域指
定画面 224を表示する。これとともに主処理装置18は、
変倍部30を制御して、処理枠 216の内側に含まれている
画像の部分を拡大して赤目マスク領域指定画面 224の画
像表示領域 214へ表示する。操作者はそこで、操作装置
24のポインテングデバイスを操作して「ペン」ボタン 2
26を指示し、これを画像表示領域 214の表示画像の赤目
の領域 228にドローし、ペン 226で領域 228を塗りつぶ
すことができる。失敗した場合は、「消しゴム」ボタン
230を同様にしてドローし、領域 228の塗りつぶしを消
すことができる。「ペン」ボタン 226および「消しゴ
ム」ボタン 230は、本実施例ではそれぞれ1種類しか示
されていないが、それぞれ複数の太さの種類、たとえば
「細」「中」および「太」の3種類を用意してもよい。
In the red-eye mask area designation processing 224, the main processing unit 18 displays a red-eye mask area designation screen 224 on the screen of the display device 22. At the same time, the main processing unit 18
By controlling the scaling unit 30, the portion of the image included inside the processing frame 216 is enlarged and displayed on the image display area 214 of the red-eye mask area designation screen 224. The operator is there
Operate 24 pointing devices and use “Pen” button 2
26, the user can draw it on the red-eye area 228 of the display image in the image display area 214, and fill the area 228 with the pen 226. If unsuccessful, "Eraser" button
230 can be drawn in a similar manner to remove the fill of area 228. Although only one type of the “pen” button 226 and the “eraser” button 230 are shown in this embodiment, a plurality of thickness types, for example, three types of “thin”, “medium”, and “thick” are respectively shown. May be prepared.

【0019】このような「ペン」ボタン 226および「消
しゴム」ボタン 230の操作に応動して主処理装置18は、
図10に概念的に示すように、画像メモリ16の記憶領域に
マスク層 302を用意する。これは、画像メモリ16の記憶
領域において、画像表示領域214に対応する画像部分に
相当するマスク層 302が用意され、このマスク層 302に
おいて、主処理装置18は、「ペン」ボタン 226および
「消しゴム」ボタン 230の操作に応動して塗りつぶし領
域 304を形成する。形成された塗りつぶし領域 304は、
表示装置22の画像表示領域 214に元の絵柄と重ねて可視
表示される。塗りつぶし領域 304の表示色は、たとえば
グリーンなど、通常の虹彩や肌の色とは異なる目立つ色
が有利に使用される。
In response to the operation of the "pen" button 226 and the "eraser" button 230, the main processing unit 18
As conceptually shown in FIG. 10, a mask layer 302 is prepared in a storage area of the image memory 16. This is because, in a storage area of the image memory 16, a mask layer 302 corresponding to an image portion corresponding to the image display area 214 is prepared. In the mask layer 302, the main processing device 18 includes a “pen” button 226 and an “eraser”. The painted area 304 is formed in response to the operation of the "" button 230. The formed filled area 304 is
The image is superimposed on the original picture in the image display area 214 of the display device 22 and is visually displayed. As a display color of the filled area 304, a conspicuous color different from a normal iris or skin color, such as green, is advantageously used.

【0020】さらに操作者は、操作装置24のポインテン
グデバイスを操作して「キャッチライト」ボタン 232を
選択すると、主処理装置18はこれに応動して、後述する
「キャッチライト」部分を示す十字マーク 234を生成
し、これをこの領域 234に表示する。キャッチライト
(目の星) 306(図9)は、周知のように、目に照明光
が反射して輝点として撮影された部分である。このキャ
ッチライトを瞳の中に入れることによって、生き生きと
した人物像の写真が得られる。その位置は、やはり操作
装置24のポインテングデバイスを操作して、図6に矢印
236で示すように十字マーク 234を所望の位置にドロー
することによって、指定することができる。キャッチラ
イト 306は一般に、閃光の方向に左右の目について同じ
位置に入れるのがよい。表示領域 214の絵柄を見て満足
であれば、操作者は「決定」ボタン 238を押すと、主処
理装置18は、これに応動して制御を赤目パラメータ指定
処理 240に移す。
Further, when the operator operates the pointing device of the operating device 24 and selects the "catch light" button 232, the main processing unit 18 responds to this and causes the cross indicating the "catch light" portion to be described later. Generate a mark 234 and display it in this area 234. As is well known, the catch light (star of the eye) 306 (FIG. 9) is a portion where the illumination light is reflected and is photographed as a bright spot. By putting this catchlight in the eyes, a lively portrait of a person can be obtained. The position is also operated by operating the pointing device of the operating device 24 and the arrow shown in FIG.
This can be designated by drawing the cross mark 234 to a desired position as shown by 236. The catchlight 306 generally should be placed in the same position for the left and right eyes in the direction of the flash. If the operator is satisfied with looking at the picture in the display area 214, the operator presses the “OK” button 238, and the main processing device 18 shifts the control to the red-eye parameter designation process 240 in response to this.

【0021】赤目パラメータ指定処理 240では、図7に
示す画面が表示装置22のスクリーンに表示される。この
画面 240に主処理装置18は「スポイト」ボタン 242を表
示する。「スポイト」ボタン 242は、表示領域 214に表
示されている絵柄の任意の部分の色を採取するボタンで
ある。より詳細には、操作者は、操作装置24のポインテ
ングデバイスを操作して「スポイト」ボタン 242を選択
し、表示領域 214内の所望の領域にドローすることがで
きる。ドローした位置でポインティングデバイスをクリ
ックすると、主処理装置18はこれに応動して、その位置
の色を採取して、「使用色」ボタン 244にこの色を表示
する。つまり、その部分の色のデータを指示するポイン
タを立て、RAM 28の「使用色」ボタン 244の領域にこれ
を格納する。
In the red-eye parameter designation process 240, the screen shown in FIG. 7 is displayed on the screen of the display device 22. The main processing unit 18 displays a “dropper” button 242 on this screen 240. A “dropper” button 242 is a button for collecting a color of an arbitrary part of the picture displayed in the display area 214. More specifically, the operator can operate the pointing device of the operating device 24 to select the “eyedropper” button 242 and draw on a desired area in the display area 214. When the pointing device is clicked at the drawn position, the main processing unit 18 responds to this and collects the color at that position, and displays this color on the “used color” button 244. That is, a pointer is set to indicate the color data of that part, and this is stored in the area of the "used color" button 244 of the RAM 28.

【0022】この使用色選択操作は、たとえば、表示さ
れた絵柄の中に瞳の虹彩の部分が残っている場合に、有
利に使用される。RAM 28に保持された色データは、画像
表示領域 214の絵柄をその画像の他の部分にシフトさせ
ても保持されている。たとえば、赤目マスク領域指定画
面 224で同じ画像の別な部分を処理枠 216によって指定
しても、この使用色データを保持している。そこで、た
とえば、画像の人物の左目が赤目に撮影され、右目が正
常に撮影されていたような場合、右目の虹彩の色を「ス
ポイト」ボタン 242で採取して、左目にこれと同じ色を
適用することができる。
This use color selection operation is advantageously used, for example, when the iris portion of the pupil remains in the displayed picture. The color data held in the RAM 28 is held even when the picture in the image display area 214 is shifted to another part of the image. For example, even if another part of the same image is designated by the processing frame 216 on the red-eye mask area designation screen 224, the used color data is retained. So, for example, if the left eye of the person in the image was taken with the red eye and the right eye was taken normally, the color of the iris of the right eye was sampled with the “eyedropper” button 242, and the same color Can be applied.

【0023】採取すべき色の部分が元の絵柄にないよう
な場合は、「パレット色」ボタン 246を指定することに
よって、標準色から所望の色を選択することができる。
この標準色には、たとえばブラウン、ブルー、黒などの
様々な標準的な虹彩の色が用意されている。この選択
は、操作装置24のポインティングデバイスを操作して、
処理選択画面 240上で所望の「パレット色」ボタン 246
をカーソルにより指示してクリックすることで行なわれ
る。選択した「パレット色」ボタン 246は、たとえば参
照符号246aで示すように、周囲に枠が表示される。また
は、これも全体が反転表示されるように構成してもよ
い。これと同時に、この場合も、「使用色」ボタン 244
にこの選択された色が表示される。
If the portion of the color to be collected does not exist in the original picture, a desired color can be selected from the standard colors by designating a "palette color" button 246.
Various standard iris colors such as brown, blue, and black are prepared as the standard colors. This selection is made by operating the pointing device of the operating device 24,
The desired “palette color” button on the process selection screen 240 246
Is indicated by a cursor and clicked. The selected “palette color” button 246 has a frame displayed around it, for example, as indicated by reference numeral 246a. Alternatively, this may also be configured such that the whole is displayed in reverse video. At the same time, also in this case, the “Use Color” button 244
Displays the selected color.

【0024】瞳孔と虹彩とで別々に色を選択できるよう
にシステムを構成してもよい。たとえば、瞳孔に相当す
る部分を黒に、また虹彩に相当する部分をブラウンやブ
ルーに指定するようにしてもよい。
The system may be configured so that colors can be selected separately for the pupil and the iris. For example, a portion corresponding to the pupil may be designated as black, and a portion corresponding to the iris may be designated as brown or blue.

【0025】「使用色」ボタン 244の色に満足であれ
ば、操作者は「決定」ボタン 248を指定する。主処理装
置18は、これに応動して、これまでの赤目補正処理を反
映させる(ステップ 250)。より詳細には、これまで処
理 224で指定された補正領域 228に処理 248で指定され
た補正パラメータで赤目補正を施す。その結果の画像
は、表示領域 214に表示される。この表示画像は、処理
枠 216(図5)で指定された画像部分が拡大されたもの
である。そこで制御は、赤目処理領域選択処理 212に戻
る。
If the user is satisfied with the color of the "use color" button 244, the operator designates the "enter" button 248. In response, main processor 18 reflects the red-eye correction processing so far (step 250). More specifically, red-eye correction is performed on the correction area 228 specified in the processing 224 so far using the correction parameters specified in the processing 248. The resulting image is displayed in display area 214. This display image is an enlarged image portion specified by the processing frame 216 (FIG. 5). Then, the control returns to the red-eye processing area selection processing 212.

【0026】この赤目処理を詳細に説明する。本実施例
で特徴的なことは、ひとつは、マスク領域 304として選
択された色にその領域の中心から周囲へ向けて放射状に
階調をかけることである。他の特徴は、キャッチライト
306を高輝度すなわちハイライトとして、その輝点を形
成することである。これによって、赤目領域 228は、再
生画像において生き生きとして自然に見える美しい瞳と
して再現される。
This red-eye processing will be described in detail. One of the features of this embodiment is that the color selected as the mask region 304 is radially applied from the center of the region to the periphery. Another feature is the catchlight
306 is a high brightness, that is, a highlight, and the bright spot is formed. As a result, the red-eye region 228 is reproduced as a beautiful pupil that looks lively and natural in the reproduced image.

【0027】階調処理は、操作者の手操作によるマスク
領域 304の指定に続くプログラムによる自動操作であ
る。赤目マスク領域指定画面 224でポインティングデバ
イスを操作して、マスク領域 304を指定すると、主処理
装置18は、図11に示すようにマスク領域 304の周縁部を
ぼかすグラデーションを計算する。こうして階調を与え
た塗りつぶし領域 304に、その後、赤目パラメータ指定
処理 240において、原画像(写真)データが収まるよう
に大きさを計算して、キャッチライト 306とともにマス
クデータ 302および原画像 214を合成する。なお、以降
の説明において、画像表示領域 214の画像をその領域の
参照符号 214で示す。
The gradation processing is an automatic operation by a program following the designation of the mask area 304 by the manual operation of the operator. When the user operates the pointing device on the red-eye mask area designation screen 224 to designate the mask area 304, the main processing unit 18 calculates a gradation that blurs the periphery of the mask area 304 as shown in FIG. The size is calculated so that the original image (photograph) data can be accommodated in the filled area 304 to which the gradation is given in the red-eye parameter designation processing 240, and the mask data 302 and the original image 214 are synthesized together with the catch light 306. I do. In the following description, the image in the image display area 214 is indicated by the reference numeral 214 of the area.

【0028】より詳細には、マスク層 302のデータは、
本実施例では1画素当り1バイトで、塗りつぶしの際の
重みとして扱われる。たとえば、本実施例では、塗りつ
ぶすべき領域 304を階調レベル「0」に、また原画像の
写真がそのまま残る領域 308を階調レベル「 255」とし
ている。これは逆でもよい。ポインティングデバイスで
指定された領域 304はレベル「0」である。主処理装置
18は、この領域 304について、その周縁部に移動平均フ
ィルタを演算して、これをぼかすことにより、マスク層
302を原画像 214と合成した際、他の部分 308との境界
を滑らかにする。この移動平均フィルタは、マスク層 3
02の2次元座標(x, y)におけるマスク値m(x, y) に対し
て、まずx軸方向について、たとえば次の演算を施して
新たなマスク値m'(x, y)を得る。
More specifically, the data of the mask layer 302 is
In the present embodiment, one byte per pixel is treated as a weight at the time of painting. For example, in the present embodiment, the area 304 to be painted is set to the gradation level “0”, and the area 308 where the photograph of the original image remains is set to the gradation level “255”. This may be reversed. The area 304 specified by the pointing device is at level “0”. Main processing unit
18 calculates a moving average filter on the periphery of the region 304 and blurs the region to form a mask layer.
When 302 is combined with the original image 214, the boundary with other parts 308 is smoothed. This moving average filter is used for mask layer 3
For the mask value m (x, y) at the two-dimensional coordinates (x, y) of 02, first, for example, the following operation is performed in the x-axis direction to obtain a new mask value m ′ (x, y).

【0029】[0029]

【数1】 m'(x, y)=[am(x-1, y)+bm(x, y)+am(x+1, y)]/n 次に、y軸方向についても同様な演算をする。この場
合、a、bおよびnは、定数であり、たとえばa=1 、b=
2 、n=4 である。移動平均フィルタ係数の例を図12に示
す。たとえば塗りつぶし領域 304が16ドットないし32ド
ットの場合、このぼかし演算は1回程度でよい。範囲 3
04が広くなれば、複数回、同様のぼかし演算を行なう。
2回行なった様子を図11に示す。同図(a) が階調演算を
しない原マスク領域 304の状態、同図(b) が階調演算を
1回したマスク領域 304の状態、さらに同図(c) が階調
演算を2回した領域 304の状態を示す。このようにグラ
デーション演算を行なったマスク 302を、ここでは「グ
ラデーションパターン」と称する。
M ′ (x, y) = [am (x−1, y) + bm (x, y) + am (x + 1, y)] / n Next, the same applies to the y-axis direction. Perform the operation. In this case, a, b and n are constants, for example, a = 1, b =
2, n = 4. FIG. 12 shows an example of the moving average filter coefficient. For example, when the filled area 304 is 16 to 32 dots, the blur calculation may be performed only once. Range 3
If 04 becomes wider, the same blur operation is performed several times.
FIG. 11 shows a state where the measurement was performed twice. FIG. 12A shows the state of the original mask region 304 where no gradation operation is performed, FIG. 12B shows the state of the mask region 304 where the gradation operation is performed once, and FIG. FIG. The mask 302 on which the gradation operation has been performed in this manner is referred to as a “gradation pattern” here.

【0030】本発明の好ましい実施例では、グラデーシ
ョンパターンの計算は、マスク領域304に近接する矩形
領域、たとえば正方形 310(図13)について行なう。図
13に示すように、たとえば正方形 310の1辺の長さが
「2」に正規化され、塗りつぶし領域 304が半径「1」
の円であるとする。円 304の中心 312の座標(x, y)を
(0、 0)とすると、マスク層 302のマスクデータと原画像
214の画像データとの合成値Lは、-1.0≦(x, y)≦1.0
においてL=x*x+y*y で算出され、ただしLが1.0 を超え
るときは、値Lを1.0 とする。この計算で、半径「1」
の円 304の内側では値Lが1.0 を下回り、外側では1.0
に等しい。なお、本発明は、このような正方形や円のみ
に限定されるものではない。また、領域 304の中心 312
も上述の決定方法のみに限定されない。たとえば、領域
304がおおむね楕円であるときは、たとえばその重心
を、値Lを1.0 とする中心としてもよい。
In the preferred embodiment of the present invention, the calculation of the gradation pattern is performed on a rectangular area close to the mask area 304, for example, a square 310 (FIG. 13). Figure
As shown in FIG. 13, for example, the length of one side of the square 310 is normalized to “2”, and the filled area 304 has a radius of “1”.
Is assumed to be a circle. The coordinates (x, y) of the center 312 of the circle 304 are
If (0, 0), the mask data of the mask layer 302 and the original image
The composite value L with the image data of 214 is -1.0 ≦ (x, y) ≦ 1.0
, L = x * x + y * y. However, when L exceeds 1.0, the value L is set to 1.0. In this calculation, the radius "1"
Inside the circle 304, the value L is less than 1.0,
be equivalent to. Note that the present invention is not limited to only such squares and circles. Also, the center of region 304
However, the method is not limited to the above-described determination method. For example, the area
When 304 is substantially elliptical, for example, its center of gravity may be set as the center where the value L is set to 1.0.

【0031】さらに、瞳の中央の濃度の高い部分304aと
周辺の淡い部分304bを塗り分けるために、値Lを図14に
例示するような折れ線L*にする。この例では、値Lが0.
25より小さいときは、L=2.0L* (折れ線 314)とし、そ
れ以外の場合は、L=0.6667L*+0.3333 (折れ線 316)と
し、両折れ線 314および 316は連続する。ただし、値L*
は、上述の計算L=x*x+y*y で算出した一応の値である。
このように階調が互いに異なる2つの領域304aおよび30
4bは、それぞれ瞳孔および虹彩の部分に相当する。
Further, in order to separately paint the high density portion 304a at the center of the pupil and the peripheral light portion 304b, the value L is set to a polygonal line L * as shown in FIG. In this example, the value L is 0.
If it is less than 25, L = 2.0L * (polyline 314); otherwise, L = 0.6667L * + 0.3333 (polyline 316), and both polygonal lines 314 and 316 are continuous. Where the value L *
Is a tentative value calculated by the above calculation L = x * x + y * y.
Thus, the two regions 304a and 30 having different gradations
4b corresponds to the pupil and the iris, respectively.

【0032】こうして得られた値Lに応じて、塗りつぶ
し領域 304の中央部304aの色と外周部304bの色の重み付
き平均を求める。値Lが「0」であれば、瞳の中心の
色、すなわち赤目パラメータ指定処理 240で指定された
色とする。すなわち、元の写真データはグラデーション
パターンで完全に置き換えられる。値Lが「1.0 」、す
なわち階調レベルが「255 」であれば、領域 304の外、
すなわち図10における領域 308に対応する原画像の部分
の色がそのまま再生画像に現れる。値Lが「0」と
「1」の中間の部分では、原画像(写真)データとグラ
デーションパターンとの加重平均をとる。加重平均につ
いては、後に詳述する。
According to the value L thus obtained, a weighted average of the color of the central portion 304a and the color of the outer peripheral portion 304b of the painted area 304 is obtained. If the value L is "0", the color at the center of the pupil, that is, the color specified in the red-eye parameter specification processing 240 is set. That is, the original photographic data is completely replaced with the gradation pattern. If the value L is “1.0”, that is, the gradation level is “255”, outside the area 304,
That is, the color of the portion of the original image corresponding to the area 308 in FIG. 10 appears in the reproduced image as it is. In a portion where the value L is between “0” and “1”, a weighted average of the original image (photograph) data and the gradation pattern is calculated. The weighted average will be described later in detail.

【0033】このようなグラデーション処理を施したグ
ラデーションパターンは、図13の上半分に示すようにな
る。この図は、分かりやすくするために階調値の上下を
反転して図示されている。階調は、図15に示すようなプ
ロットである。なお、このグラデーションパターンには
ハイライトが含まれていない。
The gradation pattern subjected to such gradation processing is as shown in the upper half of FIG. In this figure, for the sake of simplicity, the gradation values are shown upside down. The gradation is a plot as shown in FIG. Note that no highlight is included in this gradation pattern.

【0034】こうして得られたグラデーションパターン
をマスク層 302の重みに応じて写真データに上書きす
る。これによって、ハイライト 306(図9)なしの塗り
つぶしが完了したことになる。
The gradation pattern thus obtained is overwritten on the photographic data according to the weight of the mask layer 302. This completes the fill without highlight 306 (FIG. 9).

【0035】ハイライト部分 306(図9)は、本実施例
では瞳の大きさの1/3 の範囲で計算する。形状は、円で
も楕円でもよい。なお、これらの数値や形状は単なる例
示であり、本発明がこれらの具体例に限定されるもので
ないことは、明らかである。この演算は、基本的には前
述の瞳のグラデーションの計算と同じでよい。値Lが
「0」であれば最も明るいハイライトであり、「1.0 」
であればハイライトはない。この値Lとマスクデータで
重み付けをして合成の画像データにハイライト部分を形
成する。この重み付けWは、(1.0 −L)x(255-マス
クデータ)で算出する。これによって、マスクデータが
レベル「 255」の領域、すなわち塗りつぶしてはならな
い位置では、値Lの如何によらず重みWが「0」とな
る。また、値Lが「1.0 」の領域、すなわちハイライト
を書き込んではならない位置でも、マスクデータの値に
かかわらず重みWが「0」となる。
The highlight portion 306 (FIG. 9) is calculated in this embodiment in a range of 1/3 of the pupil size. The shape may be a circle or an ellipse. Note that these numerical values and shapes are merely examples, and it is apparent that the present invention is not limited to these specific examples. This calculation may be basically the same as the above-described calculation of the pupil gradation. If the value L is “0”, it is the brightest highlight, and “1.0”
If so, there is no highlight. The value L and the mask data are weighted to form a highlight portion in the synthesized image data. The weight W is calculated by (1.0−L) × (255−mask data). As a result, the weight W becomes “0” regardless of the value L in an area where the mask data is at the level “255”, that is, in a position where the mask data must not be filled. Further, even in an area where the value L is "1.0", that is, in a position where no highlight is to be written, the weight W is "0" regardless of the value of the mask data.

【0036】ハイライトの合成は、重みWが「0」なら
行なわず、また「 255」であれば、画像データに純白、
すなわちRGB値をそれぞれ「 255」とする。それ以外
の場合は、[Wx255 +(256 −W)x(写真デー
タ)]/256 とする。ただし、この演算において、定数
「255 」は、RGB値の最大値としての値であり、また
「写真データ」は、前述のグラデーションを施した後の
データである。
If the weight W is "0", no synthesis is performed. If the weight W is "255", the image data is pure white.
That is, the RGB values are each set to “255”. In other cases, [Wx255 + (256-W) x (photo data)] / 256. In this calculation, however, the constant "255" is a value as the maximum value of the RGB values, and the "photo data" is the data after the gradation is performed.

【0037】加重平均演算は次のようにして行なう。値
Lが「0」であれば、元の写真データはグラデーション
パターンで完全に置き換えられる。値Lが「1.0 」、す
なわち階調レベルが「255 」であれば、領域 304の外の
原画像の部分の色がそのまま再生画像に現れる。値Lが
「0」と「1」の中間の部分では、原画像(写真)デー
タとグラデーションパターンとの加重平均をとる。たと
えば、重みを「0」〜「 255」の範囲とすると、加重平
均後の値は、[(マスクデータ)x(グラデーションパ
ターンまたはハイライトの白色)+(255 −マスクデー
タ)x(写真データ)]/255 となる。マスクデータが
「0」のときは、これの代わりに、加重平均後の値は、
[グラデーションパターンまたはハイライトの白色]と
なる。
The weighted average calculation is performed as follows. If the value L is "0", the original photographic data is completely replaced with the gradation pattern. If the value L is “1.0”, that is, the gradation level is “255”, the color of the original image outside the area 304 appears in the reproduced image as it is. In a portion where the value L is between “0” and “1”, a weighted average of the original image (photograph) data and the gradation pattern is calculated. For example, if the weight is in the range of "0" to "255", the value after the weighted average is [(mask data) x (gradation pattern or highlight white) + (255-mask data) x (photo data) ] / 255. When the mask data is “0”, instead of this, the value after the weighted average is
[Gradation pattern or highlight white].

【0038】こうして、グラデーションとハイライトデ
ータをマスクデータに従って写真データにはめ込むこと
ができた。これによってわかるように、本実施例は、写
真の赤目の部分に義眼を入れるようなつもりで、手操作
で赤目を修正する。その際、キャッチライトを指示し、
大きさや形、色を手操作で指定することができる。こう
して、あえて手操作を採用することにより、自然な、生
き生きとした表情の目を再現することができる。
Thus, the gradation and highlight data could be embedded in the photographic data according to the mask data. As can be seen from this, the present embodiment corrects the red-eye by hand in an attempt to put the artificial eye in the red-eye part of the photograph. At that time, instruct the catch light,
The size, shape and color can be specified manually. In this way, by adopting the manual operation, eyes with a natural and lively expression can be reproduced.

【0039】ところで、赤目処理領域選択処理 212に戻
ると、次に、必要に応じて同じ画像の他の部分、たとえ
ば前回左目を補正したら、次は右目を処理するといった
具合に、同様の処理 224および 248を繰り返す。また、
本装置10は、必要に応じて、たとえば表示領域 214に表
示された赤目補正の結果を見てやり残した部分につい
て、追加の赤目補正を手操作にて行なうこともできる。
これは、赤目処理領域選択処理 212において、「マニュ
アル」ボタン 252(図5)を指定することによって、赤
目マニュアル補正画面 254(図8)で行なわれる。この
マニュアル補正は、「ペン」ボタン 226、「消しゴム」
ボタン 230および「スポイト」ボタン 242などを指定し
て画像表示領域 214の表示画素単位に行なうことができ
る。最終的に操作者は、「決定」ボタン 256を押すと、
主処理装置18は、その赤目補正処理を反映させる(ステ
ップ 250)。ステップ 250における赤目処理の反映で
は、上述したように、マスクデータおよびグラデーショ
ンパターンを原画像の写真データに演算実行する処理で
ある。制御を赤目処理領域選択処理 212に戻す。
By the way, returning to the red-eye processing area selection processing 212, next, if necessary, other parts of the same image, for example, if the left eye is corrected last time, then the right eye is processed next, etc. Repeat steps 248 and 248. Also,
The device 10 can also perform additional red-eye correction manually as needed, for example, with respect to the part left behind by viewing the result of red-eye correction displayed in the display area 214.
This is performed on the red-eye manual correction screen 254 (FIG. 8) by designating the "manual" button 252 (FIG. 5) in the red-eye processing area selection processing 212. This manual correction is performed using the “Pen” button 226, “Eraser”
By specifying the button 230 and the “eyedropper” button 242, the display can be performed for each display pixel of the image display area 214. Finally, when the operator presses the “Enter” button 256,
Main processor 18 reflects the red-eye correction processing (step 250). The reflection of the red-eye process in step 250 is a process of calculating and executing the mask data and the gradation pattern on the photographic data of the original image as described above. The control is returned to the red-eye processing area selection processing 212.

【0040】そこで、赤目処理が所望の状態に完了した
ことを操作者は、赤目処理領域選択処理画面 212の画像
表示領域 214にて目視確認することができる。処理結果
に満足であれば、操作者はその画面の「終了」ボタン 2
58を指定する。これに応動して主処理装置18は、制御を
赤目画像確認処理 260に移し、赤目画像確認画面 260
(図9)を表示装置24の表示スクリーンに表示させる。
操作者は、この画面で処理結果の画像を目視確認し、満
足するものであれば「はい」ボタン 262を指定する。こ
れに応動して主処理装置18は、これまでの赤目補正処理
を反映させて(ステップ 264)、制御を主動作フロー
(図2)のステップ 105に戻す。また、他の領域、たと
えば反対側の目を確認したい場合は、赤目画像確認画面
260において「前画面」ボタン 266を指定する。これに
よって制御は赤目処理領域選択処理 212に戻る。
Therefore, the operator can visually confirm that the red-eye processing has been completed in a desired state in the image display area 214 of the red-eye processing area selection processing screen 212. If you are satisfied with the processing result, the operator clicks the “Exit” button on the screen.
Specify 58. In response to this, the main processing unit 18 shifts the control to the red-eye image confirmation processing 260, and the red-eye image confirmation screen 260
(FIG. 9) is displayed on the display screen of the display device 24.
The operator visually confirms the image of the processing result on this screen, and designates a “Yes” button 262 if satisfied. In response, the main processing unit 18 reflects the red-eye correction processing so far (step 264), and returns the control to step 105 of the main operation flow (FIG. 2). If you want to check other areas, for example, the eyes on the opposite side, use the red-eye image confirmation screen
At 260, a "previous screen" button 266 is designated. As a result, the control returns to the red-eye processing area selection processing 212.

【0041】そこで、赤目処理 200を終了した場合、ス
テップ 105において、たとえば「決定」ボタン 210を指
示すると、ステップ 107を経て、本装置10は、赤目処理
を施した画像をプリンタ14により印刷出力(ステップ 1
09)して処理を終了する。
Therefore, when the red-eye processing 200 is completed, when the "OK" button 210 is designated in step 105, for example, the apparatus 10 prints out the image subjected to the red-eye processing by the printer 14 through step 107 (step 107). step 1
09) and end the process.

【0042】赤目画像確認画面 260において、赤目処理
結果に満足しないとき、または赤目処理を中止する場合
は、「いいえ」ボタン 268を指定する。主処理装置18
は、これに応動して、これまでの赤目処理を元の画像 2
02に反映させないで(ステップ270)、主フローのステ
ップ 105(図2)に戻る。つまり、これまでの処理デー
タを原画像データに演算しないでキャンセルし、原画像
データの画像を表示領域214に表示させる。なお、各処
理 224、 240および 254においても「キャンセル」ボタ
ン 272が用意され、赤目処理結果に満足しないとき、ま
たは赤目処理を最初からやり直す場合は、このボタン 2
72を指定する。主処理装置18は、これによって、これま
での赤目処理を元の画像 202に反映させないで(ステッ
プ 274)、赤目処理領域選択処理 212に戻る。
On the red-eye image confirmation screen 260, when the user is not satisfied with the result of the red-eye processing, or when canceling the red-eye processing, a "No" button 268 is designated. Main processing unit 18
In response to this, the previous red-eye removal
Returning to step 105 (FIG. 2) of the main flow, without reflecting it in 02 (step 270). That is, the processing data so far is canceled without being calculated on the original image data, and the image of the original image data is displayed on the display area 214. In each of the processes 224, 240 and 254, a “cancel” button 272 is also provided. If the user is not satisfied with the result of the red-eye processing or restarts the red-eye processing from the beginning, this button 2 is used.
Specify 72. As a result, the main processing device 18 returns to the red-eye processing area selection processing 212 without reflecting the previous red-eye processing on the original image 202 (step 274).

【0043】[0043]

【発明の効果】このように本発明によれば、写真の赤目
の部分を手操作で指定し、その際、キャッチライトを指
示し、大きさや形、色を手操作で指定することにより、
再生画像において、自然な、生き生きとした表情の目を
再現することができる。
As described above, according to the present invention, the red-eye portion of a photograph is manually designated, and at that time, a catch light is designated, and the size, shape, and color are designated manually.
In the reproduced image, eyes with a natural and lively expression can be reproduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による画像処理装置の実施例を示す機能
ブロック図である。
FIG. 1 is a functional block diagram illustrating an embodiment of an image processing apparatus according to the present invention.

【図2】図1に示す実施例における画像処理の主動作フ
ローの例を示すフロー図である。
FIG. 2 is a flowchart showing an example of a main operation flow of image processing in the embodiment shown in FIG. 1;

【図3】図2に示す画像処理フローにおける赤目処理の
例を示すフロー図である。
FIG. 3 is a flowchart illustrating an example of red-eye processing in the image processing flow illustrated in FIG. 2;

【図4】同実施例における表示装置に表示される補正処
理のメニュー画面の例を示す図である。
FIG. 4 is a diagram showing an example of a menu screen of correction processing displayed on the display device in the embodiment.

【図5】同実施例における表示装置に表示される赤目処
理領域選択画面の例を示す、図4と同様の図である。
FIG. 5 is a view similar to FIG. 4, showing an example of a red-eye processing area selection screen displayed on the display device in the embodiment.

【図6】同表示装置に表示される赤目マスク領域選択画
面の例を示す、図4と同様の図である。
FIG. 6 is a view similar to FIG. 4, showing an example of a red-eye mask area selection screen displayed on the display device.

【図7】同表示装置に表示される赤目パラメータ指定画
面の例を示す、図4と同様の図である。
FIG. 7 is a view similar to FIG. 4, showing an example of a red-eye parameter designation screen displayed on the display device.

【図8】同表示装置に表示される赤目マニュアル補正画
面の例を示す、図4と同様の図である。
FIG. 8 is a view similar to FIG. 4, showing an example of a red-eye manual correction screen displayed on the display device.

【図9】同表示装置に表示される赤目画像確認画面の例
を示す、図4と同様の図である。
FIG. 9 is a view similar to FIG. 4, showing an example of a red-eye image confirmation screen displayed on the display device.

【図10】同実施例における赤目処理のマスク層と原画
像の関係を説明するための画像メモリの記憶領域の概念
的斜視図である。
FIG. 10 is a conceptual perspective view of a storage area of an image memory for explaining a relationship between a mask layer for red-eye processing and an original image in the embodiment.

【図11】同実施例において赤目処理のグラデーション
演算を施す様子を説明するためのマスク領域の説明図で
ある。
FIG. 11 is an explanatory diagram of a mask area for explaining how to perform a gradation calculation of red-eye processing in the embodiment.

【図12】同実施例におけるグラデーションの移動平均
フィルタ係数の例を示す説明図である。
FIG. 12 is an explanatory diagram showing an example of a gradation moving average filter coefficient in the embodiment.

【図13】同実施例におけるグラデーションパターンの
例を概念的に示す説明図である。
FIG. 13 is an explanatory diagram conceptually showing an example of a gradation pattern in the embodiment.

【図14】同実施例におけるグラデーションパターンの
プロットを例示したグラフである。
FIG. 14 is a graph illustrating a plot of a gradation pattern in the example.

【図15】図13に示すグラデーションパターンをプロッ
トしたグラフである。
FIG. 15 is a graph in which the gradation pattern shown in FIG. 13 is plotted.

【符号の説明】[Explanation of symbols]

12 イメージスキャナ 14 プリンタ 16 画像メモリ 18 主処理装置 22 表示装置 302 マスク層 304 塗りつぶし領域 12 Image scanner 14 Printer 16 Image memory 18 Main processing unit 22 Display device 302 Mask layer 304 Filled area

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 写真画像を表わす原画像データを蓄積す
る蓄積手段と、 該原画像データを補正する処理手段と、 該原画像データの表わす写真画像を可視表示する表示手
段と、 前記処理手段に対する指示を入力する手操作手段とを含
み、写真画像の赤目を修正する画像処理装置において、 前記手操作手段は、 前記表示手段に表示された写真画像の所望の部分を指定
する第1の指定手段と、 前記指定された部分に施すべき色を指定する第2の指定
手段とを含み、 前記処理手段は、第1および第2の指定手段に応動し
て、前記蓄積手段に蓄積されている原画像データの前記
指定された部分に赤目処理を行なう赤目処理手段を含
み、 該赤目処理手段は、前記指定された部分の中心からその
周縁部に向かって該部分の原画像データに階調を与え、
前記指定された部分を前記指定された色で補正すること
を特徴とする画像処理装置。
1. A storage unit for storing original image data representing a photographic image, a processing unit for correcting the original image data, a display unit for visually displaying a photographic image represented by the original image data, and And a manual operation means for inputting an instruction, wherein the manual operation means comprises: a first designating means for designating a desired portion of the photographic image displayed on the display means. And second designating means for designating a color to be applied to the designated portion, wherein the processing means responds to the first and second designating means and stores the originals stored in the storage means. Red-eye processing means for performing red-eye processing on the designated portion of the image data, wherein the red-eye processing means applies gradation to the original image data of the designated portion from the center of the designated portion toward the periphery thereof ,
An image processing apparatus, wherein the specified portion is corrected with the specified color.
【請求項2】 請求項1に記載の装置において、該装置
は、前記指定された部分におけるキャッチライトの位置
を指定する第3の指定手段を含み、 前記赤目処理手段は、第3の指定手段に応動して、前記
指定されたキャッチライトの位置に高輝度領域を形成す
ることを特徴とする画像処理装置。
2. The apparatus according to claim 1, wherein said apparatus includes a third designating means for designating a position of a catchlight in said designated portion, wherein said red-eye processing means is a third designating means. An image processing apparatus that forms a high-luminance area at the position of the designated catch light in response to
【請求項3】 請求項2に記載の装置において、前記赤
目処理手段は、前記指定された部分に対応するマスクデ
ータを作成し、前記階調を表わすグラデーションパター
ンを作成し、該マスクデータ、グラデーションパターン
および前記高輝度領域を演算して、原画像データを修正
した画像データを形成することを特徴とする画像処理装
置。
3. The apparatus according to claim 2, wherein the red-eye processing means creates mask data corresponding to the designated portion, creates a gradation pattern representing the gradation, and generates the mask data and gradation data. An image processing apparatus comprising: calculating a pattern and the high-luminance area to form image data obtained by modifying original image data.
【請求項4】 請求項2に記載の装置において、前記赤
目処理手段は、前記指定された部分において前記中心か
ら同心状の複数の領域で互いに異なる階調を作成するこ
とを特徴とする画像処理装置。
4. The apparatus according to claim 2, wherein said red-eye processing means creates different gray levels in a plurality of concentric areas from said center in said designated portion. apparatus.
【請求項5】 請求項3に記載の装置において、前記マ
スクデータを移動平均演算によって形成することを特徴
とする画像処理装置。
5. The apparatus according to claim 3, wherein the mask data is formed by a moving average calculation.
【請求項6】 請求項3に記載の装置において、前記マ
スクデータ、グラデーションパターンおよび高輝度領域
を重み付け平均演算によって合成することを特徴とする
画像処理装置。
6. The image processing apparatus according to claim 3, wherein the mask data, the gradation pattern, and the high-luminance area are combined by a weighted average operation.
【請求項7】 請求項2に記載の装置において、第2の
指定手段は、前記写真画像における所望の位置を指示
し、前記赤目処理手段は、第2の指定手段に応動して、
前記所望の位置における色を表わす色データを抽出し、
該抽出した色データに応じた色で、前記指定された部分
を補正することを特徴とする画像処理装置。
7. The apparatus according to claim 2, wherein the second designating means designates a desired position in the photographic image, and the red-eye processing means responds to the second designating means,
Extracting color data representing a color at the desired position,
An image processing apparatus for correcting the designated portion with a color corresponding to the extracted color data.
【請求項8】 請求項2に記載の装置において、該装置
は、前記原画像データを入力して前記蓄積手段に蓄積す
る入力手段を含むことを特徴とする画像処理装置。
8. The image processing apparatus according to claim 2, wherein the apparatus includes input means for inputting the original image data and storing the original image data in the storage means.
【請求項9】 請求項2に記載の装置において、該装置
は、前記補正された原画像データを可視画像として出力
する出力手段を含むことを特徴とする画像処理装置。
9. The image processing apparatus according to claim 2, further comprising an output unit configured to output the corrected original image data as a visible image.
JP8245165A 1996-09-17 1996-09-17 Picture processor Pending JPH1091761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8245165A JPH1091761A (en) 1996-09-17 1996-09-17 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8245165A JPH1091761A (en) 1996-09-17 1996-09-17 Picture processor

Publications (1)

Publication Number Publication Date
JPH1091761A true JPH1091761A (en) 1998-04-10

Family

ID=17129583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8245165A Pending JPH1091761A (en) 1996-09-17 1996-09-17 Picture processor

Country Status (1)

Country Link
JP (1) JPH1091761A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186325A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Method and device for processing picture, recording medium and transmitting medium
JP2006059092A (en) * 2004-08-19 2006-03-02 Noritsu Koki Co Ltd Catchlight synthesis method
JP2006072742A (en) * 2004-09-02 2006-03-16 Noritsu Koki Co Ltd Catch light composition method and device
JP2006072743A (en) * 2004-09-02 2006-03-16 Noritsu Koki Co Ltd Catch light composition method and device
JP2006309040A (en) * 2005-05-02 2006-11-09 Sanyo Electric Co Ltd Digital image display apparatus and image display method
US7456877B2 (en) 2003-11-28 2008-11-25 Canon Kabushiki Kaisha Image sensing apparatus, control method therefor, and printer
US7602968B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. Overlaid graphical user interface and method for image processing
US7602991B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. User definable image reference regions
JP2010273374A (en) * 2010-07-21 2010-12-02 Seiko Epson Corp Apparatus and method for managing image data, and medium with image data management program recorded therein
US7894666B2 (en) 2004-07-30 2011-02-22 Canon Kabushiki Kaisha Image processing method and apparatus, image sensing apparatus, and program
US8111941B2 (en) 2006-11-22 2012-02-07 Nik Software, Inc. Method for dynamic range editing
US8701028B2 (en) 2006-06-14 2014-04-15 Google Inc. Graphical user interface and related method
US8837849B2 (en) 2007-06-26 2014-09-16 Google Inc. Method for noise-robust color changes in digital images
JP2014182672A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program
US9053530B2 (en) 2006-11-27 2015-06-09 Google Inc. Method for sliced inpainting

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186325A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Method and device for processing picture, recording medium and transmitting medium
US9008420B2 (en) 2001-10-24 2015-04-14 Google Inc. Distortion of digital images using spatial offsets from image reference points
US7970233B2 (en) 2001-10-24 2011-06-28 Nik Software, Inc. Distortion of digital images using spatial offsets from image reference points
US10140682B2 (en) 2001-10-24 2018-11-27 Google Llc Distortion of digital images using spatial offsets from image reference points
US8625925B2 (en) 2001-10-24 2014-01-07 Google Inc. Distortion of digital images using spatial offsets from image reference points
US9471998B2 (en) 2001-10-24 2016-10-18 Google Inc. Distortion of digital images using spatial offsets from image reference points
US7602968B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. Overlaid graphical user interface and method for image processing
US7602991B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. User definable image reference regions
US9786031B2 (en) 2001-10-24 2017-10-10 Google Inc. Distortion of digital images using spatial offsets from image reference points
US8064725B2 (en) 2001-10-24 2011-11-22 Nik Software, Inc. Distortion of digital images using spatial offsets
US7456877B2 (en) 2003-11-28 2008-11-25 Canon Kabushiki Kaisha Image sensing apparatus, control method therefor, and printer
US7894666B2 (en) 2004-07-30 2011-02-22 Canon Kabushiki Kaisha Image processing method and apparatus, image sensing apparatus, and program
JP2006059092A (en) * 2004-08-19 2006-03-02 Noritsu Koki Co Ltd Catchlight synthesis method
JP2006072742A (en) * 2004-09-02 2006-03-16 Noritsu Koki Co Ltd Catch light composition method and device
JP2006072743A (en) * 2004-09-02 2006-03-16 Noritsu Koki Co Ltd Catch light composition method and device
JP2006309040A (en) * 2005-05-02 2006-11-09 Sanyo Electric Co Ltd Digital image display apparatus and image display method
US9690467B2 (en) 2006-06-14 2017-06-27 Google Inc. Graphical user interface and related method
US10430060B2 (en) 2006-06-14 2019-10-01 Google Llc Graphical user interface and related method
US8701028B2 (en) 2006-06-14 2014-04-15 Google Inc. Graphical user interface and related method
US9286665B2 (en) 2006-11-22 2016-03-15 Google Inc. Method for dynamic range editing
US9934562B2 (en) 2006-11-22 2018-04-03 Google Llc Method for dynamic range editing
US9589335B2 (en) 2006-11-22 2017-03-07 Google Inc. Method for dynamic range editing
US8111941B2 (en) 2006-11-22 2012-02-07 Nik Software, Inc. Method for dynamic range editing
US8737764B2 (en) 2006-11-22 2014-05-27 Google Inc. Method for dynamic range editing
US9053530B2 (en) 2006-11-27 2015-06-09 Google Inc. Method for sliced inpainting
US9870604B2 (en) 2006-11-27 2018-01-16 Google Llc Method for sliced inpainting
US10535123B2 (en) 2006-11-27 2020-01-14 Google Llc Method for sliced inpainting
US8837849B2 (en) 2007-06-26 2014-09-16 Google Inc. Method for noise-robust color changes in digital images
US9883079B2 (en) 2007-06-26 2018-01-30 Google Llc Method for noise-robust color changes in digital images
US9407790B2 (en) 2007-06-26 2016-08-02 Google Inc. Method for noise-robust color changes in digital images
US10554857B2 (en) 2007-06-26 2020-02-04 Google Llc Method for noise-robust color changes in digital images
JP2010273374A (en) * 2010-07-21 2010-12-02 Seiko Epson Corp Apparatus and method for managing image data, and medium with image data management program recorded therein
JP2014182672A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
US9934562B2 (en) Method for dynamic range editing
US7675556B2 (en) Cameras, other imaging devices, and methods having non-uniform image remapping using a small data-set of distortion vectors
JP4368513B2 (en) Image processing method and apparatus, and recording medium
JPH1188672A (en) Image-processing method, its device, image reproduction method and its device and image-confirming device used for the method
JPH1091761A (en) Picture processor
JP2000069304A (en) Image data management system, image data management method, and medium with image data management program recorded therein
WO1999017254A1 (en) Digital redeye removal
JP2001251531A (en) Method and device for image processing and recording medium
JP2001313844A (en) Method and device for executing local color correction
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP3913604B2 (en) How to create ID photo
JPH06111083A (en) Video id photosystem
JP2002044469A (en) Image processing method and recording medium with recorded image processing program stored
JP2001056867A (en) Image data processor, medium where image data set is recorded, medium where image data processing program is recorded, and image data processing method
JP2008283289A (en) Development processor for undeveloped image data, development processing method, and computer program for development processing
JP4507082B2 (en) Catch light synthesis method
JP2006072743A (en) Catch light composition method and device
EP0923230A2 (en) Transforms for digital images in linear form
JP4586932B2 (en) Image data management apparatus, image data management method, and medium on which image data management program is recorded
JP2011061452A (en) Pause photograph processing system
JP2000278510A (en) Automatic correction method for digital image and system for the same
JP2008283286A (en) Development processor for undeveloped image data, development processing method, and computer program for development processing
JP2006074742A (en) Photographing scene correcting method, program, and photographing scene correction processing system implementing the method
JP6268790B2 (en) Imaging device
JP2018060579A (en) Imaging apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050426