JP2001218015A - Picture processing method and picture processor - Google Patents

Picture processing method and picture processor

Info

Publication number
JP2001218015A
JP2001218015A JP2000022632A JP2000022632A JP2001218015A JP 2001218015 A JP2001218015 A JP 2001218015A JP 2000022632 A JP2000022632 A JP 2000022632A JP 2000022632 A JP2000022632 A JP 2000022632A JP 2001218015 A JP2001218015 A JP 2001218015A
Authority
JP
Japan
Prior art keywords
image
processing
scene
image data
sharpness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000022632A
Other languages
Japanese (ja)
Other versions
JP4064031B2 (en
Inventor
Masashi Norimatsu
正志 乗松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2000022632A priority Critical patent/JP4064031B2/en
Publication of JP2001218015A publication Critical patent/JP2001218015A/en
Application granted granted Critical
Publication of JP4064031B2 publication Critical patent/JP4064031B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a picture processing method and a picture processor, which most suitably conduct granular suppression/sharpness emphasis processing in accordance with the photographing scene of an original picture or the photographing object of the photographing scene and can obtain the reproduced picture of high definition. SOLUTION: The picture processing method for discriminating the photographing scene of the whole original picture or the local area of the original picture, deciding the processing strength of the granular suppression/ sharpness emphasis processing conducted on picture data based on a discrimination result and conducting the granular suppression/sharpness emphasis processing on picture data of the photographing scene of the whole original picture or the local area of the original picture by using processing strength and the picture processor using the method are supplied.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、原画像の画像デー
タに画像処理を施す画像処理方法およびこれを用いた画
像処理装置であって、原画像全体の撮影シーンの判別結
果や撮影シーン内の被写体の判別結果に応じて、粒状抑
制・シャープネス強調処理の処理強度を決定することの
できる画像処理方法および画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method for performing image processing on image data of an original image and an image processing apparatus using the same. The present invention relates to an image processing method and an image processing apparatus that can determine the processing intensity of the graininess suppression / sharpness enhancement processing according to the result of subject determination.

【0002】[0002]

【従来の技術】現在、ネガフィルム、リバーサルフィル
ム等の写真フィルム(以下フィルムとする)に撮影され
た画像の感光材料(印画紙)への焼き付けは、フィルム
の画像を感光材料に投影して感光材料を面露光する、い
わゆる直接露光(アナログ露光)によって行なわれてい
る。
2. Description of the Related Art At present, an image photographed on a photographic film (hereinafter referred to as a film) such as a negative film or a reversal film is printed on a photosensitive material (photographic paper) by projecting an image of the film onto the photosensitive material. This is performed by so-called direct exposure (analog exposure) that exposes a material surface.

【0003】これに対し、近年ではデジタル露光を利用
する焼付装置、すなわちフィルムに撮影された画像を光
学的に読み取って、読み取った画像をデジタル信号とし
た後種々の画像処理を施して記録用の出力画像データと
し、この出力画像データに応じて変調した記録光によっ
て感光材料を走査露光して画像(潜像)を記録し、(仕
上り)プリントとするデジタルフォトプリンタが実用化
された。このデジタルフォトプリンタは、基本的に、フ
ィルムに記録された画像を光電的に読み取るスキャナ
(画像読取装置)、および読み取った画像を画像処理し
て出力用の画像データ(露光条件)とする画像処理装置
を有する画像入力装置と、画像入力装置から出力された
画像データに応じて感光材料を走査露光して潜像を記録
するプリンタ(画像記録装置)、および露光済の感光材
料に現像処理を施してプリントとするプロセサ(現像装
置)を有する画像出力装置とを有する。
On the other hand, in recent years, printing apparatuses utilizing digital exposure, that is, optically reading an image photographed on a film, converting the read image into a digital signal, and performing various image processings thereon to perform recording. 2. Description of the Related Art Digital photo printers have been put to practical use in which a photosensitive material is scanned and exposed by recording light modulated according to the output image data to record an image (latent image) and print (finished). This digital photo printer basically includes a scanner (image reading device) for photoelectrically reading an image recorded on a film, and image processing for processing the read image to output image data (exposure conditions). Input device having a device, a printer (image recording device) that scans and exposes a photosensitive material according to image data output from the image input device to record a latent image, and performs development processing on the exposed photosensitive material. And an image output device having a processor (developing device) for printing.

【0004】スキャナでは、光源から射出された読取光
をフィルムに入射して、フィルムに撮影された画像を担
持する投影光を得て、この投影光を結像レンズによって
CCDセンサ等のイメージセンサに結像して光電変換す
ることにより画像を読み取り、必要に応じて各種の画像
処理を施した後に、フィルムの画像データ(画像信号)
として画像処理装置に送る。画像処理装置は、スキャナ
によって読み取られた画像データから画像処理条件を設
定して、設定した条件に応じた画像処理を画像データに
施し、画像記録のための出力画像データ(露光条件)と
してプリンタに送る。プリンタでは、例えば、光ビーム
走査露光を利用する装置であれば、画像処理装置から送
られた画像データに応じて光ビームを変調して、この光
ビームを主走査方向に偏向すると共に、主走査方向と直
交する副走査方向に感光材料を搬送することにより、画
像を担持する光ビームによって感光材料を露光(焼付
け)して潜像を形成し、次いで、プロセサにおいて感光
材料に応じた現像処理等を施して、フィルムに撮影され
た画像が再生されたプリント(写真)とする。
In a scanner, reading light emitted from a light source is incident on a film to obtain projection light carrying an image photographed on the film, and the projection light is transmitted to an image sensor such as a CCD sensor by an imaging lens. An image is read by forming an image and performing photoelectric conversion, and after performing various image processing as necessary, image data (image signal) of the film
To the image processing apparatus. The image processing apparatus sets image processing conditions from image data read by a scanner, performs image processing according to the set conditions on the image data, and outputs the image data to a printer as output image data (exposure conditions) for image recording. send. In a printer, for example, if the apparatus uses light beam scanning exposure, the light beam is modulated in accordance with image data sent from the image processing apparatus, and the light beam is deflected in the main scanning direction and the main scanning direction. The photosensitive material is conveyed in a sub-scanning direction perpendicular to the direction, so that the photosensitive material is exposed (burned) by a light beam carrying an image to form a latent image, and then processed in a processor in accordance with the photosensitive material. To obtain a print (photograph) in which the image photographed on the film is reproduced.

【0005】このようなデジタルフォトプリンタでは、
画像をデジタルの画像データとして、画像データ処理に
よって焼付時の露光条件を決定することができるので、
逆光やストロボ撮影等に起因する画像の飛びやツブレの
補正の他、感光材料に起因して画像濃度の低い領域で目
立つざらつき(粒状)を抑制するための粒状抑制処理や
シャープネス強調(鮮鋭化)処理等を好適に行って、従
来の直接露光では得られなかった高品位なプリントを得
ることができる。
In such a digital photo printer,
Since the exposure conditions at the time of printing can be determined by image data processing using the image as digital image data,
In addition to correcting image skipping and blurring due to backlighting, strobe photography, etc., graininess suppression processing and sharpness enhancement (sharpening) for suppressing noticeable roughness (graininess) in areas with low image density due to photosensitive materials By suitably performing processing and the like, a high-quality print that cannot be obtained by conventional direct exposure can be obtained.

【0006】[0006]

【発明が解決しようとする課題】しかし、上記粒状抑制
処理やシャープネス強調処理は、原画像が撮影された原
稿種、例えば感度の異なるフィルム種に応じて、あるい
は撮影時の露光量に応じて、処理条件である処理強度を
変えている。このように、粒状抑制処理やシャープネス
強調処理の処理条件は、撮影シーンの内容と無関係に決
定されるため、撮影シーンの内容に即して最適に処理さ
れない場合がある。例えば、人物を撮影したポートレー
トシーンの画像に対して、風景シーンと同じ処理強度を
用いて、粒状抑制処理やシャープネス強調処理を施す
と、シャープネス強調が強くなり、ポートレートシーン
としてきつい画像となることから、ポートレートシーン
および風景シーン共にある程度満足のできる強度係数が
設定され、粒状抑制処理やシャープネス強調処理が行わ
れている。そのため、ポートレートシーンや風景シーン
各々に対して最適な粒状抑制処理やシャープネス強調処
理を行うことができないといった問題があった。オペレ
ータがマニュアル指定により処理強度を補正することも
できるが、常時処理強度を補正するのも作業効率上好ま
しくない。
However, the above-described graininess suppression processing and sharpness enhancement processing are performed according to the type of the original on which the original image was captured, for example, the type of film having different sensitivities, or the amount of exposure at the time of photography. The processing intensity, which is the processing condition, is changed. As described above, the processing conditions of the graininess suppression processing and the sharpness enhancement processing are determined irrespective of the content of the photographic scene, and thus the processing may not be optimally performed in accordance with the content of the photographic scene. For example, when a portrait scene image of a person is subjected to graininess suppression processing or sharpness enhancement processing using the same processing intensity as a landscape scene, sharpness enhancement becomes strong, and a portrait scene becomes a sharp image. For this reason, an intensity coefficient that satisfies a certain degree is set for both the portrait scene and the landscape scene, and the graininess suppression processing and the sharpness enhancement processing are performed. Therefore, there has been a problem that optimal graininess suppression processing and sharpness enhancement processing cannot be performed on each of the portrait scene and the landscape scene. Although the processing intensity can be corrected manually by the operator, it is not preferable in terms of work efficiency to always correct the processing intensity.

【0007】このような問題に対して、撮影画像の被写
体のエッジ域や背景画像の微細なテクスチャを鮮鋭化
し、フィルム粒状に基づくざらつきを抑制した画像を得
る粒状抑制・シャープネス強調処理法が、特開平9−2
2460号公報において開示されている。同公報によれ
ば、画像信号を低周波数成分、中間周波数成分および高
周波数成分に分け、高周波数成分の信号を高周波数ゲイ
ン係数を用いて強調し、中間周波数成分は中間周波数ゲ
イン係数を用いて抑制し、その後、処理された高周波数
成分、中間周波数成分および低周波数成分を合成するこ
とによって、ざらつきのない鮮鋭化された再生画像を得
ることができるとされている。
In order to solve such a problem, a graininess suppression / sharpness enhancement processing method for sharpening an edge area of a subject in a photographed image or a fine texture of a background image and obtaining an image in which roughness based on film graininess is suppressed is particularly known. Kaihei 9-2
2460. According to the publication, an image signal is divided into a low-frequency component, an intermediate-frequency component, and a high-frequency component, a high-frequency component signal is emphasized using a high-frequency gain coefficient, and the intermediate-frequency component is calculated using an intermediate-frequency gain coefficient. It is described that by suppressing the image and then combining the processed high frequency component, intermediate frequency component and low frequency component, a sharp reproduced image without roughness can be obtained.

【0008】この方法では、上記高周波数ゲイン係数や
中間周波数ゲイン係数が予め設定された中から選択さ
れ、あるいは、画像データの特徴、例えば、カラー画像
のR(赤)、G(緑)およびB(青)の各画素の画像デ
ータの中間・高周波数成分における相関値等の評価値に
基づいて決定される。しかし、高周波数ゲイン係数や中
間周波数ゲイン係数は、原画像の撮影シーンの内容と無
関係に自動的に決定されるため、依然として、風景シー
ンおよびポートレートシーン各々に最適な粒状抑制・シ
ャープネス強調処理を施すことはできない。また、オペ
レータのマニュアル指定によって上記高周波数ゲイン係
数や中間周波数ゲイン係数を指定することもできる。し
かし、オペレータがマニュアル指定のためにデジタルフ
ォトプリンタで常時監視するのも作業効率上好ましくな
い。
In this method, the high frequency gain coefficient and the intermediate frequency gain coefficient are selected from preset ones, or the characteristics of image data, for example, R (red), G (green) and B (color image) of a color image. It is determined based on an evaluation value such as a correlation value in the middle / high frequency components of the image data of each pixel of (blue). However, since the high frequency gain coefficient and the intermediate frequency gain coefficient are automatically determined independently of the content of the shooting scene of the original image, the optimal grain suppression and sharpness enhancement processing for each of the landscape scene and the portrait scene is still performed. It cannot be applied. Further, the high frequency gain coefficient and the intermediate frequency gain coefficient can also be designated by manual designation by an operator. However, it is not preferable in terms of work efficiency that the operator always monitors the digital photo printer for manual designation.

【0009】そこで、本発明は、上記問題点を解決すべ
く、原画像の撮影シーンまたは撮影シーンの撮影被写体
に応じて、最適に粒状抑制・シャープネス強調処理を施
し、高品位な再現画像を得ることのできる画像処理方法
および画像処理装置を提供することを目的とする。
Therefore, in order to solve the above-mentioned problems, the present invention optimally performs graininess suppression and sharpness enhancement processing according to the shooting scene of the original image or the shooting subject of the shooting scene to obtain a high-quality reproduced image. It is an object of the present invention to provide an image processing method and an image processing apparatus capable of performing the above.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、原画像の画像データに画像処理を施して
出力画像データを得る画像処理方法であって、前記原画
像全体または前記原画像の局所領域の撮影シーンを判別
し、判別した結果に基づいて、前記画像データに施す粒
状抑制・シャープネス強調処理の処理強度を決定し、こ
の処理強度を用いて前記原画像全体、または前記局所領
域の画像データに粒状抑制・シャープネス強調処理を施
すことを特徴とする画像処理方法を提供するものであ
る。
According to one aspect of the present invention, there is provided an image processing method for performing image processing on image data of an original image to obtain output image data. Determine the shooting scene of the local region of the original image, based on the determination result, determine the processing intensity of the granular suppression and sharpness enhancement processing to be applied to the image data, using the processing intensity the entire original image, or the It is an object of the present invention to provide an image processing method characterized by subjecting image data of a local area to graininess suppression / sharpness enhancement processing.

【0011】ここで、前記原画像内の人物の顔領域の原
画像に占める比率に応じて、原画像の撮影シーンをポー
トレートシーンまたはそれ以外のシーンと判別し、前記
原画像がポートレートシーンと判別された場合、ポート
レートシーン以外のシーンと判別された場合に比べ、粒
状抑制処理を強く施し、シャープネス強調処理を弱く施
すのが好ましい。
[0011] The photographing scene of the original image is determined to be a portrait scene or another scene according to the ratio of the face area of the person in the original image to the original image. In this case, it is preferable that the graininess suppression process is performed more strongly and the sharpness enhancement process is performed weaker than when the scene is determined to be a scene other than a portrait scene.

【0012】また、前記原画像全体の画像データの空間
周波数特性を解析し、前記原画像全体の撮影シーンを、
粒状抑制処理を強く施す粒状優先シーンまたはシャープ
ネス強調処理を強く施すシャープネス優先シーンである
と判別するのが好ましい。あるいは、前記局所領域の画
像データの空間周波数特性を解析し、前記原画像の局所
領域の撮影シーンを、粒状抑制処理を強く施す粒状優先
領域またはシャープネス強調処理を強く施すシャープネ
ス優先領域であると判別するのが好ましい。また、前記
空間周波数特性を解析し、前記原画像の画像データの中
間周波数成分、または中間・高周波数成分のスペクトル
値が所定値より大きい場合、シャープネス強調処理を強
く施すシャープネス優先シーンあるいはシャープネス優
先領域と判別し、前記スペクトル値が前記所定値以下の
場合、粒状抑制処理を強く施す粒状優先シーンあるいは
粒状優先領域と判別するのが好ましい。さらに、前記原
画像の被写体のエッジ域のコントラストを判別し、コン
トラストに応じて、シャープネス強調処理を弱めるのが
好ましい。
In addition, the spatial frequency characteristics of the image data of the entire original image are analyzed, and a photographing scene of the entire original image is determined.
It is preferable to determine that the scene is a grain-priority scene in which the graininess suppression process is strongly performed or a sharpness-priority scene in which the sharpness enhancement process is strongly performed. Alternatively, the spatial frequency characteristics of the image data of the local area are analyzed to determine that the shooting scene of the local area of the original image is a grain priority area where the grain suppression processing is strongly applied or a sharpness priority area where the sharpness enhancement processing is strongly applied. Is preferred. In addition, the spatial frequency characteristic is analyzed, and when the spectral value of the intermediate frequency component or the intermediate / high frequency component of the image data of the original image is larger than a predetermined value, a sharpness priority scene or a sharpness priority area where strong sharpness enhancement processing is performed. If the spectrum value is equal to or less than the predetermined value, it is preferable to determine that the scene is a grain-priority scene or a grain-priority region to which the graininess suppression process is to be strongly applied. Further, it is preferable that the contrast of the edge area of the subject in the original image is determined, and the sharpness enhancement processing is weakened according to the contrast.

【0013】また、本発明は、原画像の画像データに画
像処理を施して出力画像データを得る画像処理装置であ
って、前記原画像全体または前記原画像の局所領域の撮
影シーンを判別し、判別結果に基づいて、前記画像デー
タに施す粒状抑制・シャープネス強調処理の処理強度を
決定することで、粒状抑制・シャープネス強調処理を制
御する制御手段と、この制御手段で決定された処理強度
を用いて、前記原画像全体、または前記局所領域の画像
データに、粒状抑制・シャープネス強調処理を施す画像
処理手段とを備えることを特徴とする画像処理装置を提
供する。
Further, the present invention is an image processing apparatus for performing image processing on image data of an original image to obtain output image data, wherein the image processing apparatus discriminates a shooting scene of the entire original image or a local region of the original image, A control unit that controls the granular suppression / sharpness enhancement process by determining the processing intensity of the granular suppression / sharpness enhancement process to be performed on the image data based on the determination result, using the processing intensity determined by the control unit. An image processing unit that performs grain suppression and sharpness enhancement processing on the entire original image or the image data of the local area.

【0014】[0014]

【発明の実施の形態】以下、本発明の画像処理方法およ
び画像処理装置について、添付の図面に示される好適実
施例を基に詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing method and an image processing apparatus according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

【0015】図1に、本発明の画像処理方法および画像
処理装置を利用するデジタルフォトプリンタの一例のブ
ロック図が示される。図1に示されるデジタルフォトプ
リンタ(以下、フォトプリンタ10とする)は、基本的
に、フィルムFに撮影された画像を光電的に読み取るス
キャナ(画像読取装置)12と、読み取られた画像デー
タ(画像情報)の画像処理やフォトプリンタ10全体の
操作および制御等を行う画像処理装置14と、画像処理
装置14から出力された画像データに応じて変調した光
ビームで感光材料(印画紙)を画像露光し、現像処理し
て(仕上り)プリントとして出力するプリンタ16とを
有する。また、画像処理装置14には、様々な条件の入
力(設定)、処理の選択や指示、色/濃度補正などの指
示等を入力するためのキーボード18aおよびマウス1
8bを有する操作系18と、スキャナ12で読み取られ
た画像、各種の操作指示、条件の設定/登録画面等を表
示するディスプレイ20が接続される。
FIG. 1 is a block diagram showing an example of a digital photo printer using an image processing method and an image processing apparatus according to the present invention. The digital photo printer (hereinafter, referred to as a photo printer 10) shown in FIG. 1 basically includes a scanner (image reading device) 12 that photoelectrically reads an image captured on a film F, and read image data ( An image processing device 14 that performs image processing of image information and the entire operation and control of the photo printer 10, and images a photosensitive material (photographic paper) with a light beam modulated according to image data output from the image processing device 14. A printer 16 that exposes, develops, and outputs (finished) prints. The image processing apparatus 14 also includes a keyboard 18a and a mouse 1 for inputting (setting) various conditions, selecting and instructing processing, and inputting instructions such as color / density correction.
An operation system 18 having an 8b and a display 20 for displaying an image read by the scanner 12, various operation instructions, a condition setting / registration screen, and the like are connected.

【0016】スキャナ12は、フィルムF等に撮影され
た画像を1コマずつ光電的に読み取る装置で、光源22
と、可変絞り24と、フィルムFに入射する読取光をフ
ィルムFの面方向で均一にする拡散ボックス28と、結
像レンズユニット32と、R(赤)、G(緑)およびB
(青)の各画像読取に対応するラインCCDセンサを有
するイメージセンサ34と、アンプ(増幅器)36と、
A/D(アナログ/デジタル)変換器38とを有する。
The scanner 12 is a device that photoelectrically reads an image photographed on a film F or the like one frame at a time.
A variable aperture 24, a diffusion box 28 for making the reading light incident on the film F uniform in the surface direction of the film F, an imaging lens unit 32, R (red), G (green), and B
An image sensor 34 having a line CCD sensor corresponding to each image reading of (blue), an amplifier 36,
An A / D (analog / digital) converter 38.

【0017】また、フォトプリンタ10においては、新
写真システム(Advanced Photo System)や135サイズ
のネガ(あるいはリバーサル)フィルム等のフィルムの
種類やサイズ、ストリップスやスライド等のフィルムの
形態等に応じて、スキャナ12の本体に装着自在な専用
のキャリア30が用意されており、キャリア30を交換
することにより、各種のフィルムや処理に対応すること
ができる。フィルムFに撮影され、プリント作成に供さ
れる画像(コマ)は、このキャリアによって所定の読取
位置に搬送される。このようなスキャナ12において、
フィルムFに撮影された画像を読み取る際には、光源2
2から射出され、可変絞り24によって光量調整された
読取光が、キャリアによって所定の読取位置に位置され
たフィルムFに入射して、透過することにより、フィル
ムFに撮影された画像を担持する投影光を得る。
In the photo printer 10, the type and size of a film such as a new photo system (Advanced Photo System) or a 135-size negative (or reversal) film, the form of a film such as strips and slides, and the like are determined. A dedicated carrier 30 that can be mounted on the main body of the scanner 12 is prepared. By replacing the carrier 30, various types of films and processes can be handled. An image (frame) photographed on the film F and provided for printing is conveyed to a predetermined reading position by this carrier. In such a scanner 12,
When reading an image captured on the film F, the light source 2
The projection light carrying the image photographed on the film F by being incident on the film F positioned at a predetermined reading position by the carrier and transmitting therethrough, the reading light emitted from the lens 2 and adjusted in light amount by the variable aperture 24. Get light.

【0018】キャリア30は、所定の読取位置にフィル
ムFを位置しつつ、イメージセンサ34のラインCCD
センサの延在方向(主走査方向)と直交する副走査方向
に、フィルムFの長手方向を一致させて搬送する、読取
位置を副走査方向に挟んで配置される搬送ローラ対(図
示されない)と、フィルムFの投影光を所定のスリット
状に規制する、読取位置に対応して位置する主走査方向
に延在するスリットを有するマスク(図示されない)と
を有する。フィルムFは、このキャリア30によって読
取位置に位置されて副走査方向に搬送されつつ、読取光
が入射される。これにより、結果的にフィルムFが主走
査方向に延在するスリットによって2次元的にスリット
走査され、フィルムFに撮影された各コマの画像が読み
取られる。
The carrier 30 has a line CCD of the image sensor 34 while the film F is positioned at a predetermined reading position.
A transport roller pair (not shown) that transports the film F in a sub-scanning direction orthogonal to the sensor extending direction (main scanning direction) while aligning the reading position in the sub-scanning direction with the film F conveyed; A mask (not shown) having a slit extending in the main scanning direction and located in correspondence with the reading position, for regulating the projection light of the film F into a predetermined slit shape. The reading light is incident on the film F while being transported in the sub-scanning direction by being positioned at the reading position by the carrier 30. As a result, the film F is two-dimensionally slit-scanned by the slit extending in the main scanning direction, and the image of each frame captured on the film F is read.

【0019】前述のように、読取光はキャリア30に保
持されたフィルムFを透過して画像を担持する投影光と
なり、この投影光は、結像レンズユニット32によって
イメージセンサ34の受光面に結像される。イメージセ
ンサ34は、R画像の読み取りを行うラインCCDセン
サ34R、G画像の読み取りを行うラインCCDセンサ
34G、およびB画像の読み取りを行うラインCCDセ
ンサ34Bを有する、いわゆる3ラインのカラーCCD
センサで、各ラインCCDセンサは、前述のように主走
査方向に延在している。フィルムFの投影光は、このイ
メージセンサ34によって、R、GおよびBの3原色に
分解されて光電的に読み取られる。イメージセンサ34
の出力信号は、アンプ36で増幅され、A/D変換器3
8でデジタル信号とされて、画像処理装置14に送られ
る。
As described above, the reading light is transmitted through the film F held by the carrier 30 to become projection light for carrying an image, and this projection light is formed on the light receiving surface of the image sensor 34 by the imaging lens unit 32. Imaged. The image sensor 34 includes a line CCD sensor 34R for reading an R image, a line CCD sensor 34G for reading a G image, and a line CCD sensor 34B for reading a B image.
In the sensor, each line CCD sensor extends in the main scanning direction as described above. The projection light of the film F is separated into three primary colors of R, G and B by the image sensor 34 and read photoelectrically. Image sensor 34
Is amplified by the amplifier 36, and the A / D converter 3
The digital signal is sent to the image processing device 14 at step 8.

【0020】スキャナ12においては、フィルムFに撮
影された画像の読み取りを、低解像度で読み取るプレス
キャンと、出力画像の画像データを得るための本スキャ
ンとの、2回の画像読取で行う。プレスキャンは、スキ
ャナ12が対象とする全てのフィルムの画像を、イメー
ジセンサ34が飽和することなく読み取れるように、あ
らかじめ設定された、プレスキャンの読取条件で行われ
る。一方、本スキャンは、プレスキャンデータから、そ
の画像(コマ)の最低濃度よりも若干低い濃度でイメー
ジセンサ34が飽和するように、各コマ毎に設定された
本スキャンの読取条件で行われる。プレスキャンと本ス
キャンの出力信号は、解像度と出力レベルが異なる以外
は、基本的に同じデータである。
The scanner 12 reads an image photographed on the film F by two image readings: a pre-scan for reading at a low resolution and a main scan for obtaining image data of an output image. The pre-scan is performed under pre-scan reading conditions set in advance so that the image of all the films targeted by the scanner 12 can be read without saturation of the image sensor 34. On the other hand, the main scan is performed under the main scan reading conditions set for each frame from the pre-scan data so that the image sensor 34 saturates at a density slightly lower than the minimum density of the image (frame). The output signals of the pre-scan and the main scan are basically the same data except that the resolution and the output level are different.

【0021】なお、本発明の画像処理方法および画像処
理装置を利用するデジタルフォトプリンタにおいて、ス
キャナ12はスリット走査読取によるものに限定され
ず、1コマの画像の全面に読取光を照射して一度に読み
取る、面読取を利用するものであってもよい。この場合
には、例えば、エリアCCDセンサを用い、光源とフィ
ルムFとの間に、R、GおよびBの各色フィルタの挿入
手段を設け、色フィルタを挿入してエリアCCDセンサ
で画像を読み取ることを、R、GおよびBの各色フィル
タで順次行い、フィルムに撮影された画像を3原色に分
解して順次行う。前述のように、スキャナ12から出力
されたデジタル信号は、画像処理装置14(以下、処理
装置14とする)に出力される。なお、本実施例で行わ
れる画像処理の対象は、フィルムFをスキャナ12で読
み取ってA/D変換されたデジタル信号であるが、デジ
タルステルカメラ等で撮影されたデジタル信号や各種の
ネットワークを介して得られる画像デジタル信号であっ
てもよい。
In the digital photo printer using the image processing method and the image processing apparatus according to the present invention, the scanner 12 is not limited to the one using the slit scanning reading, and the entire surface of one frame of image is irradiated with the reading light once. The surface reading may be used. In this case, for example, using an area CCD sensor, providing means for inserting R, G, and B color filters between the light source and the film F, inserting a color filter, and reading an image with the area CCD sensor. Is sequentially performed by each of R, G, and B color filters, and the image photographed on the film is separated into three primary colors, and sequentially performed. As described above, the digital signal output from the scanner 12 is output to the image processing device 14 (hereinafter, referred to as the processing device 14). The object of the image processing performed in the present embodiment is a digital signal obtained by reading the film F by the scanner 12 and A / D converting the digital signal. It may be an image digital signal obtained by the above.

【0022】図2に、処理装置14のブロック図を示
す。処理装置14は、データ処理部40、Log変換器
42、プレスキャン(フレーム)メモリ44、本スキャ
ン(フレーム)メモリ46、プレスキャン処理部48、
本スキャン処理部50、および条件設定部60を有す
る。なお、図2は、主に画像処理関連の部位を示すもの
であり、処理装置14には、これ以外にも、処理装置1
4を含むフォトプリンタ10全体の制御や管理を行うC
PU、フォトプリンタ10の作動等に必要な情報を記憶
するメモリ等が配置され、また、操作系18やディスプ
レイ20は、このCPU等(CPUバス)を介して各部
位に接続される。
FIG. 2 shows a block diagram of the processing device 14. The processing device 14 includes a data processing unit 40, a Log converter 42, a prescan (frame) memory 44, a main scan (frame) memory 46, a prescan processing unit 48,
It has a main scan processing section 50 and a condition setting section 60. FIG. 2 mainly shows parts related to the image processing.
C that controls and manages the entire photo printer 10 including the printer 4
A PU, a memory for storing information necessary for the operation of the photo printer 10, and the like are arranged, and the operation system 18 and the display 20 are connected to each part via the CPU or the like (CPU bus).

【0023】スキャナ12から出力されたR,Gおよび
Bの各デジタル信号は、データ処理部40において、暗
時補正、欠陥画素補正、シェーディング補正等の所定の
データ処理を施された後、Log変換器42によって変
換されてデジタルの画像データ(濃度データ)とされ、
プレスキャンデータはプレスキャンメモリ44に、本ス
キャンデータは本スキャンメモリ46に、それぞれ記憶
(格納)される。プレスキャンメモリ44に記憶された
プレスキャンデータは、画像データ処理部52と画像デ
ータ変換部54とを有するプレスキャン処理部48に、
他方、本スキャンメモリ46に記憶された本スキャンデ
ータは、画像データ処理部56と画像データ変換部58
とを有する本スキャン処理部50に読み出され、処理さ
れる。
The R, G, and B digital signals output from the scanner 12 are subjected to predetermined data processing such as darkness correction, defective pixel correction, and shading correction in a data processing unit 40, and then are Log-converted. Is converted into digital image data (density data) by the
The pre-scan data is stored (stored) in the pre-scan memory 44, and the main scan data is stored (stored) in the main scan memory 46. The pre-scan data stored in the pre-scan memory 44 is sent to a pre-scan processing unit 48 having an image data processing unit 52 and an image data conversion unit 54,
On the other hand, the main scan data stored in the main scan memory 46 is transmitted to an image data processing unit 56 and an image data conversion unit 58.
Are read and processed by the main scan processing unit 50 having

【0024】プレスキャン処理部48の画像データ処理
部52と、本スキャン処理部50の画像データ処理部5
6は、後述する条件設定部60が設定した処理条件に応
じて、スキャナ12によって読み取られた画像(画像デ
ータ)に、所定の画像処理を施す部位で、両者は、解像
度が異なる以外は、基本的に、同じ処理を行う。
The image data processing section 52 of the pre-scan processing section 48 and the image data processing section 5 of the main scan processing section 50
Reference numeral 6 denotes a portion for performing predetermined image processing on an image (image data) read by the scanner 12 in accordance with processing conditions set by a condition setting section 60 described later. The same process is performed.

【0025】両処理部による画像処理には、画像濃度の
低い領域で目立つ感光材料に起因したざらつき(粒状)
等を抑制除去する粒状抑制処理や原画像をくっきり鮮鋭
化するシャープネス強調処理が少なくとも含まれる。こ
れ以外の処理に関しては、特に限定はなく、公知の各種
の画像処理が例示されるが、例えば、LUT(ルックア
ップテーブル)を用いたグレイバランス調整、階調補
正、および濃度(明るさ)調整、マトリクス(MTX)
による撮影光源種補正や画像の彩度調整(色調整)、そ
の他、補間演算等を用いた、電子変倍処理、覆い焼き処
理(濃度ダイナミックレンジの圧縮/伸長)等が例示さ
れる。なお、上記粒状抑制処理は、デジタルスチルカメ
ラ等で撮影された際の原画像に含まれるショットノイズ
や、ネットワークを介して原画像を得る際に含まれるノ
イズ等についてもノイズ抑制できるものである。粒状抑
制処理およびシャープネス強調処理は、ある処理強度に
基づいて行われるが、この処理強度は、プレスキャンデ
ータを用いて処理条件を設定する条件設定部60におい
て決定される。
In the image processing by both processing units, the roughness (granularity) caused by the photosensitive material which is conspicuous in a region where the image density is low.
At least, a graininess suppression process for suppressing and removing the like and a sharpness enhancement process for sharpening an original image are included. Other processes are not particularly limited, and various known image processes are exemplified. For example, gray balance adjustment, gradation correction, and density (brightness) adjustment using an LUT (look-up table) are exemplified. , Matrix (MTX)
In addition, electronic scaling processing, dodging processing (compression / expansion of density dynamic range), and the like using interpolation calculation and the like, and the like, are exemplified. Note that the graininess suppression processing can also suppress noise such as shot noise included in an original image captured by a digital still camera or the like, noise included in obtaining an original image via a network, and the like. The graininess suppression processing and the sharpness enhancement processing are performed based on a certain processing intensity. The processing intensity is determined by the condition setting unit 60 that sets processing conditions using prescan data.

【0026】ここで、画像データ処理部52および56
で行われる粒状抑制処理およびシャープネス強調処理
は、図3に本スキャンデータの処理に関する一例が示さ
れているが、図中下方部分に示される画像データ処理部
56の一部分を形成する粒状抑制・シャープネス強調処
理部56Aに示されるように、本スキャンデータである
画像データR、GおよびBに画像処理を施し、処理画像
データR’、G’およびB’を得るものである。勿論、
プレスキャンデータに対しても、本スキャンデータと同
様に、粒状抑制・シャープネス強調処理部56Aと同様
の処理が、画像データ処理部52で施される。ここで、
粒状抑制・シャープネス強調処理部56Aの処理内容を
説明すると、まず、本スキャンデータである画像データ
R、GおよびBに対して、以下に示す5×5のローパス
フィルタを2段にカスケード接続した9×9のローパス
フィルタ56Bによりフィルタリング処理を施し、本ス
キャン画像データの低周波数成分RL 、GL 、BL を得
る。
Here, the image data processing units 52 and 56
FIG. 3 shows an example of the processing of the main scan data in the graininess suppression processing and the sharpness emphasis processing performed in (1). However, the graininess suppression / sharpness forming a part of the image data processing unit 56 shown in the lower part of the figure is shown. As shown in the emphasis processing unit 56A, image processing is performed on image data R, G, and B, which are main scan data, to obtain processed image data R ', G', and B '. Of course,
Similarly to the main scan data, the image data processing unit 52 performs the same processing as the granularity suppression / sharpness enhancement processing unit 56A on the pre-scan data. here,
The processing content of the graininess suppression / sharpness enhancement processing section 56A will be described. First, the following 5 × 5 low-pass filters are cascaded in two stages to image data R, G, and B, which are main scan data. Filtering is performed by a × 9 low-pass filter 56B to obtain low-frequency components R L , G L , and B L of the main scan image data.

【数1】 (Equation 1)

【0027】次に、画像データR、GおよびBから低周
波数成分RL 、GL 、BL を加算・減算器56Cで減算
して、中間・高周波数成分RMH、GMHおよびBMHを得
る。ここで、低周波数成分RL 、GL およびBL は、原
画像内の被写体のエッジやテクスチャやフィルムFの粒
状によるざらつきを含まず、中間周波数成分RM 、GM
およびBM は、フィルムFの粒状によるざらつきを含
み、高周波数成分RH、GH およびBH は、原画像内の
被写体のエッジやテクスチャを含む。
Next, the low frequency components R L , G L , and B L are subtracted from the image data R, G, and B by an adder / subtractor 56C, and the intermediate / high frequency components R MH , G MH, and B MH are obtained. obtain. Here, the low frequency components R L , G L and B L do not include the edges or texture of the subject in the original image or the roughness due to the graininess of the film F, and the intermediate frequency components R M , G M
And B M include the roughness due to the graininess of the film F, and the high frequency components R H , G H and B H include the edges and texture of the subject in the original image.

【0028】低周波数成分RL 、GL 、BL とは、図4
に示されるような、空間周波数0にピークを持つ分布H
L のフィルタ特性を備えるフィルタにより処理された周
波数成分であり、中間周波数成分RM 、GM およびBM
は、再生画像データの画素間隔より定まるナイキスト空
間周波数fS /2の3分の1の空間周波数付近にピーク
を持つ分布HM のフィルタ特性を備えるフィルタにより
処理された周波数成分であり、高周波数成分RH 、GH
およびBH は、ナイキスト空間周波数fS /2にピーク
を持つ分布HM のフィルタ特性を備えるフィルタにより
処理された周波数成分である。ここで、図4は、高周波
数成分RH 、GH およびBH と中間周波数成分RM 、G
M およびBM は、後述するゲイン係数MおよびHを1.
0とした時のフィルタ特性を示している。ここで、ゲイ
ン係数HおよびMは、0以上の係数であり、1.0の場
合、処理が施されない無処理の状態を示す。ゲイン係数
Hが1.0より大きくなるほどシャープネス強調処理が
強くなり、ゲイン係数Mが1.0より小さくなると粒状
抑制処理が強くなり、後述する粒状抑制・シャープネス
強調処理制御手段62Aにおいて自動的に決定される。
また、図4の分布H L 、HM およびHH の周波数成分の
総和は1.0となっている。
Low frequency component RL, GL, BLFigure 4
A distribution H having a peak at a spatial frequency 0 as shown in FIG.
LA filter processed by a filter having the filter characteristics of
A wave number component and an intermediate frequency component RM, GMAnd BM
Is the Nyquist sky determined by the pixel interval of the playback image data
Inter-frequency fSPeak near the spatial frequency of 1/3 of / 2
Distribution H withMFilter with filter characteristics of
The processed frequency component, the high frequency component RH, GH
And BHIs the Nyquist spatial frequency fSPeak at / 2
Distribution H withMFilter with filter characteristics of
This is the processed frequency component. Here, FIG.
Number component RH, GHAnd BHAnd the intermediate frequency component RM, G
MAnd BMSets the gain coefficients M and H described later to 1.
This shows the filter characteristics when the value is set to 0. Where gay
The coefficients H and M are coefficients greater than or equal to 0,
Indicates a non-processed state in which no processing is performed. Gain factor
As H becomes larger than 1.0, the sharpness enhancement process
When the gain coefficient M becomes smaller than 1.0,
Suppression processing becomes stronger, and granular suppression and sharpness described later
It is determined automatically by the emphasis processing control means 62A.
The distribution H in FIG. L, HMAnd HHOf the frequency component of
The sum is 1.0.

【0029】次に、分解された中間・高周波数成分
MH、GMHおよびBMHから、輝度成分が算出される。こ
の輝度成分の算出は、本スキャン画像データの中間・高
周波数成分RMH、GMHおよびBMHを、MTX変換部56
Dにおいて、YIQ基底に変換することによって成分Y
MHを算出するものである。ここで、YIQ基底への変換
は下記式により行う。
Next, a luminance component is calculated from the decomposed intermediate / high frequency components R MH , G MH and B MH . This luminance component is calculated by converting the intermediate / high frequency components R MH , G MH, and B MH of the main scan image data into the MTX converter 56.
In D, the component Y is converted to a YIQ basis.
MH is calculated. Here, conversion to the YIQ basis is performed by the following equation.

【数2】 (Equation 2)

【0030】YIQ変換に変換後の色成分である成分I
MHおよび成分QMHは、フィルム粒状に起因する色のざら
つきを含み、また、一般に撮影被写体を含む画像におい
て成分をほとんど持たないことが経験的にわかっている
ため、成分IMHおよび成分Q MHは0とすることができ、
これによりフィルム粒状に起因する色のざらつきを抑制
することができる。
The component I, which is a color component converted to YIQ conversion
MHAnd component QMHIs grainy color due to film graininess
Image, and generally contains images
Empirically knows that it has almost no components
Therefore, component IMHAnd component Q MHCan be 0,
This suppresses color roughness caused by film graininess
can do.

【0031】MTX変換部56Dで得られた成分YMH
対して、上述した5×5のローパスフィルタを備えるロ
ーパスフィルタ56Eで、成分YMHから成分YMHの中間
周波数成分YM を得、これを加算・減算器56Fで成分
MHから減算することで、成分YMHの高周波数成分YH
を得る。
[0031] the component Y MH obtained by MTX conversion section 56D, a low-pass filter 56E with a low-pass filter of 5 × 5 described above, to give the intermediate frequency components Y M of the components Y MH from component Y MH, which by subtracting from the component Y MH in adder-subtractor 56F, and high frequency components Y H of the components Y MH
Get.

【0032】次に、後述する粒状抑制・シャープネス強
調処理制御手段62Aによって自動的に決定されたゲイ
ン係数MおよびHを用いて、以下の式に示すように、そ
れぞれ、乗算器56Gおよび56Iにおいて、成分YM
およびYH に乗じられて処理済成分YM ’、YH ’が得
られ、処理済成分YM ’、YH ’が合成されて成分
MH’が得られる。 YMH’= M × YM + H × YH
Next, the granularity suppression and sharpness strength described later will be described.
Gay automatically determined by the tone control means 62A.
Using the calculation coefficients M and H, as shown in the following equation,
In multipliers 56G and 56I, respectively, the component YM
And YHAnd the processed component YM’, YH
And processed component YM’, YH’Are synthesized into components
Y MH'. YMH’= M × YM + H × YH

【0033】その後、成分YMH’が加算器56Kにおい
て、ローパスフィルタ56Bで求められた低周波数成分
L 、GL およびBL に加算され、処理画像データ
R’,G’およびB’を得る。成分YMH’が低周波数成
分RL 、GL およびBL に加算されのは、MTX演算部
56Dで成分IMHおよびQMHを0としており、処理済成
分YMH’を逆変換してR,GおよびBを求めても、すべ
て処理済成分YMH’と同一の値となることより、直接成
分YMH’の値を低周波数成分RL 、GL およびBL に加
算することができるからである。このように、ゲイン係
数Mは、フィルム粒状に起因する色のざらつきが含まれ
る中間周波数成分を制御する係数であるため、このゲイ
ン係数Mは、粒状抑制処理の処理強度を定める係数とな
る。また、ゲイン係数Hは、原画像内の被写体のエッジ
やテクスチャ等の画像情報が含まれる高周波数成分を制
御する係数であるため、このゲイン係数Hは、原画像の
シャープネス強調処理の処理強度を定める係数となる。
従って、上記説明した処理は、ゲイン係数MおよびHを
定めることによって、粒状抑制処理およびシャープネス
強調処理を同時に行う。以降、この処理を粒状抑制・シ
ャープネス強調処理とする。
Thereafter, the component Y MH ′ is added to the low frequency components R L , G L, and B L obtained by the low-pass filter 56B in the adder 56K to obtain processed image data R ′, G ′, and B ′. . The component Y MH ′ is added to the low frequency components R L , G L, and B L because the components I MH and Q MH are set to 0 by the MTX operation unit 56D, and the processed component Y MH ′ is inversely transformed to R , G and B, all have the same value as the processed component Y MH ′, so that the value of the direct component Y MH ′ can be directly added to the low frequency components RL , GL and BL. Because. As described above, since the gain coefficient M is a coefficient for controlling an intermediate frequency component including color roughness caused by film graininess, the gain coefficient M is a coefficient that determines the processing strength of the graininess suppression processing. Further, since the gain coefficient H is a coefficient for controlling a high frequency component including image information such as an edge and a texture of a subject in the original image, the gain coefficient H determines the processing strength of the sharpness enhancement processing of the original image. It is a coefficient to be determined.
Therefore, in the processing described above, the graininess suppression processing and the sharpness enhancement processing are performed simultaneously by determining the gain coefficients M and H. Hereinafter, this processing is referred to as graininess suppression / sharpness enhancement processing.

【0034】画像データ変換部58は、画像データ処理
部56によって処理された画像データを、例えば、3D
(三次元)−LUT等を用いて変換して、プリンタ16
による画像記録に対応する画像データとしてプリンタ1
6に供給する。画像データ変換部54は、画像データ処
理部52によって処理された画像データを、必要に応じ
て間引いて、同様に、3D−LUT等を用いて変換し
て、ディスプレイ20による表示に対応する画像データ
としてディスプレイ20に供給する。
The image data converter 58 converts the image data processed by the image data processor 56 into, for example, a 3D image data.
(3D)-converted using a LUT or the like, and
Printer 1 as image data corresponding to image recording by
6 The image data conversion unit 54 thins out the image data processed by the image data processing unit 52 as necessary, similarly converts the image data using a 3D-LUT or the like, and converts the image data corresponding to the display on the display 20. Is supplied to the display 20.

【0035】条件設定部60は、プレスキャン処理部4
8および本スキャン処理部50における各種の処理条件
や、本スキャンの読取条件を設定する部分であり、セッ
トアップ部62、キー補正部64、およびパラメータ統
合部66を有する。
The condition setting section 60 includes a pre-scan processing section 4
8 and a section for setting various processing conditions in the main scan processing section 50 and reading conditions for the main scan, and includes a setup section 62, a key correction section 64, and a parameter integration section 66.

【0036】セットアップ部62は、粒状抑制・シャー
プネス強調処理の処理強度を定めるゲイン係数Mおよび
Hを自動的に決定する粒状抑制・シャープネス強調処理
制御手段62Aと、粒状抑制・シャープネス強調処理以
外の画像処理、例えば上述したグレイバランス調整、階
調補正等のプレスキャン処理部48および本スキャン処
理部50で行う画像処理の処理条件パラメータを自動的
に設定するパラメータ設定部62Bとを備える。粒状抑
制・シャープネス強調処理制御手段62Aは、上述した
粒状抑制・シャープネス強調処理部56Aで用いられる
ゲイン係数MおよびHを撮影シーンの判別結果に応じて
自動的に決定する部分であり、顔抽出部62C、シーン
判別部62Dおよびゲイン係数決定部62Eを備える。
The setup section 62 includes a grain suppression / sharpness enhancement control means 62A for automatically determining the gain coefficients M and H for determining the processing strength of the graininess suppression / sharpness enhancement processing, and an image other than the graininess suppression / sharpness enhancement processing. It includes a parameter setting unit 62B that automatically sets processing condition parameters for image processing performed by the pre-scan processing unit 48 for processing, for example, the above-described gray balance adjustment and gradation correction, and the main scan processing unit 50. The graininess suppression / sharpness enhancement processing control means 62A is a part that automatically determines the gain coefficients M and H used in the above-described graininess suppression / sharpness enhancement processing unit 56A in accordance with the determination result of the shooting scene. 62C, a scene determination unit 62D and a gain coefficient determination unit 62E.

【0037】顔抽出部62Cは、原画像の中から撮影人
物の顔を抽出する部分である。また、本発明で実行する
顔抽出方法には特に限定はないが、一例として、肌色・
円形状抽出による顔抽出、顔輪郭・円形状抽出による顔
抽出、胴体・円形状抽出による顔抽出、眼部(顔内部構
造)・円形状抽出による顔抽出、頭髪部抽出・円形状抽
出による顔抽出等が挙げられる。これらの抽出方法につ
いては、本出願人に係る特開平8−184925号公報
等に詳述されている。
The face extracting section 62C is a part for extracting the face of the photographed person from the original image. Further, the face extraction method executed in the present invention is not particularly limited.
Face extraction by circular shape extraction, face extraction by face contour / circle shape extraction, face extraction by torso / circle shape extraction, face extraction by eye (face internal structure) / circle shape extraction, face extraction by hair part extraction / circle shape extraction Extraction and the like. These extraction methods are described in detail in Japanese Patent Application Laid-Open No. 8-184925 and the like.

【0038】例えば、肌色・円形状抽出は、肌色抽出お
よび円形状抽出を行うことにより、顔領域を抽出する。
すなわち、プレスキャンデータ(必要に応じて間引いて
も可)から各画素の色相および彩度を知見し、人の肌の
肌色と推定できる画素領域(肌色領域)を抽出し、次い
で、人の顔は一般的に楕円形であるので、抽出した肌色
領域から、人の顔であると推定される(楕)円形状を抽
出して、これを顔領域候補とする。
For example, in the skin color / circular shape extraction, a face region is extracted by performing skin color extraction and circular shape extraction.
That is, the hue and saturation of each pixel are found from pre-scan data (thinning can be performed if necessary), and a pixel area (skin color area) that can be estimated as a skin color of human skin is extracted. Is generally an elliptical shape, an (elliptical) circular shape presumed to be a human face is extracted from the extracted skin color region, and this is used as a face region candidate.

【0039】また、顔輪郭・円形状抽出は、エッジ抽出
による顔輪郭抽出および円形状抽出を行って顔領域を抽
出する。以下同様に、胴体・円形状抽出は、エッジ抽出
による胴体輪郭抽出および円形状抽出、眼部・円形状抽
出は、人の眼の抽出および円形状抽出、頭髪部・円形状
抽出は、エッジ抽出による人の頭髪の抽出および円形状
抽出を行って顔領域を抽出する。
In the face contour / circle shape extraction, a face region is extracted by performing face contour extraction and circular shape extraction by edge extraction. Similarly, torso / circular shape extraction is torso contour extraction and circular shape extraction by edge extraction, eye / circle shape extraction is human eye extraction and circular shape extraction, and hair / circle shape extraction is edge extraction The extraction of the human hair and the extraction of the circular shape are performed to extract the face region.

【0040】また、本発明においては、例えば特開平4
−346332号、同4−346333号、同4−34
6334号、同5−100328号、同5−15816
4号、同5−165119号、同5−165120号、
同6−67320号、同6−160992号、同6−1
60993号、同6−160994号、同6−1609
95号、同8−122944号、同9−80652号、
同9−101579号、同9−138470号、同9−
138471号等の各公報に開示される、公知の各種の
主要部抽出方法も利用可能である。
Further, in the present invention, for example,
-346332, 4-346333, 4-34
No. 6334, No. 5-100328, No. 5-15816
No. 4, 5-165119, 5-165120,
Nos. 6-67320, 6-160992, 6-1
No. 60993, No. 6-160994, No. 6-1609
No. 95, No. 8-122944, No. 9-80652,
9-101579, 9-138470, 9-
Various known main part extraction methods disclosed in respective publications such as 138471 can also be used.

【0041】このようにして抽出された顔部分の領域の
情報がシーン判別部62Dに送られる。シーン判別部6
2Dは、得られた顔部分の領域の情報より、原画像に対
する顔部分の領域の比率が一定の閾値以上にあるか判断
し、一定の閾値以上の場合、原画像は、ポートレートシ
ーンと判断する。一定の閾値以下の場合、原画像は、ポ
ートレートシーン以外のシーンと判別する。その後、判
別結果がゲイン係数決定部62Eに送られる。また、同
時にパラメータ設定部62Bにおいて濃度補正等行う際
の画像特徴量等がゲイン係数決定部62Eに送られ、シ
ーン判別された判別結果とともに自動的かつ一意的にゲ
イン係数MおよびHが決定される。
The information on the face area thus extracted is sent to the scene discriminating section 62D. Scene determination unit 6
2D determines whether the ratio of the face portion area to the original image is equal to or greater than a certain threshold from the obtained face area information, and if the ratio is equal to or greater than the certain threshold, the original image is determined to be a portrait scene. I do. If the value is equal to or smaller than a certain threshold, the original image is determined to be a scene other than the portrait scene. Thereafter, the determination result is sent to the gain coefficient determination unit 62E. At the same time, an image feature amount or the like when performing density correction or the like in the parameter setting unit 62B is sent to the gain coefficient determination unit 62E, and the gain coefficients M and H are automatically and uniquely determined together with the determination result of the scene determination. .

【0042】ゲイン係数決定部62Eは、シーン判別部
62Dで判別された判別結果に応じて、粒状抑制・シャ
ープネス強調処理の処理強度を定めるゲイン係数Mおよ
びHを決定する部分である。ポートレートシーンまたは
それ以外のシーンといった判別結果および、後述するパ
ラメータ設定部62Bでプレスキャン画像データから自
動算出される画像濃度ヒストグラムや画像特徴量に基づ
いて、ゲイン係数MおよびHは自動的に調整されて一意
的に決定されるが、ポートレートシーンと判別した場
合、ポートレートシーン以外のシーンと判別した場合に
比べ、ゲイン係数MおよびHは小さくなる。このように
して、ポートレートシーンと判別した場合、ポートレー
トシーン以外のシーンと判別した場合に比べて、粒状抑
制処理の処理強度を強く施し、シャープネス強調処理の
処理強度を弱める。ポートレートシーンと判断した場
合、粒状抑制処理の処理強度を強く施すのは、中間周波
数成分には、フィルム粒状に起因する色のざらつきがあ
り、ポートレートシーン内の撮影被写体である人物の顔
部分の肌のざらつきを抑制するためである。また、シャ
ープネス強調処理の処理強度を弱めるのは、ポートレー
トシーン内の撮影被写体である人物画像の表情が、エッ
ジ領域の鮮鋭化によってきつくなるのを防止するためで
ある。
The gain coefficient determining section 62E is a section that determines gain coefficients M and H that determine the processing strength of the graininess suppression / sharpness enhancement processing in accordance with the result of the determination made by the scene determining section 62D. The gain coefficients M and H are automatically adjusted based on the determination result of a portrait scene or other scene, and an image density histogram and an image feature amount automatically calculated from pre-scan image data in a parameter setting unit 62B described later. However, when the scene is determined to be a portrait scene, the gain coefficients M and H are smaller than when the scene is determined to be a scene other than a portrait scene. In this way, when the scene is determined to be a portrait scene, the processing strength of the graininess suppression processing is increased and the processing strength of the sharpness enhancement processing is reduced as compared with the case where the scene is determined to be a scene other than the portrait scene. When the portrait scene is determined, the processing strength of the graininess suppression process is increased because the intermediate frequency component has color roughness due to film graininess, and the face portion of a person who is a photographing subject in the portrait scene This is for suppressing the roughness of the skin. Also, the reason why the processing strength of the sharpness enhancement processing is reduced is to prevent the facial expression of a person image, which is a photographic subject in a portrait scene, from becoming sharp due to sharpening of the edge region.

【0043】得られたゲイン係数MおよびHは、パラメ
ータ統合部66に送られる。粒状抑制・シャープネス強
調処理制御手段62Aは、全ての構成部分をソフトウエ
アにて構成することもできるし、全ての構成部分をハー
ドウエアにて構成することもできるし、構成部分の一部
分をソフトウエアにて、あるいはハードウエアにて構成
してもよい。
The gain coefficients M and H obtained are sent to the parameter integrating section 66. The granularity suppression / sharpness enhancement processing control means 62A can configure all of the components by software, can configure all of the components by hardware, and can configure a part of the components by software. Or by hardware.

【0044】セットアップ部62のパラメータ設定部6
2Bは、プレスキャンメモリ52からプレスキャンデー
タを読み出し、プレスキャンデータから、濃度ヒストグ
ラムの作成や、平均濃度、ハイライト(最低濃度)、シ
ャドー(最高濃度)等の画像特徴量の算出を行い、本ス
キャンの読取条件を決定し、また、濃度ヒストグラムや
画像特徴量に加え、必要に応じて行われるオペレータに
よる指示等に応じて、グレイバランス調整、階調補正お
よび濃度調整を行うLUTの作成、MTX演算式の作成
等、プレスキャン処理部48および本スキャン処理部5
0における各種の画像処理条件を設定する。
Parameter setting section 6 of setup section 62
2B reads out pre-scan data from the pre-scan memory 52, creates a density histogram from the pre-scan data, and calculates image feature amounts such as average density, highlight (lowest density), and shadow (highest density). Determine the reading conditions for the main scan, create an LUT that performs gray balance adjustment, tone correction, and density adjustment in accordance with instructions from the operator as needed, in addition to density histograms and image feature values, Prescan processing unit 48 and main scan processing unit 5 such as creation of MTX operation formula
Various image processing conditions at 0 are set.

【0045】キー補正部58は、濃度(明るさ)、色、
コントラスト、シャープネス、彩度調等を調整するキー
やマウス18bで入力された各種の指示等に応じて、画
像処理条件の調整量を算出し、パラメータ統合部66に
供給するものである。パラメータ統合部66は、パラメ
ータ設定部62Bが設定した画像処理条件やゲイン係数
決定部62Eで決定されたゲイン係数MおよびHを受け
取り、プレスキャン処理部48および本スキャン処理部
50に設定し、さらに、キー補正部64で算出された調
整量に応じて、各部位に設定した画像処理条件を補正
(調整)し、あるいは画像処理条件を再設定する。
The key correction unit 58 controls the density (brightness), color,
The amount of adjustment of image processing conditions is calculated in accordance with keys for adjusting contrast, sharpness, saturation, etc., and various instructions input with the mouse 18b, and supplied to the parameter integration unit 66. The parameter integration unit 66 receives the image processing conditions set by the parameter setting unit 62B and the gain coefficients M and H determined by the gain coefficient determination unit 62E, and sets them in the pre-scan processing unit 48 and the main scan processing unit 50. In accordance with the adjustment amount calculated by the key correction unit 64, the image processing condition set for each part is corrected (adjusted) or the image processing condition is reset.

【0046】以下、スキャナ12および処理装置14の
作用を説明する。このフィルムFのプリント作成を依頼
されたオペレータは、フィルムFに対応するキャリア3
0をスキャナ12に装填し、キャリア30の所定位置に
フィルムF(カートリッジ)をセットし、作成するプリ
ントサイズ等の必要な指示を入力した後に、プリント作
成開始を指示する。これにより、スキャナ12の可変絞
り24の絞り値やイメージセンサ(ラインCCDセン
サ)34の蓄積時間がプレスキャンの読取条件に応じて
設定され、その後、キャリア30がフィルムFをカート
リッジから引き出して、プレスキャンに応じた速度で副
走査方向に搬送して、プレスキャンが開始され、前述の
ように所定の読取位置において、フィルムFがスリット
走査されて投影光がイメージセンサ34に結像して、フ
ィルムFに撮影された画像がR,GおよびBに分解され
て光電的に読み取られる。
The operation of the scanner 12 and the processing device 14 will be described below. The operator who is requested to make a print of the film F operates on the carrier 3 corresponding to the film F.
0 is loaded into the scanner 12, the film F (cartridge) is set at a predetermined position of the carrier 30, and necessary instructions such as a print size to be created are input, and then a print creation start is instructed. Thereby, the aperture value of the variable aperture 24 of the scanner 12 and the accumulation time of the image sensor (line CCD sensor) 34 are set according to the pre-scanning reading conditions. Thereafter, the carrier 30 pulls out the film F from the cartridge and presses the film F. The film F is conveyed in the sub-scanning direction at a speed corresponding to the can, and the pre-scan is started. At a predetermined reading position, the film F is slit-scanned, and the projection light is focused on the image sensor 34 as described above. An image captured at F is separated into R, G, and B and photoelectrically read.

【0047】なお、プレスキャンおよび本スキャンは、
1コマずつ行ってもよく、全コマあるいは所定の複数コ
マずつ、連続的にプレスキャンおよび本スキャンを行っ
てもよい。以下の例では、説明を簡潔にするために、1
コマの画像読取を例に説明を行う。
The pre-scan and the main scan are
The prescan and the main scan may be performed one frame at a time, or continuously for all frames or for a predetermined plurality of frames. In the following example, for simplicity, 1
The description will be given by taking the image reading of a frame as an example.

【0048】プレスキャンによるイメージセンサ34の
出力信号は、アンプ36で増幅されて、A/D変換器3
8に送られ、デジタル信号とされる。デジタル信号は、
処理装置14に送られ、データ処理部40で所定のデー
タ処理を施され、Log変換器42でデジタルの画像デ
ータであるプレスキャンデータとされ、プレスキャンメ
モリ44に記憶される。
The output signal of the image sensor 34 by the pre-scan is amplified by the amplifier 36 and
8 and converted into a digital signal. The digital signal is
The data is sent to the processing device 14, subjected to predetermined data processing by the data processing unit 40, converted into digital image data by the Log converter 42, and stored in the prescan memory 44.

【0049】プレスキャンメモリ44にプレスキャンデ
ータが記憶されると、条件設定部60のセットアップ部
62がこれを読み出し、粒状抑制・シャープネス強調処
理制御手段62Aおよびパラメータ設定部62Bに供給
する。パラメータ設定部62Bは、プレスキャンデータ
から、画像の濃度ヒストグラムの作成、ハイライトやシ
ャドー等の画像特徴量の算出等を行い、本スキャンの読
取条件を設定してスキャナ12に供給し、さらに、濃度
ヒストグラムや算出した画像特徴量等をゲイン係数決定
部62Eおよびパラメータ統合部66に供給する。
When the prescan data is stored in the prescan memory 44, the setup section 62 of the condition setting section 60 reads it out and supplies it to the granularity suppression / sharpness enhancement processing control means 62A and the parameter setting section 62B. The parameter setting unit 62B creates a density histogram of the image from the pre-scan data, calculates an image feature amount such as highlight or shadow, sets reading conditions for the main scan, and supplies the main scanning conditions to the scanner 12. The density histogram, the calculated image feature amount, and the like are supplied to the gain coefficient determination unit 62E and the parameter integration unit 66.

【0050】粒状抑制・シャープネス強調処理制御手段
62Aにおいては、前述のように、顔抽出部62Cにて
原画像内の人物の顔部分が抽出され、抽出された顔部分
の領域の原画像全体の領域に対する比率が所定の閾値以
上となる場合、シーン判別部62Dにて原画像はポート
レートシーンと判別し、この判別結果がゲイン係数決定
部62Eに送られる。ゲイン係数決定部62Eにおいて
は、シーン判別部62Dより送られた判別結果およびパ
ラメータ設定部62Bより送られた濃度ヒストグラムや
算出した画像特徴量等に基づいて、ゲイン係数Mおよび
Hが一意的かつ自動的に決定される。決定されたゲイン
係数MおよびHは、パラメータ統合部66に送られる。
In the graininess suppression / sharpness enhancement processing control means 62A, as described above, a face portion of a person in the original image is extracted by the face extracting section 62C, and the entire original image of the extracted face portion region is extracted. If the ratio to the area is equal to or greater than a predetermined threshold, the scene discriminating unit 62D discriminates the original image as a portrait scene, and the discrimination result is sent to the gain coefficient determining unit 62E. In the gain coefficient determination unit 62E, the gain coefficients M and H are uniquely and automatically determined based on the determination result sent from the scene determination unit 62D, the density histogram sent from the parameter setting unit 62B, the calculated image feature amount, and the like. Is determined. The determined gain coefficients M and H are sent to the parameter integrating unit 66.

【0051】パラメータ統合部66は、受け取ったゲイ
ン係数MおよびHや画像処理条件を必要に応じてキー補
正部58より補正調整し、プレスキャン処理部56およ
び本スキャン処理部58の所定部位(ハードウエア)に
設定する。
The parameter integration section 66 corrects and adjusts the received gain coefficients M and H and the image processing conditions by the key correction section 58 as necessary, and sets predetermined parameters (hardware) of the prescan processing section 56 and the main scan processing section 58. Ware).

【0052】検定を行う場合には、プレスキャンデータ
が画像データ処理部52によってプレスキャンメモリ4
4から読み出され、画像データ処理部52で処理され、
画像データ変換部54で変換されて、シュミレーション
画像としてディスプレイ20に表示される。オペレータ
は、ディスプレイ20の表示を見て、画像すなわち処理
結果の確認(検定)を行い、必要に応じて、キーボード
18aに設定された調整キー等を用いて色、濃度、階調
等を調整する。この調整の入力は、キー補正部64に送
られ、キー補正部64は調整入力に応じた画像処理条件
の補正量を算出し、これをパラメータ統合部66に送
る。パラメータ統合部66は、送られた補正量に応じ
て、前述のように、画像データ処理部52および56の
LUTやMTX等を補正する。従って、この補正すなわ
ちオペレータによる調整入力に応じて、ディスプレイ2
0に表示される画像も変化する。
When performing the test, the pre-scan data is stored in the pre-scan memory 4 by the image data processing unit 52.
4 and processed by the image data processing unit 52,
The image data is converted by the image data conversion unit 54 and displayed on the display 20 as a simulation image. The operator looks at the display 20 to check (verify) the image, that is, the processing result, and adjusts the color, density, gradation, and the like using the adjustment keys and the like set on the keyboard 18a as necessary. . The input of this adjustment is sent to the key correction unit 64, which calculates the correction amount of the image processing condition according to the adjustment input, and sends it to the parameter integration unit 66. The parameter integration unit 66 corrects the LUT, MTX, and the like of the image data processing units 52 and 56 according to the correction amount sent as described above. Therefore, according to this correction, that is, the adjustment input by the operator, the display 2
The image displayed at 0 also changes.

【0053】オペレータは、このコマの画像が適正(検
定OK)であると判定すると、キーボード18a等を用
いてプリント開始を指示する。これにより、画像処理条
件が確定し、スキャナ12において可変絞り24の絞り
値等が設定された本スキャンの読取条件に応じて設定さ
れると共に、キャリア30が本スキャンに対応する速度
でフィルムFを搬送し、本スキャンが開始される。な
お、検定を行わない場合には、パラメータ統合部66に
よる本スキャン処理部50への画像処理条件の設定を終
了した時点で画像処理条件が確定し、本スキャンが開始
される。
When the operator determines that the image of this frame is proper (test OK), the operator instructs the start of printing using the keyboard 18a or the like. As a result, the image processing conditions are fixed, the aperture value of the variable aperture 24 is set in the scanner 12 in accordance with the reading conditions of the main scan, and the carrier 30 moves the film F at a speed corresponding to the main scan. Then, the main scan is started. When the verification is not performed, the image processing conditions are determined at the time when the setting of the image processing conditions in the main scan processing unit 50 by the parameter integration unit 66 is completed, and the main scan is started.

【0054】本スキャンは、可変絞り24の絞り値等の
読取条件が設定された本スキャンの読取条件となる以外
はプレスキャンと同様に行われ、イメージセンサ34か
らの出力信号はアンプ36で増幅されて、A/D変換器
38でデジタル信号とされ、処理装置14のデータ処理
部40で処理されて、Log変換器42で本スキャンデ
ータとされ、本スキャンメモリ46に送られる。本スキ
ャンデータが本スキャンメモリ46に送られると、本ス
キャン処理部50によって読み出され、画像データ処理
部56において確定した画像処理条件で画像処理され、
次いで、画像データ変換部58で変換されて出力用の画
像データとされ、プリンタ16に出力される。
The main scan is performed in the same manner as the pre-scan except that the read conditions such as the aperture value of the variable aperture 24 are set, and the output signal from the image sensor 34 is amplified by the amplifier 36. The digital signal is converted into a digital signal by the A / D converter 38, processed by the data processing unit 40 of the processing device 14, converted into the main scan data by the Log converter 42, and sent to the main scan memory 46. When the main scan data is sent to the main scan memory 46, the main scan data is read out by the main scan processing unit 50, and image processing is performed under the image processing conditions determined by the image data processing unit 56.
Next, the image data is converted by the image data conversion unit 58 to output image data, and output to the printer 16.

【0055】プリンタ16は、供給された画像データに
応じて感光材料(印画紙)を露光して潜像を記録するプ
リンタ(焼付装置)と、露光済の感光材料に所定の処理
を施してプリントとして出力するプロセサ(現像装置)
とを有する。プリンタでは、例えば、感光材料をプリン
トに応じた所定長に切断した後に、バックプリントを記
録し、次いで、感光材料の分光感度特性に応じたR露
光、G露光およびB露光の3種の光ビームを処理装置1
4から出力された画像データに応じて変調して主走査方
向に偏向すると共に、主走査方向と直交する副走査方向
に感光材料を搬送することにより、前記光ビームで感光
材料を2次元的に走査露光して潜像を記録し、プロセサ
に供給する。感光材料を受け取ったプロセサは、発色現
像、漂白定着、水洗等の所定の湿式現像処理を行い、乾
燥してプリントとし、フィルム1本分等の所定単位に仕
分して集積する。
The printer 16 exposes a photosensitive material (printing paper) in accordance with the supplied image data to record a latent image, and prints the exposed photosensitive material by performing predetermined processing. Processor (developing device) that outputs as
And In a printer, for example, after cutting a photosensitive material into a predetermined length corresponding to a print, a back print is recorded, and then three types of light beams of R exposure, G exposure, and B exposure according to the spectral sensitivity characteristics of the photosensitive material. Processing unit 1
The light beam is conveyed in the sub-scanning direction orthogonal to the main scanning direction by modulating the light-sensitive material in the main scanning direction and modulated in accordance with the image data output from the photodetector 4, thereby two-dimensionally transforming the photosensitive material by the light beam. The latent image is recorded by scanning exposure and supplied to the processor. The processor that has received the photosensitive material performs a predetermined wet development process such as color development, bleach-fixing, and washing with water, and forms a print by drying, and sorts and accumulates it into a predetermined unit such as one film.

【0056】図2および図3に基づく実施例は、判別さ
れた原画像全体の撮影シーンの判別結果に基づいて、画
像データ全体に施す粒状抑制・シャープネス強調処理の
ゲイン係数MおよびHを自動的に決定するものである
が、図2に示されるセットアップ部62の粒状抑制・シ
ャープネス強調処理制御手段62Aを図5に示すよう
に、主要部抽出部62G、周波数解析部62Hおよびゲ
イン係数決定部62Iで構成する周波数解析による粒状
抑制・シャープネス強調処理制御手段62Fに置き換え
て粒状抑制・シャープネス強調処理を行うものであって
もよい。
In the embodiment based on FIG. 2 and FIG. 3, the gain coefficients M and H of the graininess suppression / sharpness enhancement processing to be applied to the entire image data are automatically determined based on the determination result of the determined shooting scene of the entire original image. As shown in FIG. 5, the main part extracting unit 62G, the frequency analyzing unit 62H, and the gain coefficient determining unit 62I are used to control the granularity suppression / sharpness enhancement processing control unit 62A of the set-up unit 62 shown in FIG. The granularity suppression / sharpness enhancement processing control means 62F may be replaced with the frequency analysis and configured to perform the graininess suppression / sharpness enhancement processing.

【0057】ここで主要部抽出部62Gは、主要部とし
て人物の顔の他に、例えば、ペット、馬などの動物、自
動車、山、湖などを、上記顔抽出部62Cで述べた各種
方法を用いて抽出してもよい。この場合は、選択された
主要部に適した色や形状を用いた抽出アルゴリズムを選
択すればよい。
Here, the main part extracting section 62G uses the various methods described in the above-described face extracting section 62C for, for example, pets, animals such as horses, automobiles, mountains, lakes, and the like in addition to the face of the person as the main part. May be used for extraction. In this case, an extraction algorithm using colors and shapes suitable for the selected main part may be selected.

【0058】抽出された撮影シーン内の主要部領域、す
なわち原画像内の局所領域について、周波数解析部62
Hで周波数解析を行う。すなわち、抽出された主要部の
局所領域の画像データについて、再生画像データの画素
間隔より定まるナイキスト空間周波数fS /2を最大周
波数とする周波数解析を行う。例えば、FFT(Fast F
ourier Transformation )や離散型フーリエ変換によっ
て、周波数解析を行いスペクトル分布を求め、図4に示
されるようなフィルタ特性を乗算して、中間周波数成分
の周波数帯域のオーバーオールのスペクトル値を求め、
中間周波数成分のスペクトル値を得る。あるいは、上述
したローパスフィイルタ56Bや56Eで用いられるフ
ィルタ処理を施して中間周波数成分を抽出し、FFTや
離散型フーリエ変換によって、中間周波数成分のスペク
トル値を得てもよい。この得られた中間周波数成分のス
ペクトル値を空間周波数特性として用い、スペクトル値
が所定値、例えばフィルムFのフィルム感度あるいはパ
ラメータ設定部62Bで算出されるアンダー露光等の撮
影状況を表す画像特徴量に応じて定まる閾値を超える場
合、シャープネス優先領域と判別し、上記スペクトル値
がそれ以外、すなわち上記所定値以下の場合、粒状優先
領域と判別する。
The frequency analysis section 62 determines the main region in the extracted photographic scene, that is, the local region in the original image.
Perform frequency analysis with H. That is, the frequency analysis is performed on the extracted image data of the local region of the main part with the Nyquist spatial frequency f S / 2 determined from the pixel interval of the reproduced image data as the maximum frequency. For example, FFT (Fast F
Ourier Transformation) and discrete Fourier transform are used to perform frequency analysis to obtain a spectral distribution, and multiply by a filter characteristic as shown in FIG. 4 to obtain an overall spectrum value of the intermediate frequency component frequency band.
Obtain the spectral value of the intermediate frequency component. Alternatively, the intermediate frequency component may be extracted by performing filter processing used in the above-described low-pass filters 56B and 56E, and the spectral value of the intermediate frequency component may be obtained by FFT or discrete Fourier transform. The spectrum value of the obtained intermediate frequency component is used as a spatial frequency characteristic, and the spectrum value is used as a predetermined value, for example, an image feature quantity representing a filming condition such as the film sensitivity of the film F or an underexposure calculated by the parameter setting unit 62B. If it exceeds a threshold value determined accordingly, it is determined to be a sharpness priority area. If the spectrum value is other than that, that is, equal to or less than the predetermined value, it is determined to be a granular priority area.

【0059】ここで、判別に用いられるスペクトル値
は、R、GおよびBの各画像データに対して別々に求め
たスペクトル値を統合化することによって得、これを空
間周波数特性として判別に用いてもよく、R、Gおよび
Bの画像データを例えば平均値や合計値等の所定の方法
により、1つのスペクトル値としてまとめ、判別を行っ
てもよい。また、R、GおよびBの各画像データのスペ
クトル値に対して、それぞれ所定値を定め、3つのスペ
クトル値のうち少なくとも1つが、あるいは3つのスペ
クトル値のすべてが、所定値を超える場合、シャープネ
ス優先領域と判別してもよい。また、中間周波数成分の
スペクトル値の替わりに、中間周波数成分および高周波
数成分を含む中間・高周波数成分のスペクトル値を空間
周波数特性として用いてもよい。
Here, the spectral values used for discrimination are obtained by integrating the spectral values separately obtained for each of the R, G and B image data, and are used as discrimination as spatial frequency characteristics. Alternatively, the R, G, and B image data may be combined into one spectrum value by a predetermined method such as an average value or a total value, and the determination may be performed. Also, a predetermined value is determined for each of the spectral values of the R, G, and B image data, and when at least one of the three spectral values or all three spectral values exceed the predetermined value, the sharpness It may be determined as a priority area. Further, instead of the spectrum value of the intermediate frequency component, the spectrum value of the intermediate / high frequency component including the intermediate frequency component and the high frequency component may be used as the spatial frequency characteristic.

【0060】このように、中間周波数成分あるいは中間
・高周波数成分のスペクトル値の大小でシャープネス優
先領域または粒状優先領域を判断できるのは、以下の理
由による。すなわち、中間周波数成分にはフィルムに起
因する粒状成分の他に、高周波数成分に含まれる、シャ
ープネス処理を施すことが望ましい撮影被写体のエッジ
領域の成分、すなわちエッジ成分、や細かな模様等のテ
クスチャー成分が含まれており、このエッジ成分やテク
スチャー成分は、フィルムに起因する粒状成分に比べて
振幅が大きく、スペクトル値に大きな影響を与え、例え
ば、エッジ成分やテクスチャー成分を含まず、画像濃度
の空間変動が少ない、いわゆるフラットな領域は、中間
周波数成分あるいは中間・高周波数成分のスペクトル値
が小さくなり、逆にシャープネス処理を施すことが望ま
しいエッジ成分やテクスチャー成分を含む領域は、中間
周波数成分あるいは中間・高周波数成分のスペクトル値
が大きくなるからである。例えば風景領域には、撮影被
写体のエッジ成分やテクスチャー成分が多く含まれるの
で、中間周波数成分または中間・高周波数成分のスペク
トル値が上記所定値を超え、シャープネス優先領域と判
別される。
The reason why the sharpness priority area or the granular priority area can be determined based on the magnitude of the spectrum value of the intermediate frequency component or the intermediate / high frequency component is as follows. That is, in addition to the granular component caused by the film, the intermediate frequency component is a component of the edge region of the photographing subject, which is included in the high frequency component and desirably subjected to the sharpness processing, that is, the texture of the edge component, a fine pattern, or the like. The edge component and the texture component have a larger amplitude than the granular component caused by the film, and have a great influence on the spectrum value. In a so-called flat region where the spatial fluctuation is small, the spectrum value of the intermediate frequency component or the intermediate / high frequency component is small, and conversely, a region including an edge component or a texture component for which it is desirable to perform sharpness processing is the intermediate frequency component or This is because the spectrum value of the intermediate / high frequency component increases. For example, since the landscape area contains many edge components and texture components of the photographing subject, the spectrum value of the intermediate frequency component or the intermediate / high frequency component exceeds the above-mentioned predetermined value, and is determined as the sharpness priority area.

【0061】得られた判別結果は、ゲイン係数決定部6
2Iに送られる。ゲイン係数決定部62Iでは、得られ
た判別結果に応じて、ゲイン係数MおよびHが決定され
る。すなわち、シャープネス優先領域または粒状優先領
域の判別結果および、パラメータ設定部62Bでプレス
キャン画像データから自動算出される濃度ヒストグラム
や画像特徴量に基づいて、ゲイン係数MおよびHは自動
的に調整されて一意的に決定されるが、シャープネス優
先領域と判別した場合のゲイン係数Hは、粒状優先領域
と判別した場合のゲイン係数Hより大きい値となり、粒
状優先領域と判別した場合のゲイン係数Mは、シャープ
ネス優先領域と判別した場合のゲイン係数Mより小さい
値となる。粒状優先領域は、フィルムによるざらつきを
抑えるため、粒状抑制を強め、色のざらつきを押さえる
ことができる。一方、シャープネス優先領域は、画像濃
度の空間変動が激しく、高周波数成分が多く、被写体の
エッジ成分やテクスチャー成分が多いと判断されるの
で、くっきりした画像を得るため、シャープネス強調処
理を強く施す。
The obtained discrimination result is obtained by the gain coefficient determination unit 6
Sent to 2I. The gain coefficient determination unit 62I determines the gain coefficients M and H according to the obtained determination result. That is, the gain coefficients M and H are automatically adjusted based on the determination result of the sharpness priority area or the granularity priority area and the density histogram and image feature amount automatically calculated from the prescan image data in the parameter setting unit 62B. Although uniquely determined, the gain coefficient H when determined as the sharpness priority area is a value larger than the gain coefficient H when determined as the granular priority area, and the gain coefficient M when determined as the granularity priority area is: The value becomes smaller than the gain coefficient M when the sharpness priority area is determined. The grain priority region suppresses the roughness due to the film, so that the grain suppression is enhanced and the color roughness can be suppressed. On the other hand, the sharpness priority area is determined to have a large spatial variation in image density, many high frequency components, and many subject edge components and texture components. Therefore, sharpness enhancement processing is strongly performed to obtain a sharp image.

【0062】決定されたゲイン係数MおよびHは、主要
部抽出部62Gで抽出された主要部の局所領域の位置情
報と共にパラメータ統合部66に送られる。得られたゲ
イン係数MおよびHとこの係数を用いて粒状抑制・シャ
ープネス強調処理の行われる局所領域の位置情報が、パ
ラメータ統合部66を介して、画像データ処理部52お
よび56に送られた後、局所領域について、上述したゲ
イン係数MおよびHに基づいて粒状抑制・シャープネス
強調処理が行われる。このような局所領域は、原画像の
中で1つの領域に限られず、複数の局所領域を抽出して
もよく、この複数の局所領域について、局所領域ごとに
定まるゲイン係数MおよびHに基づいて粒状抑制・シャ
ープネス強調処理を行ってもよい。また、局所領域以外
の領域についても、その領域に応じたゲイン係数Mおよ
びHを定めてもよい。さらに、本実施例による局所領域
は、主要部抽出部62Gにおいて抽出された主要部であ
るが、主要部として抽出されるものに限られず、予め定
められた原画像内の所定の領域、例えば原画像を矩形等
に分割した局所領域であってもよい。
The determined gain coefficients M and H are sent to the parameter integrating section 66 together with the position information of the local area of the main part extracted by the main part extracting section 62G. After the obtained gain coefficients M and H and the position information of the local area where the graininess suppression / sharpness enhancement processing is performed using the coefficients are sent to the image data processing units 52 and 56 via the parameter integration unit 66. The graininess suppression / sharpness enhancement processing is performed on the local region based on the gain coefficients M and H described above. Such a local region is not limited to one region in the original image, and a plurality of local regions may be extracted. For the plurality of local regions, based on gain coefficients M and H determined for each local region. A graininess suppression / sharpness enhancement process may be performed. Further, for regions other than the local region, the gain coefficients M and H according to the region may be determined. Furthermore, the local area according to the present embodiment is the main part extracted by the main part extracting unit 62G, but is not limited to the main part extracted as a main part, and may be a predetermined area in a predetermined original image, for example, an original area. It may be a local area obtained by dividing an image into rectangles or the like.

【0063】さらに、周波数解析による粒状抑制・シャ
ープネス強調処理制御手段62Fは、主要抽出部62G
において原画像の中から主要部を抽出した局所領域の画
像データに対して、粒状抑制・シャープネス強調処理を
施す条件を設定するものであるが、必ずしも局所領域の
周波数解析をして、その領域の画像データに対して粒状
抑制・シャープネス強調処理を施すものに限定されず、
原画像全体を周波数解析部62Hで周波数解析をし、中
間周波数成分または中間・高周波数成分のスペクトル値
が所定値、例えばフィルム感度あるいはアンダー露光等
を表す画像特徴量に応じて定まる閾値より大きい場合、
シャープネス強調処理を強く施すシャープネス優先シー
ンと判別し、中間周波数成分または中間・高周波数成分
が上記所定値以下の場合、粒状抑制処理を強く施す粒状
優先シーンと判別し、原画像全体に対して1つのゲイン
係数MおよびHで粒状抑制・シャープネス強調処理を施
すものであってもよい。例えば風景シーンの場合、撮影
被写体のエッジ成分やテクスチャー成分が多く含まれる
ので、中間周波数成分または中間・高周波数成分のスペ
クトル値が上記所定値を超え、シャープネス優先シーン
と判別される。
The granularity suppression / sharpness enhancement processing control means 62F based on frequency analysis includes a main extraction section 62G.
Is to set the conditions for performing grain suppression and sharpness enhancement processing on the image data of the local area in which the main part is extracted from the original image. However, the frequency analysis of the local area is not necessarily performed, and the The image data is not limited to one that performs grain suppression and sharpness enhancement processing.
When the entire original image is subjected to frequency analysis by the frequency analysis unit 62H, and the spectral value of the intermediate frequency component or the intermediate / high frequency component is larger than a predetermined value, for example, a threshold value determined according to an image feature amount representing film sensitivity or underexposure or the like. ,
When the intermediate frequency component or the intermediate / high frequency component is equal to or less than the predetermined value, the scene is determined to be a sharpness priority scene to which sharpness enhancement processing is strongly applied, and is determined to be a granular priority scene to which strong grain suppression processing is strongly applied. The graininess suppression / sharpness enhancement processing may be performed using the two gain coefficients M and H. For example, in the case of a landscape scene, since a large number of edge components and texture components of the photographing subject are included, the spectrum value of the intermediate frequency component or the intermediate and high frequency components exceeds the above-described predetermined value, and is determined to be a sharpness priority scene.

【0064】さらに、上記粒状抑制・シャープネス強調
処理制御手段62Aや62Fにおけるゲイン係数決定部
62Eや62Iは、抽出された人物の顔部分のエッジ領
域や抽出された主要部のエッジ領域のコントラストを判
別し、例えばエッジ領域のコントラストが強く、画像デ
ータが急激に変化している場合、この変化の程度に応じ
て、ゲイン係数Hを微調整し、シャープネス強調処理の
処理強度を弱めてもよい。エッジ領域のコントラストが
高い場合、シャープネス強調処理を行うと、抽出された
顔や主要部の輪郭部分に縁ができ、不自然な処理画像と
なるためである。本発明においては、ゲイン係数Hを微
調整してシャープネス強調を弱める場合に限られず、別
個のシャープネス強調処理によってシャープネス強調を
弱めてもよい。
Further, the gain coefficient determination units 62E and 62I in the graininess suppression / sharpness enhancement processing control means 62A and 62F determine the contrast between the edge area of the extracted human face and the edge area of the extracted main part. However, for example, when the contrast of the edge area is strong and the image data changes rapidly, the gain coefficient H may be finely adjusted according to the degree of the change to weaken the processing strength of the sharpness enhancement processing. This is because, when the sharpness enhancement processing is performed when the contrast of the edge region is high, an edge is formed on the extracted face or the outline of the main part, resulting in an unnatural processed image. The present invention is not limited to the case where the sharpness enhancement is weakened by finely adjusting the gain coefficient H, and the sharpness enhancement may be weakened by a separate sharpness enhancement process.

【0065】以上、本発明の画像処理方法および画像処
理装置について詳細に説明したが、本発明は上記実施例
に限定はされず、本発明の要旨を逸脱しない範囲におい
て、各種の改良および変更を行ってもよいのはもちろん
である。
Although the image processing method and the image processing apparatus of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be made without departing from the gist of the present invention. Of course you can do it.

【0066】[0066]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、デジタルフォトプリンタ等のフォトプリンタに
おいて、原画像全体または原画像の局所領域の撮影シー
ンの判別結果に基づいて、画像データに施す粒状抑制・
シャープネス強調処理の処理強度を決定するので、原画
像全体または局所領域の撮影シーンに応じて、最適に粒
状抑制・シャープネス強調処理を施し、高品位な再現画
像を得ることができる。
As described above in detail, according to the present invention, in a photo printer such as a digital photo printer or the like, image data is determined based on the determination result of the entire original image or a local scene of the original image. Granulation control applied to
Since the processing intensity of the sharpness enhancement processing is determined, the granularity suppression and sharpness enhancement processing can be optimally performed according to the shooting scene of the entire original image or the local region, and a high-quality reproduced image can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の画像処理方法および画像処理装置の
一例を利用するデジタルフォトプリンタのブロック図で
ある。
FIG. 1 is a block diagram of a digital photo printer that uses an example of an image processing method and an image processing apparatus according to the present invention.

【図2】 図1に示されるデジタルフォトプリンタの画
像処理装置のブロック図である。
FIG. 2 is a block diagram of an image processing apparatus of the digital photo printer shown in FIG.

【図3】 図2に示される画像処理装置の要部を示すブ
ロック図である。
FIG. 3 is a block diagram illustrating a main part of the image processing apparatus illustrated in FIG. 2;

【図4】 本発明の画像処理方法で用いられる低周波数
成分、中間周波数成分および高周波数成分を示す特性図
である。
FIG. 4 is a characteristic diagram showing low frequency components, intermediate frequency components, and high frequency components used in the image processing method of the present invention.

【図5】 本発明の画像処理装置の他の一例の要部を示
すブロック図である。
FIG. 5 is a block diagram showing a main part of another example of the image processing apparatus of the present invention.

【符号の説明】[Explanation of symbols]

10 (デジタル)フォトプリンタ 12 スキャナ 14 (画像)処理装置 16 プリンタ 18 操作系 20 ディスプレイ 22 光源 24 可変絞り 28 拡散ボックス 30 キャリア 32 結像レンズユニット 34 イメージセンサ 34R,34G,34B ラインCCDセンサ 36 アンプ 38 A/D変換器 40 データ処理部 42 Log変換器 44 プレスキャン(フレーム)メモリ 46 本スキャン(フレーム)メモリ 48 プレスキャン処理部 50 本スキャン処理部 52、56 画像データ処理部 54、58 画像データ変換部 60 条件設定部 62 セットアップ部 64 キー補正部 66 パラメータ統合部 10 (Digital) Photo Printer 12 Scanner 14 (Image) Processing Device 16 Printer 18 Operation System 20 Display 22 Light Source 24 Variable Aperture 28 Diffusion Box 30 Carrier 32 Imaging Lens Unit 34 Image Sensor 34R, 34G, 34B Line CCD Sensor 36 Amplifier 38 A / D converter 40 Data processing unit 42 Log converter 44 Prescan (frame) memory 46 Main scan (frame) memory 48 Prescan processing unit 50 Main scan processing unit 52, 56 Image data processing unit 54, 58 Image data conversion Section 60 condition setting section 62 setup section 64 key correction section 66 parameter integration section

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CC03 CE03 CE04 CE06 CH09 DB02 DB06 DB09 DC16 DC22 5C076 AA01 AA36 BA06 5C077 LL19 MP08 PP02 PP03 PP27 PP28 PP47 PP49 PP54 PP65 PQ08 SS01 SS02 TT09  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) TT09

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】原画像の画像データに画像処理を施して出
力画像データを得る画像処理方法であって、 前記原画像全体または前記原画像の局所領域の撮影シー
ンを判別し、 判別した結果に基づいて、前記画像データに施す粒状抑
制・シャープネス強調処理の処理強度を決定し、 この処理強度を用いて前記原画像全体、または前記局所
領域の画像データに粒状抑制・シャープネス強調処理を
施すことを特徴とする画像処理方法。
1. An image processing method for performing image processing on image data of an original image to obtain output image data, comprising: determining a shooting scene of the entire original image or a local region of the original image; Determining the processing strength of the graininess suppression / sharpness enhancement processing to be performed on the image data based on the image data, and performing the graininess suppression / sharpness enhancement processing on the entire original image or the image data of the local region using the processing strength. Characteristic image processing method.
【請求項2】前記原画像内の人物の顔領域の原画像に占
める比率に応じて、原画像の撮影シーンをポートレート
シーンまたはそれ以外のシーンと判別し、 前記原画像がポートレートシーンと判別された場合、ポ
ートレートシーン以外のシーンと判別された場合に比
べ、粒状抑制処理を強く施し、シャープネス強調処理を
弱く施す請求項1に記載の画像処理方法。
2. A photographing scene of an original image is determined to be a portrait scene or another scene according to a ratio of a face area of a person in the original image to an original image, and the original image is defined as a portrait scene. The image processing method according to claim 1, wherein when the determination is made, the graininess suppression processing is performed more strongly and the sharpness enhancement processing is performed weaker than when the scene is determined to be a scene other than a portrait scene.
【請求項3】前記原画像全体の画像データの空間周波数
特性を解析し、前記原画像全体の撮影シーンを、粒状抑
制処理を強く施す粒状優先シーンまたはシャープネス強
調処理を強く施すシャープネス優先シーンであると判別
する請求項1に記載の画像処理方法。
3. A scene in which a photographing scene of the entire original image is a grain priority scene or a sharpness priority scene in which sharpness suppression processing or strong sharpness enhancement processing is performed by analyzing spatial frequency characteristics of image data of the entire original image. The image processing method according to claim 1, wherein:
【請求項4】前記局所領域の画像データの空間周波数特
性を解析し、前記原画像の局所領域の撮影シーンを、粒
状抑制処理を強く施す粒状優先領域またはシャープネス
強調処理を強く施すシャープネス優先領域であると判別
する請求項1に記載の画像処理方法。
4. A spatial frequency characteristic of the image data of the local area is analyzed, and a photographed scene of the local area of the original image is converted into a grain priority area where grain suppression processing is strongly applied or a sharpness priority area where sharpness enhancement processing is strongly applied. The image processing method according to claim 1, wherein the image processing method determines that there is an image.
【請求項5】前記空間周波数特性を解析し、前記原画像
の画像データの中間周波数成分、または中間・高周波数
成分のスペクトル値が所定値より大きい場合、シャープ
ネス強調処理を強く施すシャープネス優先シーンあるい
はシャープネス優先領域と判別し、前記スペクトル値が
前記所定値以下の場合、粒状抑制処理を強く施す粒状優
先シーンあるいは粒状優先領域と判別する請求項3また
は4に記載の画像処理方法。
5. The image processing apparatus according to claim 1, wherein said spatial frequency characteristic is analyzed, and when a spectrum value of an intermediate frequency component or an intermediate / high frequency component of the image data of said original image is larger than a predetermined value, a sharpness priority scene to which sharpness enhancement processing is strongly applied; 5. The image processing method according to claim 3, wherein the image is determined to be a sharpness priority area, and when the spectrum value is equal to or less than the predetermined value, the area is determined to be a granular priority scene or a granular priority area to which granular suppression processing is strongly applied.
【請求項6】前記原画像の被写体のエッジ域のコントラ
ストを判別し、コントラストに応じて、シャープネス強
調処理を弱める請求項1〜5のいずれかに記載の画像処
理方法。
6. The image processing method according to claim 1, wherein the contrast of the edge area of the subject in the original image is determined, and the sharpness enhancement processing is reduced according to the contrast.
【請求項7】原画像の画像データに画像処理を施して出
力画像データを得る画像処理装置であって、 前記原画像全体または前記原画像の局所領域の撮影シー
ンを判別し、判別結果に基づいて、前記画像データに施
す粒状抑制・シャープネス強調処理の処理強度を決定す
ることで、粒状抑制・シャープネス強調処理を制御する
制御手段と、 この制御手段で決定された処理強度を用いて、前記原画
像全体、または前記局所領域の画像データに、粒状抑制
・シャープネス強調処理を施す画像処理手段とを備える
ことを特徴とする画像処理装置。
7. An image processing apparatus for performing image processing on image data of an original image to obtain output image data, comprising: determining a shooting scene of the entire original image or a local region of the original image; Control means for controlling the graininess suppression / sharpness enhancement processing to be applied to the image data to control the graininess suppression / sharpness enhancement processing; and using the processing strength determined by the control means, An image processing apparatus, comprising: image processing means for performing graininess suppression / sharpness enhancement processing on the entire image or image data of the local region.
JP2000022632A 2000-01-31 2000-01-31 Image processing method Expired - Fee Related JP4064031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000022632A JP4064031B2 (en) 2000-01-31 2000-01-31 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000022632A JP4064031B2 (en) 2000-01-31 2000-01-31 Image processing method

Publications (2)

Publication Number Publication Date
JP2001218015A true JP2001218015A (en) 2001-08-10
JP4064031B2 JP4064031B2 (en) 2008-03-19

Family

ID=18548908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000022632A Expired - Fee Related JP4064031B2 (en) 2000-01-31 2000-01-31 Image processing method

Country Status (1)

Country Link
JP (1) JP4064031B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107567A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, electronic flash control method, and program making computer implement the same method
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
JP2003259156A (en) * 2002-03-05 2003-09-12 Fuji Photo Film Co Ltd Image processor and program
JP2005122688A (en) * 2003-09-26 2005-05-12 Fuji Photo Film Co Ltd Image processing method, device, and program
JP2006215785A (en) * 2005-02-03 2006-08-17 Ricoh Co Ltd Image processing method, image processing device, image processing program and recording medium
JP2007048112A (en) * 2005-08-11 2007-02-22 Noritsu Koki Co Ltd Image processor and image processing program
JP2008154261A (en) * 2008-01-21 2008-07-03 Seiko Epson Corp Determination of photographed scene and image processing based on photographed scene
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
JP2010244579A (en) * 2003-09-26 2010-10-28 Fujifilm Corp Image processing method, apparatus and program
US7848589B2 (en) 2005-02-01 2010-12-07 Richoh Company, Ltd. Method and apparatus for applying edge enhancement based on image characteristics
JP2011100493A (en) * 2011-02-09 2011-05-19 Seiko Epson Corp Adjustment of output image for image data
US7973853B2 (en) 2001-09-18 2011-07-05 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method calculating an exposure based on a detected face

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8421899B2 (en) 2001-09-18 2013-04-16 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US7978261B2 (en) 2001-09-18 2011-07-12 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US7973853B2 (en) 2001-09-18 2011-07-05 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method calculating an exposure based on a detected face
JP2003107567A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, electronic flash control method, and program making computer implement the same method
JP4498671B2 (en) * 2001-12-07 2010-07-07 イーストマン コダック カンパニー Method and system for improving image characteristics based on image content
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
JP2003259156A (en) * 2002-03-05 2003-09-12 Fuji Photo Film Co Ltd Image processor and program
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
US7840087B2 (en) 2003-07-31 2010-11-23 Canon Kabushiki Kaisha Image processing apparatus and method therefor
JP4685966B2 (en) * 2003-09-26 2011-05-18 富士フイルム株式会社 Image processing method, apparatus, and program
JP2010244579A (en) * 2003-09-26 2010-10-28 Fujifilm Corp Image processing method, apparatus and program
JP2011003201A (en) * 2003-09-26 2011-01-06 Fujifilm Corp Image processing method and apparatus, and program
JP4685965B2 (en) * 2003-09-26 2011-05-18 富士フイルム株式会社 Image processing method, apparatus, and program
JP2005122688A (en) * 2003-09-26 2005-05-12 Fuji Photo Film Co Ltd Image processing method, device, and program
US7848589B2 (en) 2005-02-01 2010-12-07 Richoh Company, Ltd. Method and apparatus for applying edge enhancement based on image characteristics
JP2006215785A (en) * 2005-02-03 2006-08-17 Ricoh Co Ltd Image processing method, image processing device, image processing program and recording medium
JP2007048112A (en) * 2005-08-11 2007-02-22 Noritsu Koki Co Ltd Image processor and image processing program
JP4492706B2 (en) * 2008-01-21 2010-06-30 セイコーエプソン株式会社 Judgment of shooting scene and image processing according to shooting scene
JP2008154261A (en) * 2008-01-21 2008-07-03 Seiko Epson Corp Determination of photographed scene and image processing based on photographed scene
JP2011100493A (en) * 2011-02-09 2011-05-19 Seiko Epson Corp Adjustment of output image for image data

Also Published As

Publication number Publication date
JP4064031B2 (en) 2008-03-19

Similar Documents

Publication Publication Date Title
JP3590265B2 (en) Image processing method
JP4081219B2 (en) Image processing method and image processing apparatus
US7173732B2 (en) Image processing method
JP3584389B2 (en) Image processing method and image processing apparatus
US20020164085A1 (en) Image processing method and apparatus
JP4064031B2 (en) Image processing method
JP4172663B2 (en) Image processing method
JP3913356B2 (en) Image processing method
JP2003209683A (en) Image processing equipment and image processing method
JP3405266B2 (en) Image processing method and apparatus
JP3408770B2 (en) Image processing device
JPH11191871A (en) Image processor
JP4049986B2 (en) Output image area adjustment method
JP3576809B2 (en) Image processing device
JP4482307B2 (en) Image processing device
JP2000040154A (en) Method and device for image processing
JP3939428B2 (en) Image processing method and apparatus
JP2001222710A (en) Device and method for image processing
JP2001197289A (en) Image processing method and image processor
JP3929210B2 (en) Image processing method and apparatus
JPH1153535A (en) Method and device for image reproduction
JPH11353477A (en) Image processor, image processing method and recording medium recorded with software to execute the method
JP2000057336A (en) Method and device for processing image
JP2001245153A (en) Image processing method and apparatus
JPH11243493A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050907

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070927

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071226

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4064031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140111

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees