JP2003274427A - Image processing apparatus, image processing system, image processing method, storage medium, and program - Google Patents

Image processing apparatus, image processing system, image processing method, storage medium, and program

Info

Publication number
JP2003274427A
JP2003274427A JP2002072164A JP2002072164A JP2003274427A JP 2003274427 A JP2003274427 A JP 2003274427A JP 2002072164 A JP2002072164 A JP 2002072164A JP 2002072164 A JP2002072164 A JP 2002072164A JP 2003274427 A JP2003274427 A JP 2003274427A
Authority
JP
Japan
Prior art keywords
image
correction
information
processing
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002072164A
Other languages
Japanese (ja)
Inventor
Ryosuke Iguchi
良介 井口
Yuji Akiyama
勇治 秋山
Manabu Yamazoe
学 山添
Takashi Fujita
貴志 藤田
Makoto Torigoe
真 鳥越
Shigeru Mizoguchi
茂 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002072164A priority Critical patent/JP2003274427A/en
Priority to US10/386,606 priority patent/US7242800B2/en
Publication of JP2003274427A publication Critical patent/JP2003274427A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • H04N1/4074Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original using histograms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6077Colour balance, e.g. colour cast correction
    • H04N1/608Colour balance, e.g. colour cast correction within the L, C1, C2 colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0082Image hardcopy reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3242Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of processing required or performed, e.g. for reproduction or before recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3274Storage or retrieval of prestored additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3278Transmission

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of providing an excellent after-processing image at all times. <P>SOLUTION: An analysis means 110 analyzes conditional information 106 (conditional information at photographing of a photographed image 107) at acquisition of the image 107 included in image information and decides an algorithm for image correction processing to apply the image 107 on the basis of the result of analysis. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、ディジタ
ルスチルカメラ等により撮影して取得したディジタル画
像データをプリンタで印刷出力するための画像補正処理
を実行する装置或いはシステムに用いられる、画像処理
装置、画像処理システム、画像処理方法、それを実施す
るためのプログラムを記憶したコンピュータ読出可能な
記憶媒体、及び当該プログラムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus used in, for example, an apparatus or system for executing image correction processing for printing out digital image data captured by a digital still camera and acquired by a printer. The present invention relates to an image processing system, an image processing method, a computer-readable storage medium storing a program for implementing the same, and the program.

【0002】[0002]

【従来の技術】近年では、例えば、ディジタルスチルカ
メラの普及により、写真画像のディジタル化が手軽にな
り、特に、パーソナルコンピュータ(以下、単に「パソ
コン」と言う)上において、写真調の画像をディジタル
画像データとして扱う機会が増えてきた。さらに、パソ
コン上で各種のアプリケーションソフトウェアを使用す
ることで、写真調の画像であるディジタル画像データに
対して加工や編集処理を容易に行えるようになってい
る。
2. Description of the Related Art In recent years, for example, the spread of digital still cameras has facilitated the digitization of photographic images, and in particular, photographic images are digitalized on personal computers (hereinafter simply referred to as "personal computers"). Opportunities to handle as image data have increased. Furthermore, by using various application software on a personal computer, it is possible to easily perform processing and editing processing on digital image data which is a photographic image.

【0003】一方、フルカラーハードコピー技術に関し
ても急速に発展しており、特に、インクジェット方式に
よる印刷技術では、インクドットによる粒状感を低減さ
せる技術の向上により、その印刷出力結果の画質が銀塩
写真での画質と同等のものとなりつつあり、また、比較
的簡易な印刷技術であることにより、広く普及してい
る。
On the other hand, full-color hard copy technology is also rapidly developing, and in particular, in the ink jet printing technology, the image quality of the print output result is improved by improving the technology for reducing the graininess due to ink dots. It is becoming widespread due to the fact that it is becoming the same as the image quality in the above, and it is a relatively simple printing technology.

【0004】上述のような技術背景から、ディジタルス
チルカメラで撮影して取得したディジタル画像データを
手軽に印刷出力できることが求められている。また、印
刷出力時の画像補正処理に関して、複雑な機能を使用し
た手動での画像補正処理ではなく、パソコン上でアプリ
ケーションソフトウェアを使用することで、常に良好な
画像補正後の画像が得られる自動画像補正処理の必要性
が高まっている。
From the above technical background, it is required to easily print out digital image data obtained by photographing with a digital still camera. Also, regarding image correction processing at the time of print output, rather than manual image correction processing using complicated functions, by using application software on a personal computer, an automatic image that always obtains a good image corrected image can be obtained. The need for correction processing is increasing.

【0005】そこで、良好な印刷出力結果を得るため
に、印刷出力を行う際に画像補正処理等の画像処理を施
して出力する方法としては、例えば、撮影画像のシーン
を解析し、その解析結果に基づいて自動的に画像補正を
行う方法等、様々な方法が提案されている。
Therefore, in order to obtain a good print output result, as a method of performing image processing such as image correction processing and outputting when performing print output, for example, a scene of a photographed image is analyzed and the analysis result is obtained. Various methods have been proposed, such as a method for automatically performing image correction based on the above.

【0006】また、例えば、撮影画像を印刷出力した際
に、明るすぎたり(薄すぎたり)、或いは暗すぎたり
(濃すぎたり)することを防ぐための画像補正である所
謂「濃度補正」に関する方法が提案されている。また、
撮影画像における色かぶりや露出不良(明るさやコント
ラスト不良)、或いは彩度不良等の好ましくない画像及
び色かぶり等によりカラーバランスが崩れている画像を
補正する所謂「画像補正」の方法も提案されている。
Further, for example, it relates to a so-called "density correction" which is an image correction for preventing a photographed image from being too bright (too light) or too dark (too dark) when printed out. A method has been proposed. Also,
A so-called "image correction" method has also been proposed for correcting an undesired image such as a color cast or poor exposure (brightness or contrast) in a captured image or poor saturation, and an image having a color balance failure due to a color cast or the like. There is.

【0007】「濃度補正」及び「画像補正」の何れの画
像処理方法においても、自動画像補正のための構成とし
て、処理対象となる画像(原画像)における輝度信号の
輝度値毎に、対象輝度値の画素数を累積したヒストグラ
ムを用いることで原画像を解析し、当該解析結果に基づ
いて、原画像の補正を行う構成が用いられている。
In any of the "density correction" and "image correction" image processing methods, the target brightness is set for each brightness value of the brightness signal in the image (original image) to be processed as a structure for automatic image correction. A configuration is used in which an original image is analyzed by using a histogram in which the number of value pixels is accumulated, and the original image is corrected based on the analysis result.

【0008】また、ディジタルスチルカメラ側の機能と
しては、撮影して取得した画像をディジタル画像データ
として、メモリカード等の記憶媒体に記録するだけでな
く、撮影時の撮影条件を表す付加情報をも、当該記録媒
体にディジタル画像データと共に記録することが可能と
なっている。
As a function on the digital still camera side, not only is an image obtained by photographing taken recorded as digital image data in a storage medium such as a memory card, but also additional information indicating photographing conditions at the time of photographing is stored. It is possible to record together with digital image data on the recording medium.

【0009】[0009]

【発明が解決しようとする課題】ディジタルスチルカメ
ラにより撮影して得られた処理対象となる画像(対象画
像)の画像解析を行うことで対象画像のシーンの解析を
行い、当該解析結果に基づき対象画像の自動画像補正を
行う場合、基本的には、全ての対象画像に対して、理論
的に最適と考えられる画像(標準的な画像)が印刷出力
されるような自動画像補正を行うことになる。
A scene of a target image is analyzed by performing image analysis of an image to be processed (target image) obtained by photographing with a digital still camera, and the target is analyzed based on the analysis result. When performing automatic image correction of images, basically, for all target images, automatic image correction is performed so that theoretically optimal images (standard images) are printed out. Become.

【0010】ところで、上述したような色補正、明るさ
補正は画像のヒストグラムを用いて、統計的に画像処理
をしているものが多く、画像データのみの解析だけでは
必ずしも全ての画像において最適に補正され難い。色補
正にはホワイトバランス情報が、明るさ補正には露出情
報を用いた方がより細密な判定を行うことができる。
By the way, in the color correction and the brightness correction as described above, many of them are statistically image-processed by using the histogram of the image, and it is not necessarily optimum for all the images by only analyzing the image data. It is difficult to correct. More precise determination can be performed using white balance information for color correction and exposure information for brightness correction.

【0011】また、上述の自動画像補正は、ユーザが、
パソコン上でアプリケーションソフトウェアを使用し
て、パソコンのモニタに表示された対象画像を確認しな
がら手動で画像補正する手動画像補正とは異なり、標準
的な画像への自動画像補正が、対象画像を取得した時
(撮影時)のユーザの意図と反する補正が行われてしま
う場合がある。
The above-mentioned automatic image correction is performed by the user.
Unlike manual image correction, which uses application software on a computer to manually correct the image while checking the target image displayed on the computer's monitor, automatic image correction to a standard image acquires the target image. There is a case where a correction contrary to the user's intention at the time of shooting (at the time of shooting) is performed.

【0012】例えば、ユーザが意図的に手動設定を行
い、画像を明るく或いは暗くするような露出条件で撮影
して取得した画像に対しても、明るい画像であれば少し
暗めに画像補正され、また、暗い画像であれば少し明る
めに画像補正されることで、適正な明るさの画像として
出力されてしまう。すなわち、対象画像が、どのような
画像であっても、同一な明るさの画像に画像補正されて
出力されてしまう。
For example, even for an image obtained by intentionally setting manually by a user and shooting under an exposure condition that makes the image brighter or darker, if the image is bright, the image is slightly darkened, and If a dark image is slightly brightened, the image is output as an image having appropriate brightness. In other words, whatever the target image is, the image is corrected to an image having the same brightness and is output.

【0013】また、ユーザが、ディジタルスチルカメラ
のホワイトバランスを意図的に変えることで特殊な効果
を狙った画像に対しても、同様に最適なカラーバランス
となるような画像補正が行われてしまう。
In addition, even if the user intentionally changes the white balance of the digital still camera to obtain an image with a special effect, image correction is similarly performed so as to obtain the optimum color balance. .

【0014】一方、そうした露出補正やカラーバランス
補正、或いは撮影シーン情報を元にした画像最適化処理
など、複数の画像処理を行う場合、それぞれ独立に実行
してしまうと、同様の処理を重複してかけてしまった
り、強調すべき点が後の処理で弱まってしまったりする
ことがある。つまり複数の処理を行う場合には、同様の
処理の重複を避けなければならないし、どの処理を重要
視し、どの処理を弱めるかを考慮しなければならない。
On the other hand, when a plurality of image processes such as the exposure correction, the color balance correction, and the image optimization process based on the shooting scene information are performed independently, the same process is repeated. Sometimes, the points that should be emphasized are weakened in later processing. In other words, when performing a plurality of processes, it is necessary to avoid duplication of similar processes, and to consider which process is important and which process is weakened.

【0015】また上記と同様、近年におけるディジタル
スチルカメラの高機能化に伴い、例えば、撮影して取得
した画像に対して、彩度を高める或いはコントラストや
明るさを可変する等という特殊効果機能が設けられたカ
メラがあるが、当該特殊効果機能を使用すると共に、画
像補正処理を実行してしまうと、二重補正により、当該
特殊効果機能による特殊効果が失われてしまう、或いは
特殊効果の補正が強くなりすぎてしまうこと等により、
処理後画像が悪化する場合があった。
Similarly to the above, as digital still cameras have become more sophisticated in recent years, for example, special effect functions such as increasing the saturation or varying the contrast and brightness of an image obtained by photographing are provided. Although there is a camera provided, if the special effect function is used and the image correction process is executed, the special effect due to the special effect function is lost due to double correction, or the special effect correction is performed. Is too strong,
The image after processing was sometimes deteriorated.

【0016】そこで、本発明は、上記の欠点を除去する
ために成されたもので、常に良好な処理後画像を提供で
きる、画像処理装置、画像処理システム、画像処理方
法、それを実施するためのプログラムを記憶したコンピ
ュータ読出可能な記憶媒体、及び当該プログラムを提供
することを目的とする。
Therefore, the present invention has been made to eliminate the above-mentioned drawbacks, and is capable of always providing a good processed image, an image processing apparatus, an image processing system, an image processing method, and to carry out the same. It is an object of the present invention to provide a computer-readable storage medium that stores the program, and the program.

【0017】[0017]

【課題を解決するための手段】斯かる目的下において、
第1の発明は、画像取得時の条件情報を含む画像情報に
対して画像処理を施す画像処理装置であって、上記条件
情報を解析する解析手段と、上記解析手段の解析結果に
基づいて、明るさの度合いを示す値に基づいて画像の明
るさ補正量を求め、カラーバランスの度合いを示す値に
基づいて画像の色補正量を求め、ズームに関する値に応
じて画像のスムージング補正量を求める処理決定手段と
を備えることを特徴とする。
[Means for Solving the Problems] Under such a purpose,
A first aspect of the present invention is an image processing apparatus that performs image processing on image information including condition information at the time of image acquisition, and based on an analysis unit that analyzes the condition information and an analysis result of the analysis unit, The brightness correction amount of the image is calculated based on the value indicating the degree of brightness, the color correction amount of the image is calculated based on the value indicating the degree of color balance, and the smoothing correction amount of the image is calculated according to the value related to the zoom. And a processing determining means.

【0018】第2の発明は、複数の画像情報を取得し、
それらに対応する複数の処理を行う場合、複数の処理を
行う優先順位を設定することを特徴とする。
The second invention acquires a plurality of image information,
When performing a plurality of processes corresponding to them, it is characterized by setting a priority order for performing the plurality of processes.

【0019】[0019]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0020】本実施の形態は、例えば、図1に示すよう
な画像印刷システム100に適用される。
This embodiment is applied to, for example, an image printing system 100 as shown in FIG.

【0021】本実施の形態の画像印刷システム100
は、特に、ディジタルスチルカメラ101で撮影して得
られた処理対象の画像データに付加された撮影条件を示
す情報(付加情報)の解析結果に基づいて、当該画像デ
ータの画像補正を自動的に実施することで、高精度な自
動画像補正を実現し、撮影時のユーザの意図を、より反
映した高品質の写真画像印刷結果を提供できるように構
成されている。
The image printing system 100 of the present embodiment
Is based on the analysis result of the information (additional information) indicating the shooting condition added to the image data to be processed obtained by shooting with the digital still camera 101, and automatically corrects the image of the image data. By implementing the method, it is possible to realize highly accurate automatic image correction and provide a high-quality photographic image print result that further reflects the user's intention at the time of shooting.

【0022】以下、本実施の形態の画像印刷システム1
00の構成及び動作について具体的に説明する。
Hereinafter, the image printing system 1 of the present embodiment
00 will be specifically described.

【0023】<画像印刷システム100の構成>画像印
刷システム100は、上記図1に示すように、ディジタ
ルスチルカメラ101、画像処理装置108、及びプリ
ンタ115を含む構成としている。
<Structure of Image Printing System 100> As shown in FIG. 1, the image printing system 100 includes a digital still camera 101, an image processing device 108, and a printer 115.

【0024】ディジタルスチルカメラ101は、撮影動
作により撮影画像データ107を取得すると共に、当該
撮影動作における撮影条件データ106(付加情報)及
び撮影画像データ107を含む画像データ105を画像
処理装置108に対して出力するものであり、撮影条件
設定部102、撮影条件記録部103、及び撮影画像記
録部104を備えている。
The digital still camera 101 acquires the photographed image data 107 by the photographing operation, and at the same time, transmits the image data 105 including the photographing condition data 106 (additional information) and the photographed image data 107 in the photographing operation to the image processing device 108. The shooting condition setting unit 102, the shooting condition recording unit 103, and the shot image recording unit 104 are provided.

【0025】撮影条件設定部102は、撮影動作に必要
な各種の撮影条件の設定を行なう。
The shooting condition setting unit 102 sets various shooting conditions necessary for a shooting operation.

【0026】撮影条件記録部103は、撮影条件設定部
102で設定された撮影条件のデータ106を、画像デ
ータ105(画像処理装置108への出力用のデータ)
中に記録する。
The photographing condition recording unit 103 converts the photographing condition data 106 set by the photographing condition setting unit 102 into image data 105 (data for output to the image processing apparatus 108).
Record inside.

【0027】撮影画像記録部104は、撮影条件設定部
102で設定された撮影条件に従った撮影動作により取
得された撮影画像データ107を、画像データ105中
に記録する。
The photographed image recording unit 104 records the photographed image data 107 acquired by the photographing operation according to the photographing condition set by the photographing condition setting unit 102 in the image data 105.

【0028】尚、画像データ105の画像処理装置10
8への供給方法としては、例えば、通信回線を介したデ
ータ転送による方法、或いは任意の記録媒体又は記憶媒
体に記録することによる方法等を適用可能である。
The image processing apparatus 10 for the image data 105
As a method of supplying the data to the recording medium 8, for example, a method of transferring data via a communication line, a method of recording on an arbitrary recording medium or a storage medium, and the like can be applied.

【0029】画像処理装置108は、例えば、パーソナ
ルコンピュータからなり、所定のアプリケーションソフ
トウェアの起動により、ディジタルスチルカメラ101
からの画像データ105の撮影画像データ107に対し
て画像補正処理を施してプリンタ115で印刷出力す
る。
The image processing device 108 is composed of, for example, a personal computer, and by activating a predetermined application software, the digital still camera 101 is activated.
The image correction processing is performed on the captured image data 107 of the image data 105 from the above, and the printer 115 prints out.

【0030】このため、画像処理装置108は、リーダ
部109、撮影条件解析部111及び撮影画像解析部1
12を含むデータ解析部110、画像補正処理部11
3、及び印刷データ変換部114を備えており、これら
の構成部109〜114の各機能は、上記の所定のアプ
リケーションソフトウェアの起動により実現される。
Therefore, the image processing apparatus 108 includes the reader unit 109, the photographing condition analyzing unit 111, and the photographed image analyzing unit 1.
A data analysis unit 110 including 12 and an image correction processing unit 11
3 and the print data conversion unit 114, and the respective functions of these constituent units 109 to 114 are realized by starting the above-mentioned predetermined application software.

【0031】リーダ部109は、ディジタルスチルカメ
ラ101からの画像データ105を読み取る。データ解
析部110は、撮影条件解析部111により、リーダ部
109で得られた画像データ105に含まれる撮影条件
データ106を解析すると共に、撮影画像解析部112
により、リーダ部109で得られた画像データ105に
含まれる撮影画像データ107を解析し、当該解析結果
に基づいて、画像補正アルゴリズムを選択する。
The reader unit 109 reads the image data 105 from the digital still camera 101. The data analysis unit 110 analyzes the shooting condition data 106 included in the image data 105 obtained by the reader unit 109 by the shooting condition analysis unit 111, and at the same time, the shot image analysis unit 112.
Thus, the captured image data 107 included in the image data 105 obtained by the reader unit 109 is analyzed, and the image correction algorithm is selected based on the analysis result.

【0032】画像補正処理部113は、データ解析部1
10で選択された画像補正アルゴリズムにより、撮影画
像データ107に対して画像補正処理を施す。
The image correction processing unit 113 includes a data analysis unit 1
Image correction processing is performed on the captured image data 107 by the image correction algorithm selected in 10.

【0033】画像補正アルゴリズムの選択(決定)につ
いて、具体的には例えば、撮影画像解析部112が、撮
影画像データ107の信号値から輝度値や輝度分布を解
析する場合、当該解析結果により、撮影画像データ10
7の特性を認識し、この結果に該当する最適な補正条件
を決定し、当該決定条件に基づいた画像補正アルゴリズ
ムを選択する。
Regarding the selection (determination) of the image correction algorithm, specifically, for example, when the photographed image analysis unit 112 analyzes the luminance value and the luminance distribution from the signal value of the photographed image data 107, the photographed image is analyzed according to the analysis result. Image data 10
The characteristic of No. 7 is recognized, the optimum correction condition corresponding to this result is determined, and the image correction algorithm based on the determined condition is selected.

【0034】すなわち、最終的な画像補正アルゴリズム
の選択は撮影条件解析部111による撮影条件データ1
06の解析結果により決定したアルゴリズムと撮影画像
解析部112によって撮影画像データ107の特性認識
により決定したアルゴリズムとにより決められる。
That is, the final image correction algorithm is selected by the shooting condition data 1 by the shooting condition analysis unit 111.
It is determined by the algorithm determined by the analysis result of 06 and the algorithm determined by the characteristic recognition of the captured image data 107 by the captured image analysis unit 112.

【0035】また、画像補正処理としては、明るさ補正
処理、コントラスト補正処理、色補正処理、彩度補正処
理、平滑化処理、輪郭強調処理、及びノイズ低減処理等
が挙げられる。
The image correction processing includes brightness correction processing, contrast correction processing, color correction processing, saturation correction processing, smoothing processing, contour enhancement processing, noise reduction processing and the like.

【0036】印刷データ変換部114は、画像補正処理
部113での補正後の撮影画像データ107を、プリン
タ115で印刷可能な適切な形式のデータ(例えば、C
MYKデータ)に変換し、当該変換後データを、所定の
インタフェースを介してプリンタ115へ転送する。
The print data conversion unit 114 outputs the photographed image data 107 after the correction by the image correction processing unit 113 in an appropriate format that can be printed by the printer 115 (for example, C
MYK data) and transfer the converted data to the printer 115 via a predetermined interface.

【0037】したがって、プリンタ115は、画像処理
装置108の印刷データ変換部114から転送されてき
たデータを印刷出力する。
Therefore, the printer 115 prints out the data transferred from the print data conversion unit 114 of the image processing apparatus 108.

【0038】プリンタ115としては、例えば、シリア
ルスキャン形式のインクジェット方式のプリンタ等を適
用可能である。
As the printer 115, for example, a serial scan type ink jet printer or the like can be applied.

【0039】尚、本実施の形態では、画像処理部108
が備える構成部109〜114を、パーソナルコンピュ
ータ上で動作するアプリケーションソフトウェアの起動
により実現するものとしているが、これに限られること
はなく、例えば、ハードウェアにより実現するようにし
てもよい。さらに具体的には、プリンタ115のドライ
バの形態で実現するようにしてもよい。
In the present embodiment, the image processing unit 108
The constituent units 109 to 114 included in are implemented by activating application software running on a personal computer, but the configuration is not limited to this, and may be implemented by hardware, for example. More specifically, it may be realized in the form of a driver for the printer 115.

【0040】また、例えば、画像処理部108としてパ
ーソナルコンピュータを用いた場合、画像データ105
を、画像処理部108のハードディスク等の記憶媒体に
保持し、或いは画像処理部108に接続された別のパー
ソナルコンピュータ(サーバ等を含む)の記憶媒体に保
持し、これを画像処理部108内で処理するようにして
もよい。
Further, for example, when a personal computer is used as the image processing unit 108, the image data 105
Is stored in a storage medium such as a hard disk of the image processing unit 108 or in a storage medium of another personal computer (including a server or the like) connected to the image processing unit 108, and this is stored in the image processing unit 108. You may make it process.

【0041】また、ディジタルスチルカメラ101から
画像処理部108(画像処理部108としてパーソナル
コンピュータを用いた場合には、その内部の記憶媒体
等)への画像データ105の受け渡しについては、上述
したように任意の通信回線や記録媒体又は記憶媒体を利
用する方法等が適用可能であるが、さらに具体的には例
えば、カードリーダやケーブル接続、或いは赤外線通
信、或いは無線通信を適用可能である。この場合、例え
ば、ディジタルスチルカメラ101と画像処理部108
をケーブル接続、或いは赤外線通信、或いは無線通信で
接続し、画像処理部108が、ディジタルスチルカメラ
101が保持するメモリカードや内蔵メモリ等から、直
接画像データ105を読み込むようにしてもよい。
The transfer of the image data 105 from the digital still camera 101 to the image processing unit 108 (in the case where a personal computer is used as the image processing unit 108, the internal storage medium or the like) is as described above. A method using an arbitrary communication line, a recording medium, or a storage medium can be applied, and more specifically, for example, a card reader, a cable connection, infrared communication, or wireless communication can be applied. In this case, for example, the digital still camera 101 and the image processing unit 108
May be connected by cable, infrared communication, or wireless communication, and the image processing unit 108 may directly read the image data 105 from a memory card, a built-in memory, or the like held by the digital still camera 101.

【0042】また、画像印刷システム100のシステム
形態としては、例えば、プリンタ115内部に対して、
画像処理装置108の機能を設けるように構成してもよ
い。この場合、画像処理装置108としてパーソナルコ
ンピュータ等を用いる必要はない。また、この場合に
は、例えば、プリンタ115において、画像データ10
5を、プリンタ115に設けられたカードリーダ等のデ
ータ読取手段(リーダ部109の機能に相当)により、
メモリカード等の記録媒体又は記憶媒体を介して読み取
るようにしてもよい。或いは、ディジタルスチルカメラ
101とプリンタ115を有線ケーブル、或いは赤外線
通信、或いは無線通信により接続し、プリンタ115
が、ディジタルスチルカメラ101が保持するメモリカ
ードや内蔵メモリ等から画像データ105を読み出すよ
うにしてもよい。
As a system configuration of the image printing system 100, for example, with respect to the inside of the printer 115,
The function of the image processing apparatus 108 may be provided. In this case, it is not necessary to use a personal computer or the like as the image processing device 108. In this case, for example, in the printer 115, the image data 10
5 by a data reading means (corresponding to the function of the reader unit 109) such as a card reader provided in the printer 115.
You may make it read via recording media or memory media, such as a memory card. Alternatively, the digital still camera 101 and the printer 115 are connected by a wired cable, infrared communication, or wireless communication, and the printer 115
However, the image data 105 may be read from a memory card, a built-in memory, or the like held by the digital still camera 101.

【0043】図2にRGB画像信号より画像補正に最適
なLab信号に変換するフローチャートを示す。202
で画像補正処理を行った後、L’a’b’信号を再び
R’G’B’に戻すことで単純かつ効果的な補正ができ
る。またLab信号を用いず、簡易的なYCbCr信号
を用いてもよい。なお本実施例では、YcbCr信号を
用いることにする。
FIG. 2 shows a flowchart for converting an RGB image signal into a Lab signal most suitable for image correction. 202
After performing the image correction processing in step 1, the L'a'b 'signal is returned to R'G'B' again, so that simple and effective correction can be performed. Alternatively, a simple YCbCr signal may be used instead of the Lab signal. In this embodiment, the YcbCr signal is used.

【0044】次に画像補正処理部113の処理内容につ
いて述べる。まず撮影条件データ106にある、ホワイ
トバランスに関する情報を読みとり、それが自動撮影
(オートモード)ならばカラーバランス補正(色補正)
を行う。
Next, the processing contents of the image correction processing unit 113 will be described. First, the information about white balance in the shooting condition data 106 is read, and if it is automatic shooting (auto mode), color balance correction (color correction)
I do.

【0045】一方、撮影条件データ106にある露出に
関する情報を読みとり、それが自動撮影(オートモー
ド)ならば明るさ補正(印刷濃度補正)を行う。
On the other hand, the exposure information in the shooting condition data 106 is read, and if it is automatic shooting (auto mode), brightness correction (print density correction) is performed.

【0046】また、撮影条件データ106にあるデジタ
ルズームに関する情報を読みとり、それが実行されてい
る(ON)ならば画像にスムージング補正を行う。
Further, the information regarding the digital zoom in the photographing condition data 106 is read, and if it is executed (ON), smoothing correction is performed on the image.

【0047】<カラーバランス補正> [第1の実施の形態]はじめに、カラーバランス補正に
ついてその処理内容を図3〜図10を用いて説明する。
<Color Balance Correction> [First Embodiment] First, the processing contents of color balance correction will be described with reference to FIGS. 3 to 10.

【0048】本実施形態の画像補正処理部113は、図
3に示したように、ヒストグラム作成処理(図3−S
1)とヒストグラムに応じた画像補正処理(図3−S
2)を行う。ステップ図3−S1では、図4に示すよう
な処理によりヒストグラムを作成する。そして、作成さ
れたヒストグラムに基づき画像のハイライトポイントお
よびシャドーポイントを決定する。
As shown in FIG. 3, the image correction processing unit 113 of this embodiment has a histogram creating process (FIG. 3-S).
1) and image correction processing according to the histogram (Fig. 3-S
Perform 2). In step FIG. 3-S1, a histogram is created by the processing shown in FIG. Then, the highlight point and the shadow point of the image are determined based on the created histogram.

【0049】(輝度ヒストグラムの作成)図4は本実施
形態での輝度ヒストグラムを作成するフローチャートで
ある。
(Creation of Brightness Histogram) FIG. 4 is a flowchart for creating a brightness histogram in the present embodiment.

【0050】図4において、図4−S1で原画像の輝度
ヒストグラム作成のルーチンに入ると、図4−S2で原
画像の画素から輝度ヒストグラムの作成に用いる画素の
選択比率を決定する。本実施形態では、処理対象の画像
データが35万画素の場合に全画素を対象(選択比率1
(あるいは100%))に輝度ヒストグラムを作成する
こととする。35万画素以上の画素数の画像データが入
力された場合には、その総画素数の35万画素に対する
比率に応じて画素選択(サンプリング)を行う。例え
ば、350万画素の画像データが入力された場合には、
選択比率は350万/35万=10であり、10画素に
1画素の割合(選択比率10(あるいは10%))で輝
度ヒストグラムを作成する。本実施形態では選択比率n
は次式により求める。 n=int(対象画像データの総画素数/基準画素数3
5万) (但し、n<1の時はn=1、nは正数) 続いて図4−S3でライン番号を管理するカウンタをリ
セットあるいは所定の初期値にセットし、図4−S4で
そのカウンタをインクリメントして注目ラインのライン
番号とする。
In FIG. 4, when the routine for creating the luminance histogram of the original image is entered in FIG. 4-S1, the selection ratio of the pixels used for creating the luminance histogram from the pixels of the original image is determined in FIG. 4-S2. In the present embodiment, when the image data to be processed is 350,000 pixels, all pixels are targeted (selection ratio 1
(Or 100%)), a luminance histogram is created. When the image data having the number of pixels of 350,000 pixels or more is input, pixel selection (sampling) is performed according to the ratio of the total number of pixels to 350,000 pixels. For example, when 3.5 million pixel image data is input,
The selection ratio is 3.5 million / 350,000 = 10, and the luminance histogram is created at a ratio of 1 pixel to 10 pixels (selection ratio 10 (or 10%)). In this embodiment, the selection ratio n
Is calculated by the following formula. n = int (total pixel number of target image data / reference pixel number 3
50,000) (However, when n <1, n = 1, n is a positive number.) Then, in FIG. 4-S3, the counter for managing the line number is reset or set to a predetermined initial value, and in FIG. 4-S4. The counter is incremented to obtain the line number of the line of interest.

【0051】本実施形態では画素の間引き(サンプリン
グ)はライン単位で行うので、選択比率nの場合には、
ライン番号をnで割ったときの余りが0の場合に、その
ラインに属する画素を処理対象として選択する(図4−
S5−YES)。例えば選択比率10の場合であれば、
ライン番号を10で割ったときの余りが0の場合に、そ
のラインに属する画素を処理対象として選択する注目ラ
インが間引かれるライン、すなわち処理対象とならない
ラインの場合には図4−S4に戻る。処理対象ラインの
場合には図4−S6に進み、注目ラインに属する画素に
順次注目し、その注目画素に対して輝度変換,色度変換
を処理を行う。本実施形態における輝度変換、色度変換
は以下の式により行う。なお、輝度、色度変換は以下の
式に限らず様々な式を用いることが可能である。 Y (輝度)=int(0.30R+0.59G+0.
11B)(Yは正数) C1(色度)=R−Y C2(色度)=B−Y また本実施形態では白位置(ハイライトポイント)、黒
位置(シャドーポイント)の検出精度を向上させるため
に次式により注目画素の彩度Sを計算し、予め定めた彩
度値(Sconst)より大きいか否かを判断して(図
4−S7)、大きい場合には、その画素の情報は輝度ヒ
ストグラムに反映させない。 彩度S=sqrt(C1^2+C2^2) ここでsqrt(x)はxの平方根を与える関数であ
り、x^yはxのy乗を表す。
In the present embodiment, thinning out (sampling) of pixels is performed in line units. Therefore, in the case of the selection ratio n,
When the remainder when dividing the line number by n is 0, the pixel belonging to that line is selected as the processing target (FIG. 4).
S5-YES). For example, if the selection ratio is 10,
When the remainder when the line number is divided by 10 is 0, the line of interest for selecting the pixels belonging to that line as the processing target is thinned out, that is, when the line is not the processing target, it is shown in FIG. Return. In the case of the processing target line, the process proceeds to FIG. 4-S6, the pixels belonging to the target line are sequentially focused, and the luminance conversion and the chromaticity conversion are performed on the target pixel. Luminance conversion and chromaticity conversion in this embodiment are performed by the following formulas. Note that the luminance and chromaticity conversions are not limited to the following equations, and various equations can be used. Y (luminance) = int (0.30R + 0.59G + 0.
11B) (Y is a positive number) C1 (chromaticity) = RY C2 (chromaticity) = BY In this embodiment, the detection accuracy of the white position (highlight point) and the black position (shadow point) is improved. In order to do so, the saturation S of the pixel of interest is calculated by the following equation, and it is judged whether or not it is larger than a predetermined saturation value (Sconst) (FIG. 4-S7). Is not reflected in the brightness histogram. Saturation S = sqrt (C1 ^ 2 + C2 ^ 2) Here, sqrt (x) is a function that gives the square root of x, and x ^ y represents x to the power of y.

【0052】即ち、(S>Sconst)の場合には図
4−S6に戻り、注目画素のデータは以後の処理に反映
させない。これは、後述する通り、白位置の彩度は高輝
度の画素群の平均彩度により与えられ、その彩度の値は
色かぶりにより生じた誤差となるため、本来高彩度であ
ると考えられる画素はハイライトポイントの算出から除
外したほうが良いためである。この処理の効果を具体例
を上げて説明する。例えばイエローの画素(R=G=2
55、B=0)は、上式からその輝度Yは226とな
り、彩度Sは227となる。すなわち、この画素は極め
て高輝度であるとともに、十分に彩度の高い色を有する
ことが分かる。このような画素は、無彩色の画素がイエ
ローに色かぶりした結果そのようになったと判断するよ
りも、本来イエローの画素であると判断した方が多くの
場合間違えが少ない。このような高輝度・高彩度の画素
を輝度ヒストグラムに含めると、検出される白位置に誤
差が生じてしまう。よって、本実施形態では所定の彩度
(Sconst)を定め、所定の彩度を越える彩度の画
素は輝度ヒストグラムに含めない。こうすることで、高
彩度の画素により検出される白位置に誤差が生じること
を防ぎ、白位置の精度を向上させることができる。
That is, in the case of (S> Sconst), the processing returns to FIG. 4-S6, and the data of the target pixel is not reflected in the subsequent processing. This is because, as will be described later, the saturation at the white position is given by the average saturation of the high-luminance pixel group, and the value of the saturation is an error caused by the color cast, so pixels that are originally considered to have high saturation. Is because it is better to exclude from the calculation of highlight points. The effect of this processing will be described with a specific example. For example, yellow pixels (R = G = 2
55, B = 0), the luminance Y is 226 and the saturation S is 227 from the above equation. That is, it can be seen that this pixel has extremely high brightness and has a sufficiently saturated color. In many cases, it is less erroneous to judge that such a pixel is originally a yellow pixel than it is to judge that the achromatic pixel has changed its color to yellow. Including such a high-luminance / high-saturation pixel in the luminance histogram causes an error in the detected white position. Therefore, in the present embodiment, a predetermined saturation (Sconst) is set, and pixels having a saturation exceeding the predetermined saturation are not included in the luminance histogram. By doing so, it is possible to prevent an error from occurring in the white position detected by the high-saturation pixel and improve the accuracy of the white position.

【0053】このように、図4−S7における判断の
後、条件(S≦Sconst)を満たした画素について
輝度ヒストグラムを作成していく(図4−S8)。ここ
で本実施形態で扱う画素データRGBは各8ビット(2
56階調)データであるので、輝度Yも256の深さに
変換される。よって輝度ヒストグラムは、0から255
までの256段階の各輝度値の画素が夫々何度数あるか
を計数することで得られる。
As described above, after the determination in FIG. 4-S7, a luminance histogram is created for pixels satisfying the condition (S ≦ Sconst) (FIG. 4-S8). Here, each of the pixel data RGB handled in this embodiment has 8 bits (2
Since it is data of 56 gradations, the luminance Y is also converted to a depth of 256. Therefore, the luminance histogram is from 0 to 255
It is possible to obtain by counting how many times there are 256 pixels of each luminance value up to.

【0054】また色度C1,C2の計算値は、後の色か
ぶり補正時に、各輝度値を有する画素の平均色度を算出
するためのデータとして用いるので、本実施形態では次
のようにデータを保持する。すなわち、インデクスの範
囲が0から255の構造体配列変数の形式で、度数,C
1累積値,C2累積値の3メンバーを設定し、各画素ご
との演算結果をその画素の輝度値をインデクスとする各
メンバーに反映していく。
Further, the calculated values of the chromaticities C1 and C2 are used as data for calculating the average chromaticity of the pixels having the respective brightness values at the time of the subsequent color fog correction. Therefore, in the present embodiment, the following data are obtained. Hold. That is, in the format of the structure array variable whose index range is 0 to 255, the frequency, C
Three members, one cumulative value and C2 cumulative value, are set, and the calculation result for each pixel is reflected in each member having the brightness value of that pixel as an index.

【0055】注目画素について処理を終えたなら、注目
ラインの全画素の処理が終了したかどうかを判断し(図
4−S9)、注目ラインに未処理画素が残っている場合
には図4−S6に戻り、図4−S6以降の処理を繰り返
す。注目ライン内の全画素の処理が終了したら、図4−
S10で未処理のラインが残っているかを判断し、全ラ
イン終了であれば図4−S11で終了し、未処理のライ
ンが残っていれば図4−S4に戻り、注目ラインを次の
ラインに移して上記処理を繰り返す。
When the processing for the target pixel is completed, it is judged whether or not the processing for all the pixels on the target line has been completed (S9 in FIG. 4). Returning to S6, the processes of FIG. 4-S6 and subsequent steps are repeated. When all pixels in the line of interest have been processed,
In S10, it is determined whether or not an unprocessed line remains. If all lines are completed, the process ends in FIG. 4-S11. If unprocessed lines remain, the process returns to FIG. 4-S4, and the line of interest is set to the next line. And repeat the above process.

【0056】以上の様に原画像データの画素を選択しな
がら輝度ヒストグラムを作成することにより、必要最小
限の画素数で、且つ後の白位置、黒位置検出時の精度の
向上も考慮した輝度ヒストグラムを作成することができ
る。
As described above, the luminance histogram is created while selecting the pixels of the original image data, so that the luminance can be minimized with the minimum number of pixels taken into consideration and the accuracy of the subsequent white and black positions can be improved. A histogram can be created.

【0057】(白位置(ハイライトポイント),黒位置
(シャドーポイント)の決定)輝度ヒストグラムが完成
したら、そのヒストグラムから白位置(ホワイトポイン
ト)、黒位置(シャドーポイント)を決定する。本実施
形態では、輝度ヒストグラムにおける輝度値0及び輝度
値255の両端から中心方向に累積輝度度数値が175
0になる点をそれぞれ黒位置および白位置と定める。
(Determination of White Position (Highlight Point) and Black Position (Shadow Point)) When the luminance histogram is completed, the white position (white point) and black position (shadow point) are determined from the histogram. In the present embodiment, the cumulative luminance value is 175 from the both ends of the luminance value 0 and the luminance value 255 in the luminance histogram toward the center.
Points that become 0 are defined as a black position and a white position, respectively.

【0058】すなわち、輝度値Yの画素の度数をPYと
すると、P0+P1+・・・と累積度数を求めていき、
累積度数が1750を越えた時の輝度値を黒位置の輝度
値YSDとする。次いで輝度YSDの画素の平均色度を
求める。前記の通り、輝度ヒストグラム作成時に各輝度
値の色度の累積値が計算されている(輝度Nの画素の累
積色度をC1Ntotal,C2Ntotalとする)
ので、黒位置である輝度値YSDの画素の平均色度C1
SD,C2SDを求める。 C1SD=C1YSDtotal/PYSD C2SD=C2YSDtotal/PYSD 同様に白位置の決定を行う。P255+P254+・・
・と累積度数を求めていき、該累積度数が1750を越
えた時の輝度値を黒位置の輝度値YHLとする。次いで
輝度YHLの画素の平均色度C1HL,C2HLを求め
る。 C1HL=C1YHLtotal/PYHL C2HL=C2YHLtotal/PYHL 以上の演算を行うことにより、[C1,C2,Y]色空
間において、白位置(C1HL,C2HL,YHL)と
黒位置(C1SD,C2SD,YSD)を求めることが
できる。
That is, assuming that the frequency of the pixel having the brightness value Y is PY, the cumulative frequency is calculated as P0 + P1 +.
The brightness value when the cumulative frequency exceeds 1750 is defined as the brightness value YSD at the black position. Next, the average chromaticity of the pixel having the luminance YSD is obtained. As described above, the cumulative value of the chromaticity of each brightness value is calculated when the brightness histogram is created (the cumulative chromaticity of the pixel of brightness N is C1Ntotal and C2Ntotal).
Therefore, the average chromaticity C1 of the pixel with the luminance value YSD at the black position
Obtain SD and C2SD. C1SD = C1YSDtotal / PYSD C2SD = C2YSDtotal / PYSD Similarly, the white position is determined. P255 + P254 + ...
Then, the cumulative frequency is calculated, and the brightness value when the cumulative frequency exceeds 1750 is defined as the brightness value YHL at the black position. Next, the average chromaticity C1HL, C2HL of the pixel having the luminance YHL is obtained. C1HL = C1YHLtotal / PYHL C2HL = C2YHLtotal / PYHL By performing the above calculation, the white position (C1HL, C2HL, YHL) and the black position (C1SD, C2SD, YSD) are obtained in the [C1, C2, Y] color space. be able to.

【0059】尚、本実施形態では輝度値0と輝度値25
5の輝度位置から累積度数を求めたが、輝度値1と輝度
値254から求めるなど、所定のオフセットを与えても
良い。
In this embodiment, the brightness value 0 and the brightness value 25
Although the cumulative frequency is obtained from the luminance position of 5, a predetermined offset may be given, for example, from the luminance value 1 and the luminance value 254.

【0060】以上のようにして、図3のステップS1に
おいて、白位置(ハイライトポイント)/黒位置(シャ
ドーポイント)を決定する。
As described above, the white position (highlight point) / black position (shadow point) is determined in step S1 of FIG.

【0061】次に、図3のS2において、図3−S1で
決定された白位置および黒位置に基づいた画像補正処理
を行う。本実施形態では画像補正処理として、原画像の
色かぶりを補正する色かぶり補正、原画像の露出を最適
化すべく輝度のコントラストを補正する露出補正、およ
び出力画像の色のみえを良くするための彩度補正を行
う。
Next, in S2 of FIG. 3, image correction processing is performed based on the white position and the black position determined in FIG. 3-S1. In the present embodiment, as the image correction processing, color cast correction for correcting the color cast of the original image, exposure correction for correcting the brightness contrast to optimize the exposure of the original image, and for improving the color appearance of the output image are performed. Perform saturation correction.

【0062】図9は、画像補正処理部113により図3
のステップS2で行われる補正処理の流れを示してい
る。すなわち、まず色かぶり補正のための回転行列を求
め、次にその回転行列を用いて色バランス(色かぶり)
を補正し、最後に画像の露出の状態に応じて、輝度信号
のガンマ変換を行う。これら各処理を、順を追って説明
する。
FIG. 9 is a block diagram of the image correction processing unit 113 shown in FIG.
7 shows the flow of the correction process performed in step S2. That is, first, a rotation matrix for color cast correction is obtained, and then the rotation matrix is used to perform color balance (color cast).
Is corrected, and finally gamma conversion of the luminance signal is performed according to the exposure state of the image. Each of these processes will be described in order.

【0063】(色かぶり補正)上記の通り原画像の(C
1,C2,Y)色空間における白位置、黒位置が求めら
れたら、引き続いて色かぶりの補正を行う。
(Color cast correction) As described above, (C
If the white position and the black position in the (1, C2, Y) color space are obtained, the color cast is subsequently corrected.

【0064】もし原画像に色かぶりが無く理想的な画像
であるとすれば、無彩色はR=G=Bであり、白位置、
黒位置の色度の演算値は「C1HL=C2HL=C1S
D=C2SD=0」となる。しかし色かぶりがある場合
には、かぶっている色相方向に、かぶっている程度に比
例して、(C1HL,C2HL,YHL)と(C1S
D,C2SD,YSD)を結ぶ直線(色立体軸)に傾き
が生じる。色かぶり補正は色立体軸とY軸(輝度軸)が
一致する様に変換することで達成できる。変換は色立体
を回転、平行移動させることでも達成できるし、座標系
を変換することでも達成できる。
If the original image is an ideal image with no color cast, the achromatic color is R = G = B and the white position is
The calculated value of the chromaticity at the black position is “C1HL = C2HL = C1S
D = C2SD = 0 ”. However, if there is a color cast, (C1HL, C2HL, YHL) and (C1S
A straight line (color solid axis) connecting D, C2SD, and YSD) is tilted. The color cast correction can be achieved by performing conversion so that the color solid axis and the Y axis (luminance axis) match. The conversion can be achieved by rotating or translating the color solid, or by converting the coordinate system.

【0065】本実施形態ではまず原画像の色立体におい
て、色立体軸の最低輝度点(下端点)を回転中心とし
て、色立体軸をY軸と平行となる様に回転させる。次い
で前記最低輝度点の位置が(C1,C2,Y)空間の原
点となるように座標系を変換する。以上の処理により、
最低輝度点が原点で、色立体軸がY軸と一致する変換結
果が得られる。なお、図5(a)は色かぶりのない理想
的な画像データの色分布を示す色立体である。上述の変
換により、変換後の色立体は、理想的な色立体(図5
(a))に近づけられる。
In the present embodiment, first, in the color solid of the original image, the color solid axis is rotated so as to be parallel to the Y axis with the lowest luminance point (lower end point) of the color solid axis as the center of rotation. Next, the coordinate system is transformed so that the position of the lowest luminance point becomes the origin of the (C1, C2, Y) space. By the above processing,
A conversion result in which the lowest luminance point is the origin and the color solid axis matches the Y axis is obtained. Note that FIG. 5A is a color solid showing an ideal color distribution of image data without color cast. By the above conversion, the color solid after conversion is an ideal color solid (see FIG.
(A)).

【0066】なお、色立体軸をY軸と平行に回転させる
回転変換にあたっては、シャドーポイント及びハイライ
トポイントの座標値から、回転変換の回転軸及び回転角
は簡単に決めることができる。3次元空間上で、立体を
所望の回転軸周りに所望の角度で回転させる回転行列を
求める手法は公知の技術であるので、この詳細な説明は
省略する。
In the rotation conversion for rotating the color solid axis parallel to the Y axis, the rotation axis and the rotation angle of the rotation conversion can be easily determined from the coordinate values of the shadow point and the highlight point. Since a method of obtaining a rotation matrix for rotating a solid body around a desired rotation axis at a desired angle in a three-dimensional space is a known technique, its detailed description is omitted.

【0067】以上の様に、原画像の各画素を、色度と輝
度とを軸とする3次元色空間の画素データ(C1,C
2,Y)に変換し、その画像データを、黒位置と白位置
とを結ぶ色立体軸(グレーライン)がY軸と一致し、か
つ最低輝度が座標原点となるような画素データ(C
1’,C2’,Y’)に回転、平行移動変換することに
より、色かぶりの補正を行うことが可能となる。
As described above, each pixel of the original image has pixel data (C1, C1) in a three-dimensional color space with chromaticity and luminance as axes.
2, Y), and the image data is converted into pixel data (C) in which the color solid axis (gray line) connecting the black position and the white position coincides with the Y axis and the lowest luminance is the coordinate origin.
1 ′, C2 ′, Y ′) can be rotated and translated to convert the color cast.

【0068】(コントラスト及び彩度の調整)次にコン
トラスト及び彩度の調整による画像のさらなる高品質を
実現するために、画像の露出オーバー/アンダーを簡易
的に判定し、それに応じて輝度信号にガンマ補正をかけ
る方法を説明する。
(Adjustment of Contrast and Saturation) Next, in order to realize higher image quality by adjusting the contrast and saturation, overexposure / underexposure of the image is simply determined, and the luminance signal is determined accordingly. A method of applying gamma correction will be described.

【0069】なおこの処理は主にカラーバランス補正の
一部であり、上述したような撮影条件データ106に含
まれる露出データは考慮しておらず、後述する露出デー
タの値を加味した明るさ補正とは異なる。
Note that this processing is mainly a part of color balance correction, and the exposure data included in the above-mentioned photographing condition data 106 is not taken into consideration, and the brightness correction considering the value of the exposure data described later is performed. Is different from.

【0070】コントラストの調整は、黒位置(シャドー
ポイント)の輝度を“0”あるいはそれに近い値(例え
ば“10”)に調整し、白位置(ハイライトポイント)
の輝度を“255”あるいはそれに近い値(例えば“2
45”)に調整することで行う。
To adjust the contrast, the brightness at the black position (shadow point) is adjusted to "0" or a value close to it (for example, "10"), and the white position (highlight point) is adjusted.
Brightness of "255" or a value close to it (for example, "2"
45 ").

【0071】次に、画像の露出のオーバー・アンダーを
簡易的に判定し、画像データに対してそれに応じたガン
マ補正を施す際の一実施例を示す。
Next, an example will be shown in which overexposure / underexposure of an image is simply determined and gamma correction is applied to the image data accordingly.

【0072】まず、補正する色立体軸と輝度(Y)軸と
が最小距離となる点、つまり図5(b)におけるT,
T’を求める。これは幾何学的な関係から簡単に求める
ことができる。
First, the point where the color solid axis to be corrected and the luminance (Y) axis have the minimum distance, that is, T in FIG.
Find T '. This can be easily obtained from the geometrical relationship.

【0073】そして、点T’の色かぶり補正後の輝度成
分YT’が点Tの輝度成分YTとなるようにコントラス
トを調整する。つまり図6に示すように(YT’,Y
T)を屈折点とし、色かぶり補正後の輝度Y’がYT’
より小さい場合は、輝度を直線aとして与えられる関数
によりY”に補正し、YT’より大きい場合は、直線b
として与えられる関数によってY”に補正する。
Then, the contrast is adjusted so that the luminance component YT ′ after the color cast correction at the point T ′ becomes the luminance component YT at the point T. That is, as shown in FIG. 6, (YT ', Y
T) is a refraction point, and the luminance Y ′ after color cast correction is YT ′.
When it is smaller than YT ', the brightness is corrected to Y "by a function given as a line a, and when it is larger than YT', a line b
Is corrected to Y ″ by the function given as

【0074】もちろん、このT,T’を使わずに、図6
の直線l2で与えられるような補正をおこなってもよ
い。色立体軸が輝度軸と並行になる場合は、点T,T’
は1対ではないし、また、T,T’が輝度の範囲[0,
255]の外にある場合には、点(YT’,YT)を屈
折点とすることはできない。このような特殊なケースで
は直線l2に従って補正すればよい。
Of course, without using these T and T ', FIG.
The correction as given by the straight line 12 may be performed. If the color solid axis is parallel to the luminance axis, points T, T '
Are not a pair, and T and T'are the luminance range [0,
255], the point (YT ′, YT) cannot be a refraction point. In such a special case, the correction may be made according to the straight line l2.

【0075】この2直線の最近接点T,T’を用いた補
正の効果は、とくに露出のオーバーあるいはアンダーの
画像に作用する。露出がオーバーになるのは空などの明
るいところに画像全体が引っ張られるためである。この
際デジタルカメラを代表する入力機器では、高輝度色抑
圧が行われ、高輝度部の彩度がおとされる。すなわち、
高輝度色抑圧の行われた画像の色立体軸を、図7(a)
に示すように彩度と輝度とを軸とする2次元平面で考え
ると、高輝度の部分でもっとも無彩色に近い画素があら
われる。逆に、露出アンダーの画像に対しては低輝度色
抑圧がかかるため、図7(b)のように、低輝度の部分
で彩度が低くなる。
The effect of the correction using the two straight line closest points T, T'especially works on an image which is overexposed or underexposed. The overexposure is because the entire image is pulled in a bright place such as the sky. At this time, in an input device representing a digital camera, high-luminance color suppression is performed, and the saturation of the high-luminance portion is suppressed. That is,
The color solid axis of the image subjected to high-luminance color suppression is shown in FIG.
If a two-dimensional plane with the saturation and the luminance as axes is considered as shown in, the pixel having the closest achromatic color appears in the high-luminance portion. Conversely, low-luminance color suppression is applied to an underexposed image, so that the saturation is low in the low-luminance portion as shown in FIG. 7B.

【0076】実際の画像で色立体の輝度軸を輝度−彩度
平面で考えると露出オーバーの画像に関しては例えば、
図7(c)のようになる。逆にアンダーの画像に関して
は例えば、図7(d)のようになる。そもそも本来ある
べき(理想的な状態の)色立体から、なんらかの撮影状
況や入力時(A/D変換時)の影響で実際の色立体がず
れるのだと考えれば、T,T’の位置がもっともズレの
小さい場所と考えられる。従って、本発明の一実施の形
態ではこれを戻してやることで簡易的に適切なグレー、
つまり全体の明るさ補正を行うものである。
Considering the luminance axis of the color solid in the actual image on the luminance-saturation plane, for an overexposed image, for example,
It becomes like FIG.7 (c). On the other hand, an under image is, for example, as shown in FIG. If you think that the actual color solid will be displaced from the original (ideal) color solid due to some shooting conditions or input (A / D conversion), the positions of T and T ' It is considered to be the place with the smallest deviation. Therefore, in an embodiment of the present invention, by returning this, a proper gray color can be easily obtained.
That is, the overall brightness is corrected.

【0077】もちろんこのTを単に画像の露出オーバー
・アンダーを簡易的に判定する手段として用い、あらか
じめアンダー用のLUT(ルックアップテーブル)、オ
ーバー用のLUTを用意し、点TあるいはT’の輝度成
分に応じて輝度信号のガンマ調整を行ってもよい。例え
ば、図6の点(YT’,YT)を変曲点とするような曲
線によってコントラストの調整を行ってもよい。従っ
て、このT,T’の値によって簡易的に画像が露出オー
バーなのか、アンダーなのか判定できる。すなわち、色
立体軸においてもっとも彩度の低い点である点T’の輝
度成分が高輝度よりにあれば、その画像の輝度−彩度の
関係は図7(a)のような傾向を示すし、逆に点T’の
輝度成分が低輝度よりにあれば、その画像の輝度−彩度
の関係は図7(b)のような傾向を示す。したがって、
高輝度色抑制及び低輝度色抑制された画像において、点
T’の輝度成分が高輝度よりにあれば、その画像は露出
オーバー傾向にあり、点T’の輝度成分が低輝度よりに
あれば、その画像は露出アンダー傾向にあると考えられ
る。
Of course, this T is simply used as a means for simply determining whether the image is overexposed or underexposed, and an under-use LUT (look-up table) and an over-use LUT are prepared in advance, and the brightness of the point T or T'is adjusted. Gamma adjustment of the luminance signal may be performed according to the component. For example, the contrast may be adjusted by a curve having the point (YT ′, YT) in FIG. 6 as an inflection point. Therefore, it is possible to easily determine whether the image is overexposed or underexposed based on the values of T and T '. That is, if the luminance component of the point T ′, which is the point with the lowest saturation on the color solid axis, is higher than the luminance, the luminance-saturation relationship of the image shows a tendency as shown in FIG. Conversely, if the luminance component of the point T'is lower than the luminance, the luminance-saturation relationship of the image shows a tendency as shown in FIG. 7 (b). Therefore,
In an image in which high-luminance color suppression and low-luminance color suppression are performed, if the luminance component at point T ′ is higher than high luminance, the image tends to be overexposed, and if the luminance component at point T ′ is lower than luminance, , The image is considered to be underexposed.

【0078】一方、彩度調整は、色差C1,C2に彩度
補正係数を乗ずることで簡単に行うことができる。例え
ば、彩度を20%あげる場合は、補正後の彩度は補正前
の120%となることから、彩度補正係数を1.2とし
て計算する。すなわち、 C1”=1.2×C1’ C2”=1.2×C2’ として彩度補正を行うことができる。これは、 (彩度)=sqrt(C1^2+C2^2) で定義されることによる。
On the other hand, the saturation adjustment can be easily performed by multiplying the color differences C1 and C2 by the saturation correction coefficient. For example, when the saturation is increased by 20%, the corrected saturation is 120% before the correction, so the saturation correction coefficient is calculated as 1.2. That is, the saturation correction can be performed with C1 ″ = 1.2 × C1 ′ C2 ″ = 1.2 × C2 ′. This is because (saturation) = sqrt (C1 ^ 2 + C2 ^ 2) is defined.

【0079】(RGB空間への逆変換)以上で本実施形
態における各種補正が終了する。この時点で原画像の各
画素は(R,G,B)の色信号データから(C1”,C
2”,Y”)の色空間データに変換された状態にあるの
で、再度(R’,G’,B’)の色信号データに逆変換
する。逆変換は以下の式により行う。 R’=Y”+C1” G’=Y”−(0.3/0.59)*C1”−(0.1
1/0.59)*C2” B’=Y”+C2” このようにして、原画像に対して、色かぶり,コントラ
スト、彩度が補正されたRGBデータを得ることができ
る。
(Inverse Conversion to RGB Space) With the above, various corrections in this embodiment are completed. At this point, each pixel of the original image is (C1 '', C from the color signal data of (R, G, B).
Since it has been converted into the color space data of 2 ", Y"), it is converted back into the color signal data of (R ', G', B ') again. Inverse conversion is performed by the following formula. R '= Y "+ C1"G' = Y "-(0.3 / 0.59) * C1"-(0.1
1 / 0.59) * C2 ″ B ′ = Y ″ + C2 ″ In this way, it is possible to obtain RGB data in which the color cast, the contrast, and the saturation have been corrected for the original image.

【0080】以上のように、本実施形態によれば、少な
い処理負荷で確実に色かぶり補正が可能となる。また、
本実施形態によれば、サンプリング条件を原画像の画像
データサイズに応じて設定しているので、入力画像にか
かわらずヒストグラム総度数と、白位置及び黒位置を決
定するための累積度数との関係をほぼ一定にすることが
できる。したがって、良好な色かぶり補正を実現するこ
とができる。
As described above, according to this embodiment, it is possible to surely correct the color cast with a small processing load. Also,
According to the present embodiment, since the sampling condition is set according to the image data size of the original image, the relationship between the histogram total frequency and the cumulative frequency for determining the white position and the black position regardless of the input image. Can be kept almost constant. Therefore, good color cast correction can be realized.

【0081】さらに、補正対象画像の色立体軸と輝度軸
との距離が最短となる点における輝度を維持するように
画像全体を非線形にガンマ補正することで、もっとも原
画像の値に近いと考えられる輝度を維持しつつ、コント
ラストを補正することができる。
Furthermore, it is considered that the image is closest to the value of the original image by performing non-linear gamma correction on the entire image so as to maintain the luminance at the point where the distance between the color solid axis of the image to be corrected and the luminance axis is the shortest. The contrast can be corrected while maintaining the brightness that is obtained.

【0082】さらに、画像が露出オーバーであるか露出
アンダーであるかという露出状態を簡単に得ることがで
きる。さらに、その露出状態に応じて異なるテーブルを
選択し、ガンマ補正を施すこともできる。ただし、この
露出を調べる手段は、画像データをヒストグラム解析し
て簡易的に行うもので、撮影条件データ106を元に露
出の状態を調べる方法とは異なる。
Further, it is possible to easily obtain the exposure state of whether the image is overexposed or underexposed. Further, a different table can be selected according to the exposure state and gamma correction can be performed. However, this means for checking the exposure is simply performed by analyzing the histogram of the image data, and is different from the method for checking the exposure state based on the shooting condition data 106.

【0083】なお、サンプリングをライン単位でなくカ
ラム単位で行っても構わない。
The sampling may be performed in column units instead of line units.

【0084】[第2の実施の形態]次に、上述した第1
実施形態に対して、補正度合いを考慮した第2の実施形
態について説明する。
[Second Embodiment] Next, the above-mentioned first embodiment
A second embodiment in which the degree of correction is taken into consideration will be described with respect to the embodiment.

【0085】第1実施形態で説明したように、画像の色
立体軸を求める際に、この軸の傾きがあまりにも大きい
場合、これを無理に補正すると画像に不具合が生じる場
合がある。これには例えば色フィルタなどをもちいて故
意に色かぶりを起こしているような場合や、夕焼けのシ
ーンを撮影した場合などが考えられる。
As described in the first embodiment, when the color solid axis of the image is obtained, if the inclination of this axis is too large, the image may be deficient if it is forcibly corrected. This may be, for example, a case where color cast is intentionally caused by using a color filter or a case where a sunset scene is photographed.

【0086】このような場合、求めたハイライトポイン
トとシャドーポイントが間違っていたと判断して補正を
行わないか、または、回転角を適当に調整して補正度合
いを弱めることで不具合をなくすことができる。このよ
うなハイライトポイントとシャドーポイントが間違って
いたという判定は、色立体軸の方向によって可能であ
る。色立体軸の傾きから、どの色がかぶっているのか容
易に判定できるので、特殊効果を得るために例えば色フ
ィルタを用いて撮影された画像については色かぶりを補
正しないというような判定もできる。
In such a case, it is judged that the obtained highlight point and shadow point are wrong and no correction is made, or the rotation angle is appropriately adjusted to weaken the correction degree to eliminate the problem. it can. It is possible to judge that the highlight point and the shadow point are wrong by the direction of the color solid axis. Since it is possible to easily determine which color is covered by the inclination of the color solid axis, it is possible to make a determination not to correct the color cast for an image captured using a color filter in order to obtain a special effect.

【0087】このような場合、色立体軸の方向ベクトル
と、輝度軸とのなす角度に着目し、色かぶり補正を行う
ことで逆に不都合が生じると判定して処理を行わない
か、または、処理の度合をゆるめる。例えば、色立体軸
が赤の色相方向に向いており、その角度が所定の角度、
例えば40度以上の場合には、その画像は本来色かぶり
した画像であると判断する。処理の度合をゆるめる場合
には、色立体軸を所定角度、例えば20度だけ起こした
り、あるいは所定角度まで、例えばY軸に対する傾きが
20度になるまで起こすことで色かぶりを補正する。こ
の変換のための回転行列は、回転軸と回転角度とから容
易に求めることができる。
In such a case, paying attention to the angle formed by the direction vector of the color solid axis and the luminance axis, it is determined that the inconvenience will occur conversely by performing the color cast correction, or the processing is not performed, or Loosen the degree of processing. For example, the color solid axis is oriented in the hue direction of red, and the angle is a predetermined angle,
For example, when the angle is 40 degrees or more, it is determined that the image is originally an image with a color cast. When the degree of processing is loosened, the color cast is corrected by raising the color solid axis by a predetermined angle, for example, 20 degrees, or by raising it up to a predetermined angle, for example, the inclination with respect to the Y axis becomes 20 degrees. The rotation matrix for this conversion can be easily obtained from the rotation axis and the rotation angle.

【0088】なお上記補正の度合いはユーザーがマニュ
アルで指定してもいいし、あらかじめ角度の大きさ、該
色立体軸の方向に応じて設定しておいてもよい。例えば
40度の場合、該画像の色立体を20度だけ回転して起
こすとしたが、その補正の度合いをユーザに指定させて
もよい。以後の処理は第1実施形態と同様である。
The degree of correction may be manually specified by the user, or may be set in advance according to the angle magnitude and the direction of the color solid axis. For example, in the case of 40 degrees, the color solid of the image is supposed to be rotated by 20 degrees, but the degree of the correction may be designated by the user. The subsequent processing is the same as in the first embodiment.

【0089】また、色立体軸の方向によって、どの色が
かぶっているのか容易に判定できるので、特殊効果を得
るために例えば色フィルタを用いて撮影された画像につ
いては、フィルタの色方向に関しては補正しないという
ような判定もできる。すなわちこのような場合には、色
かぶりを補正しない色を指定させ、C1−C2平面上に
おいて、補正を行わない色の方向に沿って回転変換の回
転軸を設定し、その回転軸と色立体軸lとを含む平面
が、Y軸と平行になるまで色立体を回転変換する。こう
することで、特定の色成分についてだけ色かぶりを補正
できる。
Further, since it is possible to easily determine which color is covered by the direction of the color solid axis, for an image photographed using a color filter for obtaining a special effect, the color direction of the filter is It is also possible to make a judgment such as no correction. That is, in such a case, a color for which the color cast is not corrected is designated, and a rotation axis for rotation conversion is set along the direction of the color that is not corrected on the C1-C2 plane. Rotate the color solid until the plane containing the axis l is parallel to the Y axis. By doing so, the color cast can be corrected only for a specific color component.

【0090】図10は、色立体軸が所定角度以上傾いて
いる場合には、別途指定された角度まで色立体を回転さ
せるように、画像を補正するための処理手順である。ま
ず、ステップS101でハイライト/シャドーポイント
を決定し、ステップS102で色立体軸の傾きが所定角
度以上であるか判定する。もし所定角度に達していなけ
れば、ステップS104,S105で、第1の実施の形
態と同様に、色立体軸が輝度軸と一致するように変換し
て色かぶりを補正する。
FIG. 10 shows a processing procedure for correcting an image so that, when the color solid axis is tilted by a predetermined angle or more, the color solid is rotated to a separately designated angle. First, a highlight / shadow point is determined in step S101, and it is determined in step S102 whether the inclination of the color solid axis is equal to or larger than a predetermined angle. If the predetermined angle is not reached, in steps S104 and S105, the color solid axis is converted so as to coincide with the luminance axis and the color cast is corrected, as in the first embodiment.

【0091】一方、色立体軸が所定角度以上傾いていれ
ば、色立体軸を、輝度軸に向かって20度だけ回転させ
るような回転行列をステップS103で求め、ステップ
S105で、その回転行列を用いて色立体を回転させて
色かぶりを補正する。この場合、ステップS103で用
いた20度という角度は、いかように指定しても構わな
い。
On the other hand, if the color solid axis is tilted by a predetermined angle or more, a rotation matrix for rotating the color solid axis by 20 degrees toward the luminance axis is obtained in step S103, and the rotation matrix is calculated in step S105. Use to rotate the color solid to correct the color cast. In this case, the angle of 20 degrees used in step S103 may be specified in any way.

【0092】なお、しきい値を2段階設け、第1のしき
い値(例えば40度)より色立体軸の傾きが大きい場合
には、色立体軸を完全なグレーラインにしない程度に色
立体軸を起こす(例えば20度)ように回転変換し、第
1のしきい値と第2のしきい値(例えば20度)との間
の場合には、回転変換を行わず、第2のしきい値よりも
傾きが小さい場合には、色立体軸を輝度軸と一致させる
ように回転変換を行うこともできる。このようにするこ
とで、意図的に色かぶりが生じさせられた画像について
は、不都合な補正を行うことがない。
If the threshold value is set in two steps and the inclination of the color solid axis is larger than the first threshold value (for example, 40 degrees), the color solid axis does not become a complete gray line. The rotation conversion is performed so as to raise the axis (for example, 20 degrees), and when it is between the first threshold value and the second threshold value (for example, 20 degrees), the rotation conversion is not performed and the second stroke is performed. When the inclination is smaller than the threshold value, rotation conversion may be performed so that the color solid axis matches the luminance axis. By doing so, inconvenient correction is not performed for an image in which color cast is intentionally generated.

【0093】このように、画像データの画素により構成
される色立体の軸の傾き、すなわち軸の方向と傾きの角
度という2つの量から、補正するか否かのしきい値をす
くなくとも2つ以上設定し画像を補正すべきか、すべき
でない、補正度合いを調節すべきかの判定を行うことが
でき、非常に簡潔に特殊なケースの弊害だけをはじくこ
とができる。
As described above, from at least two inclinations of the axis of the color solid formed by the pixels of the image data, that is, the direction of the axis and the angle of the inclination, at least two or more threshold values for correction are required. It is possible to determine whether the image should be set and corrected, or not, and the degree of correction should be adjusted, and it is possible to very simply repel the harmful effects of the special case.

【0094】また、色立体軸の方向によって、どの色が
かぶっているのか容易に判定できるので、かぶっている
色方向に応じて色かぶりを補正しないようにすることも
できる。
Further, since it is possible to easily determine which color is covered by the direction of the color solid axis, it is possible not to correct the color cast depending on the direction of the covered color.

【0095】[第3の実施の形態]前記第1〜第2実施
形態では、画像のハイライトポイント・シャドーポイン
トに基づいた色バランス補正について説明したが、この
他の基準点に基づく補正の実施例について以下説明す
る。
[Third Embodiment] In the first and second embodiments, the color balance correction based on the highlight point / shadow point of the image has been described, but the correction based on other reference points is performed. An example will be described below.

【0096】まず、ハイライトポイントおよびシャドー
ポイントにおける平均色差量△Eを求める。 △E=sqrt((C1HL−C1SD)^2+(C2
HL−C2SD)^2) 色立体軸が輝度軸と平行であればΔE=0となるはずで
あるが、傾いていれば、0より大きな値となる。つま
り、E(彩度)−Y(輝度)平面で考えると図8のよう
になる。
First, the average color difference amount ΔE at the highlight point and the shadow point is obtained. ΔE = sqrt ((C1HL-C1SD) ^ 2 + (C2
HL-C2SD) ^ 2) If the color solid axis is parallel to the luminance axis, ΔE = 0 should be obtained, but if it is tilted, it becomes a value larger than 0. That is, when considered on the E (saturation) -Y (luminance) plane, the result is as shown in FIG.

【0097】次にハイライトとシャドーの間のサンプル
輝度を数点用意する。そして、画像中で例えば輝度Yn
の画素から、△Enより小さい彩度の画素を用いて、図
8のように平均色差量を求める。ΔEnとしては、予め
設定した一定彩度を用いてもよいし、また、色立体軸の
傾き方向に限定した平均色差量を求めてもよい。
Next, several sample luminances between the highlight and the shadow are prepared. Then, in the image, for example, the luminance Yn
From the pixels of, the average color difference amount is obtained as shown in FIG. 8 by using pixels of saturation smaller than ΔEn. As ΔEn, a predetermined saturation may be used, or an average color difference amount limited to the tilt direction of the color solid axis may be obtained.

【0098】これらの数点の輝度について平均色差で最
小二乗法的に直線を求め、これを色立体軸として第1実
施形態に基づく処理を行う。
With respect to the luminance at these several points, a straight line is obtained by the least-squares method with the average color difference, and the processing based on the first embodiment is performed with this as a color solid axis.

【0099】あるいは、求められた色差及び輝度を要素
とする点をBシュプラインなどで近似曲線を求め、この
曲線を輝度軸にする、すなわち色差を“0”とするよう
に非線形の色バランス補正を行ってもよい。
Alternatively, an approximate curve is obtained by a B spline or the like at the points having the obtained color difference and luminance as elements, and this curve is used as the luminance axis, that is, non-linear color balance correction is performed so that the color difference becomes "0". You may go.

【0100】以上本発明を好ましい実施例により説明し
たが、本発明は上述した実施例に限ることなく、クレー
ムに示した範囲で種々の変形が可能である。
Although the present invention has been described with reference to the preferred embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims.

【0101】このようにすることで、輝度軸となるべき
線を、ハイライト及びシャドーだけではなく、画像全体
から一様にサンプリングした画素から得ることができ
る。得られた線を輝度軸に一致するように画像データを
変換することで、画像全体の特性を反映した色かぶり補
正を行うことができる。
By doing so, the line to be the luminance axis can be obtained not only from highlight and shadow, but also from pixels uniformly sampled from the entire image. By converting the image data so that the obtained line coincides with the luminance axis, it is possible to perform color cast correction that reflects the characteristics of the entire image.

【0102】ところで、ホワイトバランスがオートの場
合、基準値からのズレ量によってカラーバランスの補正
量を可変にしてもよい。例えば、ホワイトバランスがオ
ートであるという情報の他に、ホワイトバランスが基準
値からの青方向に大幅にずれているという情報を得た場
合、カラーバランス補正は色差信号において青とは反対
の黄色に傾きやすく閾値を設定してもよい。
By the way, when the white balance is auto, the correction amount of the color balance may be variable depending on the deviation amount from the reference value. For example, in addition to the information that the white balance is auto, if you get the information that the white balance is largely deviated from the reference value in the blue direction, the color balance correction will change the color difference signal to yellow, which is the opposite of blue. A threshold value may be set so that the inclination is easy.

【0103】<濃度補正>次に、本実施形態の画像補正
処理部113における濃度補正について説明する。これ
は画像条件データ106から露出に関する情報、または
ストロボ発行ON/OFF情報を読み取り、最適な明る
さ補正(印刷濃度補正)を行うものである。
<Density Correction> Next, the density correction in the image correction processing unit 113 of this embodiment will be described. This is to read information regarding exposure or strobe issuing ON / OFF information from the image condition data 106 and perform optimum brightness correction (print density correction).

【0104】(階調曲線判定)図11のステップS2で
は、図3S20で求めたヒストグラムに基づき補正条件
設定処理(階調曲線判定処理)を行う。すなわち、予め
用意されている複数の輝度補正用の階調曲線から、画像
の解析結果に基づき階調曲線を選択する。
(Gradation Curve Judgment) In step S2 of FIG. 11, correction condition setting processing (gradation curve judgment processing) is performed based on the histogram obtained in S20 of FIG. That is, a gradation curve is selected from a plurality of gradation curves for brightness correction prepared in advance based on the analysis result of the image.

【0105】本実施形態の階調曲線判定は、3つのパラ
メータ(ハイライトポイント、シャドーポイントおよ
び、ある輝度領域の画素数)に基づき画像の明るさを判
定し、これに基づいて階調曲線を選択する。
In the gradation curve judgment of this embodiment, the brightness of the image is judged based on three parameters (highlight point, shadow point, and the number of pixels in a certain luminance area), and the gradation curve is determined based on this. select.

【0106】図12は、階調曲線判定処理の詳細を示す
フローチャートである。これを参照して本実施形態の階
調曲線判定処理を説明する。
FIG. 12 is a flow chart showing details of the gradation curve judgment processing. The gradation curve determination processing of this embodiment will be described with reference to this.

【0107】ハイライトポイント判定部 図12ステップS21のハイライトポイント判定処理で
は、上記ヒストグラムから処理対象である画像における
ハイライトポイントを算出する。
Highlight Point Determining Section In the highlight point determining process in step S21 in FIG. 12, the highlight point in the image to be processed is calculated from the histogram.

【0108】本実施形態では、輝度信号Yのヒストグラ
ムにおいて輝度範囲の最高輝度値(輝度値255)か
ら、順に低輝度側に向かいながら各輝度値の度数を累積
し、ここで求めた累積度数が、例えば、処理対象である
画像データの全画素数の1.0%と一致した輝度値、ま
たは最初に全画素数の1.0%を越えた輝度値を求め、
この点をハイライトポイント(以下、「HLP」とい
う)とする。
In this embodiment, in the histogram of the luminance signal Y, the frequencies of the respective luminance values are accumulated from the highest luminance value (luminance value 255) in the luminance range in order toward the lower luminance side, and the cumulative frequency obtained here is , For example, a brightness value that matches 1.0% of the total number of pixels of the image data to be processed, or a brightness value that first exceeds 1.0% of the total number of pixels,
This point is a highlight point (hereinafter referred to as "HLP").

【0109】次に、HLPを予め定めた複数の閾値Th
_H1、Th_H2、・・・(Th_H1<Th_H2
<・・・)と比較し、ヒストグラムの高輝度領域におけ
る分布を解析する。
Next, the HLP is set to a plurality of predetermined thresholds Th.
_H1, Th_H2, ... (Th_H1 <Th_H2
<...) and analyze the distribution in the high brightness area of the histogram.

【0110】例えば、本実施形態では、図13に示され
るように、下から順番に200、230の値が設定され
ている2つの閾値を用いた場合を説明する。
For example, in the present embodiment, as shown in FIG. 13, a case will be described in which two threshold values in which the values of 200 and 230 are set in order from the bottom are used.

【0111】そして、 HLP<Th_H1のときは、
画像を高輝度領域が少なくかつ暗い画像と判定し、Th
_H1≦HLP<Th_H2のときは、画像を高輝度領
域の分布もあるが全体的に暗い画像と判定し、Th_H
2≦HLPのときは、画像を高輝度領域に分布の多い明
るい画像と判定する。
Then, when HLP <Th_H1,
The image is judged as a dark image with few high-brightness areas, and Th
When _H1 ≦ HLP <Th_H2, it is determined that the image is a dark image as a whole even though there is a distribution in the high luminance region, and Th_H
When 2 ≦ HLP, the image is determined to be a bright image with a large distribution in the high-luminance region.

【0112】例えば、図14に示す明るめの画像のヒス
トグラムでは、HLPが閾値Th_H2を越えて(HL
P>Th_H2)おり、高輝度領域に多く分布がある画
像と判定する。図14のヒストグラムは全体的に高輝度
側に分布が偏っており、結果的にHLPも高輝度側に位
置している。こういった分布を示す画像は一般的に明る
い画像が多い。
For example, in the bright image histogram shown in FIG. 14, HLP exceeds the threshold Th_H2 (HL
P> Th_H2), and it is determined that the image has a large distribution in the high luminance region. In the histogram of FIG. 14, the distribution is biased to the high brightness side as a whole, and as a result, the HLP is also located on the high brightness side. Generally, many images showing such distribution are bright images.

【0113】図15に示すヒストグラムでは、HLPが
閾値Th_H2よりも低くTh_H1より高く(Th_
H1<HLP≦Th_H2)、高輝度領域にある程度分
布があるが、明るくはない画像と見なすことができる。
図15のヒストグラムは、輝度は大まかに中間的な分布
を示し、HLPも図14より比較的低輝度側に位置する
ことから、このように判断することができる。
In the histogram shown in FIG. 15, HLP is lower than the threshold value Th_H2 and higher than Th_H1 (Th_H1).
H1 <HLP ≦ Th_H2), and there is some distribution in the high-luminance region, but it can be regarded as an image that is not bright.
The histogram of FIG. 15 shows a roughly intermediate distribution of luminance, and the HLP is also located on the relatively lower luminance side than that of FIG. 14, so this determination can be made.

【0114】図16に示すヒストグラムでは、HLPが
閾値Th_H1よりも低く、高輝度領域に分布がない画
像となる。この場合、ヒストグラムは低輝度側に偏り、
全体的に暗い画像であることが分かる。また、HLPが
低いということはすなわち、階調レベルが狭いことも意
味する。こういった画像に対してはγ補正で明るくする
か輝度値を高輝度側に引き延ばして明るくするといった
補正が必要となる。
In the histogram shown in FIG. 16, HLP is lower than the threshold value Th_H1, and the image has no distribution in the high luminance area. In this case, the histogram is biased toward the low brightness side,
It can be seen that the image is dark overall. Further, the low HLP means that the gradation level is narrow. For such an image, it is necessary to correct the brightness by γ correction or to extend the brightness value to the high brightness side to make it brighter.

【0115】なお、HLPの算出は、必ずしも上述した
方法によって求める必要はなく、従来知られている方式
を適宜用いてもよい。
The calculation of the HLP does not necessarily have to be obtained by the above-mentioned method, and a conventionally known method may be appropriately used.

【0116】また、他の画像補正処理、例えば前述した
いわゆる色かぶり補正、コントラスト補正、彩度補正と
組み合わせて本実施形態の自動階調補正処理を行う場合
には、この画像処理で予め用いたHLPを使用すること
もできる。なお、この場合、ハイライトポイントを用い
る代わりに、上記色かぶり補正等で同様に用いられるシ
ャドーポイントを用いて画像の明るさ(暗さを)判別す
ることができ、これに基づいて以下の処理を行うことが
できることは、以下の説明からも自明なことである。
When the automatic gradation correction processing of the present embodiment is performed in combination with other image correction processing, for example, the so-called color cast correction, contrast correction, and saturation correction described above, it is used in advance in this image processing. HLP can also be used. In this case, instead of using the highlight point, it is possible to determine the brightness (darkness) of the image using the shadow point which is also used in the color cast correction and the like, and based on this, the following processing is performed. It is obvious from the following description that the above can be performed.

【0117】ヒストグラムのバランス判定 図12ステップS22において、図11のステップS1
で求めたヒストグラムを用いてヒストグラムのバランス
判定を行う。
Histogram Balance Determination In step S22 of FIG. 12, step S1 of FIG.
Balance determination of the histogram is performed using the histogram obtained in.

【0118】ヒストグラムのバランス判定処理では、ス
テップS22で処理対象画像の全画素数に対する所定の
領域の累積度数の割合であるSlowを求める。つまり
例えば256階調の画像に対して、輝度値0から128
まで(ヒストグラムの半分)の累積画素数の全画素数に
占める割合を求め、その画像のヒストグラムの全体的な
バランスを解析する。
In the histogram balance determination process, in step S22, Slow, which is the ratio of the cumulative frequency of the predetermined area to the total number of pixels of the image to be processed, is calculated. That is, for example, for a 256-gradation image, the brightness values from 0 to 128
The ratio of the cumulative number of pixels up to (half of the histogram) to the total number of pixels is calculated, and the overall balance of the histogram of the image is analyzed.

【0119】まず、ある輝度領域(0〜128)の累積
度数Sを求める。この累積度数Sは、ヒストグラムにお
いて輝度範囲の最低輝度値(輝度値0)から高輝度側に
向かって所定の輝度値までの累積度数として求められ
る。本実施形態では、最大輝度値(輝度値255)の1
/2となる輝度値(輝度値128)までの累積度数を低
輝度領域の累積度数Sとして求めたが、もちろん他の値
を用いてもよい。
First, the cumulative frequency S of a certain brightness area (0 to 128) is calculated. This cumulative frequency S is obtained as a cumulative frequency from the lowest luminance value (luminance value 0) of the luminance range in the histogram to a predetermined luminance value toward the higher luminance side. In this embodiment, the maximum brightness value (brightness value 255) is 1
Although the cumulative frequency up to the luminance value (luminance value 128) of / 2 is obtained as the cumulative frequency S of the low luminance region, other values may be used as a matter of course.

【0120】次に、累積度数Sが、全画素数に占める割
合Slowを以下の式を用いて算出する。 Slow=(ある輝度領域の累積度数S)/(全画素
数)(%) なお、前述のヒストグラム集計の際に、画素を間引い
て、間引きヒストグラムを作成した場合には、上記Sl
owの定義式での分母をヒストグラム作成の対象となっ
た画素数にする。
Next, the ratio Slow of the cumulative frequency S to the total number of pixels is calculated using the following formula. Slow = (cumulative frequency S of a certain luminance area) / (total number of pixels) (%) In the above histogram aggregation, when pixels are thinned to create a thinned histogram, the above Sl
The denominator in the definition formula of ow is set to the number of pixels for which the histogram is created.

【0121】次に、上記で求めたSlowを用いて再び
閾値判定を行う。これは、ヒストグラムの下半分の全体
に占める割合を算出することで、その画像の全体的な輝
度のバランスを調べるものである。上述のハイライトポ
イント判定において、ヒストグラムの高輝度領域の分布
状態に応じて画像を数種類に分類したが、図13に示す
ように、それぞれの場合に対応させて閾値を設け、ヒス
トグラムのバランス度合いを判定する。
Next, threshold value determination is performed again using the Slow obtained above. This is to examine the overall luminance balance of the image by calculating the ratio of the lower half of the histogram to the whole. In the above-described highlight point determination, the images are classified into several types according to the distribution state of the high-brightness area of the histogram. As shown in FIG. judge.

【0122】例えば、図14に示す明るめの画像の場
合、輝度値128までの領域の全画素数に対する割合が
Slowとなる。この例では、Slowは全画素数の2
0%である。従って、上記HLP判定で明るい画像と判
断されるとともに、Slowは、16〜50の範囲と判
定される。
For example, in the case of the bright image shown in FIG. 14, the ratio of the area up to the brightness value 128 to the total number of pixels is Slow. In this example, Slow is 2 which is the total number of pixels.
It is 0%. Therefore, it is determined that the HLP determination is a bright image, and Slow is determined to be in the range of 16 to 50.

【0123】一方、図16に示す暗めの画像の例では、
輝度値128までの領域Slowは、全画素数の60%
となり、したがって、上記HLP判定で暗い画像と判断
されるとともに、Slowは50〜80の範囲と判定さ
れる。
On the other hand, in the example of the dark image shown in FIG.
The area Slow up to the brightness value 128 is 60% of the total number of pixels.
Therefore, the HLP determination determines that the image is dark and Slow is determined to be in the range of 50 to 80.

【0124】ある輝度領域における累積度数の割合を用
いず、ヒストグラムの中間値や平均値のみを用いてヒス
トグラムのバランスを判定する方法では、ヒストグラム
の実際の分布状態が適切に反映されていない画像の明る
さについての判定を行うこととなる。例えば、中間値や
平均値自体は比較的高めの輝度値を示しつつも、実際に
は、中間値や平均値周辺の輝度値に度数分布のピークが
あって低輝度領域の度数分布自体は少ない画像の場合、
明るめの画像であると誤った判定をして濃度を高くする
輝度補正が選択され、結果として画像上の比較的大きな
部分を占める暗い部分が潰れてしまうことがある。
In the method of judging the balance of the histogram by using only the intermediate value and the average value of the histogram without using the ratio of the cumulative frequency in a certain brightness area, the actual distribution state of the histogram is not properly reflected in the image. The brightness will be determined. For example, although the intermediate value and the average value themselves show relatively high luminance values, in reality, there are few peaks in the luminance distribution around the intermediate value and the average value, and the frequency distribution itself in the low luminance region is small. For images,
In some cases, the brightness correction that increases the density by mistakenly determining that the image is a bright image is selected, and as a result, a dark portion occupying a relatively large portion on the image may be crushed.

【0125】これに対し、本実施形態のように、ヒスト
グラムの下半分となる輝度値0〜128の領域における
累積度数を求め、この累積度数の全画素数に占める割合
Slowを用いることにより、より実際のヒストグラム
のバランスが反映された画像の明るさの分布の判定を行
うことができ、上述のような、暗めの画像についても適
切な階調補正を行うことができる。
On the other hand, as in the present embodiment, by obtaining the cumulative frequency in the region of the luminance values 0 to 128 which is the lower half of the histogram and using the ratio Slow of this cumulative frequency to the total number of pixels, It is possible to determine the brightness distribution of the image in which the actual balance of the histogram is reflected, and it is possible to perform the appropriate gradation correction for the dark image as described above.

【0126】なお、上記実施形態では、Slowの範囲
について輝度値0〜128の範囲を均等に区分したが、
より詳しく低輝度領域の情報を求める場合は、低輝度領
域をいくつかに分割してそれぞれに対して場合分けを行
ってもよいし、また、Slowが0〜64までは2倍、
65〜128までは1倍して足し合わせるといった重み
付けをしてもよい。
In the above embodiment, the range of brightness values 0 to 128 is equally divided in the range of Slow.
To obtain the information of the low-luminance region in more detail, the low-luminance region may be divided into some and the cases may be divided for each, and when Slow is 0 to 64, it is doubled.
The weights of 65 to 128 may be multiplied by 1 and added.

【0127】このような場合わけにより、ヒストグラム
バランスを一層正確に判定できる。
In such cases, the histogram balance can be determined more accurately.

【0128】シャドーポイント判定 ステップS23のシャドーポイント判定処理では、ま
ず、上記ヒストグラムから処理対象である画像における
シャドーポイントを算出する。
In the shadow point determination processing in step S23, first, the shadow point in the image to be processed is calculated from the histogram.

【0129】本実施形態では、ヒストグラムにおいて輝
度範囲の最低輝度値(輝度値0)から、順に高輝度側に
向かいながら各輝度値の度数を累積し、ここで求めた累
積度数が、例えば、処理対象である画像データの全画素
数の1.0%と一致した輝度値、または最初に全画素数
の1.0%を越えた輝度値を求め、この点をシャドーポ
イント(以下、「SDP」ともいう)とする。
In the present embodiment, the frequencies of the respective brightness values are accumulated in the histogram from the lowest brightness value (brightness value 0) in the brightness range toward the higher brightness side in order, and the cumulative frequency obtained here is, for example, A luminance value that matches 1.0% of the total number of pixels of the target image data, or a luminance value that first exceeds 1.0% of the total number of pixels, is obtained, and this point is calculated as a shadow point (hereinafter referred to as “SDP”). Also called).

【0130】次に、SDPを輝度値について予め定めた
複数の閾値Th_S1、Th_S2、・・・(Th_S
1<Th_S2<・・・)と比較し、ヒストグラムの低
輝度領域における分布を解析する。
Next, a plurality of thresholds Th_S1, Th_S2 ,.
1 <Th_S2 <...) and analyze the distribution of the histogram in the low luminance region.

【0131】なお、本実施形態で用いるシャドーポイン
ト判定はハイライトポイント判定やヒストグラムのバラ
ンス判定を行った後に行っているので、図13に示され
るように、シャドーポイントの閾値はハイライトポイン
トやヒストグラムのバランス判定の結果に応じて異なる
値を設定する。
Since the shadow point determination used in the present embodiment is performed after the highlight point determination and the histogram balance determination, as shown in FIG. 13, the threshold of the shadow point is the highlight point or the histogram. Different values are set according to the result of the balance judgment of.

【0132】そして、SDP≧Th_S2のときは、画
像は低輝度領域が少なくかつ明るい画像と判定し、Th
_S1≦SDP<Th_S2のときは、画像は低輝度領
域の分布もあるが全体的に明るい画像と判定し、SDP
<Th_S1のときは、画像は低輝度領域に分布の多い
暗い画像と判定する。
When SDP ≧ Th_S2, it is determined that the image is a bright image with few low-luminance regions, and Th
When _S1 ≦ SDP <Th_S2, it is determined that the image is a bright image as a whole even though there is a distribution of low-luminance regions, and SDP
When <Th_S1, it is determined that the image is a dark image with a large distribution in the low luminance region.

【0133】例えば、図14に示す明るめの画像のヒス
トグラムでは、SDPが閾値Th_S2を越えて(SD
P>Th_S2)おり、従って、低輝度領域に分布がな
い画像と判定される。この場合、前述したようにヒスト
グラムは全体的に高輝度側に分布が偏っており、結果的
にSDPも比較的高輝度側に位置している。また、SD
Pが高いということはすなわち、階調レベルが狭いこと
も意味する。こういった画像に対してはγ補正で暗くす
るか輝度値を低輝度側に引き延ばして暗くするといった
補正が必要となる。
For example, in the histogram of the bright image shown in FIG. 14, SDP exceeds the threshold Th_S2 (SD
P> Th_S2), and therefore, it is determined that the image has no distribution in the low luminance region. In this case, the distribution of the histogram is biased to the high-luminance side as a whole as described above, and as a result, the SDP is also located on the relatively high-luminance side. Also, SD
High P also means that the gradation level is narrow. For such an image, it is necessary to perform correction such that it is darkened by γ correction or the brightness value is extended to the low brightness side to darken it.

【0134】一方、図15に示すヒストグラムでは、S
DPが閾値Th_S2よりも低くTh_S1より高く
(Th_S1<SDP≦Th_S2)、低輝度領域にあ
る程度分布はあるが暗くはない画像と判定される。この
場合、輝度は中間的な分布となり、SDPも比較的低輝
度側に位置することから、このような判定が行われる。
On the other hand, in the histogram shown in FIG.
When DP is lower than the threshold Th_S2 and higher than Th_S1 (Th_S1 <SDP ≦ Th_S2), it is determined that the image has a certain distribution in the low luminance region but is not dark. In this case, the luminance has an intermediate distribution, and the SDP is also located on the relatively low luminance side, so such a determination is performed.

【0135】次に図16に示すヒストグラムでは、SD
Pが閾値Th_S1よりも低く、低輝度領域に多く分布
がある画像となる。この場合、ヒストグラムは低輝度側
に偏り、全体的に暗い画像であることが分かる。
Next, in the histogram shown in FIG. 16, SD
P is lower than the threshold value Th_S1, and the image has a large distribution in the low luminance region. In this case, it can be seen that the histogram is biased toward the low luminance side and the image is dark as a whole.

【0136】補正階調曲線決定 以上のヒストグラムにおける高輝度領域の分布の詳細
(ハイライトポイント)、ヒストグラムのバランス度S
low、低輝度領域の分布の詳細(シャドーポイント)
の3つのパラメータにより、処理対象画像は、図13に
示されるように、その種類に応じて複数に分類されるこ
とになる。そして、次のステップS24では、図13に
示すテーブルを用いて補正階調曲線を決定する。
Determination of Corrected Gradation Curve Details of distribution of high-brightness area in histogram above (highlight point), histogram balance S
Details of distribution in low and low brightness areas (shadow points)
As shown in FIG. 13, the processing target image is classified into a plurality of types according to the three parameters. Then, in the next step S24, the correction gradation curve is determined using the table shown in FIG.

【0137】本実施形態の階調曲線は、図13に示す補
正テーブルから明らかなように、3つのパラメータに応
じてその画像種を総合的に判断し、例えばハイライトポ
イントが比較的低ければ、高輝度領域をカットしてヒス
トグラムを高輝度側へ引き延ばすような処理を盛り込ん
だ階調曲線を選択する。また、ヒストグラムのバランス
を整えたい画像に対してはγ補正を行う階調曲線を選択
する。ヒストグラムのバランス度Slowが低輝度領域
に偏っていれば、γ値を変換するなどして画像全体を明
るくする処理を盛り込んだ階調曲線を選択する。さらに
シャドーポイントが比較的高ければ、低輝度領域をカッ
トしてヒストグラムを低輝度側へ引き延ばすような処理
を盛り込んだ階調曲線を選択する。 上記複数に分類さ
れた画像に関する階調曲線の決定は、図13に示す判定
表を用いる。
As is clear from the correction table shown in FIG. 13, the gradation curve of this embodiment makes a comprehensive determination of the image type according to three parameters. For example, if the highlight point is relatively low, A gradation curve that includes processing for cutting the high-brightness region and extending the histogram to the high-brightness side is selected. Further, for an image for which the balance of the histogram is desired to be adjusted, a gradation curve for γ correction is selected. If the balance Slow of the histogram is biased toward the low-luminance region, a gradation curve including a process for brightening the entire image by converting the γ value is selected. Further, if the shadow point is relatively high, a gradation curve including processing for cutting the low-luminance region and extending the histogram to the low-luminance side is selected. The determination table shown in FIG. 13 is used to determine the gradation curve for the images classified into the above plurality.

【0138】例えば上記HLPが245と高く、Slo
wが20%で、SDPが60と比較的高い画像の場合、
低輝度領域20以下をカットする階調曲線を選択する。
For example, the HLP is as high as 245, and Slo
In the case of an image in which w is 20% and SDP is 60, which is relatively high,
A gradation curve that cuts the low luminance area 20 and below is selected.

【0139】図14に示す明るめの画像の場合、HLP
は閾値Th_H2より大きく且つSlowは20%であ
り、SDPは閾値Th_S2より大きいので、図13に
示すテーブルより、この画像は明るい画像と判定され、
γ値は1.1に設定される。このγ値決定により、比較
的高い輝度領域まで暗くする(印刷濃度を高くする)補
正がなされ、全体的に最適な濃度の印刷画像となる。ま
た、低輝度領域の画素に割合が少ないことから、画像の
潰れる部分が少なくて済む。
In the case of the bright image shown in FIG. 14, HLP
Is larger than the threshold Th_H2 and Slow is 20%, and SDP is larger than the threshold Th_S2. Therefore, from the table shown in FIG. 13, it is determined that this image is a bright image.
The γ value is set to 1.1. By this γ value determination, correction is performed to darken the comparatively high luminance area (increase the print density), and a print image having an optimum density is obtained as a whole. In addition, since the ratio of pixels in the low-luminance region is small, the image is less likely to be crushed.

【0140】次に、図15に示すヒストグラムのバラン
スが中間的な画像では、HLPがTh_H1より大きく
Th_H2より小さい。且つSlowが40%であり、
SDPがTh_S1より大きくTh_S2より小さいた
め、図13に示すテーブルによって、補正階調曲線をS
字のものにすることでコントラストを強調することがで
きる。こうして、印刷される画像全体にメリハリがつ
き、見栄えのする印刷画像となる。
Next, in the image having the intermediate balance of the histogram shown in FIG. 15, HLP is larger than Th_H1 and smaller than Th_H2. And Slow is 40%,
Since SDP is larger than Th_S1 and smaller than Th_S2, the correction gradation curve is S based on the table shown in FIG.
The contrast can be emphasized by making it a letter. In this way, the entire printed image is crisp and the printed image looks good.

【0141】一方、図16に示す暗い画像では、HLP
がTh_H1より小さく且つSlowが60%であり、
SDPはTh_S1より小さいため、図13に示すテー
ブルによって、高輝度領域において200以上をカット
する直線を選択する。これにより、印刷される画像全体
が明るくなり、特に画像のヒストグラムが高輝度側に拡
張され、コントラストのある濃度のバランスがとれた印
刷画像となる。
On the other hand, in the dark image shown in FIG.
Is smaller than Th_H1 and Slow is 60%,
Since SDP is smaller than Th_S1, a straight line that cuts 200 or more in the high brightness area is selected according to the table shown in FIG. As a result, the entire image to be printed becomes brighter, and in particular, the histogram of the image is expanded to the high-luminance side, resulting in a printed image in which density with contrast is balanced.

【0142】なお、上記の説明では、ハイライトポイ
ント判定において、画像の高輝度領域の明るさの判定を
3段階で行ったが、より最適な階調曲線を求めるため
に、さらに分岐数を増やし、4段階以上に場合分けして
より詳細な判定を行ってもよい。また、ヒストグラム
のバランス判定やシャドーポイント判定においてもよ
り詳細な判定を行うため、分岐数の数を増やしてもよ
い。
In the above description, in the highlight point determination, the brightness of the high luminance area of the image is determined in three steps, but the number of branches is further increased in order to obtain a more optimal gradation curve. More detailed determination may be performed by classifying into four or more stages. In addition, the number of branches may be increased in order to make more detailed determinations in histogram balance determination and shadow point determination.

【0143】(LUT作成)以上説明した階調曲線判定
処理(図11のステップS2)を終了すると、図11に
示すステップS3でLUT作成を行う。階調曲線判定処
理で得られた階調曲線を作成するパラメータに基づいて
輝度補正のためのルックアップテーブル(LUT)を作
成する。
(LUT Creation) Upon completion of the gradation curve determination processing (step S2 in FIG. 11) described above, LUT creation is performed in step S3 shown in FIG. A lookup table (LUT) for brightness correction is created based on the parameters for creating the gradation curve obtained by the gradation curve determination processing.

【0144】本実施形態のLUTは、上述のようにして
得られた階調曲線を指数関数と5次関数して記録してお
く。つまり単純にγ補正だけする場合は指数関数(図1
7)を用い、高輝度または低輝度領域をカットする直線
およびより複雑な曲線で補正する場合は5次曲線(図1
8)を用いる。
The LUT of this embodiment records the gradation curve obtained as described above as an exponential function and a quintic function. In other words, when simply performing γ correction, the exponential function (Fig. 1
7) is used to correct with a straight line that cuts a high-luminance or low-luminance region and a more complicated curve (see FIG. 1).
8) is used.

【0145】すなわち、LUT L[Y]は、γ補正の
みを行う指数関数の場合、入力輝度信号をY、出力輝度
信号をY‘とすると、 Y’=255×[(Y/255)1/γ] なる式によって表される変換を行い、判定結果によりγ
値が与えられる。
That is, if the input luminance signal is Y and the output luminance signal is Y ′, then LUT L [Y] is an exponential function that performs only γ correction. Y ′ = 255 × [(Y / 255) 1 / γ] is used for conversion, and γ
A value is given.

【0146】一方、5次曲線の場合、 Y’=A+B×Y+C×Y^2+D×Y^3+E×Y^
4+F×Y^5 なる式によって表される変換を行い、係数となるA、
B、C、D、E、Fを与えることにより5次曲線が完成
する。また、それらは動的に作成されるものである。す
なわち、対象画像の処理ごとに作成される。このように
補正テーブルを動的に作成することにより、必要となる
メモリ量を削減することができる。
On the other hand, in the case of a quintic curve, Y ′ = A + B × Y + C × Y ^ 2 + D × Y ^ 3 + E × Y ^
4 + F × Y ^ 5 is converted and the coefficient A,
A quintic curve is completed by giving B, C, D, E and F. Also, they are created dynamically. That is, it is created for each processing of the target image. By dynamically creating the correction table in this way, the required memory amount can be reduced.

【0147】なお、上記LUTは、動的に作成する代わ
りに上記階調曲線毎に、予めメモリ上に静的に用意して
もよいことは勿論である。
It is needless to say that the LUT may be statically prepared in advance in the memory for each gradation curve instead of being dynamically created.

【0148】(補正)次に、図11に示すステップS4
において、輝度信号Yの補正を行う。すなわち、作成し
たLUT L[Y]によって、入力画像の輝度値Yを
Y’=L[Y]として変換し、輝度補正を行う。
(Correction) Next, step S4 shown in FIG.
At, the luminance signal Y is corrected. That is, the created LUT L [Y] is used to convert the brightness value Y of the input image as Y ′ = L [Y] to perform brightness correction.

【0149】さらに、輝度補正された輝度信号Y’およ
び入力画像の色差信号Cr、CbをR、G、Bの各信号
に戻し、補正された画像信号R’G’B’を作成する。
Further, the luminance-corrected luminance signal Y'and the color-difference signals Cr, Cb of the input image are returned to the R, G, B signals to create a corrected image signal R'G'B '.

【0150】本実施形態よれば、ヒストグラムにおい
て、画像データの明るさに関する成分値の範囲において
その最大値または最小値からの累積度数が所定の値を示
す成分値が求められるので、画像の全体的な明るさを知
ることができ、また、最小値または最大値から所定の成
分値までの累積度数のヒストグラムの全画素数に占める
割合が求められるので、画像の明るさの分布を知ること
ができる。そして、これらの成分値および割合に基づい
て明るさの分布が判別され、その判別に基づいて補正の
階調曲線が定められるので、画像の全体的な明るさ毎に
その明るさの分布と補正階調曲線との対応を異ならせる
ことができる。
According to the present embodiment, in the histogram, the component value showing the predetermined value of the cumulative frequency from the maximum value or the minimum value in the range of the component value related to the brightness of the image data is obtained, so that the entire image It is possible to know the brightness of the image, and the ratio of the cumulative frequency from the minimum value or the maximum value to the predetermined component value to the total number of pixels in the histogram can be obtained, so that the distribution of the brightness of the image can be known. . Then, the brightness distribution is determined based on these component values and ratios, and the gradation curve for correction is determined based on the determination. Therefore, the brightness distribution and correction are performed for each overall brightness of the image. The correspondence with the gradation curve can be different.

【0151】つまり、ハイライトポイント、ヒストグラ
ムのバランス度、シャドーポイントの3つのパラメータ
を用いて最終的に複数の補正階調曲線の中から、その画
像に最適な補正階調曲線を一つ選択することができる。
That is, one correction gradation curve most suitable for the image is finally selected from the plurality of correction gradation curves using the three parameters of the highlight point, the balance degree of the histogram, and the shadow point. be able to.

【0152】これにより、例えば、全体的に暗い画像で
は、より明るくする(印刷画像においてより濃度を低く
する)補正に対応する明るさの分布で、暗い範囲を示す
分布を小さなものとでき、これにより、印刷画像におけ
る明るさのバランスをより好ましいものにできる。一
方、全体的に明るい画像ではより暗くすることで、印刷
画像においてより濃度を高くでき、これにより、印刷デ
バイスが本来的に比較的低い濃度しか実現できないとい
う濃度出力特性を補って全体的に高い濃度の印刷を行う
ことができる。また、元々ダイナミックレンジが狭い画
像では、その幅を広げることにより、コントラストがつ
いた、メリハリがあり見栄えのする画像の印刷を行うこ
とができる。
As a result, for example, in a dark image as a whole, the distribution of the brightness corresponding to the correction of making the image brighter (the density of the print image is made lower) can be made small, and the distribution showing the dark range can be made small. Thereby, the balance of brightness in the printed image can be made more preferable. On the other hand, by making the overall bright image darker, the density of the printed image can be made higher, and thus the density output characteristic that the printing device can inherently achieve a relatively low density is compensated for, and the overall density is high. It is possible to perform density printing. Further, in the case of an image having a narrow dynamic range originally, by widening the width, it is possible to print an image with contrast and having a sharp and crisp appearance.

【0153】なお、本実施形態では図12の順で判定を
行ったが、順番が変わってもよい。
Although the determination is made in the order of FIG. 12 in this embodiment, the order may be changed.

【0154】また、HLP、SDPの算出は、必ずしも
上述した方法によって求める必要はなく、従来知られて
いる方式を適宜用いてもよい。
Further, the calculation of HLP and SDP does not necessarily have to be obtained by the above-mentioned method, and a conventionally known method may be appropriately used.

【0155】ところで前述したように、高輝度領域にお
ける明るさの分布を調べるためにハイライトポイントを
用い、低輝度領域における明るさの分布を調べるために
シャドーポイントを用いた。しかし例えばハイライトポ
イントの変わりになる別のパラメータで高輝度領域の明
るさの分布の詳細が分かればそれを用いてもよい。つま
りヒストグラムの最大値からある輝度値(例えば輝度値
220)までの累積度数の全画素数に占める割合を求
め、その値から高輝度領域の明るさの分布判定を行って
もよい。その場合、ハイライトポイントと同様、該パラ
メータに対して複数の閾値を設け、場合分け判定を行
う。もちろん低輝度領域においてもシャドーポイントの
変わりに、ヒストグラムの最小値からある輝度値(例え
ば輝度値30)までの累積度数の全画素数に占める割合
を求め、同様の判定を行えばよい。
By the way, as described above, the highlight point was used to check the brightness distribution in the high brightness region, and the shadow point was used to check the brightness distribution in the low brightness region. However, for example, if the details of the brightness distribution in the high-luminance region are known with another parameter that changes the highlight point, it may be used. That is, the ratio of the cumulative frequency from the maximum value of the histogram to a certain brightness value (for example, the brightness value 220) to the total number of pixels may be obtained, and the distribution distribution of the brightness of the high brightness region may be determined from the value. In that case, similar to the highlight point, a plurality of thresholds are set for the parameter, and the case determination is performed. Of course, also in the low luminance area, instead of the shadow point, the ratio of the cumulative frequency from the minimum value of the histogram to a certain luminance value (for example, the luminance value 30) to the total number of pixels may be obtained, and the same determination may be performed.

【0156】また、上述の実施形態では、輝度値Yに関
する補正について説明したが、R、G、Bの各信号に対
して直接同様の補正を行っても良い。この際、上述のL
UTを用い、そのLUTにおいてYの代わりにR、G、
B、Y′の代わりにR′、G′、B′を用いて補正を行
うことができる。R、G、B信号に対する補正は、RG
B―YCrCb変換が不要であるため、処理速度の向上
を図ることができる。
Further, in the above-mentioned embodiment, the correction relating to the luminance value Y has been described, but the same correction may be directly applied to each of the R, G and B signals. At this time, the above L
UT, using R, G, instead of Y in the LUT
The correction can be performed by using R ', G', B'instead of B, Y '. The correction for the R, G, B signals is RG
Since B-YCrCb conversion is unnecessary, the processing speed can be improved.

【0157】なお、露出設定がオートの場合、自動的に
上述の処理を加えるが、例えば露出がオートであってさ
らに基準値からの変更量がわかれば、それに応じて上述
の処理内容を設定変更してもよい。
When the exposure setting is automatic, the above-mentioned processing is automatically added. However, if the exposure is automatic and the amount of change from the reference value is known, the above-mentioned processing contents are changed accordingly. You may.

【0158】つまりは、図13に示したHLP、S12
8、SDPの閾値の設定は、撮影条件データ106の露
出の値を用い、例えば露出が基準値より小さい場合、図
13の閾値を変更して全体的に明るい補正がなされやす
いようにすると、暗く撮影された画像を適度な明るさに
補正することができる。また一方で、露出の値が大きい
場合、露出オーバーになる可能性があるので、全体的に
明るさを下げるように図13の閾値をそれに合わせて設
定変更すればよい。
That is, the HLP and S12 shown in FIG.
8. The SDP threshold value is set using the exposure value of the shooting condition data 106. For example, when the exposure value is smaller than the reference value, the threshold value in FIG. The captured image can be corrected to have an appropriate brightness. On the other hand, if the exposure value is large, there is a possibility of overexposure. Therefore, the threshold value in FIG. 13 may be changed accordingly so that the brightness is lowered as a whole.

【0159】<デジタルズームON/OFF情報>とこ
ろで、近年のデジタルスチルカメラは光学的に被写体を
ズームイン/アウトするほかに、デジタル処理を加える
ことにより、画像の拡大処理を行うことができる。デジ
タルズームは画像サイズを単純に有利数倍するものが多
く、輪郭部分が見た目にガタガタになりやすくなる(ジ
ャギー)。また拡大方法にはニアレストネイバー法、バ
イリニア法、バイキュービック法といった手法が一般に
用いられている。
<Digital Zoom ON / OFF Information> By the way, recent digital still cameras can perform image enlargement processing by adding digital processing in addition to optically zooming in / out an object. In many cases, the digital zoom simply multiplies the image size by an advantage, and the outline tends to rattling (jaggies). Further, methods such as the nearest neighbor method, the bilinear method, and the bicubic method are generally used as the expansion method.

【0160】撮影条件データ106にデジタルズームの
倍率や拡大処理法などが書き込まれた場合、それらを元
に画像に対して輪郭を滑らかに処理するスムージング処
理を行ってもよい。例えば特開平11−331565で
発案されたように低解像度の画像に拡大処理を行い、高
解像度に仕上げる方法が知られている。一方、そのよう
なスムージング処理の係数(処理度合い)はデジタルズ
ームの倍率や拡大処理方法によって可変に行うのが望ま
しい。つまりデジタルズームの倍率が低いほど、スムー
ジングの度合いを弱めたり、拡大処理の雑なニアレスト
ネイバー法では逆にスムージングの度合いを強めてもい
い。この一連の処理を図19に示す。
When the digital zoom magnification and enlargement processing method are written in the photographing condition data 106, smoothing processing for smoothing the contour of the image may be performed based on them. For example, there is known a method of enlarging a low-resolution image to obtain a high-resolution image as proposed in Japanese Patent Laid-Open No. 11-331565. On the other hand, it is desirable that the coefficient (processing degree) of such smoothing processing is variably changed according to the magnification of the digital zoom and the enlargement processing method. That is, the lower the digital zoom magnification, the weaker the degree of smoothing, or the nearest neighbor method, which involves coarse enlargement processing, the degree of smoothing may be increased. This series of processing is shown in FIG.

【0161】<ストロボ発光ON/OFF情報>また、
撮影条件データ106よりストロボが発光したという情
報を得た場合、上記と同様に濃度補正処理の内容を変更
してもよい。例えば図13に示したテーブルの他に、ス
トロボ発光用のテーブルをもう一つ設け、ストロボがO
FFの場合は従来の図13のテーブルを用いるが、スト
ロボがONの場合には新しい別のテーブルを用いること
で、より精度の高い画像補正が可能になる。
<Strobe light emission ON / OFF information>
When the information that the flash fired is obtained from the shooting condition data 106, the content of the density correction processing may be changed as described above. For example, in addition to the table shown in FIG. 13, another table for strobe light emission is provided so that the strobe light is
In the case of FF, the conventional table of FIG. 13 is used, but when the strobe is ON, a new new table is used, so that more accurate image correction can be performed.

【0162】ストロボ撮影の場合は、主に夜景撮影や暗
室撮影などといったように、画像全体が暗く撮影されが
ちである。この場合、明るく補正されやすいようにテー
ブルの閾値を変更する必要がある。また、ストロボに反
射された被写体は青白く写る傾向がある。この場合、被
写体を色味的に黄色く明るさを押さえる補正を加えると
よい。一方で、被写体の背景はストロボの光が届かず、
暗く階調がつぶれた画像になりがちである。つまり、階
調の低い部分は輝度を上げて階調を出す処理が必要にな
る。
In the case of stroboscopic photography, the entire image tends to be photographed darkly, such as in a night scene photography or dark room photography. In this case, it is necessary to change the threshold value of the table so that the brightness can be easily corrected. Also, the subject reflected by the strobe tends to appear pale. In this case, it is preferable to add a correction that suppresses the brightness of the subject to be yellowish. On the other hand, the strobe light does not reach the background of the subject,
The image tends to be dark and the gradation is lost. In other words, it is necessary to increase the brightness of the low gradation portion to generate gradation.

【0163】こうした処理を加えることで、撮影時にス
トロボ発光された画像に関して最適な処理を行うことが
できる。
By adding such processing, optimum processing can be performed on an image which is stroboscopically emitted at the time of photographing.

【0164】<撮影シーン情報>被写体によって撮影モ
ード(風景モード、人物モード、マクロ撮影モードなど
が挙げられる)を切り替えたときに、撮影条件データ1
06に撮影シーン情報が付加される場合を考える。その
場合、その情報を元により最適な記憶色再現補正を行う
ことができる。例えば風景モードの場合、空や草木が主
な被写体になりうる。そこで図3S30の画像補正処理
部で、青や緑の彩度を上げ、コントラストを高める処理
を行ってもよい。また、シャープネスフィルタを施すこ
とによって、風景画像をより見栄えのする画像に仕上げ
ることができる。彩度を上げる場合、各色相毎に彩度拡
張係数を求め、元の彩度値にこの係数を掛け合わせるこ
とで、彩度補正を行うと少ないメモリ量で効果を上げる
ことができる。
<Shooting scene information> Shooting condition data 1 when shooting modes (landscape mode, portrait mode, macro shooting mode, etc.) are switched depending on the subject.
Consider the case where shooting scene information is added to 06. In that case, the optimum memory color reproduction correction can be performed based on the information. For example, in the landscape mode, the sky and plants can be the main subjects. Therefore, the image correction processing unit in S30 of FIG. 3 may perform processing of increasing the saturation of blue or green and increasing the contrast. Further, by applying the sharpness filter, the landscape image can be finished into a more attractive image. When increasing the saturation, a saturation expansion coefficient is obtained for each hue, and the original saturation value is multiplied by this coefficient, whereby the effect can be obtained with a small memory amount when the saturation correction is performed.

【0165】一方で、人物モード撮影の場合、図3S3
0の画像補正処理部で肌色領域の彩度、輝度をより好ま
しい色に補正する処理を追加してもよい。また、ぼかし
フィルタを用いて画像全体をぼかすのも、人物画像をよ
りきれいに見せるための方法の一つでもあり、撮影条件
データを用いることで自動処理が可能となる。
On the other hand, in the case of portrait mode photography, FIG.
An image correction processing unit of 0 may add processing for correcting saturation and luminance of the skin color region to a more preferable color. Further, blurring the entire image using a blurring filter is also one of the methods for making a person image look more beautiful, and automatic processing can be performed by using shooting condition data.

【0166】上述した実施の形態では、ホワイトバラン
ス、露出、ストロボ、撮影シーン及びデジタルズームな
どの撮影条件データを読みとった場合の補正方法を説明
してきた。しかしながら、複数の画像補正処理を行うと
同様の処理が重複してしまったり、先の補正で強調した
部分を次の補正では弱めてしまったりする場合がある。
In the above-described embodiment, the correction method when the photographing condition data such as white balance, exposure, flash, photographing scene and digital zoom is read has been described. However, when a plurality of image correction processes are performed, the same process may be duplicated, or the portion emphasized in the previous correction may be weakened in the next correction.

【0167】例えば上述したカラーバランス補正と濃度
補正では、両方にハイライトポイントとシャドーポイン
トを用いたコントラスト強調処理が含まれている。この
ような場合、1度で十分なコントラスト処理を2度かけ
てしまうことになり、ユーザの意図に反する画像に仕上
がってしまう。
For example, the above-described color balance correction and density correction both include contrast enhancement processing using highlight points and shadow points. In such a case, a sufficient degree of contrast processing is performed twice, resulting in an image that is contrary to the user's intention.

【0168】また、デジタルズーム情報より画像にスム
ージングをかけても、撮影シーン情報が風景モードの場
合、その後にシャープネスフィルタをかけてしまうと、
先のスムージング処理の効果を打ち消してしまう。
Even if the image is smoothed by the digital zoom information, if the shooting scene information is the landscape mode, if the sharpness filter is applied after that,
It negates the effect of the previous smoothing process.

【0169】こういった複数の処理を一つの画像にかけ
ることによる弊害を防ぐため、処理に規制をかける必要
がある。本実施例では、各画像補正処理の順番に優先順
位をつける。
In order to prevent the harmful effect of applying such a plurality of processes to one image, it is necessary to restrict the process. In this embodiment, the order of each image correction process is prioritized.

【0170】まずはじめに図20に示すように、カラー
バランス情報、露出情報、ストロボ情報、撮影シーン情
報、デジタルズーム情報のそれぞれに対し、どの判定が
なされたかをメモリ部に格納する。
First, as shown in FIG. 20, which judgment is made for each of the color balance information, exposure information, strobe information, photographic scene information, and digital zoom information is stored in the memory section.

【0171】次に図20S1で、デジタルズーム情報に
よりスムージング処理を行う。低解像度の画像を高解像
度にするこの処理は、画像全体の色味や明るさに影響を
及ぼさないと考えられるので、最初に行うのが望まし
い。
Next, in FIG. 20S1, smoothing processing is performed using the digital zoom information. This process of converting a low-resolution image into a high-resolution image is considered to have no effect on the tint and brightness of the entire image, and is therefore preferably performed first.

【0172】次に図20S2で、露出情報より判定され
た明るさ補正の度合いから、コントラストが強調される
判定がなされた場合、最初に補正処理を行うカラーバラ
ンス補正のうちのコントラスト補正は行わない。一方、
明るさ補正で単なるガンマ補正のみ行うと判定された場
合(コントラスト強調は行われない場合)、カラーバラ
ンス補正のうちコントラスト補正は行う。こうすること
で、コントラスト補正が明るさ補正とカラーバランス補
正の両方で2重にかかるのを防ぐことができる。
Next, in FIG. 20S2, when it is determined that the contrast is emphasized based on the degree of the brightness correction determined from the exposure information, the contrast correction of the color balance correction that first performs the correction processing is not performed. . on the other hand,
When it is determined that only the gamma correction is to be performed in the brightness correction (when the contrast enhancement is not performed), the contrast correction of the color balance correction is performed. By doing so, it is possible to prevent the contrast correction from being duplicated in both the brightness correction and the color balance correction.

【0173】次に図20S3で明るさ補正を行うが、ス
トロボ情報がONかOFFかを参照し、ONならば明る
さ補正のテーブルはストロボ用のテーブルを参照、OF
Fなら図13に示す従来のテーブルを参照する。こうす
ることで、露出、ストロボ情報から得られた最適な明る
さ補正を画像に施すことができる。
Next, brightness correction is performed in FIG. 20S3. It is checked whether strobe information is ON or OFF. If ON, refer to the strobe table for the brightness correction table. OF
If it is F, the conventional table shown in FIG. 13 is referred to. By doing so, the optimum brightness correction obtained from the exposure and flash information can be applied to the image.

【0174】最後に図20S4で、撮影シーン情報を元
に記憶色再現補正を行う。ここではカラーバランス補正
において彩度調整を行った場合、彩度拡張係数をそれに
合わせて小さく設定してもよい。また、デジタルズーム
補正でスムージングの度合いが大きい場合、人物モード
でぼかしをかける度合いも小さく設定するべきである。
Finally, in step S4 of FIG. 20, memory color reproduction correction is performed based on the shooting scene information. Here, when the saturation adjustment is performed in the color balance correction, the saturation expansion coefficient may be set to be small accordingly. Further, when the degree of smoothing is large in the digital zoom correction, the degree of blurring in the portrait mode should also be set small.

【0175】こうして複数の画像補正処理を行う場合、
それぞれの処理を行う順番に優先順位をつけ、また諸条
件において処理に重み付けをし、ある補正処理を行うと
別の処理は行わないといった制約事項を設けることで、
最終的に無理、無駄のない画像補正ができる。
When performing a plurality of image correction processes in this way,
By prioritizing the order in which each processing is performed, weighting the processing under various conditions, and providing a constraint that if a certain correction processing is performed, another processing is not performed,
Finally, it is possible to correct the image without any waste.

【0176】<その他の実施例>尚、上記実施形態では
撮影条件情報を画面表示するようにしたが、これに限ら
れることはなく、例えば、所定ランプの点灯/消灯等に
より、撮影条件情報が正しく認識利用されていることを
示すようにしてもよい。
<Other Examples> In the above embodiment, the photographing condition information is displayed on the screen. However, the present invention is not limited to this, and the photographing condition information can be displayed, for example, by turning on / off a predetermined lamp. You may make it show that it is correctly recognized and utilized.

【0177】また、本発明は、要旨を逸脱しない範囲で
種種変形実施可能なものとなる。
The present invention can be variously modified and implemented without departing from the scope of the invention.

【0178】また、上記実施の形態では、画像の入力手
段(取得手段)として、ディジタルスチルカメラを一例
として用いるように構成したが、これに限られたもので
はなく、例えば、ディジタルビデオカメラや、イメージ
スキャナ、或いはフィルムスキャナ等の入力機器を適用
可能である。
In the above embodiment, the digital still camera is used as an example of the image input means (acquisition means), but the present invention is not limited to this. For example, a digital video camera, An input device such as an image scanner or a film scanner can be applied.

【0179】また、本発明は、ホスト及び端末の機能を
実現するソフトウェアのプログラムコードを記憶した記
憶媒体を、システム或いは装置に供給し、そのシステム
或いは装置のコンピュータ(又はCPUやMPU)が記
憶媒体に格納されたプログラムコードを読みだして実行
することによっても、達成されることは言うまでもな
い。
Further, according to the present invention, a storage medium storing a program code of software for realizing the functions of a host and a terminal is supplied to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can be achieved by reading out and executing the program code stored in.

【0180】この場合、記憶媒体から読み出されたプロ
グラムコード自体が本発明の機能を実現することとな
り、そのプログラムコードを記憶した記憶媒体及び当該
プログラムコードは本発明を構成することとなる。
In this case, the program code itself read from the storage medium realizes the functions of the present invention, and the storage medium storing the program code and the program code constitute the present invention.

【0181】プログラムコードを供給するための記憶媒
体としては、ROM、フレキシブルディスク、ハードデ
ィスク、光ディスク、光磁気ディスク、CD−ROM、
CD−R、磁気テープ、不揮発性のメモリカード等を用
いることができる。
As a storage medium for supplying the program code, ROM, flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM,
A CD-R, a magnetic tape, a non-volatile memory card, etc. can be used.

【0182】また、コンピュータが読みだしたプログラ
ムコードを実行することにより、本発明の機能が実現さ
れるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼動しているOS等が実際の処理
の一部又は全部を行い、その処理によって本発明の機能
が実現される場合も含まれることは言うまでもない。
Moreover, not only the functions of the present invention are realized by executing the program code read by the computer, but also the OS or the like running on the computer is actually executed based on the instruction of the program code. It goes without saying that a case where a part or all of the processing is performed and the functions of the present invention are realized by the processing is also included.

【0183】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された拡張機能ボー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、そのプログラムコードの指
示に基づき、その機能拡張ボードや機能拡張ユニットに
備わるCPUなどが実際の処理の一部又は全部を行い、
その処理によって本発明の機能が実現される場合も含ま
れることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the extended function board inserted in the computer or the extended function unit connected to the computer, based on the instruction of the program code, A CPU provided in the function expansion board or function expansion unit performs a part or all of the actual processing,
It goes without saying that the processing includes the case where the function of the present invention is realized.

【0184】図21は、上記コンピュータの機能600
を示したものである。
FIG. 21 shows the function 600 of the computer.
Is shown.

【0185】コンピュータ機能600は、上記図21に
示すように、CPU601と、ROM602と、RAM
603と、キーボード(KB)609のキーボードコン
トローラ(KBC)605と、表示部としてのCRTデ
ィスプレイ(CRT)610のCRTコントローラ(C
RTC)606と、ハードディスク(HD)611及び
フレキシブルディスク(FD)612のディスクコント
ローラ(DKC)607と、ネットワーク620との接
続のためのネットワークインターフェースコントローラ
(NIC)608とが、システムバス604を介して互
いに通信可能に接続された構成としている。
As shown in FIG. 21, the computer function 600 includes a CPU 601, a ROM 602, and a RAM.
603, a keyboard controller (KBC) 605 of a keyboard (KB) 609, and a CRT controller (C of a CRT display (CRT) 610 as a display unit).
An RTC) 606, a disk controller (DKC) 607 of a hard disk (HD) 611 and a flexible disk (FD) 612, and a network interface controller (NIC) 608 for connection with a network 620 via a system bus 604. It is configured so that they can communicate with each other.

【0186】CPU601は、ROM602或いはHD
611に記憶されたソフトウェア、或いはFD612よ
り供給されるソフトウェアを実行することで、システム
バス604に接続された各構成部を総括的に制御する。
The CPU 601 is a ROM 602 or HD.
By executing the software stored in 611 or the software supplied from FD612, each component connected to the system bus 604 is comprehensively controlled.

【0187】すなわち、CPU601は、所定の処理シ
ーケンスに従った処理プログラムを、ROM602、或
いはHD611、或いはFD612から読み出して実行
することで、本実施の形態での動作を実現するための制
御を行う。
That is, the CPU 601 performs control for realizing the operation in the present embodiment by reading a processing program according to a predetermined processing sequence from the ROM 602, the HD 611, or the FD 612 and executing it.

【0188】RAM603は、CPU601の主メモリ
或いはワークエリア等として機能する。
The RAM 603 functions as the main memory or work area of the CPU 601.

【0189】KBC605は、KB609や図示してい
ないポインティングデバイス等からの指示入力を制御す
る。
The KBC 605 controls instruction input from the KB 609 or a pointing device (not shown).

【0190】CRTC606は、CRT610の表示を
制御する。
The CRTC 606 controls the display of the CRT 610.

【0191】DKC607は、ブートプログラム、種々
のアプリケーション、編集ファイル、ユーザファイル、
ネットワーク管理プログラム、及び本実施の形態におけ
る所定の処理プログラム等を記憶するHD611及びF
D612とのアクセスを制御する。
The DKC 607 includes a boot program, various applications, edit files, user files,
The HD 611 and F that store the network management program and the predetermined processing program and the like according to the present embodiment
Control access to D612.

【0192】NIC608は、ネットワーク620上の
装置或いはシステムと双方向にデータをやりとりする。
The NIC 608 bidirectionally exchanges data with a device or system on the network 620.

【0193】[0193]

【発明の効果】以上説明したように本発明では、処理対
象の画像情報(ディジタルスチルカメラにより撮影して
得られた画像情報等)に対して付加された条件情報(撮
影条件情報等)を解析した結果に基づいて、当該画像情
報に対して画像処理(画像補正処理等)を施すように構
成した。これにより、画像取得時の状況に応じた画像処
理を行うことができ、ユーザが意図する良好な処理後画
像を提供することができる。
As described above, according to the present invention, condition information (imaging condition information, etc.) added to image information to be processed (image information obtained by photographing with a digital still camera) is analyzed. Based on the result, image processing (image correction processing, etc.) is performed on the image information. Accordingly, it is possible to perform image processing according to the situation at the time of image acquisition, and it is possible to provide a good processed image intended by the user.

【0194】例えば、ディジタルスチルカメラにおい
て、ホワイトバランス情報を元にカラーバランス補正を
行い、露出情報を元に明るさ補正を行う。また、ストロ
ボ発光がON/OFFによりそれに応じた補正テーブル
を用いて明るさ補正を行い、デジタルズーム情報を元に
画像のスムージング処理を行う。そして撮影シーン情報
を元に例えば風景、人物モードに応じた記憶色再現処理
を行う。このようにして、画像データを元にヒストグラ
ム解析するだけの、従来の補正方法に比べ、より詳細な
情報を元に画像に最適な補正を行うことができる。
For example, in a digital still camera, color balance correction is performed based on white balance information, and brightness correction is performed based on exposure information. Also, the brightness correction is performed by using the correction table corresponding to the ON / OFF of the strobe emission, and the image smoothing process is performed based on the digital zoom information. Then, based on the photographed scene information, a memory color reproduction process according to, for example, a landscape or a person mode is performed. In this way, it is possible to perform the optimum correction on the image based on more detailed information, as compared with the conventional correction method that only analyzes the histogram based on the image data.

【0195】また、複数の処理を行う場合、同様の処理
の重複や先に行った強調処理を後の処理で弱めてしまう
といった弊害をなくすため、複数の処理に対して優先順
位を設け、それぞれの処理の重み付けを行うことで無駄
のない最適な画像補正処理を行うことができる。
Further, when performing a plurality of processes, in order to eliminate the adverse effects such as duplication of similar processes and weakening of the previously performed emphasis process, the priority is set for each of the plurality of processes. By weighting the processing of, it is possible to perform optimal image correction processing without waste.

【0196】このように、本発明によれば、画像情報の
取得時の条件を示す情報により、高精度な自動画像補正
を実現することができ、撮影時の意図を、より反映した
高品質の処理後画像を提供することができる。
As described above, according to the present invention, highly accurate automatic image correction can be realized by the information indicating the condition at the time of acquisition of the image information, and the high quality which more reflects the intention at the time of photographing. The processed image can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施の形態において、本発明を適用した
画像印刷システムの構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image printing system to which the present invention has been applied in a first embodiment.

【図2】RGB画像信号をYCC信号に変換し、画像処
理を行い、再びRGB信号に変換する図である。
FIG. 2 is a diagram in which an RGB image signal is converted into a YCC signal, image processing is performed, and the RGB signal is converted into an RGB signal again.

【図3】画像補正処理部の処理手順のフローチャートで
ある。
FIG. 3 is a flowchart of a processing procedure of an image correction processing unit.

【図4】輝度ヒストグラム作成手順のフローチャートで
ある。
FIG. 4 is a flowchart of a luminance histogram creation procedure.

【図5】実施例における色バランス補正の原理を説明す
るための色立体図で(a)は理想的な色立体図(b)は
該画像の色バランス補正前の色立体図である。
5A and 5B are color stereograms for explaining the principle of color balance correction in the embodiment, where FIG. 5A is an ideal color stereogram and FIG. 5B is a color stereogram before color balance correction of the image.

【図6】非線形ガンマ変換関数を示すグラフである。FIG. 6 is a graph showing a non-linear gamma conversion function.

【図7】輝度−彩度平面でみた露出オーバー・アンダー
の特徴を示す図で、(a)は露出オーバーの概念図、
(b)は露出アンダーの概念図、(c)は露出オーバー
の一例、(d)は露出アンダーの一例
FIG. 7 is a diagram showing the characteristics of overexposure / underexposure viewed from the luminance-saturation plane, (a) is a conceptual diagram of overexposure,
(B) is a conceptual diagram of underexposure, (c) is an example of overexposure, (d) is an example of underexposure

【図8】第3の実施の形態における色立体軸を決める様
子を示す図である。
FIG. 8 is a diagram showing a manner of determining a color solid axis in the third embodiment.

【図9】画像補正の制御手順のフローチャートである。FIG. 9 is a flowchart of a control procedure of image correction.

【図10】第2の実施形態における色かぶり補正の制御
手順のフローチャートである。
FIG. 10 is a flowchart of a control procedure for color cast correction according to the second embodiment.

【図11】上記自動階調補正処理の手順を示すフローチ
ャートである。
FIG. 11 is a flowchart showing a procedure of the automatic gradation correction processing.

【図12】図11に示す上記自動階調補正処理における
階調曲線判定の処理手順を示すフローチャートである。
12 is a flowchart showing a processing procedure of gradation curve determination in the automatic gradation correction processing shown in FIG.

【図13】上記階調曲線判定処理で用いるテーブルの内
容を示し、画像の種類に応じた階調曲線の定め方を説明
する図である。
FIG. 13 is a diagram showing the contents of a table used in the gradation curve determination processing and explaining how to define a gradation curve according to the type of image.

【図14】上記自動階調補正処理の処理対象である画像
が明るい画像である場合のヒストグラムを示す図であ
る。
FIG. 14 is a diagram showing a histogram when an image to be processed by the automatic gradation correction process is a bright image.

【図15】上記自動階調補正処理の処理対象である画像
の明るさが中間的な画像である場合のヒストグラムを示
す図である。
FIG. 15 is a diagram showing a histogram in the case where the brightness of the image that is the processing target of the automatic gradation correction processing is an intermediate image.

【図16】上記自動階調補正処理の処理対象である画像
が暗い画像である場合のヒストグラムを示す図である。
FIG. 16 is a diagram showing a histogram when an image to be processed by the automatic gradation correction process is a dark image.

【図17】γ値に応じた輝度補正テーブルの変換特性曲
線(指数関数)を示す図である。
FIG. 17 is a diagram showing a conversion characteristic curve (exponential function) of a brightness correction table according to a γ value.

【図18】単なるγ補正以外の、輝度補正テーブルの変
換特性曲線(5次曲線)を示す図である。
FIG. 18 is a diagram showing a conversion characteristic curve (quintic curve) of a brightness correction table other than simple γ correction.

【図19】デジタルズーム情報を元にスムージング処理
を行うフローチャートである。
FIG. 19 is a flowchart for performing smoothing processing based on digital zoom information.

【図20】撮影条件データより、複数の画像補正処理を
行う制約を示したフローチャートである。
FIG. 20 is a flowchart showing restrictions on performing a plurality of image correction processes based on shooting condition data.

【図21】コンピュータの機能を示した図である。FIG. 21 is a diagram showing functions of a computer.

【符号の説明】[Explanation of symbols]

101 ディジタルスチルカメラ 102 撮影条件設定部 103 撮影条件記録部 104 撮影画像記録部 105 画像データ 106 撮影条件データ 107 撮影画像データ 108 画像処理装置 109 リーダ部 110 データ解析部 111 撮影条件解析部 112 撮影画像解析部 113 画像補正処理部 114 印刷データ変換部 115 プリンタ 101 digital still camera 102 Shooting condition setting section 103 Shooting condition recording section 104 Captured image recording section 105 image data 106 Shooting condition data 107 Captured image data 108 image processing device 109 Reader unit 110 Data Analysis Department 111 Imaging condition analysis unit 112 Captured image analysis unit 113 Image correction processing unit 114 print data converter 115 Printer

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/60 H04N 1/46 Z 9/73 1/40 101D 9/79 9/79 H (72)発明者 山添 学 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 藤田 貴志 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 鳥越 真 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 溝口 茂 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 Fターム(参考) 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE03 CE05 CE11 CE17 DA17 DB02 DB06 DB09 DC23 5C055 BA06 BA08 CA16 EA02 EA03 EA04 EA05 EA06 HA16 HA17 HA37 5C066 AA01 AA05 CA17 EA14 EC02 EE03 GA01 GA02 GA05 KM01 5C077 MP08 PP02 PP15 PP32 PP37 PP52 PP53 PQ08 PQ12 PQ19 PQ22 5C079 HB01 LA02 LA12 LA14 LA23 LA31 MA01 MA11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 1/60 H04N 1/46 Z 9/73 1/40 101D 9/79 9/79 H (72) Invention Gaku Yamazoe 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Takashi Fujita 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Shin Torikoshi Tokyo 3-30-2 Shimomaruko, Ota-ku, Canon Inc. (72) Inventor Shigeru Mizoguchi 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. F-term (reference) 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE03 CE05 CE11 CE17 DA17 DB02 DB06 DB09 DC23 5C055 BA06 BA08 CA16 EA02 EA03 EA04 EA05 EA06 HA16 HA17 HA37 5C066 AA01 AA05 CA17 EA14 EC02 EE03 GA01 GA02 GA05 KM01 5C077 MP08 15 PP32 PP37 PP52 PP53 PQ08 PQ12 PQ19 PQ22 5C079 HB01 LA02 LA12 LA14 LA23 LA31 MA01 MA11

Claims (34)

【特許請求の範囲】[Claims] 【請求項1】 画像取得時の条件情報を含む画像情報に
対して画像処理を施す画像処理装置であって、 上記条件情報を解析する解析手段と、 上記解析手段の解析結果に基づいて、カラーバランスの
度合いを示す値に応じて画像の色補正量を求め、明るさ
の度合いを示す値に応じて画像の明るさ補正量を求め、
ズームに関する値に応じて画像のスムージング補正量を
求める処理決定手段とを備えることを特徴とする画像処
理装置。
1. An image processing apparatus for performing image processing on image information including condition information at the time of image acquisition, comprising: analyzing means for analyzing the condition information; and color analysis based on an analysis result of the analyzing means. The color correction amount of the image is obtained according to the value indicating the degree of balance, and the brightness correction amount of the image is obtained according to the value indicating the degree of brightness.
An image processing apparatus, comprising: a process determining unit that obtains a smoothing correction amount of an image according to a value related to zoom.
【請求項2】 上記処理決定手段で決定された画像処理
を上記画像情報に施す処理手段と、 上記処理手段による処理後の画像情報を出力する出力手
段とを備えることを特徴とする請求項1記載の画像処理
装置。
2. A processing means for subjecting the image information to the image processing determined by the processing determining means, and an output means for outputting the image information processed by the processing means. The image processing device described.
【請求項3】 上記出力手段は、印刷出力機能を含むこ
とを特徴とする請求項2記載の画像処理装置。
3. The image processing apparatus according to claim 2, wherein the output unit includes a print output function.
【請求項4】 上記画像の色の補正量を求める処理は、
原画像のハイライトポイントおよびシャドーポイントの
明るさを検出し、前記明るさを有する複数の画素から、
前記ハイライトポイントおよびシャドーポイントの色み
を求め、 前記ハイライトポイント、前記シャドーポイントおよび
前記色みに基づき、前記原画像に対して色補正処理を行
うことを特徴とする請求項1記載の画像処理装置。
4. The process of obtaining the correction amount of the color of the image is
The brightness of the highlight point and the shadow point of the original image is detected, and from the plurality of pixels having the brightness,
2. The image according to claim 1, wherein the color tones of the highlight point and the shadow point are obtained, and color correction processing is performed on the original image based on the highlight point, the shadow point and the color tone. Processing equipment.
【請求項5】 前記色補正処理は、前記原画像の色立体
軸を明るさを示す軸に合わせるとともに、前記原画像の
明るさを示す色成分に対してコントラスト調整を行うこ
とを特徴とする請求項4記載の画像処理装置。
5. The color correction process is characterized in that a color solid axis of the original image is adjusted to an axis indicating brightness, and contrast adjustment is performed on a color component indicating brightness of the original image. The image processing apparatus according to claim 4.
【請求項6】 前記色補正処理は、前記原画像の色みを
示す色成分に対して補正処理を行い、原画像の彩度を調
整することを特徴とする請求項4または5に記載の画像
処理装置。
6. The color correction process according to claim 4, wherein the color component indicating the tint of the original image is corrected to adjust the saturation of the original image. Image processing device.
【請求項7】 さらに、原画像の明るさを示す色成分に
基づきヒストグラムを作成し、 前記ヒストグラムに基づき前記ハイライトポイントおよ
びシャドーポイントを検出することを特徴とする請求項
4記載の画像処理装置。
7. The image processing apparatus according to claim 4, wherein a histogram is created based on a color component indicating the brightness of the original image, and the highlight point and the shadow point are detected based on the histogram. .
【請求項8】 原画像の色立体軸を検出し、 前記色立体軸と色立体を示す色空間内の明るさを示す軸
との位置関係から前記原画像の露出状態を判定し、 前記判定結果に応じた画像補正条件を設定することを特
徴とする画像処理方法。
8. The color solid axis of the original image is detected, the exposure state of the original image is judged from the positional relationship between the color solid axis and the axis showing the brightness in the color space showing the color solid, and the judgment is made. An image processing method characterized by setting an image correction condition according to a result.
【請求項9】 前記画像補正条件は、前記原画像の明る
さを示す成分に対してコントラスト調整を行うための条
件であることを特徴とする請求項8記載の画像処理方
法。
9. The image processing method according to claim 8, wherein the image correction condition is a condition for performing contrast adjustment on a component indicating the brightness of the original image.
【請求項10】 原画像に対して、原画像の色分布に応
じた画像補正処理を行う画像処理方法であって、 所定の色空間において原画像の色立体軸を検出し、 前記色空間における前記色立体軸の位置関係に基づき、
前記画像補正処理を制御することを特徴とする画像処理
方法。
10. An image processing method for performing image correction processing on an original image according to a color distribution of the original image, comprising detecting a color solid axis of the original image in a predetermined color space, Based on the positional relationship of the color solid axis,
An image processing method comprising controlling the image correction process.
【請求項11】 上記画像の明るさ補正量を求める処理
決定手段は、画像データが示す画像の明るさに関する成
分の値の画素数に関するヒストグラムから前記画像の明
るさの分布を判別し、 該判別に基づいて、複数の階調補正条件の中から一つを
自動的に選択し、 前記前記選択された階調補正条件を用いて、明るさに関
する成分を補正することを特徴とする画像処理方法。
11. The process determining means for determining the brightness correction amount of the image determines the distribution of the brightness of the image from a histogram concerning the number of pixels of the value of the component concerning the brightness of the image indicated by the image data, Based on the above, one of a plurality of gradation correction conditions is automatically selected, and the component relating to the brightness is corrected using the selected gradation correction condition. .
【請求項12】 前記画像の明るさの分布は、前記ヒス
トグラムにおける所定範囲の累積度数に基づき判定され
ることを特徴とする請求項11記載の画像処理方法。
12. The image processing method according to claim 11, wherein the distribution of the brightness of the image is determined based on the cumulative frequency of a predetermined range in the histogram.
【請求項13】 前記画像の明るさの分布は、前記所定
範囲の累積度数が前記ヒストグラムの全画素数に占める
割合に基づいて判別されることを特徴とする請求項12
記載の画像処理方法。
13. The brightness distribution of the image is determined based on a ratio of the cumulative frequency of the predetermined range to the total number of pixels of the histogram.
The described image processing method.
【請求項14】 前記階調補正条件は、前記画像のハイ
ライトポイントおよびシャドーポイントおよび前記画像
の明るさの分布の組み合わせに基づき選択されることを
特徴とする請求項11記載の画像処理方法。
14. The image processing method according to claim 11, wherein the gradation correction condition is selected based on a combination of a highlight point and a shadow point of the image and a distribution of brightness of the image.
【請求項15】 前記ヒストグラムにおけるハイライト
領域の割合が多い場合に濃度を上げ、シャドー領域の割
合が多い場合には濃度を下げ、ヒストグラム幅が狭けれ
ばダイナミックレンジを広げるようにすることを特徴と
する請求項11記載の画像処理方法。
15. The density is increased when the ratio of highlight areas in the histogram is large, the density is decreased when the ratio of shadow areas is large, and the dynamic range is expanded when the histogram width is narrow. The image processing method according to claim 11.
【請求項16】 前記ハイライト領域の割合が大きい場
合は、前記ハイライト領域の割合が小さい場合に比べて
濃度の上げ具合を大きく、 前記シャドー領域の割合が大きい場合は、前記シャドー
領域の割合が小さい場合に比べて濃度の下げ具合を大き
く、 前記ヒストグラム幅が小さい場合は、前記ヒストグラム
幅が大きい場合に比べてダイナミックレンジの広げ具合
を大きくすることを特徴とする請求項15記載の画像処
理方法。
16. When the proportion of the highlight area is large, the degree of density increase is large as compared with the case where the proportion of the highlight area is small, and when the proportion of the shadow area is large, the proportion of the shadow area 16. The image processing according to claim 15, wherein the degree of lowering the density is larger than that when the histogram width is small, and the degree of widening the dynamic range is larger when the histogram width is smaller than when the histogram width is large. Method.
【請求項17】 上記画像情報は、ディジタルスチルカ
メラにより得られた画像情報を含むことを特徴とする請
求項1記載の画像処理装置。
17. The image processing apparatus according to claim 1, wherein the image information includes image information obtained by a digital still camera.
【請求項18】 上記画像情報は、撮影画像情報を含
み、 上記条件情報は、上記撮影画像情報取得時における露
出、ストロボ、ホワイトバランス、撮影モード及びデジ
タルズームの少なくとも何れかの情報を含むことを特徴
とする請求項1記載の画像処理装置。
18. The image information includes photographed image information, and the condition information includes at least one of exposure, strobe, white balance, photographing mode, and digital zoom when the photographed image information is acquired. The image processing apparatus according to claim 1.
【請求項19】 上記条件情報に関する情報を提示する
提示手段を備えることを特徴とする請求項1記載の画像
処理装置。
19. The image processing apparatus according to claim 1, further comprising a presentation unit that presents information regarding the condition information.
【請求項20】 上記提示手段は、上記条件情報が付加
された画像情報の処理タイミングに基づいて、上記条件
情報に関する情報を提示することを特徴とする請求項7
記載の画像処理装置。
20. The presenting means presents information about the condition information based on a processing timing of the image information to which the condition information is added.
The image processing device described.
【請求項21】 上記解析手段は、上記画像情報を解析
する機能を有することを特徴とする請求項1記載の画像
処理装置。
21. The image processing apparatus according to claim 1, wherein the analysis means has a function of analyzing the image information.
【請求項22】 上記処理決定手段は、複数の画像情報
を取得し、それらに対応する複数の処理を行う場合、複
数の処理を行う優先順位を設定することを特徴とする請
求項1記載の画像処理装置。
22. The process determining means, when acquiring a plurality of image information and performing a plurality of processes corresponding thereto, sets a priority order for performing the plurality of processes. Image processing device.
【請求項23】 複数の機器が互いに通信可能に接続さ
れてなる画像処理システムであって、 上記複数の機器のうち少なくとも1つの機器は、請求項
1〜22の何れかに記載の画像処理装置の機能を有する
ことを特徴とする画像処理システム。
23. An image processing system comprising a plurality of devices communicably connected to each other, wherein at least one device of the plurality of devices is an image processing device according to any one of claims 1 to 22. An image processing system having the function of.
【請求項24】 画像取得時の条件情報を含む画像情報
に対して画像処理を施すための画像処理方法であって、 上記条件情報を解析する解析ステップと、 上記解析ステップによる解析結果に基づいて、カラーバ
ランスの度合いを示す値に応じて画像の色補正量を求
め、明るさの度合いを示す値に応じて画像の明るさ補正
量を求め、ズームを示す値に応じて画像のスムージング
補正量を求める処理決定ステップとを含むことを特徴と
する画像処理方法。
24. An image processing method for performing image processing on image information including condition information at the time of image acquisition, comprising: an analysis step of analyzing the condition information; and an analysis result of the analysis step. , The color correction amount of the image is calculated according to the value indicating the degree of color balance, the brightness correction amount of the image is calculated according to the value indicating the degree of brightness, and the smoothing correction amount of the image is calculated according to the value indicating zoom. And a process determining step for obtaining
【請求項25】 画像取得時の条件情報を含む画像情報
へ画像補正処理を施して印刷処理するための画像処理方
法であって、 上記条件情報を解析する解析ステップと、 上記解析ステップによる解析結果に基づいて、カラーバ
ランスの度合いを示す値に応じて画像の色補正量を求
め、明るさの度合いを示す値に応じて画像の明るさ補正
量を求め、ズームに間する値に応じて画像のスムージン
グ補正量を求める画像補正条件を決定する画像補正条件
決定ステップと、 上記画像補正条件決定ステップにより決定された画像補
正条件に基いて、上記画像情報へ画像補正処理を施す画
像補正ステップと、 上記画像補正ステップによる処理後の画像情報を印刷処
理する印刷ステップとを含むことを特徴とする画像処理
方法。
25. An image processing method for performing image correction processing and print processing on image information including condition information at the time of image acquisition, comprising an analysis step of analyzing the condition information, and an analysis result by the analysis step. Based on, the color correction amount of the image is obtained according to the value indicating the degree of color balance, the brightness correction amount of the image is obtained according to the value indicating the degree of brightness, and the image correction amount is determined according to the value during the zoom. An image correction condition determination step for determining an image correction condition for obtaining a smoothing correction amount of, and an image correction step for performing image correction processing on the image information based on the image correction condition determined in the image correction condition determination step, A printing step of printing the image information processed by the image correction step.
【請求項26】 画像取得時の条件情報を含む画像情報
へ画像補正処理を施して印刷処理するための画像処理方
法であって、 上記条件情報を解析する解析ステップと、 上記解析ステップによる解析結果に基づいて、カラーバ
ランスの度合いを示す値に応じて画像の色補正量を求
め、明るさの度合いを示す値に応じて画像の明るさ補正
量を求め、ズームに関する値に応じて画像のスムージン
グ補正量を求める画像補正条件を決定する画像補正条件
決定ステップと、 上記画像補正条件決定ステップにより決定された画像補
正条件に基いて、上記画像情報へ画像補正処理を施す画
像補正ステップと、 上記画像補正ステップによる処理後の画像情報を印刷処
理する印刷ステップと、 上記画像補正ステップ及び上記印刷ステップの処理実行
タイミングに基いて、上記条件情報に対応する処理モー
ド情報を表示する表示ステップとを含むことを特徴とす
る画像処理方法。
26. An image processing method for performing image correction processing and printing processing on image information including condition information at the time of image acquisition, comprising an analysis step of analyzing the condition information, and an analysis result by the analysis step. Based on, the amount of color correction of the image is obtained according to the value indicating the degree of color balance, the amount of brightness correction of the image is obtained according to the value indicating the degree of brightness, and image smoothing is performed according to the value related to zoom. An image correction condition determination step for determining an image correction condition for obtaining a correction amount; an image correction step for performing an image correction process on the image information based on the image correction condition determined in the image correction condition determination step; A printing step for printing the image information after the processing by the correction step, and the processing execution timing of the image correction step and the printing step Based, the image processing method characterized by including a display step of displaying the processing mode information corresponding to the condition information.
【請求項27】 画像取得時の条件情報を含む画像情報
へ画像補正処理を施して印刷処理するための画像処理方
法であって、 上記条件情報を解析する第1の解析ステップと、 上記画像情報の特徴を解析する第2の解析ステップと、 上記第1の解析ステップによる解析結果に基づいて、上
記画像補正条件を決定する第1の画像補正条件決定ステ
ップと、 上記第2の解析ステップによる解析結果に基づいて、上
記画像補正条件を決定する第2の画像補正条件決定ステ
ップと、 上記第1の画像補正条件決定ステップ及び上記第2の画
像補正条件決定ステップにより決定された画像補正条件
に基いて、上記画像情報へ画像補正処理を施す画像補正
ステップと、 上記画像補正ステップによる処理後の画像情報を印刷処
理する印刷ステップとを含むことを特徴とする画像処理
方法。
27. An image processing method for performing image correction processing and printing processing on image information including condition information at the time of image acquisition, comprising a first analysis step of analyzing the condition information, and the image information. Second analysis step for analyzing the characteristics of the above, a first image correction condition determination step for determining the image correction condition based on the analysis result by the first analysis step, and an analysis by the second analysis step. A second image correction condition determining step for determining the image correction condition based on the result, and an image correction condition determined by the first image correction condition determining step and the second image correction condition determining step. And an image correction step for performing image correction processing on the image information, and a printing step for printing the image information processed by the image correction step. An image processing method characterized by:
【請求項28】 画像取得時の条件情報を含む画像情報
へ画像補正処理を施して印刷処理するための画像処理方
法であって、 上記条件情報を解析する第1の解析ステップと、 上記画像情報の特徴を解析する第2の解析ステップと、 上記第1の解析ステップによる解析結果に基づいて、上
記画像補正条件を決定する第1の画像補正条件決定ステ
ップと、 上記第2の解析ステップによる解析結果に基づいて、上
記画像補正条件を決定する第2の画像補正条件決定ステ
ップと、 上記第1の画像補正条件決定ステップ及び上記第2の画
像補正条件決定ステップにより決定された画像補正条件
に基いて、上記画像情報へ画像補正処理を施す画像補正
ステップと、 上記画像補正ステップによる処理後の画像情報を印刷処
理する印刷ステップと、 上記画像補正ステップ及び上記印刷ステップの処理実行
タイミングに基いて、上記条件情報に対応する処理モー
ド情報を表示する表示ステップとを含むことを特徴とす
る画像処理方法。
28. An image processing method for performing image correction processing and printing processing on image information including condition information at the time of image acquisition, comprising a first analysis step of analyzing the condition information, and the image information. Second analysis step for analyzing the characteristics of the above, a first image correction condition determination step for determining the image correction condition based on the analysis result by the first analysis step, and an analysis by the second analysis step. A second image correction condition determining step for determining the image correction condition based on the result, and an image correction condition determined by the first image correction condition determining step and the second image correction condition determining step. And an image correction step of performing image correction processing on the image information, a printing step of printing the image information processed by the image correction step, and Based on the processing execution timing of the correction step and the printing step, the image processing method characterized by including a display step of displaying the processing mode information corresponding to the condition information.
【請求項29】 上記画像情報をディジタルスチルカメ
ラの撮影により取得する画像取得ステップを含むことを
特徴とする請求項24〜28の何れかに記載の画像処理
方法。
29. The image processing method according to claim 24, further comprising an image acquisition step of acquiring the image information by photographing with a digital still camera.
【請求項30】 上記画像情報は、撮影画像情報を含
み、 上記条件情報は、撮影時における露出、ストロボ、ホワ
イトバランス、及び撮影モードの少なくとも何れかの情
報を含むことを特徴とする請求項24〜28の何れかに
記載の画像処理方法。
30. The image information includes photographed image information, and the condition information includes at least one of exposure, strobe, white balance, and photographing mode at the time of photographing. 29. The image processing method according to any one of to 28.
【請求項31】 請求項1〜22の何れかに記載の画像
処理装置の機能、又は請求項23記載の画像処理システ
ムの機能をコンピュータに実現させるためのプログラム
を記録したコンピュータ読出可能な記憶媒体。
31. A computer-readable storage medium recording a program for causing a computer to realize the function of the image processing apparatus according to claim 1 or the function of the image processing system according to claim 23. .
【請求項32】 請求項24〜30の何れかに記載の画
像処理方法の処理ステップをコンピュータに実行させる
ためのプログラムを記録したコンピュータ読取可能な記
憶媒体。
32. A computer-readable storage medium recording a program for causing a computer to execute the processing steps of the image processing method according to claim 24.
【請求項33】 請求項1〜22の何れかに記載の画像
処理装置の機能、又は請求項10記載の画像処理システ
ムの機能をコンピュータに実現させるためのプログラ
ム。
33. A program for causing a computer to realize the function of the image processing apparatus according to claim 1 or the function of the image processing system according to claim 10.
【請求項34】 請求項24〜30の何れかに記載の情
報処理方法の処理ステップをコンピュータに実行させる
ためのプログラム。
34. A program for causing a computer to execute the processing steps of the information processing method according to claim 24.
JP2002072164A 2002-03-15 2002-03-15 Image processing apparatus, image processing system, image processing method, storage medium, and program Withdrawn JP2003274427A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002072164A JP2003274427A (en) 2002-03-15 2002-03-15 Image processing apparatus, image processing system, image processing method, storage medium, and program
US10/386,606 US7242800B2 (en) 2002-03-15 2003-03-13 Image processing apparatus, image processing system, image processing method, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002072164A JP2003274427A (en) 2002-03-15 2002-03-15 Image processing apparatus, image processing system, image processing method, storage medium, and program

Publications (1)

Publication Number Publication Date
JP2003274427A true JP2003274427A (en) 2003-09-26

Family

ID=28035156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002072164A Withdrawn JP2003274427A (en) 2002-03-15 2002-03-15 Image processing apparatus, image processing system, image processing method, storage medium, and program

Country Status (2)

Country Link
US (1) US7242800B2 (en)
JP (1) JP2003274427A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287716A (en) * 2007-05-15 2008-11-27 Xerox Corp Contrast enhancement method and device, imaging device and storage medium
US7880771B2 (en) 2004-03-16 2011-02-01 Olympus Corporation Imaging apparatus, image processing apparatus, image processing system and image processing method

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4006347B2 (en) * 2002-03-15 2007-11-14 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, storage medium, and program
US7356190B2 (en) * 2002-07-02 2008-04-08 Canon Kabushiki Kaisha Image area extraction method, image reconstruction method using the extraction result and apparatus thereof
US7359572B2 (en) * 2003-03-26 2008-04-15 Microsoft Corporation Automatic analysis and adjustment of digital images with exposure problems
US7532234B2 (en) * 2003-06-19 2009-05-12 Microsoft Corporation Automatic analysis and adjustment of digital images upon acquisition
JP4289040B2 (en) * 2003-06-26 2009-07-01 富士ゼロックス株式会社 Image processing apparatus and method
US7301566B2 (en) * 2003-07-11 2007-11-27 Seiko Epson Corporation Adjustment for output image of image data
JP4172346B2 (en) * 2003-07-15 2008-10-29 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and program
US20050135460A1 (en) * 2003-12-22 2005-06-23 Hidenori Akita Method and apparatus for estimating a SIR of a pilot channel in a MC-CDMA system
JP4321287B2 (en) * 2004-02-10 2009-08-26 ソニー株式会社 Imaging apparatus, imaging method, and program
US7532359B2 (en) * 2004-03-09 2009-05-12 Microsoft Corporation System and process for automatic color and exposure correction in an image
JP4455110B2 (en) * 2004-03-18 2010-04-21 オリンパス株式会社 Image processing apparatus, image processing system, and image processing method
US7317843B2 (en) * 2004-04-01 2008-01-08 Microsoft Corporation Luminance correction
US7463296B2 (en) 2004-04-01 2008-12-09 Microsoft Corporation Digital cameras with luminance correction
TWI247532B (en) * 2004-04-28 2006-01-11 Benq Corp Image correction system and method thereof
US7751653B2 (en) * 2004-05-13 2010-07-06 Color Savvy Systems Limited Method for collecting data for color measurements from a digital electronic image capturing device or system
EP1747431A1 (en) * 2004-05-13 2007-01-31 Color Savvy Systems Limited Method for collecting data for color measurements from a digital electronic image capturing device or system
JP2005348237A (en) * 2004-06-04 2005-12-15 Brother Ind Ltd Image density adjusting apparatus and image reader with the same
US7535598B2 (en) * 2004-06-16 2009-05-19 Ricoh Company, Ltd. Image recording apparatus and image processing system
WO2006058190A2 (en) 2004-11-23 2006-06-01 Color Savvy Systems Limited Method for deriving consistent, repeatable color measurements from data provided by a digital imaging device
JP3967367B2 (en) * 2004-12-07 2007-08-29 松下電器産業株式会社 Image conversion method, apparatus and program, texture mapping method, apparatus and program, and server client system
TW200625161A (en) * 2005-01-04 2006-07-16 Lite On It Corp Image processing unit and method thereof
US8131108B2 (en) * 2005-04-22 2012-03-06 Broadcom Corporation Method and system for dynamic contrast stretch
US8270753B2 (en) * 2005-06-14 2012-09-18 Nikon Corporation Image processing device, computer program product, and image processing method to restore signals in a saturated area
JP4063290B2 (en) * 2005-07-25 2008-03-19 ブラザー工業株式会社 Image processing apparatus, image processing program, and image processing method
JP4854252B2 (en) * 2005-09-30 2012-01-18 キヤノン株式会社 Image processing method and image processing apparatus
JP2007241682A (en) * 2006-03-09 2007-09-20 Seiko Epson Corp Processing of image data for printing
KR101244912B1 (en) * 2006-05-29 2013-03-18 삼성전자주식회사 Apparatus and method for correcting gamma in digital image processing device
KR100849845B1 (en) * 2006-09-05 2008-08-01 삼성전자주식회사 Method and apparatus for Image enhancement
US20080144124A1 (en) * 2006-10-13 2008-06-19 Ramin Samadani Auxiliary information for reconstructing digital images processed through print-scan channels
KR100901353B1 (en) * 2007-05-25 2009-06-05 주식회사 코아로직 Image processing apparatus and method thereof
GB2464441B (en) * 2007-07-25 2012-10-17 Hiok Nam Tay Exposure control for an imaging system
US8922853B2 (en) * 2008-05-12 2014-12-30 Wilopen Products Lc Printer calibration system and associated methods
JP5132445B2 (en) * 2008-06-25 2013-01-30 キヤノン株式会社 Image processing apparatus, image processing method, computer program, and storage medium
JP5049900B2 (en) 2008-06-30 2012-10-17 キヤノン株式会社 SETTING DEVICE, IMAGE OUTPUT DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP4435843B1 (en) * 2008-09-10 2010-03-24 ミツミ電機株式会社 Video display device
JP5743384B2 (en) * 2009-04-14 2015-07-01 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
KR101567785B1 (en) * 2009-05-28 2015-11-11 삼성전자주식회사 Apparatus and method for controlling zoom function of a portable terminal
JP5569183B2 (en) * 2010-06-28 2014-08-13 ブラザー工業株式会社 Image forming apparatus
TWI424751B (en) * 2010-08-02 2014-01-21 Realtek Semiconductor Corp Saturation adjusting apparatus and method thereof
JP5565258B2 (en) * 2010-10-12 2014-08-06 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2012134951A (en) * 2010-11-30 2012-07-12 Canon Inc Imaging apparatus and control method of the same
WO2020206659A1 (en) * 2019-04-11 2020-10-15 Thunder Software Technology Co., Ltd. Method and apparatus for combining low-dynamic range images to a single image
CN113705486B (en) * 2021-08-31 2023-11-10 支付宝(杭州)信息技术有限公司 Method and device for detecting authenticity of certificate

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877846A (en) * 1995-09-19 1999-03-02 Fuji Photo Film Co., Ltd. Exposure control method and photographic printer
JPH11331565A (en) 1998-05-11 1999-11-30 Canon Inc Device and method for processing image
US6694051B1 (en) * 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
JP4194133B2 (en) * 1998-06-24 2008-12-10 キヤノン株式会社 Image processing method and apparatus, and storage medium
US6628830B1 (en) * 1998-06-24 2003-09-30 Canon Kabushiki Kaisha Image processing method and apparatus and storage medium
JP3492202B2 (en) * 1998-06-24 2004-02-03 キヤノン株式会社 Image processing method, apparatus and recording medium
JP4641571B2 (en) * 1999-06-04 2011-03-02 富士フイルム株式会社 Digital still camera and control method thereof
JP4095265B2 (en) * 2001-09-06 2008-06-04 キヤノン株式会社 Image processing apparatus, image processing method, computer-readable storage medium, and computer program
JP2003244467A (en) * 2002-02-21 2003-08-29 Konica Corp Image processing method, image processor and image recorder
JP2003244466A (en) * 2002-02-21 2003-08-29 Konica Corp Image processing method, image processor and image recorder
JP4006347B2 (en) * 2002-03-15 2007-11-14 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, storage medium, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7880771B2 (en) 2004-03-16 2011-02-01 Olympus Corporation Imaging apparatus, image processing apparatus, image processing system and image processing method
JP2008287716A (en) * 2007-05-15 2008-11-27 Xerox Corp Contrast enhancement method and device, imaging device and storage medium

Also Published As

Publication number Publication date
US20030174886A1 (en) 2003-09-18
US7242800B2 (en) 2007-07-10

Similar Documents

Publication Publication Date Title
JP2003274427A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
JP4006347B2 (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
US8374429B2 (en) Image processing method, apparatus and memory medium therefor
US6535301B1 (en) Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium
US6608926B1 (en) Image processing method, image processing apparatus and recording medium
US8391646B2 (en) Image processing device and method that performs image quality adjustment and resize processing on image data
JP2003111005A (en) Image processing method and apparatus, and its program
JP4208396B2 (en) Image processing method, apparatus, and recording medium
JP2006033383A (en) Image processing apparatus and method thereof
WO2000007144A1 (en) Monotone converting device, monotone converting method, and medium on which monotone converting program is recorded
US20050068587A1 (en) Monotone conversion process for color images
JP2003348341A (en) Image processing apparatus, image processing method and program
JP2000013625A (en) Image processing method, device and recording medium
JP3817371B2 (en) Image processing method, apparatus, and recording medium
JP4402041B2 (en) Image processing method and apparatus, and storage medium
JP4909308B2 (en) Image processing method and apparatus
JP2007318320A (en) Image processor, imaging device, image processing method, and image processing program
JP4818459B2 (en) Image processing method and apparatus
JP4909428B2 (en) Image processing method and apparatus
JP2007312005A (en) Image processor, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20071019