JP4659354B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP4659354B2
JP4659354B2 JP2003403759A JP2003403759A JP4659354B2 JP 4659354 B2 JP4659354 B2 JP 4659354B2 JP 2003403759 A JP2003403759 A JP 2003403759A JP 2003403759 A JP2003403759 A JP 2003403759A JP 4659354 B2 JP4659354 B2 JP 4659354B2
Authority
JP
Japan
Prior art keywords
image
correction
detection
target
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003403759A
Other languages
Japanese (ja)
Other versions
JP2005165684A5 (en
JP2005165684A (en
Inventor
茂 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003403759A priority Critical patent/JP4659354B2/en
Publication of JP2005165684A publication Critical patent/JP2005165684A/en
Publication of JP2005165684A5 publication Critical patent/JP2005165684A5/ja
Application granted granted Critical
Publication of JP4659354B2 publication Critical patent/JP4659354B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Control Of Exposure In Printing And Copying (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理方法および装置に関し、より詳細には、入力画像データを補正して出力画像データを得る画像処理方法および装置に関する。   The present invention relates to an image processing method and apparatus, and more particularly to an image processing method and apparatus for correcting output image data to obtain output image data.

静止画像入力機器として、デジタルカメラを始めデジタルビデオ、PDA、携帯電話など多様化しているが、その画像保存ファイル形式としては、JPEGが主流を占めている。撮影された静止画の観察や印刷を行う場合に、撮影した画像を補正して利用することが一般化してきているが、画像の中の注目画像を定義してその部分を中心とした画像補正も行われるようになっており、これは高級補正と呼ばれる。   As still image input devices, digital cameras, digital videos, PDAs, mobile phones, etc. are diversified, but JPEG is the mainstream as the image storage file format. When observing or printing a captured still image, it has become common to use the captured image by correcting it. However, the image of interest is defined in the image and the image correction is centered on that part. This is called high-level correction.

ネガ画像を印画紙へプリントする際の露光量補正を行うに際し、一般に画像中の主要部として鑑賞するときに最も注目される部位は人物に相当する部分であることから、人物に相当する部分を抽出し、抽出した人物に相当する領域の重みが、それ以外の領域の重みよりも大きくなるように各領域に重み係数を設定して画像中の主要部に相当する領域の画質を向上させるように露光量を補正する技術が提案されている(例えば、特許文献1参照)。   When performing exposure amount correction when printing a negative image on photographic paper, the most noticeable part when viewing as a main part in an image is generally a part corresponding to a person. Extracting and setting the weighting factor for each area so that the weight of the area corresponding to the extracted person is larger than the weight of the other areas so as to improve the image quality of the area corresponding to the main part in the image A technique for correcting the exposure amount is proposed (for example, see Patent Document 1).

特開平9−304846号公報Japanese Patent Application Laid-Open No. 9-304846

しかし、上述の従来技術の方法を利用するには下記3点の問題がある。
(1)主要部における重み設定において、全体の画像における主要部の占める影響度についての考慮がされていないので、例えば、主要部が画像全体に占める面積領域が極めて少ない場合でも、主要部を中心として重みを付けた補正を行うことになり、結果として画像全体の品質が劣化してしまう場合がある。
(2)従来技術は、その前提として注目画像の検出確率を100%確かとして処理しているため、検出が間違った場合においては注目対象でない物について重みを増した補正を行う危険性があるという問題がある。
(3)注目画像として検出した対象が、必ずしもこの領域に対する重み付けが必要でないものもありえる。例えば、注目画像として画像中の青空領域検出のように、注目画像が主要部と限らない場合が存在する。
However, there are the following three problems in using the above-described conventional method.
(1) Since the influence of the main part in the entire image is not considered in the weight setting in the main part, for example, even when the area occupied by the main part in the entire image is very small, the main part is mainly As a result, the quality of the entire image may be deteriorated.
(2) Since the prior art treats the detection probability of the target image as 100% certainty as the premise, there is a risk of performing correction with an increased weight for an object that is not the target of attention if the detection is wrong. There's a problem.
(3) The target detected as the target image may not necessarily require weighting for this area. For example, there is a case where the target image is not limited to the main part, such as detection of a blue sky region in the image as the target image.

本発明は上記の課題を解決することを目的とし、請求項1に記載の発明は、入力画像データに含まれる注目画像を抽出するステップと、注目画像の特徴量に基づいて算出された標準補正値を用いて入力画像データを補正して出力画像データを生成する補正ステップとを備えた画像処理方法において、注目画像の領域を解析して、入力画像データの全領域に対する注目画像の領域の比率である面積比率を含む特徴情報を取得するステップと、特徴情報に含まれる色度情報またはDCT情報から、注目画像の検出の成功率を算出するステップと、面積比率と成功率とを用いて算出された標準補正値を修正して実補正値を取得する修正ステップと、注目画像の領域における輝度情報から注目画像における平均輝度を算出するステップとを備え、補正ステップは、実補正値を用いて入力画像データを補正し、修正ステップは、面積比率と成功率とが大きいほど標準補正値の修正比を大きくし、補正ステップは、面積比率、および注目画像における平均輝度と、入力画像データの平均輝度とに基づいて、入力画像データに対して輝度補正を行なうことを特徴とする。   The present invention aims to solve the above-mentioned problems, and the invention according to claim 1 is a step of extracting a target image included in input image data, and a standard correction calculated based on a feature amount of the target image. A correction step of correcting input image data using values to generate output image data, analyzing a region of the target image, and ratio of the region of the target image to the entire region of the input image data A step of acquiring feature information including an area ratio, a step of calculating a success rate of detecting a target image from chromaticity information or DCT information included in the feature information, and a calculation using the area ratio and the success rate. A correction step of correcting the standard correction value obtained to obtain an actual correction value, and a step of calculating an average luminance in the target image from luminance information in the region of the target image The step corrects the input image data using the actual correction value, and the correction step increases the correction ratio of the standard correction value as the area ratio and the success rate are larger. Based on the average brightness and the average brightness of the input image data, brightness correction is performed on the input image data.

請求項2に記載の発明は、請求項1に記載の画像処理方法において、注目画像は、青空であることを特徴とする。   According to a second aspect of the present invention, in the image processing method according to the first aspect, the target image is a blue sky.

請求項3に記載の発明は、請求項1に記載の画像処理方法において、注目画像は、人物肌であることを特徴とする。   According to a third aspect of the present invention, in the image processing method according to the first aspect, the target image is human skin.

請求項4に記載の発明は、入力画像データに含まれる注目画像を抽出する抽出手段と、注目画像の特徴量に基づいて算出された標準補正値を用いて入力画像データを補正して出力画像データを生成する補正手段とを備えた画像処理装置において、注目画像の領域を解析して、入力画像データの全領域に対する注目画像の領域の比率である面積比率を含む特徴情報を取得する解析手段と、特徴情報に含まれる色度情報またはDCT情報から、注目画像の検出の成功率を算出する算出手段と、面積比率と成功率とを用いて算出された標準補正値を修正して実補正値を取得する修正手段と、注目画像の領域における輝度情報から注目画像における平均輝度を算出する手段とを備え、補正手段は、実補正値を用いて入力画像データを補正し、修正手段は、面積比率と成功率とが大きいほど標準補正値の修正比を大きくし、補正手段は、面積比率、および注目画像における平均輝度と、入力画像データの平均輝度とに基づいて、入力画像データに対して輝度補正を行なうことを特徴とする。   According to a fourth aspect of the present invention, there is provided an output unit that corrects input image data using extraction means for extracting a target image included in input image data and a standard correction value calculated based on a feature amount of the target image. Analyzing means for analyzing featured image area and obtaining feature information including area ratio, which is ratio of noticed image area to total area of input image data, in image processing apparatus including correction means for generating data And correction means for calculating the success rate of detecting the target image from the chromaticity information or DCT information included in the feature information, and correcting the standard correction value calculated using the area ratio and the success rate, and actually correcting Correction means for acquiring a value, and means for calculating the average luminance in the target image from the luminance information in the region of the target image, the correction means corrects the input image data using the actual correction value, and the correction means The correction ratio of the standard correction value is increased as the area ratio and the success rate are larger, and the correction means adds the correction ratio to the input image data based on the area ratio, the average luminance in the target image, and the average luminance of the input image data. On the other hand, luminance correction is performed.

本発明によれば、注目画像の領域を解析して、入力画像データ中注目画像の領域の全画像の領域に対する比率である面積比を含む特徴情報を取得するステップと、面積比を用いて算出された標準補正値を修正して実補正値を取得する修正ステップとを備え、補正ステップは、実補正値を用いて入力画像データを補正するので、画像の中の注目画像を検出して補正する場合、注目画像を中心に画像全体との関係で最適な補正を実行し補正効果を高めることができる。   According to the present invention, the step of analyzing the region of the target image and obtaining feature information including the area ratio, which is the ratio of the region of the target image region in the input image data to the entire image region, and calculating using the area ratio A correction step of correcting the standard correction value obtained to obtain an actual correction value, and the correction step corrects the input image data using the actual correction value, so that the target image in the image is detected and corrected. In this case, the correction effect can be enhanced by executing an optimal correction with respect to the entire image centering on the target image.

(第1実施形態)
以下、図面に基づいて本発明による画像処理方法を説明する。
本発明は、上記画像検出技術による検出結果をより高い品質の画像補正実現のために行われるものである。本発明を実施する際の全体の処理を説明するためのフローチャートを図1に示す。
(First embodiment)
Hereinafter, an image processing method according to the present invention will be described with reference to the drawings.
The present invention is performed in order to realize a higher quality image correction based on the detection result obtained by the image detection technique. FIG. 1 shows a flowchart for explaining the entire processing when the present invention is implemented.

S101において、画像取得と共に印刷に関する情報もあわせて取得する。また、取得データより各種動作の有無を含む初期設定を行う。本ステップにおいて、いずれの種類の注目画像の処理を行うかを決定し、以下の処理のためにその情報を設定しておき、以下のステップではその情報を参照して設定された種類の注目画像についての処理をそれぞれ行うことになる。S102において、設定された注目画像の種類によっては実施される場合、されない場合があるが、画像中における注目画像の検出処理が行われ、検出した注目画像に対する特徴量の算出を行う。さらに、入力された画像データが良好画質であるか否かの解析を行う。ここで、良好画像とは、一般に下記のような特徴を有するものであり、本明細書でもこの条件を満たす画像を良好画像と定義する。
(1)光源のホワイトバランスが良好である
(2)コントラストが良好である
(3)必要な部分の階調が確保されている
In S101, information about printing is acquired together with image acquisition. In addition, initial settings including the presence or absence of various operations are performed from the acquired data. In this step, it is determined which type of attention image is to be processed, and the information is set for the following processing. In the following step, the type of attention image set by referring to the information is set. Each process is performed. In S102, although it may or may not be performed depending on the set type of the target image, the target image in the image is detected, and the feature amount for the detected target image is calculated. Further, it is analyzed whether or not the input image data has good image quality. Here, a good image generally has the following characteristics, and an image satisfying this condition is also defined as a good image in this specification.
(1) The white balance of the light source is good (2) The contrast is good (3) The gradation of the necessary part is secured

入力画像を解析して上記条件を満足する画像であるか否かを判断し、満足しない場合は以降のステップにおける画像補正で必要な補正項目に対する種々のパラメータを算出して出力する。   The input image is analyzed to determine whether the image satisfies the above conditions. If the image is not satisfied, various parameters for correction items necessary for image correction in subsequent steps are calculated and output.

S103において、S102で得られた種々のパラメータを元に標準補正値である画像補正値を決定する。S104において、入力する画像データと検出した注目画像との関連により決定した補正用パラメータ、すなわち特徴情報に基づいてS103で決定した画像補正値に修正を加えた実補正値を用いて画像の補正を行う。   In S103, an image correction value that is a standard correction value is determined based on the various parameters obtained in S102. In S104, image correction is performed using a correction parameter determined based on the relationship between the input image data and the detected target image, that is, the actual correction value obtained by correcting the image correction value determined in S103 based on the feature information. Do.

また、S101において、設定情報の取得の他に行う初期設定のうち注目画像検出を行うが、この際取得した設定情報との関連も踏まえて、図2に示すように注目画像の種類ごとに検出動作の対象とするか否かの設定を行う。すなわち、次に説明する図2のフローはS101に含まれる処理である。   In S101, attention image detection is performed among initial settings performed in addition to setting information acquisition. Based on the relationship with the acquired setting information, detection is performed for each type of attention image as shown in FIG. Set whether or not to target the operation. That is, the flow of FIG. 2 described next is processing included in S101.

ステップS201において、取得画像中の注目画像として人物肌を検出して処理を行うか否かを判断する。行わないときはS203の次の注目画像に対しての選択へ進む。また、処理を行うときはS202において、人物肌検出処理許可のフラグを立て、その後S203の次の注目画像に対しての選択へ進む。   In step S201, it is determined whether or not to perform processing by detecting human skin as an attention image in the acquired image. When not performing, it progresses to the selection with respect to the next attention image of S203. When processing is performed, a flag for human skin detection processing permission is set in S202, and then the process proceeds to selection for the next target image in S203.

ステップS203において、取得画像中の注目画像として青空を検出して処理を行うか否かを判断する。行わないときはS205の次の注目画像に対しての選択へ進む。また、行うときはS204において、青空検出処理許可のフラグを立て、その後S205の次の注目画像に対しての選択へ進む。   In step S203, it is determined whether or not to perform processing by detecting a blue sky as a noticed image in the acquired image. When not performing, it progresses to the selection with respect to the next attention image of S205. When performing, in S204, a blue sky detection process permission flag is set, and then the process proceeds to selection for the next target image in S205.

ステップS205において、取得画像中の注目画像において夜景シーンを検出して処理を行うか否かを判断する。行わないときは判定対象の設定処理を終了する。また、行うときは、S206において、夜景シーン判定検出処理許可のフラグを立て、その後判定対象の設定処理を終了する。   In step S205, it is determined whether or not a night scene is detected in the target image in the acquired image and processing is performed. If not, the determination target setting process is terminated. Also, when performing, in S206, a night scene determination detection process permission flag is set, and then the determination target setting process is terminated.

次に、ステップS102で行っている注目画像検出・解析処理について説明する。
図3は注目画像として人物肌を検出するときのフローである。S301において、S202で人物肌検出処理許可のフラグを立てられたか否か、すなわちONか否かの確認を行い、OFFの場合は人物肌検出処理を行わずに次の処理に進む。また、ONの場合、S302に進む。
Next, the attention image detection / analysis process performed in step S102 will be described.
FIG. 3 shows a flow when human skin is detected as an attention image. In S301, it is confirmed whether or not the human skin detection process permission flag is set in S202, that is, whether or not it is ON. If it is OFF, the process proceeds to the next process without performing the human skin detection process. If it is ON, the process proceeds to S302.

S302において、上述の背景技術による注目画像の検出処理を実行する。検出処理が終了したらS303へ進む。S303において、人物肌検出の処理結果として最終候補を検出したか否かの判定を行う。未検出のときはS304へ進み、未検出フラグをセットして本処理を終了し次の処理に進む。また、最終候補を検出した場合、ステップS305において、最終候補を検出した画像領域の特徴量、すなわち特徴情報として(1)面積情報、(2)輝度情報、(3)色度情報、(4)DCT情報を算出し記憶する。   In S302, the target image detection process according to the background art described above is executed. When the detection process ends, the process proceeds to S303. In S303, it is determined whether or not a final candidate has been detected as a result of human skin detection. If not detected, the process proceeds to S304, an undetected flag is set, this process is terminated, and the process proceeds to the next process. When the final candidate is detected, in step S305, the feature amount of the image area in which the final candidate is detected, that is, as feature information, (1) area information, (2) luminance information, (3) chromaticity information, (4) DCT information is calculated and stored.

ここで、DCT情報とは、注目画像検出した領域に含まれる上記8×8画素ブロックのDCT変換値の平均である。すなわち、Jpegファイルのデータ圧縮においては、8×8画素ブロック単位のデータに対して離散コサイン変換(DCT変換)をかけており、この変換により得られるDCT変換値を平均してDCT情報を算出する。   Here, the DCT information is an average of DCT transform values of the 8 × 8 pixel block included in the region where the target image is detected. That is, in data compression of a Jpeg file, discrete cosine transformation (DCT transformation) is applied to data in units of 8 × 8 pixel blocks, and DCT transformation values obtained by this transformation are averaged to calculate DCT information. .

図4は注目画像として青空を検出する場合のフローである。S401において、S204で青空検出処理許可のフラグを立てられたか否かの確認を行い、OFFであれば本処理を終了し次の処理に進む。また、ONである場合はS402に進む。S402において、上述の検出処理を実行し、検出処理が終了したらS403へ進む。
S403において、青空検出の処理結果として最終候補を検出したか否かの判定を行う。未検出のときはS404へ進み、未検出フラグをセットして本処理を終了し次の処理に進む。また、最終候補を検出した場合ステップS405において、最終候補を検出した画像領域の特徴量として(1)面積情報、(2)輝度情報、(3)色度情報、(4)DCT情報を算出して記憶する。
FIG. 4 is a flow when a blue sky is detected as an attention image. In S401, it is confirmed whether or not the blue sky detection process permission flag is set in S204. If it is OFF, this process is terminated and the process proceeds to the next process. If it is ON, the process proceeds to S402. In S402, the above detection process is executed, and when the detection process is completed, the process proceeds to S403.
In S403, it is determined whether or not a final candidate has been detected as a blue sky detection processing result. If not detected, the process proceeds to S404, an undetected flag is set, the process is terminated, and the process proceeds to the next process. When the final candidate is detected, in step S405, (1) area information, (2) luminance information, (3) chromaticity information, and (4) DCT information are calculated as the feature amounts of the image region in which the final candidate is detected. Remember.

図5は、注目画像として夜景シーンであるか否かを判定するときのフローである。S501において、S206で夜景シーンであるか検出処理許可のフラグを立てられたか否かの確認を行い、OFFであれば夜景シーンで検出処理を終了し次の処理に進む。また、ONである場合はS502に進む。   FIG. 5 is a flow for determining whether or not the image of interest is a night scene. In S501, it is confirmed whether or not a detection process permission flag is set in S206, and if it is OFF, the detection process is terminated in the night scene and the process proceeds to the next process. If it is ON, the process proceeds to S502.

S502において、夜景シーン判定処理を実行する。判定処理が終了したらS503へ進む。S503において、夜景シーン判定の処理結果として最終候補を検出したか否かの判定を行う。未検出のときはS504へ進み未検出フラグをセットして終了する。また、夜景シーンであると判定した場合はステップS505において、最終候補を検出した画像領域の特徴量として(1)面積情報、(2)輝度情報、(3)色度情報、(4)DCT情報を算出し記憶する。   In S502, night scene determination processing is executed. When the determination process ends, the process proceeds to S503. In S503, it is determined whether or not a final candidate has been detected as a night scene determination process result. When it is not detected, the process proceeds to S504, and an undetected flag is set and the process ends. If it is determined that the scene is a night scene, in step S505, (1) area information, (2) luminance information, (3) chromaticity information, and (4) DCT information are used as the feature amounts of the image area in which the final candidate is detected. Is calculated and stored.

注目画像として青空領域を設定した場合の、その後の処理の詳細を説明する。
図6は、風景画像として撮影された画像サンプルである。この画像中には青空領域が存在する。上述の画像サンプルに対して図4で示された青空領域検出を行った結果が図7の画像である。8×8画素ブロック単位で、予め設定してある色度及び輝度範囲に適合するブロックを判定し、更に適合した隣接ブロックの集合による候補領域を形成し、その領域でのDCT特性を算出して青空の定義特性に合致するか否かを判定する。
Details of the subsequent processing when the blue sky region is set as the attention image will be described.
FIG. 6 is an image sample taken as a landscape image. A blue sky region exists in this image. The result of performing the blue sky region detection shown in FIG. 4 on the above image sample is the image of FIG. In 8 × 8 pixel block units, blocks that match a preset chromaticity and luminance range are determined, candidate areas are formed based on a set of matched adjacent blocks, and DCT characteristics in the areas are calculated. It is determined whether or not the definition characteristics of the blue sky are met.

判定処理の過程で算出した(1)面積情報、(2)輝度情報、(3)色度情報、(4)DCT情報を標準補正値を修正するための特徴量として記憶する。   The (1) area information, (2) luminance information, (3) chromaticity information, and (4) DCT information calculated during the determination process are stored as feature amounts for correcting the standard correction value.

図8は、上述の画像中の青空領域の検出を複数の画像に対して行った結果をもとに検出した画像が、目的の青空領域を正しく検出しているか否かを判定した統計結果である。すなわち、上述の青空領域の検出結果としてステップS405で取得した面積情報と、検出が成功する確立との関係を示す表となる。横軸は、全画像に占める検出した青空領域の面積比率である。縦軸は、検出した面積率の各範囲内で青空以外を誤検出してしまった場合と正しく検出した場合の比率である。   FIG. 8 is a statistical result of determining whether or not an image detected based on the result of the detection of the blue sky region in the image described above for a plurality of images correctly detects the target blue sky region. is there. That is, the table shows the relationship between the area information acquired in step S405 as a detection result of the above-described blue sky region and the probability of successful detection. The horizontal axis represents the area ratio of the detected blue sky region in the entire image. The vertical axis represents the ratio between the case where an area other than the blue sky is erroneously detected and the area correctly detected within each range of the detected area ratio.

図8に示すグラフから、検出した青空の領域の面積率が1.0%未満の場合に正しく認識する確立は、おおよそ80%程度であることを読み取ることができる。また、1%以上5%未満の領域の場合では正しく認識される可能性は90%以上で、5%以上の検出領域の場合は、検出の成功率は100%である。   It can be read from the graph shown in FIG. 8 that the probability of correctly recognizing when the area ratio of the detected blue sky region is less than 1.0% is approximately 80%. In the case of an area of 1% or more and less than 5%, the possibility of correct recognition is 90% or more, and in the case of a detection area of 5% or more, the detection success rate is 100%.

このように、検出した面積比率とその検出成功率とにある程度の相関がある検出系においては、たとえ注目画像が検出されたとしても、それが誤検出である場合、誤検出された注目画像に最適化した画像補正を実行すると却って画像が劣化する場合も考えられる。   As described above, in the detection system in which the detected area ratio and the detection success rate have a certain degree of correlation, even if an attention image is detected, if it is a false detection, the erroneously detected attention image is displayed. If optimized image correction is performed, the image may be deteriorated.

一般に、補正処理を行い青空を検出したときは、その画像は野外の風景画像の可能性が高いと判断して通常の画像処理よりコントラストと彩度を高めにした画像補正定数を用いて補正を行う。しかし、上記のような検出系においては誤検出の可能性を考慮して、通常の補正よりどの程度増幅または減少させるかを示す修正比を導入して実際の画像に合わせた補正が可能になるように補正値を修正する。本実施形態においては、標準補正値を100%としたときに、面積率が1%未満のときは、図8の面積比の検出結果を考慮して、修正比である増幅量を80%として補正強度を弱め、1%以上の検出確率が高い領域においては本来の標準補正値となるよう修正比を1として、100%標準の補正を効かすようにする。なお、検出成功率と補正量の増幅分のパーセンテージは一致しなくてもよい。   In general, when a blue sky is detected after correction processing, the image is determined to be highly likely to be an outdoor landscape image, and correction is performed using image correction constants with higher contrast and saturation than normal image processing. Do. However, in the detection system as described above, in consideration of the possibility of erroneous detection, a correction ratio indicating how much to be amplified or reduced from the normal correction is introduced to enable correction in accordance with an actual image. The correction value is corrected as follows. In this embodiment, when the standard correction value is 100% and the area ratio is less than 1%, the amplification amount as the correction ratio is set to 80% in consideration of the detection result of the area ratio in FIG. The correction strength is weakened, and in the region where the detection probability of 1% or more is high, the correction ratio is set to 1 so that the original standard correction value is obtained, and 100% standard correction is applied. Note that the detection success rate and the percentage of the correction amount amplified do not have to match.

図26は、本実施形態の画像処理装置の構成例を示すブロック図である。本実施形態の画像処理装置は、復号部2610と復号部2610から取得したデータに基づいて補正対象の画像領域を認識する画像認識部(第1画像抽出を実行)2630と、画像認識部2630からの認識領域を所望の色に補正する色調補正部2620とから構成される。色調補正部2620から出力される再生され補正された画像(BMP)は、プリンタに送られてプリントされる。   FIG. 26 is a block diagram illustrating a configuration example of the image processing apparatus according to the present embodiment. The image processing apparatus according to this embodiment includes a decoding unit 2610, an image recognition unit (executing first image extraction) 2630 that recognizes an image area to be corrected based on data acquired from the decoding unit 2610, and an image recognition unit 2630. And a tone correction unit 2620 that corrects the recognition area to a desired color. The reproduced and corrected image (BMP) output from the color tone correction unit 2620 is sent to the printer and printed.

画像認識部2630は、復号部2610から復号画像(BMP)を受信して指定された対象色(本例では肌色)の領域を検出する対象色検出部2631と、復号部2610から復号DCTデータを受信して、対象色検出部2631で検出された対象色の候補領域における空間周波数を生成する空間周波数生成部2632と、対象色検出部2631で検出された対象色の候補領域から空間周波数に基づいて、色調補正の対象領域を選別する対象色領域選別部2633を有する。対象色検出部2631は復号画像を記憶する復号画像記憶部2631aを有するが、この復号画像記憶部2631aは対象色検出部2631にある必要はなく他の処理部と兼用されてよい。また、対象色領域選別部2633は、選別のための判別テーブル2633aを有している。この判別テーブル2633は、画像のサイズに対応して複数の判別テーブルを有してもよい。   The image recognition unit 2630 receives the decoded image (BMP) from the decoding unit 2610 and detects the target color detection unit 2631 that detects the region of the specified target color (skin color in this example), and the decoded DCT data from the decoding unit 2610. Based on the spatial frequency from the candidate region of the target color detected by the target color detection unit 2631 and the spatial frequency generation unit 2632 that receives and generates a spatial frequency in the candidate region of the target color detected by the target color detection unit 2631 Thus, a target color area selection unit 2633 for selecting a target area for color tone correction is provided. The target color detection unit 2631 includes a decoded image storage unit 2631a that stores the decoded image. However, the decoded image storage unit 2631a does not need to be in the target color detection unit 2631 and may also be used as another processing unit. The target color area selection unit 2633 has a determination table 2633a for selection. The discrimination table 2633 may include a plurality of discrimination tables corresponding to the image size.

画像認識部2630は、更に本実施形態の処理を改善するため、復号部2610から量子化テーブル値を受信して、禁止するためのしきい値2634aに基づく判定から色調補正処理を禁止する色調補正禁止部2634を有する。   In order to further improve the processing of the present embodiment, the image recognition unit 2630 receives the quantization table value from the decoding unit 2610 and performs color tone correction that prohibits color tone correction processing from determination based on the threshold value 2634a for prohibition. A prohibition unit 2634 is included.

色調補正部2620は、画像認識部2630で選別された選別領域の色を補正対象色(本例では肌色)に、例えば色補正テーブル2620aなどを使用して既知の色補正処理を行う。この色調補正の処理は、所定の条件で対象色領域選別部2633、あるいは色調補正禁止部2634からの色調補正禁止信号により禁止される。この補正処理は簡素化のためには画像全体に施しても良いが、画質を高めることが目的であれば領域によって異なる補正、あるいは部分的な補正であってもよい。本発明の特徴は、かかる色調補正の方法にはないので本実施形態では簡単に説明する。   The color tone correction unit 2620 performs a known color correction process using the color of the selection area selected by the image recognition unit 2630 as a correction target color (skin color in this example) using, for example, the color correction table 2620a. This color tone correction process is prohibited by a color tone correction prohibition signal from the target color area selection unit 2633 or the color tone correction prohibition unit 2634 under a predetermined condition. This correction processing may be performed on the entire image for simplification, but may be correction different for each region or partial correction if the purpose is to improve image quality. Since the feature of the present invention is not in such a color tone correction method, it will be described briefly in this embodiment.

図27は、本実施形態の画像処理を実現するハードウエア及びソフトウエアの構成例を示す図である。なお、図27は、本実施形態の特徴部分である画像認識部2630を中心に説明している。この装置は汎用のコンピュータでも実現できるし、専用のコンピュータにより実現することもできる。   FIG. 27 is a diagram illustrating a configuration example of hardware and software for realizing image processing according to the present embodiment. FIG. 27 mainly illustrates the image recognition unit 2630 which is a characteristic part of the present embodiment. This apparatus can be realized by a general-purpose computer or a dedicated computer.

CPU2710は演算処理を行い、ROM2720はCPU2710が使用する固定のデータ及びプログラム(OSやBIOSなどはここに有るとする)を格納する。RAM2730は本実施形態でCPU2710が使用するデータやプログラムを一時格納する。ここで、本実施形態では、アプリケーションプログラムは、後述の外部記憶部2740からRAM2730のプログラムロード領域132にロードされて、CPU2710により実行される。   The CPU 2710 performs arithmetic processing, and the ROM 2720 stores fixed data and programs used by the CPU 2710 (OS and BIOS etc. are here). The RAM 2730 temporarily stores data and programs used by the CPU 2710 in this embodiment. Here, in the present embodiment, the application program is loaded from a later-described external storage unit 2740 into the program load area 132 of the RAM 2730 and executed by the CPU 2710.

RAM2730がデータ記憶領域2731に記憶するデータには、復号部2610が復
号した復号画像あるいは色調補正された再生画像を記憶する復号画像データ領域2731a、補正対象色(本例では肌色)データを記憶する補正対象色領域2731b、検出された対象色領域を記憶する候補領域の記憶領域2731c、候補領域から形成される候補グループを記憶する候補グループ領域2731d、最終的に選別された領域を記憶する選別領域の記憶領域2731e、復号部2610からの復号DCTデータを記憶する復号DCTデータ記憶領域2731f、生成された空間周波数を記憶する空間周波数領域2731g、対象色領域を選別するために使用する判別テーブルを記憶する判別テーブル領域2731h、復号部2610からの量子化テーブルを記憶する量子化テーブル領域2731i、量子化テーブルの係数を加算した値を記憶する量子化係数加算値の記憶領域2731j、色調補正の禁止などに使用するしきい値群を記憶する領域2731kを含んでいる。
The data stored in the data storage area 2731 by the RAM 2730 stores the decoded image data area 2731 a for storing the decoded image decoded by the decoding unit 2610 or the reproduction image whose color tone has been corrected, and the correction target color (skin color in this example) data. Correction target color area 2731b, candidate area storage area 2731c for storing the detected target color area, candidate group area 2731d for storing candidate groups formed from the candidate areas, and a selection area for storing finally selected areas Storage area 2731e, decoded DCT data storage area 2731f for storing the decoded DCT data from the decoding unit 2610, spatial frequency area 2731g for storing the generated spatial frequency, and a discrimination table used for selecting the target color area Discriminating table area 2731h from the decoding unit 2610 Quantization table area 2731i for storing a child table, a quantization coefficient addition value storage area 2731j for storing a value obtained by adding the coefficients of the quantization table, and a threshold value group used for prohibiting color correction, etc. 2731k is included.

外部記憶部2740は、ディスクやメモリカードなどの大容量あるいは抜き差し可能な媒体を含み、フロッピー(登録商標)ディスクやCDなどを含む。外部記憶部2740のデータ記憶領域2741には、判別テーブル1〜n2741aやしきい値群2741bが格納されている。また、他のパラメータや画像データなどを蓄積するデータベースが記憶されてもよい。プログラム格納領域2742には、大まかに分類すると対象色領域検出モジュール2741c、空間周波数生成モジュール2741d、対象色領域選別モジュール2741e、色調補正禁止モジュール2741f、そして後述の第2の実施形態で実行される特徴部位抽出モジュール2741gが格納されている。   The external storage unit 2740 includes a large capacity or removable medium such as a disk or a memory card, and includes a floppy (registered trademark) disk, a CD, and the like. In the data storage area 2741 of the external storage unit 2740, discrimination tables 1 to n2741a and a threshold value group 2741b are stored. In addition, a database for storing other parameters, image data, and the like may be stored. The program storage area 2742 is roughly classified into a target color area detection module 2741c, a spatial frequency generation module 2741d, a target color area selection module 2741e, a color tone correction prohibition module 2741f, and features executed in the second embodiment to be described later. The part extraction module 2741g is stored.

更に、図27に示す装置は、復号部2610及び/又は色調補正部2620を兼ねてもよく、その場合には、更にデータとして色調補正テーブル2741f、プログラムとして色調補正モジュール2741i、後述の第2の実施形態で使用されるボケ補正モジュール2741jを格納してもよい。   Furthermore, the apparatus shown in FIG. 27 may also serve as the decoding unit 2610 and / or the color correction unit 2620. In this case, the color correction table 2741f as data, the color correction module 2741i as a program, The blur correction module 2741j used in the embodiment may be stored.

入力インターフェース2750は、本例では復号部2610からの復号データ(BMP)、復号DCTデータ、量子化テーブル値、また装置固有のあるいは外部から指定可能な対象色データを入力する。出力インターフェースは2760は、選別領域や色調補正禁止信号を出力する。なお、本装置が色調補正部も兼用するのであれば、出力は色調補正画像データ(BMP)となる。更に、本装置が復号部2610も兼ねてもよく、その場合はJPEGデータが入力され色調補正画像データ(BMP)が出力される。その場合には、さらにデータ及びプログラムが準備されることになる。   In this example, the input interface 2750 inputs the decoded data (BMP) from the decoding unit 2610, the decoded DCT data, the quantization table value, and target color data that is unique to the apparatus or can be designated from the outside. The output interface 2760 outputs a selection area and a color correction prohibition signal. If the apparatus also serves as a color tone correction unit, the output is color tone corrected image data (BMP). Further, the present apparatus may also serve as the decoding unit 2610. In this case, JPEG data is input and color tone corrected image data (BMP) is output. In that case, further data and programs are prepared.

(第2実施形態)
第2実施形態は、上述の第1実施形態と同じ構成であり、注目画像の対象も同じく青空であるが、検出ときの過程で検出判定の色度比率の閾値との距離や、DCT特性の閾値との距離からの注目画像における検出の成功率を算出し、この値を用いて補正量を修正するものである。
(Second Embodiment)
The second embodiment has the same configuration as the first embodiment described above, and the object of the target image is also a blue sky. However, the distance from the threshold of the chromaticity ratio of the detection determination in the process of detection, and the DCT characteristic The success rate of detection in the image of interest from the distance from the threshold is calculated, and the correction amount is corrected using this value.

注目画像検出の目的は、画像中に定義した注目画像が存在するか検索し検出されたときは、検出対象もしくはそれに付随する場面が最適な画像になるように補正することである。したがって、検出された注目画像の全画像に占める面積によって補正後の効果が違ってくる。逆にいえば、注目画像の画像全体に占める割合が大きいと注目画像の検出を誤判定していたときの影響も大きい、すなわち画像品質が悪化することになる。   The purpose of the target image detection is to correct the target image or the scene accompanying it to be an optimal image when the target image defined in the image is searched and detected. Therefore, the effect after correction differs depending on the area of the detected target image in the entire image. In other words, if the ratio of the target image to the entire image is large, the influence when the target image is erroneously determined is large, that is, the image quality deteriorates.

これに鑑みて、注目画像の検出成功率と注目画像の画像全体に占める面積率とにより画像補正の補正定数の効果比率、すなわち修正比を決定する場合の具体的な結果を図9に示す。横軸は、注目画像検出において検出した注目画像の画像全体における占有面積比率である。縦軸は、注目画像検出により通常の画像補正定数より増幅した最大分を100%としたときの修正比である増幅率を表している。折れ線データは検出した注目画像面積率により補正像の増幅率を決定するためのものである。すなわち、上述の通り特徴情報をもとに算出した検出成功率によりいずれの折れ線を用いるかを決定し、折れ線が決定した後図9に示すグラフに基づき、面積比率に対応する増幅率を決定するのである。   In view of this, FIG. 9 shows specific results when determining the effect ratio of the correction constant of the image correction, that is, the correction ratio, based on the detection success rate of the target image and the area ratio of the target image in the entire image. The horizontal axis represents the occupied area ratio in the entire image of the target image detected in the target image detection. The vertical axis represents the amplification factor which is a correction ratio when the maximum amount amplified from the normal image correction constant by the target image detection is 100%. The polygonal line data is for determining the amplification factor of the corrected image based on the detected target image area ratio. That is, as described above, it is determined which polygonal line to use based on the detection success rate calculated based on the feature information, and after the polygonal line is determined, the amplification factor corresponding to the area ratio is determined based on the graph shown in FIG. It is.

実線で示される折れ線は、注目画像検出の成功率が98%より上の検出結果が得られた検出対象に対する場合であり、この場合、全画像に対する面積率が70%のときに補正増幅率を最大限の100%に設定する。面積率が10%のときは補正増幅率が70%までの増加にとどまることを意味している。これは、検出成功率が十分高いので、70%と十分な面積比を有する場合は最大に補正を効かすことができるが、面積比が低い場合はたとえ検出が成功していたとしてもあまりに注目画像向けの補正をし過ぎるとその他の部分の品質が悪化するため、ある程度補正を押さえる必要があることを意味している。また、面積比が70%を越えると却って増幅率を落とすのは、注目画像の面積が画像全体のほとんどの部分を占めるので、そもそも補正をかけること自体の必要性が低下するからである。   A broken line indicated by a solid line is a case where the target image detection success rate is higher than 98% for a detection target. In this case, when the area ratio for all images is 70%, the correction amplification factor is set. Set to the maximum of 100%. When the area ratio is 10%, it means that the correction amplification factor only increases up to 70%. This is because the detection success rate is sufficiently high, so that it can be corrected to the maximum if it has a sufficient area ratio of 70%, but if the area ratio is low, even if the detection is successful, it is too much attention If the correction for the image is too much, the quality of the other parts deteriorates, which means that it is necessary to suppress the correction to some extent. The reason why the amplification factor is reduced when the area ratio exceeds 70% is that the area of the image of interest occupies most of the entire image, so that the necessity of performing correction itself is reduced in the first place.

破線で示されている折れ線は、注目画像検出の成功率が90%〜98%の成功率と算出された検出対象に対する場合で、この場合、全画像に対する面積率が70%のときに補正増幅率を最大限の70%に設定する。面積率が10%のときは補正増幅率が50%までの増加にとどまることを意味している。   A broken line shown by a broken line is a case where the success rate of the target image detection is 90% to 98% and the calculated target to be detected. In this case, correction amplification is performed when the area rate for all images is 70%. Set rate to 70% of maximum. When the area ratio is 10%, it means that the correction amplification factor only increases up to 50%.

一点差線で示されている折れ線は、注目画像検出の成功率が80%〜90%の成功率と算出された検出対象に対する場合を表している。二点差線で示されている折れ線は、注目画像検出の成功率が60%〜80%の成功率と算出された検出対象に対する場合を表している。補正の増幅率は、面積率70%をピークにして成功率が大きいほど高くなっていることがわかる。   A broken line indicated by a one-point difference line represents a case where the success rate of the target image detection is 80% to 90% and the calculated target to be detected. A broken line indicated by a two-point difference line represents a case where the success rate of the target image detection is 60% to 80% and the calculated detection target. It can be seen that the correction amplification factor increases as the success rate increases with an area ratio of 70% as a peak.

図10は、検出判定から補正テーブル決定のフローチャートである。S1001において、注目画像を青空領域とした検出処理を実行する。検出処理が終了後、S1002へ移行する。S1002において、青空検出の処理結果として最終候補を検出したか否かの判定を行う。未検出のときはS1003へ進み、未検出フラグをセットして終了する。また、最終候補を検出した場合は、S1004に進み、最終候補を検出した画像領域の特徴量を取得して検出成功率を算出する。   FIG. 10 is a flowchart for determining a correction table from detection determination. In S1001, a detection process using the target image as a blue sky region is executed. After the detection process is completed, the process proceeds to S1002. In S1002, it is determined whether or not a final candidate has been detected as a blue sky detection process result. If not detected, the process proceeds to S1003, and an undetected flag is set and the process ends. If the final candidate is detected, the process proceeds to S1004, where the feature amount of the image area in which the final candidate is detected is acquired, and the detection success rate is calculated.

ステップS1005において、注目画像検出の成功率が98%以上の設定であるかを判定する。適合する場合はステップS1006へ進み、図9の実線で表された折れ線を参照して補正強度テーブルを生成し記憶する。適合しない場合は、S1007へ進む。   In step S1005, it is determined whether the success rate of target image detection is set to 98% or more. If it matches, the process proceeds to step S1006, and a correction intensity table is generated and stored with reference to the broken line represented by the solid line in FIG. If not, go to S1007.

ステップS1007において、注目画像検出の成功率が80%以上の設定であるかを判定する。適合する場合はステップS1008へ進み、図9の破線で表された折れ線を参照して補正強度テーブルを生成し記憶する。適合しない場合は、S1009へ進む。   In step S1007, it is determined whether the success rate of target image detection is set to 80% or more. If it matches, the process proceeds to step S1008, and a correction intensity table is generated and stored with reference to the broken line shown by the broken line in FIG. If not, go to S1009.

S1009において、一点差線で表された折れ線を参照して補正強度テーブルを生成し記憶する。図9には二点差線の検出成功率60%〜80%の折れ線もあるが、本実施形態においては、80%以下の検出率については補正の対象としていない。但し、これは、あくまでも一実施例に過ぎず、注目画像の面積率と検出の確からしさに対応して、補正定数を決定するものはすべて含まれる。   In step S1009, a correction intensity table is generated and stored with reference to the broken line represented by the one-point difference line. In FIG. 9, there is also a broken line having a detection success rate of 60% to 80% for the two-point difference line, but in this embodiment, a detection rate of 80% or less is not subject to correction. However, this is merely an example, and all of those that determine the correction constant corresponding to the area ratio of the image of interest and the probability of detection are included.

以上により、補正値変換テーブルが記憶されるため、その後の画像補正処理においては、変換テーブル読み出して修正比を決定し実際の補正を行う。また、本実施形態においては、検出の成功率に基づいて補正量を最適化するので、注目画像を誤検出した場合であっても、大きく画像品質を劣化させることはない。   As described above, the correction value conversion table is stored, and in the subsequent image correction processing, the conversion table is read, the correction ratio is determined, and actual correction is performed. Further, in the present embodiment, the correction amount is optimized based on the success rate of detection, so that the image quality is not greatly deteriorated even when the target image is erroneously detected.

(第3実施形態)
上述の第1実施形態と同じ構成で、注目画像として人物肌領域を対象物とした検出について以下に説明する。
図11は、ポートレート画像として撮影された画像サンプルである。この画像中には人物肌領域が存在する。
(Third embodiment)
Hereinafter, detection using a human skin region as a target image as a target image with the same configuration as that of the first embodiment will be described below.
FIG. 11 is an image sample taken as a portrait image. A human skin region exists in this image.

上記、画像サンプルに対して図3で示めされた人物肌領域検出処理を実行した結果が図12の画像である。図12には、検出候補グループとして検出面積の大きい順に候補番号が振られており、1の候補を中心に補正のためのデータとして情報を引き渡す。人物肌領域検出の基本検出原理は、8×8画素ブロック単位で予め設定してある色度および輝度範囲に適合するものを検出し、更に検出したブロックの隣接ブロック集合からなる候補領域を形成させ、その領域でのDCT特性を算出して人物肌の定義特性に合致するか否かを判定するというものである。   The result of performing the human skin region detection process shown in FIG. 3 on the image sample is the image of FIG. In FIG. 12, candidate numbers are assigned to detection candidate groups in descending order of detection area, and information is handed over as data for correction centering on one candidate. The basic detection principle of human skin area detection is to detect those that match a preset chromaticity and luminance range in units of 8 × 8 pixel blocks, and to form candidate areas consisting of adjacent block sets of the detected blocks. Then, the DCT characteristic in that region is calculated to determine whether or not it matches the definition characteristic of the human skin.

判定処理の過程で算出した(1)面積情報、(2)輝度情報、(3)色度情報、(4)DCT情報を、その後の補正へ生かすための特徴量として記憶する。このようにして得られた特徴量を条件として注目画像検出処理を実行し、検出した結果から得られた注目画像の情報を画像処理へ反映させる。   (1) Area information, (2) Luminance information, (3) Chromaticity information, and (4) DCT information calculated in the course of the determination process are stored as feature quantities for use in subsequent correction. The attention image detection process is executed on the condition of the feature amount obtained in this way, and the information of the attention image obtained from the detection result is reflected in the image processing.

図13により受け渡しの説明を行う。横軸は、入力画像の輝度の平均値(Lave)であり、0から255の範囲をとる。縦軸は、変換後の輝度平均値の目標値(NLave)を表しており、範囲は0から255である。   The delivery will be described with reference to FIG. The horizontal axis is the average value (Lave) of the luminance of the input image and takes a range from 0 to 255. The vertical axis represents the target value (NLave) of the luminance average value after conversion, and the range is from 0 to 255.

NLaveの値を図13の変換テーブルより入力画像の輝度平均(Lave)ごとに求め、その結果から図14のテーブルを作成する。作成方法は、横軸の0から255の間に入力画像の輝度平均(Lave=A)値をプロットする。縦軸の0から255の間に変換後の輝度平均値の目標値(NLave=NA)をプロットする。プロット点より垂直に互いの交点を探し出し、その点と(0,0)及び(255,255)を図のように結び変換テーブルを作成する。この変換テーブルを用いることで、画像全体の輝度値を希望する値へ変換することが出来る。   The value of NLave is obtained for each luminance average (Lave) of the input image from the conversion table of FIG. 13, and the table of FIG. 14 is created from the result. The creation method plots the luminance average (Lave = A) value of the input image between 0 and 255 on the horizontal axis. A target value (NLave = NA) of the luminance average value after conversion is plotted between 0 and 255 on the vertical axis. The intersection point is searched for vertically from the plot point, and the conversion point is created by connecting the point and (0, 0) and (255, 255) as shown in the figure. By using this conversion table, the luminance value of the entire image can be converted to a desired value.

画像データを例えば、白銀のゲレンデに立つ人とする(不図示)。画像全体の平均輝度はB(=188)であり注目画像検出にて検出された人物肌の平均輝度はA(=64)とすると、注目画像検出処理が行われない場合は画像補正の露出処理では全体画像の輝度を188から170へ落とす補正を行うが、このように補正すると、本来被写体として一番見たい人物の顔は64よりさらに暗い方向へ補正されるので、画像補正がかえって画像を悪化させてしまう。しかしながら、検出された注目画像の領域の出力を用いることにより画像補正値に反映することができる。そこで、人物肌の平均輝度値である64が露出補正の対象とすると、64を100へ引き上げる露出補正が実行され、画像データの見たい部分をより高品位化することが可能となる。   For example, it is assumed that the image data is a person standing on a white silver slope (not shown). If the average luminance of the entire image is B (= 188) and the average luminance of the human skin detected in the target image detection is A (= 64), the image correction exposure process is performed when the target image detection process is not performed. Then, correction is performed to reduce the brightness of the entire image from 188 to 170. However, by correcting in this way, the face of the person who wants to see most as a subject is corrected in a darker direction than 64, so the image correction is performed instead. It gets worse. However, it can be reflected in the image correction value by using the output of the detected region of the target image. Therefore, if 64, which is the average luminance value of human skin, is the subject of exposure correction, exposure correction is performed by raising 64 to 100, and it is possible to improve the quality of the portion of the image data to be viewed.

図15、図16は、本実施形態による動作のフローチャートである。以上の図を用いて全体の流れの説明を行う。ステップS1501において、図3で示した人物肌領域検出を実行する。   15 and 16 are flowcharts of operations according to this embodiment. The overall flow will be described with reference to the above figures. In step S1501, the human skin region detection shown in FIG. 3 is executed.

図17は、図15、図16に示すフローチャートを説明するためのサンプル画像である。この画像の輝度ヒストグラムを現したものが図18である。横軸は、左端0で、0〜255までの範囲を表している。縦軸は、全画像についての輝度の分布であり、全画像の構成に対しての相対的な量を表している。図17のサンプル画像の平均輝度は84であるが、240以上の明るい部分のピークと35近辺を中心とする暗い部分のピークとが現れ、輝度が2つのピーク部分に2極化して分布していることが分かる。注目が集まる人物の顔領域は90程度で暗い状態である。   FIG. 17 is a sample image for explaining the flowcharts shown in FIGS. 15 and 16. FIG. 18 shows a luminance histogram of this image. The horizontal axis represents the range from 0 to 255 at the left end 0. The vertical axis represents the luminance distribution for all images, and represents the relative amount with respect to the configuration of all images. The average brightness of the sample image in FIG. 17 is 84, but a peak of 240 or more bright parts and a dark part of the peak around 35 appear, and the brightness is distributed in two bipolar parts. I understand that. The face area of a person who attracts attention is about 90 and is dark.

図19は、このサンプル画像に対して、特徴量を抽出しない従来の画像補正手法で画像を補正した結果を示す図である。まず、コントラスト補正に関しては、暗い部分と明るい部分にデータが分布していることから、コントラストが十分検出されるためコントラスト補正を行う必要の無い良好画像と判断される。露出補正に関しては、前述のように図13、14のテーブルを用いて、少し輝度レベルを上げる補正を行うことによって平均輝度は90程度に上がるが、注目が集まる人物の顔領域の輝度変化はほとんど改善されない。   FIG. 19 is a diagram showing a result of correcting an image of this sample image by a conventional image correction method that does not extract a feature amount. First, regarding the contrast correction, since data is distributed in the dark part and the bright part, it is determined that the image is a good image that does not need to be corrected because the contrast is sufficiently detected. With regard to exposure correction, the average brightness is increased to about 90 by performing a correction that slightly increases the brightness level using the tables of FIGS. 13 and 14 as described above, but there is almost no change in the brightness of the face area of a person who attracts attention. Not improved.

そこで、本実施形態の補正を行う。
図20は、図17の画像サンプルに対して図3のフローにて領域検出した結果を示す図である。このサンプル画像には、人肌色領域として定義した色度比率範囲とDCT特性に適合した候補領域として1〜5がある。顔や手の部分で、候補領域が分割されているのはその間の部分における色度比率が適合しなかったと考えられる。検出した候補領域から、この例での人物肌領域の特徴量を取得する。
Therefore, the correction of this embodiment is performed.
FIG. 20 is a diagram showing a result of area detection performed on the image sample of FIG. 17 by the flow of FIG. In this sample image, there are 1 to 5 candidate areas that match the chromaticity ratio range defined as the human skin color area and the DCT characteristics. It is considered that the candidate area is divided in the face and hand parts because the chromaticity ratio in the part between them is not suitable. The feature amount of the human skin area in this example is acquired from the detected candidate area.

ステップS1502において、人物肌領域の検出の有無を判断する。人物肌領域の検出が出来なかったときはS1503へ進み、人物肌領域の未検出フラグをセットして人物肌検出処理フローを終了する。図17の画像サンプルのように、画像中に人物肌領域を検出して特徴量を取得した場合、S1504の取得画像の面積比率判定1へ進む。   In step S1502, it is determined whether or not a human skin region is detected. If the human skin area cannot be detected, the process advances to step S1503 to set an undetected flag for the human skin area and end the human skin detection process flow. When the human skin region is detected in the image and the feature amount is acquired as in the image sample of FIG. 17, the process proceeds to area ratio determination 1 of the acquired image in S1504.

ステップS1504において、検出した人物肌領域の全画像に対する面積比率に基づいて判定を行い適用するテーブルを決定する。面積比率が0.3%以下の場合はS1505へ進み、それ以外はS1506へ進む。ステップS1506において、検出した人物肌領域の全画像に対する面積比率が0.3%〜5.0%であるか否かを判定する。検出した人物肌領域の面積比率が、0.3%〜5.0%の場合はS1507へ進み、それ以外はS1508へ進む。   In step S1504, a determination is made based on the area ratio of the detected human skin region to the entire image, and a table to be applied is determined. If the area ratio is 0.3% or less, the process proceeds to S1505, and otherwise, the process proceeds to S1506. In step S1506, it is determined whether or not the area ratio of the detected human skin region to the entire image is 0.3% to 5.0%. When the area ratio of the detected human skin region is 0.3% to 5.0%, the process proceeds to S1507, and otherwise, the process proceeds to S1508.

ステップS1507は、検出した人物肌領域の面積比率が0.3%〜5.0%の場合であり、露出設定テーブル1をセットして図16のS1601へ進む。   Step S1507 is a case where the area ratio of the detected human skin region is 0.3% to 5.0%, the exposure setting table 1 is set, and the process proceeds to S1601 in FIG.

図21は、露出設定テーブル1である。横の欄のAPD(Attention Picture Detection)検出値は、ここでは、人物肌を注目画像として検出した特徴量のうち検出領域内の平均輝度情報を用いる。検出輝度により“0〜35”、“36〜80”、“81〜120”、“121〜299”と4分割する。縦の欄は、全画像の平均輝度情報である。輝度により“0〜60”、“61〜120”、 “121〜180”と3分割する。   FIG. 21 shows the exposure setting table 1. Here, the APD (Attention Picture Detection) detection value in the horizontal column uses the average luminance information in the detection region among the feature amounts detected from human skin as the target image. According to the detected luminance, it is divided into four, “0 to 35”, “36 to 80”, “81 to 120”, and “121 to 299”. The vertical column is average luminance information of all images. Depending on the brightness, it is divided into three parts, “0-60”, “61-120”, “121-180”.

露出設定テーブルの構成は、検出した人物肌領域の輝度と画像全体の輝度との関係から一定の比率を決定し、その比率で検出した人物肌領域を利用した露出設定を行う。このように、前述の図20におけるLaveの値に代えて露出設定テーブルにて算出した値を入れることにより、画像補正を検出した人物肌領域に対して効果のあげることができる。   In the configuration of the exposure setting table, a certain ratio is determined from the relationship between the luminance of the detected human skin area and the luminance of the entire image, and exposure setting is performed using the human skin area detected at that ratio. As described above, by inserting the value calculated in the exposure setting table in place of the value of “Lave” in FIG. 20 described above, it is possible to increase the effect on the human skin area where the image correction is detected.

ここで、横の欄における“0〜35”と“121〜299”とでは、縦の欄との関連項目がすべて“OFF”であるが、これは、検出した注目画像の特徴量と画像全体の特徴量とを考慮すると、通常の露出補正を行う方が良いと判断した場合であり、この場合は図13、14のテーブルにより露出補正を行う。   Here, in “0 to 35” and “121 to 299” in the horizontal column, all items related to the vertical column are “OFF”. This is because the feature amount of the detected target image and the entire image are displayed. In this case, it is determined that it is better to perform normal exposure correction. In this case, exposure correction is performed using the tables of FIGS.

また、横の欄における“36〜80”と“81〜120”では、人物肌として検出した領域の値を元に露出設定テーブルの比率により指定量を算出する。例えば、APD検出値の輝度が画像サンプルのように90程度の場合には、横の欄は“81〜120”となり、画像全体の輝度は84なので、縦の欄は“61〜120”が該当し、この範囲の指定される比率は“×1.5”が選択される。これにより、検出した人物肌領域の平均輝度を1.5倍した値を算出し、その値を図13のテーブルのLave値として算出した結果を用いることになる。他の欄についても上記のような関係で算出を行って露出補正を行う。   In “36 to 80” and “81 to 120” in the horizontal column, the designated amount is calculated based on the ratio of the exposure setting table based on the value of the area detected as human skin. For example, when the luminance of the APD detection value is about 90 as in the image sample, the horizontal column is “81 to 120” and the luminance of the entire image is 84, so the vertical column is “61 to 120”. Then, “× 1.5” is selected as the designated ratio of this range. As a result, a value obtained by multiplying the average luminance of the detected human skin region by 1.5 is calculated, and the result obtained by calculating the value as the Love value in the table of FIG. 13 is used. For other columns, exposure correction is performed by calculating the relationship as described above.

ステップS1504において検出した人物肌領域の面積比率は0.3%以下の場合である。この場合、露出設定テーブル2をセットし、図16のS1601へ進む。図22は、露出設定テーブル2である。   The area ratio of the human skin area detected in step S1504 is 0.3% or less. In this case, the exposure setting table 2 is set, and the process proceeds to S1601 in FIG. FIG. 22 shows the exposure setting table 2.

ステップS1508において、検出した人物肌領域の面積比率が5.0%以上の場合を判断する。露出設定テーブル3をセットして図16のS1601へ進む。図23は、露出設定テーブル3である。   In step S1508, it is determined whether the area ratio of the detected human skin region is 5.0% or more. The exposure setting table 3 is set and the process proceeds to S1601 in FIG. FIG. 23 shows the exposure setting table 3.

ステップS1601において、上述の人物肌領域の検出結果と画像全体の輝度情報を元に露出設定テーブルを算出するための定数を取得する部分において“OFF”と設定されている関係もしくは0〜255の輝度範囲で、欄の中に設定されていない値の場合など、人物肌領域の検出結果を反映する特別なテーブル設定を必要としないテーブル対応範囲外の場合は、S1602へは進まないで、通常補正を行うために終了する。またテーブル対応範囲内の場合はS1602へ進む。   In step S1601, the relationship that is set to “OFF” in the part for obtaining the constant for calculating the exposure setting table based on the detection result of the human skin region and the luminance information of the entire image, or the luminance of 0 to 255 If the value is not set in the column, such as when the value is outside the table range that does not require special table settings that reflect the detection result of the human skin area, the procedure does not proceed to S1602, and normal correction is performed. Exit to do. If it is within the table correspondence range, the process proceeds to S1602.

ステップS1602において、露出設定テーブルを基に算出した値をセットする。前述の説明で、画像サンプルにおいては、Laveの算出値として、輝度値90×1.5から135となる。この値から図13のテーブルによりNLLaveを導き出す。この結果から変換テーブル図14を作成して露出補正用テーブルを生成することが出来る。その後S104において画像補正が行われる。   In step S1602, a value calculated based on the exposure setting table is set. In the above description, in the image sample, the brightness value is 90 × 1.5 to 135 as the calculated value of Level. From this value, NLLave is derived from the table of FIG. From this result, a conversion table FIG. 14 can be created to generate an exposure correction table. Thereafter, image correction is performed in S104.

図24は、画像サンプルに対して人物肌領域検出の結果を反映した画像補正結果を表す図である。画像平均輝度は129で、注目される人物の顔の輝度も150近辺の輝度まで引き上げられた補正となっている。   FIG. 24 is a diagram illustrating an image correction result in which a result of human skin area detection is reflected on an image sample. The average image brightness is 129, and the brightness of the face of the person of interest is also corrected to a brightness of around 150.

図25は、図24の画像の輝度ヒストグラムである。グラフ構成は前述した図18のヒストグラムと同じである。暗部のピークが輝度90近辺まで上がり、画像全体が明るくなっていることがわかる。   FIG. 25 is a luminance histogram of the image of FIG. The graph configuration is the same as the histogram shown in FIG. It can be seen that the peak of the dark part rises to near luminance 90 and the entire image is bright.

本実施形態では、注目画像検出による結果により特徴量を算出し、その特徴量を補正へ活用するために検出した領域の画像全体に占める比率を用いて補正値を修正するので、注目画像が画像全体へ一定の影響を与えることとなる。このため面積比率により特徴量を生かす補正量を変化させているが、面積比率による判別方法は、複数個の閾値によらず、面積比率に対する数式による連続的は変化でも良い。   In the present embodiment, the feature amount is calculated based on the result of the target image detection, and the correction value is corrected using the ratio of the detected area to the entire image in order to use the feature amount for correction. It will have a certain impact on the whole. For this reason, the correction amount that makes use of the feature amount is changed according to the area ratio. However, the determination method based on the area ratio may be a continuous change based on a mathematical expression for the area ratio, regardless of a plurality of threshold values.

また、本実施形態では、注目画像検出した領域と全体画像の輝度値により露出補正設定量を決定しているが、この決定も複数個の閾値による必要はない。さらに、注目画像検出した領域特徴量と全体画像における面積率と全体画像の特徴量による3者間の関係において数式による関係で画像補正における修正を行っても良い。   In this embodiment, the exposure correction setting amount is determined based on the region where the target image is detected and the brightness value of the entire image. However, this determination need not be based on a plurality of threshold values. Furthermore, the correction in image correction may be performed based on a mathematical expression of the relationship between the three parties based on the region feature amount of the target image detected, the area ratio in the entire image, and the feature amount of the entire image.

以上説明してきたが、本実施形態における注目画像は、説明に上げた人物肌、青空、夜景などにとどまるものではなく、特定の注目領域であれば対象となりうることは言うまでもない。例えば、特定の色域とか特定の輝度範囲など注目画像の概念は注目領域としても含まれる。   As described above, the attention image in the present embodiment is not limited to the human skin, the blue sky, the night view, and the like described above, but it is needless to say that the attention image can be a target if it is a specific attention area. For example, the concept of the attention image such as a specific color gamut or a specific luminance range is also included as the attention area.

本発明の一実施例にかかる補正処理の全体の流れを表すフローチャートを示す図である。It is a figure which shows the flowchart showing the flow of the whole correction | amendment process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理の複数の検出対象に対する実行選択をおこなうフローチャートを示す図である。It is a figure which shows the flowchart which performs execution selection with respect to the some detection target of the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における人物肌検出からの情報取得をおこなうフローチャートを示す図である。It is a figure which shows the flowchart which performs the information acquisition from the person skin detection in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における青空検出からの情報取得をおこなうフローチャートを示す図である。It is a figure which shows the flowchart which performs the information acquisition from the blue sky detection in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における夜景検出からの情報取得をおこなうフローチャートを示す図である。It is a figure which shows the flowchart which performs the information acquisition from the night view detection in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における青空検出の対象となる画像サンプルを示す図である。It is a figure which shows the image sample used as the object of the blue sky detection in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかか元画像サンプルに注目画像検出処理を行った結果の画像を示す図である。It is a figure which shows the image of the result of having performed the attention image detection process to the original image sample concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における青空検出の検出面積率と検出成功率との関係を示すグラフを表す図である。It is a figure showing the graph which shows the relationship between the detection area rate of the blue sky detection in the attention image detection process concerning one Example of this invention, and a detection success rate. 本発明の一実施例にかかる注目画像を青空検出としたときの検出確率と検出面積率による補正値への対応を示す図である。It is a figure which shows the response | compatibility to the correction value by the detection probability and detection area rate when the attention image concerning one Example of this invention is made into a blue sky detection. 本発明の一実施例にかかる注目画像検出処理における青空検出成功率による補正値の修正のフローチャートを示す図である。It is a figure which shows the flowchart of correction of the correction value by the blue sky detection success rate in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における人物肌検出を実行する画像サンプルを示す図である。It is a figure which shows the image sample which performs the person skin detection in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる元画像サンプルに注目画像検出処理を行った検出結果を示す図である。It is a figure which shows the detection result which performed the attention image detection process to the original image sample concerning one Example of this invention. 本発明の一実施例にかかる露出補正量決定テーブルの例である。It is an example of the exposure correction amount determination table concerning one Example of this invention. 本発明の一実施例にかかる露出補正用のルックアップテーブルの例を示す図である。It is a figure which shows the example of the look-up table for exposure correction concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における人物肌検出から補正値の修正を行うフローチャートを示す図である。It is a figure which shows the flowchart which corrects a correction value from the person skin detection in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における人物肌検出から補正値の修正を行うフローチャートを示す図である。It is a figure which shows the flowchart which corrects a correction value from the person skin detection in the attention image detection process concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における人物肌検出の対象となる画像サンプルである。本発明の一実施例にかかる元画像サンプル3に対して注目画像検出処理を行った検出結果サンプル3である。It is an image sample used as the object of human skin detection in the attention image detection process concerning one Example of this invention. It is the detection result sample 3 which performed the attention image detection process with respect to the original image sample 3 concerning one Example of this invention. 本発明の一実施例にかかる図17の画像サンプルのヒストグラムを示す図である。It is a figure which shows the histogram of the image sample of FIG. 17 concerning one Example of this invention. 本発明の一実施例にかかるサンプル画像に通常の画像補正を行った結果を示す図である。It is a figure which shows the result of having performed normal image correction to the sample image concerning one Example of this invention. 本発明の一実施例にかかる画像サンプルに注目画像検出処理を行った検出結果を示す図である。It is a figure which shows the detection result which performed the attention image detection process to the image sample concerning one Example of this invention. 本発明の一実施例にかかる注目画像検出処理における人物肌検出の面積率が0.3%より上から5%未満の場合の最適化露出補正テーブルを示す図である。It is a figure which shows the optimization exposure correction table in case the area ratio of the human skin detection in the attention image detection process concerning one Example of this invention is more than 0.3% and less than 5%. 本発明の一実施例にかかる注目画像検出処理における人物肌検出の面積率が0.3%以下の場合の最適化露出補正テーブルを示す図である。It is a figure which shows the optimization exposure correction table in case the area rate of the person skin detection in the attention image detection process concerning one Example of this invention is 0.3% or less. 本発明の一実施例にかかる注目画像検出処理における人物肌検出の面積率が5%以上の場合の最適化露出補正テーブルを示す図である。It is a figure which shows the optimization exposure correction table in case the area rate of the person skin detection in the attention image detection process concerning one Example of this invention is 5% or more. 本発明の一実施例にかかるサンプル画像に対して注目画像検出の情報を元に補正を行った結果を示す図である。It is a figure which shows the result of having corrected based on the information of attention image detection with respect to the sample image concerning one Example of this invention. 本発明の一実施例にかかる図24画像のヒストグラムである。It is a histogram of the FIG. 24 image concerning one Example of this invention. 本実施形態の画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus of this embodiment. 本実施形態の画像処理を実現するハードウエア及びソフトウエアの構成例を示す図である。It is a figure which shows the structural example of the hardware and software which implement | achieve the image processing of this embodiment.

符号の説明Explanation of symbols

2610 復号部
2620 色調補正部
2630 画像認識部
2631 対象色領域検出部
2632 空間周波数生成部
2633 対象色領域選別部
2634 色調補正禁止部
2710 CPU
2720 ROM
2730 RAM
2731、2741 データ記憶領域
2732、2742 プログラムロード領域
2740 外部記憶部
2750 入力インタフェース
2760 出力インタフェース
2610 Decoding unit 2620 Color tone correction unit 2630 Image recognition unit 2631 Target color region detection unit 2632 Spatial frequency generation unit 2633 Target color region selection unit 2634 Color tone correction prohibition unit 2710 CPU
2720 ROM
2730 RAM
2731, 2741 Data storage area 2732, 2742 Program load area 2740 External storage unit 2750 Input interface 2760 Output interface

Claims (4)

入力画像データに含まれる注目画像を抽出するステップと、該注目画像の特徴量に基づいて算出された標準補正値を用いて入力画像データを補正して出力画像データを生成する補正ステップとを備えた画像処理方法において、
該注目画像の領域を解析して、前記入力画像データの全領域に対する前記注目画像の領域の比率である面積比を含む特徴情報を取得するステップと、
前記特徴情報に含まれる色度情報またはDCT情報から、前記注目画像の検出の成功率を算出するステップと、
前記面積比率と前記成功率とを用いて前記算出された標準補正値を修正して実補正値を取得する修正ステップと、
前記注目画像の領域における輝度情報から前記注目画像における平均輝度を算出するステップと
を備え、前記補正ステップは、該実補正値を用いて入力画像データを補正し、前記修正ステップは、前記面積比率と前記成功率とが大きいほど前記標準補正値の修正比を大きくし、
前記補正ステップは、前記面積比率、および前記注目画像における平均輝度と、前記入力画像データの平均輝度とに基づいて、前記入力画像データに対して輝度補正を行なうことを特徴とする画像処理方法。
A step of extracting a target image included in the input image data; and a correction step of correcting the input image data using a standard correction value calculated based on the feature amount of the target image to generate output image data. In the image processing method,
A step of analyzing the region of the noted image, obtains the feature information including the area ratio ratio is the ratio of the area of the target image with respect to the entire region of the input image data,
Calculating a success rate of detection of the target image from chromaticity information or DCT information included in the feature information;
A correction step of correcting the calculated standard correction value using the area ratio and the success rate to obtain an actual correction value;
Calculating an average luminance in the target image from luminance information in the region of the target image, wherein the correction step corrects input image data using the actual correction value, and the correction step includes the area ratio. And the greater the success rate, the larger the correction ratio of the standard correction value ,
The image processing method according to claim 1, wherein in the correction step, luminance correction is performed on the input image data based on the area ratio, the average luminance of the target image , and the average luminance of the input image data .
前記注目画像は、青空であることを特徴とする請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein the target image is a blue sky. 前記注目画像は、人物肌であることを特徴とする請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein the attention image is human skin. 入力画像データに含まれる注目画像を抽出する抽出手段と、該注目画像の特徴量に基づいて算出された標準補正値を用いて入力画像データを補正して出力画像データを生成する補正手段とを備えた画像処理装置において、
該注目画像の領域を解析して、前記入力画像データの全領域に対する前記注目画像の領域の比率である面積比率を含む特徴情報を取得する解析手段と、
前記特徴情報に含まれる色度情報またはDCT情報から、前記注目画像の検出の成功率を算出する算出手段と、
前記面積比率と前記成功率とを用いて前記算出された標準補正値を修正して実補正値を取得する修正手段と、
前記注目画像の領域における輝度情報から前記注目画像における平均輝度を算出する手段と
を備え、前記補正手段は、該実補正値を用いて入力画像データを補正し、前記修正手段は、前記面積比率と前記成功率とが大きいほど前記標準補正値の修正比を大きくし、
前記補正手段は、前記面積比率、および前記注目画像における平均輝度と、前記入力画像データの平均輝度とに基づいて、前記入力画像データに対して輝度補正を行なうことを特徴とする画像処理装置。
Extraction means for extracting an attention image included in the input image data, and correction means for correcting the input image data using the standard correction value calculated based on the feature amount of the attention image and generating output image data In the image processing apparatus provided,
Analyzing the region of the target image and obtaining feature information including an area ratio that is a ratio of the region of the target image to the entire region of the input image data;
Calculating means for calculating a success rate of detection of the target image from chromaticity information or DCT information included in the feature information;
Correction means for correcting the calculated standard correction value using the area ratio and the success rate to obtain an actual correction value;
Means for calculating an average luminance in the target image from luminance information in the region of the target image, the correction unit corrects input image data using the actual correction value, and the correction unit includes the area ratio. And the greater the success rate, the larger the correction ratio of the standard correction value ,
The image processing apparatus , wherein the correction unit performs luminance correction on the input image data based on the area ratio, average luminance in the target image , and average luminance of the input image data .
JP2003403759A 2003-12-02 2003-12-02 Image processing method and apparatus Expired - Fee Related JP4659354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003403759A JP4659354B2 (en) 2003-12-02 2003-12-02 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003403759A JP4659354B2 (en) 2003-12-02 2003-12-02 Image processing method and apparatus

Publications (3)

Publication Number Publication Date
JP2005165684A JP2005165684A (en) 2005-06-23
JP2005165684A5 JP2005165684A5 (en) 2009-11-05
JP4659354B2 true JP4659354B2 (en) 2011-03-30

Family

ID=34726965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003403759A Expired - Fee Related JP4659354B2 (en) 2003-12-02 2003-12-02 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP4659354B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8107762B2 (en) 2006-03-17 2012-01-31 Qualcomm Incorporated Systems, methods, and apparatus for exposure control
JP4906627B2 (en) * 2007-07-31 2012-03-28 キヤノン株式会社 Image processing apparatus, image processing method, computer program, and storage medium
JP4557035B2 (en) * 2008-04-03 2010-10-06 ソニー株式会社 Information processing apparatus, information processing method, program, and recording medium
JP4831175B2 (en) * 2009-01-27 2011-12-07 ソニー株式会社 Imaging apparatus and imaging method
JP2010199844A (en) * 2009-02-24 2010-09-09 Ricoh Co Ltd Image processor, image processing method, program and storage medium
JP5671997B2 (en) * 2010-12-24 2015-02-18 株式会社リコー Image forming apparatus, image forming method, and image forming program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
JP2003281535A (en) * 2002-03-22 2003-10-03 Seiko Epson Corp Image processor and image output device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
JP2003281535A (en) * 2002-03-22 2003-10-03 Seiko Epson Corp Image processor and image output device

Also Published As

Publication number Publication date
JP2005165684A (en) 2005-06-23

Similar Documents

Publication Publication Date Title
US7945109B2 (en) Image processing based on object information
JP4081060B2 (en) Image quality correction apparatus and image quality correction method
EP2367138B1 (en) Image attribute discrimination apparatus, attribute discrimination support apparatus, image attribute discrimination method, attribute discrimination support apparatus controlling method, and control program
US8160360B2 (en) Image processing apparatus and method and a non-transitory computer readable medium with computer executable instructions stored thereon for performing an image processing method
EP1274228A2 (en) Method for representing a digital color image using a set of palette colors based on detected important colors
EP1802095B1 (en) Image correction device, method, and image correction program
JP2007336019A (en) Image processing apparatus, imaging apparatus, image output apparatus, and method and program in these apparatuses
US8437542B2 (en) Image processing apparatus, method, and program
US20090041343A1 (en) Image processing apparatus, image processing method and computer-readable medium
JP2009290822A (en) Image processing apparatus, image processing method, program and recording medium
JP4659354B2 (en) Image processing method and apparatus
CN110210467B (en) Formula positioning method of text image, image processing device and storage medium
US6269186B1 (en) Image processing apparatus and method
JP4900373B2 (en) Image output apparatus, image output method and program
US9092661B2 (en) Facial features detection
JP2003018413A (en) Image compressor, image compression method, program code and storage medium
JP2000013596A (en) Device and method for processing image and recording medium with image processing program recorded there
JP2000013605A (en) Image processor, method and record medium recording image processing program
JP4135365B2 (en) Image processing apparatus and method, recording medium, and program
JP5245991B2 (en) BRIGHTNESS CORRECTION PROGRAM, BRIGHTNESS CORRECTION METHOD, AND BRIGHTNESS CORRECTION DEVICE
JP2000013612A (en) Device and method for image processing and recording medium recorded with image processing program
JP2001045303A (en) Image thresholding method
JP5069599B2 (en) Video conversion apparatus, video conversion method, and video conversion program
JPH11136505A (en) Picture processor and picture processing method
JP2005020413A (en) Image processor, image processing method and program for making computer execute the method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100723

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100727

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees