JPH0862741A - Gradation correcting device - Google Patents

Gradation correcting device

Info

Publication number
JPH0862741A
JPH0862741A JP6198308A JP19830894A JPH0862741A JP H0862741 A JPH0862741 A JP H0862741A JP 6198308 A JP6198308 A JP 6198308A JP 19830894 A JP19830894 A JP 19830894A JP H0862741 A JPH0862741 A JP H0862741A
Authority
JP
Japan
Prior art keywords
block
dark
image
backlight
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6198308A
Other languages
Japanese (ja)
Other versions
JP3018914B2 (en
Inventor
Katsuhiro Kanamori
克洋 金森
Tsumoru Fukushima
積 福島
Haruo Yamashita
春生 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP6198308A priority Critical patent/JP3018914B2/en
Priority to US08/504,658 priority patent/US5715377A/en
Publication of JPH0862741A publication Critical patent/JPH0862741A/en
Priority to US08/826,333 priority patent/US5940530A/en
Application granted granted Critical
Publication of JP3018914B2 publication Critical patent/JP3018914B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Exposure In Printing And Copying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE: To judge reliability with which an input image is backlight scene and a backlight degree in a backlight scene by a picture processing and simultaneously to judge reliability with which an input image is figure photographing scene and a figure degree in order to achieve highly precise discrimination process for forming an optimum gradation correcting curve by judging an input image to make a video- print having a backlight condition or non-beautiful skin color of a person higher image quality. CONSTITUTION: A backlight judging part 103 judges backlight from brightness and shape of a dark part by blocking and binarizing the image and calculates backlight degree from estimation of face brightness of the person. A person judging part 104 judges the presence of the person from chromaticity and brightness of skin color and calculates pereon degree from skin color brightness. Reliability of a scene characteristic is calculated from the backlight judging part 103, the figure judging part 104, a category classifying part 105 and a scene information deciding part 106 and the gradation correcting of the optimum picture is performed by inputting these pieces of information into a gradation correcting part 107. Consequently, an image judging result with higher precision hereto can be obtained and optimum gradation correcting to the image is attained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はビデオプリンタなどの画
像の高画質化のための階調補正装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gradation correction device for improving the image quality of an image in a video printer or the like.

【0002】[0002]

【従来の技術】ビデオプリンタでプリントされる画像・
映像はアマチュアが家庭用ムービーカメラで撮影したも
のが多い。屋外で日中撮影された映像は専用ビデオライ
トなどの照明が無いために多くの場合人物が逆光シーン
になっており、このままプリントすると人物の顔が暗く
再現されてしまう。そこで入力画像が逆光シーンである
ことを判定し、逆光と判定された場合には画像の輝度と
彩度を増加して暗い顔を美しく再現する技術が必要であ
る。また人物の顔アップの人物撮影シーンにおいて、肌
色階調を特に調整されたものに変更し、より美しい肌色
を再現する技術も重要である。この場合には人物判定の
技術が必要になる。
2. Description of the Related Art Images printed by a video printer
Many videos were shot by amateurs with home-use movie cameras. Images taken outdoors during the daytime are often backlit scenes because there is no illumination such as a dedicated video light, and if they are printed as they are, the faces of the people will appear dark. Therefore, it is necessary to determine that the input image is a backlit scene, and if it is determined to be backlit, a technique for increasing the brightness and saturation of the image to beautifully reproduce a dark face is required. It is also important to change the flesh color gradation to a specially adjusted one in a person shooting scene in which the face of a person is up to reproduce a more beautiful flesh color. In this case, a person determination technique is required.

【0003】逆光シーン判定の従来の技術においては、
ビデオカメラに搭載されて中央重点測光により被写体が
暗くならないように露出を最適制御するアイリスを自動
制御するもの(特開平5−122600号公報)と劣化
した画像について階調カーブを最適に選択して階調補正
するもの(特開平3−106269号公報)の2種類が
ある。しかし、いずれも逆光シーン判定において画面の
中央部と全体の輝度比を計算して判定している。被写体
が常に画面の中央に存在する、あるいは被写体の平均輝
度が逆光の度合に相当するという仮定をおいている点に
特徴があると思われる。被写体位置にやや自由度をもた
せたものとして画面をブロック分割し画面中央部ブロッ
ク内の輝度分布との相関により主要被写体を見つけるも
の(特開平4−340875号公報)があり、画面の特
殊な分割測光によって被写体の平均輝度を求める際に被
写体の着ている明るい色あるいは暗い色の服などの影響
をなくすもの(特開平5−122600号公報)があ
る。
In the prior art of backlight scene determination,
The one that automatically controls the iris that is mounted on a video camera and optimally controls the exposure so that the subject is not darkened by center-weighted photometry (Japanese Patent Laid-Open No. 5-122600) and the gradation curve is optimally selected for a deteriorated image. There are two types of gradation correction (Japanese Patent Laid-Open No. 3-106269). However, in both cases, in the backlight scene determination, the brightness ratio between the central portion of the screen and the entire screen is calculated for the determination. The feature seems to be that it is assumed that the subject always exists in the center of the screen or that the average brightness of the subject corresponds to the degree of backlight. There is one in which the screen is divided into blocks with some degree of freedom in the position of the subject and the main subject is found by correlation with the luminance distribution in the central block of the screen (JP-A-4-340875), and there is a special division of the screen. There is a method (Japanese Unexamined Patent Publication No. 5-122600) that eliminates the influence of bright or dark clothes worn by the subject when obtaining the average luminance of the subject by photometry.

【0004】一方、人物判定における従来の技術は、肌
色近傍の色相を検出するもの(特開平4−23592号
公報)、色相と彩度の2次元ヒストグラムにて画像領域
分割を用いるもの(特開平4−346334号公報)な
どがあるが、いずれも色度平内で肌色らしい領域を決め
て色度のみで処理、判定している。
On the other hand, a conventional technique for determining a person is to detect a hue in the vicinity of a skin color (Japanese Patent Laid-Open No. 23592/1992), and to use image area division by a two-dimensional histogram of hue and saturation (Japanese Patent Laid-Open No. No. 4-346334), all of them determine a region that seems to be a skin color within the chromaticity plane and process and judge only by the chromaticity.

【0005】[0005]

【発明が解決しようとする課題】従来、逆光判定におい
ては、被写体が画面中央に存在するとの前提に基づいて
いるため、被写体が画面上で左右に片寄っている場合、
あるいは2人の被写体が分離している場合、などに逆光
判定が正しく行われない課題があった。また、背景のみ
が暗い画像、あるいは長い黒髪の女性の画像など黒領域
面積が多い画像を逆光と誤判定する課題があった。さら
に、同じ照明状態でも黒服と白服で大きく逆光度合が変
化してしまうなど逆光度合計算の基準があいまいであっ
た。一方、人物判定においては、人物形状のモデル化は
困難であることから画像上の色分布を色度図へマッピン
グして肌色の確率が高い場所を色相、彩度で検出する方
針をとる技術が多い。しかし、屋外では照明光の影響で
肌色の色相、彩度がずれている。また肌色の色度は人種
や化粧により変動する。さらに肌色系統の色は自然界に
いくらでも存在するため、特に画像下部など本来人物の
顔がありえないような場所にある肌色領域で過剰検出さ
れるなどの課題があった。
Conventionally, in backlight determination, it is based on the premise that the subject is present in the center of the screen. Therefore, when the subject is offset to the left or right on the screen,
Alternatively, when the two subjects are separated, there is a problem that the backlight determination is not performed correctly. There is also a problem that an image with a large black area such as an image with only a dark background or an image of a woman with long black hair is erroneously determined as backlight. In addition, the standard for calculating the degree of back light was ambiguous, such that the degree of back light changed greatly between black and white clothes under the same lighting conditions. On the other hand, in person determination, since it is difficult to model the shape of a person, there is a technique that maps the color distribution on the image to a chromaticity diagram and detects the location with a high probability of skin color by hue and saturation. Many. However, outside, the hue and saturation of the skin color are deviated due to the influence of illumination light. In addition, the chromaticity of skin color varies depending on race and makeup. Furthermore, since there are as many flesh-colored colors in the natural world, there is a problem that they are excessively detected in a flesh-colored area such as a lower part of an image where a person's face cannot be originally supposed.

【0006】本発明は上記従来の課題を解決するもの
で、従来より高精度に逆光判定でき、また照明の影響を
受けずに人物判定でき、その結果高画質のビデオプリン
トを得ることができる階調補正装置を提供することを目
的とする。
The present invention solves the above-mentioned problems of the prior art, and makes it possible to perform backlight determination with higher accuracy than before, and to determine a person without being affected by illumination, and as a result, a high-quality video print can be obtained. An object of the present invention is to provide an adjustment device.

【0007】[0007]

【課題を解決するための手段】この目的を達成するため
に本発明の階調補正装置は入力画像をブロック分割して
輝度色度情報を求めるブロック情報取得部と、前記ブロ
ック情報取得部の出力により、例えば逆光シーン及び人
物シーン等の前記入力画像の特徴ごとに前記特徴の有無
を判定する特徴有無判定手段と、前記特徴に合致した画
像処理により前記入力画像の特定部位の明るさ度合を決
定する度合情報決定手段と、前記入力画像を前記各特徴
有無判定手段の出力の組み合わせによって個々のカテゴ
リへと分類するカテゴリ分類部と、前記個々のカテゴリ
毎に前記入力画像が前記各特徴をどの程度の信頼度にて
有しているかを決定するシーン情報決定部と、前記度合
情報決定手段の出力と前記シーン情報決定部の出力に応
じて前記入力画像に最適な階調補正を施す階調補正部と
を具備するものである。
In order to achieve this object, a gradation correction apparatus according to the present invention comprises a block information acquisition unit for dividing an input image into blocks to obtain luminance / chromaticity information, and an output of the block information acquisition unit. According to the feature presence determination means for determining the presence or absence of the feature for each feature of the input image such as a backlit scene and a person scene, and the brightness degree of a specific portion of the input image is determined by image processing that matches the feature. And a category classification unit that classifies the input image into individual categories by the combination of the outputs of the respective feature presence / absence determining units, and to what extent the input image identifies each feature for each individual category. Scene information deciding unit for deciding whether or not the input image has the reliability, and the input image according to the output of the degree information deciding unit and the output of the scene information deciding unit. Those having a gradation correction unit for performing optimal gradation correction.

【0008】[0008]

【作用】この構成により、まず入力画像を縦横に粗くブ
ロック分割し、そのブロック情報を処理することにより
逆光判定と人物判定をする。
With this configuration, the input image is first roughly divided into blocks vertically and horizontally, and the backlight information and the person are determined by processing the block information.

【0009】逆光判定においては、逆光被写体は画面中
央に存在する仮定を使わずに逆光シーンを暗部の形状と
輝度において判定するために従来よりも高精度の判定が
でき、逆光度合についても人物顔部を推定して評価する
ため信頼できる値を得ることができる。また人物判定に
おいては、肌色判定を基調とするが、色度からの候補デ
ータを基に、肌色階調を含めて主成分分析手法で肌色分
布を求め、その角度で判定する方法をとっており、比較
的に照明変動の影響を受けずに検出できる。
In the backlight judgment, since the backlight scene is judged based on the shape and brightness of the dark part without using the assumption that the backlight object exists in the center of the screen, the judgment can be performed with higher accuracy than before, and the degree of backlight can also be determined as a human face. Since the part is estimated and evaluated, a reliable value can be obtained. In the human judgment, the skin color judgment is used as the basis, but the skin color distribution is calculated by the principal component analysis method including the skin color gradation based on the candidate data from the chromaticity, and the judgment is made based on the angle. , Can be detected relatively without being affected by illumination fluctuation.

【0010】上記の逆光判定及び人物判定からそれぞれ
の度合及び信頼度が得られ、それらから最適な階調補正
カーブが生成されて階調補正を行うことができるため、
元画像の品質があまり高画質でない場合でも高画質のビ
デオプリントを得ることができる。
Since the respective degrees and reliability are obtained from the above-described backlight judgment and person judgment, an optimum gradation correction curve is generated from them, and gradation correction can be performed,
Even if the quality of the original image is not very high, a high quality video print can be obtained.

【0011】[0011]

【実施例】以下、本発明の一実施例の全体構成につい
て、図1を用いて説明する。図1は本発明の一実施例に
おける階調補正装置のブロック結線図である。図1にお
いて、101は入力画像で、ビデオプリンタなどから入
力された画像であり、102はブロック情報取得部で、
入力画像101を縦横にブロック分割し、各ブロックで
の代表値を決定し、その代表値をブロック情報として出
力する。103は逆光判定部で、前記ブロック情報を受
けて、逆光有無判定手段103a及び逆光度合情報決定
手段103bにより、それぞれ逆光有無判定108及び
逆光度合110を計算する。104は人物判定部で、前
記ブロック情報を受けて、人物有無判定手段104a及
び人物度合情報決定手段104bにより、それぞれ人物
有無判定109及び人物度合111を計算する。105
はカテゴリ分類部で、逆光有無判定108と人物有無判
定110の2つの情報を組み合わせて入力画像を第1に
「逆光の人物撮影シーンである」、第2に「逆光である
が人物撮影シーンではない」、第3に「逆光ではなく人
物撮影シーンである」、第4に「逆光ではなく人物撮影
シーンでもない」という4カテゴリのうちの1つのカテ
ゴリに分類する。106はシーン情報決定部で、選択さ
れたカテゴリ情報から、階調補正での補正カーブの合成
時に必要な「逆光シーン」・「人物撮影シーン」・「そ
の他」という画像シーンの3つの特徴の各信頼度情報1
12を決定する。107は階調補正部で、信頼度情報1
12、逆光度合110、及び人物度合111を基にして
階調補正カーブを生成する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The overall structure of an embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a block connection diagram of a gradation correction apparatus according to an embodiment of the present invention. In FIG. 1, 101 is an input image, which is an image input from a video printer, and 102 is a block information acquisition unit.
The input image 101 is vertically and horizontally divided into blocks, a representative value in each block is determined, and the representative value is output as block information. A backlight determination unit 103 receives the block information and calculates a backlight presence determination 108 and a backlight intensity 110 by a backlight presence determination unit 103a and a backlight intensity information determination unit 103b, respectively. A person determination unit 104 receives the block information and calculates a person presence / absence determination 109 and a person degree 111 by a person presence / absence determination unit 104a and a person degree information determination unit 104b. 105
Is a category classifying unit that combines two pieces of information, that is, backlight presence / absence determination 108 and person presence / absence determination 110, into an input image as a first "a backlit portrait shooting scene" and a second "a backlight but a portrait shooting scene." It is classified into one of four categories: “no”, thirdly “a person shooting scene, not backlight”, and fourth “not a person shooting scene, not backlight”. Reference numeral 106 denotes a scene information determination unit, which has three characteristics of an image scene, “backlight scene”, “portrait shooting scene”, and “others”, which are required when synthesizing a correction curve in gradation correction from the selected category information. Reliability information 1
Decide 12 Reference numeral 107 denotes a gradation correction unit, which is reliability information 1
A gradation correction curve is generated based on 12, the degree of backlight 110, and the degree of person 111.

【0012】以下、本発明の一実施例の各ブロックにつ
いて説明する。まず、ブロック情報取得部102につい
て説明する。ブロック情報取得部102に入力される入
力画像101は、ビデオプリンタなどからのアナログ信
号をA/D変換した各画素が輝度Y、及び色差RY、B
Yで表現されたフルカラー画像である。ここで、RY=
R−Y、BY=B−Yである。この画像をそのまま逆光
判定及び人物判定に用いるとデータ処理量が増えてしま
うのでブロック情報取得部102では画面を縦横にブロ
ック分割し、各ブロックでの代表値のみをブロック情報
として判定に使用する。ブロック情報は (1)平均値 各ブロックでの色の平均値 (2)WP値 各ブロック内での輝度Yの最大である画
素(箇所)での色 (3)BP値 各ブロック内での輝度Yの最小である画
素(箇所)での色 の3種類の色情報からなり、いずれも輝度Yと色差R
Y、BYにて表現されている。この情報はブロック内の
色分布情報と階調情報との両方を含んでいるといえる。
たとえば、色としておなじ肌色でも塗り壁のように1ブ
ロックがすべて「べた色」の場合には3種類の情報はす
べて一致するが、人間の顔のような凹凸物体ではブロッ
ク内に陰影を持つため一般に3種類の肌色は異なりWP
はほとんどハイライト、BPはほとんど黒になる。この
ようにブロック情報は解像度情報は低下しているが、あ
る程度の階調情報を持っている。
Each block of one embodiment of the present invention will be described below. First, the block information acquisition unit 102 will be described. In the input image 101 input to the block information acquisition unit 102, each pixel obtained by A / D converting an analog signal from a video printer or the like has a luminance Y and color differences RY and B.
It is a full-color image represented by Y. Where RY =
RY and BY = BY. If this image is used as it is for backlight determination and person determination, the amount of data processing increases, so the block information acquisition unit 102 divides the screen into blocks vertically and horizontally, and uses only the representative value of each block as block information for determination. The block information includes (1) average value, average value of colors in each block, (2) WP value, color at pixel (location) where luminance Y is maximum in each block, (3) BP value, luminance in each block It consists of three types of color information of the color at the pixel (location) where Y is the smallest, and all of them are luminance Y and color difference R.
It is expressed by Y and BY. It can be said that this information includes both the color distribution information within the block and the gradation information.
For example, even if the color is the same as the skin color, if one block is all "solid color" like a painted wall, all three types of information match, but an uneven object such as a human face has shadows in the block. Generally, three skin colors are different and WP
Is almost highlighted, and BP is almost black. As described above, the block information has some resolution information, but has some gradation information.

【0013】また、本実施例では記述していないが、こ
のブロック情報は、被写体の照明による影響を取り除く
ホワイトバランス補正処理や標準的な輝度補正であるA
GC(オートゲインコントロール)処理などは既に実施
されているものとする。
Although not described in the present embodiment, this block information is white balance correction processing for removing the influence of the illumination of the subject and standard brightness correction A
It is assumed that GC (auto gain control) processing and the like have already been performed.

【0014】次に逆光判定部103の詳細について図2
を用いて説明する。図2は本発明の一実施例における階
調補正装置の要部である逆光判定部103のブロック結
線図である。はじめに、逆光画像の判定方針を説明す
る。本実施例では「逆光画像と順光画像との差は画像内
での陰影の分布パターンにある」と考える。順光状態で
は照明光が被写体の正面から投影されるので画像をブロ
ック平均画像にて表現した場合の陰影ブロックは、画像
全体に片寄りなくまばらに存在する。逆光画像では照明
光が被写体に対して上方あるいは背面から投影されるの
で陰影ブロックは画像の下部に塊として存在するか、あ
るいは画像の上部から下部にかけて存在する。この陰影
ブロックの輝度と塊パターンの2つ(輝度と形状)を用
いて逆光を判断することとした。2人の人物が逆光状態
にある場合には画像の中央が明るくなることもあるため
本手法では、陰影が画像中央にあるという仮定は使用し
なかった。この方針にしたがってブロック情報の平均輝
度を主として用い、輝度のしきい値処理により陰影(暗
部)になっているブロックを判定後、暗部平均輝度値、
明部/暗部の輝度比、暗部の形状という3条件を全て考
慮して逆光判定する。
Next, the details of the backlight determining unit 103 will be described with reference to FIG.
Will be explained. FIG. 2 is a block connection diagram of the backlight determination unit 103, which is a main part of the tone correction apparatus in one embodiment of the present invention. First, the determination policy of the backlight image will be described. In the present embodiment, it is considered that "the difference between the backlit image and the normal image is the distribution pattern of the shadows in the image". Since the illumination light is projected from the front of the subject in the normal light state, the shadow blocks when the image is represented by the block average image are sparsely distributed in the entire image without deviation. In the backlight image, the illumination light is projected onto the subject from above or from the back surface, so that the shadow block exists as a block at the bottom of the image or from the top to the bottom of the image. It is decided to determine the backlight by using the brightness of the shadow block and the lump pattern (the brightness and the shape). Since the center of the image may be bright when two persons are backlit, this method does not use the assumption that the shadow is in the center of the image. According to this policy, the average brightness of the block information is mainly used, and after determining the blocks in the shadow (dark area) by the brightness threshold processing, the dark area average brightness value,
The backlight judgment is performed in consideration of all three conditions, that is, the brightness ratio of the bright part / dark part and the shape of the dark part.

【0015】図2において入力画像ブロック情報201
は、前記ブロック情報の3種類の情報のうち、ブロック
平均色で作られる画像であり、各ブロックごとに平均輝
度と平均色度が算出されている。画像平均輝度計算手段
202にて全ブロックの平均輝度の平均値を求め、明暗
ブロック輝度処理手段203にて画像が二値化され暗部
と明部の2種類のブロックに分類される。図3に以上の
処理の実施例を示す。図3(a)は入力されるカラー画
像であり、この場合は逆光の人物のバストショットであ
る。図3(b)は画面を縦(x方向)7ブロック横(y
方向)10ブロックの計70ブロックに分割して取得さ
れたブロック平均色画像のうち平均輝度画像を示してお
り、これを各ブロックの輝度の全体の平均で二値化する
と図3(c)のようになる。逆光部分の人物の形がほぼ
暗部に相当する。ここで、ブロック平均輝度画像、二値
化画像をそれぞれ2次元配列 AV_YY[x][y]、dark_tbl
[x][y] 、として表現すると全ブロックの平均輝度の平
均値mean_yは、
In FIG. 2, input image block information 201
Is an image made of the block average color among the three types of information of the block information, and the average luminance and the average chromaticity are calculated for each block. The average value of the average brightness of all blocks is calculated by the image average brightness calculation means 202, and the image is binarized by the light / dark block brightness processing means 203 to be classified into two types of blocks, a dark part and a bright part. FIG. 3 shows an example of the above processing. FIG. 3A is a color image to be input, and in this case, it is a bust shot of a backlit person. In FIG. 3B, the screen is vertically (x direction) 7 blocks horizontally (y
Direction) shows an average luminance image of a block average color image obtained by dividing the block into a total of 70 blocks, and when this is binarized by the average of the entire luminance of each block, FIG. Like The shape of the person in the backlight part corresponds to the dark part. Here, the block average luminance image and the binarized image are two-dimensional arrays AV_YY [x] [y] and dark_tbl, respectively.
When expressed as [x] [y], the mean value mean_y of the average luminance of all blocks is

【0016】[0016]

【数1】 [Equation 1]

【0017】であり、二値化画像作成は、 明部 if AV_YY[x][y] > mean_y then dark_tbl[x][y] = 0 暗部 if AV_YY[x][y] < mean_y then dark_tbl[x][y] = 1 によって行われる。次におなじく明暗ブロック輝度処理
手段203にて、(1)暗部平均輝度 dark_mean、
(2)明部平均輝度 light_mean、(3)明暗輝度比
LDratio が計算される。
In the binarized image creation, the bright part if AV_YY [x] [y]> mean_y then dark_tbl [x] [y] = 0 the dark part if AV_YY [x] [y] <mean_y then dark_tbl [x ] [y] = 1. Next, in the same brightness / darkness block brightness processing means 203, (1) dark part average brightness dark_mean,
(2) Bright part average brightness light_mean, (3) Bright / dark brightness ratio
LDratio is calculated.

【0018】[0018]

【数2】 [Equation 2]

【0019】[0019]

【数3】 (Equation 3)

【0020】[0020]

【数4】 [Equation 4]

【0021】ここで暗部ブロック総数を dark_large
とする。暗部ブロック彩度処理手段204は、逆光の人
物を撮影した場合に比較的彩度と輝度の高い背景(山の
緑、木の緑など)が手前の逆光状態の人物被写体と接続
した状態で二値化画像の暗部を形成してしまう問題を解
決するために導入されている。処理内容は二値化画像を
対象に暗部のみを平均彩度によって再二値化し、暗部で
かつ彩度の低いモノクロ領域部のみを二値画像として残
すことである。ただし彩度処理による再二値化はすべて
の画像について有効であるわけではなく元々彩度の低い
モノクロの逆光領域ではほとんど同じ程度のモノクロ領
域をわづかな彩度変動を用いて再二値化するので逆効果
になる。また、彩度が高く輝度の低い服を着ている逆光
人物画像では、服装部分がすべて逆光領域でなくなるた
め、顔のみが分離されて典型的な逆光パターンが壊され
てしまう。このため暗部での平均彩度をまず求め、その
平均彩度が非常に低い、あるいは非常に高い場合には再
二値化はしない。具体的な処理手順は以下の通りであ
る。 (1)暗部内での2乗彩度平均値(dark_mean_s)を求
める。
Here, the total number of dark block is dark_large
And The dark block saturation processing means 204 is used when a backlit person is photographed and a background with relatively high saturation and brightness (green of mountains, green of trees, etc.) is connected to a backlit person subject in front. It is introduced to solve the problem of forming dark areas in a binarized image. The content of the processing is to re-binarize only the dark part by the average saturation for the binarized image, and leave only the monochrome area part having the low saturation and the dark part as the binary image. However, re-binarization by saturation processing is not effective for all images, and in the originally low-saturation monochrome backlight area, almost the same monochrome area is re-binarized using a slight saturation variation. Because it does, it has the opposite effect. Further, in a backlit person image of clothes with high saturation and low brightness, all the clothes are not in the backlit area, so only the face is separated and the typical backlit pattern is destroyed. Therefore, the average saturation in the dark area is first obtained, and if the average saturation is very low or very high, re-binarization is not performed. The specific processing procedure is as follows. (1) Obtain the squared saturation average value (dark_mean_s) in the dark area.

【0022】[0022]

【数5】 (Equation 5)

【0023】(2)dark_mean_sの値がしきい値 S1より
も大きい場合(S_CHECK=1)には彩度が十分高いので二
値化しない。 (3)dark_mean_sの値がしきい値 S2よりも小さい場合
(S_CHECK=2)には彩度が十分低いので二値化しない。 (4)dark_mean_sの値が S1 S2の中間にあるとき(S_
CHECK=0)に再二値化を行う。再二値化は、 if (AV_RY[x][y])2×(AV_BY[x][y])2 < dark_mean_s then dark_tbl[x][y] = 0 として行われる。暗部ブロック形状処理手段205で
は、暗部の4つの周辺特徴を計算する。上述したように
逆光の被写体は陰影の塊として画面上では下部から上部
にかけて発生する形状特徴をもっている。そこで画像を
二値化処理し、上下左右4つの周囲の辺からはじめて黒
ブロックがなくなるまでの黒ブロックの連続数を各辺方
向に加算して4つの周辺特徴(Peripheral Characteris
tics)を求める。周辺特徴の値の順位づけを1位から4
位まで行うことにより画像内での暗部の塊の形状と位置
を表現している。処理方法を図4を用いて説明する。図
4は暗部ブロック形状処理の実施例の概念図である。図
4において、左上を原点として横をx軸、縦をy軸と
し、x方向に10個、y方向に7個のブロックに分割し
たものである。また画像の右辺からの方向を(0)方
向、左辺からを(1)方向、上辺からを(2)方向、下
辺からを(3)方向とする。周辺特徴は、この4つの方
向から反対方向に向かって連続する黒ブロックを累積し
て辺上にて加算することで得られる量である。これらの
量は periph[0]からperiph[3]に蓄積される。
(2) When the value of dark_mean_s is larger than the threshold value S1 (S_CHECK = 1), the saturation is sufficiently high, so that binarization is not performed. (3) If the value of dark_mean_s is smaller than the threshold value S2 (S_CHECK = 2), the saturation is low enough so that binarization is not performed. (4) When the value of dark_mean_s is in the middle of S1 S2 (S_
Re-binarize to CHECK = 0). Re-binarization is performed as if (AV_RY [x] [y]) 2 × (AV_BY [x] [y]) 2 <dark_mean_s then dark_tbl [x] [y] = 0. The dark block shape processing means 205 calculates four peripheral features of the dark part. As described above, the backlit subject has a shape feature that occurs as a block of shadows from the bottom to the top on the screen. Therefore, the image is binarized, and the number of consecutive black blocks until the black block disappears is added from each of the four surrounding edges to the four peripheral features (Peripheral Characteris
tics). Peripheral feature values are ranked from 1st to 4th
By performing the process up to the position, the shape and position of the lump of the dark part in the image is expressed. The processing method will be described with reference to FIG. FIG. 4 is a conceptual diagram of an embodiment of the dark block shape processing. In FIG. 4, the upper left is the origin, the horizontal is the x-axis, and the vertical is the y-axis, and the blocks are divided into 10 blocks in the x direction and 7 blocks in the y direction. The direction from the right side of the image is the (0) direction, the left side is the (1) direction, the upper side is the (2) direction, and the lower side is the (3) direction. The peripheral feature is the amount obtained by accumulating black blocks continuous from these four directions in the opposite direction and adding them on the side. These quantities are accumulated in periph [0] to periph [3].

【0024】[0024]

【数6】 (Equation 6)

【0025】[0025]

【数7】 (Equation 7)

【0026】[0026]

【数8】 [Equation 8]

【0027】[0027]

【数9】 [Equation 9]

【0028】ここでS0,S1,S2,S3の求め方を図5を用い
て説明する。図5は暗部ブロック形状処理の流れ図であ
る。S0からS3は同じ処理で求められるのでS0のみをy=0
の場合について説明する。図5において、まずS0=0,y=
0、x=9とセットし(図5のステップ(イ)、(ロ))、xが0で
なければdark_tbl[x][y]=1か否かを判定する(ステップ
(ハ)、(ニ))。dark_tbl[x][y]=0なら処理は終了する。dar
k_tbl[x][y]=1ならS0を1増やし(ステップ(ホ))、xを1
減らして(ステップ(ヘ))、再度xが0以上か否かの判定
にもどる。x=0なら処理は終了する(ステップ(ト))。
この処理をy=0からy=6まで行い、和をとる。図4の実施
例でいうと、以下のような暗部ブロックの周辺情報が得
られる。
Here, how to obtain S0, S1, S2 and S3 will be described with reference to FIG. FIG. 5 is a flowchart of the dark block shape processing. Since S0 to S3 are obtained by the same process, only S0 is y = 0
The case will be described. In FIG. 5, first, S0 = 0, y =
Set 0 and x = 9 (steps (a) and (b) in FIG. 5), and if x is not 0, determine whether dark_tbl [x] [y] = 1 (step
(C), (D)). If dark_tbl [x] [y] = 0, the process ends. dar
If k_tbl [x] [y] = 1, increase S0 by 1 (step (e)) and set x to 1
Decrease (step (f)) and return to the judgment whether x is 0 or more. If x = 0, the process ends (step (g)).
This process is performed from y = 0 to y = 6 and the sum is calculated. According to the embodiment shown in FIG. 4, the following peripheral area information of the dark block is obtained.

【0029】periph[0]=17 periph[1]=14 periph[2]=0 periph[3]=37 暗部ブロック周辺情報順序付手段206では暗部周辺情
報periph[0]からperiph[3]を大小関係で順序をつけてor
der[0]からorder[3]に順位づけされた方向 0,1,2,3 を
セットする。図4の実施例では、周辺情報が大きい順に
37, 17, 14, 0 となるので、その方向をセットする
と、 order[0]=3 (下方向) order[1]=0 (右方向) order[2]=1 (左方向) order[3]=2 (上方向) となる。この順序関係を大小関係の大きい方向から簡略
化して4方向のパターン形状情報として(3 0 1 2)と
表現する。このパターン情報212は、「画像の下部か
ら右部にかけて暗部があり上部には存在しない」、とい
う位置形状情報を意味している。
Periph [0] = 17 periph [1] = 14 periph [2] = 0 periph [3] = 37 In the dark block peripheral information ordering means 206, the dark part peripheral information periph [0] to periph [3] are larger or smaller. Order by relationship or
Set the order 0,1,2,3 from der [0] to order [3]. In the embodiment of FIG. 4, in order of increasing peripheral information,
37, 17, 14, 0, so if you set that direction, order [0] = 3 (downward) order [1] = 0 (rightward) order [2] = 1 (leftward) order [3 ] = 2 (upward). This order relationship is simplified from the direction with the greater magnitude relationship and expressed as (3 0 1 2) as pattern shape information in four directions. The pattern information 212 means position / shape information that "there is a dark portion from the lower portion to the right portion of the image and there is no upper portion".

【0030】逆光最終判定手段207は、明暗ブロック
輝度処理手段203から暗部平均輝度 dark_mean と明
暗輝度比 LDratio の2つの情報211を得、暗部ブロ
ック周辺情報順序付手段206からは暗部パターン形状
情報212を得る。そして、 (1)暗部平均輝度値が明暗しきい値dark_mean_tより
も暗いこと (dark_mean <= dark_mean_t) (2)明/暗の輝度比が輝度比しきい値 LD_tよりも大き
いこと (LDratio >= LD_t) (3)暗部の形状パターンが (3 x x x)または(2 3
x x ) であること。 という3条件を同時に満たす場合に「逆光である」、い
ずれか1つの条件を満たさない場合には「逆光ではな
い」として逆光の有無を判定する。ここで×は任意であ
ることを示す。すなわち、暗部形状は3(下)方向が最
も大きいパターンである場合と2(上)の次に3(下)
が大きい場合を逆光としている。前者が最も一般的な人
物の逆光バストショットに相当し、後者が人物の逆光の
顔アップなどの場合に相当する。これが逆光有無判定1
08となる。
The backlight final determination means 207 obtains two pieces of information 211 of the dark area average luminance dark_mean and the light / dark luminance ratio LDratio from the light / dark block luminance processing means 203, and the dark portion pattern shape information 212 from the dark portion block peripheral information ordering means 206. obtain. And (1) The average brightness value of the dark part is darker than the light / dark threshold dark_mean_t (dark_mean <= dark_mean_t) (2) The brightness ratio of light / dark is larger than the brightness ratio threshold LD_t (LDratio> = LD_t ) (3) The shape pattern of the dark part is (3 xxx) or (2 3
xx). The presence / absence of backlight is determined as "backlight" when the three conditions are simultaneously satisfied and "not backlight" when any one of the conditions is not satisfied. Here, x indicates that it is arbitrary. That is, the shape of the dark part is the pattern with the largest 3 (down) direction, and 2 (up) and then 3 (down).
If it is large, it is against the light. The former corresponds to the most common backlit bust shot of a person, and the latter corresponds to a backlit face up of a person. This is the backlight presence / absence determination 1
It will be 08.

【0031】次に暗部ブロック重心処理手段208では
後の人物顔位置の推定のため暗部の重心を求める。重心
処理の場合に注意すべきことは、逆光シーンでは画像の
右左の端に被写体以外の手前の暗い部分が写り込むこと
がひんぱんにあり、この影響で、暗部全体としての重心
位置が左右に大きくずれてしまう点である。そこで暗部
のうち、画像の左右の端の1ブロックであるx=0とx
=9のブロックは除外してx方向については1から8ま
でのブロックを用いて重心計算をする。重心位置をブロ
ック座標(x,y)にて(gcenterX, gcenterY)とする
と、
Next, the dark part block center of gravity processing means 208 obtains the center of gravity of the dark part for the subsequent estimation of the human face position. It is important to note that when processing the center of gravity, in a backlit scene, the dark area in front of the subject other than the subject is often reflected in the left and right edges of the image. This is the point that they are misaligned. Therefore, in the dark part, one block at the left and right ends of the image, x = 0 and x
The block of = 9 is excluded, and the center of gravity is calculated using blocks 1 to 8 in the x direction. If the center of gravity is (gcenterX, gcenterY) in block coordinates (x, y),

【0032】[0032]

【数10】 [Equation 10]

【0033】[0033]

【数11】 [Equation 11]

【0034】となる。次に逆光度合計算時に人物の顔部
の位置推定のために使うための重心の暗部の内外判定を
行う。重心が暗部内部にある場合には暗部の分布が集中
しており逆光の被写体は画像中心に山型に存在すること
が推定できる。一方重心が暗部外にある場合には逆光の
被写体が2人の人物で暗部が双峰性の山型を呈している
ことが推定できる。この情報は重心位置のブロックを図
8のように表現する際に G ...重心が暗部内部に存在 g ...重心が暗部外部に存在 のように場合わけして表示される。
It becomes Next, the inside / outside of the dark part of the center of gravity, which is used for estimating the position of the face of the person at the time of calculating the backlight intensity, is determined. When the center of gravity is inside the dark part, the distribution of the dark part is concentrated, and it can be estimated that the backlit subject exists in a mountain shape at the center of the image. On the other hand, when the center of gravity is outside the dark area, it can be estimated that the backlit subjects are two persons and the dark area has a bimodal mountain shape. This information is displayed in some cases, such as when the block at the position of the center of gravity is expressed as in FIG. 8, G ... The center of gravity exists inside the dark part, g ... The center of gravity exists outside the dark part.

【0035】暗部ブロック人物顔輝度処理手段209で
は逆光度合を計算する。当初、簡単に暗部の平均輝度が
度合の指標になると考えたが、実際には人物の顔が暗い
のに服が白いため平均輝度は大きくなっている場合など
があり判定が主観評価と一致しなかった。そこで人間の
主観評価にならい人物の顔の輝度を指標とすることにし
た。顔の探索には肌色の探索が使われることがおおいが
逆光状態での人物の顔は陰になっており色彩情報は無い
に等しく色を使った探索は不可能である。しかし逆光画
像は人物が逆光部内に存在していることが特徴なので暗
部の重心位置を基準に暗部内部のみで顔位置を推定すれ
ばよい。この際、暗部ブロック周辺情報順序付処理の結
果を考えて暗部の形状を以下に示す3通りに場合わけ
し、その各場合で人物顔部の位置を仮定して平均輝度 f
acelight を算出する。以下、facelightの算出方法を暗
部ブロック人物顔部推定例の概念図である図6を用いて
説明する。図6において黒部分が暗部ブロックを、網か
け部分が暗部ブロック内で人物の顔と推定された部分を
示しており、人物の顔部分と判断されたブロック数をfa
ce_num とする。第1に、図6(a)を参照して暗部重
心が暗部外にある場合を説明する。暗部は双峰性の形を
呈しているので重心ブロックgは暗部の谷付近に外部に
存在しており、2人以上の人物が逆光状態にあると考え
られる。このときには「重心位置より上部の暗部全体」
を2人の人物の顔と考えて平均輝度を求める。
The dark block human face luminance processing means 209 calculates the degree of backlighting. At first, I thought that the average brightness in the dark area would be an index of the degree, but in reality, the average brightness is high because the face of the person is dark but the clothes are white. There wasn't. Therefore, we decided to use the brightness of the person's face as an index, following the human subjective evaluation. In many cases, skin color search is used for face search, but the face of a person in a backlit state is shaded and there is no color information, so it is impossible to search using colors equally. However, since the backlight image is characterized in that a person is present in the backlight portion, the face position may be estimated only within the dark portion with reference to the position of the center of gravity of the dark portion. At this time, considering the result of the dark area block peripheral information ordering process, the shape of the dark area is divided into the following three cases, and in each case, the average brightness f
Calculate acelight. Hereinafter, a facelight calculation method will be described with reference to FIG. 6, which is a conceptual diagram of a dark block human face estimation example. In FIG. 6, the black part indicates the dark part block, and the shaded part indicates the part estimated to be the human face in the dark part block, and the number of blocks judged to be the human face part is fa
ce_num. First, the case where the dark center of gravity is outside the dark part will be described with reference to FIG. Since the dark part has a bimodal shape, the center-of-gravity block g exists outside near the valley of the dark part, and it is considered that two or more persons are backlit. At this time, "the entire dark area above the center of gravity"
The average brightness is calculated by considering that the faces are the faces of two persons.

【0036】[0036]

【数12】 [Equation 12]

【0037】第2に、図6(b)を参照して暗部重心が
暗部内かつ暗部形状が(2 3 X X)の場合(ただしXは任
意を示す)を説明する。これは暗部が画像の上部から下
部にかけて存在する場合であり、逆光の人物をアップで
撮影した場合か、逆光人物の上部に当たる背景に森など
遠景部分がある場合に相当する。このとき暗部の上部を
顔と考えると遠景部分のやや明るい輝度をとってきてし
まう可能性があるため「重心位置よりも下部でかつ重心
の左右3ブロック分の長方形領域内部の暗部」を人物の
顔と考えて平均輝度を求める。
Secondly, a case where the center of gravity of the dark portion is in the dark portion and the shape of the dark portion is (2 3 XX) (where X is arbitrary) will be described with reference to FIG. 6B. This is a case where the dark part exists from the upper part to the lower part of the image, and corresponds to a case where a backlit person is photographed up, or a case where there is a distant view part such as a forest in the background which hits the backlit person. At this time, if the upper part of the dark part is considered to be a face, the brightness may be slightly brighter in the distant view part. Therefore, "the dark part inside the rectangular area below the center of gravity and within three blocks to the left and right of the center of gravity" The average brightness is calculated by considering it as a face.

【0038】[0038]

【数13】 [Equation 13]

【0039】第3に、図6(c)を参照して、暗部重心
が暗部内かつ暗部形状が(3 X X X)の場合を説明す
る。これは暗部が画像の下部に存在する場合であり、逆
光人物をバストショット撮影した場合の標準的なケース
である。この場合には、暗部の下部には人物の「服」が
存在する可能性が高く、平均輝度は服の色が黒いか白い
かによって大きく影響を受けてしまう。そこで、これを
避けるため「重心位置よりも上部でかつ重心の左右3ブ
ロック分の長方形領域内部の暗部」を人物の顔と考えて
平均輝度を求める。
Thirdly, with reference to FIG. 6C, the case where the center of gravity of the dark portion is inside the dark portion and the shape of the dark portion is (3 XXX) will be described. This is the case where the dark part exists at the bottom of the image, which is a standard case when a bust shot of a backlit person is taken. In this case, there is a high possibility that a person's "clothes" will exist in the lower part of the dark part, and the average brightness will be greatly affected by whether the clothes are black or white. Therefore, in order to avoid this, the average brightness is calculated by considering the "dark portion above the center of gravity position and inside the rectangular area of three blocks to the left and right of the center of gravity" as the face of the person.

【0040】[0040]

【数14】 [Equation 14]

【0041】暗部重心から決定した顔候補領域に暗ブロ
ックが1つもない場合(face_num ==0)もある。たとえ
ば、 (1)重心が暗部外にあり、かつ顔部候補ブロック数=
0 (2)重心が暗部内にあり、かつ形状パタン=2xxx 3xxx
以外 の場合であり、この場合においては顔部平均輝度 facel
ightは最大値 255とする。逆光度合計算手段210では
逆光度は顔部輝度が明暗しきい値 dark_mean_t と比較
してどの程度暗いかを評価値(0 - 255)とする。また
逆光度の最大値255をとる場合の顔部輝度 most_dark
を決めることによって正規化する。すなわち、
In some cases, there are no dark blocks in the face candidate area determined from the dark center of gravity (face_num == 0). For example, (1) the center of gravity is outside the dark area, and the number of face candidate blocks =
0 (2) Center of gravity is in the dark area and shape pattern = 2xxx 3xxx
Other than the above, in this case the average face brightness facel
ight has a maximum value of 255. In the backlight intensity calculation means 210, the backlight intensity is determined as an evaluation value (0 -255) as to how dark the face luminance is compared with the brightness threshold dark_mean_t. Also, the face brightness most_dark when the maximum backlight intensity is 255
Normalize by deciding. That is,

【0042】[0042]

【数15】 (Equation 15)

【0043】facelight が255などの逆光度が負になる
場合には逆光度は0とする。これが逆光度合110とな
る。
When the facelight has a negative backlighting such as 255, the backlighting is set to 0. This is the backlight intensity 110.

【0044】次に人物判定部104の詳細について図7
を用いて説明する。図7は本発明の一実施例の階調補正
装置の要部である人物判定部104のブロック結線図で
ある。はじめに人物画像の判定方針を説明する。
Next, the details of the person determination unit 104 will be described with reference to FIG.
Will be explained. FIG. 7 is a block connection diagram of the person determination unit 104 which is a main part of the tone correction apparatus according to the embodiment of the present invention. First, a determination method of a person image will be described.

【0045】人物の検出には従来技術と同様に顔などの
肌色の検出を用いるが顔色は色度だけでなく階調情報の
特徴もきわめて重要である。人物の顔では肌色は明るい
陰影を持ち、鼻や頬、額などはほとんど白色にちかい程
の肌色であり、一方髪、目、鼻の穴、口などの開口部は
ほとんど黒色にちかい。これはブロック情報において、
各ブロックにおいて白色に近い部分がWP値として、黒
色に近い部分がBP値として、全体的な肌色が平均値と
して検出できることを意味している。彩度の低い白と
黒、および彩度の高い肌色が存在するためにこれらを色
度図上にプロットすると肌色画像では階調のハイライト
部、平均値、ダーク部が同一色相線を形成する傾向があ
る。ところが、おなじ色相のクリーム色系統を持つ壁な
どでは一様な色であって陰影はあまり無いため色度図上
で明瞭な色相線が形成されない。また肌色の同一色相で
ある赤色などではダーク部の彩度が高いので明確に区別
できる。以上の考察から本発明では画像の各ブロックに
おいてWP値、BP値、平均値の各情報すべてを色度図
上にプロットして主成分分析法を用いて統計的に色相線
を抽出し肌色らしいかどうかの検出を行うこととする。
この計算を行う際に(1)簡易色度図の第二象限に存在
するサンプルデータのみを用いて、主成分分析による色
相線を検出すること、(2)検出された色相線の角度が
簡易色度図でπ/4からπの範囲にあることの二段階で
検出することにより、照明光の影響で色相線が原点を通
らずに平行移動してしまった場合でもデータ分布全体の
なす角度をほぼ正しく計算できるようにしている。
For the detection of a person, the detection of a skin color such as a face is used as in the prior art, but the characteristic of gradation information as well as the chromaticity of the facial color is extremely important. On the face of a person, the skin color has a bright shade, and the nose, cheeks, and forehead are almost white, while the openings such as hair, eyes, nostrils, and mouth are almost black. This is in the block information,
In each block, a portion close to white can be detected as a WP value, and a portion close to black can be detected as a BP value, which means that the overall skin color can be detected as an average value. Because of the existence of low-saturation white and black, and high-saturation flesh color, when these are plotted on the chromaticity diagram, in the flesh color image, the gradation highlight part, the average value, and the dark part form the same hue line. Tend. However, a wall having a cream color system of the same hue does not have a clear hue line on the chromaticity diagram because it has a uniform color and has little shading. In addition, since red, which has the same hue as the flesh color, has high saturation in the dark portion, it can be clearly distinguished. From the above consideration, in the present invention, all the information of the WP value, the BP value, and the average value in each block of the image is plotted on the chromaticity diagram, and the hue line is statistically extracted using the principal component analysis method, which seems to be the skin color. Whether or not it will be detected.
When performing this calculation, (1) use only the sample data existing in the second quadrant of the simple chromaticity diagram to detect the hue line by principal component analysis, and (2) simply detect the angle of the detected hue line. By detecting in two steps, that is, in the range of π / 4 to π in the chromaticity diagram, the angle formed by the entire data distribution even if the hue line moves in parallel without passing through the origin due to the influence of illumination light. Is calculated almost correctly.

【0046】図7において肌色候補ブロック選択手段3
01では入力画像ブロック情報201を処理して肌色ら
しい色相角度内に存在するブロック情報を選択する。こ
の候補ブロック選びを行わないと、肌色とは全く無関係
の色まで含んで統計処理することとなり意味のある結果
が求められない。そこで「肌色は照明変動を受けてもR
GB空間のイエロー色相からレッド色相までの範囲に存
在する」という仮定をし、色度図として簡易色差(R-G)
(B-G)色度図(カラー・モメント・ダイアグラム)を使
用する。簡易色差色度図ではRGB色空間内で定義され
る色相におけるイエローからレッドまでの色相は第二象
限に相当するので候補ブロックの判定は単純な正負判定
でよく角度計算をする必要がなくなる利点がある。した
がって以降の説明では、RYはR-G、BYはB-G という意味
になる。図8に簡易色差色度図上に色相線901が表現
されている様子を描いた。この例のように屋外で撮影さ
れた肌色は簡易色度図ではイエローからレッドまでの第
2象限に存在することが多い。
In FIG. 7, the skin color candidate block selection means 3
In 01, the input image block information 201 is processed to select the block information existing within the hue angle which seems to be skin color. If this candidate block selection is not performed, statistical processing will be performed including colors completely unrelated to the skin color, and a meaningful result cannot be obtained. Therefore, "Skin color is R
It exists in the range from the yellow hue to the red hue in the GB space ", and a simple color difference (RG) is used as a chromaticity diagram.
(BG) Use chromaticity diagram (color moment diagram). In the simple color difference chromaticity diagram, the hues from yellow to red in the hues defined in the RGB color space correspond to the second quadrant, so the candidate block can be judged by simple positive / negative judgment, and there is no need to calculate the angle. is there. Therefore, in the following explanation, RY means RG and BY means BG. FIG. 8 illustrates how the hue line 901 is represented on the simple color difference chromaticity diagram. Skin colors photographed outdoors as in this example often exist in the second quadrant from yellow to red in the simple chromaticity diagram.

【0047】そこで、候補ブロック選択はBP値につい
ては条件をつけずWP値、平均値の両方のみが図8の簡
易色度色差図で第2象限に存在することを用いる。本来
(Y,RY=R-Y,BY=B-Y)にて表現されているブロック情報
を簡易色差(Y,R-G,B-G)に変換したものをあらためて (1)平均値 AV_YY[x][y],AV_RY[x][y],AV_BY[x][y] (2)WP値 WP_YY[x][y],WP_RY[x][y],WP_BY[x][y] (3)BP値 BP_YY[x][y],BP_RY[x][y],BP_BY[x][y] とすると、図8に示す簡易色差色度図の第2象限に存在
するブロックのみを候補とするために、候補ブロックテ
ーブル Zin_tbl[x][y]を用いて、 if( WP_RY[x][y] >= 0 WP_BY[x][y] <= 0 AV_RY[x][y] >= 0 AV_BY[x][y] <= 0 )then Zin_tbl[x][y] = 1 else Zin_tbl[x][y] = 0 とする。もう1つの条件としてWP値の彩度が極端に大
きくないこと もつけ加える。このようにして Zin_tbl[x][y]==1とし
て検出された肌色候補ブロック数をhada_num とする。
共分散行列計算手段302では、肌色候補ブロック内で
のWP値、BP値、平均値という3種類のブロック情報
を利用し、これらブロック内の階調情報を用いて色分布
の統計を求める。統計手法は共分散行列から第一固有ベ
クトルを求める主成分分析手法を用いるため、肌色候補
ブロックについてWP、BP、平均の各色度の全体の平
均値、分散値、共分散値の計算を行う。RY,BYの平均値
ry_av , by_av は以下の式にて求められる。ただし、和
はZin_tbl[x][y] = 1である全ての x、y についてとる
ものとする。
Therefore, the candidate block is selected by using the condition that the BP value is not set and that both the WP value and the average value are present in the second quadrant in the simplified chromaticity / color difference diagram of FIG. The block information that is originally expressed as (Y, RY = RY, BY = BY) is converted into simple color difference (Y, RG, BG) again (1) Average value AV_YY [x] [y], AV_RY [x] [y], AV_BY [x] [y] (2) WP value WP_YY [x] [y], WP_RY [x] [y], WP_BY [x] [y] (3) BP value BP_YY [x ] [y], BP_RY [x] [y], BP_BY [x] [y], only the blocks existing in the second quadrant of the simplified color difference chromaticity diagram shown in FIG. Using table Zin_tbl [x] [y], if (WP_RY [x] [y]> = 0 WP_BY [x] [y] <= 0 AV_RY [x] [y]> = 0 AV_BY [x] [y ] <= 0) then Zin_tbl [x] [y] = 1 else Zin_tbl [x] [y] = 0. Another condition is that the saturation of the WP value is not extremely large Add In this way, the number of skin color candidate blocks detected with Zin_tbl [x] [y] == 1 is set as hada_num.
The covariance matrix calculation unit 302 uses three types of block information, that is, the WP value, the BP value, and the average value in the skin color candidate block, and obtains the color distribution statistics using the gradation information in these blocks. Since the statistical method uses the principal component analysis method for obtaining the first eigenvector from the covariance matrix, the overall average value, variance value, and covariance value of each chromaticity of WP, BP, and average are calculated for the skin color candidate block. Average of RY and BY
ry_av, by_av is calculated by the following formula. However, the sum shall be taken for all x and y where Zin_tbl [x] [y] = 1.

【0048】[0048]

【数16】 [Equation 16]

【0049】[0049]

【数17】 [Equation 17]

【0050】ここで hada_num は肌色候補ブロックの
数であり、3 × hada_numは全色度サンプル数である。R
Y,BYの分散値Srr,Sbb,及び共分散値Srbは、以下の式に
て求められる。おなじく和はZin_tbl[x][y] = 1である
全ての x、y についてとるものとする。
Here, hada_num is the number of flesh color candidate blocks, and 3 × hada_num is the total number of chromaticity samples. R
The variance values Srr and Sbb of Y and BY and the covariance value Srb are obtained by the following equations. The same sum is taken for all x and y where Zin_tbl [x] [y] = 1.

【0051】[0051]

【数18】 (Equation 18)

【0052】[0052]

【数19】 [Formula 19]

【0053】[0053]

【数20】 [Equation 20]

【0054】この結果、共分散行列計算手段302では
行列
As a result, the covariance matrix calculation means 302 calculates the matrix

【0055】[0055]

【数21】 [Equation 21]

【0056】が計算される。次に、肌色色相線検出手段
303では肌色色相線をこの統計分布の第一主成分軸、
すなわち最大固有値をもつ固有ベクトルとして計算す
る。具体的には主成分軸である色相線とBY正軸となす角
度をθとして TanValue = tan 2θ を、
Is calculated. Next, the flesh color hue line detection means 303 determines the flesh color hue line to be the first principal component axis of this statistical distribution,
That is, it is calculated as an eigenvector having the maximum eigenvalue. Specifically, TanValue = tan 2θ, where θ is the angle between the hue line, which is the main component axis, and the BY positive axis.

【0057】[0057]

【数22】 [Equation 22]

【0058】なる関係式で計算する。肌色色相線検出手
段303では計算単純化のために直接θを求めずTanVal
ueの値にて代用することになる。
It is calculated by the following relational expression. In the skin color hue line detection means 303, TanVal is not calculated directly for the purpose of simplifying the calculation.
The value of ue will be used instead.

【0059】つぎに肌色色相角存在領域検出手段304
では肌色線の色相角θがあらかじめさだめてある範囲内
に存在するかどうか決定を行う。ここで問題となるのは
Tan- 1の多価関数性であるがこの問題はつぎのように2
θの存在する象限を考慮すれば解決できる。肌色色相角
2θの存在領域を示す概念図である図9及び肌色色相角
の存在領域判定の原理図である図10において2θの存
在する象限は、 Srb >=0 かつ (Sbb-Srr) >=0 =>第1象限 Srb >=0 かつ (Sbb-Srr) <0 =>第2象限 Srb < 0 かつ (Sbb-Srr) <0 =>第3象限 Srb < 0 かつ (Sbb-Srr) >=0 =>第4象限 として決定される。本発明では検出された肌色色相線の
角度θの範囲は図8に示すごとく簡易色差色度図の斜線
範囲で示されるπ/4からπまでと仮定する。従って2θ
はその2倍で図9に示すごとくtan 2θのπ/2 から2π
の範囲である。このため、2θは図9で斜線範囲の角度
で示されるように第2象限から第3象限を経て第4象限
にまで存在するが、第1象限にはありえない。この性質
を利用してθの角度範囲の指定をTanValue = tan 2θの
しきい値処理に置き換えることができる。図10に2θ
とtan2θの関係を示した。図10において上記の議論よ
り第2、第3象限と第4象限の一部まで、tan2θのリニ
ア性と一価性が保たれるので、ここからしきい値TH1とT
H2を決定すればよい。肌色色相角存在領域検出手段30
4の出力は以下のように、 if (TanValue > TH1 または TanValue < TH2) 肌色である else 肌色ではない とする。ただし、TH1 > TH2であることが必要であり、
この条件がないと一価性が成立しなくなる。
Next, the skin color hue angle existing area detecting means 304
Then, it is determined whether or not the hue angle θ of the flesh color line exists within a range reserved beforehand. The problem here is
This is a multi-valued function of Tan - 1 , but this problem is 2
This can be solved by considering the quadrant in which θ exists. In FIG. 9 which is a conceptual diagram showing the existence region of the skin color hue angle 2θ and in FIG. 10 which is a principle diagram of the existence region determination of the skin color hue angle, the quadrant where 2θ exists is Srb> = 0 and (Sbb-Srr)> = 0 => 1st quadrant Srb> = 0 and (Sbb-Srr) <0 => 2nd quadrant Srb <0 and (Sbb-Srr) <0 => 3rd quadrant Srb <0 and (Sbb-Srr)> = 0 => Determined as the 4th quadrant. In the present invention, it is assumed that the range of the detected angle θ of the skin color hue line is from π / 4 to π shown by the shaded range in the simplified color difference chromaticity diagram as shown in FIG. Therefore 2θ
Is twice that, and as shown in Fig. 9, from π / 2 of tan 2θ to 2π
Range. Therefore, 2θ exists from the second quadrant through the third quadrant to the fourth quadrant as shown by the angle in the shaded area in FIG. 9, but cannot exist in the first quadrant. Utilizing this property, the specification of the angle range of θ can be replaced with the thresholding of TanValue = tan 2 θ. 2θ in FIG.
And tan2θ are shown. In FIG. 10, from the above discussion, the linearity and singularity of tan2θ can be maintained in the second, third, and part of the fourth quadrant.
Determine H2. Skin color hue angle existing area detecting means 30
The output of 4 is as follows: if (TanValue> TH1 or TanValue <TH2) else It is a skin color and not a skin color. However, TH1 must be greater than TH2,
Without this condition, monovalency cannot be established.

【0060】肌色候補ブロック重心処理手段305で
は、肌色候補ブロックの位置の重心を計算する。この処
理は、画像下部にある「机」や「地面」などの肌色に色
として類似した領域の誤判定を防ぐための重心位置のし
きい値処理のために導入されている。重心位置をブロッ
ク座標(x,y)にて(hada_gcenterX, hada_gcenterY)
とすると、
The skin color candidate block center of gravity processing means 305 calculates the center of gravity of the position of the skin color candidate block. This process is introduced for threshold value processing of the center of gravity position for preventing erroneous determination of a region similar to the skin color such as "desk" or "ground" at the bottom of the image. Center of gravity position in block coordinates (x, y) (hada_gcenterX, hada_gcenterY)
Then,

【0061】[0061]

【数23】 [Equation 23]

【0062】[0062]

【数24】 [Equation 24]

【0063】となる。人物最終判定処理手段306で
は、以下の判定基準によって入力画像が人物画像である
かないかを最終判定する。すなわち (1)肌色色相角存在領域検出手段304からの出力が
以下の3つの範囲のいずれかに入る。
It becomes The person final determination processing unit 306 finally determines whether or not the input image is a person image based on the following determination criteria. That is, (1) the output from the flesh color hue angle existing area detection unit 304 falls into one of the following three ranges.

【0064】 (a)2θが第2象限にあり、 かつ TanValue > TH1 (b)2θが第3象限にある (c)2θが第4象限 にあり、 かつ TanValue < th2 (2)肌色候補ブロック重心処理手段305からの出力
が以下の範囲にある。
(A) 2θ is in the second quadrant and TanValue> TH1 (b) 2θ is in the third quadrant (c) 2θ is in the fourth quadrant, and TanValue <th2 (2) Skin color candidate block centroid The output from the processing means 305 is in the following range.

【0065】hada_gcenterY < hada_gcenter_max (すなわち肌色重心の画面上Y座標が4ブロック目より
も画像で上方にある。)の2条件を両方とも満たす場合
に人物撮影シーンである、それ以外は人物撮影シーンで
はない、とする。これが、人物判定部104における人
物有無判定109となる。
If both conditions of hada_gcenterY <hada_gcenter_max (that is, the Y coordinate on the screen of the center of gravity of the flesh color is higher than the fourth block in the image) are both human shooting scenes, the others are human shooting scenes. There is no. This is the person presence / absence determination 109 in the person determination unit 104.

【0066】肌色輝度処理手段307では、人物度合を
求めるために肌色候補ブロックの平均の肌色の明るさ h
ada_Yを求める。配列 Zin_tbl[][]が1であるブロック
のみにつき、肌色候補の(ハイライト輝度値)+(平均
輝度値)の平均値を求める。
The flesh color brightness processing means 307 calculates the average flesh color brightness h of the flesh color candidate blocks in order to obtain the degree of person.
Ask for ada_Y. The average value of (highlight luminance value) + (average luminance value) of the skin color candidates is calculated only for the blocks in which the array Zin_tbl [] [] is 1.

【0067】[0067]

【数25】 (Equation 25)

【0068】人物度合計算手段308では、「最も暗い
肌色輝度」 hada_most_dark 、「最も明るい肌色輝度」
hada_most_lightを画像処理実験から得られる「肌輝
度」を参考にして決め、hada_Y を hada_most_dark と
hada_most_light の間に正規化する。
In the person degree calculating means 308, "darkest skin color luminance" hada_most_dark, "lightest skin color luminance"
Determine hada_most_light by referring to "skin brightness" obtained from image processing experiments, and set hada_Y to hada_most_dark
Normalize during hada_most_light.

【0069】[0069]

【数26】 (Equation 26)

【0070】人物有無判断がNO の場合には人物度=0
としている。これが人物度合111となる。
If the person presence / absence determination is NO, the degree of person = 0
I am trying. This is the degree of person 111.

【0071】次にカテゴリ分類部105及びシーン情報
決定部106の詳細について説明する。カテゴリ分類部
105では逆光有無判定108と人物有無判定110の
2つの情報を組み合わせて入力画像を「逆光YES人物YE
S」「逆光YES人物NO」「逆光NO人物YES」「逆光NO人物N
O」の4カテゴリのうちの1つのカテゴリに分類する。
シーン情報決定部106では、選択されたカテゴリ情報
から、階調補正での補正カーブの合成時に必要な「逆光
シーン」・「人物撮影シーン」・「その他」という画像
シーンの3つの特徴の各信頼度を決定する。信頼度の和
は1である。信頼度の値はあらかじめカテゴリ毎に決め
ておく方式がとられる。たとえば画像が「逆光YES人物Y
ES」のカテゴリに所属するという判断がなされれば、自
動的に3種の信頼度が決まるように構成されており、逆
光度合や人物度合のように各画像ごとに信頼度の計算が
行われるのではない。そこで、あらかじめカテゴリと信
頼度の対応関係を求めておく事前処理が必要になる。
Details of the category classifying unit 105 and the scene information determining unit 106 will be described below. The category classification unit 105 combines the two pieces of information of the backlight presence / absence determination 108 and the person presence / absence determination 110 into the input image as “backlight YES person YE
"S""Backlight YES person NO""Backlight NO person YES""Backlight NO person N"
It is classified into one of the four categories of "O".
In the scene information determination unit 106, the reliability of each of the three characteristics of the image scenes “backlight scene”, “portrait shooting scene”, and “other” necessary when synthesizing the correction curve in gradation correction is selected from the selected category information. Determine the degree. The sum of reliability is 1. The reliability value is determined in advance for each category. For example, the image shows "Backlight YES Person Y
If it is determined that the image belongs to the category of “ES”, the three types of reliability are automatically determined, and the reliability is calculated for each image like the degree of backlight and the degree of person. Not of. Therefore, it is necessary to perform a pre-processing to obtain the correspondence between the category and the reliability in advance.

【0072】以下、信頼度計算のための事前処理を示す
ブロック結線図である図11を用いて事前処理について
説明する。図11において、サンプル画像401は事前
処理のために用いる多数の画像である。これらの画像は
人間の主観評価によってあらかじめ「逆光画像」「人物
画像」「その他画像」(風景、静物などを一括して「そ
の他」と称する)のいずれかにラベル付けしておくもの
とする。
The preprocessing will be described below with reference to FIG. 11, which is a block connection diagram showing the preprocessing for reliability calculation. In FIG. 11, a sample image 401 is a large number of images used for preprocessing. It is assumed that these images are labeled in advance as either "backlit images", "portrait images", or "other images" (landscapes, still lifes, etc. are collectively referred to as "others") according to human subjective evaluation.

【0073】この各サンプル画像について逆光判定部1
03にて逆光有無判定手段103aの処理を行い逆光有
無判定108を出力すると同時に人物判定部104にて
人物有無判定手段104aの処理を行い人物有無判定1
09を出力する。カテゴリ分類部105はこの「逆光シ
ーン」と「人物撮影シーン」という2つの特徴の有無の
組み合わせから22=4通りのカテゴリ、すなわち「逆
光YES人物YES」「逆光YES人物NO」「逆光NO人物YES」
「逆光NO人物NO」へ自動分類する。全サンプル画像につ
いて処理後、図4に示すように「逆光YES人YES」のカテ
ゴリに合計N1例の画像サンプルが分類され、その内訳
は主観評価で「逆光画像」とラベル付けされた画像がG
1例、おなじく「人物画像」がZ1例、おなじく「その
他画像」がA1例であったとする。このとき、「逆光YE
S人物YES」カテゴリにおける信頼度を各々次のように定
義する。
The backlight judgment unit 1 for each sample image
03, the backlight presence / absence determining unit 103a performs processing, and the backlight presence / absence determining unit 108 outputs, and at the same time, the person determining unit 104 performs processing by the person presence / absence determining unit 104a.
09 is output. The category classification unit 105 has 2 2 = 4 categories based on the combination of the presence / absence of the two characteristics of “backlight scene” and “person shooting scene”, that is, “backlight YES person YES”, “backlight YES person NO”, and “backlight NO person”. YES "
Automatically classified into "backlit NO person NO". After processing all sample images, as shown in FIG. 4, N1 image samples in total are classified into the category of “backlight YES person YES”, and the breakdown is the image labeled “backlight image” in the subjective evaluation.
It is assumed that one example is the same "person image" as the Z1 example, and the same "other image" is the A1 example. At this time, "Backlight YE
The reliability in the "S person YES" category is defined as follows.

【0074】[0074]

【数27】 [Equation 27]

【0075】「逆光YES人物NO」カテゴリにおける信頼
度は、同様に、
Similarly, the reliability in the “backlight YES person NO” category is

【0076】[0076]

【数28】 [Equation 28]

【0077】となる。他のカテゴリについても同様であ
る。シーン情報決定部106はこのような事前処理によ
って求められた各特徴の信頼度により入力画像の信頼度
を決定する。階調補正部107は、入力画像についての
逆光信頼度・人物信頼度・その他信頼度という信頼度情
報112と、逆光度合110、人物度合111を基にし
て階調補正カーブを生成する。階調補正部107には逆
光補正用階調カーブ、人物補正用階調カーブ、その他補
正用階調カーブの3種類の雛形が容易されている。階調
カーブの生成は二段階で行われる。まず逆光と人物の度
合情報を基にして逆光補正用階調カーブの補正度合と人
物補正用階調カーブの補正度合を調整する。その他補正
用階調カーブは度合とは無関係に決定する。次に、生成
された3種類のカーブを逆光信頼度・人物信頼度・その
他信頼度の3種類の信頼度情報で重み付け合成して最終
カーブを生成する。以上の操作によって、画像シーンに
応じた最適な階調補正カーブが生成できる。
It becomes The same applies to other categories. The scene information determination unit 106 determines the reliability of the input image based on the reliability of each feature obtained by such preprocessing. The gradation correction unit 107 generates a gradation correction curve based on the reliability information 112 of the backlight reliability, person reliability, and other reliability of the input image, the backlight 110, and the person 111. The gradation correction unit 107 facilitates three types of templates, a backlight correction gradation curve, a person correction gradation curve, and other correction gradation curves. Generation of the gradation curve is performed in two steps. First, the correction degree of the backlight correction gradation curve and the correction degree of the person correction gradation curve are adjusted based on the degree information of the backlight and the person. The correction gradation curve is determined independently of the degree. Next, the three types of generated curves are weighted and combined with the three types of reliability information of backlight reliability, person reliability, and other reliability to generate a final curve. By the above operation, the optimum gradation correction curve according to the image scene can be generated.

【0078】[0078]

【発明の効果】本発明では、入力された画像から逆光シ
ーンと人物シーンを判定し、その度合と信頼度に応じて
最適に階調補正カーブが生成されて階調補正を行うこと
ができるため、元画像の品質があまり高画質でない場合
でも高画質のビデオプリントを得ることができる。
According to the present invention, it is possible to determine a backlight scene and a person scene from an input image and optimally generate a gradation correction curve in accordance with the degree and reliability of the scene so that gradation correction can be performed. Even if the quality of the original image is not very high, a high quality video print can be obtained.

【0079】逆光判定においては、逆光被写体は画面中
央に存在する仮定を使わずに逆光シーンを暗部の形状と
輝度において判定するために従来よりも高精度の判定が
でき、逆光度合についても人物顔部を推定して評価する
ため信頼できる値を得ることができる。
In the backlight judgment, since it is possible to judge the backlight scene in the shape and brightness of the dark part without using the assumption that the backlight object exists in the center of the screen, it is possible to make the judgment with higher accuracy than before, and the degree of backlight can also be determined by the human face. Since the part is estimated and evaluated, a reliable value can be obtained.

【0080】人物判定においては、肌色判定を基調とす
るが、色度からの候補データを基に、肌色階調を含めて
主成分分析手法で肌色分布を求め、その角度で判定する
方法をとっており、比較的に照明変動の影響を受けずに
検出できる。
In the person determination, the skin color determination is used as a basis, but a method of obtaining the skin color distribution by the principal component analysis method including the skin color gradation based on the candidate data from the chromaticity and making the determination based on the angle is used. Therefore, it can be detected relatively without being affected by the fluctuation of illumination.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における階調補正装置のブロ
ック結線図
FIG. 1 is a block connection diagram of a gradation correction apparatus according to an embodiment of the present invention.

【図2】同実施例の階調補正装置の要部である逆光判定
部を示すブロック結線図
FIG. 2 is a block connection diagram showing a backlight judgment unit which is a main part of the tone correction apparatus of the embodiment.

【図3】同実施例の階調補正装置における明暗ブロック
輝度処理を示す概念図
FIG. 3 is a conceptual diagram showing a brightness / darkness block luminance process in the tone correction apparatus of the embodiment.

【図4】同実施例の階調補正装置における暗部ブロック
形状処理の例を示す概念図
FIG. 4 is a conceptual diagram showing an example of dark block shape processing in the tone correction apparatus of the embodiment.

【図5】同実施例の階調補正装置における暗部ブロック
形状処理の処理流れ図
FIG. 5 is a processing flowchart of dark block shape processing in the tone correction apparatus of the embodiment.

【図6】同実施例の階調補正装置における暗部ブロック
人物顔部推定例を示す概念図
FIG. 6 is a conceptual diagram showing an example of estimating a dark block human face portion in the tone correction apparatus of the embodiment.

【図7】同実施例の階調補正装置の要部である人物判定
部を示すブロック結線図
FIG. 7 is a block connection diagram showing a person determination unit which is a main part of the tone correction apparatus of the embodiment.

【図8】同実施例の階調補正装置における肌色色相線の
角度θの範囲を示す簡易色差色度図
FIG. 8 is a simplified color difference chromaticity diagram showing a range of an angle θ of a skin color hue line in the tone correction apparatus of the same embodiment.

【図9】同実施例の階調補正装置における肌色色相角2
θの存在領域を示す概念図
FIG. 9 is a flesh color hue angle 2 in the tone correction apparatus of the embodiment.
Conceptual diagram showing the existence region of θ

【図10】同実施例の階調補正装置における肌色色相角
の存在領域の判定の原理図
FIG. 10 is a principle diagram of determination of a region where a flesh color hue angle exists in the tone correction apparatus of the same embodiment.

【図11】同実施例の階調補正装置における信頼度計算
のための事前処理を示すブロック結線図
FIG. 11 is a block connection diagram showing a preliminary process for reliability calculation in the tone correction apparatus of the embodiment.

【符号の説明】[Explanation of symbols]

101 入力画像 102 ブロック情報取得部 103 逆光判定部 103a 逆光有無判定手段 103b 逆光度合情報決定手段 104 人物判定部 104a 人物有無判定手段 104b 人物度合情報決定手段 105 カテゴリ分類部 106 シーン情報決定部 107 階調補正部 108 逆光有無判定 109 人物有無判定 110 逆光度合情報 111 人物度合情報 112 信頼度情報 101 Input Image 102 Block Information Acquiring Section 103 Backlight Determining Section 103a Backlight Existence Determining Means 103b Backlight Depth Information Determining Section 104 Person Determining Section 104a Person Existence Determining Section 104b Person Degree Information Determining Section 105 Category Classification Section 106 Scene Information Determining Section 107 Gradation Correction unit 108 Backlight presence / absence determination 109 Person presence / absence determination 110 Backlight degree information 111 Person degree information 112 Reliability information

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 9/79 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location H04N 9/79

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 入力画像をブロック分割して輝度色度情
報を求めるブロック情報取得部と、前記ブロック情報取
得部の出力により前記入力画像の特徴ごとに前記特徴の
有無を判定する特徴有無判定手段と、前記特徴に合致し
た画像処理により前記入力画像の特定部位の明るさ度合
を決定する度合情報決定手段と、前記入力画像を前記各
特徴有無判定手段の出力の組み合わせによって個々のカ
テゴリへと分類するカテゴリ分類部と、前記個々のカテ
ゴリ毎に前記入力画像が前記各特徴をどの程度の信頼度
にて有しているかを決定するシーン情報決定部と、前記
度合情報決定手段の出力と前記シーン情報決定部の出力
に応じて前記入力画像に対し階調補正を施す階調補正部
とを具備する階調補正装置。
1. A block information acquisition unit that divides an input image into blocks to obtain luminance and chromaticity information, and a feature presence / absence determination unit that determines the presence or absence of the feature for each feature of the input image by the output of the block information acquisition unit. And a degree information determining unit that determines the degree of brightness of a specific portion of the input image by image processing that matches the features, and the input image is classified into individual categories by a combination of outputs of the feature presence / absence determining units. A category classification unit, a scene information determination unit that determines with what degree of reliability the input image has each feature for each of the individual categories, an output of the degree information determination unit, and the scene A gradation correction device comprising: a gradation correction unit that performs gradation correction on the input image according to the output of the information determination unit.
【請求項2】 特徴有無判定手段は、ブロック情報取得
部の出力から入力画像全体の平均輝度を求める画像平均
輝度計算手段と、前記入力画像を明部ブロックと暗部ブ
ロックに二値化する明暗ブロック輝度処理手段と、前記
暗部ブロックを処理して暗部周辺情報を出力する暗部ブ
ロック形状処理手段と、前記暗部周辺情報を順序付ける
暗部ブロック周辺情報順序付処理手段を有する請求項1
記載の階調補正装置。
2. The feature presence / absence determining means, an image average brightness calculating means for obtaining an average brightness of the entire input image from the output of the block information acquiring part, and a bright / dark block for binarizing the input image into a bright part block and a dark part block. 2. A brightness processing means, a dark part block shape processing means for processing the dark part block and outputting dark part peripheral information, and a dark part block peripheral information ordered processing means for ordering the dark part peripheral information.
The gradation correction device described.
【請求項3】 特徴有無判定手段は、ブロック情報取得
部の出力から入力画像全体の平均輝度を求める画像平均
輝度計算手段と、前記入力画像を明部ブロックと暗部ブ
ロックに二値化する明暗ブロック輝度処理手段と、前記
暗部ブロックを彩度により二値化する暗部ブロック彩度
処理手段と、前記暗部ブロック彩度処理手段の出力を処
理して暗部周辺情報を出力する暗部ブロック形状処理手
段と、前記暗部周辺情報を順序付ける暗部ブロック周辺
情報順序付処理手段を有する請求項1記載の階調補正装
置。
3. The feature presence / absence determining means, an image average brightness calculating means for obtaining an average brightness of the entire input image from the output of the block information acquiring part, and a bright / dark block for binarizing the input image into a bright block and a dark block. Luminance processing means, dark area block saturation processing means for binarizing the dark area block by saturation, dark area block shape processing means for processing the output of the dark area block saturation processing means and outputting dark area peripheral information, The gradation correction apparatus according to claim 1, further comprising a dark area block peripheral information ordering processing unit that orders the dark area peripheral information.
【請求項4】 度合情報決定手段は、ブロック情報取得
部の出力から入力画像全体の平均輝度を求める画像平均
輝度計算手段と、前記入力画像を明部ブロックと暗部ブ
ロックに二値化して処理する明暗ブロック輝度処理手段
と、前記暗部ブロックを処理して前記暗部ブロックの重
心を出力する暗部ブロック重心処理手段と、前記暗部ブ
ロック重心処理手段の出力を用いて暗部ブロック内の人
物の顔部領域を推定し、その輝度を計算する暗部ブロッ
ク人物顔輝度処理手段を有する請求項1記載の階調補正
装置。
4. The degree information determining means, an image average luminance calculating means for obtaining an average luminance of the entire input image from the output of the block information acquiring portion, and binarizing the input image into a bright portion block and a dark portion block for processing. Bright / dark block brightness processing means, dark part block center of gravity processing means for processing the dark part block and outputting the center of gravity of the dark part block, and output of the dark part block center of gravity processing means to determine the face area of a person in the dark part block. The tone correction apparatus according to claim 1, further comprising a dark block human face luminance processing unit that estimates and calculates the luminance.
【請求項5】 特徴有無判定手段は、ブロック情報取得
部の出力を処理して肌色候補ブロックを選択する肌色候
補ブロック選択手段と、前記肌色候補ブロック選択手段
の出力から統計処理を行う共分散行列計算手段と、前記
共分散行列計算手段の出力より肌色色相線を検出する肌
色色相線検出手段と、前記肌色色相線の色相角の存在領
域を検出する肌色色相角存在領域検出手段とを有する請
求項1記載の階調補正装置。
5. The feature presence / absence determining means processes the output of the block information acquiring section to select a skin color candidate block, and a covariance matrix that performs statistical processing from the output of the skin color candidate block selecting means. Computation means, flesh color hue line detection means for detecting a flesh color hue line from the output of the covariance matrix calculation means, and flesh color hue angle existence area detection means for detecting the existence area of the hue angle of the flesh color hue line. Item 1. The gradation correction device according to item 1.
【請求項6】 特徴有無判定手段は、ブロック情報取得
部の出力を処理して肌色候補ブロックを選択する肌色候
補ブロック選択手段と、前記肌色候補ブロック選択手段
の出力から統計処理を行う共分散行列計算手段と、前記
共分散行列計算手段の出力より肌色色相線を検出する肌
色色相線検出手段と、前記肌色色相線の色相角の存在領
域を検出する肌色色相角存在領域検出手段と、前記肌色
候補ブロック選択手段の出力を処理して前記肌色候補ブ
ロックの重心を出力する肌色候補ブロック重心処理手段
とを有する請求項1記載の階調補正装置。
6. The feature presence / absence determining means processes the output of the block information acquiring section to select a skin color candidate block, and a covariance matrix which performs statistical processing from the output of the skin color candidate block selecting means. Calculating means, a skin color hue line detecting means for detecting a skin color hue line from the output of the covariance matrix calculating means, a skin color hue angle existing area detecting means for detecting an existing area of a hue angle of the skin color hue line, and the skin color The tone correction apparatus according to claim 1, further comprising: a skin color candidate block centroid processing unit that processes the output of the candidate block selection unit to output the centroid of the skin color candidate block.
【請求項7】 度合情報決定手段は、ブロック情報取得
部の出力を処理して肌色候補ブロックを選択する肌色候
補ブロック選択手段と、前記肌色候補ブロックを処理し
て肌色の明るさを出力する肌色輝度処理手段を有する請
求項1記載の階調補正装置。
7. The degree information determination means processes the output of the block information acquisition part to select a skin color candidate block, and the skin color candidate block processing means processes the skin color candidate block to output the brightness of the skin color. The gradation correction device according to claim 1, further comprising a brightness processing unit.
【請求項8】 カテゴリ分類部は、入力画像を逆光シー
ン特徴の有無と人物シーン特徴の有無の組み合わせによ
って、第1に逆光の人物撮影シーンである、第2に逆光
であるが人物撮影シーンではない、第3に逆光ではなく
人物撮影シーンである、第4に逆光ではなく人物撮影シ
ーンでもないという4つに分類する請求項1記載の階調
補正装置。
8. The category classifying unit, based on a combination of the presence / absence of a backlight scene feature and the presence / absence of a person scene feature in the input image, firstly a backlighting person shooting scene, and secondly a backlighting person shooting scene. The gradation correction device according to claim 1, wherein the gradation correction device is classified into four categories, namely, no, third is a person shooting scene, not backlight, and fourth is not a backlight, not person shooting scene.
【請求項9】 シーン情報決定部は、あらかじめM個の
特徴Cm(m=1...M)の個々の1つでラベル付けされた多
数の画像サンプルをカテゴリ分類部によって前記特徴の
有無の組み合わせから2M 個に自動分類し、i番目に分
類されたNi 個の画像サンプルのうち特徴Cmでラベル
付けされているもののサンプル数をLm個とし、i番目
に分類された画像の各特徴Cmの信頼度をLm/Ni と
することを特徴とする請求項1記載の階調補正装置。
9. The scene information determining unit determines, by the category classifying unit, a large number of image samples pre-labeled with each one of the M features Cm (m = 1 ... M). The number of samples of the i-th classified Ni image samples labeled with the feature Cm is Lm, and each feature Cm of the i-th sorted image is automatically classified into 2 M pieces from the combination. 2. The gradation correction device according to claim 1, wherein the reliability of Lm / Ni is Lm / Ni.
【請求項10】 入力画像の特徴は第1に逆光シーン、
第2に人物撮影シーン第3に前記第1及び2を除くシー
ンの3つであることを特徴とする請求項1記載の階調補
正装置。
10. The features of the input image are firstly a backlit scene,
The gradation correction device according to claim 1, wherein there are three scenes of a person photographing scene, a scene excluding the first scene and a scene of the second scene.
【請求項11】 ブロック情報取得部は、入力画像を縦
横に粗いブロックに分割し、各ブロックごとにブロック
内の画素全ての色の輝度と色度の平均値を取得すること
を特徴とする請求項1記載の階調補正装置。
11. The block information acquisition unit divides an input image vertically and horizontally into coarse blocks, and acquires average values of luminance and chromaticity of all pixels in each block for each block. Item 1. The gradation correction device according to item 1.
【請求項12】 ブロック情報取得部は、入力画像を縦
横に粗いブロックに分割し、各ブロックごとに画素集合
を規定し、ブロック内の前記画素集合全てについて色の
輝度が最大である前記画素集合内での平均輝度と平均色
度を取得することを特徴とする請求項1記載の階調補正
装置。
12. A block information acquisition unit divides an input image vertically and horizontally into coarse blocks, defines a pixel set for each block, and the pixel set having the maximum luminance of color for all the pixel sets in the block. The gradation correction device according to claim 1, wherein an average luminance and an average chromaticity within the image are acquired.
【請求項13】 ブロック情報取得部は、入力画像を縦
横に粗いブロックに分割し、各ブロックごとに画素集合
を規定し、ブロック内の前記画素集合全てについて色の
輝度が最小である前記画素集合内での平均輝度と平均色
度を取得することを特徴とする請求項1記載の階調補正
装置。
13. A block information acquisition unit divides an input image vertically and horizontally into coarse blocks, defines a pixel set for each block, and sets the pixel set in which the luminance of color is minimum for all the pixel sets in the block. The gradation correction device according to claim 1, wherein an average luminance and an average chromaticity within the image are acquired.
JP6198308A 1994-07-21 1994-08-23 Gradation correction device Expired - Fee Related JP3018914B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP6198308A JP3018914B2 (en) 1994-08-23 1994-08-23 Gradation correction device
US08/504,658 US5715377A (en) 1994-07-21 1995-07-20 Gray level correction apparatus
US08/826,333 US5940530A (en) 1994-07-21 1997-03-27 Backlit scene and people scene detecting method and apparatus and a gradation correction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6198308A JP3018914B2 (en) 1994-08-23 1994-08-23 Gradation correction device

Publications (2)

Publication Number Publication Date
JPH0862741A true JPH0862741A (en) 1996-03-08
JP3018914B2 JP3018914B2 (en) 2000-03-13

Family

ID=16388979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6198308A Expired - Fee Related JP3018914B2 (en) 1994-07-21 1994-08-23 Gradation correction device

Country Status (1)

Country Link
JP (1) JP3018914B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097836A (en) * 1996-07-22 2000-08-01 Nec Corporation Image processing system and its smoothing method for correcting color fog and backlight of a digital image
JP2001014457A (en) * 1999-06-29 2001-01-19 Minolta Co Ltd Image processor
US6795212B1 (en) 1998-09-18 2004-09-21 Fuji Photo Film Co., Ltd. Printing method and apparatus
US6947594B2 (en) 2001-08-27 2005-09-20 Fujitsu Limited Image processing method and systems
JP2006024132A (en) * 2004-07-09 2006-01-26 Canon Inc Image processing method and device
US7010160B1 (en) 1998-06-16 2006-03-07 Konica Minolta Co., Ltd. Backlight scene judging method
WO2006123492A1 (en) * 2005-05-19 2006-11-23 Konica Minolta Photo Imaging, Inc. Image processing method, image processing device, imaging device and image processing program
JP2007104267A (en) * 2005-10-04 2007-04-19 Nikon Corp Color correction processing program and electronic camera
JP2008109669A (en) * 2006-10-25 2008-05-08 Samsung Electronics Co Ltd Display device and method of improving flicker of image
WO2008129596A1 (en) * 2007-04-04 2008-10-30 Panasonic Corporation Display device and display method
US7457465B2 (en) * 2003-04-18 2008-11-25 Seiko Epson Corporation Method, apparatus, and computer-readable medium for processing an image while excluding a portion of the image
JP2009037283A (en) * 2007-07-31 2009-02-19 Ricoh Co Ltd Image processor, image reader therewith, image processing method and image processing program
JP2009038827A (en) * 2006-02-21 2009-02-19 Seiko Epson Corp Exposure determination apparatus, and method of determining same
JP2009059119A (en) * 2007-08-31 2009-03-19 Casio Comput Co Ltd Gradation correction device, gradation correction method and gradation correction program
JP2009059118A (en) * 2007-08-31 2009-03-19 Casio Comput Co Ltd Gradation correction device, gradation correction method and gradation correction program
JP2009105951A (en) * 2009-01-26 2009-05-14 Seiko Epson Corp Correction of color of image data
JP2010011153A (en) * 2008-06-27 2010-01-14 Fujifilm Corp Imaging apparatus, imaging method and program
US7945113B2 (en) 2006-02-22 2011-05-17 Seiko Epson Corporation Enhancement of image data based on plural image parameters
KR101168110B1 (en) * 2009-09-04 2012-07-24 삼성전자주식회사 Apparatus and method for compensating back light of image
US8390693B2 (en) 2008-08-01 2013-03-05 Sanyo Electric Co., Ltd. Image processing apparatus
KR101297182B1 (en) * 2006-11-24 2013-08-21 삼성전자주식회사 Image photographing apparatus having function of auto back light compensation and method thereof
JP2015087949A (en) * 2013-10-30 2015-05-07 キヤノン株式会社 Image processor and control method thereof, program, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4341295B2 (en) 2003-05-16 2009-10-07 セイコーエプソン株式会社 Judging backlit human images

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6346994B1 (en) 1996-07-22 2002-02-12 Nec Corporation Image processing system and its smoothing method for correcting color fog and backlight of a digital image
US6097836A (en) * 1996-07-22 2000-08-01 Nec Corporation Image processing system and its smoothing method for correcting color fog and backlight of a digital image
US7010160B1 (en) 1998-06-16 2006-03-07 Konica Minolta Co., Ltd. Backlight scene judging method
US6795212B1 (en) 1998-09-18 2004-09-21 Fuji Photo Film Co., Ltd. Printing method and apparatus
JP2001014457A (en) * 1999-06-29 2001-01-19 Minolta Co Ltd Image processor
US6947594B2 (en) 2001-08-27 2005-09-20 Fujitsu Limited Image processing method and systems
US7457465B2 (en) * 2003-04-18 2008-11-25 Seiko Epson Corporation Method, apparatus, and computer-readable medium for processing an image while excluding a portion of the image
JP2006024132A (en) * 2004-07-09 2006-01-26 Canon Inc Image processing method and device
WO2006123492A1 (en) * 2005-05-19 2006-11-23 Konica Minolta Photo Imaging, Inc. Image processing method, image processing device, imaging device and image processing program
JP2006325015A (en) * 2005-05-19 2006-11-30 Konica Minolta Photo Imaging Inc Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP2007104267A (en) * 2005-10-04 2007-04-19 Nikon Corp Color correction processing program and electronic camera
JP2009038827A (en) * 2006-02-21 2009-02-19 Seiko Epson Corp Exposure determination apparatus, and method of determining same
US7945113B2 (en) 2006-02-22 2011-05-17 Seiko Epson Corporation Enhancement of image data based on plural image parameters
JP2008109669A (en) * 2006-10-25 2008-05-08 Samsung Electronics Co Ltd Display device and method of improving flicker of image
KR101297182B1 (en) * 2006-11-24 2013-08-21 삼성전자주식회사 Image photographing apparatus having function of auto back light compensation and method thereof
WO2008129596A1 (en) * 2007-04-04 2008-10-30 Panasonic Corporation Display device and display method
JP2009037283A (en) * 2007-07-31 2009-02-19 Ricoh Co Ltd Image processor, image reader therewith, image processing method and image processing program
JP4600448B2 (en) * 2007-08-31 2010-12-15 カシオ計算機株式会社 Gradation correction apparatus, gradation correction method, and program
JP4525719B2 (en) * 2007-08-31 2010-08-18 カシオ計算機株式会社 Gradation correction apparatus, gradation correction method, and program
JP2009059118A (en) * 2007-08-31 2009-03-19 Casio Comput Co Ltd Gradation correction device, gradation correction method and gradation correction program
US8009927B2 (en) 2007-08-31 2011-08-30 Casio Computer Co., Ltd. Tone correcting apparatus providing improved tone correction on image
US8126285B2 (en) 2007-08-31 2012-02-28 Casio Computer Co., Ltd. Tone correcting apparatus providing improved tone correction on image
US8160383B2 (en) 2007-08-31 2012-04-17 Casio Computer Co., Ltd. Tone correcting apparatus providing improved tone correction on image
JP2009059119A (en) * 2007-08-31 2009-03-19 Casio Comput Co Ltd Gradation correction device, gradation correction method and gradation correction program
JP2010011153A (en) * 2008-06-27 2010-01-14 Fujifilm Corp Imaging apparatus, imaging method and program
US8390693B2 (en) 2008-08-01 2013-03-05 Sanyo Electric Co., Ltd. Image processing apparatus
JP2009105951A (en) * 2009-01-26 2009-05-14 Seiko Epson Corp Correction of color of image data
KR101168110B1 (en) * 2009-09-04 2012-07-24 삼성전자주식회사 Apparatus and method for compensating back light of image
JP2015087949A (en) * 2013-10-30 2015-05-07 キヤノン株式会社 Image processor and control method thereof, program, and storage medium

Also Published As

Publication number Publication date
JP3018914B2 (en) 2000-03-13

Similar Documents

Publication Publication Date Title
JP3018914B2 (en) Gradation correction device
US5940530A (en) Backlit scene and people scene detecting method and apparatus and a gradation correction apparatus
CN110163810B (en) Image processing method, device and terminal
US7747071B2 (en) Detecting and correcting peteye
JP4251719B2 (en) Robust tracking system for human faces in the presence of multiple persons
EP1918872B1 (en) Image segmentation method and system
US7796822B2 (en) Foreground/background segmentation in digital images
US8811733B2 (en) Method of chromatic classification of pixels and method of adaptive enhancement of a color image
US8355574B2 (en) Determination of main object on image and improvement of image quality according to main object
US6377702B1 (en) Color cast detection and removal in digital images
CN100354875C (en) Red eye moving method based on human face detection
KR101554403B1 (en) Image processing device, image processing method, and recording medium for control program
US8300930B2 (en) Method for statistical analysis of images for automatic white balance of color channel gains for image sensors
US9460521B2 (en) Digital image analysis
CN106919911A (en) Modified using the automatic face and skin of face detection
US10455123B2 (en) Method for increasing the saturation of an image, and corresponding device
US6996270B1 (en) Method, apparatus, and recording medium for facial area adjustment of an image
CN115100240A (en) Method and device for tracking object in video, electronic equipment and storage medium
CN109583330B (en) Pore detection method for face photo
JP3387071B2 (en) Image identification apparatus and method
KR100439377B1 (en) Human area detection for mobile video telecommunication system
JPH06259549A (en) Picture area dividing device
Kwon et al. Illumination estimation based on valid pixel selection in highlight region
CN102111547B (en) Image processing method, image processing equipment and picture pick-up device
LI et al. An algorithm of automatic white balance based on dynamic threshold

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees