JP2010102426A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2010102426A
JP2010102426A JP2008271795A JP2008271795A JP2010102426A JP 2010102426 A JP2010102426 A JP 2010102426A JP 2008271795 A JP2008271795 A JP 2008271795A JP 2008271795 A JP2008271795 A JP 2008271795A JP 2010102426 A JP2010102426 A JP 2010102426A
Authority
JP
Japan
Prior art keywords
image
region
backlight
correction
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008271795A
Other languages
Japanese (ja)
Other versions
JP4851505B2 (en
Inventor
Yuka Tsuda
由佳 津田
Junko Shinohara
順子 篠原
Hochi Nakamura
芳知 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008271795A priority Critical patent/JP4851505B2/en
Publication of JP2010102426A publication Critical patent/JP2010102426A/en
Application granted granted Critical
Publication of JP4851505B2 publication Critical patent/JP4851505B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically perform level calculation of backlight and follow light of a photographic image, and to perform image correction according to the calculation result. <P>SOLUTION: This image processing apparatus is provided with: an object detection means 1 which detects an object in an image from an input image, and searches region information showing in which region of the image the object is present; a featured value extraction means 2 which calculates a featured value based on each luminance or color among the region of the object and a partial or all background region other than the region of the object and the whole region of the image on the basis of the image and the region information from the object detection means 1; a backlight/follow light level calculation means 3 which calculates the levels of the backlight and follow light of the image from the featured value of the region of the object and the featured value of the background region or the whole region from the featured value extraction means 2; and an image correction means 4 which corrects the image on the basis of the region information from the object detection means 1 and the featured value of the whole image from the featured value extraction means 2 and the levels of the backlight and follow light from the backlight/follow light level calculation means 3. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、画像の順光や逆光状態を判定し、適切な画像補正を行う画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method that determine the normal light and backlight conditions of an image and perform appropriate image correction.

近年、デジタルカメラの普及により、デジタルカメラによる写真撮影や、その撮影画像のプリント需要が増えてきている。しかし、デジタルカメラはその手軽さ故、カメラに関して知識が十分でないユーザーでも簡単に取り扱うことが可能であり、様々な環境下であまり意識せずに大量に撮影を行うため、撮影された画像は必ずしも好適な条件で撮影された画像ばかりではなく、逆光や、ハイコントラストシーンである場合が多々ある。しかし、好適でない条件で撮影した画像であっても、内容が撮影者にとって重要である場合には、廃棄できるものではなく、適切な画像補正を行い、好適な状態にして、保存、あるいはプリントすることが望まれる。   In recent years, with the widespread use of digital cameras, there is an increasing demand for taking pictures with digital cameras and printing the taken images. However, because digital cameras are so easy, even users who do not have enough knowledge about cameras can easily handle them. There are many cases where the scene is not only an image photographed under suitable conditions but also a backlight or a high-contrast scene. However, even if an image was taken under unfavorable conditions, if the contents are important to the photographer, it cannot be discarded, and appropriate image correction is performed, and a suitable state is stored or printed. It is hoped that.

そのため、従来の画像処理装置、画像状態判別方法及び記憶媒体においては、予め逆光画像とされる画像を入力して、画像から算出したヒストグラムに基づいてこの画像の逆光の程度を判別し、逆光の程度に応じて画像補正を行っている。(例えば、特許文献1参照。)。   Therefore, in a conventional image processing apparatus, image state determination method, and storage medium, an image that is a backlight image is input in advance, the degree of backlight of the image is determined based on a histogram calculated from the image, and the backlight Image correction is performed according to the degree. (For example, refer to Patent Document 1).

特開2002−92607号公報(第3〜4頁、第1〜3図)JP 2002-92607 A (pages 3 to 4, FIGS. 1 to 3)

従来の画像処理装置、画像状態判別方法及び記憶媒体においては、逆光画像とされる画像に対し、逆光の程度を判別して画像補正を行うため、逆光画像であるかどうかが予めわかっていなければならなく、また、画像補正は、大量に撮影した画像に対して行う場合が多いため、自動処理と高速処理が困難であるという問題があった。   In conventional image processing apparatuses, image state determination methods, and storage media, an image that is to be a backlight image is subjected to image correction by determining the degree of backlight, so whether or not it is a backlight image must be known in advance. In addition, since image correction is often performed on a large number of captured images, there is a problem that automatic processing and high-speed processing are difficult.

この発明は、上述のような問題点を解決するためになされたもので、自動で撮影画像の逆光と順光のレベル算出を行い、これに基づき画像補正を行う画像処理装置及び画像処理方法を得るものである。   The present invention has been made to solve the above-described problems, and provides an image processing apparatus and an image processing method for automatically calculating a back light level and a forward light level of a captured image, and performing image correction based on the calculation. To get.

この発明に係る画像処理装置は、入力された画像からこの画像中のオブジェクトを検出し、オブジェクトが画像中のどの領域にあるかを示す領域情報を求めるオブジェクト検出手段と、画像とオブジェクト検出手段からの領域情報とに基づき、オブジェクトの領域とオブジェクトの領域以外の一部又は全部の背景領域と画像の全体の領域とのそれぞれの輝度又は色を基にした特徴量を算出する特徴量抽出手段と、この特徴量抽出手段からのオブジェクトの領域の特徴量と背景領域又は全体の領域の特徴量とから画像の逆光と順光のレベルを算出する逆光順光レベル算出手段と、オブジェクト検出手段からの領域情報と特徴量抽出手段からの画像の全体の特徴量と逆光順光レベル算出手段からの逆光と順光のレベルとに基づき画像を補正する画像補正手段とを備えるものである。   An image processing apparatus according to the present invention includes: an object detection unit that detects an object in an image from an input image and obtains region information indicating in which region the object is in the image; and an image and an object detection unit Feature amount extraction means for calculating a feature amount based on the brightness or color of each of the object region, a part or all of the background region other than the object region, and the entire region of the image based on the region information The backlight follow-up light level calculating means for calculating the backlight level and the follow light level of the image from the feature quantity of the object area from the feature quantity extracting means and the feature quantity of the background area or the entire area, and the object detection means An image for correcting the image based on the region information, the overall feature amount of the image from the feature amount extraction means, and the backlight and follow light levels from the backlight follow light level calculation means. In which and a correcting means.

この発明によれば、入力された画像中のオブジェクトを検出し、オブジェクトの領域情報に基づき特徴量を算出し、画像の逆光と順光のレベル算出を行って画像補正をするので、自動処理が可能で高速処理ができる画像処理装置が得られる。   According to the present invention, an object in an input image is detected, a feature amount is calculated based on the object area information, and the image correction is performed by calculating the backlight and follow light levels of the image. An image processing apparatus capable of high-speed processing is obtained.

実施の形態1.
図1は、この発明の実施の形態1における画像処理装置を示すブロック図である。ここでは、画像領域内のオブジェクトを人物の顔とした場合で説明する。オブジェクト検出手段1は、入力画像に対し、パターンマッチング等により画像中にあるオブジェクト(この場合は人物の顔)を検出し、オブジェクトが画像中のどの領域にあるかを示すオブジェクト領域情報(この場合は顔領域情報)を求める。特徴量抽出手段2は、オブジェクト検出手段1からの顔領域情報により、顔領域とそれ以外の領域に分けて、それぞれの画素値の統計量を特徴量として算出するとともに、画像全体の特徴量も算出する。逆光順光レベル算出手段3は、特徴量抽出手段により算出された画像の特徴量により、逆光と順光のレベルを算出する。画像補正手段4は、オブジェクト検出手段1から出力されるオブジェクト領域情報と、特徴量抽出手段2から出力される画像全体の特徴量と、逆光順光レベル算出手段3から出力される逆光順光レベル算出結果に基づき、それぞれの画像に適した画像補正を行う。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention. Here, a case where an object in the image area is a human face will be described. The object detection means 1 detects an object (in this case, a human face) in the image by pattern matching or the like from the input image, and object area information (in this case) indicating in which area the object is in the image Obtain face area information). The feature amount extraction unit 2 calculates a statistic amount of each pixel value as a feature amount by dividing into a face region and other regions based on the face region information from the object detection unit 1, and also calculates the feature amount of the entire image. calculate. The backlight follow light level calculation unit 3 calculates the backlight and follow light levels based on the feature amount of the image calculated by the feature amount extraction unit. The image correction unit 4 includes the object area information output from the object detection unit 1, the feature amount of the entire image output from the feature amount extraction unit 2, and the backlight follow light level output from the backlight follow light level calculation unit 3. Based on the calculation result, image correction suitable for each image is performed.

このように構成された画像処理装置の動作について図2のフローチャートを基に説明する。まず、オブジェクト検出ステップS101では、入力画像に対し、オブジェクト検出手段1が画像中にある人物の顔領域を検出する。具体的には、特表2004−527863号公報に記載されているような特徴抽出、肌色検出、パターンやテンプレートマッチング等の様々な公知の手法を用いて検出する。   The operation of the image processing apparatus configured as described above will be described with reference to the flowchart of FIG. First, in the object detection step S101, the object detection means 1 detects a human face area in the image from the input image. Specifically, detection is performed using various known methods such as feature extraction, skin color detection, pattern and template matching as described in JP-T-2004-527863.

オブジェクト検出手段1で検出される顔領域情報の例を図3に示す。図3において、
オブジェクト検出手段1により、写真画像全体11から、顔領域12と、この顔領域12以外を示す背景領域13(図中に点の表示を施している)が検出される。本実施の形態では、図のように、顔領域12は矩形で表示されるものとして説明する。顔座標(x,y)14は、オブジェクト検出手段1により検出される顔領域12の画面上向かって左上の画素位置を示す。また、幅15は顔領域の横の長さであり、高さ16は顔領域の縦の長さであり、それぞれ画素数で示す。以上のように、本実施の形態でオブジェクト検出手段1から出力される顔領域情報は、顔座標(x,y)14、幅15、及び高さ16であり、顔が複数個ある場合にはこれらの情報が顔別にそれぞれ検出されるものとする。
An example of face area information detected by the object detection means 1 is shown in FIG. In FIG.
The object detection means 1 detects a face area 12 and a background area 13 (indicated with dots in the figure) indicating areas other than the face area 12 from the entire photographic image 11. In the present embodiment, it is assumed that the face area 12 is displayed as a rectangle as shown in the figure. A face coordinate (x, y) 14 indicates a pixel position at the upper left of the face area 12 detected by the object detection unit 1 on the screen. Further, the width 15 is the horizontal length of the face area, and the height 16 is the vertical length of the face area, each indicated by the number of pixels. As described above, the face area information output from the object detection unit 1 in the present embodiment is the face coordinates (x, y) 14, the width 15, and the height 16, and when there are a plurality of faces, These pieces of information are detected for each face.

次に、特徴量抽出ステップS102では、オブジェクト検出手段1で検出された顔領域情報に基づき、特徴量抽出手段2が顔領域と顔以外の背景領域に分割し、それぞれの領域の画素値の統計量を特徴量として算出する。また、入力される写真画像全体11も1つの領域としてこの領域の画素値の統計量も合わせて特徴量として算出する。具体的には画素値の統計量として、各領域別に輝度ヒストグラム、および平均輝度を特徴量として算出する。なお、ここでの輝度は、0〜255階調とする。   Next, in the feature quantity extraction step S102, based on the face area information detected by the object detection means 1, the feature quantity extraction means 2 divides it into a face area and a background area other than the face, and the statistics of the pixel values of the respective areas. The amount is calculated as a feature amount. In addition, the entire inputted photographic image 11 is also calculated as a feature amount together with a statistic of pixel values of this region as one region. Specifically, as a statistic of pixel values, a luminance histogram and average luminance for each region are calculated as feature amounts. Note that the luminance here is 0 to 255 gradations.

次に、逆光順光レベル算出ステップS103では、特徴量抽出手段2において、各領域別に算出した平均輝度の特徴量に基づき、逆光順光レベル算出手段3が逆光と順光のレベルの算出を行う。具体的には、各領域別に平均輝度を求め、各領域間の平均輝度の差を逆光順光値gとして算出することにより、逆光順光レベル算出を行う。以下、本実施の形態では、入力写真画像に人物の顔が1個ある場合の逆光順光レベル算出方法を示す。   Next, in the backlight follow-up light level calculation step S103, in the feature quantity extraction means 2, the backlight follow-up light level calculation means 3 calculates the backlight and follow light levels based on the feature values of the average brightness calculated for each region. . Specifically, the backlight intensity level is calculated for each area by calculating the average brightness for each area and calculating the difference in average brightness between the areas as the backlight intensity value g. Hereinafter, in the present embodiment, a method for calculating the backlight follow-up light level when there is one person's face in the input photo image will be described.

顔が1個の場合、逆光順光値gは1個の顔領域の平均輝度face_aveと顔領域以外の背景領域の平均輝度back_aveの差により、例えば(1)式のように定める。各領域の平均輝度は、各領域に含まれる画素の輝度値の和を各領域に含まれる画素数で除して算出する。   When the number of faces is one, the backlight follow light value g is determined by the difference between the average brightness face_ave of one face area and the average brightness back_ave of a background area other than the face area, for example, as shown in Equation (1). The average luminance of each region is calculated by dividing the sum of the luminance values of the pixels included in each region by the number of pixels included in each region.

Figure 2010102426
Figure 2010102426

逆光順光レベル算出方法の詳細について述べる。まず、逆光順光値gが正のとき、すなわち、顔領域の平均輝度が顔以外の背景領域の平均輝度よりも高い場合を順光と判定する。一方、逆光順光値gが0以下のとき、すなわち顔領域の平均輝度が顔以外の背景領域の平均輝度よりも同じか、低い場合を逆光と判定するものとする。図4に逆光順光値gにより逆光の程度を示す逆光順光レベルを設定する設定条件の一例を示す。   Details of the backlight follow light level calculation method will be described. First, when the backlight follow light value g is positive, that is, when the average brightness of the face area is higher than the average brightness of the background area other than the face, it is determined as follow light. On the other hand, when the backlight follow-up light value g is 0 or less, that is, when the average brightness of the face area is the same or lower than the average brightness of the background area other than the face, it is determined that the backlight is back. FIG. 4 shows an example of setting conditions for setting a backlight follow-up light level indicating the degree of backlight using the backlight follow-up light value g.

以上のように、逆光順光レベル算出手段3において、逆光順光値gにより逆光順光レベルが設定され、逆光順光レベル算出結果として、画像補正手段4に出力される。   As described above, the backlight follow-up light level calculation unit 3 sets the backlight follow-up light level based on the backlight follow-up light value g, and outputs the result to the image correction unit 4 as a backlight follow-up light level calculation result.

画像補正ステップS104では、画像補正手段4がオブジェクト検出手段1からのオブジェクト領域情報(この場合は顔領域情報)と、特徴量抽出手段2からの画像全体の特徴量と、逆光順光レベル算出手段3からの逆光順光レベル算出結果に基づき、それぞれの画像に適した画像補正を行う。   In the image correction step S104, the image correction means 4 is the object area information (in this case, face area information) from the object detection means 1, the feature quantity of the entire image from the feature quantity extraction means 2, and the backlight follow light level calculation means. Based on the result of backlight backlight level calculation from 3, image correction suitable for each image is performed.

ここで、画像補正手段4において行われるいくつかの画像補正の方法について説明する。まず、一つ目の画像補正方法として、例えば、ANIL K. JAIN著、「Fundamentals of Digital imageProcessing」Prentice−Hall International,Inc.出版、1989年、pp.241−244に記載されているようなヒストグラム均等化法を用いた、階調補正がある。   Here, several image correction methods performed in the image correction unit 4 will be described. First, as a first image correction method, for example, “Fundamentals of Digital image Processing” by Prince-Hall International, Inc., written by ANIL K. JAIN. There is gradation correction using a histogram equalization method as described in Publishing, 1989, pp. 241-244.

これは、入力画像の画面全体にわたって、各画素の例えば輝度値を算出し、同じ階調の値を持つ画素、または、階調の量子化数よりも少ない区間に区切った同じ区間に含まれる画素の出現頻度を示すヒストグラムを作成し、この作成したヒストグラムの形状(出現頻度の分布)が最適になるような階調変換のための1個のマッピングテーブルを作成し、このマッピングテーブルを用いて、画面全体にわたって階調補正処理を行うというものである。このヒストグラム均等化法を用いることにより、画面内の階調があるレベルに偏っている場合に、階調の分布を最適化することで、画面全体の階調特性を改善することができる。ただし、1画面全体に対し、1種類のマッピングテーブルしか作成しないので、ある階調レベル範囲の階調幅を広げると、代わりに他の階調レベル範囲の階調幅が狭くなり、狭くなった階調レベル範囲の階調潰れが発生するという場合がある。以下、この補正をコントラスト補正方法と記すことにする。   This is because, for example, the luminance value of each pixel is calculated over the entire screen of the input image, and the pixels having the same gradation value or the pixels included in the same section divided into sections smaller than the quantization number of gradations Is created, a single mapping table is created for tone conversion so that the shape of the created histogram (appearance frequency distribution) is optimized, and using this mapping table, Tone correction processing is performed over the entire screen. By using this histogram equalization method, the tone characteristics of the entire screen can be improved by optimizing the tone distribution when the tone in the screen is biased to a certain level. However, since only one type of mapping table is created for the entire screen, if the gradation width of a certain gradation level range is widened, the gradation width of another gradation level range is narrowed instead. In some cases, the level range may be crushed. Hereinafter, this correction is referred to as a contrast correction method.

この方法は、具体的にはヒストグラム均等化法により階調補正用のγカーブ(マッピングカーブ)を作成し、これに基づき画質調整を行う。図5にヒストグラム均等化法によるγカーブ作成手順を示す。まず、横軸に階調(この場合は0〜255の階調)を取り、縦軸に頻度を取って、画面全体の輝度信号のヒストグラムを作成し(図5(a))、次にこのヒストグラムの総和が255になるよう正規化する(図5(b))。つづいてこの図から累積ヒストグラムを作成し(図5(c))、累積ヒストグラムの代表値21を算出する。最後にこれらの代表値を滑らかに結び、コントラスト補正γカーブ22を作成する(図5(d))。なお、図5(e)は、このコントラスト補正γカーブ22を用いて画像全体を補正した場合の輝度ヒストグラムを示す。ヒストグラムが均等化されたことが分かる。   Specifically, this method creates a tone correction γ curve (mapping curve) by a histogram equalization method, and performs image quality adjustment based on the γ curve. FIG. 5 shows a procedure for creating a γ curve by the histogram equalization method. First, the horizontal axis represents the gradation (in this case, the gradation from 0 to 255), the vertical axis represents the frequency, and a histogram of the luminance signal of the entire screen is created (FIG. 5 (a)). Normalization is performed so that the total sum of the histograms becomes 255 (FIG. 5B). Subsequently, a cumulative histogram is created from this figure (FIG. 5C), and a representative value 21 of the cumulative histogram is calculated. Finally, these representative values are connected smoothly to create a contrast correction γ curve 22 (FIG. 5D). FIG. 5E shows a luminance histogram when the entire image is corrected using the contrast correction γ curve 22. It can be seen that the histogram is equalized.

次に、二つ目の画像補正方法として、1画面全体に対し1種類のマッピングテーブルにより階調補正を行う上記ヒストグラム均等化法を改善した、局所階調補正がある(例えば特許第4011073号参照)。これは、画面の局所領域毎に局所領域の平均輝度に応じてマッピングテーブルを作成することにより、それぞれの領域で必要な階調の幅を広げることができ、さらに、他の領域の階調変動の影響を受けにくいため、局所領域の階調幅を広げたことにより他の領域の階調幅が狭くなるという、上記ヒストグラム均等化法の悪影響を抑えることができるものである。また、局所階調補正によると、対象となる画像が、逆光状態で撮影された画像の場合のように、黒く潰れ気味の領域と、明るく白飛び気味の領域の両方が存在するような画像の場合に対しても、両方の領域に対して、より効果の高い階調補正を行うことができる。以下、この補正を逆光補正方法と記すことにする。   Next, as a second image correction method, there is local gradation correction, which is an improvement of the above-described histogram equalization method in which gradation correction is performed using one type of mapping table for the entire screen (see, for example, Japanese Patent No. 4011073). ). This is because by creating a mapping table for each local area of the screen according to the average brightness of the local area, it is possible to widen the necessary gradation width in each area, and to change the gradation of other areas Therefore, it is possible to suppress the adverse effect of the histogram equalization method in which the gradation width of other regions is narrowed by increasing the gradation width of the local region. In addition, according to the local gradation correction, an image in which both the area that is crushed in black and the area that is brightly overexposed exist as in the case where the target image is captured in a backlight state. Even in this case, more effective gradation correction can be performed for both regions. Hereinafter, this correction is referred to as a backlight correction method.

この方法は、具体的には逆光補正パラメータに応じて階調補正に用いるγカーブを変更する。図6を用いてγカーブの決定方法を説明する。図において横軸は255階調の入力を示し、縦軸は255階調の出力を示す。γカーブは低輝度用と高輝度用の2種類あり、低輝度用逆光補正γカーブ31、32は低輝度領域の傾きが大きく、黒潰れを改善する。高輝度用逆光補正γカーブ36、37は高輝度領域の傾きが大きく、白飛びを改善する。傾きの変化が最も大きい第一の低輝度用逆光補正γカーブ31と、第一の高輝度用逆光補正γカーブ37は画像に寄らず固定とし、各画像の第二の低輝度用逆光補正γカーブ32と、第二の高輝度用逆光補正γカーブ36を画像の逆光補正パラメータに応じて生成する。γカーブは、逆光補正パラメータが大きいほど固定のγカーブに近づき、小さいほど傾き1の直線34に近づくような曲線とする。   Specifically, this method changes the γ curve used for gradation correction according to the backlight correction parameter. A method for determining the γ curve will be described with reference to FIG. In the figure, the horizontal axis indicates input of 255 gradations, and the vertical axis indicates output of 255 gradations. There are two types of γ curves, one for low luminance and one for high luminance, and the low luminance backlight correction γ curves 31 and 32 have a large inclination in the low luminance region and improve black crushing. The high-brightness backlight correction γ curves 36 and 37 have a large inclination in the high-brightness region and improve whiteout. The first low-brightness backlight correction γ curve 31 and the first high-brightness backlight correction γ curve 37 having the largest change in inclination are fixed regardless of the image, and the second low-brightness backlight correction γ of each image is fixed. A curve 32 and a second high-brightness backlight correction γ curve 36 are generated according to the backlight correction parameter of the image. The γ curve is a curve that approaches a fixed γ curve as the backlight correction parameter increases, and approaches a straight line 34 having a slope of 1 as the backlight correction parameter decreases.

引き続き局所領域毎に階調補正を行う。局所領域の平均輝度にもとづき階調の補正量を変更する。図7、8を用いて階調補正方法を説明する。局所領域の平均輝度が128未満のときは低輝度用逆光補正γカーブを用い、128以上のときは高輝度用逆光補正γカーブを用いて補正を行う。局所領域内の各画素の輝度Yinに対する出力値Youtは、低輝度用・高輝度用のγカーブを使用した場合の出力値をYout1、傾き1の直線34を使用した場合の出力値をYout2、局所領域の平均輝度をYaveとして、式(2−1)と式(2−3)のように求める。結果的に、Yinに対するYoutは図7、8の点線(第三の低輝度用逆光補正γカーブ33、又は第三の高輝度用逆光補正γカーブ35)で示す曲線上に乗ることとなる。なお、図中のαとβの関係は式(2−2)と式(2−4)に示す通りである。以上より、局所領域の平均輝度に応じた補正ができる。 Subsequently, gradation correction is performed for each local region. The correction amount of gradation is changed based on the average luminance of the local area. The gradation correction method will be described with reference to FIGS. When the average luminance of the local area is less than 128, correction is performed using the low luminance backlight correction γ curve, and when it is 128 or more, correction is performed using the high luminance backlight correction γ curve. The output value Y out with respect to the luminance Y in of each pixel in the local area is the output value when using a low-luminance / high-luminance γ curve, Y out1 , and the output value when using a straight line 34 with a slope 1. Is determined as Y out2 , and the average luminance of the local region is Y ave, as in Expression (2-1) and Expression (2-3). Consequently, Y out for Y in the a ride on the curve shown by a dotted line (a third of the low-intensity for backlight correction γ curve 33 or the third high-intensity for backlight correction γ curve 35) in Fig. 7 and 8 Become. In the figure, the relationship between α and β is as shown in equations (2-2) and (2-4). As described above, correction according to the average luminance of the local region can be performed.

Figure 2010102426
Figure 2010102426

次に、三つ目の画像補正方法として、上記局所階調補正を応用し、さらに人物の肌色度合いを検出することにより、画像中の人物の肌をきめ細かく美しく見せることができる、美肌補正方法がある(例えば、特許第4054360号参照)。   Next, as a third image correction method, there is a skin beautification correction method that can apply the above-mentioned local tone correction and further detect the skin color level of a person to make the skin of the person in the image look fine and beautiful. (For example, see Japanese Patent No. 4054360).

この美肌補正方法は、肌色部分を検出し階調を下げてノイズを減少させ、目立たなくするものである。美肌補正の処理は、逆光補正と同様に局所的にγカーブを変更することにより行う。美肌補正γカーブは、図9、10に示すように3つの直線からなる折れ線であり、傾き1の直線34と交わる。傾きの小さい直線部分により、肌色領域の階調差が減少してノイズが除去された滑らかな肌色に補正される。   This beautiful skin correction method detects a skin color portion, lowers the gradation to reduce noise, and makes it inconspicuous. The beautiful skin correction process is performed by locally changing the γ curve in the same manner as the backlight correction. The skin beautification correction γ curve is a broken line composed of three straight lines as shown in FIGS. By the straight line portion having a small inclination, the tone difference in the skin color area is reduced, and the skin color is corrected to a smooth skin color from which noise has been removed.

なお、各画像の美肌補正γカーブは美肌補正パラメータにもとづき逆光補正γカーブと同様にして決定する。図9を用いてγカーブの決定方法を説明する。傾きが最も小さい直線を有する第一の美肌補正γカーブ41は画像に寄らず固定とし、各画像の第二の美肌補正γカーブ42を画像の美肌補正パラメータに応じて生成する。γカーブは、美肌補正パラメータが大きいほど固定のγカーブに近づき、小さいほど傾き1の直線34に近づくような曲線とする。   Note that the skin beautification correction γ curve of each image is determined in the same manner as the backlight correction γ curve based on the skin beautification correction parameter. A method for determining the γ curve will be described with reference to FIG. The first skin correction γ curve 41 having a straight line with the smallest inclination is fixed regardless of the image, and the second skin correction γ curve 42 of each image is generated according to the skin correction parameter of the image. The γ curve is a curve that approaches a fixed γ curve as the skin beautification correction parameter is larger, and approaches a straight line 34 having a slope of 1 as it is smaller.

また、補正は肌色である局所領域に限定して行う。このとき、局所領域の肌色の度合いを示す「美肌度」に応じて補正量が変更される。図10に示すように、局所領域内の各画素の輝度Yinの補正後の出力値Youtは、美肌補正γカーブを適用した場合の出力値Yout1と、傾き1の直線34を適用した場合の出力値をYout2として、美肌度が高いほどYout1に近く、美肌度が低いほどYout2に近い値となる。 Further, the correction is limited to a local region that is a skin color. At this time, the correction amount is changed according to the “skin degree” indicating the degree of skin color in the local region. As shown in FIG. 10, the output value Y out after correcting the luminance Y in of each pixel in the local region is obtained by applying the output value Y out1 when the skin softening correction γ curve is applied and the straight line 34 with the slope 1. In this case, the output value is Y out2 , and the closer the skin beautification is, the closer to Y out1, and the lower the skin beautification is, the closer to Y out2 .

上述した3つの画像補正方法を有する画像補正手段を入力画像の内容に応じて、適切に動作させるためには、外部から補正の度合いを設定することが必要である。ここで、逆光順光レベル算出手段3において求めた人物画像に対する逆光順光レベル算出結果と、オブジェクト検出手段1から出力されるオブジェクト領域情報(顔領域情報)と、特徴量抽出手段2から出力される画像全体の特徴量に基づき、上記3つの画像補正方法に対する補正の度合いの設定方法について説明する。   In order for the image correction means having the above-described three image correction methods to operate appropriately according to the contents of the input image, it is necessary to set the degree of correction from the outside. Here, the backlight follow light level calculation result for the human image obtained by the backlight follow light level calculation means 3, the object area information (face area information) output from the object detection means 1, and the feature amount extraction means 2 are output. A method for setting the degree of correction for the above three image correction methods will be described based on the feature amount of the entire image.

まず、画像補正手段4における、画像補正方法のうち、逆光補正方法への補正度合いの設定値について説明する。図11に図4の逆光順光レベルに対する逆光補正方法の設定値の一例を示す。Level1は、弱い順光なので、逆光補正は行わず、以下、Level2から順にLevel4まで逆光度合いが強まるにつれて、逆光補正方法の補正度合いを弱から強まで段階的に上げるように設定する。なお、Level0は強い順光なので、弱い補正を行う。つまり、白飛び傾向の顔等の領域を若干暗くし、黒潰れ傾向の背景等の領域を若干明るくする。   First, the setting value of the correction degree to the backlight correction method among the image correction methods in the image correction means 4 will be described. FIG. 11 shows an example of setting values of the backlight correction method for the backlight follow light level in FIG. Since Level 1 is weak forward light, backlight correction is not performed, and hereinafter, as the degree of backlight increases from Level 2 to Level 4 in order, the correction level of the backlight correction method is set to increase gradually from weak to strong. Since Level 0 is strong forward light, weak correction is performed. In other words, a region such as a face with a tendency to whiteout is slightly darkened, and a region such as a background with a blackout tendency is slightly brightened.

次に、画像補正手段4における、画像補正方法のうち、ヒストグラム均等化法によるコントラスト補正方法への補正度合いの設定値について説明する。コントラスト補正は、逆光時に輝度ヒストグラムの分布が偏っているときに効果があるため、これも逆光補正方法への補正度合いの設定の場合と同様に、図4の逆光順光レベルに応じて設定する。図12に図4の逆光順光レベルに対するコントラスト補正方法の設定値の一例を示す。Level0、1は、順光であるが、ヒストグラム均等化法により、ヒストグラムの偏りのある部分を若干補正することにより、偏った階調レベルの階調幅を上下の階調まで補正することによる画質改善が期待される。また、Level2からLevel4までについては、逆光度合いが強まるにつれてより大きなヒストグラムの偏りが予想されるので、ヒストグラム均等化の度合いを上げ、より偏りをなくす方向へ補正度合いを弱からやや強まで段階的に上げるように設定する。   Next, the setting value of the degree of correction to the contrast correction method using the histogram equalization method among the image correction methods in the image correction unit 4 will be described. Since contrast correction is effective when the distribution of the luminance histogram is biased during backlighting, this is also set according to the backlight follow-up light level in FIG. 4 as in the case of setting the correction degree in the backlight correction method. . FIG. 12 shows an example of setting values of the contrast correction method for the backlight normal light level in FIG. Levels 0 and 1 are forward light, but the image quality is improved by correcting the gradation width of the uneven gradation level to the upper and lower gradations by slightly correcting the uneven portion of the histogram by the histogram equalization method. There is expected. In addition, with respect to Level 2 to Level 4, a larger histogram bias is expected as the degree of backlight increases, so the degree of histogram equalization is increased, and the correction degree is gradually increased from weak to slightly stronger in the direction of eliminating the bias. Set to increase.

次に、画像補正手段4における、画像補正方法のうち、美肌補正方法への補正度合いの設定値について説明する。図13には、図4の逆光順光レベルに対する美肌補正パラメータ設定値の一例を示す。なお、美肌補正は、人の肌のシミ、シワ、吹き出物等を目立たなくする効果があり、ある程度顔領域が大きい場合に効果がある。一方、顔領域が小さい場合には、目や口といった必要な顔の部分を目立たなくする方向に補正が働くので、補正を行わないほうがよい。このことを踏まえ、オブジェクト検出手段1から出力される顔領域情報のうち、顔領域の大きさを示す、幅15及び高さ16に応じて美肌補正方法への補正度合いの設定を更に行う。   Next, the setting value of the correction degree to the skin beautification correction method among the image correction methods in the image correction means 4 will be described. FIG. 13 shows an example of a skin beautification parameter setting value for the backlight normal light level in FIG. Note that the skin beautification correction has an effect of making a person's skin spots, wrinkles, breakouts, etc. inconspicuous, and is effective when the face area is large to some extent. On the other hand, when the face area is small, the correction works in such a direction that the necessary face parts such as the eyes and mouth become inconspicuous. Based on this, the correction degree to the skin beautification correction method is further set according to the width 15 and the height 16 indicating the size of the face area in the face area information output from the object detection means 1.

図14に顔領域の大きさに対する、美肌補正方法の設定値の一例を示す。なお、顔領域のサイズは顔領域の幅15と高さ16で表されるものであるが、ここでは、顔領域は幅15と高さ16が等しい、すなわち正方形の領域として扱うものとして、正方形の一辺の長さを顔領域のサイズ(図中、sizeと表す)として、この顔領域サイズに応じて、美肌補正方法への補正度合いを設定する。また、図中に示す、min_sizeは画像の短辺の例えば1/3の長さとし、美肌補正方法の設定の基準として用いる。図14に示すように、Level0の顔領域サイズがmin_sizeより小さいときは、目や口といった顔の必要な部分を目立たなくしてしまう可能性があるので、美肌補正は行わない。顔が中間の大きさの場合(Level1)は、図13のパラメータの逆光順光レベルに応じて弱からやや強まで段階的補正する。顔が大きい場合(Level2)は、肌をぼかした方が美肌に見えるので、図13のパラメータを一段強め(弱→中、中→やや強、やや強→強)、中から強まで段階的に上げるように設定する。   FIG. 14 shows an example of setting values of the skin beautification correction method for the size of the face area. The size of the face area is represented by the width 15 and the height 16 of the face area. Here, the face area has the same width 15 and height 16, that is, the square is assumed to be treated as a square area. The length of one side is set as the size of the face area (represented as size in the figure), and the correction degree to the skin beautification correction method is set according to the face area size. Further, min_size shown in the figure is, for example, 1/3 of the short side of the image, and is used as a reference for setting the skin beautification correction method. As shown in FIG. 14, when the face area size of Level 0 is smaller than min_size, since necessary portions of the face such as eyes and mouth may be inconspicuous, skin beautification correction is not performed. When the face has an intermediate size (Level 1), the correction is made in stages from weak to slightly strong according to the backlight follow light level of the parameter shown in FIG. When the face is large (Level 2), the blurred skin looks more beautiful skin, so the parameters in FIG. Set to increase.

なお、コントラスト補正について、図12に設定値の一例を示したが、逆光順光レベルの他に、コントラスト補正の補正度合いの設定において考慮すべき条件について説明する。上述のように、コントラスト補正は、ヒストグラム均等化法に基づく補正である。従って、逆光時に顔領域サイズが小さく、この小さな顔領域の大半が属する階調が全画面に占める割合が小さい階調にあたる場合、ヒストグラム均等化法によってこの階調の分布を増やす方向に他の階調から値が割り振りされ、顔領域をより黒く潰す方向に補正が働く可能性がある。そのため、コントラスト補正を行わないか、補正の度合いを弱めるように調整して設定する。   Although an example of setting values is shown in FIG. 12 for contrast correction, conditions to be considered in setting the correction degree of contrast correction will be described in addition to the backlight normal light level. As described above, contrast correction is correction based on the histogram equalization method. Therefore, when the face area size is small during backlighting, and the gradation to which the majority of the small face area occupies a small percentage of the entire screen, the gradation equalization method increases the gradation distribution to other levels. A value is assigned from the key, and there is a possibility that the correction will work in the direction of squashing the face area. Therefore, it is set by adjusting so as not to perform the contrast correction or to weaken the degree of correction.

また、全画面の輝度ヒストグラムの分布が非常に偏っている場合は、コントラスト補正を図15に示すパラメータで行うように設定する。例えば、全画面の輝度ヒストグラムを8個の区間に分けて作成する場合に、最多出現階調区間に全体の画素の1/2以上が含まれるような場合、ヒストグラムの分布が非常に偏っていると判断して、コントラスト補正の補正度合いを、中〜強のように設定する。   Further, when the distribution of the luminance histogram of the entire screen is very biased, it is set so that contrast correction is performed with the parameters shown in FIG. For example, when the luminance histogram of the entire screen is created by dividing it into 8 sections, the distribution of the histogram is very biased when the most frequently occurring gradation section includes 1/2 or more of the entire pixels. Therefore, the correction degree of contrast correction is set to medium to high.

なお、ここでは主に輝度ヒストグラムと平均輝度を特徴として抽出しているが、これらは、色信号のヒストグラムを特徴として抽出し、これに基づいて解析を行ってもよい。   Although the luminance histogram and the average luminance are mainly extracted here as features, the histogram of the color signal may be extracted as the features, and the analysis may be performed based on this.

また、逆光順光値gの求め方も(1)式に示す方法に限るものではなく、顔領域と画面全体の領域の平均輝度の差分、あるいは、顔領域と背景領域の一部との平均輝度の差分など、画面内の輝度変化が捉えられる方法であればよい。   Further, the method of obtaining the backlight follow-up light value g is not limited to the method shown in the equation (1), and the average luminance difference between the face area and the entire screen area, or the average between the face area and a part of the background area. Any method can be used as long as it can capture a luminance change in the screen, such as a luminance difference.

また、図4に逆光順光値gによる逆光順光レベルの設定条件の一例、図11に逆光補正方法の設定値の一例、図12にコントラスト補正方法の設定値の一例、図13、14に美肌補正方法の設定値の一例を示し、また、輝度ヒストグラムの分布に応じてコントラスト補正の度合いを設定する条件を図15に示したが、設定条件、および設定の方法はこれに限るものではなく、画像補正方法の特性に応じて、適切に設定値を定めればよい。   FIG. 4 shows an example of the setting condition of the backlight follow light level based on the backlight follow light value g, FIG. 11 shows an example of the setting value of the backlight correction method, FIG. 12 shows an example of the setting value of the contrast correction method, and FIGS. An example of the setting value of the skin beautification correction method is shown, and the condition for setting the degree of contrast correction according to the distribution of the luminance histogram is shown in FIG. 15, but the setting condition and the setting method are not limited to this. The set value may be appropriately determined according to the characteristics of the image correction method.

また、ここではオブジェクト領域や美肌補正は矩形の領域を用いているが、これに限られるものでは無い。なお、オブジェクトは人物の顔に限らず、車や建物など画像中から検出できるものであれば何でもよい。この際、画像中で特に注目したいオブジェクトを対象とすると、オブジェクトの逆光の度合いにより、画像補正の補正量を設定するため、より効果的な補正画像が得られる。   In addition, although the object area and the skin softening correction use a rectangular area here, the present invention is not limited to this. The object is not limited to a person's face, and any object can be used as long as it can be detected from an image such as a car or a building. At this time, if an object of particular interest is targeted in the image, a correction amount for image correction is set according to the degree of backlight of the object, so that a more effective corrected image can be obtained.

上記のように構成された画像処理装置及び画像処理方法においては、入力画像に対し、パターンやテンプレートマッチング等によってオブジェクトの検出を行い、オブジェクト領域とこれ以外の背景領域や画像全体の領域の特徴量を算出し、簡単な演算で逆光順光レベル算出を行って画像補正をするので、自動処理が可能で、高速処理ができる画像処理装置が得られる。   In the image processing apparatus and the image processing method configured as described above, an object is detected from an input image by pattern, template matching, or the like, and the feature amount of the object region and the other background region or the entire image region is detected. And the image correction is performed by calculating the backlight follow light level with a simple calculation, so that an image processing apparatus capable of automatic processing and high-speed processing can be obtained.

また、自動で輝度など明るさに関する信号のヒストグラムの解析を行って逆光を判定し画像補正を行う方法の場合は、複雑な解析演算が必要となるが、本発明はパターンマッチング等によってオブジェクト検出を行うので、簡単で高速な演算が可能となる。また、オブジェクト領域情報と、画像全体の特徴量と、逆光のみならず順光レベルも算出をすることができる逆光順光レベル算出結果とを用いることにより、様々な環境下で撮影された、様々な画像に対し、それぞれに適した画像補正を行うことができる。   In addition, in the case of a method that automatically analyzes a histogram of a signal related to brightness such as luminance and determines backlight and performs image correction, complicated analysis calculation is required, but the present invention detects an object by pattern matching or the like. As a result, simple and high-speed computation is possible. In addition, by using object region information, the feature amount of the entire image, and the backlight follow-up light level calculation result that can calculate not only the backlight but also the follow-up light level, various images captured under various environments can be obtained. Image correction suitable for each image can be performed.

実施の形態2.
実施の形態1では、入力画像に人物の顔が1個ある場合の逆光順光レベル算出方法を示したが、ここでは、人物の顔が複数個ある場合の逆光順光レベル算出方法を示す。
Embodiment 2. FIG.
In Embodiment 1, the backlight follow-up light level calculation method when there is one person's face in the input image is shown, but here, the backlight follow-up light level calculation method when there are a plurality of person faces is shown.

図16はこの発明装置の実施の形態2の画像処理装置を示すブロック図である。この図の逆光順光レベル算出手段3aが実施の形態1の図1と異なる。実施の形態1の逆光順光レベル算出手段3は、入力画像に人物の顔が1個の場合に、特徴量抽出手段2により算出された画像の特徴により、逆光順光レベルを算出したが、図16の逆光順光レベル算出手段3aは、入力画像に人物の顔が複数個ある場合に、特徴量抽出手段2により算出された画像の特徴により、逆光順光レベルを算出するものである。   FIG. 16 is a block diagram showing an image processing apparatus according to Embodiment 2 of the present invention apparatus. The backlight follow light level calculation means 3a in this figure is different from that in FIG. The backlight follow light level calculating unit 3 according to the first embodiment calculates the backlight follow light level based on the feature of the image calculated by the feature amount extracting unit 2 when the input image has one person's face. The backlight follow-up light level calculation unit 3a in FIG. 16 calculates the backlight follow-up light level based on the feature of the image calculated by the feature amount extraction unit 2 when there are a plurality of human faces in the input image.

このように構成された画像処理装置の動作について説明する。基本的な処理の流れは実施の形態1の図2と同様である。まず、オブジェクト検出手段1では、画像中に複数のオブジェクトを検出した場合、図3に示す顔領域情報が複数求められる。顔領域情報は、矩形で検出される顔領域の画面上向かって左上の画素位置を示す顔座標(x,y)14、及び顔領域の大きさを示す幅15と高さ16からなり、これらの情報が顔別にそれぞれ検出される。   The operation of the image processing apparatus configured as described above will be described. The basic processing flow is the same as that in FIG. 2 of the first embodiment. First, when a plurality of objects are detected in the image, the object detection means 1 obtains a plurality of pieces of face area information shown in FIG. The face area information is composed of face coordinates (x, y) 14 indicating the upper left pixel position on the screen of the face area detected as a rectangle, and a width 15 and a height 16 indicating the size of the face area. Are detected for each face.

オブジェクト検出手段1で検出された顔領域情報に基づき、特徴量抽出手段2では、複数の顔領域と、顔領域以外の背景領域に分けて、それぞれの領域の画素値の統計量を特徴量として算出する。また、入力される写真画像全体11も1つの領域としてこの領域の画素値の統計量も合わせて特徴量として算出する。具体的には画素値の統計量として、各領域別に輝度ヒストグラム、および平均輝度を特徴量として算出する。   Based on the face area information detected by the object detection means 1, the feature quantity extraction means 2 divides a plurality of face areas and a background area other than the face area, and uses the statistic of the pixel value of each area as a feature quantity. calculate. In addition, the entire inputted photographic image 11 is also calculated as a feature amount together with a statistic of pixel values of this region as one region. Specifically, as a statistic of pixel values, a luminance histogram and average luminance for each region are calculated as feature amounts.

次に、逆光順光レベル算出手段3aは、複数の顔領域情報と、特徴量抽出手段2で各領域別に求めた平均輝度の特徴量に基づき、逆光順光レベル算出を行う。具体的には、各領域別に平均輝度を求め、各領域間の平均輝度の差を逆光順光値gとして算出することにより、逆光順光レベル算出を行う。以下、本実施の形態の逆光順光レベル算出手段3aによる、入力写真画像に人物の顔が複数個ある場合の逆光順光レベル算出の動作について説明する。なお、本実施の形態では、顔が3個ある場合についての逆光順光レベル算出方法を示す。   Next, the backlight follow-up light level calculation unit 3 a calculates the backlight follow-up light level based on the plurality of face area information and the feature value of the average luminance obtained for each region by the feature value extraction unit 2. Specifically, the backlight intensity level is calculated for each area by calculating the average brightness for each area and calculating the difference in average brightness between the areas as the backlight intensity value g. Hereinafter, an operation for calculating the backlight follow-up light level in the case where there are a plurality of human faces in the input photographic image by the backlight follow-up light level calculation unit 3a of the present embodiment will be described. In the present embodiment, a backlight follow light level calculation method for the case where there are three faces is shown.

顔が3個の場合、逆光順光値gは3個の顔領域のうち、基準となる顔を以下の4通りの設定方法により設定し、この基準となる顔領域の平均輝度face_aveと、顔領域以外の背景領域の平均輝度back_aveの差により求めるものとする。4通りの設定方法として、(A)顔領域が最大の顔、(B)平均輝度が最も暗い顔、(C)平均輝度が3つの顔の中央値の顔、(D)3つの顔の平均輝度、の場合について説明する。   In the case of three faces, the backlight follow-up light value g is set as a reference face among the three face areas by the following four setting methods, and the average brightness face_ave of the reference face area and the face It is determined by the difference in the average luminance back_ave of the background area other than the area. As four setting methods, (A) a face having the largest face area, (B) a face having the darkest average brightness, (C) a face having a median average brightness of three faces, and (D) an average of three faces The case of luminance will be described.

まず、1つ目の(A)顔領域が最大の顔を基準の顔とする場合、逆光順光値gは顔領域が最大の顔の平均輝度face_ave(max_size)と顔領域以外の背景領域の平均輝度back_aveの差により、(3)式のように定めることができる。   First, when the face having the largest face area (A) is used as a reference face, the backlight follow-up light value g is the average brightness face_ave (max_size) of the face having the largest face area and the background area other than the face area. Depending on the difference in average luminance back_ave, it can be determined as shown in equation (3).

Figure 2010102426
Figure 2010102426

また、2つ目の、(B)平均輝度が最も暗い顔を基準の顔とする場合、逆光順光値gは顔領域が3つの顔のうち最も暗い顔の平均輝度face_ave(max_dark)と顔領域以外の背景領域の平均輝度back_aveの差により、(4)式のように定めることができる。   When the second face (B) having the darkest average brightness is used as the reference face, the backlight follow-up light value g is the average brightness face_ave (max_dark) of the face with the darkest face among the three face areas. It can be defined as the equation (4) by the difference of the average luminance back_ave of the background region other than the region.

Figure 2010102426
Figure 2010102426

また、3つ目の、(C)平均輝度が3つの顔の中央値の顔を基準の顔とする場合、逆光順光値gは平均輝度が3つの顔の中央値の顔の平均輝度face_ave(middle_dark)と顔領域以外の背景領域の平均輝度back_aveの差により、(5)式のように定めることができる。   Further, when the third face (C) whose average brightness is the median face of the three faces is used as the reference face, the backlight follow-up light value g is the average brightness face_ave of the face whose average brightness is the median of the three faces. By the difference between (middle_dark) and the average luminance back_ave of the background area other than the face area, it can be determined as in equation (5).

Figure 2010102426
Figure 2010102426

また、4つ目の(D)3つの顔の平均輝度を基準とする場合、逆光順光値gは3つの顔の平均輝度face_ave(face_all_ave)と顔領域以外の背景領域の平均輝度back_aveの差により、(6)式のように定めることができる。   In addition, when the fourth (D) average brightness of three faces is used as a reference, the backlight follow light value g is a difference between the average brightness face_ave (face_all_ave) of the three faces and the average brightness back_ave of the background area other than the face area. Thus, it can be determined as shown in equation (6).

Figure 2010102426
Figure 2010102426

なお、実施の形態1の(1)式で示したのと同様に、各領域の平均輝度は、各領域に含まれる画素の輝度値の和を各領域に含まれる画素数で除して算出するものとする。   Note that the average luminance of each region is calculated by dividing the sum of the luminance values of the pixels included in each region by the number of pixels included in each region, as shown in the expression (1) of the first embodiment. It shall be.

上記のように、4通りの設定方法で基準となる顔を設定し、逆光順光値gを求める方法を示した。これら4通りの設定方法は、適宜選んでも良いが、例えば図17(a)に示すフローチャートに従って選んでも良い。なお、図17(b)は基準となる顔を選択する際のイメージ図である。これらの図において、例えば、顔が3個の場合、顔領域のサイズの差を最大サイズの顔と残り2つの顔とのサイズの差分の平均値とし、顔領域のサイズの差が所定値以上のときは、基準となる顔は、(A)顔領域が最大の顔とする。所定値よりも小さいときは、顔領域の明るさの差で判断する。この場合、最も暗い顔と残り2つの顔との平均輝度の差分の平均値が所定値以上のときは、基準となる顔は、(B)平均輝度が最も暗い顔とし、所定値よりも小さいときは、(D)3つの顔の平均輝度とする。なお、3つの顔の平均輝度があまり変わらない場合は、基準となる顔は、(C)平均輝度が3つの顔の中央値の顔としてもよい。この様な方法によって基準となる顔が決まると、それに対応して、(3)〜(6)式を用いて逆光順光値gを求める。なお、これは一例であって、顔のサイズのバラツキ、顔の明るさの違いが求まるものであれば、算出方法は問わない。   As described above, the method of setting the reference face by the four setting methods and obtaining the backlight follow light value g has been shown. These four setting methods may be selected as appropriate, but may be selected in accordance with, for example, the flowchart shown in FIG. FIG. 17B is an image diagram when selecting a reference face. In these figures, for example, when there are three faces, the difference in size of the face area is the average value of the difference in size between the maximum size face and the remaining two faces, and the difference in size of the face area is equal to or greater than a predetermined value. In this case, the reference face is (A) the face having the largest face area. If it is smaller than the predetermined value, the determination is made based on the difference in brightness of the face area. In this case, when the average value of the average brightness difference between the darkest face and the remaining two faces is equal to or greater than a predetermined value, the reference face is (B) the face with the darkest average brightness, which is smaller than the predetermined value. (D) The average luminance of the three faces is used. If the average brightness of the three faces does not change much, the reference face may be (C) a face whose average brightness is the median of the three faces. When the reference face is determined by such a method, the backlight follow-up light value g is obtained correspondingly using the equations (3) to (6). Note that this is an example, and any calculation method may be used as long as variations in face size and differences in face brightness can be obtained.

以上のように、逆光順光レベル算出手段3aにおいて、逆光順光値gにより逆光順光レベルが設定され、画像補正手段4に出力される。画像処理手段4では、実施の形態1の場合と同様に、逆光順光レベル算出結果と、特徴量抽出手段2から出力される画像全体の特徴量と、オブジェクト検出手段1からのオブジェクト領域情報に基づき、逆光補正方法、コントラスト補正方法、美肌補正方法の各画像補正方法に対し、必要な補正の度合いを設定して画像補正を行う。   As described above, the backlight follow light level calculation unit 3 a sets the backlight follow light level based on the backlight follow light value g and outputs it to the image correction unit 4. In the image processing unit 4, as in the case of the first embodiment, the backlight follow light level calculation result, the feature amount of the entire image output from the feature amount extraction unit 2, and the object area information from the object detection unit 1 are used. Based on the image correction methods, the backlight correction method, the contrast correction method, and the skin beautification correction method, image correction is performed by setting a necessary correction degree.

図4に示す逆光順光レベルに応じ、逆光補正方法については図11に示すように逆光補正の度合いを設定し、また、コントラスト補正方法については図12に示すようにコントラスト補正の度合いを設定する。   According to the backlight normal light level shown in FIG. 4, the backlight correction method sets the degree of backlight correction as shown in FIG. 11, and the contrast correction method sets the degree of contrast correction as shown in FIG. .

また、美肌補正方法については、図13、14に示すように、顔領域サイズに応じて、美肌補正の度合いを設定する。ここで、美肌補正の補正の度合いを設定する際に設定の基準となる顔領域のサイズであるが、(A)顔領域が最大の顔を逆光順光レベル算出の基準する場合は、最大の顔のサイズを基準の顔領域サイズとし、(B)平均輝度が最も暗い顔を逆光順光レベル算出の基準する場合は、平均輝度が最も暗い顔のサイズを基準の顔領域サイズとし、(C)平均輝度が3つの顔の中央値の顔を逆光順光レベル算出の基準とする場合は、平均輝度が3つの顔の中央値の顔のサイズを基準の顔領域サイズとする。また、逆光順光レベル算出の基準となる顔を(D)3つの顔の平均輝度とする場合、基準の顔領域のサイズは、例えば、3つの顔の面積の合計を求め、この平方根をとって、正方形の顔領域の一辺として算出する。   As for the skin beautification correction method, as shown in FIGS. 13 and 14, the degree of skin beautification is set according to the face area size. Here, it is the size of the face area that becomes the reference for setting when setting the degree of correction of skin beautification correction. (A) When the face with the largest face area is used as the reference for calculating the backlight follow-up light level, When the face size is set as the reference face area size and (B) the face with the darkest average brightness is used as the reference for calculating the backlight follow-up light level, the face size with the darkest average brightness is set as the reference face area size, and (C ) When a face with a median value of three faces with average brightness is used as a reference for calculating the backlight follow-up light level, a face size with a median value of three faces with average brightness is set as a reference face area size. Further, when the face serving as a reference for calculating the backlight normal light level is (D) the average luminance of the three faces, the size of the reference face area is obtained by, for example, obtaining the sum of the areas of the three faces and taking this square root. Then, it is calculated as one side of the square face area.

なお、コントラスト補正については、実施の形態1で説明したように、逆光時に顔領域サイズが小さく、この小さな顔領域の大半が属する階調が、全画面に占める割合が小さい階調にあたる場合はコントラスト補正を行わないか、補正の度合いを弱めるように設定する。このとき、基準の顔領域のサイズが小さく、この小さな基準の顔領域の大半が属する階調が、全画面に占める割合が小さい階調にあたる場合のみならず、本実施の形態は、顔が3つある場合なので、基準の顔領域以外の2つの顔領域についても、これらの顔領域の大半が属する階調が、全画面に占める割合が小さい階調にあたるか否かを調べ、基準の顔領域以外の2つの顔領域が、全画面に占める割合が小さい階調にあたる場合は、コントラスト補正を行わないか補正の度合いを弱めるなど調整を行う。なお、実施の形態1と同様に、全画面の輝度ヒストグラムの分布が非常に偏っている場合は、コントラスト補正を図15に示すパラメータで行うように設定するとよい。   As for the contrast correction, as described in the first embodiment, when the face area size is small at the time of backlighting and the gradation to which most of the small face area belongs corresponds to a gradation with a small proportion of the entire screen, the contrast is corrected. Set to not perform correction or to weaken the degree of correction. At this time, not only the case where the size of the reference face area is small and the gradation to which most of the small reference face area belongs corresponds to a gradation with a small proportion of the entire screen, this embodiment also has a face of 3 Therefore, for two face areas other than the reference face area, it is checked whether the gradation to which most of these face areas belong corresponds to a gradation with a small proportion of the entire screen. If the other two face areas correspond to gradations with a small proportion of the entire screen, adjustments are made such that contrast correction is not performed or the degree of correction is weakened. Similar to the first embodiment, when the distribution of the luminance histogram of the entire screen is extremely biased, it is preferable to set so that contrast correction is performed using the parameters shown in FIG.

なお、上述の(A)〜(D)の逆光順光レベル算出の基準となる顔の4通りの設定方法であるが、設定方法はこれに限るものではなく、また、それぞれの方法での逆光順光値gの求め方も(3)〜(6)式に示すものに限るものではなく、最大の顔と中間の大きさの顔の2つの顔を基準として背景との平均輝度の差分により求めてもよいし、最暗の顔と中間の暗さの顔の2つの顔を基準として背景との平均輝度の差分により求めてもよい。また、顔領域と全画面の平均輝度の差分、あるいは、顔領域と背景領域の一部との平均輝度の差分など、画面内の輝度変化が捉えられる方法であればよい。   Note that the four methods for setting the face as a reference for calculating the backlight follow-up light level in the above-described (A) to (D) are not limited to this, and the backlight in each method is also used. The method for obtaining the follow-up light value g is not limited to that shown in the equations (3) to (6), and is based on the difference in average luminance from the background with the two faces of the maximum face and the face having an intermediate size as a reference. You may obtain | require by the difference of the average brightness | luminance with a background on the basis of two faces of the darkest face and the face of the middle darkness. Further, any method can be used as long as it can capture a luminance change in the screen, such as a difference in average luminance between the face area and the entire screen, or a difference in average luminance between the face area and a part of the background area.

上記のように構成された画像処理装置及び画像処理方法においては、入力画像に対し、パターンマッチング等によって複数のオブジェクトの検出を行い、複数のオブジェクト領域とこれら以外の背景領域や画像全体の領域の特徴量を算出し、簡単な演算で逆光順光レベル算出を行って画像補正をするので、自動処理が可能で、高速処理ができる画像処理装置が得られる。また、複数のオブジェクト領域情報と、画像全体の特徴と、逆光のみならず順光レベルも算出をすることができる逆光順光レベル算出結果とを用いることにより、様々な環境下で撮影された、様々な画像に対し、それぞれに適した画像補正を行うことができる。   In the image processing apparatus and the image processing method configured as described above, a plurality of objects are detected from the input image by pattern matching or the like, and a plurality of object areas and other background areas or entire image areas are detected. Since the image correction is performed by calculating the feature amount and calculating the backlight follow light level with a simple calculation, an image processing apparatus capable of automatic processing and high-speed processing is obtained. In addition, by using a plurality of object area information, the characteristics of the entire image, and the backlight direct light level calculation result that can calculate not only the backlight but also the backlight level, it was photographed under various environments, Image correction suitable for each of various images can be performed.

ところで、上記説明ではこの発明をデジタルカメラの撮影やプリントへ適用する場合について述べたが、これらに限られるわけではない。例えば、ビデオカメラや監視カメラ等による撮影によって画像信号が入力されたときは、この画像信号からの画像を基にして上記実施の形態と同様の処理を行うことができる。これにより撮影時に逆光や順光のため人物の顔等に黒潰れや白飛びが発生し、顔等が確認しにくいときにも適切な画像に補正できる。また、この発明の画像処理方法はカメラ等に限られるわけではなく、例えば電子計算機の画像処理ソフトウェアにも適用できる。この場合は、画像処理ソフトウェアが電子計算機のCPU、メモリ、LSI、入出力装置等を用いて上記実施の形態と同様の処理を自動で実行する。これにより、撮影画像が逆光や順光のため適切でない場合にも、適切な画像に補正することができることはいうまでもない。   By the way, in the above description, the case where the present invention is applied to photographing and printing of a digital camera has been described. However, the present invention is not limited thereto. For example, when an image signal is input by shooting with a video camera, a surveillance camera, or the like, the same processing as in the above embodiment can be performed based on an image from this image signal. This makes it possible to correct to an appropriate image even when the face or the like of the person is blacked out or blown out due to backlight or direct light during photographing and the face or the like is difficult to check. The image processing method of the present invention is not limited to a camera or the like, and can be applied to, for example, image processing software for an electronic computer. In this case, the image processing software automatically executes the same processing as in the above embodiment using the CPU, memory, LSI, input / output device, etc. of the electronic computer. Thus, it goes without saying that even when the captured image is not appropriate due to backlight or direct light, it can be corrected to an appropriate image.

この発明の実施の形態1を示すブロック図である。It is a block diagram which shows Embodiment 1 of this invention. この発明の実施の形態1、2の動作を示すフローチャートである。It is a flowchart which shows operation | movement of Embodiment 1, 2 of this invention. この発明の実施の形態1、2におけるオブジェクト検出手段1が出力するオブジェクトの領域情報を示す説明図である。It is explanatory drawing which shows the area | region information of the object which the object detection means 1 in Embodiment 1, 2 of this invention outputs. この発明の実施の形態1、2における逆光順光レベル算出手段3が出力する逆光順光レベルと逆光順光値gの関係を示す図である。It is a figure which shows the relationship between the backlight follow light level which the backlight follow light level calculation means 3 in Embodiment 1, 2 of this invention outputs, and the backlight follow light value g. この発明の実施の形態1におけるコントラスト補正方法の説明図である。It is explanatory drawing of the contrast correction method in Embodiment 1 of this invention. この発明の実施の形態1における逆光補正方法の説明図である。It is explanatory drawing of the backlight correction method in Embodiment 1 of this invention. この発明の実施の形態1における低輝度の際の逆光補正方法の説明図である。It is explanatory drawing of the backlight correction method in the case of the low luminance in Embodiment 1 of this invention. この発明の実施の形態1における高輝度の際の逆光補正方法の説明図である。It is explanatory drawing of the backlight correction method in the case of high brightness in Embodiment 1 of this invention. この発明の実施の形態1における美肌補正方法の説明図である。It is explanatory drawing of the skin beautification correction method in Embodiment 1 of this invention. この発明の実施の形態1における美肌補正方法の説明図である。It is explanatory drawing of the skin beautification correction method in Embodiment 1 of this invention. この発明の実施の形態1、2における画像補正手段4が設定する逆光順光レベルと逆光補正パラメータの関係を示す図である。It is a figure which shows the relationship between the backlight follow light level which the image correction means 4 in Embodiment 1, 2 of this invention sets, and a backlight correction parameter. この発明の実施の形態1、2における画像補正手段4が設定する逆光順光レベルとコントラスト補正パラメータの関係を示す図である。It is a figure which shows the relationship between the backlight follow light level which the image correction means 4 in Embodiment 1, 2 in this invention sets, and a contrast correction parameter. この発明の実施の形態1、2における画像補正手段4が設定する逆光順光レベルと美肌補正パラメータの関係を示す図である。It is a figure which shows the relationship between the backlight follow light level which the image correction means 4 in Embodiment 1, 2 of this invention sets, and the beautiful skin correction parameter. この発明の実施の形態1、2における画像補正手段4が設定する顔領域サイズと美肌補正パラメータの関係を示す図である。It is a figure which shows the relationship between the face area size which the image correction means 4 in Embodiment 1, 2 of this invention sets, and the beautiful skin correction parameter. この発明の実施の形態1、2における画像補正手段4が設定するヒストグラムの分布が偏っている場合の逆光順光レベルとコントラスト補正パラメータの関係を示す図である。It is a figure which shows the relationship between the backlight follow light level and contrast correction parameter in case the distribution of the histogram which the image correction means 4 in Embodiment 1, 2 of this invention sets is biased. この発明の実施の形態2を示すブロック図である。It is a block diagram which shows Embodiment 2 of this invention. この発明の実施の形態2における顔が複数ある場合の基準となるの顔を決定するフローチャートである。It is a flowchart which determines the face used as the reference | standard when there are two or more faces in Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 オブジェクト検出手段
2 特徴量抽出手段
3、3a 逆光順光レベル算出手段
4 画像補正手段
11 写真画像全体
12 顔領域
13 背景領域
14 顔座標
15 幅
16 高さ
21 累積ヒストグラムの代表値
22 コントラスト補正γカーブ
31 第一の低輝度用逆光補正γカーブ
32 第二の低輝度用逆光補正γカーブ
33 第三の低輝度用逆光補正γカーブ
34 傾き1の直線
35 第三の高輝度用逆光補正γカーブ
36 第二の高輝度用逆光補正γカーブ
37 第一の高輝度用逆光補正γカーブ
41 第一の美肌補正γカーブ
42 第二の美肌補正γカーブ
DESCRIPTION OF SYMBOLS 1 Object detection means 2 Feature-value extraction means 3, 3a Backlight follow light level calculation means 4 Image correction means 11 Whole photo image 12 Face area 13 Background area 14 Face coordinate 15 Width 16 Height 21 Representative value of cumulative histogram 22 Contrast correction γ Curve 31 First low-brightness backlight correction γ curve 32 Second low-brightness backlight correction γ curve 33 Third low-brightness backlight correction γ curve 34 Straight line with slope 35 35 Third high-brightness backlight correction γ curve 36 2nd backlight correction gamma curve for high brightness 37 1st backlight correction gamma curve for high brightness 41 First skin correction gamma curve 42 Second skin correction gamma curve

Claims (10)

入力された画像からこの画像中のオブジェクトを検出し、前記オブジェクトが前記画像中のどの領域にあるかを示す領域情報を求めるオブジェクト検出手段と、
前記画像と前記オブジェクト検出手段からの前記領域情報とに基づき、前記オブジェクトの領域と前記オブジェクトの領域以外の一部又は全部の背景領域と前記画像の全体の領域とのそれぞれの輝度又は色を基にした特徴量を算出する特徴量抽出手段と、
この特徴量抽出手段からの前記オブジェクトの領域の特徴量と前記背景領域又は前記全体の領域の特徴量とから前記画像の逆光と順光のレベルを算出する逆光順光レベル算出手段と、
前記オブジェクト検出手段からの前記領域情報と前記特徴量抽出手段からの前記画像の全体の特徴量と前記逆光順光レベル算出手段からの前記逆光と順光のレベルとに基づき前記画像を補正する画像補正手段とを備えた画像処理装置。
Object detection means for detecting an object in the image from an input image and obtaining region information indicating in which region the image is in the image;
Based on the image and the area information from the object detection means, based on the brightness or color of each of the object area, a part or all of the background area other than the object area, and the entire area of the image. Feature amount extraction means for calculating the feature amount,
A backlight follow-up light level calculating means for calculating a back light and follow light level of the image from the feature quantity of the object region from the feature quantity extracting means and the feature quantity of the background region or the entire region;
An image for correcting the image based on the region information from the object detection unit, the entire feature amount of the image from the feature amount extraction unit, and the backlight and follow light levels from the backlight follow light level calculation unit. An image processing apparatus comprising correction means.
前記特徴量抽出手段は、それぞれの領域の平均輝度を前記特徴量として算出する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature amount extraction unit calculates an average luminance of each region as the feature amount. 前記オブジェクト検出手段は、前記画像中に複数のオブジェクトを検出した場合、前記複数のオブジェクトのそれぞれの領域情報を求め、
前記特徴量抽出手段は、前記複数のオブジェクトのそれぞれの領域の特徴量を更に算出し、
前記逆光順光レベル算出手段は、前記複数のオブジェクトの領域情報とこれらの特徴量とから基準となるオブジェクトの領域を決定し、この基準となるオブジェクトの領域の特徴量と前記背景領域又は前記全体の領域の特徴量とから前記画像の逆光と順光のレベルを算出する請求項1に記載の画像処理装置。
The object detection means obtains area information of each of the plurality of objects when a plurality of objects are detected in the image,
The feature amount extraction unit further calculates a feature amount of each region of the plurality of objects,
The backlight follow-up light level calculating means determines a region of the reference object from the region information of the plurality of objects and their feature amounts, and the feature amount of the reference object region and the background region or the whole region The image processing apparatus according to claim 1, wherein a level of backlight and direct light of the image is calculated from a feature amount of the area.
前記画像補正手段は、前記画像の全体の輝度のヒストグラムの分布を補正するコントラスト補正、前記画像中の局所領域ごとに前記画像の階調をγカーブを用いて補正する逆光補正、及び、人物の肌のノイズを減少させる美肌補正のうち少なくとも一つの画像補正を行う請求項1に記載の画像処理装置。   The image correction means is a contrast correction that corrects a histogram distribution of the luminance of the entire image, a backlight correction that corrects the gradation of the image for each local region in the image using a γ curve, and a person's The image processing apparatus according to claim 1, wherein at least one image correction is performed among beautiful skin corrections for reducing skin noise. 前記オブジェクト検出手段は、人物の顔をオブジェクトとして検出し、顔領域情報を求める請求項1又は3のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the object detection unit detects a human face as an object and obtains face area information. 入力された画像からこの画像中のオブジェクトを検出し、前記オブジェクトが前記画像中のどの領域にあるかを示す領域情報を求めるオブジェクト検出ステップと、
前記画像と前記オブジェクト検出ステップからの前記領域情報とに基づき、前記オブジェクトの領域と前記オブジェクトの領域以外の一部又は全部の背景領域と前記画像の全体の領域とのそれぞれの輝度又は色を基にした特徴量を算出する特徴量抽出ステップと、
この特徴量抽出ステップからの前記オブジェクトの領域の特徴量と前記背景領域又は前記全体の領域の特徴量とから前記画像の逆光と順光のレベルを算出する逆光順光レベル算出ステップと、
前記オブジェクト検出ステップからの前記領域情報と前記特徴量抽出ステップからの前記画像の全体の特徴量と前記逆光順光レベル算出ステップからの前記逆光と順光のレベルとに基づき前記画像を補正する画像補正ステップとを備えた画像処理方法。
An object detection step of detecting an object in the image from an input image and obtaining region information indicating in which region of the image the object is located;
Based on the image and the region information from the object detection step, based on the luminance or color of the object region, a part or all of the background region other than the object region, and the entire region of the image. A feature amount extraction step for calculating the feature amount,
A backlight follow-up light level calculating step for calculating a backlight level and a follow-up light level of the image from the feature value of the object region from the feature value extraction step and the feature value of the background region or the entire region;
An image for correcting the image based on the region information from the object detection step, the entire feature amount of the image from the feature amount extraction step, and the backlight and follow light levels from the backlight follow light level calculation step. An image processing method comprising a correction step.
前記特徴量抽出ステップは、それぞれの領域の平均輝度を前記特徴量として算出する請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the feature amount extraction step calculates an average luminance of each region as the feature amount. 前記オブジェクト検出ステップは、前記画像中に複数のオブジェクトを検出した場合、前記複数のオブジェクトのそれぞれの領域情報を求め、
前記特徴量抽出ステップは、前記複数のオブジェクトのそれぞれの領域の特徴量を更に算出し、
前記逆光順光レベル算出ステップは、前記複数のオブジェクトの領域情報とこれらの特徴量とから基準となるオブジェクトの領域を決定し、この基準となるオブジェクトの領域の特徴量と前記背景領域又は前記全体の領域の特徴量とから前記画像の逆光と順光のレベルを算出する請求項6に記載の画像処理方法。
The object detection step obtains area information of each of the plurality of objects when a plurality of objects are detected in the image,
The feature amount extraction step further calculates a feature amount of each region of the plurality of objects,
The backlight follow light level calculating step determines a region of the reference object from the region information of the plurality of objects and the feature amounts thereof, and determines the feature amount of the reference object region and the background region or the whole region. The image processing method according to claim 6, wherein a level of backlight and direct light of the image is calculated from a feature amount of the region.
前記画像補正ステップは、前記画像の全体の輝度のヒストグラムの分布を補正するコントラスト補正、前記画像中の局所領域ごとに前記画像の階調をγカーブを用いて補正する逆光補正、及び、人物の肌のノイズを減少させる美肌補正のうち少なくとも一つの画像補正を行う請求項6に記載の画像処理方法。   The image correction step includes contrast correction for correcting the distribution of the luminance histogram of the entire image, backlight correction for correcting the gradation of the image for each local region in the image using a γ curve, and The image processing method according to claim 6, wherein at least one image correction is performed among beautiful skin corrections for reducing skin noise. 前記オブジェクト検出ステップは、人物の顔をオブジェクトとして検出し、顔領域情報を求める請求項6又は8のいずれかに記載の画像処理方法。   The image processing method according to claim 6, wherein the object detection step detects a human face as an object and obtains face area information.
JP2008271795A 2008-10-22 2008-10-22 Image processing apparatus and image processing method Expired - Fee Related JP4851505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008271795A JP4851505B2 (en) 2008-10-22 2008-10-22 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008271795A JP4851505B2 (en) 2008-10-22 2008-10-22 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2010102426A true JP2010102426A (en) 2010-05-06
JP4851505B2 JP4851505B2 (en) 2012-01-11

Family

ID=42293036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008271795A Expired - Fee Related JP4851505B2 (en) 2008-10-22 2008-10-22 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4851505B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070132A (en) * 2011-09-21 2013-04-18 Olympus Corp Image processing apparatus, image processing method and image processing program
JP2014033305A (en) * 2012-08-02 2014-02-20 Nikon Corp Image processing apparatus, imaging apparatus, and image processing program
JP2015082768A (en) * 2013-10-23 2015-04-27 キヤノン株式会社 Image processing device, image processing method, program, and storage medium
CN111310727A (en) * 2020-03-13 2020-06-19 浙江大华技术股份有限公司 Object detection method and device, storage medium and electronic device
CN111861965A (en) * 2019-04-08 2020-10-30 Tcl集团股份有限公司 Image backlight detection method, image backlight detection device and terminal equipment
CN112581487A (en) * 2020-12-30 2021-03-30 征图新视(江苏)科技股份有限公司 Method for automatically extracting detection area and positioning kernel

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311108A (en) * 2005-04-27 2006-11-09 Fuji Photo Film Co Ltd Image processor, image processing method, image processing program and camera
WO2006129601A1 (en) * 2005-06-03 2006-12-07 Nikon Corporation Image processing device, image processing method, image processing program product, and imaging device
JP2007124604A (en) * 2005-09-29 2007-05-17 Fujifilm Corp Image processing apparatus and processing method therefor
JP2007221678A (en) * 2006-02-20 2007-08-30 Konica Minolta Photo Imaging Inc Imaging apparatus, image processor, image processing method and image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311108A (en) * 2005-04-27 2006-11-09 Fuji Photo Film Co Ltd Image processor, image processing method, image processing program and camera
WO2006129601A1 (en) * 2005-06-03 2006-12-07 Nikon Corporation Image processing device, image processing method, image processing program product, and imaging device
JP2007124604A (en) * 2005-09-29 2007-05-17 Fujifilm Corp Image processing apparatus and processing method therefor
JP2007221678A (en) * 2006-02-20 2007-08-30 Konica Minolta Photo Imaging Inc Imaging apparatus, image processor, image processing method and image processing program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070132A (en) * 2011-09-21 2013-04-18 Olympus Corp Image processing apparatus, image processing method and image processing program
JP2014033305A (en) * 2012-08-02 2014-02-20 Nikon Corp Image processing apparatus, imaging apparatus, and image processing program
JP2015082768A (en) * 2013-10-23 2015-04-27 キヤノン株式会社 Image processing device, image processing method, program, and storage medium
CN111861965A (en) * 2019-04-08 2020-10-30 Tcl集团股份有限公司 Image backlight detection method, image backlight detection device and terminal equipment
CN111861965B (en) * 2019-04-08 2024-06-18 Tcl科技集团股份有限公司 Image backlight detection method, image backlight detection device and terminal equipment
CN111310727A (en) * 2020-03-13 2020-06-19 浙江大华技术股份有限公司 Object detection method and device, storage medium and electronic device
CN111310727B (en) * 2020-03-13 2023-12-08 浙江大华技术股份有限公司 Object detection method and device, storage medium and electronic device
CN112581487A (en) * 2020-12-30 2021-03-30 征图新视(江苏)科技股份有限公司 Method for automatically extracting detection area and positioning kernel

Also Published As

Publication number Publication date
JP4851505B2 (en) 2012-01-11

Similar Documents

Publication Publication Date Title
CN108335279B (en) Image fusion and HDR imaging
US7612804B1 (en) Methods and apparatuses for image processing
US9852499B2 (en) Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification
US7599568B2 (en) Image processing method, apparatus, and program
US7356254B2 (en) Image processing method, apparatus, and program
US7358994B2 (en) Image processing apparatus, image processing method, recording medium thereof, and program thereof
WO2018176925A1 (en) Hdr image generation method and apparatus
US8059187B2 (en) Image capturing apparatus
US10091422B2 (en) Image processing device and recording medium
US20100201843A1 (en) Image capturing apparatus and control method thereof
JP4851505B2 (en) Image processing apparatus and image processing method
JP2006195651A (en) Gradation compensation device
US20120127336A1 (en) Imaging apparatus, imaging method and computer program
KR102221116B1 (en) A device and method for removing the noise on the image using cross-kernel type median filter
US20070253693A1 (en) Exposure compensation method for digital image
JP4595569B2 (en) Imaging device
JP6904788B2 (en) Image processing equipment, image processing methods, and programs
JP4154128B2 (en) Image processing apparatus, image processing method, and recording medium on which program for executing the method is recorded
JP2009124264A (en) Image processing apparatus and image processing method
JP2008227787A (en) Device, method and program for processing image
JP2013114692A (en) Video processor and video processing method for automatic video correction
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP5327766B2 (en) Memory color correction in digital images
JP2008305122A (en) Image-processing apparatus, image processing method and program
JP2001144962A (en) Image processing unit

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110905

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111020

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees