JP2016051982A - Image processing system, camera, and image processing program - Google Patents

Image processing system, camera, and image processing program Download PDF

Info

Publication number
JP2016051982A
JP2016051982A JP2014175634A JP2014175634A JP2016051982A JP 2016051982 A JP2016051982 A JP 2016051982A JP 2014175634 A JP2014175634 A JP 2014175634A JP 2014175634 A JP2014175634 A JP 2014175634A JP 2016051982 A JP2016051982 A JP 2016051982A
Authority
JP
Japan
Prior art keywords
luminance
region
image processing
area
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014175634A
Other languages
Japanese (ja)
Inventor
村松 勝
Masaru Muramatsu
勝 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014175634A priority Critical patent/JP2016051982A/en
Publication of JP2016051982A publication Critical patent/JP2016051982A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system which creates an image with high reproducibility of a light source such as a point light source.SOLUTION: The image processing system comprises: an area detection part which detects an area with a predetermined luminance or more from an image; and a reflection part which reflects the luminance and color tone of the area detected by the area detection part in the peripheral area of the area.SELECTED DRAWING: Figure 10

Description

本発明は、画像処理装置、カメラおよび画像処理プログラムに関する。   The present invention relates to an image processing apparatus, a camera, and an image processing program.

従来、画像のダイナミックレンジやコントラストを向上させるための画像処理が知られている。例えば特許文献1には、画像から照明成分や反射率成分を抽出し、それらの成分に基づき画像のダイナミックレンジやコントラストを変更する撮像装置が記載されている。   Conventionally, image processing for improving the dynamic range and contrast of an image is known. For example, Patent Document 1 describes an imaging apparatus that extracts illumination components and reflectance components from an image and changes the dynamic range and contrast of the image based on those components.

特開2007−28088号公報JP 2007-28088 A

従来技術を適用した画像では点光源等の光源の輝き感が不足し、見た目の再現性が悪いという問題があった。   In an image to which the conventional technology is applied, there is a problem in that the reproducibility of appearance is poor due to insufficient brightness of a light source such as a point light source.

請求項1に記載の画像処理装置は、画像から所定以上の輝度を有する高輝度領域を検出する領域検出部と、前記領域検出部により検出された前記高輝度領域の周辺領域に、前記高輝度領域の輝度および色調を反映させる反映部と、を備える。
請求項8に記載の画像処理装置は、注目画素近傍の周辺最大輝度を検出する周辺最大輝度検出部と、前記周辺最大輝度検出部により検出された前記周辺最大輝度が大きいほど前記注目画素の輝度が大きくなるように、前記注目画素を補正する空間フィルタと、を備える。
請求項9に記載のカメラは、請求項1〜8のいずれか一項に記載の画像処理装置を有する。
請求項10に記載の画像処理プログラムは、画像から所定以上の輝度を有する領域を検出する領域検出ステップと、前記領域検出ステップにより検出された前記領域の周辺領域に、前記領域の輝度および色調を反映させる反映ステップと、をコンピュータに実行させる。
The image processing apparatus according to claim 1, wherein an area detection unit that detects a high-brightness area having a predetermined luminance or more from an image, and a high-brightness area around the high-brightness area detected by the area detection unit. And a reflecting unit that reflects the luminance and color tone of the region.
The image processing apparatus according to claim 8, wherein a peripheral maximum luminance detecting unit that detects a peripheral maximum luminance near the target pixel, and a luminance of the target pixel as the peripheral maximum luminance detected by the peripheral maximum luminance detecting unit increases. A spatial filter that corrects the pixel of interest so that the
A camera according to a ninth aspect includes the image processing apparatus according to any one of the first to eighth aspects.
The image processing program according to claim 10, wherein an area detection step for detecting an area having a luminance of a predetermined level or more from an image, and the brightness and color tone of the area are set in a peripheral area detected by the area detection step. And causing the computer to execute a reflection step to be reflected.

本発明によれば、点光源等の光源の再現性が高い画像を作成することができる。   According to the present invention, an image with high reproducibility of a light source such as a point light source can be created.

本発明の第1の実施の形態に係るカメラの構成を模式的に示す断面図である。It is sectional drawing which shows typically the structure of the camera which concerns on the 1st Embodiment of this invention. 階調カーブG1の一例を示す説明図である。It is explanatory drawing which shows an example of the gradation curve G1. 階調カーブG2の一例を示す説明図である。It is explanatory drawing which shows an example of the gradation curve G2. 階調カーブG3の一例を示す説明図である。It is explanatory drawing which shows an example of the gradation curve G3. 混合係数W1の一例を示す説明図である。It is explanatory drawing which shows an example of the mixing coefficient W1. 混合係数W2の一例を示す説明図である。It is explanatory drawing which shows an example of the mixing coefficient W2. 高輝度画素の面積拡大処理の実行結果の一例を模式的に示す説明図である。It is explanatory drawing which shows typically an example of the execution result of the area expansion process of a high-intensity pixel. 第1の実施の形態における高輝度画素の面積拡大処理のフローチャートである。It is a flowchart of the area expansion process of the high-intensity pixel in 1st Embodiment. 第2の実施の形態における高輝度画素の面積拡大処理のフローチャートである。It is a flowchart of the area expansion process of the high-intensity pixel in 2nd Embodiment. 高輝度画素の面積拡大処理の概念を説明する説明図である。It is explanatory drawing explaining the concept of the area expansion process of a high-intensity pixel.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に係るカメラの構成を模式的に示す断面図である。カメラ1は、いわゆる一眼レフレックス方式のデジタルカメラである。カメラ1は、制御部10、撮影レンズ11、絞り12、クイックリターンミラー13、ファインダースクリーン14、ペンタプリズム15、測光レンズ16、測光センサ17、フォーカルプレーンシャッター18、撮像素子19、および接眼レンズ20を備える。
(First embodiment)
FIG. 1 is a cross-sectional view schematically showing a configuration of a camera according to the first embodiment of the present invention. The camera 1 is a so-called single-lens reflex digital camera. The camera 1 includes a control unit 10, a photographing lens 11, an aperture 12, a quick return mirror 13, a viewfinder screen 14, a pentaprism 15, a photometric lens 16, a photometric sensor 17, a focal plane shutter 18, an image sensor 19, and an eyepiece lens 20. Prepare.

制御部10は、不図示のCPUおよびその周辺回路から構成され、不図示の記憶媒体から所定の制御プログラムを読み込んで実行することによりカメラ1全体を制御する。撮影レンズ11は、所定の予定焦点面に被写体像を結像させる。絞り12は、撮影レンズ11を通過する被写体光を制限する。クイックリターンミラー13は通常位置と退避位置とを移動可能に構成されている。通常位置にあるクイックリターンミラー13は、撮影レンズ11からの被写体光をペンタプリズム15に向けて反射する。反射された被写体光は、ファインダースクリーン14を介してペンタプリズム15に入射し、その後、測光センサ17および接眼レンズ20に向かう。測光センサ17は、測光レンズ16を介してこの被写体光を受光することにより、被写体光の光量を測定する。カメラ1の使用者は、接眼レンズ20を介して被写体像を視認することができる。   The control unit 10 includes a CPU (not shown) and its peripheral circuits, and controls the entire camera 1 by reading and executing a predetermined control program from a storage medium (not shown). The taking lens 11 forms a subject image on a predetermined planned focal plane. The diaphragm 12 restricts subject light passing through the photographing lens 11. The quick return mirror 13 is configured to be movable between a normal position and a retracted position. The quick return mirror 13 at the normal position reflects the subject light from the photographing lens 11 toward the pentaprism 15. The reflected subject light enters the pentaprism 15 via the finder screen 14, and then travels to the photometric sensor 17 and the eyepiece 20. The photometric sensor 17 receives the subject light via the photometric lens 16 to measure the amount of the subject light. A user of the camera 1 can visually recognize a subject image through the eyepiece lens 20.

撮影(露光)を行うとき、クイックリターンミラー13は退避位置に移動する。このとき撮影レンズ11を通過した被写体光は撮像素子19に向かう。撮像素子19は、例えばCMOSやCCD等の撮像素子であり、被写体像を撮像して撮像信号(画像信号)を出力する。フォーカルプレーンシャッター18は、撮像素子19による撮影時間(露光時間)を制御する。   When shooting (exposure) is performed, the quick return mirror 13 moves to the retracted position. At this time, the subject light that has passed through the photographing lens 11 travels to the image sensor 19. The image pickup device 19 is an image pickup device such as a CMOS or a CCD, for example, and picks up a subject image and outputs an image pickup signal (image signal). The focal plane shutter 18 controls the photographing time (exposure time) by the image sensor 19.

次に、制御部10が撮影画像データを作成するために実行する画像処理について説明する。制御部10は、撮影画像データを作成するため、以下に順に説明する(1)〜(8)の処理を実行する。   Next, image processing executed by the control unit 10 to create captured image data will be described. The control unit 10 executes the processes (1) to (8) described below in order to create captured image data.

(1)制御部10は、撮像素子19から出力された画像信号に対して、まず周知のホワイトバランス処理およびベイヤー補間処理(いわゆるデモザイク処理)を実行する。 (1) The controller 10 first performs well-known white balance processing and Bayer interpolation processing (so-called demosaicing processing) on the image signal output from the image sensor 19.

(2)次に制御部10は、ダイナミックレンジを圧縮するため、(1)の処理を実行した後の画像信号に対して、図2に示す階調カーブG1を適用する。図2は、横軸を入力信号、縦軸を出力信号とするグラフであり、階調カーブG1と共に、原点を通る直線Xを破線で図示している。 (2) Next, in order to compress the dynamic range, the control unit 10 applies the gradation curve G1 shown in FIG. 2 to the image signal after executing the processing of (1). FIG. 2 is a graph in which the horizontal axis represents an input signal and the vertical axis represents an output signal, and a straight line X passing through the origin is shown by a broken line together with the gradation curve G1.

階調カーブG1は、例えば、ニー特性として知られている特性を有する曲線である。受光出力が所定のしきい値th1よりも低い領域では、入力信号と出力信号が比例関係にあり、階調カーブG1は直線Xと略一致している。これに対し、しきい値th1を超える領域では、入力信号が大きくなるほど出力信号は直線Xにより表される値よりも低い値となっている。制御部10は、以上のような特性を有する階調カーブG1を画像信号に対して適用することにより、画像信号のダイナミックレンジを圧縮する。   The gradation curve G1 is a curve having a characteristic known as a knee characteristic, for example. In the region where the light reception output is lower than the predetermined threshold th1, the input signal and the output signal are in a proportional relationship, and the gradation curve G1 substantially coincides with the straight line X. On the other hand, in the region exceeding the threshold value th1, the output signal becomes lower than the value represented by the straight line X as the input signal increases. The controller 10 compresses the dynamic range of the image signal by applying the gradation curve G1 having the above characteristics to the image signal.

(3)次に制御部10は、(2)の処理を実行した後の画像信号に対して、図3に示す階調カーブG2を適用する。階調カーブG2は、いわゆるsRGBモニターの標準的なガンマ値(2.2乗 )の逆ガンマを与える曲線である。 (3) Next, the control unit 10 applies the gradation curve G2 shown in FIG. 3 to the image signal after the processing of (2) is executed. The gradation curve G2 is a curve that gives an inverse gamma of a standard gamma value (2.2 power) of a so-called sRGB monitor.

(4)次に制御部10は、(3)の処理を実行した後の画像信号の色空間を変換する。本実施形態の撮像素子19は赤(R)、緑(G)、青(B)に対応する撮像画素を有し、その出力信号(画像信号)の色空間はRGB空間である。後述する高輝度画素の面積拡大処理で扱いやすいよう、制御部10は、次式(1)〜(3)を用いて画像信号の色空間をRGB空間からYCbCr空間に変換する。
Y=k11×R+k12×G+k13×B ・・・(1)
Cb=k21×R+k22×G+k23×B ・・・(2)
Cr=k31×R+k32×G+k33×B ・・・(3)
(4) Next, the control unit 10 converts the color space of the image signal after performing the processing of (3). The image sensor 19 of the present embodiment has image pixels corresponding to red (R), green (G), and blue (B), and the color space of the output signal (image signal) is an RGB space. The control unit 10 converts the color space of the image signal from the RGB space to the YCbCr space using the following formulas (1) to (3) so that it can be easily handled in the area expansion process of the high-luminance pixel described later.
Y = k11 * R + k12 * G + k13 * B (1)
Cb = k21 * R + k22 * G + k23 * B (2)
Cr = k31 × R + k32 × G + k33 × B (3)

ここでR、G、Bは、デモザイクされた各画素の赤、緑、青に対応する画素値である。また、kxy(x=1〜3、y=1〜3)はRGB空間からYCbCr空間に色空間を変換するための所定の定数である。これらの定数は、表示や印刷に求められる色調に基づき予め決めておく。   Here, R, G, and B are pixel values corresponding to red, green, and blue of each demosaiced pixel. Kxy (x = 1 to 3, y = 1 to 3) is a predetermined constant for converting the color space from the RGB space to the YCbCr space. These constants are determined in advance based on the color tone required for display and printing.

(5)次に制御部10は、(4)の処理を実行した後の画像信号の輝度Yに対して、図4に示す階調カーブG3を適用する。図4は、横軸を入力信号、縦軸を出力信号とするグラフであり、階調カーブG3と共に、原点を通る直線Xを破線で図示している。階調カーブG3は、輝度Yのコントラストが高まるよう、S字状の値を有している。つまり、階調カーブG3は、入力信号が所定のしきい値th2未満の領域では、出力信号は入力信号よりも低くなり、入力信号が所定のしきい値th2以上の領域では、出力信号は入力信号よりも高くなるような曲線である。 (5) Next, the control unit 10 applies the gradation curve G3 shown in FIG. 4 to the luminance Y of the image signal after executing the processing of (4). FIG. 4 is a graph in which the horizontal axis represents the input signal and the vertical axis represents the output signal, and the straight line X passing through the origin is shown by a broken line together with the gradation curve G3. The gradation curve G3 has an S-shaped value so that the contrast of the luminance Y is increased. That is, in the gradation curve G3, the output signal is lower than the input signal in the region where the input signal is less than the predetermined threshold th2, and the output signal is input in the region where the input signal is the predetermined threshold th2 or more. The curve is higher than the signal.

(6)次に制御部10は、(5)の処理を実行した後の画像信号に対して、後述する高輝度画素の面積拡大処理を実行する。 (6) Next, the control unit 10 executes the area enlargement process of a high-luminance pixel, which will be described later, on the image signal after the process of (5) is executed.

(7)次に制御部10は、(6)の処理を実行した後の画像信号に対して、輪郭強調処理やノイズ低減処理など、周知の画像処理を実行する。 (7) Next, the control unit 10 performs well-known image processing such as contour enhancement processing and noise reduction processing on the image signal after performing the processing of (6).

(8)最後に制御部10は、(7)の処理を実行した後の画像信号に周知の画像処理を施し、例えばJPEG等のフォーマットの撮影画像データを作成する。制御部10は、作成した撮影画像データを不図示の記憶媒体(例えばメモリカード等)に記憶する。 (8) Finally, the control unit 10 performs well-known image processing on the image signal after executing the processing of (7), and creates captured image data in a format such as JPEG, for example. The control unit 10 stores the created captured image data in a storage medium (not shown) (for example, a memory card).

(高輝度画素の面積拡大処理の説明)
次に、(6)高輝度画素の面積拡大処理について詳述する。高輝度画素の面積拡大処理は、一定値以上の輝度Yを有する画素(高輝度画素)について、その周辺に位置する画素に高輝度画素の画素値(輝度Y、色差Cb、Cr)を反映する(混合する)処理である。
(Explanation of high-luminance pixel area expansion processing)
Next, (6) the area expansion process of the high luminance pixel will be described in detail. In the area expansion process of the high-luminance pixel, the pixel value (luminance Y, color difference Cb, Cr) of the high-luminance pixel is reflected in the pixels located around the pixel having the luminance Y that is equal to or higher than a certain value (high luminance pixel) (Mixing) process.

高輝度画素の面積拡大処理を実行すると、高輝度画素に対して、いわゆるハレーションのような効果が施される。つまり、高輝度画素が全方向に拡大されたような結果が得られる。   When the area expansion process of the high luminance pixel is executed, an effect like so-called halation is applied to the high luminance pixel. That is, it is possible to obtain a result in which the high luminance pixel is expanded in all directions.

制御部10は、まず全画素から1つ画素を選択する。ここで選択された画素を、注目画素と称する。制御部10は、注目画素について、その周囲5×5の範囲の画素(計24個の画素)から、最大の輝度Yを有する画素を検索する。以下の説明では、ここで見つかった画素を高輝度画素と呼び、高輝度画素が有する輝度Yを輝度Ymaxと呼ぶ。   First, the control unit 10 selects one pixel from all pixels. The pixel selected here is referred to as a target pixel. For the target pixel, the control unit 10 searches for a pixel having the maximum luminance Y from the surrounding 5 × 5 pixels (a total of 24 pixels). In the following description, the pixel found here is referred to as a high luminance pixel, and the luminance Y of the high luminance pixel is referred to as luminance Ymax.

次に制御部10は、混合係数W1、W2、W3をそれぞれ設定する。これら3つの混合係数W1〜W3は、それぞれ0以上1以下の数値であり、以下で説明する手順により設定される。   Next, the control unit 10 sets the mixing coefficients W1, W2, and W3, respectively. These three mixing coefficients W1 to W3 are numerical values of 0 or more and 1 or less, respectively, and are set according to the procedure described below.

制御部10は、図5に示すグラフに輝度Ymaxを当てはめ、混合係数W1を決定する。図5に示す混合係数W1のグラフは、横軸が輝度Ymax、縦軸が混合係数W1の値を表す。図5に示す通り、混合係数W1は、輝度Ymaxがしきい値th3未満のとき0であり、輝度Ymaxがしきい値th3以上の場合は輝度Ymaxが大きいほど大きくなるように設定されている。   The controller 10 applies the luminance Ymax to the graph shown in FIG. 5 and determines the mixing coefficient W1. In the graph of the mixing coefficient W1 shown in FIG. 5, the horizontal axis represents the luminance Ymax, and the vertical axis represents the value of the mixing coefficient W1. As shown in FIG. 5, the mixing coefficient W1 is set to 0 when the luminance Ymax is less than the threshold th3, and is set to increase as the luminance Ymax increases when the luminance Ymax is greater than or equal to the threshold th3.

図5におけるしきい値th3は、図2に示すニー特性の階調カーブG1におけるしきい値th1と略同一である。つまり図5に示す混合係数W1は、ニー特性に対応しており、入力信号(画像信号)がリニア値から離れるほど、また飽和値に近づくほど大きくなるように設定されている。また、混合係数W1は、輝度Ymaxが最大値(飽和値)になった場合でも1より小さくなるように設定されている。   The threshold value th3 in FIG. 5 is substantially the same as the threshold value th1 in the tone curve G1 having the knee characteristic shown in FIG. That is, the mixing coefficient W1 shown in FIG. 5 corresponds to the knee characteristic, and is set to increase as the input signal (image signal) moves away from the linear value and approaches the saturation value. The mixing coefficient W1 is set to be smaller than 1 even when the luminance Ymax reaches the maximum value (saturation value).

次に制御部10は、注目画素と高輝度画素との距離に基づき混合係数W2を設定する。混合係数W2は、例えば図6に示すように、高輝度画素31に隣接する8つの画素のいずれかが注目画素である場合には1.0、高輝度画素31から1画素分離れた位置にある16個の画素のいずれかが注目画素である場合には0.5とする。   Next, the control unit 10 sets the mixing coefficient W2 based on the distance between the target pixel and the high luminance pixel. For example, as shown in FIG. 6, the mixing coefficient W2 is 1.0 when one of the eight pixels adjacent to the high luminance pixel 31 is the target pixel, and is one pixel separated from the high luminance pixel 31. If any of the 16 pixels is the target pixel, 0.5 is set.

次に制御部10は、混合係数W3を設定する。混合係数W3は、ユーザが任意に指定可能な係数である。制御部10は、予めユーザが指定した数値を混合係数W3として設定する。   Next, the control unit 10 sets a mixing coefficient W3. The mixing coefficient W3 is a coefficient that can be arbitrarily designated by the user. The control unit 10 sets a numerical value designated in advance by the user as the mixing coefficient W3.

次に制御部10は、次式(4)〜(7)により、注目画素に高輝度画素を混合する。
Wm=W1×W2×W3 ・・・(4)
Yt’=(1−Wm)×Yt+Wm×Ym ・・・(5)
Cbt’=(1−Wm)×Cbt+Wm×Cbm ・・・(6)
Crt’=(1−Wm)×Crt+Wm×Crm ・・・(7)
Next, the control part 10 mixes a high-intensity pixel with an attention pixel by following Formula (4)-(7).
Wm = W1 × W2 × W3 (4)
Yt ′ = (1−Wm) × Yt + Wm × Ym (5)
Cbt ′ = (1−Wm) × Cbt + Wm × Cbm (6)
Crt ′ = (1−Wm) × Crt + Wm × Crm (7)

ここでWmは、混合係数W1、W2、W3に基づき決定される最終的な重みである。また、Yt、Cbt、Crtは、注目画素の元の(高輝度画素の面積拡大処理の実行前の)輝度および色差であり、Yt’、Cbt’、Crt’は、注目画素の新たな(高輝度画素の面積拡大処理の実行後の)輝度および色差である。   Here, Wm is a final weight determined based on the mixing coefficients W1, W2, and W3. Yt, Cbt, and Crt are the original luminance and color difference of the pixel of interest (before the area expansion process of the high luminance pixel), and Yt ′, Cbt ′, and Crt ′ are the new (high) of the pixel of interest. Luminance and color difference (after execution of luminance pixel area expansion processing).

混合係数W1、W2、W3は、いずれも0〜1の範囲の値を採るので、上式(4)より、重みWmも0〜1の範囲の値となる。上式(5)〜(7)は、それぞれ、重みWmを用いて注目画素の輝度や色差と高輝度画素の輝度や色差との加重平均を算出する色である。重みWmが小さいほど、注目画素に対する高輝度画素の影響が大きくなる。   Since the mixing coefficients W1, W2, and W3 all take values in the range of 0 to 1, the weight Wm is also in the range of 0 to 1 from the above equation (4). The above equations (5) to (7) are colors for calculating a weighted average of the luminance and color difference of the target pixel and the luminance and color difference of the high luminance pixel using the weight Wm. The smaller the weight Wm, the greater the influence of the high luminance pixel on the target pixel.

例えば高輝度画素の輝度Ytが注目画素の輝度Ymよりも非常に大きく、且つ重みWmが小さい場合には、高輝度画素の面積拡大処理により、注目画素の輝度Yt’は元の輝度Ytから非常に大きくなる。つまり、高輝度画素の影響を大きく受けることになる。   For example, when the luminance Yt of the high-luminance pixel is much larger than the luminance Ym of the pixel of interest and the weight Wm is small, the luminance Yt ′ of the pixel of interest is greatly increased from the original luminance Yt by the area expansion process of the high-luminance pixel. Become bigger. That is, it is greatly affected by the high luminance pixels.

制御部10は、以上の処理を、注目画素を次々に変えながら繰り返し実行する。制御部10は、全ての画素を注目画素として選択し終わるまで以上の処理を実行する。これにより、全ての画素について、上述したYt’、Cbt’、Crt’が演算される。   The control unit 10 repeatedly executes the above processing while changing the target pixel one after another. The control unit 10 performs the above processing until all the pixels are selected as the target pixel. As a result, the above-described Yt ′, Cbt ′, and Crt ′ are calculated for all the pixels.

図7は、高輝度画素の面積拡大処理の実行結果の一例を模式的に示す説明図である。図7(a)は、処理前の画素Pa〜Poの輝度Yを棒グラフの形で一次元的に示す図であり、図7(b)はそれら画素Pa〜Poに対して高輝度画素の面積拡大処理を実行した結果を示す図である。   FIG. 7 is an explanatory diagram schematically illustrating an example of the execution result of the area enlargement process of the high luminance pixel. FIG. 7A is a diagram one-dimensionally showing the luminance Y of the pixels Pa to Po before processing in the form of a bar graph, and FIG. 7B is the area of the high luminance pixels with respect to the pixels Pa to Po. It is a figure which shows the result of having performed the expansion process.

高輝度画素の面積拡大処理において、注目画素の周囲5×5の範囲に存在する画素が、いずれもしきい値th3よりも低い輝度しか有していない場合、混合係数W1は0に設定される。この場合、重みWmは0になるので、高輝度画素の面積拡大処理の実行前後で注目画素の輝度Yt、色差Cbt、Crtはいずれも変化しない。従って、しきい値th3未満の輝度Yを有する画素Paの付近に存在する画素(画素Pbや画素Pcなど)は、高輝度画素の面積拡大処理の実行前後で輝度Y等が変化しない。   In the process of enlarging the area of the high luminance pixel, when all the pixels existing in the 5 × 5 range around the target pixel have luminance lower than the threshold value th3, the mixing coefficient W1 is set to zero. In this case, since the weight Wm is 0, the luminance Yt and the color differences Cbt and Crt of the target pixel do not change before and after the execution of the area expansion process of the high luminance pixel. Therefore, the luminance Y or the like does not change before and after the execution of the area expansion process of the high luminance pixel for the pixels (pixel Pb, pixel Pc, etc.) existing in the vicinity of the pixel Pa having the luminance Y less than the threshold th3.

一方、画素Pgや画素Pmなど、しきい値th3よりも高い輝度Yを有する画素に注目すると、その周辺の画素(画素Pf、画素Ph、画素Plなど)を注目画素として選択した場合に、画素Pgや画素Pmなどは高輝度画素として選択され、注目画素の輝度Yはその高輝度画素の輝度Yが高いほど大きくなる。従って、図7(b)に示すように、画素Pgや画素Pmの付近に存在する画素(画素Pfや画素Plなど)は、高輝度画素の面積拡大処理により、高輝度画素の輝度Yに応じて輝度Y等が大きくなる。また、高輝度画素(画素Pgや画素Pmなど)に近いほど、輝度Yが大きくなる。   On the other hand, when attention is paid to a pixel having a luminance Y higher than the threshold th3, such as the pixel Pg and the pixel Pm, when a peripheral pixel (pixel Pf, pixel Ph, pixel Pl, etc.) is selected as the target pixel, the pixel Pg, pixel Pm, and the like are selected as high luminance pixels, and the luminance Y of the target pixel increases as the luminance Y of the high luminance pixel increases. Therefore, as shown in FIG. 7B, the pixels (pixel Pf, pixel Pl, etc.) existing in the vicinity of the pixel Pg and the pixel Pm correspond to the luminance Y of the high-luminance pixel by the area enlargement process of the high-luminance pixel. As a result, the luminance Y and the like increase. Further, the closer to the high-luminance pixel (pixel Pg, pixel Pm, etc.), the greater the luminance Y.

その結果、図7(b)に示すように、高い輝度Yを有する画素Pgや画素Pmの周囲には、いわゆるハレーションのような高輝度のにじみが発生する。例えば点光源のように、輝度Yが高く面積が小さい物体が撮影画面に映り込んでいる場合、高輝度画素の面積拡大処理によって、その物体の面積が拡大されることになる。   As a result, as shown in FIG. 7B, high-luminance blur such as so-called halation occurs around the pixel Pg and the pixel Pm having high luminance Y. For example, when an object having a high luminance Y and a small area is reflected on the shooting screen, such as a point light source, the area of the object is enlarged by the area enlargement process of the high luminance pixel.

なお、本実施の形態における高輝度画素の面積拡大処理では、輝度Yが高く面積が大きい物体であっても、その物体の面積が拡大されることになる。しかしながら、このような物体は元々の面積が大きいため、面積を半径で1〜2画素拡大しても画像における見栄えにはほとんど影響しない。つまり、面積の大きな高輝度被写体では、高輝度画素の面積拡大処理により得られる面積拡大効果は少ない。従って、高輝度画素の面積拡大処理は、輝度Yが高く面積が小さい被写体ほど効果的に働く処理となる。   Note that, in the area enlargement process of the high-luminance pixel in the present embodiment, the area of the object is enlarged even if the object has a large luminance Y and a large area. However, since such an object originally has a large area, even if the area is enlarged by 1 to 2 pixels in radius, the appearance in the image is hardly affected. That is, in a high-luminance subject having a large area, the area expansion effect obtained by the area expansion process of the high-luminance pixel is small. Accordingly, the area enlargement process of the high-luminance pixels is a process that works more effectively for a subject with a higher luminance Y and a smaller area.

次に、以上で説明した高輝度画素の面積拡大処理を実行する理由について説明する。図10は、高輝度画素の面積拡大処理の概念を説明する説明図である。いま、高輝度な画素Pが存在すると仮定する。図10(a)に示すように、画素Pの実際の輝度Yhは、撮像素子19の飽和レベルth4よりも高いため、撮像素子19ではその明るさを表現しきれない。つまり、撮像素子19により撮影した画像では、画素Pは、高々th4程度の輝度を有する画素として表現され、この画像を鑑賞する鑑賞者は、実際に撮影した景色を肉眼で見たときに感じるほど画素Pを明るく感じることができない。   Next, the reason for executing the area expansion process of the high luminance pixel described above will be described. FIG. 10 is an explanatory diagram for explaining the concept of the process for enlarging the area of a high-luminance pixel. Assume that there is a pixel P with high brightness. As shown in FIG. 10A, since the actual luminance Yh of the pixel P is higher than the saturation level th4 of the image sensor 19, the brightness of the image sensor 19 cannot be fully expressed. That is, in the image photographed by the image sensor 19, the pixel P is expressed as a pixel having a luminance of about th4 at the maximum, and the viewer who appreciates this image feels that the scenery actually photographed is felt with the naked eye. Pixel P cannot be felt bright.

上述した高輝度画素の面積拡大処理を実行すると、図10(b)に示すように、画素Pの周囲の画素の輝度Yが持ち上げられ、画素Pにより表現される点光源の面積が拡大される。これは、画素Pの本来の輝度Yhを面積に転嫁したということができる。つまり、図10(b)の紙面上下方向に表現される画素Pの輝度を、図10(b)の紙面左右方向に表現される面積で仮想的に表現したということである。これにより、この画像を鑑賞する鑑賞者は、画素Pにより表現される被写体部分をより明るく感じるようになり、実際に撮影した景色を肉眼で見たときの印象に近づけることが可能になる。換言すると、点光源等の光源の再現性が高い画像を作成することができる。   When the area enlargement process of the high-brightness pixel is executed, the brightness Y of the pixels around the pixel P is raised as shown in FIG. 10B, and the area of the point light source expressed by the pixel P is enlarged. . This can be said that the original luminance Yh of the pixel P is transferred to the area. In other words, the brightness of the pixel P expressed in the vertical direction of the paper in FIG. 10B is virtually expressed by the area expressed in the horizontal direction of the paper in FIG. As a result, a viewer who appreciates this image can feel the subject portion represented by the pixel P brighter, and can approach the impression when the scenery actually captured is viewed with the naked eye. In other words, an image with high reproducibility of a light source such as a point light source can be created.

図8は、高輝度画素の面積拡大処理のフローチャートである。図8に示す処理は、制御部10が実行する制御プログラムに含まれている。まずステップS10で、制御部10は、全画素から未選択の画素を1つ、注目画素として選択する。ステップS20で制御部10は、選択した注目画素周辺の高輝度画素を検出する 。換言すると、制御部10は、選択した注目画素近傍の周辺最大輝度値を検出する。ステップS30で制御部10は、混合係数W1〜W3を決定する。ステップS40で制御部10は、上式(4)に基づき、重みWmを決定する。ステップS50で制御部10は、上式(5)〜(7)に基づき、Yt’、Cbt’、Crt’をそれぞれ演算する。換言すると、制御部10は、検出した周辺最大輝度値が大きいほど注目画素の輝度値が大きくなるように、注目画素の輝度値を補正する。ステップS60で制御部10は、全ての画素を注目画素として選択したか否かを判定する。未選択の画素が存在する場合、制御部10は処理をステップS10に進める。他方、全ての画素を選択し終わった場合、制御部10は図8に示す処理を終了する。   FIG. 8 is a flowchart of the area enlargement process of the high luminance pixel. The process shown in FIG. 8 is included in a control program executed by the control unit 10. First, in step S10, the control unit 10 selects one unselected pixel from all the pixels as a target pixel. In step S20, the control unit 10 detects high-luminance pixels around the selected target pixel. In other words, the control unit 10 detects the peripheral maximum luminance value near the selected target pixel. In step S30, the control unit 10 determines the mixing coefficients W1 to W3. In step S40, the control unit 10 determines the weight Wm based on the above equation (4). In step S50, the control unit 10 calculates Yt ', Cbt', and Crt 'based on the above equations (5) to (7), respectively. In other words, the control unit 10 corrects the luminance value of the target pixel so that the luminance value of the target pixel increases as the detected peripheral maximum luminance value increases. In step S60, the control unit 10 determines whether all the pixels have been selected as the target pixel. If there is an unselected pixel, the control unit 10 advances the process to step S10. On the other hand, when all the pixels have been selected, the control unit 10 ends the process shown in FIG.

上述した第1の実施の形態によるカメラによれば、次の作用効果が得られる。
(1)制御部10は、画像から所定以上の輝度を有する高輝度画素(高輝度領域)を検出する不図示の領域検出部と、領域検出部により検出された高輝度画素の周辺領域に、高輝度画素の輝度および色調を反映させる不図示の反映部とを備える。このようにしたので、点光源等の光源の再現性が高い画像を作成することができる。特に、ダイナミックレンジを圧縮した画像においては、そのような光源の輝度が実際よりも抑制して表現されるので、より高い効果が得られる。
According to the camera according to the first embodiment described above, the following operational effects can be obtained.
(1) The control unit 10 includes a region detection unit (not shown) that detects a high luminance pixel (high luminance region) having a predetermined luminance or more from an image, and a peripheral region of the high luminance pixel detected by the region detection unit. A reflection unit (not shown) that reflects the luminance and color tone of the high-luminance pixel. Since it did in this way, an image with high reproducibility of light sources, such as a point light source, can be created. In particular, in an image in which the dynamic range is compressed, the luminance of such a light source is expressed while being suppressed more than actual, so that a higher effect can be obtained.

(2)反映部は、高輝度画素の輝度および色調を周辺領域に反映させる程度を表す重みWmを決定し、高輝度画素の輝度Ymと周辺領域の輝度Ytとの加重平均を重みWmに基づき演算することにより、高輝度画素の輝度Ymを反映した周辺領域の輝度Yt’を決定すると共に、高輝度画素の色調(色差Cbm、Crm)と周辺領域の色調(色差Cbt、Crt)との加重平均を重みWmに基づき演算することにより、高輝度領域の色調(色差Cbm、Crm)を反映した周辺領域の色調(色差Cbt’、Crt’)を決定する。このようにしたので、点光源等の光源の再現性が高い画像を作成することができる。 (2) The reflection unit determines a weight Wm that represents the degree to which the luminance and color tone of the high luminance pixel are reflected in the peripheral region, and based on the weight Wm, a weighted average of the luminance Ym of the high luminance pixel and the luminance Yt of the peripheral region. By calculating, the luminance Yt ′ of the peripheral region reflecting the luminance Ym of the high luminance pixel is determined, and the weight of the color tone (color difference Cbm, Crm) of the high luminance pixel and the color tone of the peripheral region (color difference Cbt, Crt) is determined. By calculating the average based on the weight Wm, the color tone (color difference Cbt ′, Crt ′) of the peripheral region reflecting the color tone (color difference Cbm, Crm) of the high luminance region is determined. Since it did in this way, an image with high reproducibility of light sources, such as a point light source, can be created.

(3)反映部は、高輝度画素が第1輝度を有する場合には、高輝度画素が第1輝度より小さい第2輝度を有する場合よりも重みWmを小さくする。このようにしたので、高輝度画素の輝度Ymに対して適切な量だけ周辺の画素に輝度や色調を反映させることができる。 (3) The reflection unit makes the weight Wm smaller when the high-luminance pixel has the first luminance than when the high-luminance pixel has the second luminance smaller than the first luminance. Since it did in this way, a brightness | luminance and a color tone can be reflected in a surrounding pixel by an appropriate quantity with respect to the brightness | luminance Ym of a high-intensity pixel.

(4)反映部は、高輝度画素から第1距離だけ離れた第1周辺領域では、高輝度画素から第1距離より小さい第2距離だけ離れた第2周辺領域よりも重みWmを小さくして加重平均を演算する。このようにしたので、高輝度画素を中心に広がる光を再現することができる。 (4) The reflection unit reduces the weight Wm in the first peripheral region separated from the high-luminance pixel by the first distance than in the second peripheral region separated from the high-luminance pixel by the second distance smaller than the first distance. Calculate the weighted average. Since it did in this way, the light which spreads centering on a high-intensity pixel can be reproduced.

(第2の実施の形態)
以下、本発明の第2の実施の形態に係るカメラについて説明する。本実施形態のカメラは、高輝度画素の面積拡大処理の処理内容が異なることを除き、第1の実施の形態に係るカメラ1と同様の構成を有する。そこで、以下では、本実施形態において制御部10が実行する高輝度画素の面積拡大処理の内容について説明し、それ以外の点については説明を省略する。
(Second Embodiment)
The camera according to the second embodiment of the present invention will be described below. The camera of this embodiment has the same configuration as that of the camera 1 according to the first embodiment, except that the processing content of the area enlargement process for high-luminance pixels is different. Therefore, in the following, the content of the area expansion process of the high-luminance pixel executed by the control unit 10 in the present embodiment will be described, and description of other points will be omitted.

上述した第1の実施の形態では、高輝度画素の面積拡大処理を、一般的な空間フィルタの形の処理として実装している。つまり、制御部10は、注目画素を変更しながら、各注目画素について、その周囲5×5の範囲の画素に基づき、注目画素の新たな画素値を決定するという、空間フィルタの動作を行っている。このような処理は実装が容易であるという利点がある。   In the first embodiment described above, the area expansion process of the high-luminance pixel is implemented as a process in the form of a general spatial filter. That is, the control unit 10 performs an operation of a spatial filter to determine a new pixel value of the target pixel for each target pixel while changing the target pixel based on the surrounding 5 × 5 pixels. Yes. Such a process has the advantage of being easy to implement.

本実施形態の高輝度画素の面積拡大処理では、まず制御部10が、画像信号全体を走査して、輝度Yが所定のしきい値th3以上である画素を特定する。以下の説明では、ここで特定された輝度Yの高い画素から成る領域を、高輝度領域と称する。次に制御部10は、このようにして特定された各高輝度領域について、その面積が所定面積以上であるか否かを調べる。ここで、所定面積以上の面積を有していると判定された高輝度領域は、以降の処理の対象から除外される。つまり、以降の処理は、所定面積未満の面積しか有していない高輝度領域に対してのみ実行される。   In the high-luminance pixel area enlargement processing according to the present embodiment, first, the control unit 10 scans the entire image signal and specifies a pixel whose luminance Y is equal to or higher than a predetermined threshold th3. In the following description, an area composed of pixels with a high luminance Y specified here is referred to as a high luminance area. Next, the control unit 10 checks whether or not the area of each high brightness area specified in this way is equal to or larger than a predetermined area. Here, the high-luminance region determined to have an area equal to or larger than the predetermined area is excluded from the subsequent processing targets. That is, the subsequent processing is executed only for the high-luminance region having an area less than the predetermined area.

次に制御部10は、各高輝度領域の周辺領域に存在する各画素を注目画素として選択し、上述した第1の実施の形態と同様に、混合係数W1〜W3の決定と、上式(4)〜(7)による注目画素への高輝度画素の混合とを行う。ここで周辺領域は、例えば高輝度領域の外形を上下左右方向に所定の画素数(例えば2画素)分だけ拡大した領域から、高輝度領域を除いた領域である。   Next, the control unit 10 selects each pixel existing in the peripheral region of each high-luminance region as a target pixel, and determines the mixing coefficients W1 to W3 and the above equation (as in the above-described first embodiment). The high luminance pixel is mixed with the target pixel according to 4) to (7). Here, the peripheral area is an area obtained by excluding the high luminance area from an area obtained by enlarging the outline of the high luminance area by a predetermined number of pixels (for example, two pixels) in the vertical and horizontal directions.

図9は、第2の実施の形態における高輝度画素の面積拡大処理のフローチャートである。図9に示す処理は、制御部10が実行する制御プログラムに含まれている。まずステップS80で、制御部10は、画像信号全体を走査して高輝度領域を特定する。ステップS90で制御部10は、ステップS80で特定した全ての高輝度領域のうち、所定面積以上の面積を有する高輝度領域を除外する。ステップS110で制御部10は、特定した各高輝度領域の周辺領域から画素を1つ注目画素として選択する。ステップS120で制御部10は、選択した注目画素周辺の高輝度画素を検出する 。ステップS130で制御部10は、混合係数W1〜W3を決定する。ステップS140で制御部10は、上式(4)に基づき、重みWmを決定する。ステップS150で制御部10は、上式(5)〜(7)に基づき、Yt’、Cbt’、Crt’をそれぞれ演算する。ステップS160で制御部10は、全ての画素を注目画素として選択したか否かを判定する。未選択の画素が存在する場合、制御部10は処理をステップS110に進める。他方、全ての画素を選択し終わった場合、制御部10は図9に示す処理を終了する。   FIG. 9 is a flowchart of the area enlargement process of the high luminance pixel in the second embodiment. The process shown in FIG. 9 is included in a control program executed by the control unit 10. First, in step S80, the control unit 10 scans the entire image signal and specifies a high luminance area. In step S90, the control unit 10 excludes a high luminance region having an area equal to or larger than a predetermined area from all the high luminance regions specified in step S80. In step S <b> 110, the control unit 10 selects one pixel as a target pixel from the peripheral region of each identified high luminance region. In step S120, the control unit 10 detects high-luminance pixels around the selected target pixel. In step S130, the control unit 10 determines the mixing coefficients W1 to W3. In step S140, the control unit 10 determines the weight Wm based on the above equation (4). In step S150, the control unit 10 calculates Yt ′, Cbt ′, and Crt ′ based on the above equations (5) to (7), respectively. In step S160, the control unit 10 determines whether all the pixels have been selected as the target pixel. If there is an unselected pixel, the control unit 10 advances the process to step S110. On the other hand, when all the pixels have been selected, the control unit 10 ends the process shown in FIG.

上述した第2の実施の形態によるカメラによれば、次の作用効果が得られる。
(1)制御部10が有する不図示の反映部は、高輝度領域の面積が所定値以上である場合には、周辺領域に高輝度領域の輝度および色調を反映させない。このようにしたので、点光源等とは異なる明るい物体に対して余計な効果を付加することがなく、より優れた画像を作成することができる。
According to the camera of the second embodiment described above, the following operational effects can be obtained.
(1) A reflection unit (not shown) included in the control unit 10 does not reflect the luminance and color tone of the high luminance region in the peripheral region when the area of the high luminance region is a predetermined value or more. Since it did in this way, a superior image can be created, without adding an extra effect with respect to the bright object different from a point light source etc.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
第2の実施の形態において、高輝度領域の面積が所定値以上であった場合には、その高輝度領域を面積拡大処理から除外していた。これ以外の条件を用いて、高輝度領域を面積拡大処理から除外してもよい。例えば高輝度領域の短辺の長さが一定以上であった場合に限り、その高輝度領域を面積拡大処理から除外する。このようにすると、点光源だけでなく、高輝度な細長い物体についてもその面積が拡大される。従って、例えばネックレス等のアクセサリや海面の煌めきなどについても、点光源と同様にその輝きが強調され、画像の見栄えがよくなる。
(Modification 1)
In the second embodiment, when the area of the high brightness area is equal to or larger than a predetermined value, the high brightness area is excluded from the area enlargement process. A condition other than this may be used to exclude the high luminance region from the area expansion process. For example, only when the length of the short side of the high-luminance region is a certain length or more, the high-luminance region is excluded from the area expansion process. In this way, not only the point light source but also the area of a high-brightness elongated object is enlarged. Therefore, for example, accessories such as necklaces and sea surface sparkling are emphasized in the same way as point light sources, and the appearance of the image is improved.

(変形例2)
高輝度画素の面積拡大処理において、撮影レンズ11の特性情報(レンズ情報)等の種々の情報を用いてもよい。例えば、レンズ情報から、カメラ1に収差が大きい撮影レンズ11が装着されていることがわかった場合には、収差が小さい撮影レンズ11が装着されている場合に比べて、重みWmを減らすと、より望ましい結果が得られるようになる。これは、収差が大きい場合、点光源等は本来よりもややぼやけて大きく写り込むため、これに対してさらに面積拡大処理を行うと、過剰に面積が大きくなってしまうためである。
(Modification 2)
Various information such as characteristic information (lens information) of the photographic lens 11 may be used in the process of enlarging the area of the high luminance pixel. For example, when it is found from the lens information that the photographic lens 11 having a large aberration is attached to the camera 1, the weight Wm is reduced as compared with the case where the photographic lens 11 having a small aberration is attached. More desirable results can be obtained. This is because when the aberration is large, the point light source or the like appears slightly more blurry than the original, and if the area enlargement process is further performed on this, the area becomes excessively large.

(変形例3)
色空間の変換は行わなくてもよい。つまり、RGB色空間のままで高輝度画素の面積拡大処理を実行してもよい。この場合は、赤(R)、緑(G)、青(B)の色ごとに注目画素の周囲の最大値で補正を行うようにする。
(Modification 3)
Color space conversion need not be performed. That is, the area enlargement process of the high luminance pixel may be executed in the RGB color space. In this case, correction is performed with the maximum value around the pixel of interest for each color of red (R), green (G), and blue (B).

(変形例4)
混合係数W1の設定方法は上述したものに限定されない。例えば、しきい値th3を、ニー特性に関するしきい値th1と異ならせてもよい。また、混合係数W1は、1になるようにしてもよい。更に、しきい値th3を決定するためのグラフは、図5と異なっていてもよい。例えば、輝度Ymaxがしきい値th3以上である場合には混合係数W1が輝度Ymaxに比例した値になるようにしてもよい。あるいは、より単純に、輝度Ymaxがしきい値th3以上である場合には混合係数W1を1に設定し、輝度Ymaxがしきい値th3未満である場合には混合係数W1を0に設定することもできる。
(Modification 4)
The method for setting the mixing coefficient W1 is not limited to that described above. For example, the threshold th3 may be different from the threshold th1 related to the knee characteristic. The mixing coefficient W1 may be set to 1. Further, the graph for determining the threshold th3 may be different from that in FIG. For example, when the luminance Ymax is greater than or equal to the threshold th3, the mixing coefficient W1 may be a value proportional to the luminance Ymax. Or, more simply, when the luminance Ymax is equal to or higher than the threshold th3, the mixing coefficient W1 is set to 1, and when the luminance Ymax is lower than the threshold th3, the mixing coefficient W1 is set to 0. You can also.

(変形例5)
重みWmの決定に際し、混合係数W2や混合係数W3は利用されなくてもよい。つまり、重みWmは、少なくとも混合係数W1のみを利用して決定すればよい。
(Modification 5)
In determining the weight Wm, the mixing coefficient W2 and the mixing coefficient W3 may not be used. That is, the weight Wm may be determined using at least the mixing coefficient W1.

(変形例6)
高輝度画素の検索範囲は、注目画素の周囲5×5の範囲でなくてもよい。例えば注目画素を中心とした半径5の円型の範囲内としてもよいし、より大きい、またはより小さい範囲から高輝度画素を検索してもよい。
(Modification 6)
The search range of the high luminance pixel may not be a 5 × 5 range around the target pixel. For example, it may be within a circular range with a radius of 5 centering on the pixel of interest, or a high luminance pixel may be searched from a larger or smaller range.

(変形例7)
上述した実施の形態は、本発明をカメラに適用したものであったが、本発明はこれに限らず、入力された画像データに高輝度画素の面積拡大処理を適用して出力する画像処理装置とすることも可能である。なお、ここでいう画像処理装置には、例えばプリンタやコピー機、フォトフレームなど、画像データの表示や印刷を行う装置を含む。
(Modification 7)
In the above-described embodiment, the present invention is applied to a camera. However, the present invention is not limited to this, and an image processing apparatus that applies and outputs an area expansion process of high-luminance pixels to input image data. It is also possible. Note that the image processing apparatus here includes an apparatus that displays and prints image data, such as a printer, a copier, and a photo frame.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1…カメラ、10…制御部、11…撮影レンズ、12…絞り、13…クイックリターンミラー、14…ファインダースクリーン、15…ペンタプリズム、16…測光レンズ、17…測光センサ、18…フォーカルプレーンシャッター、19…撮像素子、20…接眼レンズ DESCRIPTION OF SYMBOLS 1 ... Camera, 10 ... Control part, 11 ... Shooting lens, 12 ... Aperture, 13 ... Quick return mirror, 14 ... Viewfinder screen, 15 ... Pentaprism, 16 ... Photometric lens, 17 ... Photometric sensor, 18 ... Focal plane shutter, 19 ... Image sensor, 20 ... Eyepiece

Claims (10)

画像から所定以上の輝度を有する高輝度領域を検出する領域検出部と、
前記領域検出部により検出された前記高輝度領域の周辺領域に、前記高輝度領域の輝度および色調を反映させる反映部と、
を備える画像処理装置。
An area detection unit for detecting a high-luminance area having a predetermined luminance or higher from the image;
A reflection unit that reflects the luminance and color tone of the high-luminance region on the peripheral region of the high-luminance region detected by the region detection unit;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記反映部は、前記高輝度領域の輝度および色調を前記周辺領域に反映させる程度を表す重みを決定し、前記高輝度領域の輝度と前記周辺領域の輝度との加重平均を前記重みに基づき演算することにより、前記高輝度領域の輝度を反映した前記周辺領域の輝度を決定すると共に、前記高輝度領域の色調と前記周辺領域の色調との加重平均を前記重みに基づき演算することにより、前記高輝度領域の色調を反映した前記周辺領域の色調を決定する画像処理装置。
The image processing apparatus according to claim 1.
The reflection unit determines a weight representing a degree to which the luminance and color tone of the high luminance region are reflected in the peripheral region, and calculates a weighted average of the luminance of the high luminance region and the luminance of the peripheral region based on the weight. By determining the luminance of the peripheral region reflecting the luminance of the high luminance region, and calculating a weighted average of the color tone of the high luminance region and the color tone of the peripheral region based on the weight, An image processing apparatus for determining a color tone of the peripheral area reflecting a color tone of a high luminance area.
請求項2に記載の画像処理装置において、
前記反映部は、前記高輝度領域が第1輝度を有する場合には、前記高輝度領域が前記第1輝度より小さい第2輝度を有する場合よりも前記重みを小さくする画像処理装置。
The image processing apparatus according to claim 2,
The reflection unit is an image processing apparatus that reduces the weight when the high-luminance region has the first luminance, as compared with the case where the high-luminance region has the second luminance smaller than the first luminance.
請求項2または3に記載の画像処理装置において、
前記反映部は、前記高輝度領域から第1距離だけ離れた第1周辺領域では、前記高輝度領域から前記第1距離より小さい第2距離だけ離れた第2周辺領域よりも前記重みを小さくして前記加重平均を演算する画像処理装置。
The image processing apparatus according to claim 2 or 3,
The reflection unit reduces the weight in the first peripheral area separated from the high brightness area by a first distance than in the second peripheral area separated from the high brightness area by a second distance smaller than the first distance. An image processing apparatus for calculating the weighted average.
請求項2〜4のいずれか一項に記載の画像処理装置において、
前記反映部は、前記画像の撮影に用いられた光学系の特性に基づき、前記重みを決定する画像処理装置。
In the image processing apparatus according to any one of claims 2 to 4,
The reflection unit is an image processing apparatus that determines the weight based on characteristics of an optical system used for photographing the image.
請求項5に記載の画像処理装置において、
前記反映部は、第1収差を有する第1光学系を用いて撮影された前記画像に対しては、前記第1収差よりも小さい第2収差を有する第2光学系を用いて撮影された前記画像よりも前記重みを小さくする画像処理装置。
The image processing apparatus according to claim 5.
The reflection unit is photographed using a second optical system having a second aberration smaller than the first aberration for the image photographed using the first optical system having the first aberration. An image processing apparatus that makes the weight smaller than an image.
請求項2〜6のいずれか一項に記載の画像処理装置において、
前記反映部は、前記高輝度領域の面積が所定値以上であるか、あるいは前記高輝度領域の短辺の長さが所定値以上である場合には、前記周辺領域に前記高輝度領域の輝度および色調を反映させない画像処理装置。
In the image processing device according to any one of claims 2 to 6,
When the area of the high luminance region is equal to or greater than a predetermined value, or the length of the short side of the high luminance region is equal to or greater than the predetermined value, the reflecting unit has a luminance of the high luminance region in the peripheral region. And an image processing apparatus that does not reflect color tone.
注目画素近傍の周辺最大輝度を検出する周辺最大輝度検出部と、
前記周辺最大輝度検出部により検出された前記周辺最大輝度が大きいほど前記注目画素の輝度が大きくなるように、前記注目画素を補正する空間フィルタと、
を備える画像処理装置。
A peripheral maximum luminance detection unit for detecting the peripheral maximum luminance near the pixel of interest;
A spatial filter that corrects the pixel of interest so that the luminance of the pixel of interest increases as the peripheral maximum luminance detected by the peripheral maximum luminance detector increases.
An image processing apparatus comprising:
請求項1〜8のいずれか一項に記載の画像処理装置を有するカメラ。   A camera comprising the image processing apparatus according to claim 1. 画像から所定以上の輝度を有する領域を検出する領域検出ステップと、
前記領域検出ステップにより検出された前記領域の周辺領域に、前記領域の輝度および色調を反映させる反映ステップと、
をコンピュータに実行させる画像処理プログラム。
An area detecting step for detecting an area having a predetermined luminance or more from an image;
A reflecting step of reflecting the brightness and color tone of the region on the peripheral region of the region detected by the region detecting step;
An image processing program for causing a computer to execute.
JP2014175634A 2014-08-29 2014-08-29 Image processing system, camera, and image processing program Pending JP2016051982A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014175634A JP2016051982A (en) 2014-08-29 2014-08-29 Image processing system, camera, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014175634A JP2016051982A (en) 2014-08-29 2014-08-29 Image processing system, camera, and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019093706A Division JP6809559B2 (en) 2019-05-17 2019-05-17 Image processing equipment and image processing program

Publications (1)

Publication Number Publication Date
JP2016051982A true JP2016051982A (en) 2016-04-11

Family

ID=55659203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014175634A Pending JP2016051982A (en) 2014-08-29 2014-08-29 Image processing system, camera, and image processing program

Country Status (1)

Country Link
JP (1) JP2016051982A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022294A (en) * 2016-08-02 2018-02-08 キヤノン株式会社 Image processor, control method thereof, and program
KR20220015915A (en) * 2020-07-31 2022-02-08 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Method and device for image processing, terminal device and storage medium
JP2022153361A (en) * 2020-12-04 2022-10-12 マクセル株式会社 Video apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200508A (en) * 1996-01-16 1997-07-31 Olympus Optical Co Ltd Image processor
JP2009003858A (en) * 2007-06-25 2009-01-08 Nikon Corp Image processing program and image processor
WO2011122284A1 (en) * 2010-03-31 2011-10-06 キヤノン株式会社 Image processing device and image capturing apparatus using same
JP2012156893A (en) * 2011-01-27 2012-08-16 Olympus Imaging Corp Image processing system, imaging apparatus, and image processing program
JP2013025650A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing apparatus, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200508A (en) * 1996-01-16 1997-07-31 Olympus Optical Co Ltd Image processor
JP2009003858A (en) * 2007-06-25 2009-01-08 Nikon Corp Image processing program and image processor
WO2011122284A1 (en) * 2010-03-31 2011-10-06 キヤノン株式会社 Image processing device and image capturing apparatus using same
JP2012156893A (en) * 2011-01-27 2012-08-16 Olympus Imaging Corp Image processing system, imaging apparatus, and image processing program
JP2013025650A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing apparatus, image processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022294A (en) * 2016-08-02 2018-02-08 キヤノン株式会社 Image processor, control method thereof, and program
KR20220015915A (en) * 2020-07-31 2022-02-08 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Method and device for image processing, terminal device and storage medium
KR102459527B1 (en) * 2020-07-31 2022-10-27 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Method and device for image processing, terminal device and storage medium
US11783450B2 (en) 2020-07-31 2023-10-10 Beijing Xiaomi Mobile Software Co., Ltd. Method and device for image processing, terminal device and storage medium
JP2022153361A (en) * 2020-12-04 2022-10-12 マクセル株式会社 Video apparatus
JP7397918B2 (en) 2020-12-04 2023-12-13 マクセル株式会社 Video equipment

Similar Documents

Publication Publication Date Title
US11503219B2 (en) Image processing apparatus, image capture apparatus, and control method for adding an effect of a virtual light source to a subject
CN108668093B (en) HDR image generation method and device
KR20200041382A (en) Dual camera-based imaging method, mobile terminal and storage medium
JP6282156B2 (en) Image device, image processing method, control program, and storage medium
KR102304784B1 (en) Double camera-based imaging method and apparatus
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
US9813634B2 (en) Image processing apparatus and method
JP2009212853A (en) White balance controller, its control method, and imaging apparatus
JP2015156615A (en) Image processing system, image processing method, control program, and recording medium
WO2020034701A1 (en) Imaging control method and apparatus, electronic device, and readable storage medium
US8989510B2 (en) Contrast enhancement using gradation conversion processing
JP2004222231A (en) Image processing apparatus and image processing program
JP7071084B2 (en) Image processing equipment and image processing methods, programs, storage media
JP5225137B2 (en) Imaging apparatus, image processing method, and program
JP2019004230A (en) Image processing device and method, and imaging apparatus
JP6702752B2 (en) Image processing device, imaging device, control method, and program
JP6611543B2 (en) Image processing apparatus, image processing method, and program
JP2016051982A (en) Image processing system, camera, and image processing program
JP2019179463A (en) Image processing device, control method thereof, program, and recording medium
JP2015192338A (en) Image processing device and image processing program
US20110128404A1 (en) Imaging apparatus, image processing program, image processing apparatus, and image processing method
US9692983B2 (en) Apparatus, method, and medium for correcting pixel switching pattern
JP4438363B2 (en) Image processing apparatus and image processing program
JP2015156616A (en) Image processing system, image processing method, control program, and recording medium
JP6809559B2 (en) Image processing equipment and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180501

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180817

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190219