JP6250970B2 - Image processing apparatus, imaging apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, imaging apparatus, image processing method, program, and recording medium Download PDF

Info

Publication number
JP6250970B2
JP6250970B2 JP2013158269A JP2013158269A JP6250970B2 JP 6250970 B2 JP6250970 B2 JP 6250970B2 JP 2013158269 A JP2013158269 A JP 2013158269A JP 2013158269 A JP2013158269 A JP 2013158269A JP 6250970 B2 JP6250970 B2 JP 6250970B2
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
unit
gamma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013158269A
Other languages
Japanese (ja)
Other versions
JP2015029225A (en
Inventor
康一 郡司
康一 郡司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013158269A priority Critical patent/JP6250970B2/en
Publication of JP2015029225A publication Critical patent/JP2015029225A/en
Application granted granted Critical
Publication of JP6250970B2 publication Critical patent/JP6250970B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、撮像装置、画像処理方法、プログラム、及び記録媒体に関する。   The present invention relates to an image processing device, an imaging device, an image processing method, a program, and a recording medium.

現在、画像データのダイナミックレンジを拡大する技術が知られている。特許文献1は、記録された画像中に含まれる特定画像を所望の明るさにするために、ダイナミックレンジ修正用の輝度変換関数を算出して、画像全体の輝度を変換する制御方法を提案している。   Currently, a technique for expanding the dynamic range of image data is known. Patent Document 1 proposes a control method for calculating a luminance conversion function for dynamic range correction and converting the luminance of the entire image in order to make a specific image included in a recorded image a desired brightness. ing.

また、デジタルビデオカメラやデジタルカメラなどの撮像装置として、撮影中の被写体画像の確認のために液晶や有機ELのディスプレイ(パネル)や電子ビューファインダー(EVF)などの表示装置を備えたものが普及している。このような撮像装置は、ユーザが撮影中の被写体画像を表示装置に表示するが、この表示は一般的に、画像データを記録する際の画質で行われる。   In addition, as an imaging device such as a digital video camera or a digital camera, a device equipped with a display device such as a liquid crystal display or an organic EL display (panel) or an electronic viewfinder (EVF) is widely used for confirming a subject image being shot. doing. Such an image pickup apparatus displays a subject image being photographed by a user on a display device, and this display is generally performed with an image quality when image data is recorded.

特開2010−193513号公報JP 2010-193513 A

撮像装置のユーザは、意図的に暗い画像や明るい画像を記録する場合がある。例えば暗い画像を記録する場合、撮像装置の表示装置にも暗い画像が表示される。そのため、ユーザは撮影中の被写体画像の階調を確認することが困難である。表示装置の輝度を上げたとしても、階調再現性が向上する訳ではないので、依然として階調の確認は困難である。   The user of the imaging apparatus may intentionally record a dark image or a bright image. For example, when recording a dark image, the dark image is also displayed on the display device of the imaging device. Therefore, it is difficult for the user to check the gradation of the subject image being shot. Even if the luminance of the display device is increased, the gradation reproducibility is not improved, so it is still difficult to confirm the gradation.

また、特許文献1は、撮影中の被写体画像の確認を目的としたものではない。仮に特許文献1を撮影中の被写体画像の確認のために利用したとしても、画像全体の輝度が変換されてしまうため、表示される画像が実際に記録される画像と大きく異なってしまう可能性がある。   Further, Patent Document 1 is not intended to confirm the subject image being shot. Even if Patent Document 1 is used for confirming the subject image being shot, the luminance of the entire image is converted, so that the displayed image may be significantly different from the actually recorded image. is there.

本発明はこのような状況に鑑みてなされたものであり、ユーザが撮影中の画像の階調を確認することを容易にする技術を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique that makes it easy for a user to check the gradation of an image being shot.

上記課題を解決するために、本発明は、撮像手段により生成された画像データを現像することにより現像画像を生成する現像手段と、前記現像画像の特定の領域から部分画像を取得する取得手段と、前記取得した部分画像の輝度のダイナミックレンジを拡大する拡大手段と、前記ダイナミックレンジが拡大された部分画像を前記現像画像に重畳する重畳手段と、前記部分画像が重畳された現像画像を第1の表示装置に出力する出力手段と、を備える画像処理装置であって、前記現像手段による前記現像は、第2の表示装置のガンマ特性に対応するガンマ補正を含み、前記画像処理装置は、前記現像画像を記録する記録手段と、前記第2の表示装置のガンマ特性に対応する逆ガンマ補正を前記現像画像に対して行う逆ガンマ補正手段と、を更に備え、前記取得手段は、前記逆ガンマ補正された現像画像から前記部分画像を取得することを特徴とする画像処理装置を提供する。 In order to solve the above problems, the present invention provides a developing unit that generates a developed image by developing image data generated by an imaging unit, and an acquiring unit that acquires a partial image from a specific region of the developed image. , An enlargement unit that enlarges the dynamic range of the luminance of the acquired partial image, a superimposing unit that superimposes the partial image with the expanded dynamic range on the developed image, and a developed image on which the partial image is superimposed is a first image. a and output means for outputting to the display device, the image processing apparatus Ru wherein the development with the developing means includes a gamma correction corresponding to a gamma characteristic of the second display device, the image processing apparatus, Recording means for recording the developed image; and inverse gamma correction means for performing reverse gamma correction corresponding to the gamma characteristic of the second display device on the developed image. For example, the acquisition unit may provide an image processing apparatus, characterized by acquiring the partial image from the inverse gamma corrected developed image.

なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。   Other features of the present invention will become more apparent from the accompanying drawings and the following description of the preferred embodiments.

本発明によれば、ユーザが撮影中の画像の階調を確認することを容易にすることが可能となる。   According to the present invention, it is possible to make it easy for the user to check the gradation of the image being shot.

第1の実施形態に係る画像処理装置10の構成を示すブロック図。1 is a block diagram showing a configuration of an image processing apparatus 10 according to a first embodiment. 第2の実施形態に係る画像処理装置20の構成を示すブロック図。The block diagram which shows the structure of the image processing apparatus 20 which concerns on 2nd Embodiment. 画像全体のダイナミックレンジを拡大する処理を示す図。The figure which shows the process which expands the dynamic range of the whole image. 画像処理装置10による画像処理を示すフローチャート。3 is a flowchart showing image processing by the image processing apparatus 10; 画像処理装置20による画像処理を示すフローチャート。5 is a flowchart showing image processing by the image processing apparatus 20; (a)現像ガンマ及び逆現像ガンマを示す図、(b)表示ガンマ及び逆表示ガンマを示す図、(c)ダイナミックレンジ拡大用のガンマカーブの一例を示す図、(d)ダイナミックレンジ拡大用のガンマカーブの他の例を示す図。(A) a diagram showing development gamma and reverse development gamma, (b) a diagram showing display gamma and reverse display gamma, (c) a diagram showing an example of a gamma curve for dynamic range expansion, and (d) a diagram for dynamic range expansion. The figure which shows the other example of a gamma curve. ダイナミックレンジが拡大された部分画像を現像画像に重畳する処理の説明図。Explanatory drawing of the process which superimposes the partial image in which the dynamic range was expanded on a development image.

以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The technical scope of the present invention is determined by the claims, and is not limited by the following individual embodiments. In addition, not all combinations of features described in the embodiments are essential to the present invention.

[第1の実施形態]
図1Aは、第1の実施形態に係る画像処理装置10の構成を示すブロック図である。図1Aにおいて、センサー100は、CCDやCMOSなどの撮像素子である。センサー100は、撮影レンズ群(不図示)で入射光量や合焦の調節が行われて結像された撮影画像を光電変換し、アナログ・デジタル変換したデジタル信号を出力する。撮像素子の各画素には、R(赤)、G(緑)、B(青)のいずれかのカラーフィルタが、所定の配列、例えばベイヤー配列やハニカム配列で配置されている。色毎にRGB画像信号が出力される。また、センサー100は、高速出力のために、数個の画素を加算して1個の画素として出力画像を縮小する画素加算処理を行ってRGB画像信号を出力する場合もある。画像処理装置10がセンサー100を備える場合、画像処理装置10はデジタルカメラやデジタルビデオカメラなどのような撮像装置として動作可能である。しかしながら、画像処理装置10はセンサー100を備えていなくてもよく、この場合、画像処理装置10は、外部のセンサーからRGB画像信号を取得する。
[First Embodiment]
FIG. 1A is a block diagram illustrating a configuration of an image processing apparatus 10 according to the first embodiment. In FIG. 1A, a sensor 100 is an image sensor such as a CCD or a CMOS. The sensor 100 photoelectrically converts a captured image formed by adjusting the amount of incident light and focusing by a photographing lens group (not shown), and outputs a digital signal obtained by analog / digital conversion. In each pixel of the image sensor, one of R (red), G (green), and B (blue) color filters is arranged in a predetermined arrangement, for example, a Bayer arrangement or a honeycomb arrangement. An RGB image signal is output for each color. The sensor 100 may output RGB image signals by performing pixel addition processing for adding several pixels to reduce the output image as one pixel for high-speed output. When the image processing apparatus 10 includes the sensor 100, the image processing apparatus 10 can operate as an imaging apparatus such as a digital camera or a digital video camera. However, the image processing apparatus 10 may not include the sensor 100. In this case, the image processing apparatus 10 acquires RGB image signals from an external sensor.

現像処理部101は、RGB画像信号(画像データ)を受信し、RGBのオフセット調整、ゲイン調整、及び現像ガンマ補正処理を行う。現像ガンマ補正処理は、図4(a)に示す現像ガンマ補正曲線のように画像入力値を出力値に変換する。現像ガンマ補正曲線は、センサー100や撮影レンズ群(不図示)などの特性を考慮して、ユーザが所望する記録画像を生成するための曲線である。曲線を変えることによって、TVモニターで表示するための記録画像の生成や、映画フィルムの質感や階調を再現した記録画像の生成が可能である。換言すると、現像処理部101は、記録画像を表示する予定の表示装置のガンマ特性に対応するガンマ補正を行う。次に、現像処理部101は、RGB画像信号を輝度信号(Y)と色差信号(Cb、Cr)に変換して出力する。また、現像処理部101は、レンズの歪曲収差の補正処理や、撮像装置の防振処理やノイズリダクション処理なども行う。   The development processing unit 101 receives an RGB image signal (image data), and performs RGB offset adjustment, gain adjustment, and development gamma correction processing. In the development gamma correction process, an image input value is converted into an output value as in the development gamma correction curve shown in FIG. The development gamma correction curve is a curve for generating a recorded image desired by the user in consideration of characteristics of the sensor 100 and a photographing lens group (not shown). By changing the curve, it is possible to generate a recorded image for display on a TV monitor, or a recorded image that reproduces the texture and gradation of a movie film. In other words, the development processing unit 101 performs gamma correction corresponding to the gamma characteristic of the display device that is to display the recorded image. Next, the development processing unit 101 converts the RGB image signal into a luminance signal (Y) and a color difference signal (Cb, Cr) and outputs them. The development processing unit 101 also performs lens distortion correction processing, image stabilization processing, noise reduction processing, and the like of the imaging apparatus.

符号化部102は、YCbCr画像信号(現像画像)を受信し、記録フォーマットに合わせて圧縮符号化して、記録部103に出力する。記録部103は、圧縮符号化された画像を記録媒体(不図示)に記録する。   The encoding unit 102 receives the YCbCr image signal (development image), compresses and encodes it in accordance with the recording format, and outputs it to the recording unit 103. The recording unit 103 records the compression-coded image on a recording medium (not shown).

逆現像ガンマ部104は、現像処理部101での現像ガンマ補正の逆特性ガンマ(図4(a)の逆現像ガンマ)の処理を行い、現像画像を線形な特性を持つ画像に変換する。換言すると、逆現像ガンマ部104は、記録画像を表示する予定の表示装置のガンマ特性に対応する逆ガンマ補正を行う。   The reverse development gamma unit 104 performs processing of the reverse characteristic gamma (the reverse development gamma in FIG. 4A) of the development gamma correction in the development processing unit 101, and converts the developed image into an image having linear characteristics. In other words, the reverse development gamma unit 104 performs reverse gamma correction corresponding to the gamma characteristic of the display device that is to display the recorded image.

表示ガンマ部105は、逆現像ガンマにより処理された現像画像に対し、EVF表示のための表示装置のガンマ特性(図4(b)の表示ガンマ)に対応するガンマ補正(図4(b)の逆表示ガンマによる処理)を行う。これにより、現像画像が非線形な特性を持つ画像に変換される。   The display gamma unit 105 applies a gamma correction (shown in FIG. 4B) corresponding to the gamma characteristic of the display device for EVF display (display gamma in FIG. 4B) to the developed image processed by the reverse development gamma. Process with reverse display gamma). As a result, the developed image is converted into an image having nonlinear characteristics.

画像切り出し部106は、逆現像ガンマにより処理された現像画像から、指定された特定の領域の画像を切り出して取得し、ダイナミックレンジ拡大部107に送信する。特定の領域の指定は、領域指定部113を通じて行われる。領域指定部113は、例えば、パネルなどのユーザインタフェースを含む。或いは、領域指定部113は、現像画像から顔や物体を検出し、検出結果に基づいて特定の領域を指定してもよい。   The image cutout unit 106 cuts out and acquires an image of a specified specific area from the developed image processed by the reverse development gamma, and transmits the cut image to the dynamic range expansion unit 107. The specific area is designated through the area designation unit 113. The area specifying unit 113 includes, for example, a user interface such as a panel. Alternatively, the area specifying unit 113 may detect a face or an object from the developed image and specify a specific area based on the detection result.

ダイナミックレンジ拡大部107は、切り出された部分画像の輝度の平均値を求める。次に、ダイナミックレンジ拡大部107は、輝度の平均値を中心値として、指定された拡大範囲まで輝度のダイナミックレンジを拡大可能なガンマカーブを算出し、ダイナミックレンジの拡大を行う。   The dynamic range expansion unit 107 obtains an average value of the luminance of the cut out partial images. Next, the dynamic range expansion unit 107 calculates a gamma curve that can expand the dynamic range of the luminance up to the specified expansion range with the average value of the luminance as the center value, and expands the dynamic range.

表示ガンマ処理選択部108は、EVF表示する画像を、現像処理部101の出力画像と、表示ガンマ部105の出力画像(逆現像ガンマ部104で一旦逆ガンマ補正され表示ガンマ部105でガンマ補正された画像)とから選択する。   The display gamma processing selection unit 108 converts the image to be displayed on the EVF into an output image from the development processing unit 101 and an output image from the display gamma unit 105 (inverse gamma correction is performed once by the reverse development gamma unit 104 and gamma correction is performed by the display gamma unit 105. Image).

重畳部109は、ダイナミックレンジ拡大部107によりダイナミックレンジが拡大された部分画像を、表示ガンマ処理選択部108で選択された画像に重畳する。その際に、重畳部109は、画像切り出し部106が部分画像を取得した特定の領域に部分画像を重畳してもよいし、これとは異なる領域に部分画像を重畳してもよい。表示出力部110は、重畳部109による重畳が行われた画像を、EVF表示用の表示装置に出力する。その際、表示出力部110は、表示装置のパネルの受信フォーマットに合わせて出力画像をフォーマット変換する。画像を外部モニターに表示する場合は、表示出力部110は、HDMI(登録商標)やSDI、コンポーネントやコンポジットなどの画像信号伝送フォーマットに合わせてフォーマット変換した画像信号を画像処理装置10の外部に出力する。   The superimposing unit 109 superimposes the partial image whose dynamic range has been expanded by the dynamic range expanding unit 107 on the image selected by the display gamma processing selection unit 108. At that time, the superimposing unit 109 may superimpose the partial image on a specific area where the image cutout unit 106 has acquired the partial image, or may superimpose the partial image on a different area. The display output unit 110 outputs the image superimposed by the superimposing unit 109 to a display device for EVF display. At that time, the display output unit 110 converts the format of the output image in accordance with the reception format of the display device panel. When an image is displayed on an external monitor, the display output unit 110 outputs an image signal whose format has been converted in accordance with an image signal transmission format such as HDMI (registered trademark), SDI, component or composite to the outside of the image processing apparatus 10. To do.

ここで、参考として、画像全体のダイナミックレンジを拡大する処理について、図2を参照して説明する。画像切り出し部201において、入力画像200から顔領域などの部分画像が切り出される。輝度変換関数算出部202は、ダイナミックレンジ拡大用の輝度範囲や変換用関数を求める。ダイナミックレンジ拡大処理203は、求められた関数に従って入力画像200を変換して、表示画像204を生成する。   Here, as a reference, processing for expanding the dynamic range of the entire image will be described with reference to FIG. In the image cutout unit 201, a partial image such as a face region is cut out from the input image 200. The luminance conversion function calculation unit 202 obtains a luminance range for expansion of the dynamic range and a conversion function. The dynamic range expansion process 203 converts the input image 200 according to the obtained function and generates a display image 204.

次に、図3Aを参照して、画像処理装置10による画像処理について説明する。本実施形態では、デジタルビデオカメラとして動作する画像処理装置10によりユーザが動画を撮影中に液晶パネルで階調を確認するシナリオを例として説明する。しかし、本フローチャートの画像処理は、画像処理装置10と液晶パネルが起動していれば、撮影開始前でも実行可能である。また、動画ではなく静止画を撮影する場合にも実行可能である。本フローチャートの各ステップの処理は、特に断らない限り、画像処理装置10のCPU(不図示)がROM(不図示)に格納されたプログラムを実行することにより実施可能である。   Next, image processing by the image processing apparatus 10 will be described with reference to FIG. 3A. In the present embodiment, a scenario will be described as an example in which a user confirms gradation on a liquid crystal panel while shooting a moving image by the image processing apparatus 10 operating as a digital video camera. However, the image processing of this flowchart can be executed even before the start of photographing as long as the image processing apparatus 10 and the liquid crystal panel are activated. It can also be executed when shooting still images instead of moving images. Unless otherwise specified, the processing of each step in this flowchart can be performed by a CPU (not shown) of the image processing apparatus 10 executing a program stored in a ROM (not shown).

S301で、現像処理部101は、図4(a)を参照して前述した現像ガンマ補正処理を行い、RGB画像信号を輝度信号(Y)と色差信号(Cb、Cr)に変換して出力する。   In S301, the development processing unit 101 performs the development gamma correction processing described above with reference to FIG. 4A, converts the RGB image signal into a luminance signal (Y) and a color difference signal (Cb, Cr), and outputs the converted signal. .

S302で、逆現像ガンマ部104は、現像ガンマ補正の逆ガンマ特性の演算処理を行い、現像画像を線形特性の画像に変換する。S303で、領域指定部113は、現像画像の特定の領域を指定し、画像切り出し部106は、指定された特定の領域から部分画像を切り出す。   In S302, the reverse development gamma unit 104 performs a reverse gamma characteristic calculation process for development gamma correction, and converts the developed image into an image having a linear characteristic. In S303, the area specifying unit 113 specifies a specific area of the developed image, and the image cutout unit 106 cuts out a partial image from the specified specific area.

S304で、ダイナミックレンジ拡大部107は、S303で切り出された部分画像の輝度の平均値を算出する。S305で、ダイナミックレンジ拡大部107は、S304で算出した輝度の平均値を中心にダイナミックレンジ拡大用のガンマカーブを図4(c)や図4(d)に示す例のように生成する。ダイナミックレンジ拡大用のガンマカーブは、輝度の平均値を中心にして、入力レンジ幅と出力レンジ幅(ダイナミックレンジの拡大範囲)を任意に変えることが可能である。これらのレンジ幅は、例えば、CPUなどの制御ブロックで設定される。例えば、ダイナミックレンジ拡大部107は、EVF用の表示装置のガンマ特性に対応するガンマ補正のためのガンマカーブ(図4(b)の逆表示ガンマ)を、ダイナミックレンジの拡大範囲と輝度の平均値とに基づいて変形する。これにより、ダイナミックレンジ拡大用のカーブ(図4(c)や図4(d))を生成することができる。なお、ダイナミックレンジ拡大用のガンマ曲線は、画像のRGB各成分の平均値を中心にして、図4(c)や図4(d)に示す例のように生成してもよい。S306で、ダイナミックレンジ拡大部107で、S305で生成したガンマカーブに基づき、ダイナミックレンジ拡大処理を行う。   In step S304, the dynamic range expansion unit 107 calculates the average value of the luminances of the partial images cut out in step S303. In S305, the dynamic range expansion unit 107 generates a gamma curve for dynamic range expansion centering on the average value of the luminance calculated in S304 as in the examples shown in FIGS. 4C and 4D. The dynamic range expansion gamma curve can arbitrarily change the input range width and the output range width (dynamic range expansion range) around the average value of luminance. These range widths are set by a control block such as a CPU, for example. For example, the dynamic range expansion unit 107 generates a gamma curve for gamma correction (reverse display gamma in FIG. 4B) corresponding to the gamma characteristic of the display device for EVF, the average value of the expansion range of the dynamic range and the luminance. Deforms based on As a result, a dynamic range expansion curve (FIG. 4C or FIG. 4D) can be generated. The gamma curve for expanding the dynamic range may be generated as shown in the examples shown in FIGS. 4C and 4D with the average value of each RGB component of the image as the center. In S306, the dynamic range expansion unit 107 performs dynamic range expansion processing based on the gamma curve generated in S305.

S307で、画像処理装置10は、表示ガンマ処理選択部108が表示ガンマ部105の出力画像を選択しているか否かを判定する。表示ガンマ処理選択部108が表示ガンマ部105の出力画像を選択している場合、処理はS308に進み、そうでない場合、処理はS309に進む。   In step S <b> 307, the image processing apparatus 10 determines whether the display gamma processing selection unit 108 has selected the output image of the display gamma unit 105. If the display gamma processing selection unit 108 has selected the output image of the display gamma unit 105, the process proceeds to S308. Otherwise, the process proceeds to S309.

S308で、表示ガンマ部105は、逆現像ガンマにより処理された現像画像に対し、EVF表示のための表示装置のガンマ特性(図4(b)の表示ガンマ)に対応するガンマ補正(図4(b)の逆表示ガンマによる処理)を行う。   In S308, the display gamma unit 105 performs gamma correction (FIG. 4B) corresponding to the gamma characteristic of the display device for EVF display (display gamma in FIG. 4B) for the developed image processed by the reverse development gamma. (b) Process by reverse display gamma).

S309で、重畳部109は、表示ガンマ処理選択部108が選択した現像画像に対し、S306においてダイナミックレンジが拡大された部分画像を重畳する。例えば、重畳部109は、図5(a)に示すように、画像切り出し部106が部分画像を取得した特定の領域に部分画像を重畳する。或いは、重畳部109は、図5(b)に示すように、特定の領域とは異なる領域に部分画像を重畳してもよい。この場合、ユーザは、元の画像とダイナミックレンジ拡大した画像とを比較して確認することができる。図5(a)及び図5(b)いずれの場合も、重畳部109は、部分画像を拡大して現像画像に重畳してもよい。図5(a)及び図5(b)においては、図2の場合と異なり、現像画像全体ではなく部分画像のみダイナミックレンジが拡大されている。また、図5(b)の場合、重畳部109は、画像切り出し部106が部分画像を取得した特定の領域を示す枠線を現像画像に重畳してもよい。   In step S309, the superimposing unit 109 superimposes the partial image whose dynamic range has been expanded in step S306 on the developed image selected by the display gamma processing selecting unit 108. For example, as illustrated in FIG. 5A, the superimposing unit 109 superimposes the partial image on the specific area where the image clipping unit 106 has acquired the partial image. Alternatively, the superimposing unit 109 may superimpose the partial image in an area different from the specific area as illustrated in FIG. In this case, the user can confirm by comparing the original image with the image whose dynamic range is expanded. 5A and 5B, the superimposing unit 109 may enlarge the partial image and superimpose it on the developed image. 5A and 5B, unlike the case of FIG. 2, the dynamic range is expanded only for the partial image, not the entire developed image. In the case of FIG. 5B, the superimposing unit 109 may superimpose a frame line indicating a specific area from which the image cutout unit 106 has acquired the partial image on the developed image.

S310で、表示出力部110は、部分画像が重畳された現像画像をEVF表示用の表示装置に出力する。その結果、表示装置には、図5(a)や図5(b)に示されるように画像が表示される。本実施形態の構成の場合、S301からS310まで1フレーム時間以内で処理され、リアルタイムに階調確認用の撮影補助表示が可能である。その後、処理はS301に戻り、次のフレームについて同様の処理が行われる。   In S310, the display output unit 110 outputs the developed image on which the partial image is superimposed to the display device for EVF display. As a result, an image is displayed on the display device as shown in FIGS. 5 (a) and 5 (b). In the case of the configuration of the present embodiment, processing from S301 to S310 is performed within one frame time, and it is possible to perform shooting assistance display for gradation confirmation in real time. Thereafter, the process returns to S301, and the same process is performed for the next frame.

ところで、EVF用の表示装置(第1の表示装置)と記録画像用の表示装置(第2の表示装置)のガンマ特性が異なる場合、現像処理部101の出力画像をそのままEVF用の表示装置に表示すると、適正な階調で表示されない可能性がある。図3Aに示す画像処理によれば、図5(a)や図5(b)に示される部分画像は、S302で逆現像ガンマ処理され、S306でEVF用の表示装置のガンマ特性を考慮したダイナミックレンジ拡大処理が施された画像である。従って、EVF用の表示装置と記録画像用の表示装置のガンマ特性が異なっていても、ユーザは容易に部分画像の階調を確認することができる。   If the EVF display device (first display device) and the recorded image display device (second display device) have different gamma characteristics, the output image of the development processing unit 101 is directly used as the EVF display device. If displayed, it may not be displayed with proper gradation. According to the image processing shown in FIG. 3A, the partial images shown in FIGS. 5A and 5B are subjected to the reverse development gamma processing in S302, and in S306, the dynamic considering the gamma characteristics of the display device for EVF. It is an image that has undergone range expansion processing. Therefore, even if the EVF display device and the recorded image display device have different gamma characteristics, the user can easily confirm the gradation of the partial image.

なお、画像処理装置10は、センサー100の駆動周期とパネル駆動周期の同期を制御するように構成されていてもよい。この構成は、周期の制御と、遅延時間の制御をセンサー100とパネルで各々制御できる構成であってもよい。具体的には、センサー100とパネルの同期信号の遅延量を計測し、センサー駆動周期を基準として、パネル駆動周期の同期信号の遅延量が所定の範囲内に入るよう調節する。   Note that the image processing apparatus 10 may be configured to control synchronization of the driving cycle of the sensor 100 and the panel driving cycle. This configuration may be a configuration in which the cycle control and the delay time control can be controlled by the sensor 100 and the panel, respectively. Specifically, the delay amount of the synchronization signal between the sensor 100 and the panel is measured, and the delay amount of the synchronization signal of the panel drive cycle is adjusted within a predetermined range with the sensor drive cycle as a reference.

また、画像処理装置10は、各ブロックを制御するCPUなどの制御ブロックを有し、この制御ブロックは、特に現像処理や逆現像ガンマ処理、領域指定処理、表示ガンマ処理などの設定調整などを行う。   The image processing apparatus 10 also has a control block such as a CPU for controlling each block, and this control block performs setting adjustment such as development processing, reverse development gamma processing, area designation processing, display gamma processing, and the like. .

現像処理部101は、RGB画像信号ではなくYCbCr画像信号を受信する場合もある。この場合、現像処理部101は、YCbCr画像信号を一旦RGB画像信号に変換してから現像処理を実施する。或いは、RGB画像信号での現像処理を省略してもよい。   The development processing unit 101 may receive a YCbCr image signal instead of an RGB image signal. In this case, the development processing unit 101 converts the YCbCr image signal into an RGB image signal and then performs development processing. Alternatively, the development process with the RGB image signal may be omitted.

以上説明したように、本実施形態によれば、画像処理装置10は、現像画像の特定の領域から部分画像を取得し、部分画像のダイナミックレンジを拡大して現像画像に重畳する。これにより、ユーザは撮影中の画像の階調を容易に確認することができる。   As described above, according to the present embodiment, the image processing apparatus 10 acquires a partial image from a specific area of the developed image, expands the dynamic range of the partial image, and superimposes it on the developed image. Thereby, the user can easily confirm the gradation of the image being shot.

[第2の実施形態]
第1の実施形態では、部分画像を取得する特定の領域の数は1つであった。第2の実施形態では、特定の領域が複数あってそれぞれから部分画像を取得する構成について説明する。以下、主に、第1の実施形態と異なる点について説明する。
[Second Embodiment]
In the first embodiment, the number of specific areas from which partial images are acquired is one. In the second embodiment, a configuration will be described in which there are a plurality of specific regions and partial images are acquired from each. Hereinafter, the points different from the first embodiment will be mainly described.

図1Bは、第2の実施形態に係る画像処理装置20の構成を示すブロック図である。図1Bにおいて、図1Aと同様のブロックには同一の符号を付す。   FIG. 1B is a block diagram illustrating a configuration of an image processing apparatus 20 according to the second embodiment. In FIG. 1B, the same reference numerals are assigned to the same blocks as in FIG. 1A.

メモリ1 121は、逆現像ガンマ処理後の現像画像を一時的に記憶する。領域指定部122は、現像画像において複数の特定の領域を指定する。画像切り出し部123は、複数の特定の領域それぞれから部分画像を切り出す。ダイナミックレンジ拡大部124は、各部分画像について、ダイナミックレンジの拡大処理を行う。メモリ2 125は、ダイナミックレンジが拡大された複数の部分画像を一時的に記憶する。重畳部126は、メモリ2 125に記憶された複数の部分画像それぞれを現像画像に重畳する。   The memory 1 121 temporarily stores the developed image after the reverse development gamma processing. The area designating unit 122 designates a plurality of specific areas in the developed image. The image cutout unit 123 cuts out a partial image from each of a plurality of specific areas. The dynamic range expansion unit 124 performs a dynamic range expansion process on each partial image. The memory 2 125 temporarily stores a plurality of partial images with an expanded dynamic range. The superimposing unit 126 superimposes each of the plurality of partial images stored in the memory 2 125 on the developed image.

次に、図3Bを参照して、画像処理装置20による画像処理について説明する。図3Bにおいて、図3Aと同様のステップには同一の符号を付す。本フローチャートの各ステップの処理は、特に断らない限り、画像処理装置20のCPU(不図示)がROM(不図示)に格納されたプログラムを実行することにより実施可能である。本実施形態では、S302において逆現像ガンマ処理された現像画像は、メモリ1 121に格納される。   Next, image processing by the image processing apparatus 20 will be described with reference to FIG. 3B. In FIG. 3B, the same steps as those in FIG. 3A are denoted by the same reference numerals. Unless otherwise specified, the processing of each step in this flowchart can be performed by the CPU (not shown) of the image processing apparatus 20 executing a program stored in a ROM (not shown). In the present embodiment, the developed image that has been subjected to the reverse development gamma processing in S <b> 302 is stored in the memory 1 121.

S401で、画像処理装置20は、領域指定部122によって指定された複数の領域の全てについて処理が終了したか否かを判定する。全ての領域について処理が終了した場合、処理はS307に進む。そうでない場合、処理はS402に進む。   In step S <b> 401, the image processing apparatus 20 determines whether the processing has been completed for all of the plurality of areas specified by the area specifying unit 122. If the process has been completed for all areas, the process proceeds to S307. Otherwise, the process proceeds to S402.

S402からS405では、領域指定部122によって指定された複数の領域のうちの1つについて、図3AのS303からS306と同様の処理が行われ、最終的に得られた部分画像がメモリ2 125に格納される。S401からS405の処理が繰り返されることにより、領域指定部122によって指定された複数の領域それぞれに対応する部分画像がメモリ2 125に格納される。   In S402 to S405, the same processing as S303 to S306 in FIG. 3A is performed on one of the plurality of areas designated by the area designating unit 122, and the finally obtained partial image is stored in the memory 2125. Stored. By repeating the processing from S 401 to S 405, partial images corresponding to each of the plurality of areas specified by the area specifying unit 122 are stored in the memory 2 125.

S406で、重畳部126は、メモリ2 125に格納されている複数の部分画像それぞれを、表示ガンマ処理選択部108が選択した現像画像に対して重畳する。その際、重畳部126は、図5(c)に示すように、画像切り出し部123が各部分画像を取得した特定の領域に各部分画像を重畳する。或いは、重畳部126は、特定の領域とは異なる領域に各部分画像を重畳してもよい。この場合、重畳部126は、画像切り出し部123が各部分画像を取得した特定の領域を示す枠線を現像画像に重畳してもよい。   In step S <b> 406, the superimposing unit 126 superimposes each of the plurality of partial images stored in the memory 2 125 on the developed image selected by the display gamma processing selection unit 108. At that time, as illustrated in FIG. 5C, the superimposing unit 126 superimposes each partial image on the specific area where the image clipping unit 123 has acquired each partial image. Alternatively, the superimposing unit 126 may superimpose each partial image on an area different from the specific area. In this case, the superimposing unit 126 may superimpose a frame line indicating a specific area where the partial image is acquired by the image cutout unit 123 on the developed image.

なお、メモリ1 121とメモリ2 125とは、物理的に別個のメモリにより実装されてもよいし、1個のメモリがアドレス制御によって使用される構成により実装されてもよい。   Note that the memory 1 121 and the memory 2 125 may be implemented by physically separate memories, or may be implemented by a configuration in which one memory is used by address control.

以上説明したように、本実施形態によれば、画像処理装置20は、現像画像の複数の特定の領域それぞれから部分画像を取得し、各部分画像のダイナミックレンジを拡大して現像画像に重畳する。これにより、ユーザは撮影中の画像の階調を容易に確認することができる。   As described above, according to the present embodiment, the image processing apparatus 20 acquires partial images from each of a plurality of specific regions of the developed image, expands the dynamic range of each partial image, and superimposes the developed images on the developed image. . Thereby, the user can easily confirm the gradation of the image being shot.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (13)

撮像手段により生成された画像データを現像することにより現像画像を生成する現像手段と、
前記現像画像の特定の領域から部分画像を取得する取得手段と、
前記取得した部分画像の輝度のダイナミックレンジを拡大する拡大手段と、
前記ダイナミックレンジが拡大された部分画像を前記現像画像に重畳する重畳手段と、
前記部分画像が重畳された現像画像を第1の表示装置に出力する出力手段と、
を備える画像処理装置であって、
前記現像手段による前記現像は、第2の表示装置のガンマ特性に対応するガンマ補正を含み、
前記画像処理装置は、
前記現像画像を記録する記録手段と、
前記第2の表示装置のガンマ特性に対応する逆ガンマ補正を前記現像画像に対して行う逆ガンマ補正手段と、
を更に備え、
前記取得手段は、前記逆ガンマ補正された現像画像から前記部分画像を取得する
ことを特徴とする画像処理装置。
Developing means for generating a developed image by developing image data generated by the imaging means;
Obtaining means for obtaining a partial image from a specific region of the developed image;
Expansion means for expanding the dynamic range of the luminance of the acquired partial image;
Superimposing means for superimposing the partial image with the expanded dynamic range on the developed image;
Output means for outputting the developed image on which the partial image is superimposed to the first display device;
An image processing apparatus Ru provided with,
The development by the developing means includes gamma correction corresponding to the gamma characteristic of the second display device,
The image processing apparatus includes:
Recording means for recording the developed image;
Reverse gamma correction means for performing reverse gamma correction corresponding to the gamma characteristic of the second display device on the developed image;
Further comprising
The acquisition unit acquires the partial image from the developed image subjected to the inverse gamma correction.
An image processing apparatus.
前記拡大手段は、前記部分画像の輝度の平均値を中心として前記ダイナミックレンジを拡大する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the enlarging unit expands the dynamic range around an average value of luminance of the partial images.
前記拡大手段は、前記第1の表示装置のガンマ特性に対応するガンマ補正のためのガンマカーブを、前記ダイナミックレンジの拡大範囲と前記平均値とに基づいて変形することにより得られるガンマカーブを用いて、前記ダイナミックレンジを拡大する
ことを特徴とする請求項2に記載の画像処理装置。
The expansion means uses a gamma curve obtained by transforming a gamma curve for gamma correction corresponding to the gamma characteristic of the first display device based on the expansion range of the dynamic range and the average value. The image processing apparatus according to claim 2, wherein the dynamic range is expanded.
前記第1の表示装置のガンマ特性に対応するガンマ補正を前記逆ガンマ補正された現像画像に対して行うガンマ補正手段を更に備える
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The gamma correction part which performs the gamma correction corresponding to the gamma characteristic of the said 1st display apparatus with respect to the said reverse-gamma-corrected developed image is further provided. The Claim 1 thru | or 3 characterized by the above-mentioned. Image processing apparatus.
前記重畳手段により前記部分画像が重畳される現像画像として、前記現像手段が生成した現像画像又は前記逆ガンマ補正され前記ガンマ補正された現像画像を選択する選択手段を更に備える
ことを特徴とする請求項に記載の画像処理装置。
The development apparatus according to claim 1, further comprising: a selection unit that selects a development image generated by the development unit or the reverse gamma corrected and the gamma corrected development image as the development image on which the partial image is superimposed by the superimposition unit. Item 5. The image processing apparatus according to Item 4 .
前記重畳手段は、前記現像画像の前記特定の領域に前記部分画像を重畳する
ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The superposition unit, an image processing apparatus according to any one of claims 1 to 5, characterized in that superimposes the partial image in the specific area of the developed image.
前記重畳手段は、前記現像画像の前記特定の領域とは異なる領域に前記部分画像を重畳する
ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The superposition unit, an image processing apparatus according to any one of claims 1 to 5, characterized in that superimposes the partial image area different from the specific area of the developed image.
前記特定の領域を指定する指定手段を更に備える
ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 7, further comprising a specifying means for specifying the specific area.
前記取得手段は、複数の特定の領域それぞれから部分画像を取得する
ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The acquisition unit, an image processing apparatus according to any one of claims 1 to 8, characterized in that to obtain a partial image from each of a plurality of specific areas.
請求項1乃至のいずれか1項に記載の画像処理装置と、
前記撮像手段と、
を備えることを特徴とする撮像装置。
An image processing apparatus according to any one of claims 1 to 9 ,
The imaging means;
An imaging apparatus comprising:
画像処理装置による画像処理方法であって、
前記画像処理装置の現像手段が、撮像手段により生成された画像データを現像することにより現像画像を生成する現像工程と、
前記画像処理装置の取得手段が、前記現像画像の特定の領域から部分画像を取得する取得工程と、
前記画像処理装置の拡大手段が、前記取得した部分画像の輝度のダイナミックレンジを拡大する拡大工程と、
前記画像処理装置の重畳手段が、前記ダイナミックレンジが拡大された部分画像を前記現像画像に重畳する重畳工程と、
前記画像処理装置の出力手段が、前記部分画像が重畳された現像画像を第1の表示装置に出力する出力工程と、
を備え
前記現像工程による前記現像は、第2の表示装置のガンマ特性に対応するガンマ補正を含み、
前記画像処理方法は、
前記画像処理装置の記録手段が、前記現像画像を記録する記録工程と、
前記画像処理装置の逆ガンマ補正手段が、前記第2の表示装置のガンマ特性に対応する逆ガンマ補正を前記現像画像に対して行う逆ガンマ補正工程と、
を更に備え、
前記取得工程では、前記逆ガンマ補正された現像画像から前記部分画像を取得する
ことを特徴とする画像処理方法。
An image processing method by an image processing apparatus,
A developing step in which the developing unit of the image processing apparatus generates a developed image by developing the image data generated by the imaging unit;
An acquisition step in which the acquisition unit of the image processing apparatus acquires a partial image from a specific region of the developed image;
An enlarging step in which the enlarging means of the image processing device expands the dynamic range of the luminance of the acquired partial image;
A superimposing step in which the superimposing unit of the image processing apparatus superimposes the partial image with the expanded dynamic range on the developed image;
An output step in which the output means of the image processing device outputs the developed image on which the partial image is superimposed to the first display device;
Equipped with a,
The development by the development step includes gamma correction corresponding to the gamma characteristic of the second display device,
The image processing method includes:
A recording step in which the recording means of the image processing apparatus records the developed image; and
A reverse gamma correction step in which a reverse gamma correction unit of the image processing apparatus performs a reverse gamma correction corresponding to the gamma characteristic of the second display device on the developed image;
Further comprising
In the obtaining step, the partial image is obtained from the developed image subjected to the inverse gamma correction.
An image processing method.
コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 thru | or 9 . コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium storing a program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 9 .
JP2013158269A 2013-07-30 2013-07-30 Image processing apparatus, imaging apparatus, image processing method, program, and recording medium Expired - Fee Related JP6250970B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013158269A JP6250970B2 (en) 2013-07-30 2013-07-30 Image processing apparatus, imaging apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013158269A JP6250970B2 (en) 2013-07-30 2013-07-30 Image processing apparatus, imaging apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2015029225A JP2015029225A (en) 2015-02-12
JP6250970B2 true JP6250970B2 (en) 2017-12-20

Family

ID=52492663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013158269A Expired - Fee Related JP6250970B2 (en) 2013-07-30 2013-07-30 Image processing apparatus, imaging apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP6250970B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6628826B2 (en) * 2017-05-19 2020-01-15 キヤノン株式会社 Display device and display method
US10741131B2 (en) 2017-05-19 2020-08-11 Canon Kabushiki Kaisha Display apparatus and display method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0937110A (en) * 1995-07-24 1997-02-07 Sony Corp Image pickup device
JP3208324B2 (en) * 1996-05-31 2001-09-10 三洋電機株式会社 Digital still camera
JPH10191373A (en) * 1996-12-26 1998-07-21 Kyocera Corp Electronic camera
JP4359803B2 (en) * 2000-10-23 2009-11-11 ソニー株式会社 Imaging apparatus and method thereof
JP2008148180A (en) * 2006-12-13 2008-06-26 Sony Corp Imaging apparatus, image processing device and method, and computer program
JP5351663B2 (en) * 2009-08-31 2013-11-27 キヤノン株式会社 Imaging apparatus and control method thereof
JP5701729B2 (en) * 2011-09-30 2015-04-15 オリンパスイメージング株式会社 Imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
JP2015029225A (en) 2015-02-12

Similar Documents

Publication Publication Date Title
US8081242B2 (en) Imaging apparatus and imaging method
US9270888B2 (en) Image processing apparatus and control method thereof
JP5123137B2 (en) Imaging apparatus and imaging method
JP2007081685A (en) Image signal processor, image signal processing method, and image signal processing system
US7884866B2 (en) Imaging apparatus and imaging method
JP5223686B2 (en) Imaging apparatus and imaging method
JP2005347811A (en) White balance correction apparatus and white balance correction method, program and electronic camera apparatus
US8218021B2 (en) Image capture apparatus, method of controlling the same, and program
JP2007228099A (en) Imaging apparatus
JP6014349B2 (en) Imaging apparatus, control method, and program
JP6250970B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and recording medium
JP5277863B2 (en) Imaging apparatus and imaging method
JP2011091753A (en) Imaging apparatus, image processing apparatus, and program
JP2010154478A (en) Compound-eye imaging apparatus and method for generating combined image thereof
JP7123568B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP5545596B2 (en) Image input device
JP2010068331A (en) Imaging device and imaging method
JP5310331B2 (en) Imaging apparatus and imaging method
JP5952573B2 (en) Image processing apparatus and control method thereof
JP2015126416A (en) Image processing apparatus, control method, and program
US8854256B2 (en) Image capture apparatus and method of controlling the same
JP6083959B2 (en) Transmission apparatus, control method thereof, and control program
JP2015122585A (en) Image processing device, imaging device, image processing method, and program
JP6049481B2 (en) Imaging device
JP5914124B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171124

R151 Written notification of patent or utility model registration

Ref document number: 6250970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees