JP2019004230A - Image processing device and method, and imaging apparatus - Google Patents

Image processing device and method, and imaging apparatus Download PDF

Info

Publication number
JP2019004230A
JP2019004230A JP2017115407A JP2017115407A JP2019004230A JP 2019004230 A JP2019004230 A JP 2019004230A JP 2017115407 A JP2017115407 A JP 2017115407A JP 2017115407 A JP2017115407 A JP 2017115407A JP 2019004230 A JP2019004230 A JP 2019004230A
Authority
JP
Japan
Prior art keywords
luminance
image data
image
conversion
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017115407A
Other languages
Japanese (ja)
Inventor
洋明 梨澤
Hiroaki Nashizawa
洋明 梨澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017115407A priority Critical patent/JP2019004230A/en
Publication of JP2019004230A publication Critical patent/JP2019004230A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

To appropriately correct brightness of a subject near proper exposure in an image of a high dynamic range.SOLUTION: An image processing device comprises: first conversion means for converting image data into first image data of a first dynamic range; second conversion means for converting image data into second image data of a second dynamic range that is wider than the first dynamic range; first calculation means for calculating first luminance of a subject region in the first image data and second luminance of a predetermined region including the subject region; second calculation means for calculating third luminance of a subject region in the second image data and fourth luminance of a predetermined region; generation means which generates correction data for calculating target luminance of the subject region in the second image data based on the first, second and fourth luminance and converting the third luminance into the target luminance; and third conversion means which converts image data into third image data of the second dynamic range.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置及び方法、及び撮像装置に関し、特にHDR(高ダイナミックレンジ)画像を現像することが可能な画像処理装置及び方法、及び撮像装置に関するものである。   The present invention relates to an image processing apparatus and method, and an imaging apparatus, and more particularly to an image processing apparatus and method and an imaging apparatus capable of developing an HDR (High Dynamic Range) image.

近年では、ディスプレイのLED素子の進化などにより、黒を引き締め、高輝度をさらに高めることができ、画像の高ダイナミックレンジ(以下、「HDR」と記す。)な情報を圧縮することなくそのまま表示することができるようになってきている。一方で、HDRディスプレイよりもダイナミックレンジが狭い(以下、「SDR」と記す。)従来のSDRディスプレイも引き続き使用されており、暫くはSDRディスプレイとHDRディスプレイとが混在して使用されることが予想される。そのため、撮像装置としてはSDRディスプレイ用のコンテンツとしての従来の現像方法と、HDRディスプレイ用のコンテンツとしてのHDR用の現像方法を両方備えていく必要がある。   In recent years, due to the evolution of LED elements of the display, etc., black can be tightened and the high luminance can be further enhanced, and the high dynamic range (hereinafter referred to as “HDR”) information of the image is displayed as it is without being compressed. It has become possible to do. On the other hand, the conventional SDR display has a narrower dynamic range than the HDR display (hereinafter referred to as “SDR”), and it is expected that the SDR display and the HDR display will be used for a while. Is done. Therefore, it is necessary for the imaging apparatus to have both a conventional development method as the content for the SDR display and an HDR development method as the content for the HDR display.

HDRディスプレイは、SDRディスプレイでは従来コントラストが下がってしまっていた青空の雲の階調や、夜景のネオンなどの風景をリアルに再現できる一方で、明るい部分が明るいほど、相対的に主被写体が暗く知覚されてしまうという特徴も併せ持つ。例えば、図14(a)は、従来のSDRディスプレイによる表示例を示した図であり、主被写体である建物は適正露出、例えば18nits、空は100nitsと仮定する。一方の図14(b)は、HDRディスプレイによる表示例を示した図であり、主被写体である建物はSDRディスプレイと同等の18nitsであるが、空は400nitsとする。すると、図14(a)と図14(b)における主被写体である建物は、物理的には同じ輝度で表示されているが、人間の視覚では図14(b)の建物の方が暗く感じてしまう場合がある。   The HDR display can realistically reproduce landscapes such as the gradation of blue sky clouds and neon nightscapes, which had previously decreased in contrast with the SDR display, while the brighter the brighter the part, the darker the main subject becomes. It also has the feature of being perceived. For example, FIG. 14A is a diagram showing a display example using a conventional SDR display, and it is assumed that the building as the main subject is properly exposed, for example, 18 nits, and the sky is 100 nits. On the other hand, FIG. 14B is a diagram showing a display example on the HDR display. The building as the main subject has 18 nits equivalent to the SDR display, but the sky is 400 nits. Then, although the building which is the main subject in FIGS. 14A and 14B is physically displayed with the same luminance, the building in FIG. 14B feels darker in human vision. May end up.

これは、人間の視覚特性である色彩対比の中の空間的に接する同時対比に起因するものであると考えられる。同時対比には、図14で示した明度対比の他に、彩度の高い色に囲まれた色は彩度が低下して見える彩度対比もある。この現象は明暗差がより強調される現象であるため、リアルなHDR画質として好ましいシーンがある一方で、主被写体の明るさ、特に人物の顔などが暗くなった場合には、必ずしも好ましいとは限らないシーンがあるという懸念が生じる。   This is considered to be caused by the simultaneous contrast of spatial contact in the color contrast that is human visual characteristics. In addition to the lightness contrast shown in FIG. 14, the simultaneous contrast includes a saturation contrast in which a color surrounded by a highly saturated color appears to have a decreased saturation. Since this phenomenon is a phenomenon in which the contrast is more emphasized, there is a scene that is preferable as a realistic HDR image quality, but it is not necessarily preferable when the brightness of the main subject, particularly the face of a person, becomes dark. There is concern that there are unlimited scenes.

特許文献1では、撮像装置のダイナミックレンジよりも出力装置のダイナミックレンジが狭いときに、大局輝度に基づいて圧縮することにより、コントラストを維持した補正方法が開示されている。   Patent Document 1 discloses a correction method that maintains the contrast by compressing based on the overall luminance when the dynamic range of the output device is narrower than the dynamic range of the imaging device.

特許第4687320号公報Japanese Patent No. 4687320

しかしながら、特許文献1に開示された従来技術は、基本的にダイナミックレンジが広い画像データから狭い画像データへの圧縮方法であり、且つ基本的な概念のみの言及に留まっており、人間の視覚特性を考慮したものではない。   However, the prior art disclosed in Patent Document 1 is basically a compression method from image data with a wide dynamic range to narrow image data, and only mentions the basic concept, and human visual characteristics. Is not taken into account.

本発明は上記問題点を鑑みてなされたものであり、高ダイナミックレンジの画像において、適正露出近辺の被写体の明るさを好適に補正することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to suitably correct the brightness of a subject in the vicinity of proper exposure in an image with a high dynamic range.

上記目的を達成するために、本発明の画像処理装置は、撮影して得られた画像データを、第1のダイナミックレンジの第1の画像データに変換する第1の変換手段と、前記画像データを、前記第1のダイナミックレンジよりも広い、第2のダイナミックレンジの第2の画像データに変換する第2の変換手段と、前記第1の画像データにおける被写体領域の第1の輝度と、前記被写体領域を含む所定領域の第2の輝度とを算出する第1の算出手段と、前記第2の画像データにおける前記被写体領域の第3輝度と、前記所定領域の第4の輝度とを算出する第2の算出手段と、前記第1の輝度、前記第2の輝度、前記第4の輝度に基づいて、前記第2の画像データにおける前記被写体領域の目標輝度を算出し、前記第3の輝度を前記目標輝度に変換する補正データを生成する生成手段と、前記補正データを用いて、前記画像データを前記第2のダイナミックレンジの第3の画像データに変換する第3の変換手段と、を有する。   In order to achieve the above object, an image processing apparatus according to the present invention includes first conversion means for converting image data obtained by photographing into first image data having a first dynamic range, and the image data. The second conversion means for converting the second dynamic range to the second image data of the second dynamic range, which is wider than the first dynamic range, the first luminance of the subject area in the first image data, First calculation means for calculating a second luminance of a predetermined area including the subject area, a third luminance of the subject area in the second image data, and a fourth luminance of the predetermined area. Based on the second calculation means, the first luminance, the second luminance, and the fourth luminance, the target luminance of the subject area in the second image data is calculated, and the third luminance is calculated. Is converted to the target brightness That has a generation means for generating correction data by using the correction data, the third conversion means for converting the image data into third image data of the second dynamic range, the.

本発明によれば、高ダイナミックレンジの画像において、適正露出近辺の被写体の明るさを好適に補正することが可能となる。   According to the present invention, it is possible to suitably correct the brightness of a subject in the vicinity of proper exposure in an image with a high dynamic range.

一般的な交換レンズ式のデジタル一眼レフカメラの概略構成を示す断面図。Sectional drawing which shows schematic structure of a common interchangeable lens type digital single-lens reflex camera. 本発明の実施形態におけるカメラ本体と交換レンズの電気回路の構成例を示すブロック図。FIG. 2 is a block diagram illustrating a configuration example of an electric circuit of a camera body and an interchangeable lens according to an embodiment of the present invention. SDR及びHDRのシーンと主被写体の領域を示した図。The figure which showed the area | region of the SDR and HDR scene and the main subject. 第1及び第2の実施形態における現像処理を示すフローチャート。7 is a flowchart showing development processing in the first and second embodiments. 第1及び第2の実施形態における信号処理回路の機能構成及びデータの流れを示すブロック図。The block diagram which shows the function structure of the signal processing circuit in 1st and 2nd embodiment, and the flow of data. 第1の実施形態における画像を複数のブロックに分割した一例を示す図。The figure which shows an example which divided | segmented the image in 1st Embodiment into the some block. 人物の顔の検出結果の一例を示す図。The figure which shows an example of the detection result of a person's face. SMPTE ST2084で規格化されているPQ(Perceptual Quantization)のEOTF特性を示す図。The figure which shows the EOTF characteristic of PQ (Perceptual Quantization) standardized by SMPTE ST2084. 第1の実施形態における階調補正データの特性を示した図。The figure which showed the characteristic of the gradation correction data in 1st Embodiment. HDRのシーンにおける高輝度の領域の例を示した図。The figure which showed the example of the high-intensity area | region in the HDR scene. 第2の実施形態における階調補正データの特性を示した図。The figure which showed the characteristic of the gradation correction data in 2nd Embodiment. 第3の実施形態における信号処理回路の機能構成及びデータの流れを示すブロック図。The block diagram which shows the function structure of the signal processing circuit in 3rd Embodiment, and the flow of data. SDRディスプレイによるの観賞条件の設定例を示した図。The figure which showed the example of a setting of viewing conditions by a SDR display. SDRディスプレイとHDRディスプレイでの見えの違いのイメージを示す図。The figure which shows the image of the difference in appearance by a SDR display and a HDR display.

以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。ただし、本形態において例示される構成部品の寸法、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、本発明がそれらの例示に限定されるものではない。また、以下の実施形態においては、本発明に係る撮像装置の一例として、デジタルカメラについて説明するが、本発明はデジタルカメラのような撮影を主目的とした機器に限らない。例えば、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. However, the dimensions, shapes, relative arrangements, and the like of the components exemplified in the present embodiment should be changed as appropriate according to the configuration of the apparatus to which the present invention is applied and various conditions. It is not limited to. In the following embodiments, a digital camera will be described as an example of an imaging apparatus according to the present invention. However, the present invention is not limited to a device mainly intended for shooting such as a digital camera. For example, the present invention can be applied to any device that has a built-in or externally connected imaging device, such as a mobile phone, personal computer (laptop type, desktop type, tablet type, etc.), game machine, and the like. Therefore, the “imaging device” in this specification includes any electronic device having an imaging function.

図1は、本発明の実施形態の交換レンズ式のデジタル一眼レフカメラにおいて、主として光学部材やセンサ等の配置を示す断面図である。本実施形態におけるカメラはレンズ交換可能な所謂デジタル一眼レフカメラであり、カメラ本体1と交換レンズ2を有している。交換レンズ2はカメラ本体1に設けられたレンズマウントの接点を通じ、必要に応じてカメラ本体1と情報通信を行う。   FIG. 1 is a cross-sectional view mainly showing the arrangement of optical members, sensors and the like in an interchangeable lens type digital single-lens reflex camera according to an embodiment of the present invention. The camera in the present embodiment is a so-called digital single-lens reflex camera capable of exchanging lenses, and has a camera body 1 and an interchangeable lens 2. The interchangeable lens 2 performs information communication with the camera body 1 as necessary through a contact point of a lens mount provided in the camera body 1.

カメラ本体1において、撮像素子10は、例えばCMOSイメージセンサやCCDイメージセンサ等であって、複数の画素(蓄積型光電変換素子)が受光部に配列されている。なお、撮像素子10においては、受光部に配列される画素以外に、画素信号の増幅回路や信号処理用の周辺回路などが形成されている。撮像素子10の前方近傍に設けられたメカニカルシャッター11は、撮像素子10の露出タイミング及び露出時間を制御する。   In the camera body 1, the image sensor 10 is, for example, a CMOS image sensor, a CCD image sensor, or the like, and a plurality of pixels (storage type photoelectric conversion elements) are arranged in the light receiving unit. In the imaging device 10, in addition to the pixels arranged in the light receiving unit, an amplification circuit for pixel signals, a peripheral circuit for signal processing, and the like are formed. A mechanical shutter 11 provided near the front of the image sensor 10 controls the exposure timing and exposure time of the image sensor 10.

半透過性の主ミラー3と、主ミラー3の背面に配置された第1の反射ミラー7は、撮影時には上部に跳ね上がり、撮影光路から退避する。第2の反射ミラー8は、第1の反射ミラー7が反射した光束をさらに反射し、焦点検出用センサ(AFセンサ)9に入射させる。AFセンサ9は、例えば画素数が撮像素子10よりも少ない撮像素子であってよい。第1の反射ミラー7、第2の反射ミラー8及びAFセンサ9は、撮影画面内の任意の位置で位相差検出方式の焦点検出を行うための構成である。   The semi-transparent main mirror 3 and the first reflecting mirror 7 disposed on the back surface of the main mirror 3 jump up to the upper side at the time of photographing and retreat from the photographing optical path. The second reflecting mirror 8 further reflects the light beam reflected by the first reflecting mirror 7 and makes it incident on a focus detection sensor (AF sensor) 9. The AF sensor 9 may be an image sensor having a smaller number of pixels than the image sensor 10, for example. The first reflection mirror 7, the second reflection mirror 8, and the AF sensor 9 are configured to perform focus detection by a phase difference detection method at an arbitrary position in the shooting screen.

測光用センサ(AEセンサ)6は、ペンタプリズム4及び第3の反射ミラー5で反射された撮影画面の像を受光する。AEセンサ6は、受光部を任意の複数の領域に分割し、分割領域ごとに被写体の輝度情報を出力することができる。   The photometric sensor (AE sensor) 6 receives the image of the photographing screen reflected by the pentaprism 4 and the third reflecting mirror 5. The AE sensor 6 can divide the light receiving unit into a plurality of arbitrary areas and output luminance information of the subject for each divided area.

ペンタプリズム4によってファインダー光学系が構成され、ペンタプリズム4で反射された被写体像は、不図示のアイピースから観察することができる。AEセンサ6には、主ミラー3によって反射されてピント板12によって拡散された光線のうち、光軸外の一部が入射する。なお、ライブビュー表示及び動画記録時には、常時主ミラー3が上部に跳ね上がった状態となるため、露出制御や焦点調節制御は撮像面の画像情報を使用して行うこととなる。   The finder optical system is constituted by the pentaprism 4, and the subject image reflected by the pentaprism 4 can be observed from an eyepiece (not shown). Of the light beam reflected by the main mirror 3 and diffused by the focus plate 12, a part outside the optical axis is incident on the AE sensor 6. Note that, during live view display and moving image recording, the main mirror 3 is always in a state of jumping upward, so that exposure control and focus adjustment control are performed using image information on the imaging surface.

図2は、図1に示したカメラ本体1と交換レンズ2の電気回路の構成例を示すブロック図である。制御部21は、例えば、内部にALU(Arithmetic and Logic Unit)21c、ROM21d、RAM21e、A/Dコンバータ21a、タイマー21b、シリアル通信ポート(SPI)21f等を内蔵したワンチップマイクロコンピュータである。制御部21は、例えばROM21dに記憶されたプログラムを実行することにより、カメラ本体1及び交換レンズ2の動作を制御する。なお、制御部21の具体的な動作については後述する。   FIG. 2 is a block diagram showing a configuration example of an electric circuit of the camera body 1 and the interchangeable lens 2 shown in FIG. The control unit 21 is, for example, a one-chip microcomputer in which an ALU (Arithmetic and Logic Unit) 21c, a ROM 21d, a RAM 21e, an A / D converter 21a, a timer 21b, a serial communication port (SPI) 21f, and the like are incorporated. The control unit 21 controls the operations of the camera body 1 and the interchangeable lens 2 by executing a program stored in the ROM 21d, for example. The specific operation of the control unit 21 will be described later.

AFセンサ9及びAEセンサ6の出力信号は、制御部21のA/Dコンバータ21aの入力端子に接続され、制御部21はA/Dされた信号に基づいて、AF処理、AE処理を行う。   The output signals of the AF sensor 9 and the AE sensor 6 are connected to the input terminal of the A / D converter 21a of the control unit 21, and the control unit 21 performs AF processing and AE processing based on the A / D signal.

信号処理回路25は、制御部21の指示に従って撮像素子10を制御し、撮像素子10が出力する信号にA/D変換及び信号処理を適用し、画像信号を得る。また信号処理回路25は、得られた画像信号を記録するにあたって、圧縮・合成等の必要な画像処理を行う。メモリ28は、DRAM等であり、信号処理回路25が種々の信号処理を行う際のワーク用メモリとして使われたり、後述する表示器27に画像を表示する際のVRAMとして使われたりする。   The signal processing circuit 25 controls the image sensor 10 in accordance with an instruction from the control unit 21 and applies A / D conversion and signal processing to a signal output from the image sensor 10 to obtain an image signal. Further, the signal processing circuit 25 performs necessary image processing such as compression / combination when recording the obtained image signal. The memory 28 is a DRAM or the like, and is used as a work memory when the signal processing circuit 25 performs various signal processing, or as a VRAM when displaying an image on the display 27 described later.

表示器27は、背面液晶ディスプレイや、HDMI(登録商標)等の規格で外部ディスプレイで接続されることを想定しており、カメラの設定値やメッセージ、メニュー画面等の情報や撮像画像を表示する。表示器27は制御部21からの指示により制御される。記憶部26は、例えばフラッシュメモリ等の不揮発性メモリであり、撮像された画像信号が信号処理回路25から入力される。   The display 27 is assumed to be connected to an external display in accordance with a standard such as a rear liquid crystal display or HDMI (registered trademark), and displays information such as camera setting values, messages, menu screens, and captured images. . The display 27 is controlled by an instruction from the control unit 21. The storage unit 26 is a non-volatile memory such as a flash memory, for example, and a captured image signal is input from the signal processing circuit 25.

モーター22は、制御部21の制御に従い、主ミラー3及び第1の反射ミラー7のアップ・ダウンや、メカニカルシャッター11のチャージを行う。操作部23は、ユーザがカメラを操作するために用いるスイッチなどの入力デバイス群であり、撮影準備動作の開始および撮影開始を指示するためのレリーズスイッチや、撮影モードを選択するための撮影モード選択スイッチ、方向キー、決定キー等が含まれる。接点部29は交換レンズ2と通信を行うための接点であり、制御部21のシリアル通信ポートの入出力信号が接続される。シャッター駆動部24は制御部21の出力端子に接続されてメカニカルシャッター11を駆動する。   The motor 22 performs up / down of the main mirror 3 and the first reflecting mirror 7 and charges the mechanical shutter 11 under the control of the control unit 21. The operation unit 23 is an input device group such as a switch used by the user to operate the camera. The operation unit 23 is a release switch for instructing the start of shooting preparation operation and the start of shooting, and a shooting mode selection for selecting a shooting mode. Switches, direction keys, enter keys, etc. are included. The contact part 29 is a contact for communicating with the interchangeable lens 2 and is connected to an input / output signal of the serial communication port of the control part 21. The shutter drive unit 24 is connected to the output terminal of the control unit 21 and drives the mechanical shutter 11.

交換レンズ2には、接点部29と対をなす接点部50が設けられている。接点部50には、制御部21と同様のワンチップマイクロコンピュータであるレンズ制御部51が接続され、制御部21との通信が可能である。レンズ制御部51は、例えばROMに記憶されたプログラムを実行し、制御部21からの指示に基づいて交換レンズ2の動作を制御する。また、交換レンズ2の状態などの情報を、制御部21に通知する。フォーカスレンズ駆動部52はレンズ制御部51の出力端子に接続され、フォーカスレンズを駆動する。ズーム駆動部53は、レンズ制御部51の制御に従い、交換レンズの画角を変更する。絞り駆動部54は、レンズ制御部51の制御に従い、絞りの開口量を調整する。   The interchangeable lens 2 is provided with a contact portion 50 that makes a pair with the contact portion 29. A lens control unit 51, which is a one-chip microcomputer similar to the control unit 21, is connected to the contact unit 50, and communication with the control unit 21 is possible. For example, the lens control unit 51 executes a program stored in the ROM, and controls the operation of the interchangeable lens 2 based on an instruction from the control unit 21. Further, the controller 21 is notified of information such as the state of the interchangeable lens 2. The focus lens driving unit 52 is connected to the output terminal of the lens control unit 51 and drives the focus lens. The zoom drive unit 53 changes the angle of view of the interchangeable lens according to the control of the lens control unit 51. The aperture driving unit 54 adjusts the aperture amount of the aperture according to the control of the lens control unit 51.

交換レンズ2がカメラ本体1に装着されると、接点部29,50を介して、レンズ制御部51とカメラ本体の制御部21とがデータ通信可能となる。また、接点部29,50を通じて交換レンズ2内のモータやアクチュエータを駆動するための電力も供給される。カメラ本体1の制御部21が焦点検出や露出演算を行うために必要なレンズ固有の光学的な情報や、距離エンコーダに基づいた被写体距離に関する情報等が、交換レンズ2からカメラ本体1の制御部21へとデータ通信によって出力される。また、カメラ本体1の制御部21が焦点検出や露出演算を行った結果求められた焦点調節情報や絞り情報は、制御部21から交換レンズ2へとデータ通信によって出力される。レンズ制御部51は、得られた焦点調節情報や絞り情報に従って、フォーカスレンズや絞り等を制御する。   When the interchangeable lens 2 is attached to the camera body 1, the lens control unit 51 and the control unit 21 of the camera body can communicate data via the contact parts 29 and 50. Further, electric power for driving the motor and actuator in the interchangeable lens 2 is also supplied through the contact portions 29 and 50. Lens-specific optical information necessary for the control unit 21 of the camera body 1 to perform focus detection and exposure calculation, information on the subject distance based on the distance encoder, and the like from the interchangeable lens 2 to the control unit of the camera body 1 21 is output by data communication. In addition, focus adjustment information and aperture information obtained as a result of focus detection and exposure calculation performed by the control unit 21 of the camera body 1 are output from the control unit 21 to the interchangeable lens 2 by data communication. The lens control unit 51 controls the focus lens, the aperture, and the like according to the obtained focus adjustment information and aperture information.

さて、上述した撮像装置により得られた画像を表示する際に、SDRディスプレイとHDRディスプレイとで最大輝度が変わっても主被写体である中間調の輝度が同程度であるように知覚するためには、以下に説明する関係であることが条件となる。まず、図3(a)に示すSDRのシーンa1(所定領域、画像全体)の平均輝度をAveSBSDR、主被写体a2の平均輝度をAveOBSDR、図3(b)に示すHDRのシーンb1の平均輝度をAveSBHDR、主被写体b2の平均輝度をAveOBHDRとする。この時、明るさの感覚は、ヴェーバー-フェヒナーの法則により、以下の式(1)に示すように輝度の対数に比例する。 Now, when displaying the image obtained by the above-mentioned imaging device, in order to perceive that the luminance of the halftone as the main subject is the same even if the maximum luminance changes between the SDR display and the HDR display. The condition described below is a condition. First, the average of 3 scene a1 (predetermined region, the entire image) of SDR shown in (a) the average luminance AveSB SDR of the average luminance AveOB SDR of the main object a2, HDR scenes b1 shown in FIG. 3 (b) The brightness is AveSB HDR and the average brightness of the main subject b2 is AveOB HDR . At this time, the sensation of brightness is proportional to the logarithm of luminance as shown in the following equation (1) according to the Weber-Fechner law.

なお、ここでは、輝度として平均輝度を用いるが、これは、輝度として最大輝度を用いてしまうと、例えば夜景などの点光源のように、面積が小さい割に高輝度だった場合に、次のような弊害が発生することが予想されるためである。すなわち、点光源の輝度に強く引っ張られ、大きくゲインアップさせるような補正になってしまい、HDRの効果である高コントラストが逆に失われてしまう、という弊害である。
上記式(1)においてAveOBHDRはHDRの被写体領域の平均輝度、即ち目標とする輝度であり、式(1)を変形して
Here, the average luminance is used as the luminance. However, if the maximum luminance is used as the luminance, for example, a point light source such as a night view has a high luminance for a small area. This is because such an adverse effect is expected to occur. That is, there is a detrimental effect that the high contrast, which is the effect of HDR, is lost on the contrary, because the correction is such that it is strongly pulled by the brightness of the point light source and the gain is greatly increased.
In the above equation (1), AveOB HDR is the average luminance of the HDR subject area, that is, the target luminance.

により求めることができる。具体的には、SDRの輝度は一般的なSDRディスプレイの観賞時のディスプレイ特性を、また、HDRの輝度はHDRディスプレイの観賞時のディスプレイ特性を考慮して設定することが望ましい。この点については詳細に後述する。 It can ask for. Specifically, it is desirable to set the luminance of SDR in consideration of display characteristics at the time of viewing a general SDR display, and the brightness of HDR in consideration of display characteristics at the time of viewing of an HDR display. This point will be described in detail later.

<第1の実施形態>
以下、本発明の第1の実施形態における具体的な動作について説明する。図1の操作部23に含まれる電源スイッチがオンされることなどにより制御部21が動作可能になると、まず、制御部21は交換レンズ2のレンズ制御部51と通信を行い、焦点検出や測光に必要な各種レンズの情報を得るなどの初期化処理を行う。
<First Embodiment>
Hereinafter, specific operations in the first embodiment of the present invention will be described. When the control unit 21 becomes operable, for example, when a power switch included in the operation unit 23 of FIG. 1 is turned on, the control unit 21 first communicates with the lens control unit 51 of the interchangeable lens 2 to perform focus detection and photometry. Initialization processing such as obtaining information on various lenses necessary for the operation.

次に、操作部23に含まれるシャッタースイッチの状態を監視し、シャッタースイッチの操作途中(例えば半押し)によりSW1がONとなると、AF(オートフォーカス)処理、AE(自動露出)処理の動作開始を指示する。その後、シャッタースイッチの操作完了(例えば全押し)でSW2がONとなると、露光処理、現像処理、及び記録処理からなる一連の処理開始を指示する。露光処理において、被写体からの光(被写体像)は交換レンズ2の結像光学系を経て、撮像素子10上に結像する。撮像素子10は、例えば、一般的な原色カラーフィルタを備える単板カラー撮像素子とする。原色カラーフィルタは、各々650nm、550nm、450nm近傍に透過主波長帯を持つ3種類の色フィルタからなり、各々R(赤)、G(緑)、B(青)の各バンドに対応する色プレーンの画像を撮影する。単板カラー撮像素子では、この色フィルタを画素毎に空間的に配列し、各画素では各々単一の色プレーンにおける強度が得られる。そのため、撮像素子10からは色モザイク画像(撮影RAW画像)が出力される。   Next, the state of the shutter switch included in the operation unit 23 is monitored, and when SW1 is turned on during the operation of the shutter switch (for example, half-pressed), the operation of AF (autofocus) processing and AE (automatic exposure) processing starts. Instruct. Thereafter, when SW2 is turned on upon completion of the operation of the shutter switch (for example, fully pressed), a start of a series of processes including an exposure process, a development process, and a recording process is instructed. In the exposure process, light from the subject (subject image) forms an image on the image sensor 10 through the imaging optical system of the interchangeable lens 2. The image sensor 10 is, for example, a single plate color image sensor including a general primary color filter. The primary color filter is composed of three types of color filters each having a transmission main wavelength band in the vicinity of 650 nm, 550 nm, and 450 nm, and each color plane corresponds to each band of R (red), G (green), and B (blue). Take a picture of. In a single-plate color image sensor, this color filter is spatially arranged for each pixel, and each pixel can obtain an intensity in a single color plane. Therefore, a color mosaic image (captured RAW image) is output from the image sensor 10.

次の現像処理において、撮像素子10から出力された撮影RAW画像の現像を行う。ここで、図4のフローチャート及び図5のブロック図を参照して、撮影RAW画像101に対する、本第1の実施形態における現像処理について説明する。なお、以下に説明する現像処理は、特に記載しない場合には、信号処理回路25が実施するものとする。ただし、以下に説明する現像処理の一部を、制御部21と共同して行うようにすることも可能である。   In the next development process, the photographic RAW image output from the image sensor 10 is developed. Here, with reference to the flowchart in FIG. 4 and the block diagram in FIG. 5, the development processing in the first embodiment for the captured RAW image 101 will be described. Note that the development processing described below is performed by the signal processing circuit 25 unless otherwise specified. However, part of the development processing described below can be performed in cooperation with the control unit 21.

まず、S10におけるSDR現像処理と、S11におけるHDR現像処理について説明する。ホワイトバランス部102では、白として検出された画素の信号を、白を表す信号に補正するホワイトバランス処理が行われる。具体的には、撮影RAW画像データを構成する各画素のRGBデータを、例えばxy色空間等の所定の色空間にプロットする。その結果、その色空間上で光源色の可能性が高い黒体輻射軌跡付近にプロットされたデータのR,G,Bを積分し、その積分値からR及びB成分のホワイトバランス係数G/R及びG/Bを求める。以上の処理により生成されたホワイトバランス係数を用いて、ホワイトバランス処理を実施する。   First, the SDR development process in S10 and the HDR development process in S11 will be described. In the white balance unit 102, white balance processing is performed to correct a pixel signal detected as white to a signal representing white. Specifically, the RGB data of each pixel constituting the captured RAW image data is plotted in a predetermined color space such as an xy color space. As a result, R, G, and B of data plotted in the vicinity of a black body radiation locus having a high possibility of a light source color in the color space are integrated, and the white balance coefficient G / R of the R and B components from the integrated value. And G / B are obtained. White balance processing is performed using the white balance coefficient generated by the above processing.

色補間部103では、色モザイク画像を補間することによって、全ての画素においてR、G、Bの色情報が揃ったカラー画像を生成する。生成されたカラー画像は、マトリクス変換部104、第1のガンマ変換部105及び第2のガンマ変換部106を経て、基本的なカラー画像が生成される。第1のガンマ変換部105はSDRディスプレイ用の現像を想定しており、ガンマ特性としては基本的には一般的なモニタガンマの逆特性となる。一方で、第2のガンマ変換部106はHDRディスプレイ用の現像を想定しており、ガンマ特性としては、例えばSMPTE ST2084で規格化されているPQ(Perceptual Quantization)やARIB STD−B67で開発されたHLG(Hybrid Log Gamma)の電光変換特性(EOTF:Electro-Optical Transfer Function)の逆特性(光電変換特性、OETF:Optical-Electro Transfer Function)となる。すなわち、第1のガンマ変換部105で用いるガンマ特性に対応するモニタガンマ特性は、第2のガンマ変換部106で用いるガンマ特性に対応するモニタガンマ特性よりも、高輝度側の傾きがなだらかである。   The color interpolation unit 103 interpolates the color mosaic image to generate a color image in which R, G, and B color information are aligned in all pixels. A basic color image is generated from the generated color image through the matrix conversion unit 104, the first gamma conversion unit 105, and the second gamma conversion unit 106. The first gamma conversion unit 105 assumes development for an SDR display, and basically has a reverse characteristic of a general monitor gamma as a gamma characteristic. On the other hand, the second gamma conversion unit 106 is assumed to be developed for HDR display, and the gamma characteristic was developed by PQ (Perceptual Quantization) standardized by SMPTE ST2084 or ARIB STD-B67, for example. It is the reverse characteristic (photoelectric conversion characteristic, OETF: Optical-Electro Transfer Function) of the electro-optical conversion characteristic (EOTF) of HLG (Hybrid Log Gamma). That is, the monitor gamma characteristic corresponding to the gamma characteristic used in the first gamma conversion unit 105 has a gentler slope on the high luminance side than the monitor gamma characteristic corresponding to the gamma characteristic used in the second gamma conversion unit 106. .

その後、ガンマ変換したカラー画像に対し、第1の色輝度調整部107及び第2の色輝度調整部108で、画像の見栄えを改善するための色輝度調整処理が行われる。例えば、夕景を検出して彩度を強調するといった画像補正がシーンに応じて行われる。第1の色輝度調整部107及び第2の色輝度調整部108による色輝度調整処理が終わると現像処理が完了し、SDR現像画像109とHDR現像画像110が生成される。なお、図4では、S10でSDR現像後に、S11でHDR現像を行うものとして記載しているが、上述のように並行して行っても、処理順を逆にしても構わない。   Thereafter, the first color luminance adjustment unit 107 and the second color luminance adjustment unit 108 perform color luminance adjustment processing for improving the appearance of the image on the color image subjected to gamma conversion. For example, image correction such as detecting a sunset scene and enhancing saturation is performed according to the scene. When the color luminance adjustment processing by the first color luminance adjustment unit 107 and the second color luminance adjustment unit 108 is completed, the development processing is completed, and the SDR developed image 109 and the HDR developed image 110 are generated. In FIG. 4, it is described that HDR development is performed in S <b> 11 after SDR development in S <b> 10, but the processing order may be reversed or may be performed in parallel as described above.

次に、SDR輝度算出部111において、SDR現像画像109におけるシーンの平均輝度AveSBSDRを算出する(S12)。シーンの平均輝度は、例えば、次のようにして求める。まず、図6で示すように画像を複数のブロックに分けて、ブロック毎にRGB値を算出する。そして、全ブロックのRGB値の平均値を求めるが、この際に、全ブロックのRGB値を単純に平均しても良いし、画角の中心をピークとした空間的にガウス状に広がった重みを各ブロックに重畳してから、全ブロックの平均値(加重平均値)を取っても良い。その後、算出したRGB値の平均値を輝度値に換算するが、SDR静止画の基準環境として、一般的にはモニタガンマは暗部が直線で明部が2.4のべき乗として扱う。または簡易的に実質2.2のべき乗としても良い。式(3)及び(4)に、sRGB(D65)の時の例を示す。 Next, the SDR luminance calculation unit 111 calculates the average luminance AveSB SDR of the scene in the SDR developed image 109 (S12). The average luminance of the scene is obtained as follows, for example. First, as shown in FIG. 6, the image is divided into a plurality of blocks, and RGB values are calculated for each block. Then, the average value of the RGB values of all the blocks is obtained. At this time, the RGB values of all the blocks may be simply averaged, or the weight spread spatially in a Gaussian shape with the peak at the center of the angle of view. May be superposed on each block, and then the average value (weighted average value) of all blocks may be taken. Thereafter, the average value of the calculated RGB values is converted into a luminance value. As a reference environment for an SDR still image, the monitor gamma is generally treated as a power of 2.4 for the dark portion and the bright portion for the bright portion. Alternatively, it may be a simple power of 2.2. Expressions (3) and (4) show an example of sRGB (D65).

また、R,G,Bが最大値の時のYが最高輝度であり、これを100nitsとして、SDR観賞時のシーンの平均輝度値に換算する。 Also, when R, G, and B are maximum values, Y is the maximum luminance, which is converted to an average luminance value of the scene at the time of SDR viewing, assuming that this is 100 nits.

次に、SDRの主被写体の被写体領域の平均輝度AveOBSDRも同様にして算出する(S13)。主被写体の定義としては幾つか考えられるが、例えば、図7に示すように人物を主被写体とするケースが考えられる。人物の特定方法の代表的な方法としては顔を検出する方法があり、Haar−Like特徴量による顔識別など、公知の手法を用いて顔検出を行う。そのようにして特定した顔領域(例えば、図7内の点線領域内)の平均輝度を、前述したシーンの平均輝度と同様の算出方法で、SDR観賞時の被写体領域の平均輝度値として算出する。 Next, the average luminance AveOB SDR of the subject area of the main subject of the SDR is calculated in the same manner (S13). There are several possible definitions of the main subject. For example, as shown in FIG. 7, a case where a person is the main subject can be considered. As a representative method of identifying a person, there is a method of detecting a face, and face detection is performed using a known method such as face identification based on Haar-Like feature values. The average luminance of the face area thus identified (for example, within the dotted line area in FIG. 7) is calculated as the average luminance value of the subject area at the time of SDR viewing by the same calculation method as the average luminance of the scene described above. .

一方、HDR輝度算出部112において、SDRのシーンと同様にして、HDR現像画像110におけるシーンの平均輝度AveSBHDRを算出する(S14)。HDR観賞時のシーンの平均輝度値に換算する前段階、すなわち、RGB値の平均値まではSDRと同様の方法で算出するが、その後、HDR特性120を参照して、観賞時のシーンの平均輝度値に換算する。第2のガンマ変換部106でPQカーブを使用していた場合は、SMTPE ST2084で規格化されている以下の式(5)で示されるEOTF変換式を用いて絶対輝度Lを取得する。 On the other hand, the HDR luminance calculation unit 112 calculates the average luminance AveSB HDR of the scene in the HDR developed image 110 in the same manner as the SDR scene (S14). The previous stage of conversion to the average luminance value of the scene at the time of HDR viewing, that is, the average value of RGB values is calculated by the same method as the SDR. After that, referring to the HDR characteristic 120, the average of the scene at the time of viewing Convert to luminance value. When the PQ curve is used in the second gamma conversion unit 106, the absolute luminance L is acquired using the EOTF conversion equation represented by the following equation (5) standardized by SMTPE ST2084.

ここでNは入力信号レベル、m、m、c、c、cはパラメータである。図8は、PQのEOTF特性を示す図である。 Here, N is an input signal level, and m 1 , m 2 , c 1 , c 2 , and c 3 are parameters. FIG. 8 is a diagram showing the EOTF characteristics of PQ.

また、HDR現像画像110における被写体領域の平均輝度CurrentAveOBHDRもSDRと同様の方法で算出する(S15)。なお、平均輝度の算出方法として、一般的には算術平均が用いられるが、極小のピーク輝度に引っ張られる影響があるため、幾何平均を用いた方が人間の知覚にも相性が良く望ましい。 Also, the average luminance CurrentAveOB HDR of the subject area in the HDR developed image 110 is calculated by the same method as the SDR (S15). An arithmetic average is generally used as a method for calculating the average luminance. However, since there is an influence of being pulled by a minimum peak luminance, it is desirable that the geometric average is more compatible with human perception.

次に、補正データ算出部113において、算出されたSDRのシーンの平均輝度AveSBSDR、SDRの被写体領域の平均輝度AveOBSDR、HDRのシーンの平均輝度AveSBHDRから、目標となるHDRの被写体領域の平均輝度AveOBHDRを上述した式(2)を用いて算出する。その後、HDRの被写体領域の平均輝度CurrentAveOBHDRと、目標となるHDRの被写体領域の平均輝度AveOBHDRとから、階調補正データとして、例えば、図9に示すような特性を有する1次元のLUT(Look Up Table)を生成する(S16)。 Then, in the correction data calculation unit 113, the average luminance AveSB SDR of the calculated SDR scene, the average brightness AveOB SDR of SDR of the subject region, the average luminance AveSB HDR of HDR scenes, the the target HDR object area The average luminance AveOB HDR is calculated using the above equation (2). After that, for example, a one-dimensional LUT having characteristics as shown in FIG. 9 is used as tone correction data from the average luminance Current AVEOB HDR of the HDR subject region and the average luminance AveOB HDR of the target HDR subject region. Look Up Table) is generated (S16).

階調補正部114では、補正データ算出部113で算出された階調補正データ(LUT)を用いて、HDR現像画像110に対してLUT変換による階調補正を行う(S17)。変換に際しては、YUVのような輝度成分と色差成分が独立した色空間ではなく、RGBのような3原色に基づく色空間で変換を行った方が、明るさだけでなく、彩度の補正も同時に行われるため自然な補正が可能となる。以上の処理により、第1の実施形態における現像処理を終了する。   The gradation correction unit 114 performs gradation correction by LUT conversion on the HDR developed image 110 using the gradation correction data (LUT) calculated by the correction data calculation unit 113 (S17). In the conversion, not only the brightness component and the color difference component such as YUV but the color space based on the three primary colors, such as RGB, can be used to correct not only the brightness but also the saturation. Since correction is performed at the same time, natural correction is possible. With the above processing, the development processing in the first embodiment is completed.

その後、圧縮部115により補正されたHDR現像画像を圧縮し、記録部116により記録に適した画像データに変換して、最終的なHDR現像画像として出力する。なお、不図示ではあるが、SDRディスプレイ用にSDR現像画像を出力する場合には、第1の色輝度調整部107から出力されたSDR現像画像109を圧縮部115に入力し、記録部116により記録に適した画像データに変換すればよい。   Thereafter, the HDR developed image corrected by the compression unit 115 is compressed, converted into image data suitable for recording by the recording unit 116, and output as a final HDR developed image. Although not shown, when an SDR developed image is output for an SDR display, the SDR developed image 109 output from the first color luminance adjustment unit 107 is input to the compression unit 115, and is recorded by the recording unit 116. What is necessary is just to convert into image data suitable for recording.

以上説明したように第1の実施形態によれば、SDRのシーンの平均輝度及び主被写体輝度とHDRのシーンの平均輝度及び主被写体輝度に基づいて、HDRの主被写体の輝度を好適に補正することができる。   As described above, according to the first embodiment, the brightness of the HDR main subject is preferably corrected based on the average brightness and main subject brightness of the SDR scene and the average brightness and main subject brightness of the HDR scene. be able to.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。上述した第1の実施形態では、HDRの被写体領域の平均輝度と、目標となるHDRの被写体領域の平均輝度に基づいて階調補正を行っていた。これに対し、以下で説明する第2の実施形態では、高輝度のコントラストをなるべく維持するように、輝度が変わらない領域を階調補正時に加味した点が第1の実施形態と異なる。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment described above, tone correction is performed based on the average brightness of the HDR subject area and the average brightness of the target HDR subject area. On the other hand, the second embodiment described below is different from the first embodiment in that a region where the luminance does not change is added at the time of gradation correction so as to maintain a high luminance contrast as much as possible.

なお、第2の実施形態における現像処理の流れは、基本的には図4に示されるフローチャートと同じであり、また、現像処理を行う信号処理回路25の詳細についても図5と同様である。第1の実施形態と異なるのは、図5のHDR輝度算出部112において、HDRのシーンの平均輝度を算出する際に、図10の点線枠内の領域に示されるようなHDRのシーンの高輝度の平均輝度を算出する点である。高輝度の定義としては、例えば、SDRでの100%反射率である100nitsを閾値として、この閾値以上の輝度を高輝度とする。なお、この閾値は適宜定めればよい。具体的には、第1の実施形態のHDRのシーンの平均輝度算出と同様の処理を行えばよいが、式(5)で算出されたブロック毎の絶対輝度のうち、第2の実施形態では、更に、予め設定しておいた高輝度領域の閾値(例えば100nits)を越えたブロックのみから平均輝度を取得する。   Note that the flow of the development processing in the second embodiment is basically the same as the flowchart shown in FIG. 4, and the details of the signal processing circuit 25 that performs the development processing are the same as those in FIG. The difference from the first embodiment is that when the HDR luminance calculation unit 112 in FIG. 5 calculates the average luminance of the HDR scene, the high level of the HDR scene as shown in the area within the dotted frame in FIG. This is a point for calculating the average luminance. As the definition of high luminance, for example, 100 nits, which is 100% reflectance in SDR, is set as a threshold, and luminance equal to or higher than this threshold is set as high luminance. In addition, what is necessary is just to set this threshold value suitably. Specifically, the same processing as the calculation of the average luminance of the HDR scene of the first embodiment may be performed, but of the absolute luminance for each block calculated by the equation (5), in the second embodiment, Further, the average luminance is acquired only from the blocks that exceed a preset threshold value (for example, 100 nits) of the high luminance region.

以上のようにして求めたHDRの高輝度領域の平均輝度AveHiHDRを不動点として、これよりも高輝度側を補正しない、図11で示すような階調補正特性を生成し、階調補正部114で適用する。第2の実施形態における懸念点としては、HDRの被写体領域の目標平均輝度AveOBHDRとHDRの高輝度領域の平均輝度AveHiHDRの輝度差が小さいシーンの場合、図11に示す1次元のLUTによる変換ではコントラストが低下してしまうことが挙げられる。そこで、計算時間はかかるが、例えば、1次元のLUTではなくて、Retinexなどに代表されるローカルトーンマッピングの手法により、局所コントラストを維持したまま階調補正をする手法を用いても構わない。 As the fixed point the average luminance AveHi HDR a high brightness region of the HDR obtained as described above does not correct the high-brightness side than this, it generates a tone correction characteristic shown in Figure 11, the tone correction section Apply at 114. The concern in the second embodiment, when the average brightness AveHi luminance difference is small scene HDR high luminance region of the target average luminance AveOB HDR and HDR of the subject region of HDR, due to one-dimensional LUT shown in FIG. 11 It can be mentioned that the conversion reduces the contrast. Therefore, although it takes a long calculation time, for example, instead of a one-dimensional LUT, a method of correcting gradation while maintaining local contrast by a local tone mapping method represented by Retinex or the like may be used.

上記の通り本第2の実施形態によれば、第1の実施形態に比べて、HDRで拡大した高輝度のコントラストを維持しつつ、主被写体を目標輝度まで上げることができる。   As described above, according to the second embodiment, it is possible to raise the main subject to the target luminance while maintaining the high-brightness contrast enlarged by HDR as compared with the first embodiment.

<第3の実施形態>
次に、本発明の第3の実施形態について説明する。第1の実施形態および第2の実施形態では、SDRディスプレイの最高輝度として100nitsを想定していたが、市場にはSDRでも500nitsなど明るい輝度に対応したものがあり、実使用上100nitsの想定では暗く感じてしまう場合がある。これに対して、第3の実施形態では、SDRディスプレイの最高輝度を外部設定とし、またHDRディスプレイでの適正露出をSDRディスプレイの最高輝度に基づいて設定させる点が第1及び第2の実施形態と異なる。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. In the first embodiment and the second embodiment, 100 nits is assumed as the maximum brightness of the SDR display. However, there is a SDR display that supports bright brightness such as 500 nits, and the actual use is assumed to be 100 nits. It may feel dark. On the other hand, in the third embodiment, the highest brightness of the SDR display is set as an external setting, and the appropriate exposure in the HDR display is set based on the highest brightness of the SDR display. And different.

図12は、第3の実施形態における信号処理回路の機能構成を示すブロック図である。第1の実施形態で説明した図5と比較して、SDR特性118が追加されている。また、詳細は後述するが、第3の実施形態では、補正データ算出部113により生成された階調補正データを用いて、第3のガンマ変換部121によりHDRディスプレイ用のガンマ変換を行う。第3の実施形態では、図2の操作部23を介して図13のようにSDRの白色点の輝度、色温度、ガンマなどを設定し、その結果を図12のSDR特性118として保持しておく。そして、SDR輝度算出部111において、式(3)で用いるガンマ値に、ユーザー設定のガンマを参照する。同様に、式(4)で用いるRGBからXYZへの変換マトリクス係数にユーザー設定の白色点の色温度を参照し、更に、算出したY値から絶対輝度への算出にユーザー設定の輝度値を参照することで、実際の想定使用に応じたSDR輝度の算出が可能となる。ユーザー設定された、SDRのピーク信号値である100%に対応付けられた最高輝度を、HDR輝度算出部112にも反映する必要がある。例えば、適正露出である18%に対応する絶対輝度をHDRでも維持するように補正データ算出部113で階調補正データを算出することで、SDRとHDRの適正露出付近の被写体の感覚的な明るさを同等とすることが可能となる。   FIG. 12 is a block diagram illustrating a functional configuration of the signal processing circuit according to the third embodiment. Compared to FIG. 5 described in the first embodiment, an SDR characteristic 118 is added. Although details will be described later, in the third embodiment, gamma conversion for HDR display is performed by the third gamma conversion unit 121 using the gradation correction data generated by the correction data calculation unit 113. In the third embodiment, the brightness, color temperature, gamma, etc. of the white point of the SDR are set as shown in FIG. 13 via the operation unit 23 of FIG. 2, and the result is held as the SDR characteristic 118 of FIG. deep. Then, in the SDR luminance calculation unit 111, the gamma value used in Expression (3) is referred to the user-set gamma. Similarly, the user-set white point color temperature is referred to the RGB to XYZ conversion matrix coefficient used in Equation (4), and the user-set brightness value is referred to the calculation from the calculated Y value to the absolute brightness. By doing so, it is possible to calculate the SDR luminance according to the actual assumed use. It is necessary to reflect the highest luminance associated with 100% which is the SDR peak signal value set by the user to the HDR luminance calculation unit 112 as well. For example, by calculating gradation correction data in the correction data calculation unit 113 so that the absolute luminance corresponding to 18% that is the appropriate exposure is maintained even in HDR, the sensory brightness of the subject in the vicinity of the appropriate exposure of SDR and HDR is calculated. Can be made equivalent.

HDRの絶対輝度の算出方法としては、上述した第1及び第2の実施形態では、SMTPE ST2084での規格を用いて実施したが、ARIB標準規格STD-B67によるHLG(Hybrid Log-Gamma)により実施しても構わない。その場合、以下の式(6)で示されるような変換   As a method of calculating the absolute luminance of HDR, in the first and second embodiments described above, the standard was implemented using the standard in SMTPE ST2084, but it was implemented using the HLB (Hybrid Log-Gamma) according to the ARIB standard STD-B67. It doesn't matter. In that case, conversion as shown in the following equation (6)

の逆変換を利用して輝度Eを算出すればよい。なお、式(6)において、E‘は入力信号レベルで、a,b,cは係数である。 The luminance E may be calculated using the inverse transformation of. In Equation (6), E ′ is an input signal level, and a, b, and c are coefficients.

第3のガンマ変換部121では、第2のガンマ変換部106で用いるガンマ特性(変換データ)に、補正データ算出部113で生成された階調補正データをアドオン(合成)した特性を用いて、マトリクス変換部104から出力された画像をガンマ変換する。このように、生成した階調補正データを第3のガンマ変換部121に反映させることにより、目標の明るさまで1回のガンマで実現できることになり、量子化誤差などの劣化を抑えることができる。   The third gamma conversion unit 121 uses a characteristic obtained by adding (synthesizing) the gradation correction data generated by the correction data calculation unit 113 to the gamma characteristic (conversion data) used by the second gamma conversion unit 106. The image output from the matrix conversion unit 104 is gamma converted. In this way, by reflecting the generated gradation correction data in the third gamma conversion unit 121, it is possible to realize the target brightness with one gamma, and it is possible to suppress degradation such as quantization error.

こうして得られた画像データに対し、第3の色輝度調整部122により、第2の色輝度調整部108と同様の色輝度調整処理を行い、圧縮部115により圧縮し、記録部116により記録に適した画像データに変換して、最終的なHDR現像画像として出力する。   The image data obtained in this manner is subjected to the same color luminance adjustment processing as that of the second color luminance adjustment unit 108 by the third color luminance adjustment unit 122, compressed by the compression unit 115, and recorded by the recording unit 116. It is converted into suitable image data and output as a final HDR developed image.

上記の通り本第3の実施形態によれば、SDRの想定環境が変更した場合に、SDRコンテンツとHDRコンテンツの適正露出の絶対輝度を合わせた上で、HDRの主被写体の輝度を好適に補正することができる。   As described above, according to the third embodiment, when the assumed environment of SDR is changed, the luminance of the main subject of HDR is suitably corrected after matching the absolute luminance of appropriate exposure of SDR content and HDR content. can do.

<他の実施形態>
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
Further, the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

105:第1のガンマ変換部、106:第2のガンマ変換部、107:第1の色輝度調整部、108:第2の色輝度調整部、111:SDR輝度算出部、112:HDR輝度算出部、113:補正データ算出部、114:階調補正部、118:SDR特性、120:HDR特性、121:第3のガンマ変換部、122:第3の色輝度調整部   105: first gamma conversion unit, 106: second gamma conversion unit, 107: first color luminance adjustment unit, 108: second color luminance adjustment unit, 111: SDR luminance calculation unit, 112: HDR luminance calculation , 113: correction data calculation unit, 114: gradation correction unit, 118: SDR characteristic, 120: HDR characteristic, 121: third gamma conversion unit, 122: third color luminance adjustment unit

Claims (16)

撮影して得られた画像データを、第1のダイナミックレンジの第1の画像データに変換する第1の変換手段と、
前記画像データを、前記第1のダイナミックレンジよりも広い、第2のダイナミックレンジの第2の画像データに変換する第2の変換手段と、
前記第1の画像データにおける被写体領域の第1の輝度と、前記被写体領域を含む所定領域の第2の輝度とを算出する第1の算出手段と、
前記第2の画像データにおける前記被写体領域の第3輝度と、前記所定領域の第4の輝度とを算出する第2の算出手段と、
前記第1の輝度、前記第2の輝度、前記第4の輝度に基づいて、前記第2の画像データにおける前記被写体領域の目標輝度を算出し、前記第3の輝度を前記目標輝度に変換する補正データを生成する生成手段と、
前記補正データを用いて、前記画像データを前記第2のダイナミックレンジの第3の画像データに変換する第3の変換手段と
を有することを特徴とする画像処理装置。
First conversion means for converting image data obtained by photographing into first image data having a first dynamic range;
Second conversion means for converting the image data into second image data having a second dynamic range wider than the first dynamic range;
First calculation means for calculating a first luminance of a subject area in the first image data and a second luminance of a predetermined area including the subject area;
Second calculating means for calculating a third luminance of the subject area in the second image data and a fourth luminance of the predetermined area;
Based on the first luminance, the second luminance, and the fourth luminance, a target luminance of the subject area in the second image data is calculated, and the third luminance is converted into the target luminance. Generating means for generating correction data;
An image processing apparatus comprising: third conversion means for converting the image data into third image data having the second dynamic range using the correction data.
前記第1の変換手段は、前記第1のダイナミックレンジを有する第1の表示装置の第1の電光変換特性に対応する第1の光電変換特性を用いて現像することにより、前記第1の画像データに変換し、
前記第2の変換手段は、前記第2のダイナミックレンジを有する第2の表示装置の第2の電光変換特性に対応する第2の光電変換特性を用いて現像することにより、前記第1の画像データに変換することを特徴とする請求項1に記載の画像処理装置。
The first conversion means develops the first image by developing using a first photoelectric conversion characteristic corresponding to a first electro-optical conversion characteristic of the first display device having the first dynamic range. Convert to data,
The second conversion means develops the first image by developing using a second photoelectric conversion characteristic corresponding to a second electro-optical conversion characteristic of the second display device having the second dynamic range. The image processing apparatus according to claim 1, wherein the image processing apparatus is converted into data.
前記第1の表示装置の特性に関する情報を入力する入力手段を更に有することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising an input unit configured to input information relating to characteristics of the first display device. 前記第1の光電変換特性は、前記第2の光電変換特性よりも、高輝度側の傾きがなだらかであることを特徴とする請求項2または3に記載の画像処理装置。   4. The image processing apparatus according to claim 2, wherein the first photoelectric conversion characteristic has a gentler slope on the high luminance side than the second photoelectric conversion characteristic. 5. 前記第1の算出手段および前記第2の算出手段は、前記第1から第4の輝度をそれぞれ幾何平均により算出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image processing according to claim 1, wherein the first calculation unit and the second calculation unit calculate the first to fourth luminances by a geometric average, respectively. 6. apparatus. 前記第1の算出手段および前記第2の算出手段は、前記第1から第4の輝度を、それぞれの領域の中心をピークとした重みを用いた加重平均により算出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The first calculation means and the second calculation means calculate the first to fourth luminances by a weighted average using a weight with a peak at the center of each region. The image processing apparatus according to any one of 1 to 4. 前記第2の算出手段は、更に、前記所定領域のうち、任意の閾値以上の輝度を有する領域の第5の輝度を算出し、
前記生成手段は、前記第5の輝度よりも高輝度の信号を補正しないように前記補正データを生成することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The second calculation means further calculates a fifth luminance of a region having a luminance equal to or higher than an arbitrary threshold among the predetermined regions,
The image processing apparatus according to claim 1, wherein the generation unit generates the correction data so as not to correct a signal having a luminance higher than the fifth luminance.
前記第3の変換手段は、前記第2の画像データを前記補正データを用いて補正することにより、前記第3の画像データに変換することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   8. The third conversion unit according to claim 1, wherein the third conversion unit converts the second image data into the third image data by correcting the second image data using the correction data. An image processing apparatus according to 1. 前記第3の変換手段は、前記第2の変換手段で用いる変換データと前記補正データとを合成した変換データを用いて、前記画像データを前記第3の画像データに変換することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The third conversion unit converts the image data into the third image data by using conversion data obtained by synthesizing the conversion data used in the second conversion unit and the correction data. The image processing apparatus according to claim 1. 前記被写体は、人の顔であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject is a human face. 前記所定領域は、画像全体の領域であることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined area is an entire image area. 前記生成手段は、前記目標輝度を、ヴェーバー-フェヒナーの法則に基づいて求めることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit obtains the target luminance based on Weber-Fechner's law. 被写体を撮影して、画像データを出力する撮像手段と、
請求項1乃至12のいずれか1項に記載の画像処理装置と
を有することを特徴とする撮像装置。
Imaging means for photographing a subject and outputting image data;
An imaging apparatus comprising: the image processing apparatus according to claim 1.
第1の変換手段が、撮影して得られた画像データを、第1のダイナミックレンジの第1の画像データに変換する第1の変換工程と、
第2の変換手段が、前記画像データを、前記第1のダイナミックレンジよりも広い、第2のダイナミックレンジの第2の画像データに変換する第2の変換工程と、
第1の算出手段が、前記第1の画像データにおける被写体領域の第1の輝度と、前記被写体領域を含む所定領域の第2の輝度とを算出する第1の算出工程と、
第2の算出手段が、前記第2の画像データにおける前記被写体領域の第3輝度と、前記所定領域の第4の輝度とを算出する第2の算出工程と、
生成手段が、前記第1の輝度、前記第2の輝度、前記第4の輝度に基づいて、前記第2の画像データにおける前記被写体領域の目標輝度を算出し、前記第3の輝度を前記目標輝度に変換する補正データを生成する生成工程と、
第3の変換手段が、前記補正データを用いて、前記画像データを前記第2のダイナミックレンジの第3の画像データに変換する第3の変換工程と
を有することを特徴とする画像処理方法。
A first conversion step in which a first conversion means converts image data obtained by photographing into first image data having a first dynamic range;
A second conversion step, wherein the second conversion means converts the image data into second image data having a second dynamic range wider than the first dynamic range;
A first calculation step in which a first calculation means calculates a first luminance of a subject area in the first image data and a second luminance of a predetermined area including the subject area;
A second calculation step in which a second calculation means calculates a third luminance of the subject area in the second image data and a fourth luminance of the predetermined area;
The generation means calculates a target brightness of the subject area in the second image data based on the first brightness, the second brightness, and the fourth brightness, and sets the third brightness to the target brightness A generation process for generating correction data to be converted into luminance;
And a third conversion step of converting the image data into third image data of the second dynamic range using the correction data.
コンピュータを、請求項1乃至12のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 12. 請求項15に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 15.
JP2017115407A 2017-06-12 2017-06-12 Image processing device and method, and imaging apparatus Pending JP2019004230A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017115407A JP2019004230A (en) 2017-06-12 2017-06-12 Image processing device and method, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017115407A JP2019004230A (en) 2017-06-12 2017-06-12 Image processing device and method, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2019004230A true JP2019004230A (en) 2019-01-10

Family

ID=65006944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017115407A Pending JP2019004230A (en) 2017-06-12 2017-06-12 Image processing device and method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2019004230A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062887A (en) * 2019-12-14 2020-04-24 天津理工大学 Image definition judgment method based on improved Retinex algorithm
JP2020123138A (en) * 2019-01-30 2020-08-13 キヤノン株式会社 Image processing system, image processing method, program, and storage medium
CN114359055A (en) * 2022-03-21 2022-04-15 湖南大学 Image splicing method and related device for multi-camera shooting screen body
CN116962890A (en) * 2023-09-21 2023-10-27 卡奥斯工业智能研究院(青岛)有限公司 Processing method, device, equipment and storage medium of point cloud image

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123138A (en) * 2019-01-30 2020-08-13 キヤノン株式会社 Image processing system, image processing method, program, and storage medium
JP7277156B2 (en) 2019-01-30 2023-05-18 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
CN111062887A (en) * 2019-12-14 2020-04-24 天津理工大学 Image definition judgment method based on improved Retinex algorithm
CN111062887B (en) * 2019-12-14 2023-11-03 天津理工大学 Image definition judging method based on improved Retinex algorithm
CN114359055A (en) * 2022-03-21 2022-04-15 湖南大学 Image splicing method and related device for multi-camera shooting screen body
CN114359055B (en) * 2022-03-21 2022-05-31 湖南大学 Image splicing method and related device for multi-camera shooting screen body
CN116962890A (en) * 2023-09-21 2023-10-27 卡奥斯工业智能研究院(青岛)有限公司 Processing method, device, equipment and storage medium of point cloud image
CN116962890B (en) * 2023-09-21 2024-01-09 卡奥斯工业智能研究院(青岛)有限公司 Processing method, device, equipment and storage medium of point cloud image

Similar Documents

Publication Publication Date Title
US10194091B2 (en) Image capturing apparatus, control method therefor, program, and recording medium
JP6343200B2 (en) Imaging apparatus, control method therefor, and program
US8472748B2 (en) Method of image processing and image processing apparatus
JP7051373B2 (en) Image processing device, image pickup device, image processing method, program, and storage medium
JP2010103740A (en) Digital camera
JP7157714B2 (en) Image processing device and its control method
JP6744711B2 (en) Imaging device, control method thereof, program, and storage medium
US10600165B2 (en) Image processing apparatus capable of performing tone conversion with a visually equivalent luminance change, image processing method, and storage medium
JP2019004230A (en) Image processing device and method, and imaging apparatus
JP7371197B2 (en) Image processing device and its control method
US20180025476A1 (en) Apparatus and method for processing image, and storage medium
US10785462B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP7397640B2 (en) Image processing device and image processing method
JP7373299B2 (en) Image processing device and its control method
JP2021168448A (en) Image processing device, image processing method, and program
US11770511B2 (en) Image processing apparatus, image capture apparatus, control method, and computer-readable storage medium
US11641525B2 (en) Image capturing apparatus capable of displaying live view image high in visibility, method of controlling image capturing apparatus, and storage medium
JP2015233338A (en) Display device, imaging device, and projector
JP2023074897A (en) Image processing device, image processing method and imaging apparatus
JP2024059702A (en) Display method
JP2019176486A (en) Image processing device and image processing program
JP2017182074A (en) Display device, imaging device, and projector