JP7157714B2 - Image processing device and its control method - Google Patents

Image processing device and its control method Download PDF

Info

Publication number
JP7157714B2
JP7157714B2 JP2019141685A JP2019141685A JP7157714B2 JP 7157714 B2 JP7157714 B2 JP 7157714B2 JP 2019141685 A JP2019141685 A JP 2019141685A JP 2019141685 A JP2019141685 A JP 2019141685A JP 7157714 B2 JP7157714 B2 JP 7157714B2
Authority
JP
Japan
Prior art keywords
image processing
signal
value
hdr
dynamic range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019141685A
Other languages
Japanese (ja)
Other versions
JP2020039118A (en
JP2020039118A5 (en
Inventor
成己 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/554,968 priority Critical patent/US11354789B2/en
Publication of JP2020039118A publication Critical patent/JP2020039118A/en
Priority to US17/742,054 priority patent/US11798143B2/en
Publication of JP2020039118A5 publication Critical patent/JP2020039118A5/ja
Priority to JP2022161830A priority patent/JP7371197B2/en
Application granted granted Critical
Publication of JP7157714B2 publication Critical patent/JP7157714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置およびその制御方法に関し、特にハイダイナミックレンジ(HDR(High Dynamic Range))信号の取り扱い技術に関する。 The present invention relates to an image processing apparatus and its control method, and more particularly to a technology for handling high dynamic range (HDR) signals.

発光素子(例えばLED)の性能向上などにより、従来よりも表示輝度のダイナミックレンジが広い表示装置が実現されている。このような表示装置では、従来の表示装置では表現できなかった、高輝度域の色やディテールを有する画像(HDR画像)をより忠実に表示することができる。 2. Description of the Related Art Due to improvements in the performance of light-emitting elements (for example, LEDs), display devices with a wider dynamic range of display luminance than ever before have been realized. With such a display device, it is possible to more faithfully display an image (HDR image) having colors and details in a high luminance range, which could not be expressed by a conventional display device.

HDR画像における映像信号レベルと表示輝度との関係を表す信号特性はEOTF(Electro-Optical Transfer Function:電気光伝達関数)で規定される。そして、EOTFにはSMPTE ST 2084で規格化されているPQ(Perceptual Quantization)と、ARIB STD-B67で規格化されているHLG(Hybrid Log Gamma)の2つがある。HLGが表示輝度を相対値として扱うのに対して、PQは表示輝度を最大10000nits(またはcd/m)の絶対値として扱う点が大きな違いである。そのため、出力ダイナミックレンジが変化するような撮影モードで撮影を行うと、PQでは表示ピーク輝度が変化する場合がある。 A signal characteristic representing the relationship between the video signal level and display brightness in an HDR image is defined by an EOTF (Electro-Optical Transfer Function). There are two EOTFs: PQ (Perceptual Quantization) standardized by SMPTE ST 2084 and HLG (Hybrid Log Gamma) standardized by ARIB STD-B67. The major difference is that HLG treats the display luminance as a relative value, whereas PQ treats the display luminance as an absolute value up to 10000 nits (or cd/m 2 ). Therefore, when shooting in a shooting mode in which the output dynamic range changes, the display peak luminance may change in PQ.

図1は11と12の2通りの撮影モードによって出力ダイナミックレンジが変化する場合の入出力特性の例を示しており、横軸に入力段数、縦軸に出力輝度を示す。各撮影モードのガンマカーブを比較すると、高輝度域以外は共通の入出力特性を持ち、ピーク輝度が13、14のように異なっている。なお、以下、特に記載が無い限り、HDR画像の信号特性はPQに準拠しているものとする。 FIG. 1 shows an example of input/output characteristics when the output dynamic range changes with two shooting modes 11 and 12, where the horizontal axis indicates the number of input steps and the vertical axis indicates the output luminance. Comparing the gamma curves of the respective shooting modes, they have common input/output characteristics except for the high luminance region, and peak luminances 13 and 14 are different. In the following, unless otherwise specified, the signal characteristics of HDR images are based on PQ.

ところで、従来の表示輝度ダイナミックレンジ(Standard Dynamic Range:SDR)を想定した画像信号(SDR信号)は、γ=2.2などのEOTFを持つ環境での視聴を前提としているのに対し、HDR画像の信号(HDR信号)は、PQなどのEOTFを持つ環境での視聴を前提としている。このため、SDR信号を想定した視聴環境でHDR信号を再生すると、製作者の意図と異なる映像が表示されてしまう。このような問題の回避方法として、例えば、HDRの効果は失われてしまうが、HDR信号の階調値を、SDR環境での視聴用にSDR信号の階調値に変換(圧縮)するような、トーンマッピングが考えられる。なお、HDR信号には、コンテンツの最大輝度を表す、maxCLL(maximum Content Light Level)と呼ばれる静的メタデータを付与することができる。maxCLLを参照することにより、再生機器は受信したHDRコンテンツの最大輝度を特定することができる。 By the way, an image signal (SDR signal) assuming a conventional display luminance dynamic range (Standard Dynamic Range: SDR) is premised on viewing in an environment having an EOTF such as γ = 2.2, whereas an HDR image (HDR signal) is premised on viewing in an environment with EOTF such as PQ. For this reason, when the HDR signal is reproduced in a viewing environment assuming the SDR signal, an image different from the producer's intention is displayed. As a method of avoiding such a problem, for example, although the effect of HDR is lost, the gradation value of the HDR signal is converted (compressed) into the gradation value of the SDR signal for viewing in the SDR environment. , tone mapping can be considered. Note that the HDR signal can be given static metadata called maxCLL (maximum Content Light Level), which represents the maximum brightness of the content. By referring to maxCLL, the playback device can specify the maximum luminance of received HDR content.

特許文献1、2には、HDR信号をSDR信号に変換するトーンマッピングが開示されている。文献1では、HDR信号の輝度値のヒストグラム形状とmaxCLLを用いて、推定された最大輝度レベルを用いてトーンマッピングの特性を設計する構成が記載されている。また、文献2では、空などの低周波被写体のトーンジャンプを抑えるため、画像の幾何学的形状領域に応じてトーンマッピングの特性を設計する構成が記載されている。 Patent Documents 1 and 2 disclose tone mapping for converting an HDR signal into an SDR signal. Document 1 describes a configuration for designing tone mapping characteristics using an estimated maximum luminance level using a histogram shape of luminance values of an HDR signal and maxCLL. Further, Document 2 describes a configuration in which tone mapping characteristics are designed in accordance with a geometric region of an image in order to suppress tone jumps of a low-frequency object such as the sky.

特開2017-184220号公報JP 2017-184220 A 特開2018-093530号公報JP 2018-093530 A

特許文献1の方法では、例えば露出アンダーで撮影されたHDR信号であっても、HDR信号の最大輝度レベルをSDRのEOTFの定義域の最大値となるようマッピングする。そのため、HDR信号をHDR環境で視聴した場合より、マッピング後のSDR信号をSDR環境で視聴した場合の方が明るく感じられる可能性がある。 In the method of Patent Literature 1, for example, even if the HDR signal is captured with underexposure, the maximum luminance level of the HDR signal is mapped to the maximum value of the EOTF domain of the SDR. Therefore, viewing the SDR signal after mapping in the SDR environment may make the viewer feel brighter than viewing the HDR signal in the HDR environment.

また、特許文献2の方法も、HDR画像のDレンジを考慮したトーンマッピングを行っていないため、出力されたSDR信号が製作者の意図した明るさとならない場合がある。 Also, the method of Patent Literature 2 does not perform tone mapping in consideration of the D range of the HDR image, so the output SDR signal may not have the brightness intended by the creator.

本発明はこのような従来技術の課題に鑑みてなされたものである。本発明は、HDR環境で視聴した場合とSDR環境で視聴した場合との明るさの変化を抑制するようにHDR信号をSDR信号に変換可能な画像処理装置およびその制御方法を提供することを目的とする。 The present invention has been made in view of such problems of the prior art. SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus capable of converting an HDR signal into an SDR signal so as to suppress changes in brightness between viewing in an HDR environment and viewing in an SDR environment, and a control method thereof. and

上述の目的は、HDR(High Dynamic Range)信号をファイルとして記録する画像処理装置であって、HDR信号の撮影条件に応じて、画像処理装置に予め設定された異なる複数の出力ダイナミックレンジのうち、HDR信号の撮影条件に応じた1つの出力ダイナミックレンジピーク輝度を示す情報を取得する取得手段と、取得手段により取得された情報に基づく第1の値を、HDR信号とともにファイルに記録する記録手段と、を有することを特徴とする画像処理装置によって達成される。 The above object is an image processing device that records HDR (High Dynamic Range) signals as a file, and according to the shooting conditions of the HDR signal, among a plurality of different output dynamic ranges preset in the image processing device , Acquisition means for acquiring information indicating the peak luminance of one output dynamic range according to the shooting conditions of the HDR signal, and recording means for recording a first value based on the information acquired by the acquisition means in a file together with the HDR signal. and is achieved by an image processing device characterized by having:

本発明によれば、HDR環境で視聴した場合とSDR環境で視聴した場合との明るさの変化を抑制するようにHDR信号をSDR信号に変換可能な画像処理装置およびその制御方法を提供することができる。 According to the present invention, an image processing apparatus capable of converting an HDR signal into an SDR signal so as to suppress a change in brightness between viewing in an HDR environment and viewing in an SDR environment and a control method thereof are provided. can be done.

ピーク輝度の異なる撮影モードそれぞれのガンマカーブを示した図Diagram showing gamma curves for shooting modes with different peak brightness 一般的な交換レンズ式のデジタル一眼レフカメラの断面図Cross-sectional view of a typical interchangeable-lens digital single-lens reflex camera カメラと交換レンズの電気回路の構成例を表したブロック図Block diagram showing an example of the configuration of the electrical circuit of the camera and interchangeable lens 第1実施形態におけるトーンマッピング動作を説明するための図A diagram for explaining the tone mapping operation in the first embodiment. 第1実施形態におけるmaxDRLの算出動作に関するフローチャートFlowchart relating to maxDRL calculation operation in the first embodiment SMPTE ST2084で規格化されているEOTFであるPQ(Perceptual Quantization)の特性を示した図The figure which showed the characteristic of PQ (Perceptual Quantization) which is EOTF standardized by SMPTE ST2084. 実施形態で用いるデータファイル構造の一例を示す図A diagram showing an example of a data file structure used in the embodiment 第1実施形態におけるトーンマッピング動作に関するフローチャートFlowchart relating to tone mapping operation in the first embodiment 第2実施形態におけるmaxDRLの更新動作を説明するための図FIG. 4 is a diagram for explaining the update operation of maxDRL in the second embodiment; 第2実施形態におけるmaxDRLの更新動作に関するフローチャートFlowchart for update operation of maxDRL in the second embodiment 第2実施形態におけるレタッチ例ならびにmaxDRL_rの算出の例を説明するための図A diagram for explaining an example of retouching and an example of calculation of maxDRL_r in the second embodiment. 第3実施形態におけるトーンマッピングおおびmaxDRLの更新動作に関するフローチャートFlowchart for update operation of tone mapping and maxDRL in the third embodiment 第5実施形態で用いるデータファイル構造の一例を示す図A diagram showing an example of a data file structure used in the fifth embodiment

●(第1実施形態)
以下、添付図面を参照して、本発明をその例示的な実施形態に基づいて詳細に説明する。なお、説明する実施形態は単なる例示であり、本発明の範囲を限定するものではない。例えば、以下では本発明をデジタルカメラに適用した実施形態を説明する。しかし、デジタルカメラは本発明を適用可能な画像処理装置の一例にすぎない。本発明は任意の電子機器において実施可能である。このような電子機器には、デジタルカメラやデジタルビデオカメラといった撮像装置はもちろん、パーソナルコンピュータ、タブレット端末、携帯電話機、ゲーム機、ドライブレコーダ、ロボット、ドローンなどが含まれるが、これらに限定されない。
● (first embodiment)
The invention will now be described in detail on the basis of its exemplary embodiments with reference to the accompanying drawings. It should be noted that the described embodiments are merely examples and do not limit the scope of the present invention. For example, an embodiment in which the present invention is applied to a digital camera will be described below. However, a digital camera is only one example of an image processing device to which the present invention can be applied. The present invention can be implemented in any electronic device. Such electronic devices include, but are not limited to, imaging devices such as digital cameras and digital video cameras, as well as personal computers, tablet terminals, mobile phones, game machines, drive recorders, robots, and drones.

●(第1実施形態)
図2は実施形態に係るデジタルカメラ(以下、カメラ)の、主な光学部材やセンサ等の配置例を示す断面図である。本実施形態におけるカメラはレンズ交換可能なデジタル一眼レフカメラであり、カメラ本体1と交換レンズ2を有している。カメラ本体1において撮像素子10は例えばCMOSイメージセンサやCCDイメージセンサであり、複数の画素(蓄積型光電変換素子)が配列されている。撮像素子10の前方近傍に設けられていたメカニカルシャッター11は、撮像素子10の露出タイミングおよび露出時間を制御する。
● (first embodiment)
FIG. 2 is a cross-sectional view showing an arrangement example of main optical members, sensors, etc. of a digital camera (hereinafter referred to as a camera) according to the embodiment. The camera in this embodiment is a lens-interchangeable digital single-lens reflex camera, and has a camera body 1 and an interchangeable lens 2 . The imaging element 10 in the camera body 1 is, for example, a CMOS image sensor or a CCD image sensor, and has a plurality of pixels (accumulation photoelectric conversion elements) arranged therein. A mechanical shutter 11 provided near the front of the image sensor 10 controls the exposure timing and exposure time of the image sensor 10 .

半透過性の主ミラー3と、主ミラー3の背面に配置された第1の反射ミラー7は、撮影時には上部に跳ね上がる。第2の反射ミラー8は、第1の反射ミラー7が反射した光束をさらに反射し、焦点検出用センサ(AFセンサ)9に入射させる。AFセンサ9は例えば画素数が撮像素子10よりも少ない撮像素子であってよい。 A semi-transmissive main mirror 3 and a first reflecting mirror 7 arranged behind the main mirror 3 flip up when photographing. The second reflecting mirror 8 further reflects the light beam reflected by the first reflecting mirror 7 and makes it enter a focus detection sensor (AF sensor) 9 . The AF sensor 9 may be, for example, an imaging device with a smaller number of pixels than the imaging device 10 .

第1の反射ミラー7、第2の反射ミラー8および焦点検出用センサ9は、撮影画面内の任意の位置での位相差検出方式での焦点検出を行うための構成である。測光用センサ(AEセンサ)6はペンタプリズム4および第3の反射ミラー5で反射された撮影画面の像を受光する。AEセンサ6は受光部を複数の領域に分割し、領域ごとに被写体の輝度情報を出力できる。分割数に制限は無い。なお、撮像素子においては、受光部に配置される画素以外に、画素信号の増幅回路や信号処理用の周辺回路などが形成されている。 The first reflecting mirror 7, the second reflecting mirror 8, and the focus detection sensor 9 are configured to perform focus detection by the phase difference detection method at an arbitrary position within the photographing screen. A photometric sensor (AE sensor) 6 receives the image of the photographic screen reflected by the pentaprism 4 and the third reflecting mirror 5 . The AE sensor 6 divides the light receiving part into a plurality of areas, and can output the brightness information of the subject for each area. There is no limit to the number of divisions. In addition to the pixels arranged in the light-receiving portion, the image sensor includes an amplifier circuit for pixel signals, a peripheral circuit for signal processing, and the like.

ペンタプリズム4によってファインダー光学系が構成される。図2には示していないが、ペンタプリズム4で反射された被写体像はアイピースから観察可能である。AEセンサ6には主ミラー3によって反射されてピント板12によって拡散された光線のうち光軸外の一部が入射する。交換レンズ2はカメラ本体1に設けられたレンズマウントの接点を通じ、必要に応じてカメラ本体1と通信する。なお、ライブビュー表示および動画記録時には主ミラー3が跳ね上がっているため、撮像された画像の情報を使用して露出制御や焦点調節制御を行う。 The pentaprism 4 constitutes a finder optical system. Although not shown in FIG. 2, the subject image reflected by the pentaprism 4 can be observed through the eyepiece. A portion of the light beam reflected by the main mirror 3 and diffused by the focusing plate 12 is incident on the AE sensor 6 . The interchangeable lens 2 communicates with the camera body 1 through contacts of a lens mount provided on the camera body 1 as necessary. Since the main mirror 3 is flipped up during live view display and video recording, exposure control and focus adjustment control are performed using captured image information.

図3は、図2に示したカメラ本体1とその交換レンズ2の電気回路の構成例を示すブロック図である。カメラ本体1において制御部21は例えば内部にALU(ARITHMETIC and Logic Unit)、ROM、RAMやA/Dコンバータ、タイマー、シリアル通信ポート(SPI)等を内蔵したワンチップマイクロコンピュータである。制御部21は、例えばROMに記憶されたプログラムをRAMにロードして実行することにより、カメラ本体1および交換レンズ2の動作を制御する。制御部21の具体的な動作については後述する。 FIG. 3 is a block diagram showing a configuration example of an electrical circuit of the camera body 1 and its interchangeable lens 2 shown in FIG. In the camera main body 1, the control section 21 is a one-chip microcomputer containing, for example, an ALU (ARITHMETIC and Logic Unit), ROM, RAM, A/D converter, timer, serial communication port (SPI), and the like. The control unit 21 controls operations of the camera body 1 and the interchangeable lens 2 by loading, for example, a program stored in the ROM into the RAM and executing the program. A specific operation of the control unit 21 will be described later.

AFセンサ9及びAEセンサ6の出力信号は、制御部21のA/Dコンバータ入力端子に接続される。信号処理回路25は制御部21の指示に従って撮像素子10を制御し、撮像素子10が出力する信号にA/D変換および信号処理を適用し、画像信号を得る。また信号処理回路25は、得られた画像信号を記録するにあたって、圧縮・合成等の必要な画像処理を行う。メモリ28はDRAM等であり、信号処理回路25が種々の信号処理を行う際のワーク用メモリとして使われたり、後述する表示器27に画像を表示する際のVRAMとして使われたりする。表示器27はカメラ本体1の背面液晶ディスプレイや、外部ディスプレイであり、カメラの設定値やメッセージ、メニュー画面等の情報や撮像画像を表示する。表示器27はHDR(High Dynamic Range)表示可能であるものとする。表示器27は制御部21からの指示により制御される。記憶部26は例えば半導体メモリカードであり、撮像された画像信号が信号処理回路25から入力される。 Output signals from the AF sensor 9 and the AE sensor 6 are connected to A/D converter input terminals of the control section 21 . The signal processing circuit 25 controls the image sensor 10 according to instructions from the control unit 21, applies A/D conversion and signal processing to the signal output from the image sensor 10, and obtains an image signal. Further, the signal processing circuit 25 performs necessary image processing such as compression and synthesis when recording the obtained image signal. The memory 28 is a DRAM or the like, and is used as a work memory when the signal processing circuit 25 performs various signal processing, or as a VRAM when displaying an image on the display 27, which will be described later. A display 27 is a rear liquid crystal display of the camera body 1 or an external display, and displays information such as camera setting values, messages, menu screens, and captured images. The display 27 is assumed to be capable of HDR (High Dynamic Range) display. The display 27 is controlled by instructions from the control section 21 . The storage unit 26 is, for example, a semiconductor memory card, and a captured image signal is input from the signal processing circuit 25 .

モーター22は、制御部21の制御に従い、主ミラー3及び第1の反射ミラー7のアップ・ダウンやメカニカルシャッター11のチャージを行う。操作部23はユーザーがカメラを操作するために用いるスイッチなどの入力デバイス群である。操作部23には撮影準備動作の開始および撮影開始を指示するためのレリーズスイッチや、撮影モードを選択するための撮影モード選択スイッチ、方向キー、決定キー等が含まれる。接点部29は交換レンズ2と通信を行うための接点であり、制御部21のシリアル通信ポートの入出力信号線が接続される。シャッター駆動部24は制御部21の出力端子に接続されてメカニカルシャッター11を駆動する。 The motor 22 raises and lowers the main mirror 3 and the first reflecting mirror 7 and charges the mechanical shutter 11 under the control of the controller 21 . The operation unit 23 is a group of input devices such as switches used by the user to operate the camera. The operation unit 23 includes a release switch for instructing the start of photographing preparation operations and the start of photographing, a photographing mode selection switch for selecting a photographing mode, a direction key, an enter key, and the like. The contact portion 29 is a contact for communicating with the interchangeable lens 2, and the input/output signal line of the serial communication port of the control portion 21 is connected. A shutter drive unit 24 is connected to an output terminal of the control unit 21 to drive the mechanical shutter 11 .

交換レンズ2には、接点部29と対をなす接点部50が設けられている。接点部50には、制御部21と同様のワンチップマイクロコンピュータであるレンズ制御部51が接続され、制御部21との通信が可能である。レンズ制御部51は例えばマイクロプロセッサ、ROM、およびRAMを有し、ROMに記憶されたプログラムをRAMにロードして実行することにより、制御部21からの指示に基づいて交換レンズ2の動作を制御する。また、レンズ制御部51は交換レンズ2の状態などの情報を、制御部21に通知する。フォーカスレンズ駆動部52はレンズ制御部51の出力端子に接続され、フォーカスレンズを駆動する。ズーム駆動部53は、レンズ制御部51の制御に従い、交換レンズの画角を変更する。絞り駆動部54は、レンズ制御部51の制御に従い、絞りの開口量を調整する。 The interchangeable lens 2 is provided with a contact portion 50 paired with the contact portion 29 . A lens control unit 51, which is a one-chip microcomputer similar to the control unit 21, is connected to the contact unit 50, and communication with the control unit 21 is possible. The lens control unit 51 has, for example, a microprocessor, a ROM, and a RAM, and loads a program stored in the ROM into the RAM and executes it, thereby controlling the operation of the interchangeable lens 2 based on instructions from the control unit 21. do. Also, the lens control unit 51 notifies the control unit 21 of information such as the state of the interchangeable lens 2 . The focus lens driving section 52 is connected to the output terminal of the lens control section 51 and drives the focus lens. A zoom drive unit 53 changes the angle of view of the interchangeable lens under the control of the lens control unit 51 . The diaphragm drive unit 54 adjusts the opening amount of the diaphragm under the control of the lens control unit 51 .

交換レンズ2がカメラ本体1に装着されると接点部29および50を介してレンズ制御部51とカメラ本体の制御部21とがデータ通信可能となる。また、接点部29および50を通じて交換レンズ2内のモーターやアクチュエータを駆動するための電力も供給される。カメラ本体の制御部21が焦点検出や露出演算を行うために必要なレンズ固有の光学的な情報や、距離エンコーダに基づいた被写体距離に関する情報等がレンズからカメラ本体の制御部21へとデータ通信によって出力される。また、カメラ本体の制御部21が焦点検出や露出演算を行った結果求められた焦点調節情報や絞り情報はカメラ本体の制御部21からレンズへとデータ通信によって出力され、レンズは焦点調節情報に従ってフォーカスレンズを、絞り情報に従って絞りを制御する。 When the interchangeable lens 2 is attached to the camera body 1, data communication between the lens control section 51 and the control section 21 of the camera body is enabled via the contacts 29 and 50. FIG. Electric power for driving the motors and actuators in the interchangeable lens 2 is also supplied through the contact portions 29 and 50 . Optical information specific to the lens necessary for the control unit 21 of the camera body to perform focus detection and exposure calculation, information on the subject distance based on the distance encoder, etc. are transmitted from the lens to the control unit 21 of the camera body. Output by Focus adjustment information and aperture information obtained as a result of focus detection and exposure calculation performed by the control unit 21 of the camera body are output from the control unit 21 of the camera body to the lens by data communication, and the lens operates according to the focus adjustment information. The aperture of the focus lens is controlled according to the aperture information.

以下、第1実施形態における撮影から現像までの具体的な動作について、図1および図3~8を用いて説明する。図3の操作部23に含まれる電源スイッチがオンされるなどにより、制御部21が動作可能になると、まず制御部21は交換レンズ2のレンズ制御部51と通信を行ない、焦点検出や測光に必要な各種レンズの情報を得るなどの初期化処理を行う。また、操作部23ではユーザーの各種設定が受け付けられ、任意の撮影モードが設定される。操作部23に含まれるシャッタースイッチの半押し操作により、制御部21はAF(オートフォーカス)処理、AE(自動露出)処理の動作を開始する。その後、シャッタースイッチの全押し操作により、制御部21は撮影処理の動作を開始する。 Specific operations from photographing to development in the first embodiment will be described below with reference to FIGS. 1 and 3 to 8. FIG. When the controller 21 becomes operable by, for example, turning on the power switch included in the operation unit 23 in FIG. Initialization processing such as obtaining necessary information on various lenses is performed. Further, the operation unit 23 accepts various user settings and sets an arbitrary shooting mode. By half-pressing the shutter switch included in the operation unit 23, the control unit 21 starts AF (autofocus) processing and AE (automatic exposure) processing. After that, by fully pressing the shutter switch, the control unit 21 starts the operation of the photographing process.

その後、撮影で得られたRAW画像の現像を行う。RAW画像の現像については図4を用いて説明する。図4において、402~405、408~412は、制御部21が行う処理を機能ブロックとして記載したものであるが、その1つ以上がハードウェア回路として実現されてもよい。RAW画像データ401を構成する画素データのそれぞれは、対応する画素に設けられたカラーフィルタの色の強度を表し、他の色の情報は有していない。ここでは撮像素子の各画素にはR(赤)、G(緑)、B(青)のいずれかのカラーフィルタが設けられているものとする。 After that, the RAW image obtained by photographing is developed. Development of a RAW image will be described with reference to FIG. In FIG. 4, 402 to 405 and 408 to 412 describe the processing performed by the control unit 21 as functional blocks, but one or more of them may be implemented as hardware circuits. Each piece of pixel data that constitutes the RAW image data 401 represents the intensity of the color of the color filter provided in the corresponding pixel, and does not have information on other colors. Here, it is assumed that each pixel of the imaging device is provided with a color filter of R (red), G (green), or B (blue).

ホワイトバランス部402では、光源による色かぶりを補正して白を再現するための処理がなされる。具体的にはホワイトバランス部402は、RAW画像データ401を構成する各画素のRGBデータを、例えばxy色空間等の所定の色空間にプロットする。そして、ホワイトバランス部402は、その色空間において光源色の可能性が高い黒体輻射軌跡付近にプロットされたデータのR,G,Bを積分し、その積分値からR及びB成分のホワイトバランス係数G/R及びG/Bを求める。ホワイトバランス部402はホワイトバランス係数を画像データに適用することによりホワイトバランス処理を実施する。 The white balance unit 402 performs processing for correcting the color cast caused by the light source and reproducing white. Specifically, the white balance unit 402 plots the RGB data of each pixel forming the RAW image data 401 in a predetermined color space such as the xy color space. Then, the white balance unit 402 integrates the R, G, and B data plotted in the vicinity of the black body radiation locus, which is highly likely to be the light source color in the color space, and calculates the white balance of the R and B components from the integrated value. Determine the coefficients G/R and G/B. A white balance unit 402 performs white balance processing by applying white balance coefficients to the image data.

色補間部403ではノイズリダクション処理や、色補間処理により、全ての画素においてR、G、Bの色情報が揃ったカラー画像を生成する。生成されたカラー画像は、マトリクス変換部404およびガンマ変換部405を経て基本的なカラー画像が生成される。ここでガンマ変換部405におけるHDR現像の場合のガンマ特性としては、EOTFの逆特性(Inverse EOTF)であり、例えば図6に示すPQ(Perceptual Quantization)(図6)の逆特性である。なお、Inverse EOTFとOOTF(Opto-Optical Transfer Function)特性を組み合わせたOETF(Optical-Electro Transfer Function)を用いてもよい。 A color interpolation unit 403 generates a color image in which all pixels have R, G, and B color information by noise reduction processing and color interpolation processing. The generated color image passes through a matrix conversion unit 404 and a gamma conversion unit 405 to generate a basic color image. Here, the gamma characteristic in the case of HDR development in the gamma conversion unit 405 is the inverse characteristic of EOTF (Inverse EOTF), for example, the inverse characteristic of PQ (Perceptual Quantization) shown in FIG. 6 (FIG. 6). Note that an OETF (Optical-Electro Transfer Function) combining Inverse EOTF and OOTF (Opto-Optical Transfer Function) characteristics may be used.

ガンマ変換部405では、コントラスト調整用カーブ(コントラスト調整用の階調特性 、ガンマカーブ、またはガンマ特性とも呼ぶ)を用いてガンマ変換を行う。従来カメラには、図1のように出力Dレンジが変化するような撮影モードが搭載されており、ユーザーはシーンに応じてどちらのモードで撮影するかを選択している。このとき、両モード間でのDレンジの差は、HDR現像時にはピーク輝度の差となる。また、同様にISO感度によってもDレンジが異なる場合がある。撮像素子においてアンプでゲインがかからない基準のISO感度100に対して、アナログゲイン、もしくはデジタルゲインがかかるISO200以降の高感度の方がフォトダイオードの容積に対して電荷量が少ないためDレンジが大きくなる。また1/3段刻みの中間ISO感度について、ゲインの刻みが1段しかない安価なアンプを有した撮像素子では、中間ISO感度は代表ISO感度からのゲインアップもしくはゲインダウンで実現している。 The gamma conversion unit 405 performs gamma conversion using a contrast adjustment curve (also called a contrast adjustment gradation characteristic, a gamma curve, or a gamma characteristic). Conventional cameras are equipped with shooting modes in which the output D range changes as shown in FIG. 1, and the user selects which mode to shoot in accordance with the scene. At this time, the difference in D range between the two modes is the difference in peak luminance during HDR development. Similarly, the D range may also differ depending on the ISO sensitivity. Compared to the standard ISO sensitivity of 100 where no gain is applied by the amplifier in the image pickup device, high sensitivity after ISO 200 where analog gain or digital gain is applied has a smaller amount of charge relative to the volume of the photodiode, resulting in a larger D range. . Regarding intermediate ISO sensitivities in steps of 1/3 step, in an imaging device having an inexpensive amplifier with only one gain step, the intermediate ISO sensitivities are realized by increasing or decreasing the gain from the representative ISO sensitivity.

このとき、ゲインダウンでは飽和の信号レベルが下がってしまうためDレンジとしては小さくなる。このように、撮影条件、特にISO感度に応じてピーク輝度が異なる場合がある。従って、撮影モードとISO感度の組み合わせの数だけ、ガンマカーブをコントラスト調整用カーブ407としてメモリ28に予め格納しておく。そして、ガンマ選択部408が撮影条件(撮影モードおよびISO感度)406を参照し、撮影モードとISO感度の組み合わせに該当するコントラスト調整用カーブ407をメモリ28より読み出して出力ピーク輝度情報取得部409に出力する。 At this time, when the gain is lowered, the saturation signal level is lowered, so the D range becomes smaller. As described above, the peak luminance may differ depending on the shooting conditions, especially the ISO sensitivity. Therefore, gamma curves corresponding to the number of combinations of shooting modes and ISO sensitivities are previously stored in the memory 28 as contrast adjustment curves 407 . Then, the gamma selection unit 408 refers to the shooting conditions (shooting mode and ISO sensitivity) 406 , reads out the contrast adjustment curve 407 corresponding to the combination of shooting mode and ISO sensitivity from the memory 28 , and sends it to the output peak luminance information acquisition unit 409 . Output.

次に、S501(図5)で出力ピーク輝度情報取得部409は、取得したコントラスト調整用カーブ407から、ガンマカーブの各出力値に対応する絶対輝度を取得する。絶対輝度値はPQ(図6)やHLGといったEOTFを用いて取得することができる。そして、出力ピーク輝度情報取得部409はコントラスト調整用カーブ407の出力値の最大値、またはこれに対応するnits値を取得する。なお、本明細書では、ガンマカーブデータの出力値の最大値、すなわち出力Dレンジのピーク輝度値の階調値またはそれに対応するnits値をmaxDRL(maximum Dynamic Range Level)と呼ぶ。 Next, in S501 (FIG. 5), the output peak luminance information obtaining unit 409 obtains the absolute luminance corresponding to each output value of the gamma curve from the obtained contrast adjustment curve 407 . Absolute luminance values can be obtained using EOTFs such as PQ (FIG. 6) and HLG. Then, the output peak luminance information acquisition unit 409 acquires the maximum value of the output values of the contrast adjustment curve 407 or the nits value corresponding thereto. In this specification, the maximum output value of the gamma curve data, that is, the gradation value of the peak luminance value in the output D range or the corresponding nits value is referred to as maxDRL (maximum Dynamic Range Level).

その後、色輝度調整部410で画像の見栄えを改善するための処理がカラー画像に対し行われ、例えば、夕景検出して彩度強調といった画像補正がシーンに応じて行われる。この色輝度調整が完了すると圧縮部411で高解像度画像をHEVC等の方法で圧縮する。そして、S502で記録部412は、出力ピーク輝度情報取得部409が取得したmaxDRLをファイルのメタデータに記載してHDR(High Dynamic Range)信号413を生成し、S503で出力する。これにより、maxDRLがHDR信号413に対応付けて記録される。 After that, the color image is subjected to processing for improving the appearance of the image by the color luminance adjustment unit 410. For example, image correction such as chroma saturation enhancement is performed by detecting the evening scene according to the scene. When this color brightness adjustment is completed, the compression unit 411 compresses the high-resolution image by a method such as HEVC. Then, in S502, the recording unit 412 describes the maxDRL acquired by the output peak luminance information acquisition unit 409 in the metadata of the file, generates an HDR (High Dynamic Range) signal 413, and outputs it in S503. As a result, maxDRL is recorded in association with the HDR signal 413 .

図7に、HDR信号記録用のファイル構造の例を示す。71にはサムネイル画像72などのヘッダ情報が格納され、73にはメタデータ74や本画像データ75などの本画像に関する情報が格納される。S502では、図7のメタデータ74にmaxDRLを記録してもよいし、その他特定の領域に記載してもよい。なお、実際にはHDR信号をPQで表すには最低限10bitの深度が必要であるが従来のJPEGフォーマットだと8bitであるため新たに静止画HDR用のコンテナを採用する必要がある。ここでは、MPEG(Moving Picture Experts Group)-H Part 12(ISO/IEC 23008-12)で定義された画像ファイルフォーマットであるHEIF(High Efficiency Image File Format)形式のコンテナを使用する。HEIFは本画像だけでなく、サムネイルや複数の時間的に関連ある画像やEXIFやXMPといったメタデータも1つのファイルの中に格納することができるという特徴がある。よって、HEVCでエンコードされた10bitのイメージシーケンスも格納できる。先述したmaxCLLはHEIF規格で定義されているわけではないが、本提案ではmaxCLLはもとよりmaxDRLについてもExifのMakerNoteに格納することとする。 FIG. 7 shows an example of a file structure for HDR signal recording. Header information such as a thumbnail image 72 is stored in 71, and information related to the main image such as metadata 74 and main image data 75 is stored in 73. FIG. In S502, maxDRL may be recorded in the metadata 74 of FIG. 7, or may be described in another specific area. In practice, a minimum depth of 10 bits is required to represent an HDR signal in PQ, but the conventional JPEG format requires 8 bits, so a new container for still image HDR must be adopted. Here, a container in HEIF (High Efficiency Image File Format) format, which is an image file format defined by MPEG (Moving Picture Experts Group)-H Part 12 (ISO/IEC 23008-12), is used. HEIF has the feature that not only the main image but also thumbnails, multiple temporally related images, and metadata such as EXIF and XMP can be stored in one file. Therefore, HEVC-encoded 10-bit image sequences can also be stored. The aforementioned maxCLL is not defined in the HEIF standard, but in this proposal, not only maxCLL but also maxDRL is stored in Exif MakerNote.

さらに、HDR信号413をSDR環境で視聴するため、maxDRLを用いてSDR(Standard Dynamic Range)信号にトーンマッピングする方法について図8を用いて説明する。この処理は制御部21または信号処理回路25によって実施することができるが、ここでは制御部21が実施するものとする。 Furthermore, in order to view the HDR signal 413 in an SDR environment, a method of tone mapping to an SDR (Standard Dynamic Range) signal using maxDRL will be described with reference to FIG. Although this processing can be performed by the control unit 21 or the signal processing circuit 25, it is assumed here that the control unit 21 performs the processing.

S801で制御部21は、HDR信号をSDR信号用のEOTFの値域の最大値に表示する際の、上限リミット値Lmaxおよび下限リミット値Lminを設定する。例えばLmaxは2,000nits、Lminは100nitsとすることができるが、これらに限定されない。また、上限リミット値Lmaxおよび下限リミット値Lminはユーザが設定可能であってもよい。 In S801, the control unit 21 sets the upper limit value Lmax and the lower limit value Lmin when displaying the HDR signal at the maximum value of the EOTF value range for the SDR signal. For example, Lmax can be 2,000 nits and Lmin can be 100 nits, but they are not limited to these. Also, the upper limit value Lmax and the lower limit value Lmin may be settable by the user.

次にS802で制御部21は、HDR信号が記録されたファイルのメタデータからmaxDRLを取得する。
S803で制御部21は、LmaxとmaxDRLとを比較する。ここで、maxDRLがLmax以上であれば、S804で制御部21は、LmaxがSDRのEOTFの定義域の最大値となるようにトーンマッピングする。
Next, in S802, the control unit 21 acquires maxDRL from the metadata of the file in which the HDR signal is recorded.
In S803, the control unit 21 compares Lmax and maxDRL. Here, if maxDRL is equal to or greater than Lmax, in S804 the control unit 21 performs tone mapping so that Lmax becomes the maximum value of the EOTF domain of SDR.

一方、maxDRLがLmax未満であれば、S805で制御部21は、maxDRLとLminとを比較する。maxDRLがLmin以下であれば、S806で制御部21は、LminがSDRのEOTFの定義域の最大値となるようにトーンマッピングする。また、maxDRLがLminより大きい場合、S807で制御部21は、maxDRLがSDRのEOTFの定義域の最大値となるようにトーンマッピングする。 On the other hand, if maxDRL is less than Lmax, the control unit 21 compares maxDRL with Lmin in S805. If maxDRL is equal to or less than Lmin, in S806 the control unit 21 performs tone mapping so that Lmin becomes the maximum value of the EOTF domain of SDR. If maxDRL is greater than Lmin, in S807 the control unit 21 performs tone mapping such that maxDRL is the maximum value of the EOTF domain of SDR.

次に、S808で制御部21は、トーンマッピングにより得られたSDR信号を表示器27に表示する。
S809で制御部21は、トーンマッピングされたSDR信号をSDRフォーマットで保存するか否かを、例えば表示器27にGUIを表示してユーザに問い合わせる。ユーザから例えば操作部23を通じて保存が指示されれば、S810で制御部21はSDRフォーマットでSDR信号を記憶部26に保存する。ユーザから保存しない旨の指示があった場合、制御部21はSDR信号を保存せずに処理を終了する。
Next, in S<b>808 , the control unit 21 displays the SDR signal obtained by tone mapping on the display 27 .
In S809, the control unit 21 displays a GUI on the display 27, for example, to inquire of the user whether to save the tone-mapped SDR signal in the SDR format. For example, if the user instructs to save the signal through the operation unit 23, the control unit 21 saves the SDR signal in the SDR format in the storage unit 26 in S810. When the user instructs not to store the SDR signal, the control unit 21 terminates the process without storing the SDR signal.

以上説明したように、本実施形態では、HDR信号をファイル記録する際に、出力Dレンジのピーク輝度情報であるmaxDRLをメタデータとして記載するようにした。これにより、HDR信号のダイナミックレンジを考慮してSDR信号にマッピングすることが可能になり、HDR信号をHDR環境で視聴した場合と、SDR信号にマッピングしてSDR環境で視聴した場合との明るさの差を抑制することができる。 As described above, in the present embodiment, when an HDR signal is recorded in a file, maxDRL, which is peak luminance information of the output D range, is described as metadata. As a result, the dynamic range of the HDR signal can be taken into consideration when mapping to the SDR signal, and the brightness when the HDR signal is viewed in the HDR environment and the brightness when the SDR signal is mapped and viewed in the SDR environment difference can be suppressed.

●(第2実施形態)
次に、本発明の第2実施形態について図9~11を用いて説明する。第1実施形態では、HDR信号をファイル記録する際に、出力Dレンジのピーク輝度情報であるmaxDRLをメタデータとして記載する方法を記述した。第2実施形態では、ファイル記録されたHDR信号に対して、トーンカーブ補正等で出力Dレンジのピーク輝度が変更されるようなレタッチを行った場合におけるmaxDRLの更新方法ついて述べる。
● (Second embodiment)
Next, a second embodiment of the present invention will be described with reference to FIGS. 9-11. In the first embodiment, a method of describing maxDRL, which is the peak luminance information of the output D range, as metadata when recording an HDR signal into a file has been described. In the second embodiment, a method of updating maxDRL when retouching an HDR signal recorded in a file so as to change the peak luminance of the output D range by tone curve correction or the like will be described.

図9において、902~905は、制御部21が行う処理を機能ブロックとして記載したものであるが、その1つ以上がハードウェア回路として実現されてもよい。
S1001(図10)で出力ピーク輝度情報取得部902は、HDR信号901のメタデータに記載されたmaxDRLを取得する。
S1002で色輝度調整部903は、表示器27にHDR信号901に基づく画像と、トーンカーブ補正など画像のレタッチ用GUIを表示する。また、色輝度調整部903は、操作部23を通じたユーザ指示に従って画像の色や輝度を補正する。
S1003で色輝度調整後の出力ピーク輝度情報算出部904は、出力ピーク輝度情報取得部902が取得したmaxDRLに対して、レタッチによる画像補正を反映させた出力Dレンジのピーク輝度情報maxDRL_rを算出する。補正前の入力信号の階調値をx、補正後の階調値をy、補正の入出力特性をfとすると、yは以下の(式1)を用いて求められる。
y=f(x)…(式1)
In FIG. 9, 902 to 905 describe the processing performed by the control unit 21 as functional blocks, but one or more of them may be implemented as hardware circuits.
In S<b>1001 ( FIG. 10 ), the output peak luminance information acquisition unit 902 acquires maxDRL described in the metadata of the HDR signal 901 .
In S<b>1002 , the color/luminance adjustment unit 903 displays an image based on the HDR signal 901 and a GUI for image retouching such as tone curve correction on the display device 27 . Also, the color brightness adjustment unit 903 corrects the color and brightness of the image according to the user's instruction through the operation unit 23 .
In S1003, the output peak luminance information calculation unit 904 after color luminance adjustment calculates the peak luminance information maxDRL_r of the output D range in which the image correction by retouching is reflected in the maxDRL acquired by the output peak luminance information acquisition unit 902. . Let x be the gradation value of the input signal before correction, y be the gradation value after correction, and f be the input/output characteristics of the correction.
y=f(x) (Formula 1)

このとき、0≦x≦maxDRLの範囲の階調値に対して入出力特性fの補正を行い、補正後の階調値yの最大値をymaxとすると、トーンカーブ補正により、補正後のHDR信号の階調値は0≦y≦ymaxを満たす。このとき、出力ピーク輝度情報算出部904はmaxDRL_rを以下の(式2)で求める。
maxDRL_r=ymax…(式2)
At this time, if the input/output characteristics f are corrected for the tone values in the range of 0≦x≦maxDRL, and the maximum value of the tone values y after correction is ymax, the corrected HDR The gradation value of the signal satisfies 0≦y≦ymax. At this time, the output peak luminance information calculation unit 904 obtains maxDRL_r by the following (Equation 2).
maxDRL_r=ymax (Formula 2)

レタッチ例ならびにmaxDRL_rの算出の例を図11(a)~11(c)に示す。図11(a)はレタッチ前の輝度ヒストグラム、図11(b)は輝度が高くなるようレタッチした場合の輝度ヒストグラム、図11(c)は輝度が低くなるようレタッチした場合の輝度ヒストグラムをそれぞれ表す。図11(b)のようなレタッチを行うと、maxDRL_rはmaxDRLより大きく、逆に図11(c)のようなレタッチを行うと、maxDRL_rはmaxDRLより小さくなる。
S1004で記録部905は、maxDRL_rをHDR信号のメタデータ74に記録する。
S1005で記録部905は、HDR信号のファイルを記憶部26に記録する。
Examples of retouching and calculation of maxDRL_r are shown in FIGS. 11(a) to 11(c). FIG. 11(a) shows the luminance histogram before retouching, FIG. 11(b) shows the luminance histogram after retouching to increase the luminance, and FIG. 11(c) shows the luminance histogram after retouching to decrease the luminance. . When retouching as shown in FIG. 11(b) is performed, maxDRL_r becomes larger than maxDRL, and conversely, when retouching as shown in FIG. 11(c) is performed, maxDRL_r becomes smaller than maxDRL.
In S1004, the recording unit 905 records maxDRL_r in the metadata 74 of the HDR signal.
In S<b>1005 , the recording unit 905 records the HDR signal file in the storage unit 26 .

また、レタッチされたHDR信号に対して第1実施形態を適用し、maxDRL_rがSDRのEOTFの定義域の最大値となるようトーンマッピングを行うことで、レタッチされたHDR信号もSDR環境で適切な明るさで視聴できる。 In addition, by applying the first embodiment to the retouched HDR signal and performing tone mapping such that maxDRL_r is the maximum value of the EOTF domain of SDR, the retouched HDR signal is also suitable in the SDR environment. You can see it in the light.

●(第3実施形態)
次に、本発明の第3実施形態について図12を用いて説明する。第1および第2実施形態では、保存されたHDR信号をSDR環境で視聴するための手順について説明した。本実施形態では、HDR信号をSDR環境でトーンカーブ補正等のレタッチを行った際に、レタッチ中及びレタッチ後のHDR信号をSDR環境で視聴するためにリアルタイムにトーンマッピングする方法について述べる。
● (Third Embodiment)
Next, a third embodiment of the invention will be described with reference to FIG. In the first and second embodiments, procedures for viewing stored HDR signals in an SDR environment have been described. In the present embodiment, when an HDR signal is retouched such as tone curve correction in an SDR environment, a method of performing tone mapping in real time so that the HDR signal during and after retouching can be viewed in an SDR environment will be described.

S1201~S1203で、第2実施形態のS1001~S1003と同様の手順により、レタッチ情報を加味した出力Dレンジピーク輝度情報maxDRL_rを算出する。次に、S1204~S1210にて、第1実施形態のS801~S808と同様の手順により、HDR信号をSDR信号にトーンマッピングし、表示器27に表示する。ここでの表示はSDR環境での視聴に相当する。 In S1201 to S1203, output D-range peak luminance information maxDRL_r with retouch information added is calculated by the same procedure as in S1001 to S1003 of the second embodiment. Next, in S1204 to S1210, the HDR signal is tone-mapped to the SDR signal and displayed on the display 27 by the same procedure as in S801 to S808 of the first embodiment. The display here corresponds to viewing in an SDR environment.

次に、S1211で制御部21は、レタッチしたHDR信号を新規ファイルとして保存するか否かを、例えば表示器27にGUIを表示してユーザに問い合わせる。ユーザから例えば操作部23を通じて保存が指示されれば、S1212で制御部21はメタデータ74にmaxDRL_rを保存したHDR信号を記憶部26に保存し、処理をS1213に進める。また、ユーザから保存しない旨の指示があった場合、制御部21はHDR信号を保存せずに処理をS1213に進める。
S1213~S1214は第1実施形態のS809~S810と同様であるため説明を省略する。
Next, in S1211, the control unit 21 displays a GUI on the display 27, for example, to inquire of the user whether to save the retouched HDR signal as a new file. For example, if the user instructs to save via the operation unit 23, the control unit 21 saves the HDR signal with maxDRL_r saved in the metadata 74 in the storage unit 26 in S1212, and advances the process to S1213. If the user instructs not to save the HDR signal, the control unit 21 advances the process to S1213 without saving the HDR signal.
Since S1213 to S1214 are the same as S809 to S810 of the first embodiment, description thereof is omitted.

本実施形態によれば、SDR環境でHDR信号をレタッチしても、レタッチ後のHDR信号のファイルにmaxDRLを保存して記録してすることができる。そのため、HDR信号をSDR環境で視聴する際にはmaxDRLを参照することで、レタッチ後の出力Dレンジの最大輝度値をSDR信号のEOTFの定義域の最大値にマッピングさせることができる。 According to this embodiment, even if an HDR signal is retouched in an SDR environment, maxDRL can be saved and recorded in a file of the HDR signal after retouching. Therefore, when viewing an HDR signal in an SDR environment, by referring to maxDRL, the maximum luminance value of the output D range after retouching can be mapped to the maximum value of the EOTF domain of the SDR signal.

なお、SDR環境にて、RAWファイルに対して現像ソフトウェア等を用いてHDRフォーマットに現像する場合であっても、第3実施形態の手順により、HDR信号をSDR信号にトーンマッピングしたものを表示してもよい。 Note that even when a RAW file is developed into an HDR format using development software or the like in an SDR environment, a tone-mapped HDR signal to an SDR signal is displayed according to the procedure of the third embodiment. may

●(第4実施形態)
次に、本発明の第4実施形態について説明する。第2実施形態では、画像のレタッチによりピーク輝度が変更された場合に、メタデータとしてのmaxDRLを更新するようにした。一方、本実施形態では、画像のレタッチによりピーク輝度が変更された場合であっても、メタデータとしてのmaxDRLを更新しない。レタッチ、例えばシャープネスの強さの変更によって画像のピーク輝度が変化し、maxDRLが更新される場合を想定する。この場合、maxDRLに基づきSDRへのトーンマッピングを行うと、シャープネスの強さによって画像の階調が変化することになる。しかし、例えばユーザがシャープネスの強さを変えながら画像を確認したい場合には、画像の階調は変えずに、シャープネスの効果のみを変更することが望ましい。そこで本実施形態では、画像のレタッチによりピーク輝度が変更された場合であっても、メタデータとしてのmaxDRLを更新しないこととした。なお、第2実施形態のようにmaxDRLを更新するモードと、本実施形態のようにmaxDRLを更新しないモードとを、ユーザ操作により、または自動的に選択可能にしてもよい。
● (Fourth Embodiment)
Next, a fourth embodiment of the invention will be described. In the second embodiment, maxDRL as metadata is updated when the peak luminance is changed due to image retouching. On the other hand, in this embodiment, even if the peak luminance is changed due to image retouching, maxDRL as metadata is not updated. Assume that retouching, eg changing the sharpness intensity changes the peak luminance of the image and updates maxDRL. In this case, if tone mapping to SDR is performed based on maxDRL, the gradation of the image will change depending on the strength of sharpness. However, for example, when the user wants to check the image while changing the strength of sharpness, it is desirable to change only the effect of sharpness without changing the gradation of the image. Therefore, in the present embodiment, even when the peak luminance is changed due to image retouching, maxDRL as metadata is not updated. Note that the mode in which maxDRL is updated as in the second embodiment and the mode in which maxDRL is not updated as in this embodiment may be selectable by a user operation or automatically.

●(第5実施形態)
上記の実施形態では、主に静止画ファイルを想定した説明を行った。本実施形態では、動画ファイルを想定した実施形態について説明する。
図13(a)は、動画ファイルフォーマットの一例であるMP4フォーマットのデータ構造を示す。MP4フォーマットのデータ構造は、メタデータを記録する領域1301と、動画のストリーム1305を記録する領域1304を含む。このうち領域1301はEXIF領域1302とサムネイル領域1303を含み、maxDRLはEXIF領域1302に記録される。しかしながら、動画データは、例えば記録中にモード変更があった場合、連続して記録された動画データの途中でピーク輝度が変わる場合がある。この場合、EXIF領域1302にmaxDRLとして何を記録するかが問題となる。そこで本実施形態では、動画撮影開始時の設定に基づくピーク輝度(動画データの開始フレームのピーク輝度)をmaxDRLとしてEXIF領域1302に記録することとした。なお、maxDRLとしては、動画データのピーク輝度を代表する値であれば他の値を用いてもよい。例えば、動画データの終了フレームのピーク輝度、全フレームのピーク輝度のうちの最大値、全フレームのピーク輝度のうちの最小値、全フレームのピーク輝度のうちの平均値、全フレームのピーク輝度の中央値などを用いることができる。
● (Fifth embodiment)
In the above embodiment, the explanation has mainly been given assuming a still image file. In this embodiment, an embodiment assuming a moving image file will be described.
FIG. 13(a) shows the data structure of the MP4 format, which is an example of the moving image file format. The MP4 format data structure includes an area 1301 for recording metadata and an area 1304 for recording a moving image stream 1305 . An area 1301 includes an EXIF area 1302 and a thumbnail area 1303 , and maxDRL is recorded in the EXIF area 1302 . However, for moving image data, if there is a mode change during recording, the peak luminance may change in the middle of continuously recorded moving image data. In this case, the problem is what to record as maxDRL in the EXIF area 1302 . Therefore, in the present embodiment, the peak luminance (the peak luminance of the start frame of the moving image data) based on the setting at the start of moving image shooting is recorded in the EXIF area 1302 as maxDRL. As maxDRL, another value may be used as long as it represents the peak luminance of moving image data. For example, the peak luminance of the end frame of the video data, the maximum value of the peak luminances of all frames, the minimum value of the peak luminances of all frames, the average value of the peak luminances of all frames, and the peak luminance of all frames. A median value or the like can be used.

またファイル形式によっては、図13(b)のようにフレームごとにメタデータを記録可能なものもある。1311、1312、1313、1314は図13(a)の1301、1302、1303、1304と同様である。領域1315は動画の1フレーム目であり、領域1317は動画の2フレーム目である。さらに図13(b)のファイル形式は、フレームごとのメタデータ領域を含む。領域1316は1フレーム目のメタデータ領域であり、領域1318は2フレーム目のメタデータ領域である。このようなファイル形式の場合、フレームごとのピーク輝度をmaxDRLとして記録してもよい。この場合は、フレームごとのメタデータ領域1316、1318に、フレームごとのピーク輝度を記録する。もちろんファイル全体のメタデータ領域であるEXIF領域1312に、前述した代表のピーク輝度をさらに記載してもよい。 In some file formats, metadata can be recorded for each frame as shown in FIG. 13(b). 1311, 1312, 1313 and 1314 are the same as 1301, 1302, 1303 and 1304 in FIG. 13(a). A region 1315 is the first frame of the moving image, and a region 1317 is the second frame of the moving image. Furthermore, the file format of FIG. 13(b) includes a metadata area for each frame. An area 1316 is a metadata area for the first frame, and an area 1318 is a metadata area for the second frame. In the case of such a file format, the peak luminance for each frame may be recorded as maxDRL. In this case, the peak luminance for each frame is recorded in metadata areas 1316 and 1318 for each frame. Of course, the above representative peak luminance may be further described in the EXIF area 1312, which is the metadata area of the entire file.

●(その他の実施形態)
上記の実施形態では、ファイルのメタデータとしてmaxDRLを記述したが、必ずしもファイルのメタデータとして取り扱う場合に限定されない。例えば、デジタルカメラとHDRディスプレイを直接HDMI(登録商標)で接続してHDR信号を出力させるような場合は、以下のような形態が考えられる。例えばデジタルカメラは、maxDRLに相当する値を、HDR信号のメタデータとして出力信号用の記録媒体に読み出し、HDRディスプレイにその値が入力されるような形態である。
● (other embodiments)
In the above embodiment, maxDRL is described as file metadata, but it is not necessarily limited to handling as file metadata. For example, when a digital camera and an HDR display are directly connected via HDMI (registered trademark) to output an HDR signal, the following configuration is conceivable. For example, a digital camera reads a value corresponding to maxDRL as metadata of an HDR signal to a recording medium for output signals, and inputs the value to an HDR display.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1…カメラ本体、2…交換レンズ、10…撮像素子、21…制御部、25…信号処理回路、51…レンズ制御部、405…ガンマ変換部、410…色輝度変換部 DESCRIPTION OF SYMBOLS 1... Camera main body 2... Interchangeable lens 10... Imaging element 21... Control part 25... Signal processing circuit 51... Lens control part 405... Gamma conversion part 410... Color brightness conversion part

Claims (18)

HDR(High Dynamic Range)信号をファイルとして記録する画像処理装置であって、
前記HDR信号の撮影条件に応じて、前記画像処理装置に予め設定された異なる複数の出力ダイナミックレンジのうち、前記HDR信号の撮影条件に応じた1つの出力ダイナミックレンジピーク輝度を示す情報を取得する取得手段と、
前記取得手段により取得された前記情報に基づく第1の値を、前記HDR信号とともに前記ファイルに記録する記録手段と、
を有することを特徴とする画像処理装置。
An image processing device that records an HDR (High Dynamic Range) signal as a file,
Acquiring information indicating a peak luminance of one output dynamic range corresponding to the HDR signal imaging conditions among a plurality of different output dynamic ranges preset in the image processing device according to the HDR signal imaging conditions. a obtaining means for
recording means for recording a first value based on the information acquired by the acquisition means in the file together with the HDR signal;
An image processing device comprising:
被写体を撮像する撮像素子をさらに有し、
前記HDR信号は、前記撮像素子から得られる信号から生成され、
前記撮影条件は、撮影モードを含み、
前記撮影モードは、前記異なる複数の出力ダイナミックレンジに対応する複数の撮影モードの1つであることを特徴とする請求項1に記載の画像処理装置。
further having an imaging element for imaging a subject,
The HDR signal is generated from a signal obtained from the imaging element,
The shooting conditions include a shooting mode,
2. The image processing apparatus according to claim 1, wherein said shooting mode is one of a plurality of shooting modes corresponding to said plurality of different output dynamic ranges.
前記撮影条件に含まれる撮影モードに応じて、前記撮像素子から得られる信号に適用されるコントラスト調整用の階調特性が異なることを特徴とする請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein the gradation characteristic for contrast adjustment applied to the signal obtained from the image sensor differs according to the shooting mode included in the shooting conditions. 前記異なる複数の出力ダイナミックレンジが前記コントラスト調整用の階調特性に応じて定まり、前記ピーク輝度は、前記1つの出力ダイナミックレンジ前記コントラスト調整用の階調特性における最大の出力値であることを特徴とする請求項3に記載の画像処理装置。 The plurality of different output dynamic ranges are determined according to the contrast adjustment gradation characteristics, and the peak luminance is the maximum output value in the contrast adjustment gradation characteristics of the one output dynamic range. 4. The image processing apparatus according to claim 3. 前記HDR信号に対する色または輝度の補正により前記ピーク輝度が変化した場合、前記第1の値を更新する更新手段をさらに有することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 5. An image according to any one of claims 1 to 4, further comprising updating means for updating said first value when said peak luminance changes due to color or luminance corrections to said HDR signal. processing equipment. 前記HDR信号に対する色または輝度の補正により前記ピーク輝度が変化した場合であっても、前記第1の値を更新しないことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 5. The image processing according to any one of claims 1 to 4, wherein the first value is not updated even when the peak luminance changes due to color or luminance correction for the HDR signal. Device. 前記第1の値に基づき、前記HDR信号の階調値を、異なるダイナミックレンジを有する所定のフォーマットにおける階調値に変換することにより、前記HDR信号を前記所定のフォーマットの信号に変換する変換手段をさらに有することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 Conversion means for converting the HDR signal into a signal of the predetermined format by converting the grayscale values of the HDR signal into grayscale values in a predetermined format having a different dynamic range based on the first value. 7. The image processing apparatus according to any one of claims 1 to 6, further comprising: 前記異なるダイナミックレンジとは、SDR(Standard Dynamic Range)であることを特徴とする請求項7に記載の画像処理装置。 8. The image processing apparatus according to claim 7, wherein the different dynamic range is SDR (Standard Dynamic Range). 前記ファイルがHEIF(High Efficiency Image File Format)で記録されることを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 9. The image processing apparatus according to claim 1, wherein said file is recorded in HEIF (High Efficiency Image File Format). HDR(High Dynamic Range)信号を処理する画像処理装置であって、
前記HDR信号に対応付けて記録された第1の値を取得する取得手段と、ここで、前記第1の値は、前記画像処理装置に予め設定された異なる複数の出力ダイナミックレンジのうち、前記HDR信号の撮影条件に応じた1つの出力ダイナミックレンジのピーク輝度を示し、
前記第1の値に基づき、前記HDR信号の階調値を、異なるダイナミックレンジを有する所定のフォーマットにおける階調値にトーンマッピングすることにより、前記HDR信号を前記所定のフォーマットの信号に変換する変換手段と、
を有することを特徴とする画像処理装置。
An image processing device that processes HDR (High Dynamic Range) signals,
obtaining means for obtaining a first value recorded in association with the HDR signal , wherein the first value is selected from among a plurality of different output dynamic ranges preset in the image processing apparatus; Shows the peak luminance of one output dynamic range according to the shooting conditions of the HDR signal,
transforming the HDR signal into a signal of the predetermined format by tone mapping the grayscale values of the HDR signal to grayscale values in a predetermined format having a different dynamic range based on the first value; means and
An image processing device comprising:
前記変換手段は、前記第1の値が予め定められた第2の値よりも小さい場合、前記第1の値が前記所定のフォーマットにおける最大の階調値になるようトーンマッピングすることを特徴とする請求項10に記載の画像処理装置。 When the first value is smaller than a predetermined second value, the conversion means performs tone mapping so that the first value becomes the maximum gradation value in the predetermined format. 11. The image processing apparatus according to claim 10. 前記変換手段は、前記第1の値が予め定められた第2の値よりも大きい場合、前記第2の値を前記所定のフォーマットにおける最大の階調値になるようトーンマッピングすることを特徴とする請求項10または11に記載の画像処理装置。 When the first value is larger than a predetermined second value, the converting means performs tone mapping so that the second value becomes the maximum gradation value in the predetermined format. 12. The image processing apparatus according to claim 10 or 11. 前記所定のフォーマットの信号とは、SDR(Standard Dynamic Range)信号であることを特徴とする請求項10から12のいずれか1項に記載の画像処理装置。 13. The image processing apparatus according to any one of claims 10 to 12, wherein said predetermined format signal is an SDR (Standard Dynamic Range) signal. 前記HDR信号は、HEIF(High Efficiency Image File Format)形式のファイルとして記録されていることを特徴とする請求項10から13のいずれか1項に記載の画像処理装置。 14. The image processing apparatus according to any one of claims 10 to 13, wherein the HDR signal is recorded as a file in HEIF (High Efficiency Image File Format) format. HDR(High Dynamic Range)信号をファイルとして記録する画像処理装置の制御方法であって、
前記画像処理装置に予め設定された異なる複数の出力ダイナミックレンジのうち、前記HDR信号の撮影条件に応じた1つの出力ダイナミックレンジピーク輝度を示す情報を取得する取得工程と、
前記取得工程において取得された前記情報に基づく第1の値を、前記HDR信号とともに前記ファイルに記録する記録する記録工程と、
を有することを特徴とする、画像処理装置の制御方法。
A control method for an image processing device that records an HDR (High Dynamic Range) signal as a file,
an obtaining step of obtaining information indicating a peak luminance of one output dynamic range according to the shooting conditions of the HDR signal among a plurality of different output dynamic ranges preset in the image processing device ;
a recording step of recording a first value based on the information obtained in the obtaining step in the file together with the HDR signal;
A control method for an image processing device, comprising:
HDR(High Dynamic Range)信号をファイルとして記録する画像処理装置の制御方法であって、
前記HDR信号に対応付けられて記録された第1の値を取得する取得する取得工程と、ここで、前記第1の値は、前記画像処理装置に予め設定された異なる複数の出力ダイナミックレンジのうち、前記HDR信号の撮影条件に応じた1つの出力ダイナミックレンジのピーク輝度を示し、
前記第1の値に基づき、前記HDR信号の階調値を、異なるダイナミックレンジを有する所定のフォーマットにおける階調値にトーンマッピングすることにより、前記HDR信号を前記所定のフォーマットの信号に変換する変換工程と、
を有することを特徴とする、画像処理装置の制御方法。
A control method for an image processing device that records an HDR (High Dynamic Range) signal as a file,
an acquiring step of acquiring a first value recorded in association with the HDR signal , wherein the first value is one of a plurality of different output dynamic ranges preset in the image processing device; Among them, showing the peak luminance of one output dynamic range according to the shooting conditions of the HDR signal,
transforming the HDR signal into a signal of the predetermined format by tone mapping the grayscale values of the HDR signal to grayscale values in a predetermined format having a different dynamic range based on the first value; process and
A control method for an image processing device, comprising:
コンピュータを、請求項1から9のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit included in the image processing apparatus according to any one of claims 1 to 9. コンピュータを、請求項10から14のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit included in the image processing apparatus according to any one of claims 10 to 14.
JP2019141685A 2018-09-03 2019-07-31 Image processing device and its control method Active JP7157714B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/554,968 US11354789B2 (en) 2018-09-03 2019-08-29 Image processing apparatus and control method thereof
US17/742,054 US11798143B2 (en) 2018-09-03 2022-05-11 Image processing apparatus and control method thereof
JP2022161830A JP7371197B2 (en) 2018-09-03 2022-10-06 Image processing device and its control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018164801 2018-09-03
JP2018164801 2018-09-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022161830A Division JP7371197B2 (en) 2018-09-03 2022-10-06 Image processing device and its control method

Publications (3)

Publication Number Publication Date
JP2020039118A JP2020039118A (en) 2020-03-12
JP2020039118A5 JP2020039118A5 (en) 2022-07-06
JP7157714B2 true JP7157714B2 (en) 2022-10-20

Family

ID=69738366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019141685A Active JP7157714B2 (en) 2018-09-03 2019-07-31 Image processing device and its control method

Country Status (1)

Country Link
JP (1) JP7157714B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111885393A (en) * 2020-07-31 2020-11-03 广州华多网络科技有限公司 Live broadcast method, system, storage medium and equipment
JP2023041497A (en) 2021-09-13 2023-03-24 キヤノン株式会社 Image processing device, imaging device, control method, and program
CN114727029B (en) * 2022-03-21 2024-03-22 北京百度网讯科技有限公司 Video processing method and device, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015190246A (en) 2014-03-28 2015-11-02 Toto株式会社 urinal
JP2017528971A (en) 2014-08-08 2017-09-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for encoding HDR images

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6624889B2 (en) * 2015-10-30 2019-12-25 キヤノン株式会社 Video processing apparatus, video processing method, and video processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015190246A (en) 2014-03-28 2015-11-02 Toto株式会社 urinal
JP2017528971A (en) 2014-08-08 2017-09-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for encoding HDR images

Also Published As

Publication number Publication date
JP2020039118A (en) 2020-03-12

Similar Documents

Publication Publication Date Title
JP4466261B2 (en) Imaging apparatus, brightness correction method, and program
JP3551123B2 (en) Electronic camera
JP6675194B2 (en) Imaging device, control method therefor, program, and storage medium
JP5660341B2 (en) Imaging apparatus and imaging method
JP7371197B2 (en) Image processing device and its control method
JP2007180631A (en) Imaging apparatus and photographing method
JP7157714B2 (en) Image processing device and its control method
JP2005269373A (en) Video signal processing system, and electronic video apparatus
WO2013153811A1 (en) Imaging device and method for controlling same
JP2019004230A (en) Image processing device and method, and imaging apparatus
US10785462B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2003134520A (en) Digital camera
JP2002209125A (en) Digital camera
JP2006253970A (en) Imaging apparatus, shading correction data generating method, and program
CN111866399B (en) Image processing apparatus, control method thereof, and computer readable medium
JP7397640B2 (en) Image processing device and image processing method
JP5904753B2 (en) Image processing apparatus and image processing apparatus control method
US11641525B2 (en) Image capturing apparatus capable of displaying live view image high in visibility, method of controlling image capturing apparatus, and storage medium
US8854256B2 (en) Image capture apparatus and method of controlling the same
JP2006109046A (en) Imaging device
JP2009089358A (en) Imaging apparatus and imaging method
JP2005051593A (en) Camera
JP2001305417A (en) Electronic camera

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221007

R151 Written notification of patent or utility model registration

Ref document number: 7157714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151