JP2018023033A - Image data generator, image data reproduction apparatus, and image data editing device - Google Patents

Image data generator, image data reproduction apparatus, and image data editing device Download PDF

Info

Publication number
JP2018023033A
JP2018023033A JP2016153739A JP2016153739A JP2018023033A JP 2018023033 A JP2018023033 A JP 2018023033A JP 2016153739 A JP2016153739 A JP 2016153739A JP 2016153739 A JP2016153739 A JP 2016153739A JP 2018023033 A JP2018023033 A JP 2018023033A
Authority
JP
Japan
Prior art keywords
image data
image
exposure condition
file
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016153739A
Other languages
Japanese (ja)
Inventor
昇市 横井
Shoichi Yokoi
昇市 横井
茂生 阪上
Shigeo Sakagami
茂生 阪上
福島 積
Tsumoru Fukushima
積 福島
知章 塘
Tomoaki To
知章 塘
佐藤 博幸
Hiroyuki Sato
博幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016153739A priority Critical patent/JP2018023033A/en
Publication of JP2018023033A publication Critical patent/JP2018023033A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image data generator which stores plural pieces of image data each having different exposure condition in a single image file which is capable of allowing a print/display device to print/display while selecting/composing an image of tone characteristics suitable to respective dynamic range.SOLUTION: A digital camera 101 includes: means that generates a piece of first image data which is picked up under a first exposure condition; means that generates a piece of second image data which is picked up under a second exposure condition; and means that records the first image data and the second image data, which are stored in a single file.SELECTED DRAWING: Figure 3

Description

本開示は、露光条件が異なる複数の画像データを1つのファイルに格納する画像ファイルを記録する画像データ生成装置などに関する。   The present disclosure relates to an image data generation apparatus that records an image file that stores a plurality of image data with different exposure conditions in one file.

特許文献1は、複数の画像を1つのファイルに格納可能な画像ファイルを生成するデジタルスチルカメラ(以下、「デジタルカメラ」という。)を開示する。   Patent Document 1 discloses a digital still camera (hereinafter referred to as “digital camera”) that generates an image file capable of storing a plurality of images in one file.

このデジタルカメラは、撮像した画像データ(例えば、横6000画素×縦4000画素)から、表示用の画像データ(例えば、横1920画素×縦1080画素)を生成する。表示用の画像データは、ハイビジョンテレビの画素数を有する。このデジタルカメラは、撮像した画像データと表示用の画像データとを同一の画像ファイル内で管理する。   This digital camera generates display image data (eg, horizontal 1920 pixels × vertical 1080 pixels) from captured image data (eg, horizontal 6000 pixels × vertical 4000 pixels). The image data for display has the number of pixels of a high-definition television. This digital camera manages captured image data and display image data in the same image file.

これにより、このデジタルカメラは、撮影した画像の全画素から成る画像データと、ハイビジョンテレビでの表示用の画像データとを、1つのファイルに格納して記録することができる。   As a result, the digital camera can store and record image data composed of all pixels of the captured image and image data for display on a high-definition television in one file.

国際公開第2009/066471号International Publication No. 2009/066471

上記の特許文献1によれば、それぞれの表示装置の画素数に合致した複数の画像データを画像ファイルに格納することにより、迅速に画像を表示できるという利点がある。一方、プリンタやテレビなど、印刷/表示のダイナミックレンジが異なる装置において、印刷/表示される画像の階調特性が同じとなり、それぞれの印刷/表示装置に適した画像の印刷/表示ができない。   According to Patent Document 1 described above, there is an advantage that an image can be displayed quickly by storing a plurality of image data matching the number of pixels of each display device in an image file. On the other hand, in devices having different printing / display dynamic ranges, such as printers and televisions, the gradation characteristics of images to be printed / displayed are the same, and images suitable for each printing / display device cannot be printed / displayed.

本開示は、上記の課題を考慮してなされたものであり、露光条件が異なる複数の画像データを1つの画像ファイルに格納することにより、印刷/表示装置は、それぞれのダイナミックレンジに適した階調特性の画像を選択/合成して印刷/表示することが可能となる画像データ生成装置を提供することを目的とする。   The present disclosure has been made in consideration of the above-described problems. By storing a plurality of pieces of image data with different exposure conditions in one image file, the printing / display apparatus can be used for each dynamic range. It is an object of the present invention to provide an image data generation apparatus that can select / synthesize an image having a tonal characteristic and print / display it.

(1)本開示にかかる第1の画像データ生成装置は、第1の露光条件で撮影された第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影された第2の画像データを生成する手段と、前記第1の画像データと前記第2の画像データとを1つのファイルに格納して記録する手段と、を備える。   (1) A first image data generation device according to the present disclosure includes a unit that generates first image data captured under a first exposure condition, and a second exposure condition that is different from the first exposure condition. Means for generating photographed second image data, and means for storing and recording the first image data and the second image data in one file.

(2)本開示にかかる第2の画像データ生成装置は、第1の露光条件で撮影された第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影された第3の画像データを生成する手段であって、前記第1の露光条件と前記第2の露光条件の差分の露光条件で撮影された第2の画像データと前記第1の画像データを合成して第3の画像データを生成する手段と、前記第1の画像データ又は前記第2の画像データと前記第3の画像データとを1つのファイルに格納して記録する手段と、を備える。   (2) A second image data generation device according to the present disclosure includes a unit that generates first image data captured under a first exposure condition, and a second exposure condition that is different from the first exposure condition. Means for generating photographed third image data, the second image data and the first image data photographed under an exposure condition that is a difference between the first exposure condition and the second exposure condition; And means for generating third image data, and means for storing and recording the first image data or the second image data and the third image data in one file. Prepare.

(3)本開示にかかる第3の画像データ生成装置は、第1の露光条件で撮影された第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影された第2の画像データを生成する手段と、前記第1の画像データと前記第2の画像データを合成した第4の画像データを生成する手段と、前記第1の画像データ又は前記第2の画像データと前記第4の画像データとを1つのファイルに格納して記録する手段と、を備える。   (3) A third image data generation device according to the present disclosure is configured to generate a first image data photographed under a first exposure condition, and a second exposure condition different from the first exposure condition. Means for generating photographed second image data, means for generating fourth image data obtained by combining the first image data and the second image data, and the first image data or the first image data. Means for storing and recording the second image data and the fourth image data in one file.

(4)本開示にかかる第4の画像データ生成装置は、第1の露光条件で撮影され第1の階調特性を有する第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影され前記第1の階調特性を有する第2の画像データを生成する手段と、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第4の画像データを生成する手段と、前記第1の画像データ又は前記第2の画像データと前記第4の画像データとを1つのファイルに格納して記録する手段と、を備える。   (4) A fourth image data generation device according to the present disclosure includes a unit that generates first image data that has been photographed under a first exposure condition and has a first gradation characteristic, and the first exposure condition. Means for generating second image data having the first gradation characteristic, photographed under a different second exposure condition; and combining the first image data and the second image data to generate the first image data. Means for generating fourth image data having a second gradation characteristic different from the gradation characteristic, and the first image data or the second image data and the fourth image data in one file; Means for storing and recording.

(5)本開示にかかる画像データ再生装置は、表示装置で表示すべき画像ファイルに異なる露光条件で撮影され同じ第1の階調特性を有する第1の画像データと第2の画像データが含まれるかどうかを判断する手段と、前記第1の画像データと前記第2の画像データが前記画像ファイルに含まれており、かつ、前記表示装置が第2の階調特性に対応している場合には、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第3の画像データを生成する手段と、前記第3の画像データを再生する手段と、を備える。   (5) An image data reproduction device according to the present disclosure includes first image data and second image data having the same first gradation characteristics that are captured in different exposure conditions in an image file to be displayed on a display device. The first image data and the second image data are included in the image file, and the display device supports the second gradation characteristic. Means for synthesizing the first image data and the second image data to generate third image data having a second gradation characteristic different from the first gradation characteristic; 3 for reproducing the image data.

(6)本開示にかかる画像データ編集装置は、編集すべき画像ファイルに異なる露光条件で撮影され同じ第1の階調特性を有する第1の画像データと第2の画像データが含まれるかどうかを判断する手段と、前記第1の画像データと前記第2の画像データが前記画像ファイルに含まれており、かつ、表示装置が第2の階調特性に対応している場合には、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第3の画像データを生成する手段と、前記第3の画像データを記録する手段と、を備える。   (6) In the image data editing apparatus according to the present disclosure, whether or not the image file to be edited includes first image data and second image data that are captured under different exposure conditions and have the same first gradation characteristics. The first image data and the second image data are included in the image file, and the display device corresponds to the second gradation characteristic, Means for synthesizing the first image data and the second image data to generate third image data having a second gradation characteristic different from the first gradation characteristic; and the third image data Means for recording.

本開示の画像データ生成装置によれば、複数の画像データを格納する画像データを1つのファイルを格納・記録することができる。本開示の画像データ再生装置によれば、表示装置の階調特性に適した画像を選択して再生することができる。本開示の画像データ編集装置によれば、表示生装置のダイナミックレンジや使用者の意図に沿って画像の階調特性を編集・加工することができる。   According to the image data generation device of the present disclosure, it is possible to store and record one file of image data for storing a plurality of image data. According to the image data reproducing device of the present disclosure, it is possible to select and reproduce an image suitable for the gradation characteristics of the display device. According to the image data editing apparatus of the present disclosure, it is possible to edit and process the gradation characteristics of an image in accordance with the dynamic range of the display production apparatus and the user's intention.

実施の形態1にかかるデジタルカメラの構成を示すブロック図1 is a block diagram showing a configuration of a digital camera according to a first embodiment. 実施の形態1にかかるデジタルカメラの背面図1 is a rear view of a digital camera according to a first embodiment. 実施の形態1における画像ファイルのデータ構成図Data structure diagram of image file in Embodiment 1 画像ファイルの他のデータ構成図Other data structure diagram of image file 管理テーブルT10の詳細を示した図The figure which showed the detail of management table T10 実施の形態1における第1の記録動作のフローチャートFlowchart of the first recording operation in the first embodiment 実施の形態1における第2の記録動作のフローチャートFlowchart of second recording operation in the first embodiment 実施の形態1における第3の記録動作のフローチャートFlowchart of third recording operation in the first embodiment 実施の形態1における第4の記録動作のフローチャートFlowchart of the fourth recording operation in the first embodiment 異なる輝度を有する被写体を含む記録画像を示した模式図Schematic diagram showing a recorded image containing subjects with different brightness 図10の記録画像の輝度ヒストグラムを示した図The figure which showed the luminance histogram of the recorded image of FIG. 実施の形態1における第4の記録動作の合成処理のフローチャートFlowchart of composition process of fourth recording operation in embodiment 1 実施の形態1における第4の記録動作の合成処理の概念図Conceptual diagram of composition process of fourth recording operation in Embodiment 1 実施の形態1における再生動作のフローチャートFlowchart of reproduction operation in the first embodiment 画像ファイルの他のデータ構成図Other data structure diagram of image file 別の管理テーブルT10の詳細を示した図The figure which showed the detail of another management table T10

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。   The applicant provides the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and is not intended to limit the subject matter described in the claims. Absent.

(実施の形態1)
以下、実施の形態1では画像データ処理装置をデジタルカメラに適用した場合について図面を参照して説明する。
(Embodiment 1)
In the first embodiment, the case where the image data processing apparatus is applied to a digital camera will be described with reference to the drawings.

〔1−構成〕
〔1−1.デジタルカメラの電気的構成〕
図1は、本開示の実施の形態1にかかるデジタルカメラ101の構成を示すブロック図である。デジタルカメラ101は、光学系120により形成された被写体像をイメージセンサ141で撮像する。イメージセンサ141で生成された画像データは、画像処理部160で各種処理が施され、メモリカード108や内蔵メモリ109に格納される。また、メモリカード108などに格納された画像データは、液晶モニタ110で表示可能である。以下、デジタルカメラ101の構成を詳細に説明する。
[1-Configuration]
[1-1. Electrical configuration of digital camera)
FIG. 1 is a block diagram illustrating a configuration of the digital camera 101 according to the first embodiment of the present disclosure. The digital camera 101 captures the subject image formed by the optical system 120 with the image sensor 141. The image data generated by the image sensor 141 is subjected to various processes by the image processing unit 160 and stored in the memory card 108 or the built-in memory 109. The image data stored in the memory card 108 or the like can be displayed on the liquid crystal monitor 110. Hereinafter, the configuration of the digital camera 101 will be described in detail.

光学系120は、対物レンズ121、ズームレンズ122、絞り123、OISユニット124、フォーカスレンズ125を含む。光学系120は、被写体からの光を集光し、被写体像を形成する。   The optical system 120 includes an objective lens 121, a zoom lens 122, a diaphragm 123, an OIS unit 124, and a focus lens 125. The optical system 120 collects light from the subject and forms a subject image.

対物レンズ121は、最も被写体側に配置されたレンズである。ズームレンズ122は、光学系120の光軸に沿って移動することにより、被写体像を拡大又は縮小可能である。絞り123は、使用者の設定に応じて若しくは自動で、開口部の大きさを調整し、光学系120を透過する光の量を調整する。OISユニット124は、内部に、光軸に垂直な面内で移動可能な補正レンズを有する。OISユニット124は、デジタルカメラ101のぶれを相殺する方向に補正レンズを駆動することにより、被写体像のぶれを低減する。フォーカスレンズ125は、光学系120の光軸に沿って移動することにより、被写体像のピントを調整する。   The objective lens 121 is a lens arranged closest to the subject. The zoom lens 122 can enlarge or reduce the subject image by moving along the optical axis of the optical system 120. The diaphragm 123 adjusts the amount of light transmitted through the optical system 120 by adjusting the size of the opening according to the setting of the user or automatically. The OIS unit 124 includes a correction lens that can move in a plane perpendicular to the optical axis. The OIS unit 124 reduces the blur of the subject image by driving the correction lens in a direction that cancels the blur of the digital camera 101. The focus lens 125 adjusts the focus of the subject image by moving along the optical axis of the optical system 120.

駆動系130は、光学系120内の各光学素子を駆動する。   The drive system 130 drives each optical element in the optical system 120.

ズームモータ132は、ズームレンズ122を光学系120の光軸に沿って駆動する。ズームモータ132は、カム機構やボールネジなどの機構を介してズームレンズ122を駆動するようにしてもよい。ズームモータ132は、パルスモータやDCモータ、リニアモータ、サーボモータなどで実現してもよい。   The zoom motor 132 drives the zoom lens 122 along the optical axis of the optical system 120. The zoom motor 132 may drive the zoom lens 122 via a mechanism such as a cam mechanism or a ball screw. The zoom motor 132 may be realized by a pulse motor, a DC motor, a linear motor, a servo motor, or the like.

絞りアクチュエータ133は、絞り123の開口部の大きさを変えるための駆動部である。絞りアクチュエータ133はモータなどで実現可能である。   The diaphragm actuator 133 is a drive unit for changing the size of the opening of the diaphragm 123. The aperture actuator 133 can be realized by a motor or the like.

OISアクチュエータ134は、OISユニット124内の補正レンズを光軸と垂直な面内で駆動する。OISアクチュエータ134は、平面コイルや超音波モータなどで実現できる。   The OIS actuator 134 drives the correction lens in the OIS unit 124 in a plane perpendicular to the optical axis. The OIS actuator 134 can be realized by a planar coil or an ultrasonic motor.

フォーカスモータ135は、フォーカスレンズ125を光学系120の光軸に沿って駆動する。フォーカスモータ135は、カム機構やボールネジなどの機構を介してフォーカスレンズ125を駆動するようにしてもよい。フォーカスモータ135は、パルスモータやDCモータ、リニアモータ、サーボモータなどで実現してもよい。また、フォーカスモータ135を設けず、ズームモータ132をズームレンズ122及びフォーカスレンズ125を駆動する駆動手段として兼用してもよい。   The focus motor 135 drives the focus lens 125 along the optical axis of the optical system 120. The focus motor 135 may drive the focus lens 125 via a mechanism such as a cam mechanism or a ball screw. The focus motor 135 may be realized by a pulse motor, a DC motor, a linear motor, a servo motor, or the like. Further, the focus motor 135 may be omitted, and the zoom motor 132 may be used as a driving unit that drives the zoom lens 122 and the focus lens 125.

イメージセンサ141は、CMOSまたはCCDで構成されており、光学系120で形成された被写体像を撮像して、画像データを生成する。タイミングジェネレータ142は、イメージセンサ141を駆動するためのタイミング信号を生成する。イメージセンサ141は、タイミングジェネレータ142で生成されるタイミング信号に従って、露光、転送、電子シャッタなどの各種の動作を行う。ADコンバータ105は、イメージセンサ141で生成された画像データをデジタル信号に変換する。   The image sensor 141 is configured by a CMOS or a CCD, and captures a subject image formed by the optical system 120 to generate image data. The timing generator 142 generates a timing signal for driving the image sensor 141. The image sensor 141 performs various operations such as exposure, transfer, and electronic shutter according to the timing signal generated by the timing generator 142. The AD converter 105 converts the image data generated by the image sensor 141 into a digital signal.

画像処理部160は、ADコンバータ105で変換された画像データに対して各種の処理を施す。画像処理部160は、イメージセンサ141で生成された画像データに対して処理を施し、メモリカード108に記録するための画像データを生成したり、液晶モニタ110に表示するための画像データを生成したりする。また、画像処理部160は、メモリカード108に格納された画像データに対して処理を施し、液晶モニタ110に表示するための画像データを生成したり、メモリカード108に再格納するための画像データを生成したり、通信部111を介して外部装置に送信するための画像データを生成したりする。画像処理部160は、DSPやマイクロコンピュータなどで実現可能である。   The image processing unit 160 performs various processes on the image data converted by the AD converter 105. The image processing unit 160 processes the image data generated by the image sensor 141 to generate image data to be recorded on the memory card 108 or to generate image data to be displayed on the liquid crystal monitor 110. Or In addition, the image processing unit 160 performs processing on the image data stored in the memory card 108 to generate image data to be displayed on the liquid crystal monitor 110 and to store the image data in the memory card 108 again. Or image data to be transmitted to an external device via the communication unit 111. The image processing unit 160 can be realized by a DSP or a microcomputer.

前処理部161は、ADコンバータ105で変換された画像データに対して、ガンマ補正やホワイトバランス補正、傷補正などの各種画像処理を行う。YC変換部162は、RGBで表現される画像データをYC(Y:輝度信号、C:色差信号)信号で表現される画像データに変換する。   The preprocessing unit 161 performs various image processing such as gamma correction, white balance correction, and flaw correction on the image data converted by the AD converter 105. The YC conversion unit 162 converts image data expressed in RGB into image data expressed in a YC (Y: luminance signal, C: color difference signal) signal.

電子ズーム処理部165は、画像データに対して電子的に拡大処理又は縮小処理を行う。その際、電子ズーム処理部165は、画像データに対して、画像データの一部の切り出し処理や、間引き処理、補間処理などの処理を適宜実行する。要するに、電子ズーム処理部165は、画像データの画素数を変換する手段である。   The electronic zoom processing unit 165 electronically enlarges or reduces the image data. At that time, the electronic zoom processing unit 165 appropriately executes processes such as a part of the image data clipping process, a thinning process, and an interpolation process on the image data. In short, the electronic zoom processing unit 165 is means for converting the number of pixels of the image data.

圧縮部163は、DCT(離散コサイン変換)、ハフマン符号化などをおこなうことにより、YCで表現される画像データを圧縮する。圧縮部163は、例えば、JPEG規格に準拠した圧縮形式により画像データを圧縮する。但し、本開示は、JPEG形式の画像データに限定されない。   The compression unit 163 compresses image data expressed in YC by performing DCT (Discrete Cosine Transform), Huffman coding, and the like. For example, the compression unit 163 compresses the image data in a compression format compliant with the JPEG standard. However, the present disclosure is not limited to JPEG image data.

伸張部164は、メモリカード108に格納された圧縮済みの画像データを液晶モニタ110で再生する場合などに、この画像データを非圧縮の状態に復号化する。   When the compressed image data stored in the memory card 108 is reproduced on the liquid crystal monitor 110, the decompression unit 164 decodes the image data into an uncompressed state.

合成部166は、バッファメモリ115、メモリカード108、内蔵メモリ109などに格納されている複数の画像データを合成し、新たな画像を生成する。合成される画像はYCで表現されてもよいし、RGBで表現されてもよいし、RAW画像でもよい。合成された画像は、合成前の画像と階調特性を変化させることができる。   The combining unit 166 combines a plurality of image data stored in the buffer memory 115, the memory card 108, the built-in memory 109, and the like to generate a new image. The synthesized image may be expressed in YC, may be expressed in RGB, or may be a RAW image. The synthesized image can change gradation characteristics from the image before synthesis.

コントローラ150は、デジタルカメラ101全体を制御する制御手段である。コントローラ150は、半導体素子などで実現可能である。コントローラ150は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアを組み合わせることにより実現してもよい。コントローラ150は、マイクロコンピュータで実現できる。   The controller 150 is a control unit that controls the entire digital camera 101. The controller 150 can be realized by a semiconductor element or the like. The controller 150 may be configured only by hardware, or may be realized by combining hardware and software. The controller 150 can be realized by a microcomputer.

バッファメモリ115は、画像処理部160及びコントローラ150のワークメモリとして機能する。バッファメモリ115は、例えば、DRAM、強誘電体メモリなどで実現できる。カードスロット107は、メモリカード108を着脱可能である。カードスロット107は、機械的及び電気的にメモリカード108と接続可能である。メモリカード108は、フラッシュメモリや強誘電体メモリなどを内部に含み、データを格納可能である。   The buffer memory 115 functions as a work memory for the image processing unit 160 and the controller 150. The buffer memory 115 can be realized by a DRAM, a ferroelectric memory, or the like, for example. A card slot 107 is detachable from the memory card 108. The card slot 107 can be mechanically and electrically connected to the memory card 108. The memory card 108 includes a flash memory, a ferroelectric memory, and the like, and can store data.

内蔵メモリ109は、フラッシュメモリや強誘電体メモリなどで実現可能である。コントローラ150は、生成した画像ファイルをメモリカード108又は内蔵メモリ109に格納可能である。また、コントローラ150は、メモリカード108に格納されている画像ファイルを読み出して、内蔵メモリ109に格納したり、内蔵メモリ109に格納されている画像ファイルを読み出して、メモリカード108に格納したりすることができる。   The built-in memory 109 can be realized by a flash memory or a ferroelectric memory. The controller 150 can store the generated image file in the memory card 108 or the built-in memory 109. Further, the controller 150 reads out the image file stored in the memory card 108 and stores it in the built-in memory 109 or reads out the image file stored in the built-in memory 109 and stores it in the memory card 108. be able to.

液晶モニタ110は、イメージセンサ141で生成した画像データが示す画像やメモリカード108などから読み出した画像データが示す画像を表示可能である。また、液晶モニタ110は、デジタルカメラ101の各種の設定情報を表示可能である。例えば、液晶モニタ110は、EV値などを表示できる。   The liquid crystal monitor 110 can display an image indicated by image data generated by the image sensor 141 or an image indicated by image data read from the memory card 108 or the like. The liquid crystal monitor 110 can display various setting information of the digital camera 101. For example, the liquid crystal monitor 110 can display an EV value or the like.

通信部111は、外部装置との間で通信を行うための手段である。通信部111は、無線LANユニットやUSB通信ユニットなどで構成できる。操作部170は、各種操作手段を総称した構成要素である。操作部170は、使用者の指示を受け付け、その指示をコントローラ150に伝える。フラッシュライト113は、被写体を照射する光を発光する。   The communication unit 111 is means for performing communication with an external device. The communication unit 111 can be configured by a wireless LAN unit, a USB communication unit, or the like. The operation unit 170 is a component that collectively refers to various operation means. The operation unit 170 receives a user instruction and transmits the instruction to the controller 150. The flashlight 113 emits light that irradiates the subject.

回転検出部190は、デジタルカメラ101の回転状態を検出する。コントローラ150は、回転検出部190が検出したデジタルカメラ101の回転状態に関する情報を取得することができる。例えば、回転検出部190は、回転センサや、角速度センサで実現できる。なお、OISアクチュエータ134が、回転検出部190の役目を果たしてもよい。駆動電流の大きさによって、筐体がどれだけ傾いているか検出することができるからである。   The rotation detection unit 190 detects the rotation state of the digital camera 101. The controller 150 can acquire information related to the rotation state of the digital camera 101 detected by the rotation detection unit 190. For example, the rotation detection unit 190 can be realized by a rotation sensor or an angular velocity sensor. Note that the OIS actuator 134 may serve as the rotation detection unit 190. This is because it is possible to detect how much the casing is tilted according to the magnitude of the drive current.

〔1−2.デジタルカメラの背面構成〕
図2は、本開示の第1の実施の形態にかかるデジタルカメラ101の背面図である。以下、図2を用いて、各種操作部材について説明する。
[1-2. Digital camera rear configuration)
FIG. 2 is a rear view of the digital camera 101 according to the first embodiment of the present disclosure. Hereinafter, various operation members will be described with reference to FIG.

レリーズ釦171、ズームダイアル172、モードダイアル174は、カメラ本体の上面に配置されている。レリーズ釦171は、押下操作を受け付ける。コントローラ150は、レリーズ釦171が半押し操作されるのに応じて、AE制御やAF制御を開始する。また、デジタルカメラ101は、レリーズ釦171が全押し操作されるのに応じて、被写体の撮像を行う。   The release button 171, zoom dial 172, and mode dial 174 are arranged on the upper surface of the camera body. Release button 171 accepts a pressing operation. The controller 150 starts AE control and AF control in response to the release button 171 being pressed halfway. The digital camera 101 captures an image of the subject in response to the release button 171 being fully pressed.

ズームダイアル172は、レリーズ釦171の周りに回転可能に配置されている。コントローラ150は、ズームダイアル172が回転操作されるのに応じて、光学ズーム制御や電子ズーム制御を開始する。   The zoom dial 172 is rotatably arranged around the release button 171. The controller 150 starts optical zoom control and electronic zoom control in response to the zoom dial 172 being rotated.

モードダイアル174は、回転操作を受け付ける。モードダイアル174は、目盛りが設けられており、各目盛りにはデジタルカメラ101の動作モードが割り当てられている。デジタルカメラ101の動作モードとは、例えば、再生モードや撮影モードなどを含む。コントローラ150は、モードダイアル174の回転操作に応じて、モードダイアル174が指定する動作モードでデジタルカメラ101を制御する。   The mode dial 174 receives a rotation operation. The mode dial 174 is provided with a scale, and the operation mode of the digital camera 101 is assigned to each scale. The operation mode of the digital camera 101 includes, for example, a playback mode and a shooting mode. The controller 150 controls the digital camera 101 in an operation mode designated by the mode dial 174 in accordance with the rotation operation of the mode dial 174.

電源スイッチ173、十字キー180、削除釦186、表示釦187、液晶モニタ110は、カメラ本体の背面に配置されている。電源スイッチ173は、スライド操作を受け付ける。電源スイッチ173は、スライド操作に応じて、デジタルカメラ101の電源状態を切り替える。   The power switch 173, the cross key 180, the delete button 186, the display button 187, and the liquid crystal monitor 110 are arranged on the back of the camera body. The power switch 173 receives a slide operation. The power switch 173 switches the power state of the digital camera 101 according to the slide operation.

液晶モニタ110は、モードダイアル174により選択された動作モードに応じて、メモリカード108に格納された画像データやメニュー画面などを表示する。   The liquid crystal monitor 110 displays image data, a menu screen, and the like stored in the memory card 108 according to the operation mode selected by the mode dial 174.

十字キー180は、4方向及び中央部の5パターン(181〜185)の押下操作を受け付ける。コントローラ150は、十字キー180が押下操作されるのに応じて、再生画像データの切り替えなどの液晶モニタ110の表示の操作を行う。   The cross key 180 accepts pressing operations of five patterns (181 to 185) in the four directions and the central portion. The controller 150 performs a display operation on the liquid crystal monitor 110 such as switching of reproduced image data in response to the cross key 180 being pressed.

削除釦186は、押下操作を受け付ける。コントローラ150は、削除釦186が押下操作されるのに応じて、予め選択された画像データを削除する。   The delete button 186 accepts a pressing operation. The controller 150 deletes the previously selected image data in response to the delete button 186 being pressed.

表示釦187は、押下操作を受け付ける。コントローラ150は、表示釦187が押下操作されるのに応じて、液晶モニタ110の表示内容を切り替える。   The display button 187 receives a pressing operation. The controller 150 switches the display content of the liquid crystal monitor 110 in response to the display button 187 being pressed.

〔1−3.画像ファイルフォーマットのデータ構造〕
〔1−3−1.ファイル全体の構造〕
図3は、本開示の第1の実施の形態にかかるデジタルカメラ101が取り扱う画像ファイルフォーマットのデータ構造を示した図である。図3を用いて画像ファイルフォーマットのデータ構造について説明する。
[1-3. (Data structure of image file format)
[1-3-1. (Overall file structure)
FIG. 3 is a diagram illustrating a data structure of an image file format handled by the digital camera 101 according to the first embodiment of the present disclosure. The data structure of the image file format will be described with reference to FIG.

画像ファイルD10は、メイン画像データとしての第1の画像データD25と、サブの画像データとしての第2の画像データD33とを格納する。第2の画像データD33は、第1の画像データD25とは異なる露光条件で作成されている。つまり、第1の画像データD25は第1の露光条件で作成され、第2の画像データD33は第1の露光条件と異なる第2の露光条件で生成されている。ここで、異なる露光条件とは、異なる露光時間やNDフィルタにより減光する処置の有無などである。なお、第1の画像データD25を第2の露光条件で作成された画像データに、第2の画像データD33を第2の露光条件と異なる第1の露光条件で生成された画像データに割り付けても構わない。画像ファイルD10は後述する第1の記録動作、第2の記録動作を用いて作成される。   The image file D10 stores first image data D25 as main image data and second image data D33 as sub image data. The second image data D33 is created under exposure conditions different from those of the first image data D25. That is, the first image data D25 is generated under the first exposure condition, and the second image data D33 is generated under a second exposure condition different from the first exposure condition. Here, the different exposure conditions include different exposure times and presence / absence of a treatment for dimming with an ND filter. The first image data D25 is assigned to the image data created under the second exposure condition, and the second image data D33 is assigned to the image data generated under the first exposure condition different from the second exposure condition. It doesn't matter. The image file D10 is created using a first recording operation and a second recording operation which will be described later.

なお、図4(a)に示す画像ファイルD40は後述する第3の記録動作を用いて作成され、図4(b)に示す画像ファイルD50は後述する第4の記録動作を用いて作成される。画像ファイルD40又は画像ファイルD50の第1の画像データD25は汎用的なデータであり、画像ファイルD40の第3の画像データD43又は画像ファイルD50の第4の画像データD53は上位互換のデータである。   The image file D40 shown in FIG. 4A is created using a third recording operation described later, and the image file D50 shown in FIG. 4B is created using a fourth recording operation described later. . The first image data D25 of the image file D40 or the image file D50 is general-purpose data, and the third image data D43 of the image file D40 or the fourth image data D53 of the image file D50 is upward compatible data. .

メモリカード108内に記憶されているFAT(File Allocation Table)は、先頭識別子D22や末尾識別子D34などを管理することにより、画像ファイルD10を1つのファイルとして管理する。コントローラ150は、FATを読み出すことにより、画像ファイル同士を区別して管理できる。   A FAT (File Allocation Table) stored in the memory card 108 manages the image file D10 as one file by managing the head identifier D22, the tail identifier D34, and the like. The controller 150 can distinguish and manage image files by reading FAT.

以下、画像ファイルD10の構造を詳細に説明する。   Hereinafter, the structure of the image file D10 will be described in detail.

〔1−3−2.メインヘッダ部〕
〔1−3−2−1.メインヘッダ部の全体構成〕
メインヘッダ部D20は、先頭識別子D22とヘッダ部D23とを有する。
[1-3-2. (Main header)
[1-3-2-1. (General configuration of main header)
The main header part D20 has a head identifier D22 and a header part D23.

先頭識別子D22は、画像ファイルD10の起点をあらわすマーカであり、例えば、JPEG規格で規定されたファイルのスタート情報(xFFD8)である。   The head identifier D22 is a marker representing the starting point of the image file D10, and is, for example, start information (xFFD8) of a file defined by the JPEG standard.

ヘッダ部D23は、画像ファイルD10全体に対する管理データを格納する領域である。ヘッダ部D23は、管理データとして、管理テーブルT10、サムネイル画像データD24等を含む。   The header part D23 is an area for storing management data for the entire image file D10. The header part D23 includes a management table T10, thumbnail image data D24, and the like as management data.

管理テーブルT10は、第1の画像データD25と第2の画像データD33とを互いに区別するための情報を含む。   The management table T10 includes information for distinguishing the first image data D25 and the second image data D33 from each other.

サムネイル画像データD24は、第1の画像データD25に基づいて作成された縮小画像データである。サムネイル画像データD24は、例えば、横160ドット×縦120ドットの画像サイズである。Exif規格では、サムネイル画像データD24は、ヘッダ部D23に格納されるものとして規定されている。   The thumbnail image data D24 is reduced image data created based on the first image data D25. The thumbnail image data D24 has, for example, an image size of 160 horizontal pixels × 120 vertical pixels. In the Exif standard, the thumbnail image data D24 is defined as being stored in the header part D23.

〔1−3−2−2.管理テーブル〕
図5を用いて、管理テーブルT10について詳細に説明する。図5(a)〜(d)は、管理テーブルT10の模式図である。管理テーブルT10は、メインの画像データとサブの画像データに関する情報を保持するものであり、先頭アドレスT11と、画像の階調特性情報T12、画像の合成の有無を示す合成状態情報T13、露光を変えて撮影した内の何枚目に画像を撮影したかを示す撮影順番T14、画像の露光時間の長短を示す露光条件情報T15とを関連付けた状態で各情報を管理する。
[1-3-2-2. Management table)
The management table T10 will be described in detail with reference to FIG. 5A to 5D are schematic diagrams of the management table T10. The management table T10 holds information relating to main image data and sub image data. The head address T11, image gradation characteristic information T12, composition state information T13 indicating presence / absence of image composition, and exposure. Each piece of information is managed in a state in which a shooting order T14 indicating the number of images shot in the changed shooting and the exposure condition information T15 indicating the length of the exposure time of the image are associated with each other.

先頭アドレスT11は、画像データが格納されている領域の先頭アドレスを示す情報である。   The start address T11 is information indicating the start address of an area in which image data is stored.

画像の階調特性情報T12は、メモリカード108に何ビットで画像が格納されるかという情報と、画像の階調の応答特性を示す数値であるガンマ値である。   The image gradation characteristic information T12 is information indicating how many bits the image is stored in the memory card 108 and a gamma value that is a numerical value indicating the response characteristic of the image gradation.

次に、各画像の識別子をヘッダ部D23に格納する理由を述べる。仮に、各画像の識別子がない場合、画像データを検索する際に、コントローラ150は、全ての画像ヘッダ又は各画像データを読み出す必要がある。しかし、各画像データを検索する毎に、全ての画像ヘッダ又は画像データを読み出していたのでは処理が煩雑となり、コントローラ150の処理負担が大きいものとなる。そこで、このような問題を解決するため、各画像の識別子をヘッダ部D23に格納することとした。   Next, the reason for storing the identifier of each image in the header part D23 will be described. If there is no identifier for each image, the controller 150 needs to read all image headers or each image data when searching for image data. However, if all image headers or image data are read every time each image data is retrieved, the processing becomes complicated and the processing load on the controller 150 becomes heavy. Therefore, in order to solve such a problem, the identifier of each image is stored in the header part D23.

ヘッダ部D23がサブ画像の階調特性情報T12、合成状態情報T13、撮影順番T14、露光条件情報T15を格納するので、コントローラ150は、各画像の合成状態情報T13と露光条件情報T15を参照することにより、それぞれの画像データに応じた再生方法を選択できる。   Since the header part D23 stores the gradation characteristic information T12, the composite state information T13, the shooting order T14, and the exposure condition information T15 of the sub-image, the controller 150 refers to the composite state information T13 and the exposure condition information T15 of each image. Thus, it is possible to select a reproduction method corresponding to each image data.

〔1−3−2−3.サムネイル画像データ〕
図3に戻って、サムネイル画像データD24について説明する。サムネイル画像データD24は、電子ズーム処理部165が第1の画像データD25に対して、間引き処理、切り出し処理、補間処理などをすることにより生成される。ヘッダ部D23は、サムネイル画像データD24を格納する。これにより、液晶モニタ110は、瞬時にサムネイル画像表示を行うことができる。
[1-3-2-2-3. (Thumbnail image data)
Returning to FIG. 3, the thumbnail image data D24 will be described. The thumbnail image data D24 is generated when the electronic zoom processing unit 165 performs a thinning process, a clipping process, an interpolation process, and the like on the first image data D25. The header part D23 stores thumbnail image data D24. Thereby, the liquid crystal monitor 110 can display a thumbnail image instantaneously.

〔1−3−2−4.その他格納される情報〕
ヘッダ部D23は、管理テーブルT10、サムネイル画像データD24の他に、メインの第1の画像データD25やサブの画像データD33のプロテクト情報を格納する。プロテクト情報が格納されると、第1の画像データD25には削除に対するプロテクトがかかる。つまり、第1の画像データD25は、プロテクト情報が消去されるまで削除不可能となる。
[1-3-2-4. Other stored information)
The header part D23 stores the protection information of the main first image data D25 and the sub image data D33 in addition to the management table T10 and the thumbnail image data D24. When the protect information is stored, the first image data D25 is protected against deletion. That is, the first image data D25 cannot be deleted until the protect information is deleted.

ここで、第1の画像データに対するプロテクト情報をメインヘッダに格納し、各画像に対するプロテクト情報を対応するサブ画像データの画像ヘッダに格納することができる。これにより、第1の画像及びサブ画像についてのプロテクトをそれぞれ独立して行うことができる。また、それぞれの画像に対するプロテクト及びその解除の際に対応するヘッダのみを更新すればよいため、データの取り扱いが容易となる。   Here, the protection information for the first image data can be stored in the main header, and the protection information for each image can be stored in the image header of the corresponding sub image data. As a result, the first image and the sub image can be protected independently. In addition, since it is only necessary to update the header corresponding to the protection and cancellation of each image, data handling becomes easy.

本実施の形態においては、第1の画像データに対するプロテクト情報と、サブ画像データに対するプロテクト情報とをそれぞれの対応するヘッダに格納する構成とした。しかし、必ずしもこのような構成とする必要はない。   In the present embodiment, the protection information for the first image data and the protection information for the sub image data are stored in the corresponding headers. However, such a configuration is not necessarily required.

例えば、メインヘッダにプロテクト情報が格納された場合に、画像ファイル全体の画像データがプロテクトされているとしてもよい。これにより、同一の画像ファイル内に格納されている全ての画像データのプロテクトを一括に取り扱うことができる。   For example, when protect information is stored in the main header, the image data of the entire image file may be protected. Thereby, protection of all the image data stored in the same image file can be handled collectively.

また、メインヘッダに2つのプロテクト情報を格納可能とし、各画像ヘッダにもプロテクト情報を格納可能とすることもできる。この際、メインヘッダに格納される一方のプロテクト情報は、画像ファイル全体の画像データのプロテクト状態を管理する。他方のプロテクト情報は、第1の画像データのプロテクト状態を管理する。各画像ヘッダに格納されるプロテクト情報は、対応する副画像データのプロテクト状態を管理する。これにより、画像ファイル単位に一括で画像データのプロテクト状態を管理するか、それぞれの画像データのプロテクト状態を独立して管理するかを使用者は選択することができる。   Also, two pieces of protection information can be stored in the main header, and the protection information can also be stored in each image header. At this time, one protection information stored in the main header manages the protection state of the image data of the entire image file. The other protect information manages the protect state of the first image data. The protection information stored in each image header manages the protection state of the corresponding sub-image data. As a result, the user can select whether to manage the protection state of the image data in units of image files or to manage the protection state of each image data independently.

〔1−3−3.第1の画像データ部〕
第1の画像データ部D21は、第1の画像に関する情報を格納する。第1の画像データD25は、デジタルカメラ101で撮像した画像の画像データをJPEG形式で圧縮した8ビットの画像データである。なお、第1の画像データD25は、必ずしもJPEG形式で圧縮された画像データでなくてもよく、GIFデータやRAWデータなどの画像データであってもよい。つまり、第1の画像データD25は、必ずしも圧縮されている必要はない。また、圧縮されていたとしても圧縮形式は何であってもよい。
[1-3-3. First image data section]
The first image data portion D21 stores information related to the first image. The first image data D25 is 8-bit image data obtained by compressing image data of an image captured by the digital camera 101 in the JPEG format. Note that the first image data D25 is not necessarily image data compressed in the JPEG format, and may be image data such as GIF data or RAW data. That is, the first image data D25 is not necessarily compressed. Moreover, even if it is compressed, any compression format may be used.

末尾識別子D26は第1の画像データ部D21の終点を示すマーカ(xFFD9)である。このマーカを管理するテーブルをヘッダ部D23に設けることにより、画像ファイルD10のうちの一部の画像データを分割する際に、ファイルに新たにSOIやEOIを付加する必要がなくなる。従って、ファイルの分割を容易に行うことができる。   The tail identifier D26 is a marker (xFFD9) indicating the end point of the first image data portion D21. By providing a table for managing this marker in the header part D23, when dividing some image data in the image file D10, it is not necessary to newly add SOI or EOI to the file. Therefore, the file can be easily divided.

〔1−3−4.第2の画像部〕
図3において、サブの第2の画像データ部D30は、第2の画像に関する情報を格納する。先頭識別子D31は、サブの第2の画像データ部D30の起点を示すマーカである。このマーカを管理するテーブルをヘッダ部D23に設ける。これにより、第2の画像データの検索を容易に行うことができる。また、ファイルを分割する際、分割点を容易に見つけることができる。さらに、このマーカを設けておくことにより、画像ファイルD10を分割する際に、ファイルに新たにSOIやEOIを付加する必要がない。従って、ファイルの分割を容易に行うことができる。
[1-3-4. Second image part]
In FIG. 3, the sub second image data portion D30 stores information related to the second image. The head identifier D31 is a marker indicating the starting point of the sub second image data portion D30. A table for managing this marker is provided in the header part D23. Thereby, the second image data can be easily searched. In addition, when dividing a file, a dividing point can be easily found. Furthermore, by providing this marker, when dividing the image file D10, it is not necessary to newly add SOI or EOI to the file. Therefore, the file can be easily divided.

第2の画像ヘッダD32は、第2の画像データD33の属性情報などを格納する。例えば、副画像データD33が第1の画像とは異なる第2の露光条件で生成された画像データである旨に関する情報などが格納される。   The second image header D32 stores attribute information of the second image data D33 and the like. For example, information relating to the fact that the sub-image data D33 is image data generated under a second exposure condition different from that of the first image is stored.

また、第2の画像ヘッダD32は、第2の画像データD33のサムネイル画像データを格納する。サムネイル画像データは、第2の画像データに基づいて生成される。これにより、サブの画像データに対するサムネイル画像の表示を瞬時に行うことができる。   The second image header D32 stores thumbnail image data of the second image data D33. The thumbnail image data is generated based on the second image data. Thereby, it is possible to instantaneously display thumbnail images for the sub image data.

Exif規格においては、ヘッダ部にサムネイル画像データを含めることが必要であると規定されている。よって、第1の画像データと第2の画像データとを分割するときは、画像ヘッダ内に改めてサムネイル画像データを格納する必要が生じる。本実施の形態においては、各画像ヘッダに副画像に対応するサムネイル画像データを格納しているので、第1と第2の画像データを分割する際、改めて副画像ヘッダにサムネイル画像データを格納する必要はない。   The Exif standard stipulates that it is necessary to include thumbnail image data in the header part. Therefore, when dividing the first image data and the second image data, it is necessary to store the thumbnail image data again in the image header. In this embodiment, since thumbnail image data corresponding to the sub-image is stored in each image header, when the first and second image data are divided, the thumbnail image data is stored again in the sub-image header. There is no need.

第2の画像データD33は、第1の画像データD25と同じ第1の階調特性又は第1の画像データD25と異なる第2の階調特性を有する。   The second image data D33 has the same first gradation characteristic as the first image data D25 or a second gradation characteristic different from the first image data D25.

末尾識別子D34は、第2の画像データ部D30の終点を示すマーカである。このマーカを管理するテーブルをヘッダ部D23に設ける。これにより、画像ファイルD10を分割する際に、ファイルに新たにSOIやEOIを付加する必要がない。従って、ファイルの分割を容易に行うことができる。   The tail identifier D34 is a marker indicating the end point of the second image data part D30. A table for managing this marker is provided in the header part D23. Thus, when dividing the image file D10, there is no need to newly add SOI or EOI to the file. Therefore, the file can be easily divided.

また、本実施例の形態においては、図3のように、第1の画像データD25と第2の画像データD33とを露光条件が異なる画像データとして記録したが、第1の画像データと第2の画像データとの合成である第3の画像データを記録する場合は、図4(a)に示すように第1の画像データD25と第3画像データD43を格納して記録する。また第1の画像データと第2の画像データとの合成であり、階調特性を変更した画像データを記録する場合は、図4(b)に示すように、第1の画像データD25と第4画像データD53を格納して記録する。   In the embodiment, as shown in FIG. 3, the first image data D25 and the second image data D33 are recorded as image data having different exposure conditions, but the first image data and the second image data D33 are recorded. In the case of recording the third image data, which is a combination with the image data, the first image data D25 and the third image data D43 are stored and recorded as shown in FIG. In addition, when recording image data in which the gradation characteristics are changed by combining the first image data and the second image data, as shown in FIG. 4B, the first image data D25 and the second image data are recorded. Four image data D53 is stored and recorded.

〔2.記録動作〕
本開示のデジタルカメラ101の第1の記録動作について、図6、図10、図11を用いて説明する。図6は記録動作のフローチャートであり、図10は異なる輝度を有する2つの被写体を含む記録画像を示した模式図であり、図11は図10の記録画像の輝度ヒストグラムを示した図である。
[2. (Recording operation)
A first recording operation of the digital camera 101 of the present disclosure will be described with reference to FIGS. 6, 10, and 11. FIG. 6 is a flowchart of the recording operation, FIG. 10 is a schematic diagram showing a recorded image including two subjects having different luminances, and FIG. 11 is a diagram showing a luminance histogram of the recorded image in FIG.

撮影モードにおいて使用者がレリーズ釦171を全押しすると(S101)、イメージセンサ141が出力する第1の撮影動作のRAWデータがバッファメモリ115に格納される(S102〜S104)。第1の撮影動作は第1の露光条件によって撮影される。バッファメモリ115のRAWデータに対して前処理部161において画像処理を行い、さらにYC変換部162によって図10(a)に示される画像データP10の第1のYCデータが生成される(S105)。画像データP10は特定のシーンが撮影された時の被写体P11と被写体P12を含む。図11(a)〜図11(d)は、横軸にY信号の階調値を示し、縦軸はその値に対する画素の総数を示す。図11(a)は図10(a)の被写体P11と被写体P12に対応する輝度の出現頻度G11,G12を示す。被写体P11は白とびとなっている。   When the user fully presses the release button 171 in the shooting mode (S101), the RAW data of the first shooting operation output from the image sensor 141 is stored in the buffer memory 115 (S102 to S104). The first shooting operation is shot under the first exposure condition. Image processing is performed on the RAW data in the buffer memory 115 by the pre-processing unit 161, and first YC data of the image data P10 shown in FIG. 10A is generated by the YC conversion unit 162 (S105). The image data P10 includes a subject P11 and a subject P12 when a specific scene is photographed. In FIG. 11A to FIG. 11D, the horizontal axis indicates the tone value of the Y signal, and the vertical axis indicates the total number of pixels corresponding to the value. FIG. 11A shows the appearance frequencies G11 and G12 of the luminance corresponding to the subject P11 and the subject P12 in FIG. The subject P11 is overexposed.

第1のYCデータは、圧縮部163によって、第1の符号化方式に基づいて圧縮処理が行われ、第1の画像としてバッファメモリ115に格納される(S106〜S107)。第1の圧縮方式は、例えばJPEG圧縮方式であってもよい。   The first YC data is compressed by the compression unit 163 based on the first encoding method, and is stored in the buffer memory 115 as a first image (S106 to S107). The first compression method may be, for example, a JPEG compression method.

次に、イメージセンサ141が出力する第2の撮影動作のRAWデータがバッファメモリ115に格納される(S108〜S110)。第2の撮影動作は第1の露光条件と異なる第2の露光条件によって撮影される。バッファメモリ115のRAWデータに対して前処理部161において画像処理を行い、さらにYC変換部162によって図10(b)に示される画像データP20の第2のYCデータが生成される(S111)。画像データP20は画像データP10と同じシーンが撮影された時の被写体P21と被写体P22を含む。被写体P21と被写体P11は同一の被写体であり、被写体P22と被写体P12は同一の被写体である。図11(b)は、図10(b)の被写体P21と被写体P22に対応する輝度の出現頻度G21,G22を示す。被写体P22は黒つぶれとなっている。第2のYCデータは、圧縮部163によって、第1の符号化方式に基づいて圧縮処理が行われ、第2の画像としてバッファメモリ115に格納される(S112〜113)。このようにして生成された第2の画像データは、第1の画像データと結合され、1つのファイルとして、図3に示した形式でメモリカード108に記録される(S114)。この際に、図5(a)に示すように管理テーブルT10内の階調特性情報T12には、第1の画像データと第2の画像データは共に8ビットで格納され、共にガンマ値が0.45であることを示す情報が記録される。合成状態情報T13には、第1の画像データと第2の画像データは共に合成がなされていないことを示す情報が記録される。撮影順番T14には、第1の画像データが2枚中1枚目である情報と第2の画像データが2枚中2枚目である情報が記録される。露光条件情報T15には第1の画像が長時間露光である情報が記録され第2の画像が短時間露光である情報が記録される。   Next, the RAW data of the second photographing operation output from the image sensor 141 is stored in the buffer memory 115 (S108 to S110). The second imaging operation is performed under a second exposure condition that is different from the first exposure condition. Image processing is performed on the RAW data in the buffer memory 115 by the preprocessing unit 161, and second YC data of the image data P20 shown in FIG. 10B is generated by the YC conversion unit 162 (S111). The image data P20 includes a subject P21 and a subject P22 when the same scene as the image data P10 is captured. Subject P21 and subject P11 are the same subject, and subject P22 and subject P12 are the same subject. FIG. 11B shows the appearance frequencies G21 and G22 of the brightness corresponding to the subject P21 and the subject P22 of FIG. The subject P22 is blackened. The second YC data is compressed by the compression unit 163 based on the first encoding method, and is stored in the buffer memory 115 as a second image (S112 to 113). The second image data generated in this way is combined with the first image data, and recorded as one file on the memory card 108 in the format shown in FIG. 3 (S114). At this time, as shown in FIG. 5A, in the gradation characteristic information T12 in the management table T10, both the first image data and the second image data are stored in 8 bits, and the gamma value is 0. Information indicating .45 is recorded. In the combination state information T13, information indicating that the first image data and the second image data are not combined is recorded. In the photographing order T14, information that the first image data is the first of the two images and information that the second image data is the second of the two are recorded. In the exposure condition information T15, information that the first image is long-time exposure is recorded, and information that the second image is short-time exposure is recorded.

以下、本開示の別の方法による第2〜第4の記録動作について以下に示す。   Hereinafter, the second to fourth recording operations according to other methods of the present disclosure will be described below.

デジタルカメラ101の第2の記録動作について、図7の記録動作のフローチャートと、図10の輝度の異なる記録画像を示した模式図と、図11の記録画像の輝度ヒストグラムを示した図を用いて説明する。第2の記録動作では、1回の撮影動作で撮影時間が短いshort信号と撮影時間が長いlong信号を非破壊読み出しにより順次読み出す方法を用いる。   Regarding the second recording operation of the digital camera 101, using the flowchart of the recording operation in FIG. 7, the schematic diagram showing the recorded images with different luminances in FIG. 10, and the diagram showing the luminance histogram of the recorded images in FIG. explain. In the second recording operation, a method of sequentially reading a short signal having a short photographing time and a long signal having a long photographing time by non-destructive reading in one photographing operation is used.

撮影モードにおいて使用者がレリーズ釦171を全押しすると(S201)、イメージセンサ141が出力する第1の撮影データ読み出しまでのRAWデータがバッファメモリ115に格納される(S202〜S203)。このRAWデータはshort信号によって得られる。   When the user fully presses the release button 171 in the shooting mode (S201), the RAW data until the first shooting data output from the image sensor 141 is stored in the buffer memory 115 (S202 to S203). This RAW data is obtained by a short signal.

バッファメモリ115のRAWデータに対して前処理部161において画像処理を行い、さらにYC変換部162によって、図10(b)に示される画像データP20の第1のYCデータが生成される(S204)。画像データP20は特定のシーンが撮影された時の被写体P21と被写体P22を含む。図11(b)は、図10(b)の被写体P21と被写体P22に対応する輝度の出現頻度G21,G22を示す。被写体P22は黒つぶれとなっている。   Image processing is performed on the RAW data in the buffer memory 115 in the preprocessing unit 161, and the first YC data of the image data P20 shown in FIG. 10B is generated by the YC conversion unit 162 (S204). . The image data P20 includes a subject P21 and a subject P22 when a specific scene is photographed. FIG. 11B shows the appearance frequencies G21 and G22 of the brightness corresponding to the subject P21 and the subject P22 of FIG. The subject P22 is blackened.

第1のYCデータは、圧縮部163によって、第1の符号化方式に基づいて圧縮処理が行われ、第1の画像としてバッファメモリに格納される(S205〜S206)。第1の圧縮方式は、例えばJPEG圧縮方式であってもよい。   The first YC data is compressed by the compression unit 163 based on the first encoding method, and stored as a first image in the buffer memory (S205 to S206). The first compression method may be, for example, a JPEG compression method.

次に、イメージセンサ141が出力する撮影動作終了までの第2の撮影データ読み出しによるRAWデータがバッファメモリに格納される(S207〜S208)。このRAWデータはlong信号によって得られる。バッファメモリのRAWデータに対して前処理部161において画像処理を行い、さらにYC変換部162によって図10(a)に示される画像データP10の第2のYCデータが生成される(S209)。画像データP10は画像データP20と同じシーンが撮影された時の被写体P11と被写体P12を含む。図11(a)は、図10(a)の被写体P11と被写体P12に対応する輝度の出現頻度G11,G12を示す。被写体P11は白とびとなっている。第2のYCデータは、圧縮部163によって、第1の符号化方式に基づいて圧縮処理が行われ、第2の画像としてバッファメモリに格納される(S210〜S212)。このようにして生成された第2の画像データは、第1の画像データと結合され、1つのファイルとして、図3に示した形式でメモリカード108に記録される(S213)。この際に、図5(b)に示すように管理テーブルT10内の階調特性情報T12には、第1の画像データと第2の画像データは共に8ビットで格納され、共にガンマ値が0.45であることを示す情報が記録される。合成状態情報T13には、第1の画像データと第2の画像データは共に合成がなされていないことを示す情報が記録されている。撮影順番T14には、第1の画像データが2枚中1枚目である情報と第2の画像データが2枚中2枚目である情報が記録される。露光条件情報T15には第1の画像が短時間露光である情報が記録され第2の画像が長時間露光である情報が記録される。   Next, the RAW data output by the image sensor 141 and read by the second shooting data until the end of the shooting operation is stored in the buffer memory (S207 to S208). This RAW data is obtained by a long signal. Image processing is performed on the RAW data in the buffer memory by the preprocessing unit 161, and second YC data of the image data P10 shown in FIG. 10A is generated by the YC conversion unit 162 (S209). The image data P10 includes a subject P11 and a subject P12 when the same scene as the image data P20 is photographed. FIG. 11A shows the appearance frequencies G11 and G12 of the brightness corresponding to the subject P11 and the subject P12 in FIG. The subject P11 is overexposed. The second YC data is compressed by the compression unit 163 based on the first encoding method, and stored as a second image in the buffer memory (S210 to S212). The second image data generated in this way is combined with the first image data and recorded in the memory card 108 in the format shown in FIG. 3 as one file (S213). At this time, as shown in FIG. 5B, in the gradation characteristic information T12 in the management table T10, both the first image data and the second image data are stored in 8 bits, and both have a gamma value of 0. Information indicating .45 is recorded. In the combination state information T13, information indicating that the first image data and the second image data are not combined is recorded. In the photographing order T14, information that the first image data is the first of the two images and information that the second image data is the second of the two are recorded. In the exposure condition information T15, information that the first image is short-time exposure is recorded, and information that the second image is long-time exposure is recorded.

次にデジタルカメラ101の第3の記録動作について、図8の記録動作のフローチャートと、図10の輝度の異なる記録画像を示した模式図と、図11の記録画像の輝度ヒストグラムを示した図を用いて説明する。第3の記録動作では、第1の撮影動作で生成した第1の画像データと第2の撮影動作で生成した第2の画像データを合成して第3の画像データを生成する方法を用いる。   Next, regarding the third recording operation of the digital camera 101, the flowchart of the recording operation in FIG. 8, the schematic diagram showing the recorded images with different luminances in FIG. 10, and the diagram showing the luminance histogram of the recorded images in FIG. It explains using. In the third recording operation, a method of generating the third image data by combining the first image data generated in the first imaging operation and the second image data generated in the second imaging operation is used.

撮影モードにおいて使用者がレリーズ釦171を全押しすると(S301)、イメージセンサ141が出力する第1の撮影動作のRAWデータがバッファメモリ115に格納される(S302〜S304)。第1の撮影動作は第1の露光条件によって撮影される。バッファメモリ115のRAWデータに対して前処理部161において画像処理を行い、さらにYC変換部162によって、図10(a)に示される画像データP10の第1のYCデータが生成される(S305)。画像データP10は特定のシーンが撮影された時の被写体P11と被写体P12を含む。図11(a)は、図10(a)の被写体P11と被写体P12に対応する輝度の出現頻度G11,G12を示す。被写体P11は白とびとなっている。   When the user fully presses the release button 171 in the shooting mode (S301), RAW data of the first shooting operation output from the image sensor 141 is stored in the buffer memory 115 (S302 to S304). The first shooting operation is shot under the first exposure condition. Image processing is performed on the RAW data in the buffer memory 115 by the preprocessing unit 161, and the first YC data of the image data P10 shown in FIG. 10A is generated by the YC conversion unit 162 (S305). . The image data P10 includes a subject P11 and a subject P12 when a specific scene is photographed. FIG. 11A shows the appearance frequencies G11 and G12 of the brightness corresponding to the subject P11 and the subject P12 in FIG. The subject P11 is overexposed.

第1のYCデータは、圧縮部163によって、第1の符号化方式に基づいて圧縮処理が行われ、第1の画像としてバッファメモリ115に格納される(S306〜S307)。第1の圧縮方式は、例えばJPEG圧縮方式であってもよい。   The first YC data is compressed by the compression unit 163 based on the first encoding method, and is stored in the buffer memory 115 as a first image (S306 to S307). The first compression method may be, for example, a JPEG compression method.

次に、イメージセンサ141が出力する第2の撮影動作のRAWデータがバッファメモリに格納される(S308〜S310)。第2の撮影動作は第1の露光条件と異なる第2の露光条件によって撮影される。バッファメモリのRAWデータに対して前処理部161において画像処理を行い、さらにYC変換部162によって図10(b)に示される画像データP20の第2のYCデータが生成される(S311)。画像データP20は画像データP10と同じシーンが撮影された時の被写体P21と被写体P22を含む。図11(b)は、図10(b)の被写体P21と被写体P22に対応する輝度の出現頻度G21,G22を示す。被写体P22は黒つぶれとなっている。   Next, the RAW data of the second photographing operation output from the image sensor 141 is stored in the buffer memory (S308 to S310). The second imaging operation is performed under a second exposure condition that is different from the first exposure condition. Image processing is performed on the RAW data in the buffer memory in the preprocessing unit 161, and second YC data of the image data P20 shown in FIG. 10B is generated by the YC conversion unit 162 (S311). The image data P20 includes a subject P21 and a subject P22 when the same scene as the image data P10 is captured. FIG. 11B shows the appearance frequencies G21 and G22 of the brightness corresponding to the subject P21 and the subject P22 of FIG. The subject P22 is blackened.

合成部166によって、図10(a)に示される画像データP10の第1のYCデータと図10(b)に示される画像データP20の第2のYCデータが合成され、図10(c)に示される画像データP30の第3のYCとなる(S312)。被写体P31と被写体P32は夫々、被写体P11と被写体P21を合成し、被写体P12と被写体P22を合成して作成される。図11(c)は、白とび被写体P11と黒つぶれした被写体P22を合成部166内のフィルタで取り除き、被写体P12と被写体P21を合成して得られた被写体P31と被写体P32の輝度の出現頻度G31,G32を示す。第3のYCデータは、圧縮部163によって、第2の符号化方式に基づいて圧縮処理が行われ、第3の画像としてバッファメモリ115に格納される(S313〜S314)。第2の符号化方式は、例えばHEVCのフレーム内圧縮方式(HEVC−i)でもよいし、JPEG圧縮方式であってもよい。このようにして図4(a)に示すように第3の画像データD43は、第1の画像データD25と結合され、1つのファイルとしてメモリカード108に記録される(S315)。この際に、図5(c)に示すように管理テーブルT10内の階調特性情報T12には、第1の画像データと第3の画像データは共に8ビットで格納され、共にガンマ値が0.45であることを示す情報が記録される。合成状態情報T13には、第1の画像データは合成がなされていないことを示す情報が記録され第3の画像は合成済である情報が記録される。撮影順番T14には第1の画像データが2枚中1枚目である情報が記録されるが第3の画像データについては記録しない。露光条件情報T15には、第1の画像が長時間露光である情報が記録され第3の画像については記録しない。   The combining unit 166 combines the first YC data of the image data P10 shown in FIG. 10A and the second YC data of the image data P20 shown in FIG. 10B, and FIG. It becomes the third YC of the image data P30 shown (S312). The subject P31 and the subject P32 are created by combining the subject P11 and the subject P21 and combining the subject P12 and the subject P22, respectively. In FIG. 11C, the appearance frequency G31 of the luminance of the subject P31 and the subject P32 obtained by combining the subject P12 and the subject P21 by removing the overexposed subject P11 and the blacked-out subject P22 with a filter in the composition unit 166. , G32. The third YC data is compressed by the compression unit 163 based on the second encoding method, and stored in the buffer memory 115 as a third image (S313 to S314). The second encoding method may be, for example, an HEVC intraframe compression method (HEVC-i) or a JPEG compression method. In this way, as shown in FIG. 4A, the third image data D43 is combined with the first image data D25 and recorded as one file on the memory card 108 (S315). At this time, as shown in FIG. 5C, in the gradation characteristic information T12 in the management table T10, the first image data and the third image data are both stored in 8 bits, and both have a gamma value of 0. Information indicating .45 is recorded. In the combination state information T13, information indicating that the first image data is not combined is recorded, and information indicating that the third image is combined is recorded. In the shooting order T14, information that the first image data is the first of the two images is recorded, but the third image data is not recorded. In the exposure condition information T15, information that the first image is long-time exposure is recorded, and the third image is not recorded.

最後にデジタルカメラ101の第4の記録動作について、図9の記録動作のフローチャートと、図10の輝度の異なる記録画像を示した模式図と、図11の記録画像の輝度ヒストグラムと、図12の合成処理のフローチャートと、図13の合成処理の概念図を用いて説明する。第4の記録動作では、第1の撮影動作で生成した第1の階調特性を有する第1の画像データと第2の撮影動作で生成した第1の階調特性を有する第2の画像データを合成して第2の階調特性を有する第4の画像データを生成する方法を用いる。   Finally, regarding the fourth recording operation of the digital camera 101, a flowchart of the recording operation in FIG. 9, a schematic diagram showing recorded images with different luminances in FIG. 10, a luminance histogram of the recorded images in FIG. This will be described with reference to a flowchart of the synthesis process and a conceptual diagram of the synthesis process of FIG. In the fourth recording operation, the first image data having the first gradation characteristic generated by the first photographing operation and the second image data having the first gradation characteristic generated by the second photographing operation. Is used to generate fourth image data having the second gradation characteristic.

第4の記録動作の図9のステップ412が第3の記録動作の図8のステップ312に変更されている点は、同じである。   The fourth recording operation is the same in that step 412 of FIG. 9 is changed to step 312 of FIG. 8 of the third recording operation.

撮影モードにおいて使用者がレリーズ釦171を全押しすると(S401)、イメージセンサ141が出力する第1の撮影動作のRAWデータがバッファメモリ115に格納される(S402〜S404)。第1の撮影動作は第1の露光条件によって撮影される。バッファメモリ115のRAWデータに対して前処理部161において第1の階調特性によって画像処理を行い、さらにYC変換部162によって、図10(b)に示される画像データP20の第1のYCデータが生成される(S405)。画像データP20は特定のシーンが撮影された時の被写体P21と被写体P22を含む。図11(b)は、図10(b)の被写体P21と被写体P22に対応する輝度の出現頻度G21,G22を示す。被写体P22は黒つぶれとなっている。   When the user fully presses the release button 171 in the shooting mode (S401), the raw data of the first shooting operation output from the image sensor 141 is stored in the buffer memory 115 (S402 to S404). The first shooting operation is shot under the first exposure condition. The preprocessing unit 161 performs image processing on the RAW data in the buffer memory 115 with the first gradation characteristics, and the YC conversion unit 162 further performs first YC data of the image data P20 shown in FIG. Is generated (S405). The image data P20 includes a subject P21 and a subject P22 when a specific scene is photographed. FIG. 11B shows the appearance frequencies G21 and G22 of the brightness corresponding to the subject P21 and the subject P22 of FIG. The subject P22 is blackened.

第1のYCデータは、圧縮部163によって、第1の符号化方式に基づいて圧縮処理が行われ、第1の画像としてバッファメモリに格納される(S406〜S407)。第1の圧縮方式は、例えばJPEG圧縮方式であってもよい。   The first YC data is compressed by the compression unit 163 based on the first encoding method, and stored as a first image in the buffer memory (S406 to S407). The first compression method may be, for example, a JPEG compression method.

次に、イメージセンサ141が出力する第2の撮影動作のRAWデータがバッファメモリに格納される(S408〜S410)。第2の撮影動作は第1の露光条件と異なる第2の露光条件によって撮影される。バッファメモリのRAWデータに対して前処理部161において第1の階調特性によって画像処理を行い、さらにYC変換部162によって図10(a)に示される画像データP10の第2のYCデータが生成される(S411)。画像データP10は画像データP20と同じシーンが撮影された時の被写体P11と被写体P12を含む。図11(a)は、図10(a)の被写体P11と被写体P12に対応する輝度の出現頻度G11,G12を示す。被写体P11は白とびとなっている。   Next, the RAW data of the second photographing operation output from the image sensor 141 is stored in the buffer memory (S408 to S410). The second imaging operation is performed under a second exposure condition that is different from the first exposure condition. Image processing is performed on the RAW data in the buffer memory by the first gradation characteristic in the pre-processing unit 161, and second YC data of the image data P10 shown in FIG. 10A is generated by the YC conversion unit 162. (S411). The image data P10 includes a subject P11 and a subject P12 when the same scene as the image data P20 is photographed. FIG. 11A shows the appearance frequencies G11 and G12 of the brightness corresponding to the subject P11 and the subject P12 in FIG. The subject P11 is overexposed.

合成部166によって、図10(b)に示される画像データP20の第1のYCデータと図10(a)に示される画像データP10の第2のYCデータが、第2の階調特性によって合成され、図10(d)に示される画像データP40の第4のYCとなる(S412)。図11(d)は、図10(d)の被写体P41と被写体P42に対応する輝度の出現頻度G41,G42を示す。被写体P41と被写体P42は夫々、被写体P11と被写体P21を合成し、被写体P12と被写体P22を合成して作成される。図11(d)は、白とびした被写体P11と黒つぶれした被写体P22を合成部166内のフィルタで取り除き、長い露光時間(例えば1秒)で撮影された画像データP10と短い露光時間(例えば1/60秒)で撮影された画像データP20を考慮して被写体P41のY信号の値がYNBとなり、被写体P42のY信号の値がYNAとなるように合成している。   The combining unit 166 combines the first YC data of the image data P20 shown in FIG. 10B and the second YC data of the image data P10 shown in FIG. This becomes the fourth YC of the image data P40 shown in FIG. 10D (S412). FIG. 11D shows the appearance frequencies G41 and G42 of the brightness corresponding to the subject P41 and the subject P42 in FIG. The subject P41 and the subject P42 are created by combining the subject P11 and the subject P21 and combining the subject P12 and the subject P22, respectively. FIG. 11D shows the image data P10 taken with a long exposure time (for example, 1 second) and the short exposure time (for example, 1) by removing the overexposed subject P11 and the blacked-out subject P22 with a filter in the synthesis unit 166. In consideration of the image data P20 captured in (/ 60 seconds), the Y signal value of the subject P41 is YNB and the Y signal value of the subject P42 is YNA.

以下合成処理(S412)の詳細を図12と図13を用いて説明する。   Details of the synthesis process (S412) will be described below with reference to FIGS.

合成処理(S412)は、合成部166により、第1のYCを第1の階調特性の逆変換を含む信号処理を行い、第1の線形RGB信号に生成する(S501)。次に、第2のYCを第1の階調特性の逆変換を含む信号処理を行い、第2の線形RGB信号を生成する(S502)。   In the synthesizing process (S412), the synthesizing unit 166 performs signal processing including the inverse transformation of the first gradation characteristic on the first YC to generate a first linear RGB signal (S501). Next, the second YC is subjected to signal processing including inverse transformation of the first gradation characteristic to generate a second linear RGB signal (S502).

以下、本実施の形態では第2の露光条件が第1の露光条件より短時間露光したとする。具体的には、第1の露光条件の露光時間が1/60秒、第2の露光条件の露光時間が1秒とする。   Hereinafter, in the present embodiment, it is assumed that the second exposure condition is exposed for a shorter time than the first exposure condition. Specifically, the exposure time under the first exposure condition is 1/60 seconds, and the exposure time under the second exposure condition is 1 second.

次にレンジ変換対象として第1の線形RGB又は第2の線形RGBを判定する(S503)。S503では、レンジ変換対象として露光時間の長い方を選択するので、この場合は、第2の露光条件で撮影された第2の画像データ(第2の線形RGB)を選択するので、ステップS504に至る。ステップS504では、第2の線形RGB信号を第1の露光時間に相当するように信号幅を圧縮して、第3の線形RGB信号を生成する。つまり、図13のG51に示す信号値S2MAXが信号幅の最大値である第2の線形RGB信号を、G52に示す信号値S3MAXが信号幅の最大値となる第3の線形RGB信号に信号幅を圧縮する。なお、第1の線形RGB信号値の信号幅の最大値はG51に示すS1MAXである。   Next, the first linear RGB or the second linear RGB is determined as a range conversion target (S503). In S503, since the longer exposure time is selected as the range conversion target, in this case, the second image data (second linear RGB) photographed under the second exposure condition is selected. It reaches. In step S504, the signal width of the second linear RGB signal is compressed so as to correspond to the first exposure time to generate a third linear RGB signal. That is, the signal width S2MAX indicated by G51 in FIG. 13 is the second linear RGB signal having the maximum signal width, and the signal width S3MAX indicated by G52 is the third linear RGB signal having the maximum signal width. Compress. The maximum signal width of the first linear RGB signal value is S1MAX indicated by G51.

次に第1の線形RGB信号値から第1の線形の輝度Yを生成し、第3の線形RGB信号値から第3の線形の輝度Yを生成する(S505)。図13に示すブレンド率にしたがって、第1の線形の輝度Yと第3の線形の輝度Yから、各画素における第1の線形RGB信号値と第3の線形RGB信号値を合算する際に用いるブレンド率を計算する。第1の線形RGB信号値は図13のG53のブレンド率とし、第3の線形RGB信号値は図13のG54のブレンド率とする(S506)。ブレンド率に応じて第1の線形RGB信号値と第3の線形RGB信号値を合算して第4の線形RGBを生成する(S507)。次に第4の線形RGB信号値を第2の階調特性で信号処理して第4のYCを生成する(S508)。   Next, a first linear luminance Y is generated from the first linear RGB signal value, and a third linear luminance Y is generated from the third linear RGB signal value (S505). In accordance with the blend ratio shown in FIG. 13, the first linear RGB signal value and the third linear RGB signal value in each pixel are added from the first linear luminance Y and the third linear luminance Y. Calculate the blend ratio. The first linear RGB signal value is the blend rate of G53 in FIG. 13, and the third linear RGB signal value is the blend rate of G54 in FIG. 13 (S506). The first linear RGB signal value and the third linear RGB signal value are added according to the blend ratio to generate a fourth linear RGB (S507). Next, the fourth linear RGB signal value is signal-processed with the second gradation characteristic to generate a fourth YC (S508).

ここまで、第1の露光条件が第2の露光条件より短時間露光した場合について説明したが、第1の露光条件が第2の露光条件より長時間露光した場合は、次のようになる。この場合は、第1の露光条件で撮影された第1の画像データ(第1の線形RGB)を選択するので、ステップS510に至る。ステップS510では、第1の線形RGB信号を第2の露光条件に相当するように信号幅を圧縮して、第3の線形RGB信号を生成する。つまり、図13のG51に示す信号値S1MAXが信号幅の最大値である第1の線形RGB信号を、G52に示す信号値S3MAXが信号幅の最大値となる第3の線形RGB信号に信号幅を圧縮する。   The case where the first exposure condition is shorter than the second exposure condition has been described so far. However, when the first exposure condition is exposed for a longer time than the second exposure condition, the following is performed. In this case, since the first image data (first linear RGB) photographed under the first exposure condition is selected, the process proceeds to step S510. In step S510, the signal width is compressed so that the first linear RGB signal corresponds to the second exposure condition to generate a third linear RGB signal. That is, the signal width S1MAX indicated by G51 in FIG. 13 is changed to the first linear RGB signal having the maximum signal width, and the signal width S3MAX indicated by G52 is changed to the third linear RGB signal having the maximum signal width. Compress.

次に第2の線形RGB信号値から第2の線形の輝度Yを生成し、第3の線形RGB信号値から第3の線形の輝度Yを生成する(S511)。図13に示すブレンド率にしたがって、第2の線形の輝度Yと第3の線形の輝度Yから、各画素における第2の線形RGB信号値と第3の線形RGB信号値を合算する際に用いるブレンド率を計算する。第2の線形RGB信号値は図13のG53のブレンド率とし、第3の線形RGB信号値は図13のG54のブレンド率とする(S512)。ブレンド率に応じて第2の線形RGB信号値と第3の線形RGB信号値を合算して第4の線形RGBを生成する(S513)。次に第4の線形RGB信号値を第2の階調特性で信号処理して第4のYCを生成する(S508)。   Next, a second linear luminance Y is generated from the second linear RGB signal value, and a third linear luminance Y is generated from the third linear RGB signal value (S511). According to the blend ratio shown in FIG. 13, the second linear RGB signal value and the third linear RGB signal value in each pixel are added together from the second linear luminance Y and the third linear luminance Y. Calculate the blend ratio. The second linear RGB signal value is the blend rate of G53 in FIG. 13, and the third linear RGB signal value is the blend rate of G54 in FIG. 13 (S512). The fourth linear RGB is generated by adding the second linear RGB signal value and the third linear RGB signal value according to the blend ratio (S513). Next, the fourth linear RGB signal value is signal-processed with the second gradation characteristic to generate a fourth YC (S508).

第4のYCデータは、圧縮部163によって、第2の符号化方式に基づいて圧縮処理が行われ、第4の画像としてバッファメモリ115に格納される(S413〜S414)。第2の符号化方式は、例えばHEVCのフレーム内圧縮方式(HEVC−i)でもよいし、JPEG圧縮方式であってもよい。このようにして図4(b)に示すように第4の画像データD53は、第1の画像データD25と結合され、1つのファイルとしてメモリカード108に記録される(S415)。   The fourth YC data is compressed by the compression unit 163 based on the second encoding method, and stored as the fourth image in the buffer memory 115 (S413 to S414). The second encoding method may be, for example, an HEVC intraframe compression method (HEVC-i) or a JPEG compression method. In this way, as shown in FIG. 4B, the fourth image data D53 is combined with the first image data D25 and recorded as one file on the memory card 108 (S415).

この際に、図5(d)に示すように管理テーブルT10内の階調特性情報T12には、第1の画像データは8ビットで格納されガンマ値が0.45であることを示す情報が記録される。また、第4の画像データは10ビットで格納されガンマ値が0.55であることを示す情報が記録される。合成状態情報T13には、第1の画像データは合成がなされていないことを示す情報が記録され第4の画像は合成済である情報が記録される。撮影順番T14には第1の画像データが2枚中1枚目である情報が記録されるが第3の画像データについては記録しない。露光条件情報T15には、第1の画像が短時間露光である情報が記録され第3の画像については記録しない。   At this time, as shown in FIG. 5D, the gradation characteristic information T12 in the management table T10 includes information indicating that the first image data is stored in 8 bits and the gamma value is 0.45. To be recorded. The fourth image data is stored with 10 bits, and information indicating that the gamma value is 0.55 is recorded. In the combination state information T13, information indicating that the first image data is not combined is recorded, and information indicating that the fourth image is combined is recorded. In the shooting order T14, information that the first image data is the first of the two images is recorded, but the third image data is not recorded. In the exposure condition information T15, information that the first image is short-time exposure is recorded, and the third image is not recorded.

〔3.再生動作〕
本開示の第1〜第4の記録動作において生成された画像データの再生動作について図14の再生動作のフローチャートを用いて説明する。
再生モードにおいては、メモリカード108から、再生すべき画像の管理テーブルT10が読み込まれ(S601)、再生装置が第2の階調特性に対応しているかどうかを判断する(S6502)。再生装置が第2の階調特性に対応していない場合には、第1の画像データD25が再生される(S606)。
[3. (Playback operation)
The reproduction operation of the image data generated in the first to fourth recording operations of the present disclosure will be described using the flowchart of the reproduction operation in FIG.
In the reproduction mode, the management table T10 of the image to be reproduced is read from the memory card 108 (S601), and it is determined whether or not the reproduction apparatus supports the second gradation characteristic (S6502). If the playback device does not support the second gradation characteristic, the first image data D25 is played back (S606).

再生装置が第2の階調特性に対応している場合には、管理テーブルT10内に格納された階調特性情報T12が、第2の階調特性(例えば、10bit、ガンマ値0.55)の画像を含むかどうかが判断される(S603)。図5(d)に示すように再生ファイルに第2の階調特性の画像データが含まれていれば、管理テーブルT10内の第4の画像データD53の先頭アドレスT11に従って再生される(S605)。   When the reproduction apparatus supports the second gradation characteristic, the gradation characteristic information T12 stored in the management table T10 is the second gradation characteristic (for example, 10 bits, gamma value 0.55). It is determined whether or not the image is included (S603). As shown in FIG. 5D, if the reproduction file includes image data having the second gradation characteristic, the reproduction file is reproduced according to the start address T11 of the fourth image data D53 in the management table T10 (S605). .

図5(a)に示すように再生ファイルが第2の階調特性の画像を含まない場合、合成部166によって第1の画像データD25と第2の画像データD33を合成して第1の階調特性と異なる第2の階調特性を有する第4の画像データを生成する。その後、管理テーブルT10が作成されると共に第4の画像データD53は、図15に示すように、第1の画像データD25、第2の画像データD33と結合され、1つのファイルとしてメモリカード108に記録され(S604)、管理テーブルT10内の第4の画像の画像データの先頭アドレスT11に従って再生される(S605)。   As shown in FIG. 5A, when the reproduction file does not include the image of the second gradation characteristic, the first image data D25 and the second image data D33 are combined by the combining unit 166 to generate the first floor. Fourth image data having second gradation characteristics different from the gradation characteristics is generated. Thereafter, the management table T10 is created, and the fourth image data D53 is combined with the first image data D25 and the second image data D33 as shown in FIG. Recorded (S604) and reproduced according to the head address T11 of the image data of the fourth image in the management table T10 (S605).

以上の構成により、本実施の形態にかかるデジタルカメラ101は、画像データの再生動作においては、再生装置が第2の階調特性に対応していれば、第4の画像データを再生し、再生装置が第2の階調特性に対応していない場合には、第1の画像データを再生する。また、再生装置が第2の階調特性に対応して、第2の階調特性の画像データが再生ファイルになければ、第2の階調特性の第4の画像データを合成し、再生する。   With the above configuration, the digital camera 101 according to the present embodiment plays back and plays back the fourth image data in the playback operation of the image data if the playback device supports the second gradation characteristic. If the apparatus does not support the second gradation characteristic, the first image data is reproduced. In addition, if the reproduction apparatus corresponds to the second gradation characteristic and the image data having the second gradation characteristic is not included in the reproduction file, the fourth image data having the second gradation characteristic is synthesized and reproduced. .

第2の階調特性は、ダイナミックレンジの広い再生装置に適した階調特性であり、本実施の形態によって、再生装置のダイナミックレンジに適した画像データの再生が可能となる。   The second gradation characteristic is a gradation characteristic suitable for a reproducing apparatus having a wide dynamic range, and according to the present embodiment, it is possible to reproduce image data suitable for the dynamic range of the reproducing apparatus.

〔4.編集〕
本開示のデジタルカメラ101における画像データの編集について説明する。
[4. (Edit)
Editing of image data in the digital camera 101 of the present disclosure will be described.

デジタルカメラ101は、画像データ編集装置に相当し、デジタルカメラ101の使用者は、画像ファイルに格納されている画像データの階調特性を表示装置のダイナミックレンジに沿った階調特性を有する画像に加工・編集する。具体的には以下の通りである。   The digital camera 101 corresponds to an image data editing apparatus, and the user of the digital camera 101 converts the gradation characteristics of the image data stored in the image file into an image having gradation characteristics in accordance with the dynamic range of the display apparatus. Process and edit. Specifically, it is as follows.

本開示のデジタルカメラ101においては、上述した図14のステップS601,S602,S603,S604を行うことによって、上記第1、第2の記録動作によって図3に示す通り、第1の画像データD25と第2の画像データD33が独立して1つのファイル内に格納されているので、第1の画像データD25および第2の画像データD33に対して、図15に示すように第1の画像データD25が有する階調特性とは異なる第2の階調特性を有する合成したデータを第4の画像データD53として追加することができる。また、図4(a)に示すように第2の画像データD33を、第1の画像データD25と第2の画像データD33を合成した第3の画像データに置き換えることもできる。   In the digital camera 101 of the present disclosure, by performing the above-described steps S601, S602, S603, and S604 of FIG. 14, the first and second recording operations cause the first image data D25 and Since the second image data D33 is independently stored in one file, the first image data D25 as shown in FIG. 15 with respect to the first image data D25 and the second image data D33. The synthesized data having the second gradation characteristic different from the gradation characteristic possessed by can be added as the fourth image data D53. Further, as shown in FIG. 4A, the second image data D33 can be replaced with third image data obtained by synthesizing the first image data D25 and the second image data D33.

本開示のデジタルカメラ101においては、上記第3、第4の記録動作によって図4(a),図4(b)に示す通り、第1の画像データD25と第3の画像データD43又は第4の画像データD53が独立して1つのファイル内に格納されているので、第1の画像データD25および第3の画像データD43又は第4の画像データD53に対して、それぞれ独立して階調特性を変更することが可能である。すなわち、本開示のデジタルカメラ101は、メモリカード108から画像ファイルを再生し、デジタルカメラ101の使用者に第1の画像データD25か第3の画像データD43又は第4の画像データD53のどちらの階調を変更するのかを選択させる。第1の画像データD25の階調特性を変更する場合には、第1の画像データD25の階調特性を変更して記録する。第3の画像データD43又は第4の画像データD53の階調特性を変更する場合には、管理テーブルT10内の第3の画像データD43又は第4の画像データD53の先頭アドレスに従って、第3の画像データD43又は第4の画像データD53の階調を変更して記録する。   In the digital camera 101 of the present disclosure, the first image data D25 and the third image data D43 or the fourth image data are obtained by the third and fourth recording operations as shown in FIGS. 4 (a) and 4 (b). Since the image data D53 is independently stored in one file, the gradation characteristics are independent of the first image data D25 and the third image data D43 or the fourth image data D53, respectively. It is possible to change. That is, the digital camera 101 of the present disclosure reproduces an image file from the memory card 108, and the user of the digital camera 101 receives either the first image data D25, the third image data D43, or the fourth image data D53. Select whether to change the gradation. When changing the gradation characteristics of the first image data D25, the gradation characteristics of the first image data D25 are changed and recorded. When changing the gradation characteristics of the third image data D43 or the fourth image data D53, the third image data D43 or the fourth image data D53 is changed according to the start address of the third image data D43 or the fourth image data D53 in the management table T10. The gradation of the image data D43 or the fourth image data D53 is changed and recorded.

以上のようにデジタルカメラ101は、使用者の意図に沿った階調特性を有する画像に加工・編集することもできる。   As described above, the digital camera 101 can also process and edit an image having gradation characteristics according to the user's intention.

〔5.効果等〕
(1)本実施の形態において、デジタルカメラ101は、第1の露光条件で撮影された第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影された第2の画像データを生成する手段と、前記第1の画像データと前記第2の画像データとを1つのファイルに格納して記録する手段と、を備える。
[5. Effect etc.)
(1) In the present embodiment, the digital camera 101 is photographed under a second exposure condition different from the first exposure condition and means for generating first image data photographed under the first exposure condition. Means for generating second image data, and means for storing and recording the first image data and the second image data in one file.

これにより、画像を印刷または表示する際に、記録された画像ファイルを、それぞれの装置のダイナミックレンジに適した階調特性に応じて、第1または第2の画像データ或いは第1と第2の画像データにより合成して生成した画像データを印刷または表示することができる。   Thus, when printing or displaying an image, the recorded image file is converted into the first or second image data or the first and second image data according to the gradation characteristics suitable for the dynamic range of each device. Image data generated by combining the image data can be printed or displayed.

(2)本実施の形態において、デジタルカメラ101は、第1の露光条件で撮影された第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影された第3の画像データを生成する手段であって、前記第1の露光条件と前記第2の露光条件の差分の露光条件で撮影された第2の画像データと前記第1の画像データを合成して第3の画像データを生成する手段と、前記第1の画像データ又は前記第2の画像データと前記第3の画像データとを1つのファイルに格納して記録する手段と、を備える。   (2) In the present embodiment, the digital camera 101 is photographed under a second exposure condition different from the first exposure condition and means for generating first image data photographed under the first exposure condition. Means for generating third image data, wherein the second image data photographed under an exposure condition that is a difference between the first exposure condition and the second exposure condition is combined with the first image data. Means for generating third image data, and means for storing and recording the first image data or the second image data and the third image data in one file.

これにより、画像を印刷または表示する際に、記録された画像ファイルを、それぞれの装置のダイナミックレンジに適した階調特性に応じて、第1または第2の画像データ或いは第1と第2の画像データにより合成して生成した画素ずれの少ない第3の画像データを印刷または表示することができる。   Thus, when printing or displaying an image, the recorded image file is converted into the first or second image data or the first and second image data according to the gradation characteristics suitable for the dynamic range of each device. It is possible to print or display the third image data with a small pixel shift generated by combining the image data.

(3)本実施の形態において、デジタルカメラ101は、第1の露光条件で撮影された第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影された第2の画像データを生成する手段と、前記第1の画像データと前記第2の画像データを合成した第4の画像データを生成する手段と、前記第1の画像データ又は前記第2の画像データと前記第4の画像データとを1つのファイルに格納して記録する手段と、を備える。   (3) In the present embodiment, the digital camera 101 is photographed under a second exposure condition different from the first exposure condition and means for generating first image data photographed under the first exposure condition. Means for generating second image data, means for generating fourth image data obtained by combining the first image data and the second image data, and the first image data or the second image data. Means for storing and recording image data and the fourth image data in one file.

これにより、画像を印刷または表示する際に、記録された画像ファイルを、それぞれの装置に応じて、第1または第2の画像データ、或いは第4の画像データを印刷または表示することができる。   Thereby, when printing or displaying an image, the recorded image file can be printed or displayed as the first or second image data or the fourth image data according to the respective devices.

(4)本実施の形態において、デジタルカメラ101は、第1の露光条件で撮影され第1の階調特性を有する第1の画像データを生成する手段と、前記第1の露光条件と異なる第2の露光条件で撮影され前記第1の階調特性を有する第2の画像データを生成する手段と、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第4の画像データを生成する手段と、前記第1の画像データ又は前記第2の画像データと前記第4の画像データとを1つのファイルに格納して記録する手段と、を備える。   (4) In the present embodiment, the digital camera 101 is different from the first exposure condition, and means for generating first image data that has been photographed under the first exposure condition and has first gradation characteristics. Means for generating second image data having the first gradation characteristic and photographed under two exposure conditions; and combining the first image data and the second image data to produce the first gradation Means for generating fourth image data having a second gradation characteristic different from the characteristics, and storing the first image data or the second image data and the fourth image data in one file. And means for recording.

これにより、画像を印刷または表示する際に、記録された画像ファイルを、それぞれの装置のダイナミックレンジに適した階調特性および階調数に応じて、第1または第2の画像データ、或いは第4の画像データを印刷または表示することができる。   Thus, when printing or displaying an image, the recorded image file is stored in the first or second image data or the second image data according to the gradation characteristics and the number of gradations suitable for the dynamic range of each device. 4 image data can be printed or displayed.

(5)本実施の形態において、デジタルカメラ101は、表示装置で表示すべき画像ファイルに異なる露光条件で撮影され同じ第1の階調特性を有する第1の画像データと第2の画像データが含まれるかどうかを判断する手段と、前記第1の画像データと前記第2の画像データが前記画像ファイルに含まれており、かつ、前記表示装置が第2の階調特性に対応している場合には、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第3の画像データを生成する手段と、前記第3の画像データを再生する手段と、を備える。   (5) In the present embodiment, the digital camera 101 captures first image data and second image data having the same first gradation characteristics that are photographed under different exposure conditions in an image file to be displayed on the display device. Means for determining whether or not the image file includes the first image data and the second image data, and the display device corresponds to the second gradation characteristic. In the case, means for combining the first image data and the second image data to generate third image data having a second gradation characteristic different from the first gradation characteristic; Means for reproducing third image data.

これにより、本開示の画像再生装置の使用者は、それぞれの画像再生装置のダイナミックレンジや使用者の意図に沿った画像データを選択して再生することができる。   Accordingly, the user of the image reproduction device according to the present disclosure can select and reproduce the image data according to the dynamic range of each image reproduction device or the user's intention.

(6)本実施の形態において、デジタルカメラ101は、編集すべき画像ファイルに異なる露光条件で撮影され同じ第1の階調特性を有する第1の画像データと第2の画像データが含まれるかどうかを判断する手段と、前記第1の画像データと前記第2の画像データが前記画像ファイルに含まれており、かつ、表示装置が第2の階調特性に対応している場合には、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第3の画像データを生成する手段と、前記第3の画像データを記録する手段と、を備える。   (6) In this embodiment, does the digital camera 101 include first image data and second image data that are captured under different exposure conditions and have the same first gradation characteristics in the image file to be edited? When the means for determining whether the first image data and the second image data are included in the image file and the display device supports the second gradation characteristic, Means for combining the first image data and the second image data to generate third image data having second gradation characteristics different from the first gradation characteristics; and the third image Means for recording data.

これにより、本開示の画像編集装置の使用者は、それぞれの表示装置のダイナミックレンジに沿った画像データを選択して再生することができる。   Accordingly, the user of the image editing apparatus according to the present disclosure can select and reproduce image data along the dynamic range of each display device.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, the first embodiment has been described as an example of the technique disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments that have been changed, replaced, added, omitted, and the like. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1, and it can also be set as a new embodiment.

そこで、以下、他の実施の形態を例示する。   Therefore, other embodiments will be exemplified below.

上記第1の記録動作では、第1の撮影動作開始から第1の撮影データ読み出し(S102〜S104)と第2の撮影動作開始から第2の撮影データ読み出し(S108〜S110)までを順番に行い、第1の露光条件を用いて第1の撮影データと第2の露光条件を用いて第2の撮影データを取得しているが、イメージセンサ141の一部のセルにNDフィルタを付帯して、撮影動作開始から撮影データ読み出しを1回行い、前処理161でNDフィルタを付帯したセルの撮影データから第1の露光条件を用いて第1の撮影データを生成し、NDフィルタを付帯しなかったセルの撮影データから第2の露光条件を用いて第2の撮影データを生成してもよい。また、イメージセンサ141、ADコンバータ105、タイミングジェネレータ142、画像処理部160をそれぞれ2つ用いて、光学系120と2つのイメージセンサ141の間にハーフミラーを挿入して光学系120の出力を2つに分割して2つのイメージセンサ141に受光させることで、第1の露光条件を有する第1の撮影データと第2の露光条件を有する第2の撮影データを取得してもよい。   In the first recording operation, the first shooting data reading (S102 to S104) from the start of the first shooting operation and the second shooting data reading (S108 to S110) from the start of the second shooting operation are sequentially performed. The first photographing data and the second photographing data are acquired using the second exposure condition using the first exposure condition, but an ND filter is attached to a part of the cells of the image sensor 141. The photographing data is read once from the start of the photographing operation, the first photographing data is generated from the photographing data of the cell with the ND filter attached in the preprocessing 161 using the first exposure condition, and the ND filter is not attached. The second image data may be generated from the image data of the cell using the second exposure condition. Further, two image sensors 141, AD converters 105, timing generators 142, and image processing units 160 are used, and a half mirror is inserted between the optical system 120 and the two image sensors 141 to output 2 of the optical system 120. The first image data having the first exposure condition and the second image data having the second exposure condition may be acquired by dividing the image data into two and causing the two image sensors 141 to receive the light.

上記第2の記録動作では、撮影動作開始から撮影データ読み出しを1回行い、第1の画像データとは異なる第2の露光条件で撮影された第3の画像データを生成する際、第1の露光条件と第2の露光条件の差分の露光条件で撮影された第2の画像データと第1の画像データの合成をイメージセンサ141にて行われている(S202〜S208)が、撮影動作開始から撮影データ読み出しを、第1の露光条件で撮影された第1の画像データと、第1の露光条件と第2の露光条件の差分の露光出条件で撮影された第2の画像データの取得の2回に分け、画像処理部160の合成部166を使って第3の画像データを生成してもよい。   In the second recording operation, when the shooting data is read once from the start of the shooting operation and the third image data shot under the second exposure condition different from the first image data is generated, The image sensor 141 combines the second image data and the first image data captured under the exposure condition that is the difference between the exposure condition and the second exposure condition (S202 to S208), but the imaging operation is started. From the first image data photographed under the first exposure condition and the second image data photographed under the exposure output condition that is the difference between the first exposure condition and the second exposure condition. The third image data may be generated using the combining unit 166 of the image processing unit 160.

上記第1、第2の記録動作では、第1の露光条件と第2の露光条件により撮影された画像データを生成していたが、第1の露光条件とも第2の露光条件とも異なる第3の露光条件により撮影された画像データを生成して、保存してもよい。上記第3、第4の記録動作では、第3又は第4の画像データ生成は第1のYCと第2のYCを使って画像処理部160の合成部166にて第3又は第4のYCを合成して作成している(S312)が、第1の撮影データであるRAWデータと第2の撮影データであるRAWデータを画像処理部160の合成部166を使って合成した後、画像処理して第3又は第4のYCを生成してもよい。   In the first and second recording operations, image data photographed under the first exposure condition and the second exposure condition is generated, but the third exposure condition is different from the first exposure condition and the second exposure condition. Image data captured under the exposure conditions may be generated and stored. In the third and fourth recording operations, the third or fourth image data is generated by the synthesis unit 166 of the image processing unit 160 using the first YC and the second YC. (S312), the RAW data as the first shooting data and the RAW data as the second shooting data are combined using the combining unit 166 of the image processing unit 160, and then image processing is performed. Then, the third or fourth YC may be generated.

上記第3、第4の記録動作では、非合成の画像である第1の画像データ、第2の画像データのうち、第1の画像データのみを図3に示した形式でメモリカード108に記録しているが、第1の画像データの代わりに第2の画像データを記録してもよいし、第1の画像データと第2の画像データを、第3の画像データ又は第4の画像データとともに、記録してもよい。   In the third and fourth recording operations, only the first image data is recorded in the memory card 108 in the format shown in FIG. 3 among the first image data and the second image data which are non-composite images. However, the second image data may be recorded instead of the first image data, and the first image data and the second image data may be recorded as the third image data or the fourth image data. Along with this, it may be recorded.

上記第3、第4の記録動作では、第1の露光条件と第2の露光条件により撮影された画像データを生成し、前記2つの画像データを合成していたが、第1の露光条件とも第2の露光条件とも異なる第3の露光条件により撮影された画像データを生成して、前記3つの露光条件により撮影された画像データを合成してもよい。   In the third and fourth recording operations, image data shot under the first exposure condition and the second exposure condition is generated and the two image data are combined. Image data shot under a third exposure condition that is different from the second exposure condition may be generated, and the image data shot under the three exposure conditions may be combined.

本実施の形態では、階調特性における画像の階調の応答特性を、1つのガンマ値としたが、画像の暗部と明部などで複数のガンマ値に分けてもよいし、入出力特性を示すLUTを用いてもよい。   In this embodiment, the tone response characteristic of the image in the tone characteristics is a single gamma value, but it may be divided into a plurality of gamma values in the dark part and the bright part of the image, and the input / output characteristics are The LUT shown may be used.

本実施の形態では、画像ファイルをメモリカード108に記録したが、デジタルカメラ101に内蔵されている内蔵メモリ109に記録してもよい。   In the present embodiment, the image file is recorded on the memory card 108, but may be recorded on the built-in memory 109 built in the digital camera 101.

本実施の形態では、デジタルカメラ101は、画像データ再生装置に相当し、デジタルカメラ101の使用者は、表示装置のダイナミックレンジに沿った画像データを選択して再生することにしたが、使用者の意図に沿った画像データを選択して再生することもできる。   In the present embodiment, the digital camera 101 corresponds to an image data playback device, and the user of the digital camera 101 selects and plays back image data according to the dynamic range of the display device. It is also possible to select and reproduce image data according to the intention.

本実施の形態では、図5(a)〜(d)に示す管理テーブルT10を用いたが、図5(a)〜(d)に示す管理テーブルT10に第1区間(最暗部)〜第5区間(最明部)までの画像中の輝度ヒストグラム情報T16を付加した図16に示す管理テーブルT10を使用してもよい。また、管理テーブルT10は、サブ画像データの情報のみでもよいし、サブ画像の先頭アドレスだけでもよい。   In the present embodiment, the management table T10 shown in FIGS. 5A to 5D is used. However, the management table T10 shown in FIGS. 5A to 5D includes the first section (darkest part) to the fifth. A management table T10 shown in FIG. 16 to which luminance histogram information T16 in the image up to the section (brightest part) is added may be used. Further, the management table T10 may include only the information of the sub image data or only the head address of the sub image.

また本実施の形態では、再生動作時において画像ファイルが第2の階調特性の画像データを含まない場合、ステップS604において第2の階調特性の画像データを合成して図15に示すように第4の画像データD53を第1の画像データD25、第2の画像データD33と結合して1つのファイルとしてメモリカード108に記録したが、図3の第2の画像データD33に代えて第4の画像データD53を第1の画像データD25と結合した図4(b)に示すファイルとしてメモリカード108に記録してもよい。さらにステップS604において生成した第4の画像データD53を画像ファイルに記録しなくてもよい。   In the present embodiment, when the image file does not include the second gradation characteristic image data during the reproduction operation, the second gradation characteristic image data is synthesized in step S604 as shown in FIG. The fourth image data D53 is combined with the first image data D25 and the second image data D33 and recorded as one file on the memory card 108, but the fourth image data D53 is replaced with the second image data D33 of FIG. The image data D53 may be recorded on the memory card 108 as a file shown in FIG. 4B combined with the first image data D25. Furthermore, the fourth image data D53 generated in step S604 may not be recorded in the image file.

また本実施の形態では、編集動作時において画像ファイルが第2の階調特性の画像データを含まない場合、ステップS604において第2の階調特性の画像データを合成して図15に示すように第4の画像データD53を第1の画像データD25、第2の画像データD33と結合して1つのファイルとしてメモリカード108に記録したが、図3の第2の画像データD33に代えて第4の画像データD53を第1の画像データD25と結合した図4(b)に示すファイルとしてメモリカード108に記録してもよい。   In the present embodiment, if the image file does not include the second gradation characteristic image data during the editing operation, the second gradation characteristic image data is synthesized in step S604 as shown in FIG. The fourth image data D53 is combined with the first image data D25 and the second image data D33 and recorded as one file on the memory card 108, but the fourth image data D53 is replaced with the second image data D33 of FIG. The image data D53 may be recorded on the memory card 108 as a file shown in FIG. 4B combined with the first image data D25.

以上のように、添付図面および詳細な説明によって、出願人がベストモードと考える実施の形態と他の実施の形態とを提供した。これらは、特定の実施の形態を参照することにより、当業者に対して、特許請求の範囲に記載の主題を例証するために提供されるものである。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、それ以外の構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されているからといって、直ちにそれらの必須ではない構成要素が必須であるとの認定を受けるべきではない。また、特許請求の範囲またはその均等の範囲において、上述の実施の形態に対して、種々の変更、置き換え、付加、省略などを行うことができる。   As described above, the embodiments considered to be the best mode by the applicant and other embodiments are provided by the accompanying drawings and the detailed description. These are provided to those skilled in the art to illustrate the claimed subject matter by reference to specific embodiments. Therefore, the constituent elements described in the accompanying drawings and the detailed description may include not only the constituent elements essential for solving the problem but also other constituent elements. Therefore, just because those non-essential components are described in the accompanying drawings and detailed description, the non-essential components should not be recognized as essential immediately. Various modifications, replacements, additions, omissions, and the like can be made to the above-described embodiments within the scope of the claims and the equivalent scope thereof.

本開示は、プリンタやテレビなど、ダイナミックレンジの異なる機器において、それぞれの機器に最適な複数の階調特性を有する画像データを1つのファイルに記録し、編集・再生することができる。例えば、デジタルスチルカメラ、デジタルビデオカメラ、カメラ機能付き携帯電話端末等に適用できる。   According to the present disclosure, in devices having different dynamic ranges, such as printers and televisions, image data having a plurality of gradation characteristics optimal for each device can be recorded in one file and edited / reproduced. For example, the present invention can be applied to a digital still camera, a digital video camera, a mobile phone terminal with a camera function, and the like.

101 デジタルカメラ
108 メモリカード
109 内蔵メモリ
110 液晶モニタ
111 通信部
115 バッファメモリ
141 イメージセンサ
150 コントローラ
160 画像処理部
162 YC変換部
163 圧縮部
164 伸張部
165 電子ズーム処理部
166 合成部
174 モードダイアル
101 Digital Camera 108 Memory Card 109 Built-in Memory 110 LCD Monitor 111 Communication Unit 115 Buffer Memory 141 Image Sensor 150 Controller 160 Image Processing Unit 162 YC Conversion Unit 163 Compression Unit 164 Expansion Unit 165 Electronic Zoom Processing Unit 166 Composition Unit 174 Mode Dial

Claims (7)

第1の露光条件で撮影された第1の画像データを生成する手段と、
前記第1の露光条件と異なる第2の露光条件で撮影された第2の画像データを生成する手段と、
前記第1の画像データと前記第2の画像データとを1つのファイルに格納して記録する手段と、
を備えた画像データ生成装置。
Means for generating first image data photographed under a first exposure condition;
Means for generating second image data photographed under a second exposure condition different from the first exposure condition;
Means for storing and recording the first image data and the second image data in one file;
An image data generation device.
第1の露光条件で撮影された第1の画像データを生成する手段と、
前記第1の露光条件と異なる第2の露光条件で撮影された第3の画像データを生成する手段であって、前記第1の露光条件と前記第2の露光条件の差分の露光条件で撮影された第2の画像データと前記第1の画像データを合成して第3の画像データを生成する手段と、
前記第1の画像データ又は前記第2の画像データと前記第3の画像データとを1つのファイルに格納して記録する手段と、
を備えた画像データ生成装置。
Means for generating first image data photographed under a first exposure condition;
Means for generating third image data photographed under a second exposure condition different from the first exposure condition, wherein the photograph is performed under an exposure condition that is a difference between the first exposure condition and the second exposure condition; Means for generating the third image data by combining the second image data and the first image data,
Means for storing and recording the first image data or the second image data and the third image data in one file;
An image data generation device.
第1の露光条件で撮影された第1の画像データを生成する手段と、
前記第1の露光条件と異なる第2の露光条件で撮影された第2の画像データを生成する手段と、
前記第1の画像データと前記第2の画像データを合成した第4の画像データを生成する手段と、
前記第1の画像データ又は前記第2の画像データと前記第4の画像データとを1つのファイルに格納して記録する手段と、
を備えた画像データ生成装置。
Means for generating first image data photographed under a first exposure condition;
Means for generating second image data photographed under a second exposure condition different from the first exposure condition;
Means for generating fourth image data obtained by combining the first image data and the second image data;
Means for storing and recording the first image data or the second image data and the fourth image data in one file;
An image data generation device.
前記第1の画像データを生成する手段は、第1の階調特性を有する第1の画像データを生成し、
前記第2の画像データを生成する手段は、前記第1の階調特性を有する第2の画像データを生成し、
前記第4の画像データを生成する手段は、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第4の画像データを生成する、請求項3記載の画像データ生成装置。
The means for generating the first image data generates first image data having a first gradation characteristic,
The means for generating the second image data generates second image data having the first gradation characteristic,
The means for generating the fourth image data is a fourth image having a second gradation characteristic different from the first gradation characteristic by combining the first image data and the second image data. The image data generation device according to claim 3, which generates data.
前記第1の画像データを生成するための第1の撮影動作と、前記第2の画像データを生成するための第2の撮影動作が時間的に並行して行われる、請求項1記載の画像データ生成装置。   2. The image according to claim 1, wherein a first photographing operation for generating the first image data and a second photographing operation for generating the second image data are performed in parallel in time. Data generator. 表示装置で表示すべき画像ファイルに異なる露光条件で撮影され同じ第1の階調特性を有する第1の画像データと第2の画像データが含まれるかどうかを判断する手段と、
前記第1の画像データと前記第2の画像データが前記画像ファイルに含まれており、かつ、前記表示装置が第2の階調特性に対応している場合には、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第3の画像データを生成する手段と、
前記第3の画像データを再生する手段と、
を備えた画像データ再生装置。
Means for determining whether or not the image file to be displayed on the display device includes first image data and second image data which are photographed under different exposure conditions and have the same first gradation characteristics;
When the first image data and the second image data are included in the image file, and the display device supports the second gradation characteristic, the first image data Means for combining the second image data and the second image data to generate third image data having a second gradation characteristic different from the first gradation characteristic;
Means for reproducing the third image data;
An image data reproducing apparatus comprising:
編集すべき画像ファイルに異なる露光条件で撮影され同じ第1の階調特性を有する第1の画像データと第2の画像データが含まれるかどうかを判断する手段と、
前記第1の画像データと前記第2の画像データが前記画像ファイルに含まれており、かつ、表示装置が第2の階調特性に対応している場合には、前記第1の画像データと前記第2の画像データを合成して前記第1の階調特性と異なる第2の階調特性を有する第3の画像データを生成する手段と、
前記第3の画像データを記録する手段と、
を備えた画像データ編集装置。
Means for determining whether or not the image file to be edited includes first image data and second image data which are photographed under different exposure conditions and have the same first gradation characteristics;
In a case where the first image data and the second image data are included in the image file and the display device supports the second gradation characteristic, the first image data and Means for combining the second image data to generate third image data having a second gradation characteristic different from the first gradation characteristic;
Means for recording the third image data;
An image data editing apparatus.
JP2016153739A 2016-08-04 2016-08-04 Image data generator, image data reproduction apparatus, and image data editing device Pending JP2018023033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016153739A JP2018023033A (en) 2016-08-04 2016-08-04 Image data generator, image data reproduction apparatus, and image data editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016153739A JP2018023033A (en) 2016-08-04 2016-08-04 Image data generator, image data reproduction apparatus, and image data editing device

Publications (1)

Publication Number Publication Date
JP2018023033A true JP2018023033A (en) 2018-02-08

Family

ID=61165844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016153739A Pending JP2018023033A (en) 2016-08-04 2016-08-04 Image data generator, image data reproduction apparatus, and image data editing device

Country Status (1)

Country Link
JP (1) JP2018023033A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10708567B2 (en) 2018-05-16 2020-07-07 Canon Kabushiki Kaisha Display control apparatus and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10708567B2 (en) 2018-05-16 2020-07-07 Canon Kabushiki Kaisha Display control apparatus and control method thereof

Similar Documents

Publication Publication Date Title
JP4466261B2 (en) Imaging apparatus, brightness correction method, and program
JP5014099B2 (en) Imaging apparatus and control method thereof
JP6624889B2 (en) Video processing apparatus, video processing method, and video processing program
US20110135151A1 (en) Method and apparatus for selectively supporting raw format in digital image processor
JP5642344B2 (en) Image processing apparatus, image processing method, and image processing program
JP2017139618A (en) Image data generating apparatus, image data generating method, and program
JP2008109305A (en) Image processing device, and control method of image processing device
JP6049425B2 (en) Imaging apparatus, image processing apparatus, and control method
JP6008716B2 (en) Imaging apparatus, image processing apparatus, image processing system, and control method
JP4366485B2 (en) Imaging apparatus, image processing method, and program
JP2018023033A (en) Image data generator, image data reproduction apparatus, and image data editing device
JP2000307921A (en) Picture processor
EP2515543B1 (en) Image capturing apparatus and image capturing method
JP2004129065A (en) Digital camera
JP2010119011A (en) Digital camera
JP2018074523A (en) Imaging device, control method thereof, program, and recording medium
JP5340456B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2018019122A (en) Image data processor and imaging apparatus
JP2005229280A (en) Image processing apparatus and method, and program
JP2012065267A (en) Imaging apparatus, imaging method, and program
JP2011244053A (en) Image processing apparatus, imaging apparatus, and image processing program
JP2011041144A (en) Apparatus and program for processing image
JP2010124114A (en) Digital camera and image data processing program
JP2008099147A (en) Image processor and image processing method
JP4807446B2 (en) Imaging apparatus, recording control method, and program